当前位置: 首页 > wzjs >正文

怎么让百度快速收录网站最新国际新闻大事件

怎么让百度快速收录网站,最新国际新闻大事件,b2b电子商务网站调研报告电大作业,wordpress alchem【AI】使用 Hugging Face Transformers 进行文本摘要实现 推荐超级课程: 本地离线DeepSeek AI方案部署实战教程【完全版】Docker快速入门到精通Kubernetes入门到大师通关课AWS云服务快速入门实战目录 【AI】使用 Hugging Face Transformers 进行文本摘要实现Hugging Face Tra…

【AI】使用 Hugging Face Transformers 进行文本摘要实现

推荐超级课程:

  • 本地离线DeepSeek AI方案部署实战教程【完全版】
  • Docker快速入门到精通
  • Kubernetes入门到大师通关课
  • AWS云服务快速入门实战

目录

  • 【AI】使用 Hugging Face Transformers 进行文本摘要实现
    • Hugging Face Transformers 概述
    • 为什么选择 `google/pegasus-cnn_dailymail` 模型?
    • 先决条件
    • 数据摄取
    • 数据验证
    • 数据转换
    • 模型训练
    • 模型评估
    • 预测
    • 结论

我们将构建一个用于总结摘要的模型
在这里插入图片描述

文本摘要是 Hugging Face Transformers 提供的一个强大功能。它允许我们从大量文本中生成简洁的摘要。这在处理大量文本数据并需要以简短易读的格式提取核心思想时特别有用。

Hugging Face Transformers 概述

transformers 库是 TensorFlow 2.0 和 PyTorch 上的最先进的自然语言处理 (NLP) 库。它提供了数千个预训练模型来执行文本上的各种任务,如分类、信息提取、摘要、翻译、文本生成等。
利用预训练模型可以显著降低计算成本,节省宝贵的时间和资源,这些资源和时间原本会用于从头开始训练模型。这些模型支持跨不同模态的各种任务,包括自然语言处理 (NLP)、计算机视觉、音频和多模态任务。
在本教程中,我们将使用 google/pegasus-cnn_dailymail 模型。

为什么选择 google/pegasus-cnn_dailymail 模型?

Pegasus 模型是在 CNN/DailyMail 数据集上训练的,专为抽象文本摘要而设计。CNN/DailyMail 数据集是文本摘要任务的流行选择。
这个模型标识符可以使用 Hugging Face Transformers 库提供的 from_pretrained 方法来加载预训练模型。

model = "google/pegasus-cnn_dailymail"  tokenizer = AutoTokenizer.from_pretrained(model)  
model_pegasus = AutoModelForSeq2SeqLM.from_pretrained(model).to(device)

先决条件

在开始之前,请确保已安装必要的库。在终端中运行以下命令:

pip install transformers[sentencepiece] datasets sacrebleu rouge_score py7zr -q  
pip install --upgrade accelerate  
pip uninstall -y transformers accelerate  
pip install transformers accelerate

accelerate 库是一个轻量级的解决方案,用于在多种类型的硬件上训练和部署机器学习模型。它提供了一个简单的 API,用于将模型训练卸载到 GPU,并且与 PyTorch 和 TensorFlow 兼容。
本教程需要以下 Python 库:

from transformers import pipeline, set_seed  
from datasets import load_dataset, load_from_disk, load_metric  
import matplotlib.pyplot as plt  
from datasets import load_dataset  
import pandas as pd  
from transformers import AutoModelForSeq2SeqLM, AutoTokenizer  
import nltk  
from nltk.tokenize import sent_tokenize  
from tqdm import tqdm  
import torch  
nltk.download("punkt")  from transformers import DataCollatorForSeq2Seq  
from transformers import TrainingArguments, Trainer

load_dataset:这是 datasets 库提供的一个函数,允许您加载一个数据集。您可以使用它从 Hugging Face Hub 或本地文件加载数据集。
load_from_disk:这是 datasets 库提供的一个函数,允许您加载已保存到磁盘的数据集。如果您的数据集太大,无法全部加载到内存中,这可能会很有用,因为 datasets 库使用内存映射,允许您在不将整个数据集加载到内存的情况下加载数据集。
AutoModelForSeq2SeqLM:这用于将一个序列转换为另一个长度相同的序列的任务(例如,翻译、摘要、文本生成)。
AutoTokenizer:这用于对文本进行标记化。
如果您有 GPU,您可以选择使用 CUDA 来执行训练和评估过程。如果没有 GPU,系统将默认使用 CPU。

device = "cuda" if torch.cuda.is_available() else "cpu"

数据摄取

首先,我们需要从 Hugging Face 下载 SamSum 数据集。您可以使用以下链接下载它:
samsum · Hugging Face 上的数据集
下载后,解压数据并使用 load_from_disk 库加载数据集。记得指定数据集的路径。

dataset_samsum = load_from_disk('samsum_dataset')  
dataset_samsumdef download_file():  if not os.path.exists(local_data_file):  filename, headers = request.urlretrieve(  url = source_URL,  filename = local_data_file  )  def extract_zip_file():  unzip_path = unzip_dir  os.makedirs(unzip_path, exist_ok = True)  with zipfile.ZipFile(local_data_file, 'r') as zip_ref:  zip_ref
http://www.dtcms.com/wzjs/145298.html

相关文章:

  • 网站建设安全保密协议百度网盘客服24小时电话人工服务
  • 网站后台管理员做链接成都网站seo收费标准
  • 做新闻类网站如何盈利百度注册新账号
  • 正规免费发布信息网站深圳百度快速排名提升
  • py怎么做网站站长网站工具
  • 自己动手创建一个公司网站枫树seo
  • 北京办理营业执照多少钱贵州萝岗seo整站优化
  • 网页设计作业制作与江东seo做关键词优化
  • 温州网站推广优化怎么在百度上发广告
  • 1级a做爰免费网站天津做网站的公司
  • 织梦做的网站织梦修改网页百度竞价怎么开户
  • 武汉疾控最新提醒巩义网站优化公司
  • 做的新网站网上搜不到合肥头条今日头条新闻最新消息
  • 首尔面积影响关键词优化的因素
  • 做市场的逛的网站百度惠生活怎么优化排名
  • 广州网站建设模板制作厦门seo网站管理
  • php网站开发师招聘百度推广竞价排名技巧
  • 音响 东莞网站建设技术支持seo百度百科
  • 衡阳市住房和城乡建设局网站外贸网络推广怎么做
  • 免费建设公司网站新东方烹饪学校
  • 建设网站需要多少钱济南兴田德润地址关键词优化排名的步骤
  • 外贸网站建设的重要性百度权重批量查询
  • 凡科网站建设分类模块怎么弄国内seo公司
  • 常州做沙滩旗的公司网站如何拿高权重网站外链进行互换?
  • 如何推广qq群搜索优化
  • 苏州建设网站哪家好百度如何添加店铺位置信息
  • 哪些网站做的比较好看的哪些行业适合做seo
  • 代做电大网站ui作业淘宝关键词top排行榜
  • 全国今日生猪价格涨跌表价格株洲seo排名
  • 哪个网站专业做安防网络营销比较好的企业