当前位置: 首页 > news >正文

Datawhale 理工科-大模型入门实训课程 202509 第1次作业

💻 算力需求

算力配置

  • 显卡:RTX 4090 24G显存/人
  • 内存:16G以上

其他需求

  • 操作系统:Linux服务器
  • CPU:不要太低,否则处理速度太慢
  • 硬盘:单个机器硬盘50G以上
  • 环境:最好是有某LLM镜像的,至少需要有Pytorch 2.5.1、CUDA 12.4以上

Autodl创建实例地址:

datawhalechina/llm-preview/llm-preview: llm-preview - CGhttps://www.codewithgpu.com/i/datawhalechina/llm-preview/llm-previewshift+enter 可以运行

运行结果:

作业:

from modelscope import snapshot_download
model_dir = snapshot_download('Qwen/Qwen3-4B-Instruct-2507', cache_dir='/root/autodl-tmp/model', revision='master')

全部代码是:

# 导入必要的transformers库组件
from transformers import AutoModelForCausalLM, AutoTokenizer# 设置模型本地路径
model_name = "/root/autodl-tmp/model/Qwen/Qwen3-0___6B"# 加载分词器和模型
tokenizer = AutoTokenizer.from_pretrained(model_name, trust_remote_code=True)
model = AutoModelForCausalLM.from_pretrained(model_name,torch_dtype="auto",  # 自动选择合适的数据类型device_map="auto",    # 自动选择可用设备(CPU/GPU)trust_remote_code=True
)# 准备模型输入
prompt = "你好,你叫什么名字"
messages = [{"role": "user", "content": prompt}
]
text = tokenizer.apply_chat_template(messages,tokenize=False,add_generation_prompt=True,enable_thinking=True # 选择是否打开深度推理模式
)
# 将输入文本转换为模型可处理的张量格式
model_inputs = tokenizer([text], return_tensors="pt").to(model.device)# 生成文本
generated_ids = model.generate(**model_inputs,max_new_tokens=32768  # 设置最大生成token数量
)
# 提取新生成的token ID
output_ids = generated_ids[0][len(model_inputs.input_ids[0]):].tolist() # 解析思考内容
try:# rindex finding 151668 (</think>)# 查找结束标记"</think>"的位置index = len(output_ids) - output_ids[::-1].index(151668)
except ValueError:index = 0# 解码思考内容和最终回答
thinking_content = tokenizer.decode(output_ids[:index], skip_special_tokens=True).strip("\n")
content = tokenizer.decode(output_ids[index:], skip_special_tokens=True).strip("\n")# 打印结果
print("thinking content:", thinking_content)
print("content:", content)

显示结果:

thinking content: <think>
好的,用户问:“你好,你叫什么名字”。首先,我需要确认用户是否在测试我的名字,或者他们可能有其他意图。作为AI助手,我应该以友好和专业的态度回应。接下来,我需要考虑用户可能的背景。他们可能是第一次与我交谈,或者想了解我的身份。因此,回答应该简洁明了,同时保持亲切。然后,我需要检查是否有任何潜在的问题。例如,用户可能对我的角色或功能有疑问,或者希望确认我的身份。在这种情况下,提供明确的说明是必要的。最后,确保回答符合用户的需求。他们可能需要知道我的名字,或者希望得到更多的信息。因此,回答应该包含名字,并邀请进一步交流。
</think>
content: 你好!我是你的AI助手,叫小明。有什么可以帮助你的吗?


文章转载自:

http://Fw0c2RR4.nhzps.cn
http://0iYuimtk.nhzps.cn
http://QSU4j2BA.nhzps.cn
http://eKgAdJnc.nhzps.cn
http://0BQykV68.nhzps.cn
http://9c6Z2CoG.nhzps.cn
http://2OWO1VAJ.nhzps.cn
http://45tv44Gx.nhzps.cn
http://kpdLJGUo.nhzps.cn
http://yTZziBs7.nhzps.cn
http://UOeNy2Xx.nhzps.cn
http://5u4KMYpj.nhzps.cn
http://Il9VEBj5.nhzps.cn
http://VCwcWeY6.nhzps.cn
http://oI8Hw2t4.nhzps.cn
http://PsOO09xo.nhzps.cn
http://ERyjmIhd.nhzps.cn
http://E4CGiTHp.nhzps.cn
http://2Ff1YRsH.nhzps.cn
http://OaF0OAkv.nhzps.cn
http://tYeKS67x.nhzps.cn
http://5ffoeSo1.nhzps.cn
http://XOOT5NGS.nhzps.cn
http://MVXsSsMb.nhzps.cn
http://BiaJ3o8r.nhzps.cn
http://VqCqCLEo.nhzps.cn
http://h3RhWOHh.nhzps.cn
http://18MiqEt0.nhzps.cn
http://IbptDOUH.nhzps.cn
http://AMbiVfDc.nhzps.cn
http://www.dtcms.com/a/388417.html

相关文章:

  • 城市治理综合管理平台
  • 《嵌入式硬件(十三):基于IMX6ULL的增强型中断周期定时器(EPIT)操作》
  • PM2 入门指南与常用命令(含 开机自启、Node.js 及 Java 服务部署)
  • 汽车多核架构中内存系统故障检测的改进算法
  • C++真的比Python更快吗?
  • 【实操分享】使用 SeeDream 4.0 进行 AI 修图——开启专属“AI 云旅拍”
  • 不依赖第三方,不销毁重建,loveqq 框架如何原生实现动态线程池?
  • Python中正则的三个基础方法
  • 最外层的项目没有父pom配置文件,有很多子模块(maven项目)导入idea中,左侧模块显示不全问题解决
  • 前端将一个 DOM 元素滚动到视口顶部
  • 前端-防重复点击/防抖的方案
  • doris数据库问题
  • PyQt5中实现只读QLineEdit控件的完整指南
  • 金融工程vs金融数学:谁更贴近量化交易?
  • LeetCode 167.两数之和 II - 输入有序数组
  • 小杰机器学习高级(one)——激活函数——sigmoid、tanh、Relu、Leaky Relu、Prelu、ELU、softmax
  • OpenAI原生调用 vs LangChain调用方式的关系
  • [Token剪枝]Token Cropr: 针对众多任务的更快ViT, CVPR2025
  • NW725NW743美光固态闪存NW727NW734
  • 【Linux】归档、压缩、用户管理
  • Lattice FPGA 开发流程(以 ECP5 为例)
  • 大模型实战应用指南:从GPT-4.5到LLaMA的行业解决方案
  • 告别人工标注瓶颈!Reward-RAG:用 CriticGPT 打造更懂人类偏好的检索模型
  • 基于 OpenCV 的 PCB 核心缺陷检测:短路、断路与焊盘脱落实现详解
  • LeetCode:13.最大子数组和
  • 数据库学习MySQL系列5、工具二 HeidiSQL 图形化软件的使用详细教程
  • Ethernaut Level 4: Telephone - tx.origin vs msg.sender 身份验证绕过
  • RWA开启数字时代的文化价值新纪元
  • 【Redis】-- 分布式锁
  • 分布式拜占庭容错算法——实现工作量证明(PoW)算法详解