当前位置: 首页 > news >正文

在Ubuntu上安装配置 LLaMA-Factory

一、下载 LLaMA-Factory 源码

git clone https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory

二、 安装依赖

pip install -e ".[torch,metrics]"

如果出现环境冲突,请尝试使用下面命令

 pip install --no-deps -e . 

三、安装校验

完成安装后,可以通过使用下面命令 来快速验证安装是否成功

 llamafactory-cli version

如果您能成功看到类似下面的界面,就说明安装成功了。

http://www.dtcms.com/a/270900.html

相关文章:

  • Go 延迟调用 defer 用法详解
  • vscode 防止linux索引爆红
  • SQL Server通过存储过程实现HTML页面生成
  • Python爬取闲鱼价格趋势并可视化分析
  • Using Spring for Apache Pulsar:Message Production
  • 基于svga+uniapp的微信小程序动画组件开发指南
  • pytorch的详细安装教程
  • 百度文心一言开源ERNIE-4.5深度测评报告:技术架构解读与性能对比
  • “AI 曼哈顿计划”:科技竞赛还是人类挑战?
  • AI识别 + 食品质量安全预警系统
  • 18-C#改变形参内容
  • 工程改Mvvm
  • Java零基础笔记09(Java编程核心:面向对象编程高级练习:支付模块)
  • 自动化运维工程师实操面试题
  • Jenkins 流水线配置
  • SQLite密码修改故障排查:RSA加密随机性导致的数据库匹配问题
  • ABAP 调用 ZCL_EXCEL_READER_2007举例
  • 虚幻引擎5 GAS开发俯视角RPG游戏 #5-8:倾听属性变化
  • 【视频观看系统】- 需求分析
  • 在overleaf中使用bibtex格式引用文献
  • 算法核心知识复习:排序算法对比 + 递归与递推深度解析(根据GESP四级题目总结)
  • Java SE 实现简单的图书管理系统(完善菜单操作)
  • Linux入门篇学习——Linux 编写第一个自己的命令
  • 深度学习 必然用到的 微积分知识
  • 基于pytorch.nn模块实现softmax回归模型
  • 我是如何实现在线客服系统的极致稳定性与安全性的
  • NumPy-广播机制深入理解
  • HashMap的put、get方法详解(附源码)
  • 冷冻电镜重构的GPU加速破局:从Relion到CryoSPARC的并行重构算法
  • 【前端】异步任务风控验证与轮询机制技术方案(通用笔记版)