当前位置: 首页 > news >正文

多模态基础模型第二篇-deepseek-r1部署

分别使用本地windows和云端linux进行部署,测试不同硬件资源的模型推理性能:

windos部署:直接打开Download Ollama on Linux 下载,然后本地启动服务,

linux部署:curl -fsSL https://ollama.ai/install.sh | sh

接着启动ollama pull deepseek-r1:7b,然后就可以使用了,

window本地占用:

速度还是比较快,基本上7-8token每秒,但是我测试了一下kimi的官网,每秒50个token随随便便。。。感觉也还行吧

相关文章:

  • FPGA之​​​​​​​​​​​​​​HRBANK与HOBANK有什么区别?
  • 002 第一个python程序
  • 企业级API集成方案:基于阿里云函数计算调用DeepSeek全解析
  • 【Leetcode 952】按公因数计算最大组件大小
  • LLM大模型学习资料整理
  • Java爬虫获取1688商品搜索API接口的实现指南
  • python | 两招解决第三方库安装难点
  • 如何画产品功能图、结构图
  • 进程与线程的区别与联系
  • Lazarus 旋转图片(TImage、TBitmap)
  • 我们来学HTTP/TCP -- 三次握手?
  • 2025 pwn_A_childs_dream
  • C++中 map的基本用法
  • 春招项目=图床+ k8s 控制台(唬人专用)
  • 委托构造函数与继承构造函数
  • nginx反向代理负载均衡
  • 数据结构 day02
  • 2024年度中国家居冠军榜公布,冠珠瓷砖荣获“行业领军品牌”
  • 深度学习(1)-简单神经网络示例
  • 力扣 乘积最大子数组
  • 领证不用户口本,还需哪些材料?补领证件如何操作?七问七答
  • “80后”赵亮出任上海普陀区委副书记
  • 王受文已任全国工商联党组成员
  • “一嗨租车”陷“五年后扣费”疑云,用户:违章处理莫名消失
  • 2025上海科技节将于5月17日开幕,拟设6大板块专题活动
  • 习近平离京赴莫斯科对俄罗斯进行国事访问并出席纪念苏联伟大卫国战争胜利80周年庆典