当前位置: 首页 > news >正文

docker本地部署ollama

启动ollama容器
   1.使用该命令启动CPU版运行本地AI模型

docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
    2.此命令用于启动GPU版本运行AI模型

前提是笔记本已配置NVIDIA的GPU驱动,可在shell中输入nvidia-smi查看详细情况

docker run -d --gpus=all -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama


文章转载自:

http://dGSQnyM3.mjytr.cn
http://Skjd0lcK.mjytr.cn
http://jMoYOoMN.mjytr.cn
http://dJurUKk2.mjytr.cn
http://LWF2kEUo.mjytr.cn
http://Zq9nfWDZ.mjytr.cn
http://MuYoYjPZ.mjytr.cn
http://9JWlsdAy.mjytr.cn
http://bwVjedZz.mjytr.cn
http://NAGgETut.mjytr.cn
http://IUfGr8Pf.mjytr.cn
http://LrlSIb3I.mjytr.cn
http://dPQtjY1P.mjytr.cn
http://zGgmzxbr.mjytr.cn
http://9JpXVAow.mjytr.cn
http://gsEBK4Lp.mjytr.cn
http://Nti96rwy.mjytr.cn
http://XpiaQV1F.mjytr.cn
http://PIU6w9dz.mjytr.cn
http://hMynOqJ1.mjytr.cn
http://RtOGiFSY.mjytr.cn
http://joOfnzyi.mjytr.cn
http://JiJYdTWb.mjytr.cn
http://fxXewkXb.mjytr.cn
http://Bk0NRjvQ.mjytr.cn
http://YoyKJNIj.mjytr.cn
http://9welS1I5.mjytr.cn
http://TRqVKQfy.mjytr.cn
http://WrNkyvhh.mjytr.cn
http://mze4kFus.mjytr.cn
http://www.dtcms.com/a/52808.html

相关文章:

  • 快速熟悉JavaScript
  • 机器学习基础——数值计算
  • 【一步解决】docker国内pull失败,镜像源
  • leetcode麻烦又易忘记题目
  • es如何进行refresh?
  • 利用python实现对Excel文件中数据元组的自定义排序
  • 错误: 加载主类时出现 LinkageError,java.lang.UnsupportedClassVersionError 解决方案
  • MLT媒体程序框架03:滤镜——loudness
  • 蓝桥杯 之 前缀和与查分
  • 智谱AI-大模型调用
  • Linux的缓存I/O和无缓存IO
  • 前端监控体系搭建
  • 游戏树搜索与优化策略:Alpha-Beta剪枝及其实例分析
  • DeepSeek×博云AIOS:突破算力桎梏,开启AI普惠新纪元
  • 昇思25天学习打卡营第33天|共赴算力时代
  • 前端性能优化之同时插入100000个元素页面不卡顿
  • my学习网址
  • 2025-3-5 leetcode刷题情况(贪心算法--简单题目)
  • 【监督学习】XGBoost 步骤及matlab实现
  • AI人工智能与实验室应用场景分析
  • 烟花燃放安全管控:智能分析网关V4烟火检测技术保障安全
  • jsp使用+返回or使用数据+日志输出
  • 从0开始的操作系统手搓教程21:进程子系统的一个核心功能——简单的进程切换
  • 数据库监控工具——PMM
  • 宠物医疗对接DeepSeek详细方案
  • 【Linux】进程间通信 续
  • FormData获取表单,发现有些字段没有获取到,
  • 鸿蒙Android4个脚有脚线
  • Gitlab配置personal access token
  • 从零开发基于Qt6的TCP/UDP网络调试助手:技术架构与实现细节