当前位置: 首页 > news >正文

AI学习和研究——环境部署

快20年在家里没有用过台式机了,网上500块淘了台E5二手电脑,为了能跑动大模型,换掉显卡和电源,加了个1TB硬盘。显示器用被家里淘汰掉的电视。

设备名    DESKTOP-MRT91H0
处理器    Intel(R) Xeon(R) CPU E5-2670 v2 @ 2.50GHz   2.50 GHz
机带 RAM    16.0 GB
存储    112 GB SSD Colorful SL300 120GB, 954 GB SSD BIWIN M100 1TB
显卡    NVIDIA GeForce RTX 3060 (12 GB)
设备 ID    68A8B226-3307-467D-A1FF-7396C538A5B5
产品 ID    00391-70000-00000-AA516
系统类型    64 位操作系统, 基于 x64 的处理器
笔和触控    没有可用于此显示器的笔或触控输入
版本    Windows 10 专业工作站版
版本号    22H2
安装日期    ‎2025/‎10/‎26
OS 内部版本    19045.6456

然后查阅资料开整:今年最流行的是deepseek

特性

DeepSeek V3

DeepSeek R1

DeepSeekLLM

含义

高性能信息检索和自然语言处理模型,适用于大规模应用

针对特定任务优化的轻量级模型,适用于中小型企业

专为大规模语言生成任务设计,适用于对话系统和生成任务

模型名称

DeepSeek V3

DeepSeek R1

DeepSeekLLM

模型大小

1.5B、7B、8B、14B、32B、70B、671B

1.5B、7B、8B、14B

7B、14B、32B、70B、175B、671B

重要特效

- 高效信息检索与语义理解能力

- 优化的推理速度,低资源消耗

- 强大语言生成能力,适用于对话生成、文本生成等

- 适合大规模文档处理和高并发查询

- 较轻的计算需求,适用于小型到中型企业应用

- 强大上下文理解能力,适应复杂对话场景

能力

- 高效的信息检索、语义理解和大规模文本处理

- 快速的推理能力,适用于轻量级的企业应用

- 强大的文本生成、机器翻译、情感分析等

- 适应大规模数据库检索、搜索引擎等任务

- 支持中型规模企业应用,如文档分类、知识图谱查询等

- 支持生成式对话、文章创作、复杂问答任务

配置建议(1.5B)

CPU:Intel Xeon 或 AMD EPYC 16 核

CPU:Intel Xeon 或 AMD EPYC 16 核

CPU:Intel Xeon 或 AMD EPYC 16 核

内存:32GB RAM

内存:32GB RAM

内存:32GB RAM

显卡:NVIDIA T4 / V100 / A100,16GB 显存

显卡:NVIDIA T4,16GB 显存

显卡:NVIDIA A100,16GB 显存

Python 版本:Python 3.7+

Python 版本:Python 3.7+

Python 版本:Python 3.7+

配置建议(7B)

CPU:Intel Xeon 或 AMD EPYC 16 核

CPU:Intel Xeon 或 AMD EPYC 16 核

CPU:Intel Xeon 或 AMD EPYC 16 核

内存:64GB RAM

内存:64GB RAM

内存:64GB RAM

显卡:NVIDIA A100,16GB 显存

显卡:NVIDIA A100 / V100,16GB 显存

显卡:NVIDIA A100 / V100,16GB 显存

Python 版本:Python 3.7+

Python 版本:Python 3.7+

Python 版本:Python 3.7+

配置建议(8B)

CPU:Intel Xeon 或 AMD EPYC 24 核

CPU:Intel Xeon 或 AMD EPYC 24 核

CPU:Intel Xeon 或 AMD EPYC 24 核

内存:128GB RAM

内存:128GB RAM

内存:128GB RAM

显卡:2 x A100,32GB 显存

显卡:2 x A100,32GB 显存

显卡:2 x A100,32GB 显存

Python 版本:Python 3.7+

Python 版本:Python 3.7+

Python 版本:Python 3.7+

配置建议(14B)

CPU:Intel Xeon 或 AMD EPYC 32 核

CPU:Intel Xeon 或 AMD EPYC 32 核

CPU:Intel Xeon 或 AMD EPYC 32 核

内存:128GB - 256GB RAM

内存:128GB - 256GB RAM

内存:128GB - 256GB RAM

显卡:2 x A100,40GB 显存

显卡:2 x A100,40GB 显存

显卡:2 x A100,40GB 显存

Python 版本:Python 3.7+

Python 版本:Python 3.7+

Python 版本:Python 3.7+

配置建议(32B)

CPU:Intel Xeon 或 AMD EPYC 32-48 核

CPU:Intel Xeon 或 AMD EPYC 32-48 核

CPU:Intel Xeon 或 AMD EPYC 32-48 核

内存:256GB RAM

内存:256GB RAM

内存:256GB RAM

显卡:4 x A100,40GB 显存

显卡:3-4 x A100,40GB 显存

显卡:4 x A100,40GB 显存

Python 版本:Python 3.7+

Python 版本:Python 3.7+

Python 版本:Python 3.7+

配置建议(70B)

CPU:Intel Xeon 或 AMD EPYC 64 核

CPU:Intel Xeon 或 AMD EPYC 64 核

CPU:Intel Xeon 或 AMD EPYC 64 核

内存:512GB RAM

内存:512GB RAM

内存:512GB RAM

显卡:4-6 x A100,80GB 显存

显卡:4 x A100,80GB 显存

显卡:6-8 x A100,80GB 显存

Python 版本:Python 3.7+

Python 版本:Python 3.7+

Python 版本:Python 3.7+

配置建议(671B)

CPU:Intel Xeon 或 AMD EPYC 96 核

CPU:Intel Xeon 或 AMD EPYC 96 核

CPU:Intel Xeon 或 AMD EPYC 96 核

内存:1TB RAM

内存:1TB RAM

内存:1TB RAM

显卡:10 x A100,80GB 显存

显卡:8 x A100,80GB 显存

显卡:16 x A100,80GB 显存

Python 版本:Python 3.7+

Python 版本:Python 3.7+

Python 版本:Python 3.7+

使用场景

- 大规模信息检索、搜索引擎优化、大数据文档检索

- 知识图谱、文档分类、轻量级NLP任务

- 对话生成、内容创作、情感分析、复杂问答任务

性能需求

- 高性能计算需求,适合大规模应用和高负载任务

- 较低计算需求,适用于中小型企业或小型应用

- 极高计算需求,适用于大型计算集群和超高并发任务

1. 安装docker:

其中碰到默认镜像源无法下载问题(设置国内镜像源);

WINDOWS环境下使用docker要搭载WSL虚拟环境,Windows功能要打开“Hyper-V”功能;

系统盘空间不够(重新分配原配电脑空间,一个硬盘作系统盘,然后把docker存储空间放在1T硬盘空间)

2. 下载安装ollama

docker pull ollama/ollama

网络有些问题,让它自己下载,自己去午饭了,吃完午饭刚刚好

启动ollama

docker run -itd -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

docker run    运行一个新的 Docker 容器

-itd    组合多个选项:

✅ -i(保持标准输入)

✅ -t(分配终端)

✅ -d(后台运行容器)

-v ollama:/root/.ollama    挂载数据卷,把 ollama 这个 Docker 数据卷 绑定到容器的 /root/.ollama 目录,确保数据持久化(如下载的模型不会丢失)。

-p 11434:11434    端口映射,把 宿主机(本机)的 11434 端口 映射到 容器 内部的 11434 端口,这样宿主机可以通过 http://localhost:11434 访问 Ollama 服务。

--name ollama    指定 容器名称 为 ollama,方便管理和启动。

ollama/ollama    使用的 Docker 镜像,这里是 官方的 Ollama 镜像。

如果是使用GPU运行,则用下面的命令启动


docker run -itd --name ollama  --gpus=all -v ollama:/root/.ollama -p 11434:11434  ollama/ollama

3. 拉取Deepseek大模型


docker exec -it ollama /bin/bash
ollama pull  deepseek-r1:1.5b

先从最小的模型开始吧

网络不好,拉了好几次,一个小时后总算拉下来了。接着继续拉7B的模型

root@dc730c30231f:/# ollama list
NAME                ID              SIZE      MODIFIED     
deepseek-r1:7b      755ced02ce7b    4.7 GB    24 minutes ago
deepseek-r1:1.5b    e0979632db5a    1.1 GB    About an hour ago
root@dc730c30231f:/#

拉好后赶快体验吧^0^

root@dc730c30231f:/# ollama run deepseek-r1:1.5b

http://www.dtcms.com/a/557034.html

相关文章:

  • ubuntu中ssh连接root用户
  • (146页PPT)某大型汽车集团企业数字化转型数智化战略规划设计方案(附下载方式)
  • 【Koa.js】 第十课:RESTful API 设计
  • 网站想换个风格怎么做打开网站建设中是什么意思
  • 【26】OpenCV C++实战篇——opencv中 .at<uchar>() 和.ptr<uchar>() 使用方法的区别
  • 2025年10月AGI月评|OmniNWM/X-VLA/DreamOmni2等6大开源项目:自动驾驶、机器人、文档智能的“技术底座”全解析
  • AI训练新纪元:强化学习与LLM深度融合,ChatGPT背后的革命性突破
  • Hudi、Iceberg、Delta Lake、Paimon四种数据湖的建表核心语法
  • 【高阶数据结构】红黑树
  • 许昌网站制作公司百度指数数据分析平台入口
  • 【笔记】解决 ComfyUI 安装 comfy-mtb 节点后 “Face restoration models not found.” 报错
  • 简洁企业网站模板卖水果网站模板
  • Nginx缓存机制优化:FastCGI缓存与浏览器缓存
  • 襄阳万家灯火网站建设爱用建站平台
  • 3.2.2.SpringMVC简介
  • 帝国cms影视网站模板网站app的区别
  • Rust 结构体方法(Methods):为数据附加行为
  • Android Cursor AI代码编辑器
  • git add 一条命令太长换行
  • 数据仓库与传统数据库开发工具架构差异:Web 架构 vs 客户端工具
  • 百度网站快速排名公司营销策略ppt模板
  • 外骨骼机器人:下肢助力走路,减负 30% 的硬核机械魔法
  • Linux基础I/O-打开新世界的大门:文件描述符的“分身术”与高级重定向
  • 用Python来学微积分25-微积分中的函数奥秘:单调性、极值与最值
  • 免费信息网站排名做动画视频的网站有哪些
  • 从零搭建多子网 DHCP 服务:CentOS 双网卡多作用域实战与原理解析
  • 再议c语言的直接访问和间接访问
  • 从零开始的QT开发指南:(一)背景、特性与环境搭建
  • 网站购物车实现wordpress怎么调用分类的文章
  • oracle 19c搭建dataguard(ADG)全过程