当前位置: 首页 > wzjs >正文

注册公司的条件和费用郑州百度搜索优化

注册公司的条件和费用,郑州百度搜索优化,一个域名可以建几个网站,做网站为什么差价很大以下是针对双RTX 3060显卡(12GB显存)在Ubuntu 22.04系统部署DeepSeek-R1-32b-qwen-distill-q8模型的完整流程,结合最新技术规范与魔塔社区资源: 一、驱动与CUDA环境配置 1. 禁用开源驱动 bash sudo tee /etc/modprobe.d/blackli…

以下是针对双RTX 3060显卡(12GB显存)在Ubuntu 22.04系统部署DeepSeek-R1-32b-qwen-distill-q8模型的完整流程,结合最新技术规范与魔塔社区资源:


一、驱动与CUDA环境配置

1. 禁用开源驱动
 

bash

sudo tee /etc/modprobe.d/blacklist-nouveau.conf <<< "blacklist nouveau
options nouveau modeset=0"
sudo update-initramfs -u && sudo reboot  # 参考网页2的驱动管理方法
2. 安装NVIDIA驱动570.57(适配CUDA 12.8)
 

bash

wget https://us.download.nvidia.com/XFree86/Linux-x86_64/570.57/NVIDIA-Linux-x86_64-570.57.run
sudo chmod +x NVIDIA-Linux-x86_64-570.57.run
sudo ./NVIDIA-Linux-x86_64-570.57.run --silent --no-opengl-files
sudo reboot

验证驱动:nvidia-smi应显示驱动版本570.57且双卡在线

3. 安装CUDA 12.8
bash
wget https://developer.download.nvidia.com/compute/cuda/12.8.0/local_installers/cuda_12.8.0_555.51_linux.run
sudo sh cuda_12.8.0_555.51_linux.run  # 取消勾选Driver选项
bash
echo 'export PATH=/usr/local/cuda-12.8/bin:$PATH' >> ~/.bashrc
echo 'export LD_LIBRARY_PATH=/usr/local/cuda-12.8/lib64:$LD_LIBRARY_PATH' >> ~/.bashrc
source ~/.bashrc

二、Python环境与PyTorch安装

1. 安装Python 3.10
bash
sudo apt update && sudo apt install python3.10 python3.10-venv
python3.10 -m venv ~/deepseek-env
source ~/deepseek-env/bin/activate
2. 安装PyTorch 2.3.1(适配CUDA 12.8)(这里使用了官方nightly编译版本,方法到官网复制)
bash
pip3 install --pre torch torchvision torchaudio --index-url https://download.pytorch.org/whl/nightly/cu128

版本对应关系:CUDA 12.8 + 驱动570.57 → PyTorch 2.3.1+cu121

2

3


三、llama.cpp服务端部署

1. 获取源码(不使用git clone)

bash

wget https://github.com/ggerganov/llama.cpp/archive/refs/tags/b3117.tar.gz
tar -zxvf llama.cpp.tar.gz && cd llama.cpp-b3117
2. CMake编译双显卡优化版本

bash

mkdir build && cd build
cmake .. -DLLAMA_CUDA=ON -DCMAKE_CUDA_ARCHITECTURES=86 -DLLAMA_NVCC_FLAGS="--use_fast_math" -DLLAMA_AVX2=ON
cmake --build . --config Release -j $(nproc)  # 参考网页3的编译优化思路

关键参数说明:

  • -DLLAMA_CUDA=ON:替代已弃用的CUBLAS参数
  • -DCMAKE_CUDA_ARCHITECTURES=86:适配RTX 3060的Ampere架构
  • -DLLAMA_NVCC_FLAGS:启用快速数学优化

四、模型下载与部署

1. 魔塔社区下载地址
魔搭社区

bash

wget https://www.modelscope.cn/models/unsloth/DeepSeek-R1-Distill-Qwen-32B-GGUF/resolve/master/DeepSeek-R1-Distill-Qwen-32B-Q8_0.gguf

注:需登录魔塔社区

1

3

2. 模型存放

bash

mkdir -p ~/models && mv deepseek-r1-32b-qwen-distill.Q8_0.gguf ~/models/

五、双显卡API服务配置

1. 启动命令

bash

./server -m ~/models/deepseek-r1-32b-qwen-distill.Q8_0.gguf \--host 0.0.0.0 --port 11434 \--n-gpu-layers 99 \             # 全量GPU计算层--tensor-split 11,11 \          # 显存分配(每卡11GB)--parallel 2 \                  # 双卡张量并行--main-gpu 0 \                  # 主卡ID--ctx-size 4096 \--mlock \--flash-attn \--batch-size 512
2. 性能优化技巧
  • 显存分配:根据网页3建议,实际可用显存=总显存-2GB系统保留
  • PCIe带宽优化sudo nvidia-smi -i 0,1 -pm 1保持高性能模式

    2

  • 冷启动加速:添加--preload参数预加载模型至显存

    1


六、服务验证

bash

# GPU利用率监控
nvidia-smi --query-gpu=utilization.gpu,memory.used --format=csv -l 2# API压力测试
curl http://localhost:11434/v1/completions \-H "Content-Type: application/json" \-d '{"prompt": "如何优化双显卡的深度学习推理性能?", "max_tokens": 500}'

版本兼容性矩阵

组件版本适配说明
NVIDIA驱动570.57CUDA 12.8最低要求
CUDA12.8.0需驱动≥570
PyTorch2.3.1+cu121通过cu121后缀兼容
llama.cppb3117支持张量并行

常见问题处理

  1. 显存不足:降低--tensor-split值(如10,10),或减少--ctx-size至2048
  2. 模型加载失败:使用md5sum校验模型文件,魔塔社区提供完整校验码
  3. 多卡未启用:检查PCIe连接状态,建议使用PCIe 4.0 x16插

http://www.dtcms.com/wzjs/498882.html

相关文章:

  • 淮北市网站建设接推广app任务的平台
  • 怎样建网站域名查询ip138
  • 有什么网站可以做微信支付宝支付百度seo公司哪家最好
  • 抖音小程序开发工具树枝seo
  • 电商网站建设与运营考试答案安卓优化大师
  • asp做bs网站怎么写网页seo如何优化
  • 网站搜索量查询新品怎么刷关键词
  • 怎样注册自己网站不花钱网站推广
  • 精品资料seo做的好的网站
  • 扬州网站建设外包百度网盘人工申诉电话
  • 什么叫电商怎么做电商正规网站优化公司
  • 北京公司网站制作电话长沙做搜索引擎的公司
  • discuz 做的网站新乡seo网络推广费用
  • ecshop怎么做网站培训心得体会
  • 网站建设sem2023年第三波新冠9月
  • dwcs5怎么做动态网站品牌营销策划ppt
  • 大连自己的网站开发客户的70个渠道
  • 尉氏做网站白嫖永久服务器
  • 凡科做网站类型应该做哪个广告
  • 政府网站建设典型经验材料怎样做平台推广
  • 广州网站建设 粤icp安卓优化大师新版
  • 做网站需要哪些素材成都营销推广公司
  • 企业融资需求怎么写西安seo专员
  • 学做网站的书籍销售管理软件
  • 制作网站哪家强搜索引擎营销的英文缩写
  • 云南省建设厅网站职称评审网站内容编辑
  • seo营销网站的设计标准如何开发一个软件平台
  • 建设门户网站需要注意什么产品营销
  • sqlite 做网站零基础seo入门教学
  • 资源网站很难做贵阳网站优化公司