当前位置: 首页 > news >正文

基于 GPUGEEK平台进行vLLM环境部署DeepSeek-R1-70B

选择 GPUGEEK 平台的原因

  • 算力资源丰富:GPUGEEK 提供多样且高性能的 GPU 资源,像英伟达高端 GPU 。DeepSeek - R1 - 70B 模型推理计算量巨大,需要强大算力支持,该平台能满足其对计算资源的高要求,保障推理高效运行。
  • 便捷易用:平台具备简洁直观的操作界面,降低了技术门槛,即使对部署细节不太熟悉的用户,也能较轻松地完成模型部署、资源管理等操作。
  • 灵活的资源配置:用户可依据实际需求灵活调整 GPU 资源规格、使用时长等,按需付费,既能满足模型部署的资源需求,又能有效控制成本 。
    image.png
    在模型资源上,样式多样化。像 DeepSeek 系列模型,从不同参数规模的版本一应俱全,为用户提供了多样化的选择,无论是追求极致性能的大型项目,还是轻量级的测试探索,都能在这里找到契合的模型,极大地拓宽了应用场景。
    image.png

算力供应方面,更是展现出强大实力。丰富多样的 GPU 类型,涵盖了从性价比突出的到顶级性能的各种型号,且价格设置合理,按小时计费灵活又实惠。在区域分布上也考虑周全,多个地区节点让用户能就近获取算力,有效降低延迟,保障运算的高效稳定。
image.png

操作体验同样出色。控制台界面简洁明了,基础配置与高级配置分区清晰,计量模式、地区、显卡类型等关键选项一目了然,即使是新手也能快速上手,轻松完成实例创建等操作,大幅提升了工作效率
image.png

GPUGEEK 平台凭借资源丰富、算力强劲、操作便捷等优势,为 AI 开发者和研究者们打造了一个理想的工作平台,如果你想体验下可以点击下面的链接注册哦

什么是vLLM环境部署DeepSeek-R1-70B

vLLM 环境部署 DeepSeek - R1 - 70B” 指的是在 vLLM(一个高效的大语言模型推理引擎 )运行环境中,将 DeepSeek - R1 - 70B 语言模型进行部署,使其能够进行推理并提供服务。

  • 硬件要求:DeepSeek - R1 - 70B 参数量庞大,对硬件性能要求高。推荐使用高性能 GPU,如两块 RTX4090D ,搭配 i9 - 13900K 处理器、ddr5 6000hz 128GB 内存、1200W 电源及 2TB 存储 。若 GPU 显存有限,可能还需考虑磁盘空间作为显存交换区。
  • 软件环境:一般选用 Ubuntu20.04 等 Linux 系统 。需安装适配 GPU 的最新驱动,以及 CUDA 11.8(适配 PyTorch 2.0+ 和 bitsandbytes ) 。
    部署完成后,可结合 OpenWebUI 等工具在浏览器中与模型对话交互 。也可通过编写 Python 脚本,利用相关接口向模型发送请求获取回复 。

但是我们这里的话可以发现这里的硬件要求还是蛮高的,但是没关系,我们这里使用GPUGEEK平台完美解决本地配置达不到的要求

本地部署操作实战

在我们的镜像市场找到deepseek-ai/DeepSeek-R1/vLLM-DeepSeek-R1-70B,直接点击创建实例
image.png
按照我这个样子进行配置
image.png
这里我们稍等一会儿就好了,他这里的实例创建需要时间的
image.png
点击登录,复制相关的账号信息
image.png

#1.复制后的登录指令和登录密码如下
登录指令:ssh -p 42990 root@proxy-qy.gpugeek.com
密码:xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx#2.组建SSH隧道命令
ssh -CNg -L 8080:127.0.0.1:8080 root@proxy-qy.gpugeek.com -p 42990#root@proxy-qy.gpugeek.com和42990分别是实例中SSH指令的登录地址与登录端口,需找到自己实例的ssh指令做相应替换
#8080是指代理实例内8080端口映射到本地电脑的8080端口来完成SSH隧道连接

我们接下来打开本地电脑的终端并建立SSH隧道连接
在桌面右键点击终端,将我们刚刚复制的两个信息依次复制上去
这个样子就说明我们登录上去了
image.png
执行如上命令后,没有任何输出是正常的。
注意:Windows下的cmd/powershell可能会提示密码错误,是因为无法粘贴,手动输入即可(输入密码时不会显示正在输入的密码)

#2.组建SSH隧道命令
ssh -CNg -L 8080:127.0.0.1:8080 root@proxy-qy.gpugeek.com -p 42990#root@proxy-qy.gpugeek.com和42990分别是实例中SSH指令的登录地址与登录端口,需找到自己实例的ssh指令做相应替换
#8080是指代理实例内8080端口映射到本地电脑的8080端口来完成SSH隧道连接

可以像我这个样子
image.png然后我们打开浏览器访问 http://localhost:8080 地址打开web页面
image.png
输入好邮箱和密码我们就可以登录上来了
image.png
这里我们就完成了整个操作流程了

总结

在 OpenWebUI 界面可输入问题与模型对话,如提问 “Explain options trading” 等,模型能给出相应回复,标志着整个部署流程顺利完成,达成在浏览器中与 DeepSeek - R1 - 70B 模型交互对话的预期目标。

在实际部署过程中,GPUGEEK 平台优势尽显。其简洁直观的操作界面,使得即便对复杂技术不太精通的人员,也能快速上手进行模型部署操作。

如果你们也想体验下GPUGEEK里面的各种优秀的资源,你们可以点击链接进行注册操作

相关文章:

  • 一分钟在Cherry Studio和VSCode集成火山引擎veimagex-mcp
  • 容器安全-核心概述
  • 【论文阅读】UNIT: Backdoor Mitigation via Automated Neural Distribution Tightening
  • 内存安全设计方案
  • Python 常用模块(八):logging模块
  • 游戏引擎学习第279天:将实体存储移入世界区块
  • 时源芯微| KY键盘接口静电浪涌防护方案
  • 精益数据分析(59/126):移情阶段的深度博弈——如何避开客户访谈的认知陷阱
  • 力扣3337. 字符串转换后的长度 II随笔
  • 【Rust trait特质】如何在Rust中使用trait特质,全面解析与应用实战
  • 在 Rocky Linux 上手动安装 zsh
  • 嵌入式(c语言篇)Day9
  • STM32 片上资源之串口
  • 牛市买卖数字货币逻辑
  • 【​​HTTPS基础概念与原理​】TLS握手过程详解​​
  • 【0415】Postgres内核 释放指定 memory context 中所有内存 ④
  • Kubernetes控制平面组件:Kubelet详解(四):gRPC 与 CRI gRPC实现
  • Android清单文件
  • Nexus首次亮相迪拜 TOKEN2049:以“手机 + 钱包 + 公链 + RWA”生态系统引领未来区块链基建
  • 2025年中国DevOps工具选型指南:主流平台能力横向对比
  • 香港特区立法会通过条例草案便利外地公司迁册来港
  • 商务部新闻发言人就出口管制管控名单答记者问
  • 4台肺癌手术,2名“90后”患者,这届年轻人的肺怎么了?
  • 学习教育期间违规吃喝,李献林、叶金广等人被通报
  • 超新星|18岁冲击中超金靴,王钰栋的未来无限可能
  • 石家庄推动城市能级与民生福祉并进