当前位置: 首页 > news >正文

【linux】在 Linux 服务器上部署 DeepSeek-r1:70b 并通过 Windows 远程可视化使用

【linux】在 Linux 服务器上部署 DeepSeek-r1:70b 并通过 Windows 远程可视化使用

【承接商业广告,如需商业合作请+v17740568442】

文章目录

    • 【linux】在 Linux 服务器上部署 DeepSeek-r1:70b 并通过 Windows 远程可视化使用
      • 个人配置详情
      • 一、安装ollama
      • 二、下载deepseek版本模型
      • 三、在 Linux 服务器上配置 Ollama 以允许远程访问
      • 四、 在 Windows 系统上连接到远程 Ollama 服务
      • 五、在远程服务器上部署 DeepSeek 并指定使用特定的 GPU

个人配置详情

DeepSeek 是一款基于深度学习的高性能 AI 模型,广泛应用于自然语言处理、图像识别等领域。它能够为用户提供强大的计算能力和智能解决方案。然而,由于 DeepSeek 模型的复杂性和资源需求,通常需要在高性能的 Linux 服务器上进行部署。而对于许多用户来说,日常使用环境往往是 Windows 系统。因此,实现从 Windows 系统远程访问部署在 Linux 服务器上的 DeepSeek,成为了许多开发者和研究人员的迫切需求。

我的服务器是有六张2080ti,四张是魔改版22GB,服务器用的是Ubuntu20.04版本,现在通过在服务器部署deepseek70b跟32b,然后在windows本地远程使用服务器部署的deepseek

一、安装ollama

1、安装依赖项
在部署之前,确保你的 Linux 系统已安装以下依赖项:

sudo apt update
sudo apt install -y curl

2、安装 Ollama
使用以下命令安装 Ollama:

curl -fsSL https://ollama.com/install.sh | sh

3、验证是否安装成功

ollama --version

在这里插入图片描述

二、下载deepseek版本模型

ollama run

相关文章:

  • Java面试第一山!《集合》!
  • 差分的性质
  • STM32 是什么?同类产品有哪些
  • 用SiliconFlow的接口调用 deepseek-ai/Janus-Pro-7B 模型生成 图像
  • Java面试宝典:说下Spring Bean的生命周期?
  • 制造业物联网的十大用例
  • 【机器学习实战】kaggle背包价格预测(堆叠的实战用法)
  • 03【FreeRTO队列-如何获取任务信息与队列的动静态创建】
  • yarn add electron --dev --platform=win64 报错 certificate has expired 2025年 解决办法
  • 高并发场景下,如何用无锁实现高性能LRU缓存?
  • 网络安全尹毅 《网络安全》
  • 北斗导航 | 周跳探测算法(matlab源码)
  • 自反馈与流量震荡:从 TCP/IP 路由到交通导航
  • 量化噪声介绍
  • RFID技术在制造环节的应用与价值
  • RadASM环境,win32汇编入门教程之四
  • Linux 系统使用教程
  • 排序入门简介
  • 配置mysql8.0使用PXC实现高可用。
  • AWS上基于Llama 3模型检测Amazon Redshift里文本数据的语法和语义错误的设计方案
  • 高端定制网站是什么/广州百度推广代理公司
  • 设计吧 网站/谷歌seo推广培训班
  • 南充网站建设费用/媒体平台
  • 专题网站建设策划/黑帽seo寄生虫
  • 网络注册公司怎么注册/重庆seo技术分享
  • python做网站效率/b2b免费网站推广平台