当前位置: 首页 > news >正文

Deepseek本地部署小实践(c盘)

目录

前言

一、安装ollama

二、打开终端执行run

三、可视化

前言

小鲸鱼出来以后看到很多大佬本地部署AI,自己也想试一试,第一次部署AI,选了一个简单的办法,实践一下,写得比较粗糙。


一、安装ollama

先简单的介绍一下ollama:

Ollama 是一个开源的本地大语言模型运行框架,旨在简化大型语言模型(LLM)的本地部署和使用

我们可以用它来运行我们想要的大模型,关键是它开源,就用它吧。

ollama的下载可能会有点慢,我硬生生等了半天,但是安装会很快,因为c盘空间很充裕我就直接安装在c盘了。

打开官网,安装想要的版本:

直接download就好。

安装完后就直接install,默认安装在c盘,当然,我把它拖到了D盘:


二、打开终端执行run

用一个高级点的方法吧,徽标+R,输入amd,哈哈。

我们在ollama官网上点击models就可以看见deepseek-r1。

我们可以根据电脑的配置进行选择,我的电脑是华硕天选五,运行14b还行,但是运行32b直接卡住了。

复制里面的命令直接run就好(速度太慢就ctrlc,然后重新输入)

ollama run deepseek-r1:14b

这样就可以交互啦。


三、可视化

如果黑黑的不好看,可以用chatbox

搜索下载一个就行,可以直接改路径装在D盘。

装好后打开:

点击新建搭档

可以输入一些个性化的设定,接下来就是选择模型。(爆改为星见雅)

这里我们选择ollama API,实现运行本地的模型。

这里选择我们要用的下载好的模型。

然后就可以使用啦!


这是我的部署历程,可以部署一个来玩玩。

http://www.dtcms.com/a/35259.html

相关文章:

  • Ollama+Cherrystudio+beg-m3+Deepseek R1 32b部署本地私人知识库(2025年2月win11版)
  • 论文复现7:VoxPoser复现
  • 分析 w-form-multiple-image.vue 文件中 console.log(v) 打印的内容
  • Javascript元编程
  • Redis要点总结一
  • 嵌入式八股文,c语言实现strcpy
  • macbook电脑下载,安装和配置java的jdk 1.8步骤
  • LCC并行光模块、PLCC并行光模块和POB并行光模块的区别
  • 在CentOS 7下部署NFS的详细教程
  • 2022年下半年软件设计师下午题题目详解与知识点解析(附真题及答案)
  • 数据结构:Map set - 习题(三)
  • Codeforces Round 806 (Div. 4)题解ABCDEFG
  • Spring Cloud面试题
  • Java Queue实现类面试题
  • 计算机二级c++备考
  • 深入讲解微信小程序 <canvas> 标签的 type=“2d“属性
  • 【R安装包报错】在conda环境下用R语言命令安装R包报错
  • 大模型在手术部位感染预测及围手术期管理中的应用研究
  • 【Java】—— 二叉树
  • JavaScript对象属性描述符
  • GreatSQL修改配置文件参数无法生效
  • Android 老项目 jcenter 库失效
  • Plantsimulation中机器人怎么通过阻塞角度设置旋转135°
  • 【深度学习】矩阵的核心问题解析
  • 嵌入式硬件篇---滤波器
  • 国产编辑器EverEdit - 网工利器:使用“插入序列”批量生成维护命令
  • 速通HTML
  • 拓扑排序的核心算法:BFS应用与实践
  • 哈希表_有效的字母异位词
  • 利用python进行数据分析(重点、易忘点)---第九章绘图和可视化