当前位置: 首页 > news >正文

Deepseek本地部署小实践(c盘)

目录

前言

一、安装ollama

二、打开终端执行run

三、可视化

前言

小鲸鱼出来以后看到很多大佬本地部署AI,自己也想试一试,第一次部署AI,选了一个简单的办法,实践一下,写得比较粗糙。


一、安装ollama

先简单的介绍一下ollama:

Ollama 是一个开源的本地大语言模型运行框架,旨在简化大型语言模型(LLM)的本地部署和使用

我们可以用它来运行我们想要的大模型,关键是它开源,就用它吧。

ollama的下载可能会有点慢,我硬生生等了半天,但是安装会很快,因为c盘空间很充裕我就直接安装在c盘了。

打开官网,安装想要的版本:

直接download就好。

安装完后就直接install,默认安装在c盘,当然,我把它拖到了D盘:


二、打开终端执行run

用一个高级点的方法吧,徽标+R,输入amd,哈哈。

我们在ollama官网上点击models就可以看见deepseek-r1。

我们可以根据电脑的配置进行选择,我的电脑是华硕天选五,运行14b还行,但是运行32b直接卡住了。

复制里面的命令直接run就好(速度太慢就ctrlc,然后重新输入)

ollama run deepseek-r1:14b

这样就可以交互啦。


三、可视化

如果黑黑的不好看,可以用chatbox

搜索下载一个就行,可以直接改路径装在D盘。

装好后打开:

点击新建搭档

可以输入一些个性化的设定,接下来就是选择模型。(爆改为星见雅)

这里我们选择ollama API,实现运行本地的模型。

这里选择我们要用的下载好的模型。

然后就可以使用啦!


这是我的部署历程,可以部署一个来玩玩。

相关文章:

  • Ollama+Cherrystudio+beg-m3+Deepseek R1 32b部署本地私人知识库(2025年2月win11版)
  • 论文复现7:VoxPoser复现
  • 分析 w-form-multiple-image.vue 文件中 console.log(v) 打印的内容
  • Javascript元编程
  • Redis要点总结一
  • 嵌入式八股文,c语言实现strcpy
  • macbook电脑下载,安装和配置java的jdk 1.8步骤
  • LCC并行光模块、PLCC并行光模块和POB并行光模块的区别
  • 在CentOS 7下部署NFS的详细教程
  • 2022年下半年软件设计师下午题题目详解与知识点解析(附真题及答案)
  • 数据结构:Map set - 习题(三)
  • Codeforces Round 806 (Div. 4)题解ABCDEFG
  • Spring Cloud面试题
  • Java Queue实现类面试题
  • 计算机二级c++备考
  • 深入讲解微信小程序 <canvas> 标签的 type=“2d“属性
  • 【R安装包报错】在conda环境下用R语言命令安装R包报错
  • 大模型在手术部位感染预测及围手术期管理中的应用研究
  • 【Java】—— 二叉树
  • JavaScript对象属性描述符
  • A股高开高走:宠物经济走强,超3800股收涨,两市成交超1.1万亿元
  • 金爵奖主竞赛单元评委名单公布,中国评委有黄渤、咏梅等人
  • 昆明一小区火灾调查报告:七旬夫妇身亡,生前拾荒存放大量可燃物
  • 中国首次当选联合国教科文组织1970年《公约》缔约国大会主席国
  • 马上评|中药液涉嫌添加安眠药?药品安全儿戏不得
  • 吴双评《发展法学》|穷国致富的钥匙:制度,还是产业活动?