当前位置: 首页 > news >正文

避雷,Ubuntu通过ollama本地化部署deepseek,open-webui前端显示

0.如题,预期在Ubuntu上本地化部署DeepSeek,通过浏览器访问达到chatgpt的对话效果。
1.裸机,安装Ubuntu。

        原有的系统盘采用大白菜,下载24.04.1的镜像,插到电脑上,无法识别,重新查到笔记本,显示U盘损坏。重新下载大白菜,制作启动盘,但是被Windows自带的杀毒软件Windows Defender给干掉,后来查了一下,说是大白菜还有老毛桃有毒,没办法用软碟通(UltraISO)重新制作启动盘,重新安装镜像。

     避坑1:下载镜像用国内的源Index of /ubuntu-releases/24.04.1/ (ustc.edu.cn)

2.安装Ollama
Ollama是一个开源工具,用于在本地轻松运行和部署大型语言模型。

     避坑2:不要使用Linux自动安装工具,apt查不到ollama,用snap下载完成后,访问127.0.0.1:11434显示ollama is running,但是,但是,但是,会有莫名奇妙的错误,比如:llama runner process has terminated: exit status 127。查看ollama -v :0.0.0。

        老老实实按照官网指示下载。

                避坑3:老老实实下载,网速不给力,贼慢,尤其是linux环境下,没有科学上网,可以将install.sh下载下来,然后下载对应的ollama-linux-amd64.tgz,放在同一个目录下面,修改.sh文件当中关于下载的部分

#status "Downloading Linux ${ARCH} bundle"
#curl --fail --show-error --location --progress-bar \
#    "https://ollama.com/download/ollama-linux-${ARCH}.tgz${VER_PARAM}" | \
#    $SUDO tar -xzf - -C "$OLLAMA_INSTALL_DIR"

# 添加的代码:
$SUDO tar -C "$OLLAMA_INSTALL_DIR" -xzf ./ollama-linux-amd64.tgz

然后安装

sudo chmod a+x  install.sh
./install.sh

        避坑4:很多文章都说接下来要用ollama serve启动服务,但运行这个指令会显示11434端口已经被占用。其实这个时候服务已经起来了,无须介意,直接用。

3.安装Deepseek
ollama run deepseek-r1:7b

        选择多少b全凭自己的实力。垃圾显卡跑7b都够呛。

        访问17.0.0.1:11434/api/tags可以看到已经安装的模型。

        这个时候就可以直接在终端与模型进行对话了,如果是测试,调接口之类的到这一步就OK。

4.安装open webui,前端显示,痛苦的开始

        4.1 安装Docker:确保你的机器上已安装Docker。
        4.2 运行Open Web UI:

docker run -d -p 3000:8080 \
  --add-host=host.docker.internal:host-gateway \
  -v open-webui:/app/backend/data \
  --name open-webui \
  --restart always \
  ghcr.io/open-webui/open-webui:main

        避坑5:open webui只是用来做界面交互的,与模型没什么关系,这里需要注意的是,配置是否要显卡支持,上面的指令是用的CPU,最终装成功CPU500%+。想用显卡支持的指令可以参照⏱️ Quick Start | Open WebUI官方指导操作,但是,但是,但是,自求多福吧。显卡驱动与控制器,一堆坑,可能是个裸机,还没装完必要的驱动。

        安装完成后,浏览器访问127.0.0.1:3000可以进入openwebUI登录界面,先注册一个管理员,随便写资料,然后就可以登录。大坑来了,找不到模型

明明终端测试可以,浏览器访问127.0.0.1:11434可以显示Ollama的模型数据,就是访问不了。

open-webui无法链接ollama 报错ERROR:apps.ollama.main:Connection error: Cannot connect 127.0.0.1无法访问。

就很迷,访问怎么都可以,但是docker就是访问不了,找了半天,原来是服务配置的问题。

     避坑6:默认ollama绑定在127.0.0.1的11434端口,修改/etc/systemd/system/ollama.service,在[Service]下添加如下内容,使ollama绑定到0.0.0.0的11434端口
Environment="OLLAMA_HOST=0.0.0.0"

udo systemctl daemon-reload

sudo systemctl restart ollama

至此,安装调试全部完成,进入测试阶段。

5.测试

        主机显卡不灵,4G显存,装7b模型,反应迟钝,一个问题从接受,到开始思考要好几分钟,思考也要好几分钟,最终答题显示思考了几秒。而且刷新很慢,一个字一个字的往外蹦,还在继续优化,看看能不能搞个50的显卡试试。

这个问题从敲回车到作答用了5分钟。

相关文章:

  • 链表(典型算法思想)—— OJ例题算法解析思路
  • android启动整体流程
  • Java面试——Tomcat
  • DeepSeek各版本说明与优缺点分析
  • ASP.NET Core 面试宝典【刷题系列】
  • 【大语言模型】在大语言模型中,user、assistant、system 三种角色的定位和功能有何不同。
  • HCIA项目实践--RIP的拓展配置
  • 通过命令行运行py文件与通过ide运行py文件,对文件中模块的引用方式的影响
  • 反射概率以及一些基本API的使用
  • BUU38 [RoarCTF 2019]Easy Java1
  • DeePseek结合PS!批量处理图片的方法教程
  • AnythingLLM打造私有知识库
  • 微软AutoGen高级功能——Serializing Components
  • 【原创】springboot+vue考试考场座位安排管理系统设计与实现
  • 【架构设计】微服务架构模型:常见模型的对比和分析
  • 更高效实用 vscode 的常用设置
  • 全排列(力扣46)
  • RFM模型-数据清洗
  • 基于mediapipe深度学习的手势数字识别系统python源码
  • 20250214实测飞凌的OK3588-C_Linux5.10.209+Qt5.15.10_用户资料_R1的USB2.0的速度为29.0 MB/s
  • 公司建站详细步骤/百度新闻最新消息
  • 襄阳网站建设外包/搜索引擎网站优化推广
  • 深圳高端网站制作多少钱/成都百度百科
  • 做网站的伪原创怎么弄/搜索引擎原理
  • 青岛经济师考试/seo技术服务外包公司
  • 电子商务网页设计代码/广州seo优化费用