当前位置: 首页 > news >正文

MaxKB + Ollama + DeepSeek本地部署

本地部署AI大模型

通过ollama部署本地AI大模型,Ollama是管理和部署大模型的一个工具,它可以帮助我们在本地更加方便并快速的部署和使用各种大模型

下面是我通过虚拟机CentOS7.9.2009版本进行演示

1、安装和配置Ollama

1.1 下载Ollama安装包

Ollama同时支持macOS、LinuxWindows操作系统

官网:Download Ollama on Linux

教程:快速入门 - Ollama 中文文档

Git官网:ollama/docs/linux.md at main · ollama/ollama · GitHub

1.1.1 Linux操作系统命令行安装
curl -fsSL https://ollama.com/install.sh | sh
​
# 如果安装不成功,可以开启VPN代理
export https_proxy=http://宿主机IP:port
1.1.2 Linux操作系统离线安装
# 安装前要注意查看自己的CPU是什么架构的
uname -m
​
# 使用curl下载
curl -L https://ollama.com/download/ollama-linux-amd64.tgz -o ollama-linux-amd64.tgz
​
# 如果curl下载不了,可能要先VPN翻墙,可以通过宿主机的VPN实现翻墙
export https_proxy=http://宿主机的IP:port
curl -L https://ollama.com/download/ollama-linux-amd64.tgz -o ollama-linux-amd64.tgz
​
# 直接使用借助宿主机进行下载安装包,这是amd架构即x86
https://ollama.com/download/ollama-linux-amd64.tgz
​
# arm架构
https://ollama.com/download/ollama-linux-arm64.tgz
​
# 解压
sudo tar -C /usr/local/ollama -xzf ollama-linux-amd64.tgz
1.2 将ollama服务使用systemctl进行管理
cat << EOF | tee /usr/lib/systemd/system/ollama.service
​
[Unit]
Description=Ollama Service
After=network.target
​
[Service]
Environment=OLLAMA_HOST=0.0.0.0:11434
ExecStart=/usr/local/ollama/bin/ollama serve
Restart=on-failure
User=root
Group=root
​
[Install]
WantedBy=multi-user.target
​
EOF
​
# 使用systemctl管理ollama服务
systemctl enable --now ollama
systemctl status ollama
1.3 Ollama语法

可以从官网教程看到一些Ollama的用法,使用浏览器输入http://ip:11434,可以从浏览器中看到Ollama is running字样

  • ollama server:启动ollama服务,当然我现在已经使用systemctl管理

  • ollama list:查看下载的大模型

  • ollama pull llama3.2:下载AI大模型llama3.2

  • ollama rull llama3.2:下载AI大模型并运行

  • ollama rm llama3.2:删除大模型

  • ollama stop llama3.2:停止llama大模型

  • ollama ps:列出当前已加载的模型

  • /exit or /bye:退出模型对话框

配置大模型下载的路径:export OLLAMA_MODELS=/models

2、安装和配置UI界面

我这里使用docker直接去安装图形化UI界面,我已两个流行的AI web界面为例

2.1 MaxKB

基于大语言模型和RAG的知识库问答系统,操作系统支持:Ubuntu 22.04 / CentOS 7.6 64 位系统,所以要其他操作系统要借助Docker进行安装

官网:MaxKB - 基于大模型和 RAG 的知识库问答系统 - 官网

# Linux 操作系统
docker run -d --name=maxkb --restart=always -p 8080:8080 -v ~/.maxkb:/var/lib/postgresql/data -v ~/.python-packages:/opt/maxkb/app/sandbox/python-packages cr2.fit2cloud.com/1panel/maxkb
​
# Windows 操作系统
docker run -d --name=maxkb --restart=always -p 8080:8080 -v C:/maxkb:/var/lib/postgresql/data -v C:/python-packages:/opt/maxkb/app/sandbox/python-packages cr2.fit2cloud.com/1panel/maxkb

这个过程需要的时间相对较长,需要耐心等待

访问

  • 通过浏览器http://ip:8080进行访问

  • 用户名:admin,密码:MaxKB@123..

2.2 Open Web UI

官网:GitHub - open-webui/open-webui: User-friendly AI Interface (Supports Ollama, OpenAI API, ...)

# 如果ollama部署到当前虚拟机中
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
​
# 如果ollama部署到其他要制定ollama网址
docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

3、使其可以在公网上访问

要实现该功能,可以借助内网穿透工具,可以使用ngrok工具,当然也可以使用frp(部署可能比较复杂,需要借助有公网IP的服务器),可以在我笔记中的notepad/linux_file/config_language/frp_configure.md文件中看到

相关文章:

  • 输入网址到网页显示,发生了什么?
  • 人工智能框架:连接理论与实践的桥梁
  • VAS1260IB05E 集成内部开关驱动器的汽车级LED硬灯带高效解决方案
  • Gentleman:优雅的Go语言HTTP客户端工具包
  • 【GESP】2024年12月图形化一级 -- 火箭回收
  • Anchor-Based 与 Anchor-Free
  • 通过VSCode直接连接使用 GPT的编程助手
  • python003-python电影数据分析及可视化系统建设(源码+数据库+部署讲解等)
  • iOS开发书籍推荐 - 《高性能 iOS应用开发》(附带链接)
  • 深度求索-DeepSeek-R1本地部署指南
  • UART(一)——UART基础
  • 遥感影像目标检测:从CNN(Faster-RCNN)到Transformer(DETR)
  • 第3章 .NETCore核心基础组件:3.1 .NET Core依赖注入
  • 申论对策建议类【2022江苏B卷第一题“如何开展网络直播”】
  • OpenCV图像基本操作
  • 期权帮|股指期货的有效止盈止损策略?
  • Unsloth
  • 软件定义汽车时代的功能安全和信息安全
  • 【MySQL】第六弹---数据库表约束详解:从空属性到主键的全方位指南
  • EtherNet/IP转Modbus TCP:新能源风电监控与分析实用案例
  • 网站后台首页/北京环球影城每日客流怎么看
  • 做趣味图形的网站/活动营销案例100例
  • seo网站排名优化教程/友链提交入口
  • 北京网页制作公司电话/百度搜索优化怎么做
  • asp.net怎么做网站/深圳网络优化seo
  • 建设网站中期/大的网站建设公司