当前位置: 首页 > news >正文

Mac 安装Ollama和llama3,本地部署LobeChat和刘皇叔聊三国

Ollama+LobeChat,本地部署聊天助手

  • Ollama安装
    • 下载Ollama
    • Ollama常用指令和链接
    • 运行Ollama
    • API 交互Ollama
    • 基于Llama 3角色扮演
  • LobeChat安装
    • 首先安装docker
    • 安装LobeChat的docker 镜像和运行

Ollama安装

下载Ollama

网址:https://ollama.com/
支持macOS、Linux和Windows多个平台

Ollama常用指令和链接

1. 常用指令

Available Commands:
  serve       Start ollama
  create      Create a model from a Modelfile
  show        Show information for a model
  run         Run a model
  pull        Pull a model from a registry
  push        Push a model to a registry
  list        List models
  cp          Copy a model
  rm          Remove a model
  help        Help about any command

Flags:
  -h, --help      help for ollama
  -v, --version   Show version information

2. 链接
Blog:https://ollama.com/blog
Docs:https://github.com/ollama/ollama/tree/main/docs
GitHub:https://github.com/ollama/ollama
模型仓库:https://ollama.com/library

运行Ollama

以Llama 3为例

ollama run llama3

自动安装latest的版本是8B 4-bit模型,信息如下:

如果是70B模型,可以参考
仓库中Llama 3的介绍:https://ollama.com/library/llama3

运行之后,项目默认监听 11434 端口,终端查看

curl localhost:11434

输出:

Ollama is running

运行成功,可以在终端聊天了.

API 交互Ollama

按下 Ctrl + D 可以退出终端交互,但此时模型并不会退出,仍旧可以正常通过 Api 接口交互。
具体可以参考官网api文档:https://github.com/ollama/ollama/blob/main/docs/api.md

简单api交互例子,新打开一个终端,输入

curl http://localhost:11434/api/generate -d '{
  "model": "llama3",
  "prompt": "Why is the sky blue?",
  "stream": false
}'

退出可以从电脑右上角退出

基于Llama 3角色扮演

在任意目录下建一个modelfile文件。具体信息查看官网modelfile文档:
https://github.com/ollama/ollama/blob/main/docs/modelfile.md

modelfile文件:

FROM llama3

# set the temperature to 1 [higher is more creative, lower is more coherent]
PARAMETER temperature 1

# set the system message
SYSTEM """
You are Liu Bei from the Three Kingdoms period in China. Answer as Liu Bei, the assistant, only used Simplified Chinese.
"""

创建刘备的个人聊天助手,新的模型我命名为Czi

ollama create Czi -f ./Modelfile

查看模型:

ollama ls

运行Czi模型

ollama run Czi

这样就可以啦!
接下里是本地部署LobeChat,实现网页的交互

LobeChat安装

首先安装docker

这里跳过了。。。

安装LobeChat的docker 镜像和运行

LobeChat的帮助文档与 Ollama 集成。

一行代码:

docker run -d -p 3210:3210 -e OLLAMA_PROXY_URL=http://host.docker.internal:11434/v1 lobehub/lobe-chat

可以看到LobeChat运行在本地3210端口,浏览器打开http://localhost:3210

这样就可以交互了!

默认的LobeChat没有Czi模型,我们需要添加一下~

LobeChat的帮助文档在 LobeChat 中使用 Ollama

在 设置 -> 语言模型 中找到 Ollama 的配置选项

配置好了,可以跟刘皇叔在LobeChat中聊天啦!

http://www.dtcms.com/a/23277.html

相关文章:

  • Rust编程语言入门教程(四)猜数游戏:一次猜测
  • HarmonyOS4-工具安装
  • 【JavaScript】《JavaScript高级程序设计 (第4版) 》笔记-Chapter15-DOM 扩展
  • STM32 CubeMx配置串口收发使用DMA并调用Idle模式(一)
  • 嵌入式编程——数据结构与linux编程
  • 测试常见问题汇总-检查表(持续完善)
  • 【C++游戏开发-五子棋】
  • 【SQL】SQL约束
  • 大模型开发框架对比:LangChain、LlamaIndex 及其他
  • golang如何将结构体和函数进行绑定?
  • AI 时代:探索大语言模型与核心技术
  • vue的data为什么是object
  • Unreal5从入门到精通之如何在 C++ 中创建 UserWidget
  • 贪吃蛇解析
  • 前端JS接口加密攻防实操
  • 观察者模式说明(C语言版本)
  • 达梦:dmserver占用io高排查
  • Kubernetes知识点总结(十)
  • C#之上位机开发---------C#通信库及WPF的简单实践
  • 初学PADS使用技巧笔记(也许会继续更新)
  • IDEA单元测试插件 SquareTest 延长试用期权限
  • 【python】向Jira推送自动化用例执行成功
  • 2025年-G4--lc75--Best Time to Buy and Sell Stock(java版)
  • 人工智能神经网络
  • Ollama+DeepSeek+Open-WebUi
  • 在自有ARM系统上离线安装MongoDB的坎坷历程与解决方案
  • 云贝餐饮连锁V3独立版全开源+vue源码
  • Vue前端开发-Vant介绍,安装部署
  • 使用 Apache PDFBox 提取 PDF 中的文本和图像
  • deepseek_各个版本django特性