当前位置: 首页 > news >正文

利用ollama 与deepseek r1大模型搭建本地知识库

1.安装运行ollama

ollama下载
https://ollama.com/download/windows

验证ollama是否安装成功
ollama --version

访问ollama本地地址:
http://localhost:11434/

出现如下界面

ollama运行模型
ollama run llama3.2

ollama常用操作命令

启动 Ollama 服务:
ollama serve

停止 Ollama 服务:
ollama stop

重启 Ollama 服务:
ollama restart

更新 Ollama:
ollama update

拉取模型:
ollama pull <model-name>

eg:   ollama pull llama2

列出本地模型:
ollama list

2.安装deepseek-r1模型

选择合适本地硬件的deepseek-r1模型
https://ollama.com/library/deepseek-r1

运行deepseek-r1:8b模型
allama run deepseek-r1:8b


运行成功进行提问

3.安装Open WebUI :
pip install open-webui


启动 Open WebUI:
open-webui serve

访问open webui:
 http://localhost:8080

出现如下界面,访问成功:

4.搭建本地知识库
    安装本地客户端 cherrystudio或RAGFlow或dify:

     Cherry Studio - 全能的AI助手

    安装词嵌入模型:
   从这个地址搜索 https://ollama.com/shaw/dmeta-embedding-zh
   ollama pull shaw/dmeta-embedding-zh

    配置 cherrystudio:
   1.配置模型与ollama本地访问地址

2.设置默认模型

3.配置知识库

4.导入自己知识体系

5.选择自己搭建的知识库,使用

http://www.dtcms.com/a/19535.html

相关文章:

  • 腿足机器人之六- 前向运动学
  • 2025-02-15 禅修-若分别性,离尘无体,斯则前尘分别影事
  • RAMinit 程序编译运行考古记录
  • 【云安全】云原生- K8S API Server 未授权访问
  • PowerBI 矩阵 列标题分组显示(两行列标题)
  • 安全测试中的身份认证与访问控制深度解析
  • Redis 03章——10大数据类型概述
  • doris:异步物化视图概述
  • 基于 Docker 搭建 Elasticsearch + Kibana 环境
  • 演示synchronized锁机制用法的简单Demo
  • 网络工程师 (39)常见广域网技术
  • Typescript 【详解】配置文件 tsconfig.json
  • aws(学习笔记第二十八课) aws eks使用练习(hands on)
  • Rook-ceph(1.92最新版)
  • Flappy Bird开发学习记录
  • 【Linux】详谈 进程控制
  • 机器学习:二分类和多分类
  • 安卓逆向(Bundle)
  • 把 CSV 文件摄入到 Elasticsearch 中 - CSVES
  • PAT乙级真题 — 1084 外观数列(java)
  • 一口井深7米,一只蜗牛从井底往上爬每天爬3米掉下去1米,问几天能爬上井口?
  • CEF132 编译指南 Linux 篇 - 获取 CEF 源代码:源码同步详解(五)
  • 代码随想录算法训练营Day47
  • 爱彼(Audemars Piguet):瑞士制表艺术的巅峰之作(中英双语)
  • 使用Charles进行mock请求
  • 如何调整 Nginx工作进程数以提升性能
  • 华为ensp IPSEC隧道两端经过nat配置实验!
  • 【kafka系列】Exactly Once语义
  • DeepSeek进阶开发与应用2:DeepSeek中的自定义层与复杂模型构建
  • 【AI】Docker中快速部署Ollama并安装DeepSeek-R1模型: 一步步指南