当前位置: 首页 > news >正文

Ollama 部署大模型

概述

Ollama是一个开源框架,‌专门设计用于在本地运行大型语言模型。‌它的主要特点是将模型权重、‌配置和数据捆绑到一个包中,‌从而优化了设置和配置细节,‌包括GPU使用情况,‌简化了在本地运行大型模型的过程,采用WSL2作为运行环境。WSL2是WINDOWS的Linux虚拟机,此案例使用的是Ubuntu 22.04.3 LTS (GNU/Linux 5.15.167.4-microsoft-standard-WSL2 x86_64)版本系统

安装

curl -fsSL https://ollama.com/install.sh | sh
sudo chmod +x /usr/bin/ollama

运行(当前使用qwen1.5的模型)

此模型4.7G,下载会比较慢,不要中断,不要中断,不要中断!!!

ollama run qwen:7b

后台启动

# 修改ollama的service文件:/etc/systemd/system/ollama.service
# 在[Service]下边增加一行:Environment="OLLAMA_HOST=0.0.0.0:11434",端口根据实际情况修改
systemctl daemon-reload
systemctl stop ollama
systemctl start ollama
systemctl status ollama

启动WEBUI

前置条件,本地已安装Docker。执行命令后,通过浏览器访问http://localhost:8080即可打开页面。

命令中192.168.0.216为本机IP地址

docker run -d -p 8080:8080 -e OLLAMA_BASE_URL=http://192.168.0.216:11434 -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

常用命令

# 拉取LLM
ollama pull qwen:7b

#拉取Embedding
ollama pull quentinz/bge-large-zh-v1.5

http://www.dtcms.com/a/32734.html

相关文章:

  • Java 集合:单列集合和双列集合的深度剖析
  • 基于Flask的去哪儿网海南旅游攻略数据分析系统的设计与实现
  • 2025吐槽季第一弹---腾讯云EO边缘安全加速平台服务
  • Graspness Discovery in Clutters for Fast and Accurate Grasp Detection 解读
  • RoCBert:具有多模态对比预训练的健壮中文BERT
  • 细说STM32F407单片机2个ADC使用DMA同步采集各自的1个输入通道的方法
  • 【开源免费】基于SpringBoot+Vue.JS物流管理系统(JAVA毕业设计)
  • 如何把虚拟机拷贝到另一台VMware里?
  • mysql之MySQL 优化器追踪 (Optimizer Trace):洞察优化器决策的每一个细节
  • 联通用户管理系统(二)
  • 基于SSM的《计算机网络》题库管理系统(源码+lw+部署文档+讲解),源码可白嫖!
  • 软件架构设计:网络基础
  • 计算机网络————(一)HTTP讲解
  • 百度搜索,能否将DeepSeek变成“内功”?
  • 【Linux】:应用层协议 HTTP (超文本传输协议)
  • 和平之翼代码生成器 SHCEU 版 4.0.0RC6 千年隼介绍二
  • 深入理解C语言中的位段
  • 【Linux】匿名管道的应用场景-----管道进程池
  • 基于深度学习的信号滤波:创新技术与应用挑战
  • 基于SpringBoot+vue+uniapp的智慧旅游小程序+LW示例参考
  • react 的 diff 算法
  • 多人协同创作gitea
  • 代码随想录D52-53 图论 Python
  • 深度学习-125-LangGraph之基础知识(二)自定义方式和内置节点方式构建聊天机器人
  • anaconda安装报错
  • MySQL | MySQL库、表的基本操作01
  • github配置sshkey
  • 数字人源码部署方案注意事项-AI口播数字人系统源码部署全解析!
  • ES6 新特性,优势和用法?
  • Windows Arm软件合集2024