当前位置: 首页 > news >正文

部署本地大模型 Ollama + LLaMA3

在 macOS 上本地部署 Ollama + LLaMA3 非常简单,以下是完整步骤:

一、系统要求
1.macOS 12+
2.芯片支持 Intel 或 Apple Silicon(M1/M2/M3)
3.建议内存至少 8GB,推荐 16GB+

二、安装 Ollama(官方推荐)
方式一:使用命令行安装(推荐)

curl -fsSL https://ollama.com/install.sh | sh

方式二:使用 GUI 安装(点击安装包)
访问官网:https://ollama.com
下载 .dmg 安装包并安装

三、安装后验证

ollama --version

如果安装成功,应该返回 Ollama 的版本信息。

四、下载并运行 LLaMA3 模型

  1. 下载模型(例如 LLaMA 3 8B)
ollama pull llama3
  1. 启动模型进行聊天:
ollama run llama3

五、以 API 服务方式运行(推荐)

 ollama serve

默认监听地址是: http://localhost:11434

六、使用 Python 调用本地模型

import requestsdef get_completion_ollama(prompt: str, model: str = "llama3"):url = "http://localhost:11434/api/chat"headers = {"Content-Type": "application/json"}data = {"model": model,"messages": [{"role": "user", "content": prompt}],"stream": False  # 如果想逐字流式输出,改为 True}response = requests.post(url, headers=headers, json=data)result = response.json()return result["message"]["content"]if __name__ == "__main__":prompt = "你好,能不能介绍一下你自己?"result = get_completion_ollama(prompt)print("LLaMA3 回复:", result)print(res.json()["response"])

七、常用命令

# 查看当前模型列表
ollama list# 删除模型
ollama rm llama3# 更新 ollama
ollama update

文章转载自:
http://.
http://.
http://.
http://.
http://.
http://.
http://.
http://.
http://.
http://.
http://.
http://.
http://.
http://.
http://.
http://.
http://.
http://.
http://.
http://.
http://.
http://.
http://.
http://.
http://.
http://.
http://.
http://.
http://.
http://.
http://www.dtcms.com/a/280131.html

相关文章:

  • Java基础(八):封装、继承、多态与关键字this、super详解
  • GPIO 输入/输出
  • GEO革命:当AI推荐成为新战场,传统SEO如何进化?
  • Linux基础学习---目录相关命令
  • 手机当路由,连接机器人和电脑
  • Typecho插件开发:实现文章字数统计与阅读时长计算功能
  • docker 方式gost代理搭建以及代理链实施
  • Android弹窗
  • uniapp中全局引入ronMounted, ref,watch onLoad,onShow等
  • Vim多列操作指南
  • docker-compose 配置启动2个MongoDB
  • SQL 常用版本语法概览:标准演进与关键语法分析
  • bat 批处理实现 FFmpeg 命令导出 mov 到 png 序列帧
  • 新版本PyCharm Conda环境设置 “找不到conda可执行文件”的解决
  • Git分支管理与工作流详解
  • 记录一条sql面试题2
  • MyBatis动态语法标签速查
  • Fastapi框架总览与核心架构
  • iOS App 上架工具选型与跨平台开发 iOS 上架流程优化实录
  • 深入探讨Hadoop YARN Federation:架构设计与实践应用
  • Datawhale AI数据分析 笔记
  • 2025开放原子开源生态大会 | openKylin的技术跃迁和全球协作
  • 回顾一下Docker的基本操作
  • Linux部署Python服务
  • 面向医疗AI场景的H20显卡算力组网方案
  • 2025开放原子开源生态大会 | 开源欧拉的AI原生实践与全球协作
  • 应用部署作业-02-流程
  • 第十四章 Stream API
  • 深度强化学习 | 图文详细推导深度确定性策略梯度DDPG算法
  • 波动回升正当时!期权合成多头:震荡市攻守兼备利器