1.10 本地模型调用编码实战(一)
目录
写在前面
一、开发环境
二,编码
2.1 简介
2.2 源码
2.3 执行
写在前面
该实例通过Python编写,主要介绍了如何调用本地 Ollama 部署的 Llama 3.2 模型,是一个完整的 “模型交互工具包”,涵盖了从服务连接到功能调用的全流程。
这个示例可以被视为一个简化版的 “智能体(Agent)雏形”。当然,距离完整的智能体还有一定差距。
接下来我们来把这段完整的代码拆解一下。
一、开发环境
硬件环境:MacBook Air
CPU:Apple M1
Memory:8GB
模型:Llama3.2:1B
billhuang@BilldeMacBook-Air ~ % ollama show llama3.2
Model
architecture llama
parameters 3.2B
&nbs