当前位置: 首页 > news >正文

ollama使用教程

 ollama是一个大模型的运行容器,本地的大模型需要装在这里面才能运行。

从官网上下载:Ollama,安装非常傻瓜,直接install就可以了

ollama没有图形化界面,只会在后台运行,浏览器输入localhost:11434可以看见ollama is running

官方教程如下: 

ollama/README.md at main · ollama/ollama · GitHub

Ollama 运行模型

Ollama 运行模型使用 ollama run 命令。

例如我们要运行 Llama 3.2 并与该模型对话可以使用以下命令:

ollama run llama3.2

执行以上命令如果没有该模型会去下载 llama3.2 模型

等待下载完成后,我们在终端中,输入以下命令来加载 LLama3.2 模型并进行交互:

writing manifest 
success 
>>> 你好
Hello

>>> 能讲中文吗
是的,我可以在 Chinese 中对話。哪些话题或问题想要了解我呢?

结束对话可以输入 /bye 或按 Ctrl+d 按键来结束。

我们可以使用 ollama list,查看已安装的模型:

NAME           ID              SIZE      MODIFIED      
llama3.2    baf6a787fdff    1.3 GB    4 minutes ago  

Ollama 支持的模型可以访问:library

更改模型存放位置

打开 Windows 系统设置,来到【关于】,在右边找到【高级系统设置】,然后会出现一个【系统属性】窗口。

在上面的标签里选择【高级】,再点击下方的【环境变量】。

这时弹出一个【环境变量】窗口,点击【系统变量】下的新建,然后又弹出一个窗口。

变量名:OLLAMA_MODELS

变量值:D:\AI\Ollama

 参考链接:

Ollama:从入门到进阶

Ollama 教程 | 菜鸟教程

http://www.dtcms.com/a/26761.html

相关文章:

  • 我的2025年计划
  • 前OpenAI CTO Mira Murati创办AI新公司
  • 迪威模型网:免费畅享 3D 打印盛宴,科技魅力与趣味创意并存
  • golang panic信息捕获
  • JavaScript数组-数组中新增元素
  • 区块链(13):FISCO BCOS简介及安装
  • 智能指针讲解
  • 深度学习与人工智能资料推荐:DeepSeek整合包全解析
  • 智享AI直播三代系统,马斯克旗下AI人工智能直播工具,媲美DeepSeek!
  • 大摩闭门会:250218 学习总结报告
  • 排序算法:冒泡排序
  • ARM64 Trust Firmware [四]
  • 【鸿蒙开发】第三十八章 ArkTS代码调试
  • Spotify AI 技术(1)使用 TensorFlow 和 TF-Agents
  • 电脑机箱散热风扇声音大的影响因素
  • Linux I2C 命令
  • 最小二乘法原理分析
  • C语言指针学习笔记
  • 深入浅出TypedArray:网络数据处理、WebGPU与加密实战
  • 从入门到跑路(六)k8s配置ingress-nginx
  • 代码随想录算法【Day50】
  • Pycharm中查找与替换
  • 计算机网络-OSI七层参考模型与数据封装,网络安全零基础入门到精通实战教程!
  • ZLMediaKit Windows 编译指南
  • 大模型WebUI:Gradio全解11——使用transformers.agents构建Gradio UI(3)
  • Java-如何将其他地方拉取的jar包导入本地maven环境
  • vue3中<el-table-column>状态的显示
  • Vue 3 工程化打包工具:从理论到实践 (下篇)
  • dify实现分析-rag-关键词索引的实现
  • 1.16学习