当前位置: 首页 > news >正文

在树莓派5(8G版)上运行Ollama + LLM

很好奇大语言模型在性能孱弱的树莓派上做本地部署会是什么表现。不指望正儿八经的问答,外语翻译是否可行呢?抱着这个目的实验了一把,直接上结论,Ollama在树莓派上能安装,且本身运行起来毫无压力,但具体到大语言模型,Deepseek-R1似乎不总是最佳选择。

安装很简单,理论上只需要一条命令:

curl -fsSL https://ollama.com/install.sh | sh

但是,由于你懂的原因,真这么干的话可能会很慢很慢,所以可以用包含了国内加速器的指令替代:

export OLLAMA_MIRROR="https://ghproxy.cn/https://github.com/ollama/ollama/releases/latest/download"
curl -fsSL https://ollama.com/install.sh | sed "s|https://ollama.com/download|$OLLAMA_MIRROR|g" | sh

安装成功,用ollama --version测试也没问题。考虑到性能,保险起见先从deepseek-r1:1.5b开始。

迫不及待的开始进行对话,速度那是相当的不错,但质量怎么说呢,让我想起个段子:

面试官:“你简历上写着说你心算速度很快,那我问问你,13乘以19是多少?”

我脱口而出:“45!”

面试官:“这也差太远了吧。”

我:“你就说快不快吧!”

  嗯,就是这个感觉,你就说快不快吧!

我觉得大概是模型不够大,于是又开始下载7b模型并问了同样的问题:

Token输出的速度肉眼可见的明显下降(但也还行,能接受)。不能接受的是继续胡说八道。8b和7b情况类似,除了输出更慢、胡说八道的程度更一本正经之外并未获得更正确信息。

但在这个级别就没有能打的了吗?别说,qwen2.5答对了:
“おひさま”这个单词确实是偶然从一本小小鬼子级别的教材的封面上看来的。

14b就别想了,RPI5的内存不够:
作为参考,在PC上的测试结果如下:

 所以树莓派5(8G版)上能跑大语言模型,但是能达到的效果还得具体问题具体分析。

http://www.dtcms.com/a/98377.html

相关文章:

  • NG-ZORRO中tree组件的getCheckedNodeList怎么使用
  • 26考研——排序_选择排序_选择排序的基本思想 简单选择排序(8)
  • 每天一篇目标检测文献(六)——Part One
  • 小林coding-12道Spring面试题
  • 自然语言处理(17:(第五章2.)梯度消失和LSTM(详细拆解))
  • WebSocket通信的握手阶段
  • 基于 WebAssembly 的 Game of Life 交互实现
  • ArrayList和LinkedList比较
  • 使用 Python 进行链上数据监控:让区块链数据触手可及
  • 深入解析音频:格式、同步及封装容器
  • SQL Server:sys.dm_hadr_physical_seeding_stats
  • 2023第十四届蓝桥杯大赛软件赛国赛C/C++ 大学 B 组(真题题解)(C++/Java题解)
  • [项目]基于FreeRTOS的STM32四轴飞行器: 十六.激光测距定高功能
  • 【Web前端】解锁JavaScript中Web存储API的秘密
  • LoRA 模型微调框架核心原理及实现步骤
  • 第7期:生成式AI伦理边界——当技术撞上道德与法律的防火墙
  • GHCTF-web-wp
  • AI人工智能-Jupyter NotbookPycharm:Py开发
  • 电池的知识
  • MySQL 语句
  • 洛谷题单1-P5708 【深基2.习2】三角形面积-python-流程图重构
  • 【数据结构与算法】Java描述:第六节:排序算法(直接插入排序,希尔排序)
  • 3.29-4nmon
  • Python包管理完全指南:pip常用命令与最佳实践
  • Java项目实现幂等性方案总结
  • CSS3学习教程,从入门到精通, CSS3 盒子模型的详细语法知识点及案例代码(23)
  • Spring AI MCP 架构详解
  • [笔记.AI]向量化
  • Linux系统修改网卡名为eth0、eth1
  • 【CSS】相对位置小练习