当前位置: 首页 > news >正文

手机端可部署的开源大模型; 通义千问2.5训练和推理需要的内存和外存

手机端可部署的开源大模型

目录

    • 手机端可部署的开源大模型
    • Qwen2.5 0.5B 7b 推理采用手机内存需要多少
      • Qwen2.5 0.5B
        • 不同量化精度下的内存需求
      • Qwen2.5 7B
        • 不同量化精度下的内存需求
    • 通义千问2.5训练和推理需要的内存和外存
      • 推理阶段
        • 1. Qwen2.5 - 7B
        • 2. Qwen2.5 - 14B
        • 3. Qwen2.5 - 72B
      • 训练阶段
        • 1. Qwen2.5 - 7B
        • 2. Qwen2.5 - 14B
        • 3. Qwen2.5 - 72B
      • Qwen2.5 0.5B
      • 推理阶段
      • 训练阶段
    • Qwen2.5 3B
      • 推理阶段
      • 训练阶段

  • OpenELM:由苹果公司开源,在AI代码社区Hugging Face上发布。它由多个旨在高效执行文本生成任务的小模型组成,有2.7亿、4.5亿、11亿与30亿参数四种规模,各模型均有预训练与指令微调两个版本。采用层级缩放策略,在公开数据集预训练后微调,能在商用笔记本电脑甚至部分智能手机上运行。苹果公司在“示例代码许可证”下发布了模型权重等相关内容。
  • Ministraux:由法国Mistral.AI开源,有Ministral 3B和8B两个版本,专为手机、平板、笔记本等移动设备设计。在文本生成、推理、函数调用和效率方面表现出色,支持128k上下文长度,在主流基准测试平台中的分数较高,超过了谷歌的Gemma-2、Meta的Llama-3.2等模型。
  • Gemma 2B:谷歌发布的紧凑型高性能LLM,利用多查询注意力机制,减少推理期间对内存带宽的需求,适合内存带宽有限的设备端场景。仅用20亿个参数,在语言理解、推理和安全等方面的学术基准测试上成绩出色,在18项基于文本的任务中,11项表现胜过大小相似的开放模型。
  • Phi-2:微软的小型模型,有27亿个参数。在某些基准测试中ÿ
http://www.dtcms.com/a/132247.html

相关文章:

  • 【DDR 内存学习专栏 1.4 -- DDR 的 Bank Group】
  • 机器学习:让数据开口说话的科技魔法
  • 网络基础和socket
  • 面试宝典(C++基础)-01
  • AlexNet神经网络详解及VGGNet模型和
  • 深度学习中的数学基础:从向量到概率的全面解析
  • 测试第三课-------自动化测试相关
  • 第十九讲 XGBoost 二分类模型案例(遥感数据识别玉米与小麦地块)
  • HTML:网页的骨架 — 入门详解教程
  • Python heapq模块
  • 【Pandas】pandas DataFrame items
  • AIGC工具平台-建筑平面图3D渲染
  • Android studio Unknown Kotlin JVM target: 21
  • macOS 上使用 Homebrew 安装和配置 frp 客户端
  • 【C++】——lambda表达式
  • 数据资产保护与数据知识产权保护有何不同?
  • JavaScript中的Transferable对象教程
  • 企业级硬盘的测试流程
  • L2TP实验(无图后补)
  • 老旧测试用例生成平台异步任务与用户通知优化
  • OOM问题排查和解决
  • Java工厂模式解析:灵活对象创建的实践指南
  • Java LinkedList深度解析:双向链表的实现艺术与实战指南
  • 【Python爬虫】简单介绍
  • 16bit转8bit的常见方法(图像归一化)
  • 深入理解浏览器的 Cookie:全面解析与实践指南
  • UNITY 屏幕UI自适应
  • Ubuntu下解压ZIP压缩文件出现中文乱码问题的综合解决方案
  • python提升图片清晰度
  • 【学习】对抗训练-WGAN