当前位置: 首页 > news >正文

0day同步!昇思MindSpore框架成功适配面壁MiniCPM4.0模型并上线魔乐社区

6 月 6 号,面壁智能正式发布并开源了端侧「小钢炮」系列最新力作——MiniCPM 4.0 模型,实现了最快震撼的 220 倍极限加速!昇思MindSpore框架对齐主流生态接口,不断提升HuggingFace Transformers类模型接入vllm-mindspore框架效率,同时基于vLLM推理框架与MindSpore One套件,0day支持MiniCPM4.0双尺寸模型快速适配。欢迎广大开发者下载体验!

MindSpore-vLLM代码仓:

https://gitee.com/mindspore/vllm-mindspore

🔗魔乐社区体验指导链接:

https://modelers.cn/models/MindSpore-Lab/MiniCPM4-8B

https://modelers.cn/models/MindSpore-Lab/MiniCPM4-0.5B

# 01 模型介绍

MiniCPM 4-8B 「闪电版」,为新一代稀疏高效架构模型,通过架构层、算法层、系统层、数据层等多维度的技术创新,MiniCPM 4.0 相较于 Qwen-3-8B、Llama-3-8B、GLM-4-9B等同等参数规模端侧模型,实现了长文本推理速度 5 倍稳定加速以及最高 70 倍加速,并实现了同级最佳的模型性能,持续卫冕全球最强端侧模型。继 Deepseek 之后,成为大模型领域又一次「标杆式创新」典范。

图片

图片

MiniCPM 4.0 推出端侧性能“大小王”组合,拥有 8B 、0.5B 两种参数规模,均实现了同级最佳的模型性能。其中,MiniCPM 4.0-8B 模型为稀疏注意力模型,在MMLU、CEval、MATH500、HumanEval等基准测试中,MiniCPM 4.0-8B 性能超越 Qwen-3-8B、Gemma-3-12B。MiniCPM 4.0-0.5B 在性能上,也显著优于 Qwen-3-0.6B,并实现了最快 600 Token/s 的极速推理速度,成为速度最快的轻量级模型。 

图片

图片

针对单一架构难以兼顾长、短文本不同场景的技术难题,MiniCPM 4.0-8B 采用「高效双频换挡」机制,能够根据任务特征自动切换注意力模式:在处理高难度的长文本、深度思考任务时,启用稀疏注意力以降低计算复杂度,在短文本场景下切换至稠密注意力以确保精度,实现了长、短文本切换的高效响应。

图片

值得一提的是,MiniCPM 4.0 实现了长文本缓存的大幅锐减。在 128K 长文本场景下,MiniCPM 4.0-8B 相较于 Qwen3-8B 仅需 1/4 的缓存存储空间。

此外, MiniCPM 4.0可在 vLLm、SGLang、llama.cpp、LlamaFactory、XTuner等开源框架部署;同时加强了对 MCP的支持,且性能超过同尺寸开源模型( Qwen-3-8B),进一步拓展了模型开发、应用潜力。

图片

# 02 快速开始

1 环境搭建

环境准备:Atlas 800I/800T A2 (64G),单卡。

执行以下 Shell 命令,拉取MindSpore MiniCPM 推理容器镜像:

docker pull swr.cn-central-221.ovaijisuan.com/mindsporelab/minicpm:v4

通过魔乐社区下载权重

pip install openmind_hub
export HUB_WHITE_LIST_PATHS=/mnt/data/MiniCPM8B   # 该路径存放权重
br
from openmind_hub import snapshot_download
snapshot_download(repo_id="MindSpore-Lab/MiniCPM4-8B",local_dir="/mnt/data/MiniCPM8B",local_dir_use_symlinks=False
)

创建并进入容器

执行以下命令创建容器,name设置为MiniCPM8B。

docker run -it --privileged  --name=MiniCPM8B --net=host \--shm-size 500g \--device=/dev/davinci0 \--device=/dev/davinci1 \--device=/dev/davinci2 \--device=/dev/davinci3 \--device=/dev/davinci4 \--device=/dev/davinci5 \--device=/dev/davinci6 \--device=/dev/davinci7 \--device=/dev/davinci_manager \--device=/dev/hisi_hdc \--device /dev/devmm_svm \-v /usr/local/Ascend/driver:/usr/local/Ascend/driver \-v /usr/local/Ascend/firmware:/usr/local/Ascend/firmware \-v /usr/local/sbin/npu-smi:/usr/local/sbin/npu-smi \-v /usr/local/sbin:/usr/local/sbin \-v /etc/hccn.conf:/etc/hccn.conf \-v /mnt/data/MiniCPM8B/:/mnt/data/MiniCPM8B/  \swr.cn-central-221.ovaijisuan.com/mindsporelab/minicpm:v4 \bash

通过vllm_mindspore拉起推理服务

python3 -m vllm_mindspore.entrypoints vllm.entrypoints.openai.api_server --model "/mnt/data/MiniCPM8B"--trust_remote_code --tensor_parallel_size=1 --max-num-seqs=256 --block-size=32 --max_model_len=8192 --max-num-batched-tokens=8192

打开一个新的窗口,然后发起推理请求

curl http://localhost:8000/v1/chat/completions -H "Content-Type: application/json" -d '{"model": "/mnt/data/MiniCPM8B","messages": [{"role": "user", "content": "帮我介绍一下上海"}],"temperature": 0.0,"top_p": 0.95,"top_k": 20,"min_p": 0,"max_tokens": 4096
}'

本文档提供的模型代码、权重文件和部署镜像,仅限于基于昇思MindSpore AI框架体验MiniCPM4.0的部署效果,如需生产使用,欢迎邮件联系我们。(contact@public.mindspore.cn)

昇思MindSpore AI框架将持续支持更多业界主流模型,欢迎大家试用并提供宝贵的反馈意见。

相关文章:

  • 树莓派4B, ubuntu20.04, 安装Ros Noetic[踩坑记录]
  • 云原生K8s+Docker+KubeSphere+DevOps
  • K8S认证|CKS题库+答案| 10. Trivy 扫描镜像安全漏洞
  • 数据可视化交互
  • go 里面的指针
  • 盲盒一番赏小程序:引领盲盒新潮流
  • Appuploader:在WindowsLinux上完成iOS APP上架的一种解决方案
  • LeetCode 高频 SQL 50 题(基础版)之 【高级字符串函数 / 正则表达式 / 子句】· 下
  • 手机平板能效生态设计指令EU 2023/1670标准解读
  • 打开网页即可远程控制手机,Linux系统亦可使用
  • 2025盘古石杯决赛【手机取证】
  • Polarr:手机修图,专业与创意并存
  • 从物理机到云原生:全面解析计算虚拟化技术的演进与应用
  • 打手机检测算法AI智能分析网关V4守护公共/工业/医疗等多场景安全应用
  • 什么是TRS收益互换?金融创新架构下的交易系统开发与实践
  • 【Mini-F5265-OB开发板试用测评】1、串口printf输出
  • TRS收益互换:跨境资本流动的金融创新工具与系统化解决方案
  • 椭圆曲线密码学(ECC)
  • 6.计算机网络核心知识点精要手册
  • Unity3D SM节点式动画技能编辑器实现
  • 济南的网站建设公司哪家好/世界十大搜索引擎排名
  • 重庆云阳网站建设价格/佛山疫情最新消息
  • 域名备案期间 网站访问/做个公司网站多少钱
  • 网站建设与网页设计大作业/b2b网站大全免费推广
  • 网站推广策略怎么写/nba排名榜
  • 网站开发属于什么系统/google推广seo