当前位置: 首页 > news >正文

[特殊字符] 人工智能大模型之开源大语言模型汇总(国内外开源项目模型汇总) [特殊字符]

Large Language Model (LLM) 即大规模语言模型,是一种基于深度学习的自然语言处理模型,它能够学习到自然语言的语法和语义,从而可以生成人类可读的文本。

所谓 "语言模型",就是只用来处理语言文字(或者符号体系)的 AI 模型,发现其中的规律,可以根据提示 (prompt),自动生成符合这些规律的内容。

LLM 通常基于神经网络模型,使用大规模的语料库进行训练,比如使用互联网上的海量文本数据。这些模型通常拥有数十亿到数万亿个参数,能够处理各种自然语言处理任务,如自然语言生成、文本分类、文本摘要、机器翻译、语音识别等。

本文对国内外公司、科研机构等组织开源的 LLM 进行了全面的整理。


🌍 1. 开源中文 LLM

🔹 ChatGLM-6B —— 双语对话语言模型

ChatGLM-6B 是一个开源的、支持中英双语问答的对话语言模型,并针对中文进行了优化。该模型基于 General Language Model (GLM) 架构,具有 62 亿参数。结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4 量化级别下最低只需 6GB 显存)。

特点:

  • 支持中英双语问答

  • 优化中文理解与生成

  • 低显存需求,适合本地部署

🔗 GitHub


🔹 ChatGLM2-6B —— 中英双语对话模型第二代

基于 ChatGLM 初代模型的开发经验,ChatGLM2-6B 全面升级了基座模型,支持更长的上下文,更高效的推理,更开放的协议。

升级点:

  • 更长的上下文支持

  • 更快的推理速度

  • 更开放的协议

🔗 GitHub


🔹 VisualGLM-6B —— 多模态对话语言模型

VisualGLM-6B 是一个支持 图像、中文和英文 的多模态对话语言模型,语言模型基于 ChatGLM-6B,视觉部分通过训练 BLIP2-Qformer 构建起视觉与语言的桥梁。

特点:

  • 支持图像+文本多模态输入

  • 78亿参数,增强视觉理解能力

🔗 GitHub


🔹 MOSS —— 支持中英双语的对话大语言模型

MOSS 是一个支持中英双语和多种插件的开源对话语言模型,moss-moon 系列模型具有 160 亿参数,在 FP16 精度下可在单张 A100/A800 或两张 3090 显卡运行。

特点:

  • 支持插件增强

  • 在千亿级中英文数据上预训练

  • 适用于多轮对话

🔗 GitHub


🔹 DB-GPT —— 数据库大语言模型

DB-GPT 是一个开源的以 数据库为基础 的 GPT 实验项目,使用本地化的 GPT 大模型与数据和环境进行交互,无数据泄露风险,100% 私密

特点:

  • 专为数据库场景优化

  • 支持本地部署,数据安全可控

🔗 GitHub


🔹 CPM-Bee —— 中英文双语大语言模型

CPM-Bee 是一个 完全开源、允许商用 的百亿参数中英文基座模型,采用 Transformer 自回归架构,使用 万亿级高质量语料 进行预训练。

特点:

  • 开源可商用

  • 中英双语性能优异

  • 超大规模训练数据

🔗 GitHub


🔹 LaWGPT —— 基于中文法律知识的大语言模型

LaWGPT 是一系列基于 中文法律知识 的开源大语言模型,在通用中文基座模型的基础上扩充法律领域专有词表,增强法律语义理解能力。

特点:

  • 法律领域优化

  • 支持司法考试数据集

🔗 GitHub


🔹 伶荔 (Linly) —— 大规模中文语言模型

Linly 是目前最大的中文 LLaMA 模型之一(33B),支持 中文增量训练,并提供量化推理框架。

特点:

  • 支持 CPU/GPU 推理

  • 提供 7B、13B、33B 版本

🔗 GitHub


🔹 Chinese-Vicuna —— 基于 LLaMA 的中文大语言模型

Chinese-Vicuna 是一个中文低资源的 LLaMA + LoRA 方案,支持 CPU 推理

特点:

  • 低成本微调方案

  • 支持 C++ CPU 推理

🔗 GitHub


🔹 ChatYuan —— 对话语言大模型

ChatYuan 是一个支持中英双语的功能型对话语言大模型,最低仅需 400M 显存(INT4) 即可运行。

特点:

  • 轻量化,适合移动端

  • 优化指令理解

🔗 GitHub


🔹 华佗 GPT —— 开源中文医疗大模型

HuatuoGPT(华佗 GPT)是开源中文医疗大模型,基于 医生回复 + ChatGPT 数据 训练,提供丰富的医疗问诊能力。

特点:

  • 医疗领域优化

  • 支持诊断建议

🔗 GitHub


🔹 本草 (BenTsao) —— 基于中文医学知识的 LLaMA 微调模型

本草(原名华驼)是基于 中文医学知识 的 LLaMA 微调模型,适用于医疗问答。

特点:

  • 医学指令微调

  • 支持知识图谱

🔗 GitHub


🔹 鹏程·盘古α —— 中文预训练语言模型

「鹏程·盘古α」是业界首个 2000 亿参数 的中文预训练生成语言模型,支持知识问答、阅读理解等任务。

特点:

  • 超大规模训练

  • 支持少样本学习

🔗 GitHub


🔹 悟道 —— 双语多模态大语言模型

“悟道” 是 1.75 万亿参数 的双语多模态预训练模型,涵盖 文本、图像、蛋白质 等多个领域。

子模型:

  • CogView(文生图)

  • BriVL(图文检索)

  • GLM(英文预训练)

  • CPM(中文生成)

🔗 GitHub


🔹 BBT-2 —— 120 亿参数大语言模型

BBT-2 是包含 120 亿参数 的通用大语言模型,衍生出 代码、金融、文生图 等专业模型。

衍生模型:

  • BBT-2-12B-TC-001(代码模型)

  • BBT-2-12B-TF-001(金融模型)

  • BBT-2-12B-Fig(文生图)

🔗 GitHub


🔹 BELLE —— 开源中文对话大模型

BELLE 目标是促进 中文对话大模型 开源社区的发展,基于 BLOOM 优化中文能力。

特点:

  • 使用 ChatGPT 生成数据微调

  • 支持个性化训练

🔗 GitHub


🔹 TigerBot —— 多模态大语言模型

TigerBot 是一个多语言多任务的大规模语言模型,TigerBot-7B 达到 OpenAI 同规模模型的 96% 性能

特点:

  • 支持多语言

  • 高性能推理

🔗 GitHub


🔹 YuLan-Chat —— 大语言对话模型

中国人民大学发布的 中英文双语对话模型,优化指令微调技术。

特点:

  • 学术研究导向

  • 支持多轮交互

🔗 GitHub


🔹 百聆 (BayLing) —— 中英双语大语言模型

中国科学院计算技术研究所开发的 中英双语大语言模型,性能达 ChatGPT 90%。

特点:

  • 优越的中英生成能力

  • 支持多轮交互

🔗 GitHub


🌎 2. 开源国际 LLM

🔹 通义千问-7B (Qwen-7B) —— 阿里云开源大模型

Qwen-7B 基于 Transformer 架构,支持 8K 上下文,覆盖多种 NLP 任务。

特点:

  • 大规模预训练数据(2.2 万亿 token)

  • 支持插件调用

🔗 GitHub


🔹 Code Llama —— 基于 Llama 2 的 AI 代码生成模型

Meta 发布的 代码生成大模型,支持 Python、C++、Java 等编程语言。

版本:

  • Code Llama(基础代码模型)

  • Code Llama-Python(Python 优化)

  • Code Llama-Instruct(指令理解)

🔗 GitHub


🔹 MiLM-6B —— 小米 AI 大模型

小米开发的 64 亿参数 中文大模型,在 C-Eval 和 CMMLU 评测中表现优异。

特点:

  • 中文优化

  • 高性能推理

🔗 GitHub


🔹 LLaMA —— Meta 开源大语言模型

Meta 的 LLaMA 系列(7B/13B/33B/65B),性能超越 GPT-3。

特点:

  • 高效推理

  • 适合本地部署

🔗 GitHub


🔹 Falcon —— 阿联酋开源语言模型

Falcon 40B 是目前 最强大的开源语言模型之一,性能优于 LLaMA。

特点:

  • 400 亿参数

  • 高效推理

🔗 GitHub


🔹 Vicuna —— 基于 LLaMA 的微调模型

Vicuna-13B 达到 ChatGPT 90% 的质量,训练成本仅 300 美元

特点:

  • 低成本微调

  • 高性能对话

🔗 GitHub


🔹 BLOOM —— 1760 亿参数多语言模型

BLOOM 支持 46 种自然语言 + 13 种编程语言,完全开源。

特点:

  • 多语言支持

  • 免费商用

🔗 GitHub


🔹 GPT-J —— 60 亿参数开源模型

GPT-J 基于 GPT-3 架构,性能接近 OpenAI 的 67 亿参数版本。

特点:

  • 完全开源

  • 支持代码生成

🔗 GitHub


🔹 WizardLM —— 基于 LLaMA 的微调模型

WizardLM 使用 Evol-Instruct 方法自动生成训练数据,优化指令理解。

特点:

  • 70K 指令微调

  • 高性能对话

🔗 GitHub


🛠️ 3. LLM 相关工具

🔹 OpenLLM —— 大语言模型操作平台

支持 Fine-tune、Serve、部署、监控 任何 LLM,兼容多种开源模型。

特点:

  • 支持 RESTful API

  • 简化部署

🔗 GitHub


🔹 LangChain —— 构建 LLM 应用的工具

提供 Prompt 管理、LLM 接口、文档加载、链式调用 等功能。

特点:

  • 支持多种 LLM

  • 灵活构建 AI 应用

🔗 GitHub


🔹 JARVIS —— 连接 LLM 和 AI 模型的协作系统

由 LLM 作为控制器,调用 HuggingFace 模型执行任务。

工作流程:

  1. 任务规划

  2. 模型选择

  3. 任务执行

  4. 生成响应

🔗 GitHub


🔹 Dify —— LLMOps 平台

可视化编排 Prompt、数据集、API,支持 GPT-3/4、LLaMA 等模型。

特点:

  • 开箱即用

  • 支持私有化部署

🔗 GitHub


🔹 Flowise —— 可视化构建 LLM 应用

基于 LangChain 的低代码工具,支持对话链、记忆代理等。

特点:

  • 拖拽式 UI

  • 快速原型开发

🔗 GitHub


🎉 总结

本文整理了 国内外 50+ 开源大语言模型及相关工具,涵盖:

  • 中文 LLM(ChatGLM、MOSS、DB-GPT 等)

  • 国际 LLM(LLaMA、Falcon、BLOOM 等)

  • LLM 工具(LangChain、Dify、Flowise 等)

无论是 学术研究 还是 商业应用,这些开源项目都提供了强大的支持! 🚀

相关文章:

  • leetcode 59. 螺旋矩阵 II
  • 大连理工大学选修——图形学:第二章 计算机图形硬件及绘图系统
  • Git推送大文件导致提交回退的完整解决记录
  • 短信侠 - 自建手机短信转发到电脑上并无感识别复制验证码,和找手机输验证码说再见!
  • LLM论文笔记 28: Universal length generalization with Turing Programs
  • 365打卡第R6周: LSTM实现糖尿病探索与预测
  • idea结合CopilotChat进行样式调整实践
  • [pdf,epub]292页《分析模式》漫谈合集01-59提供下载
  • STM32Cube-FreeRTOS任务管理工具函数-笔记
  • ActiveMQ 与其他 MQ 的对比分析:Kafka/RocketMQ 的选型参考(一)
  • 个性化推荐:大数据引领电子商务精准营销新时代
  • 探秘 Git 底层原理:理解版本控制的基石
  • 【现代深度学习技术】现代循环神经网络06:编码器-解码器架构
  • Python基本语法(lambda表达式)
  • 【PostgreSQL数据分析实战:从数据清洗到可视化全流程】2.3 窗口函数与高级聚合(ROW_NUMBER()/RANK()/SUM() OVER())
  • 服务器部署一个千问2.5-14B、32B并发布为接口
  • 强化学习机器人模拟器——GridWorld:一个用于强化学习的 Python 环境
  • SurfSense开源程序是NotebookLM / Perplexity / Glean的开源替代品,连接到外部来源,如搜索引擎
  • 【Hive入门】Hive与Spark SQL深度集成:Metastore与Catalog兼容性全景解析
  • 互联网大厂Java求职面试:核心技术点深度解析
  • 同路人才是真朋友——驻南苏丹使馆援助东赤道州人道主义物资交接仪式侧记
  • 局势紧张之际,伊朗外长下周访问巴基斯坦和印度
  • 10家A股农商行一季报:净利均实现增长,常熟银行营收、净利增速领跑
  • 习近平给谢依特小学戍边支教西部计划志愿者服务队队员的回信
  • 新华社评论员:在推进中国式现代化的宽广舞台上绽放青春光彩
  • 履新宿州市政府党组书记后,任东暗访五一假期安全生产工作