当前位置: 首页 > news >正文

大模型应用开发1-认识大模型

1.基础概念

1.1 AI的概念:

AI,⼈⼯智能(Artificial Intelligence),使机器能够像⼈类⼀样思考、学习和解决问题的技术。
AI发展⾄今⼤概可以分为三个阶段:
其中,深度学习领域的自然语言处理(NLP)有一项关键技术叫Transformer,这是一种由多层感知机组成的神经网络模型,我们所熟知的大模型,如GPT,DeepSeek底层都是采用Transformer。

1.2 神经网络的基本概念

如果我们想通过模拟人脑的方式实现人工智能,首先就要模拟出一个神经元,于是人们提出感知机模型,用于模拟神经元,在感知机模型中,有输入,权重,激活函数,假设输入和激活函数都不变的情况下,我们可以通过调整权重值,得到不同输出。

单个感知机模型只能模拟单个神经元,每个感知机上都有输入,输出,激活函数,将来会结合用户的输入和权重以及激活函数,再与阈值(偏置)比较,最终得到输出,每个神经元上使用的权重和阈值都称为参数,每个神经元上的参数数量=权重数量+1,这里的1指的是偏置。

大模型的大指参数规模,现在我们通常将参数规模在1000亿以上的模型称为大模型。

1.3 大模型的基本概念

最早Transformer是由Google在2017年提出的⼀种神经⽹络模型,⼀开始的作⽤是把它作为机
器翻译的核⼼:

Transformer中提出的注意力机制使得神经网络在处理信息时可以根据上下文内容调整对于数据的理解,这使得我们可以将图片,音频等各种类型的数据都交给Transformer来处理
大语言模型(LLM)是对Transformer的另一种用法:推理预测。LLM在训练Transformer时会输入文本,图片等各种信息,然后让Transformer推理接下来跟着的应该是什么内容,推理的结果会以概率分布的形式出现。
在推理内容中,大模型可以持续生成大段有关联的文字内容,每次生成都会把前文的推测内容再次交给大模型处理,进而继续推断下一次生成的内容。

2.大模型基本使用

2.1 模型使用方案

我们要使用一个可访问的大模型通常有三种方案:

使用开放的API,在云平台部署私有大模型,在本地服务器部署私有大模型

开放API没有运维成本,按调用收费,但是长期使用成本较高且数据存在第三方,存在隐私和安全问题。云平台部署私有模型部署和运维方便,前期投入成本低,但是长期使用成本高,且同样存在安全问题。本地部署私有大模型数据完全自主掌控,安全性高,但硬件投入成本极高且维护困难。

2.2 Ollama本地部署

下载Ollama客户端并根据指令进行模型部署等操作

一、基础操作指令

指令功能示例
ollama run <模型名>运行指定模型(自动下载若不存在)ollama run llama3
ollama list查看本地已下载的模型列表ollama list
ollama pull <模型名>手动下载模型ollama pull mistral
ollama rm <模型名>删除本地模型ollama rm llama2
ollama help查看帮助文档ollama help

二、模型交互指令

1. 直接对话

ollama run llama3 "用中文写一首关于秋天的诗"

2. 进入交互模式

ollama run llama3
# 进入后输入内容,按 Ctrl+D 或输入 `/bye` 退出

3. 从文件输入

ollama run llama3 --file input.txt

4. 流式输出控制

参数功能示例
--verbose显示详细日志ollama run llama3 --verbose
--nowordwrap禁用自动换行ollama run llama3 --nowordwrap

三、模型管理

1. 自定义模型配置(Modelfile)

创建 Modelfile 文件:

FROM llama3  # 基础模型
PARAMETER temperature 0.7  # 控制随机性(0-1)
PARAMETER num_ctx 4096     # 上下文长度
SYSTEM """ 你是一个严谨的学术助手,回答需引用论文来源。"""                # 系统提示词

构建自定义模型:

ollama create my-llama3 -f Modelfile
ollama run my-llama3

2. 查看模型信息

ollama show <模型名> --modelfile  # 查看模型配置
ollama show <模型名> --parameters # 查看运行参数

四、高级功能

1. API 调用

启动 API 服务

ollama serve

通过 HTTP 调用

curl http://localhost:11434/api/generate -d '{"model": "llama3","prompt": "你好","stream": false
}'

2. GPU 加速配置

# 指定显存分配比例(50%)
ollama run llama3 --num-gpu 50

2.3 API调用大模型接口

目前大多数大模型都遵循OpenAI的接口规范,是给予http协议的接口,具体规范可查看相关大模型官方API文档。

大模型接口规范:

这是DeepSeek官方文档给出的调用示例:

# Please install OpenAI SDK first: `pip3 install openai`
from openai import OpenAI
# 1.初始化OpenAI客⼾端,要指定两个参数:api_key、base_url
client = OpenAI(api_key="<DeepSeek API Key>",
base_url="https://api.deepseek.com")
# 2.发送http请求到⼤模型,参数⽐较多
response = client.chat.completions.create(
model="deepseek-chat", # 2.1.选择要访问的模型
messages=[ # 2.2.发送给⼤模型的消息
{"role": "system", "content": "You are a helpful assistant"},
{"role": "user", "content": "Hello"},
],
stream=False # 2.3.是否以流式返回结果
)
print(response.choices[0].message.content)

接口说明:

请求路径:与平台有关

安全校验:开放平台提供API_KEY校验权限,Ollama不需要

请求参数:

model(访问模型名称)

message(发送给大模型的消息,是一个数组)

stream(true代表响应结果流式返回,false代表响应结果一次性返回,但需要等待)

temperature(取值范围[0,2),代表大模型生成结果的随机性,值越小随机性越低,deepseek-r1不支持此参数)

message数组中两个属性:role和content,通常,role有三种:

3.大模型应用

大模型应用是基于大模型的推理,分析,生成能力,结合传统编程能力,开发出的各种应用。

大模型是基于数据驱动的概率推理,擅长处理模糊性和不确定性,如自然语言处理(文本翻译),非结构化数据处理(医学影像诊断),创造性内容生成(生成图片),复杂模式预测(股票预测)等,而上述内容正式我们传统应用所不擅长处理的部分,因此,可以将传统编程和大模型整合起来,开发智能化的大模型应用。

大模型本身只是具备生成文本的能力,基本推理能力,我们平时使用的ChatGPT等对话产品除了生成和推理外,还有会话记忆,联网等功能,这些是大模型本身所不具备的,是需要额外程序去完成的,也就是基于大模型的应用。

常见的一些大模型产品及其模型关系:

大模型对话产品公司地址
GPT-3.5、GPT-4oChatGPTOpenAIhttps://chatgpt.com/
Claude 4.0Claude AIAnthropicApp unavailable \ Anthropic
DeepSeek-R1DeepSeek深度求索DeepSeek | 深度求索
文心大模型 3.5文心一言百度文心一言
星火 3.5讯飞星火科大讯飞讯飞星火-懂我的AI助手
Qwen-Max通义千问阿里巴巴通义 - 你的实用AI助手
MoonshootKimi月之暗面Kimi - 会推理解析,能深度思考的AI助手
Yi-Large零一万物零一万物零一万物-大模型开放平台

大模型应用的常见领域:

http://www.dtcms.com/a/302098.html

相关文章:

  • 【Linux】编辑器vim和编译器gcc/g++
  • go‑cdc‑chunkers:用 CDC 实现智能分块 强力去重
  • mp快速入门
  • AI在编程、测试、数据分析等领域的前沿应用(技术报告)
  • 深度思考和搜索研究 最新的GSPO强化学习算法
  • 第六届金头脑杯夏季巅峰挑战:以智慧之名,点亮幼儿成长之路
  • RV1126B-P机器视觉应用AIoT及边缘计算算力达2.0支持 HDR 、 3DNR
  • Java设计模式之<建造者模式>
  • Go 语言面试题
  • window显示驱动开发—Direct3D 11 视频播放改进
  • WPF,按钮透明背景实现MouseEnter
  • 二级域名分发源码最新开源版
  • 使用Ettus USRP X440对雷达和EW系统进行原型验证
  • 【实时Linux实战系列】基于实时Linux的智能家居系统设计
  • 电脑开机不显示网卡的原因
  • LLM学习笔记5——InstructGPT
  • 用AI压缩音视频,如何让尺寸更紧凑?
  • ADB+Python控制(有线/无线) Scrcpy+按键映射(推荐)
  • 云原生作业(haproxy)
  • LeetCode 2044.统计按位或能得到最大值的子集数目:二进制枚举/DFS回溯(剪枝)
  • Leetcode——42. 接雨水
  • golang--通道和锁
  • 在 CentOS 中安装 MySQL 的过程与问题解决方案
  • QGIS基于规则的道路分级制图及Leaflet集成展示实例
  • 深入解析NES游戏原理与开发流程:从硬件架构到现代开发实践
  • 腾讯云centos7使用docker部署生产环境中间件
  • 基于黑马教程——微服务架构解析(二)
  • python的第三方库(五分钟小白从入门到精通)
  • 信息收集的一般思路
  • linux cut命令 使用教程