当前位置: 首页 > news >正文

从指令到智能:大型语言模型提示词工程与上下文工程的综合分析

在这里插入图片描述

一、提示词工程:指令的艺术与科学

在与生成式人工智能模型(尤其是大型语言模型,LLM)交互的领域中,提示词工程(Prompt Engineering)构成了最直接、最基础的控制层面。它既是一门精确的科学,也是一门需要创造力的艺术,其核心在于设计和优化输入指令,以引导模型产生期望的输出。

1.1 定义提示词工程:塑造模型的任务

从根本上说,提示词工程是设计、构建和优化指令(即“提示词”)的过程,旨在引导生成式人工智能模型产出更优质的输出。它被广泛认为是“艺术与科学的结合”,因为它不仅需要对语言有深刻的理解,还需要创造性思维以及通过反复试验进行迭代优化的工程方法。

  • 提示词本质:一种自然语言文本,用于描述人工智能模型应执行的任务。形式多样,可是简单问题、关键词,也可是包含背景信息、示例和复杂指令的文本。
  • 模型响应机制:模型并非通过独立“问答”模块回答问题,其输出是基于庞大训练数据,对“跟随输入提示词后最可能出现的词语序列”的预测。
  • 核心目标:通过提供清晰的“路线图”,充分释放模型内在能力,在用户意图与模型生成过程间架起桥梁,确保输出相关、准确,且符合特定格式、风格和语气要求。

1.2 提示词技术分类法

随着实践深入,提示词工程发展出一套行之有效的技术体系,可按复杂性和应用场景分类:

(1)零样本与少样本学习

两种最基本的提示范式,核心区别在于是否为模型提供任务示例:

  • 零样本提示(Zero-Shot Prompting):直接下达指令,不提供任何示例,完全依赖模型预训练阶段的知识和指令遵循能力。是大多数任务的首选起点。
    示例:“将以下文本分类为中性、负面或正面。文本:我觉得这次度假还行。”
  • 少样本提示(Few-Shot Prompting):零样本效果不佳时,在提示词中包含1个及以上“输入-输出对”示例,通过“在上下文中学习”引导模型理解任务要求(非永久性训练)。对复杂或模型未明确训练的任务至关重要。
    示例:进行主题分类时,先提供“标题:《人工智能医疗应用进展》 主题:科技-医疗”等配对示例,再让模型分类新标题。
(2)指令控制与格式化

为获得精确可控的输出,需精心设计提示词的结构和内容:

  • 清晰性与特异性:模糊提示(如“谈谈人工智能”)易导致无效输出,有效提示需具体明确(如“解释人工智能在医疗保健领域的影响”)。最佳实践:核心指令置于开头,用分隔符(### 或 “”")区分指令与上下文信息,避免混淆。
  • 角色扮演(Persona Prompting):为模型分配特定角色或身份,引导回应的语气、风格和知识范围。在构建特定领域对话机器人或内容生成器时效果显著。
    示例:“假设你是一位数据科学家,正在向一群高中生解释人工智能的好处”。
  • 结构化输出:需将模型输出用于后续程序处理时,明确指定格式(如“以JSON格式返回结果”)或提供格式示例,确保输出结构统一、便于解析。
    示例:要求以要点列表形式总结文本。
(3)增强推理能力

最初提示词多用于知识检索和文本生成,后经研究发现,特定提示词结构可显著提升模型在复杂推理任务上的表现:

  • 思维链提示(Chain-of-Thought, CoT):突破性技术,引导模型将复杂问题分解为中间逻辑步骤,模仿人类推理过程,大幅提升算术、常识、符号推理等任务性能。实践中,只需在提示词末尾添加“让我们一步一步地思考”即可激发模型逐步推理能力。
  • 高级推理模式:在CoT基础上发展的复杂推理策略:
    • 思维树(Tree-of-Thought):引导模型探索多个推理路径,选择最优解;
    • 自洽性(Self-Consistency):生成多个独立推理链,通过“少数服从多数”确定最终答案,提高结果鲁棒性。

提示词技术的认知转变

从简单零样本查询到复杂思维链推理,提示词技术的发展反映了对LLM认知的深刻转变:

  1. 初期:将LLM视为先进模式匹配器或知识检索数据库,交互为“提出问题-获得答案”的事务性模式;
  2. 少样本学习阶段:将LLM视为“可在上下文中快速学习的学生”;
  3. 思维链技术阶段(里程碑):揭示“模型生成答案的过程与答案本身同等重要”——通过提示词引导模型“外化”推理步骤,不仅请求结果,更主动引导其内部计算路径。这表明LLM“黑箱”并非完全不透明,可通过结构化提示词提供推理“脚手架”,影响其内部“深思熟虑”过程。

二、基本原理:语言模型如何“思考”

要理解提示词工程与上下文工程的有效性,需探究其技术基石——大型语言模型的核心架构(Transformer),明确输入文本结构如何影响模型计算过程和最终输出。

2.1 Transformer架构:现代LLM的引擎

2017年论文《Attention Is All You Need》引入Transformer架构,彻底改变自然语言处理(NLP)领域。它摒弃循环神经网络(RNN)和长短期记忆网络(LSTM)的顺序处理模式,采用并行处理机制,使海量数据高效训练成为可能,大幅提升模型处理文本长距离依赖关系的能力,为现代LLM奠定基础。

Transformer架构的核心组件包括:

  • 编码器-解码器结构:许多现代生成模型(如GPT系列)采用“仅解码器(decoder-only)”结构,但完整Transformer包含编码器和解码器两部分;
  • 词嵌入层(Embedding Layers):将输入文本分割为“词元(token)”,并将每个词元转换为高维度数字向量(词嵌入);
  • 位置编码(Positional Encodings):Transformer并行处理机制本身不包含序列信息,需向词嵌入中添加位置编码,告知模型每个词元在序列中的位置。

2.2 自注意力机制:“理解”的源泉

自注意力机制(Self-Attention Mechanism)是Transformer架构的灵魂,也是模型“理解”上下文的根本。它允许模型处理序列中每个词元时,权衡所有其他词元对它的重要性(如在“那只动物没有过马路,因为它太累了”中,判断“它”指代“动物”而非“马路”)。

该机制通过查询-键-值(Query-Key-Value, QKV)模型实现:

  1. 投影:输入序列中每个词元的词嵌入向量,通过线性投影(乘以三个可学习权重矩阵)生成查询向量(Q)、键向量(K)、值向量(V);
  2. 打分:计算某词元(如token i)的Q_i与所有词元的K_j的点积,得到“注意力分数”,衡量词元间相关性;
  3. 加权求和:对注意力分数进行缩放和归一化(通常用Softmax函数),得到权重;用权重对所有词元的V_j加权求和,得到融合全局上下文信息的词元新表示。

为捕捉文本复杂关系,Transformer引入多头注意力(Multi-Head Attention)机制:将Q、K、V向量分割为多个“头(head)”,每个头独立执行注意力计算(每个头可学习关注不同语言特征,如句法结构、语义关联);最后拼接所有头的输出,再次线性变换,形成包含多维度上下文信息的综合表示。

2.3 上下文窗口:LLM的工作记忆

上下文窗口(Context Window)是LLM单次处理中可容纳和关注的最大信息量,通常以词元(token)数量衡量,相当于模型的“工作记忆”或“注意力广度”。

  • 词元化(Tokenization):文本处理前,由“分词器(tokenizer)”分解为词元(模型处理语言的基本单位)。词元不等同于单词,可为字符、词根/词缀、完整单词或短语。理解词元化对估算上下文窗口容量和API使用成本至关重要。
  • 影响与限制
    1. 上下文窗口大小直接决定模型在单次对话中“记住”的信息量,或一次性分析的文档长度;超出窗口时,模型会“忘记”早期信息,导致对话连贯性下降或分析不完整;
    2. 更大窗口虽提升复杂任务处理能力,但伴随挑战:
      • 计算成本增加:处理更长序列需更多计算资源,导致响应变慢、推理成本上升;
      • “大海捞针”问题:长上下文中,模型难定位关键信息,性能随上下文长度增加而下降(对开头和结尾信息利用率最高,中间信息易被忽略)。

工程实践与模型架构的因果联系

Transformer模型处理的不是文本,而是上下文窗口内的一系列数字向量(词嵌入)。自注意力机制通过计算注意力分数矩阵,决定每个词元对其他词元的“关注”程度:

  • 结构清晰、逻辑明确的提示词(如开头明确指令、用分隔符区分内容),从数学上让注意力机制更易为关键部分分配高权重;
  • 少样本示例通过提供具体模式,“预热”或引导模型注意力分布,使其为新查询复制该模式;
  • 上下文窗口的有限性是“上下文工程”学科诞生的根本原因——若窗口无限,可提供所有相关信息;正因其有限,需战略性选择和组织上下文内容。

三、向上下文工程的演进:构建信息生态系统

随着业界从简单聊天机器人、内容生成工具转向复杂、可靠、可扩展的AI系统,单纯提示词工程显现局限性。为满足生产级应用需求,“上下文工程(Context Engineering)”应运而生,标志着从“优化单个指令”到“设计整个信息环境”的范式转变。

3.1 定义上下文工程:超越单个提示词

上下文工程是一门系统性设计、构建和管理“模型推理期间提供给LLM的完整信息负载”的学科。核心是构建动态系统,在恰当时间、以正确格式,为模型提供完成任务所需的全部信息,确保其行为可靠、一致。

  • 关注点转变:从“提示词考古学”(花费数小时微调单个查询措辞),转向设计“运行时动态组装上下文的工程管线”;
  • 思维方式转变:重点从“你问了什么”转向“当你提问时,模型知道什么”;
  • 核心目标:为模型提供关于任务的“完整、精心烹制的世界观”,而非“不完整、半生不熟的视角”,打造可控、可靠的生产级系统。

3.2 关键关系:提示词工程是上下文工程的组成部分

提示词工程与上下文工程并非竞争关系,而是“包含关系”——提示词工程是上下文工程的子集。

类比理解
  • 提示词工程:精心撰写一封措辞精准的信件;
  • 上下文工程:管理整个家庭的运作(日程安排、信息流、背景资料),确保信件在恰当时机,连同所有必要背景信息,送达正确对象。
具体分工
  • 上下文工程:决定“什么内容应填入上下文窗口”;
  • 提示词工程:在已构建的信息环境中,撰写“指令部分”。

关键提醒设计再精妙的提示词,若淹没在无关聊天记录或格式混乱的文档片段中,也无法发挥作用。有效的上下文工程通过提供结构化记忆、动态检索知识和工具调用结果,为提示词执行创造必要条件,使其指令切实可行、高度相关。

表3.1:提示词工程与上下文工程的比较分析

特征(Feature)提示词工程 (Prompt Engineering)上下文工程 (Context Engineering)
范畴 (Scope)关注即时指令或查询(通常为单轮交互)关注跨多轮交互和会话的完整信息环境
目标 (Goal)针对单个输入,引导模型产生特定、高质量的响应确保整个人工智能系统表现出一致、可靠且可扩展的性能
类比 (Analogy)撰写一封清晰、精准的信件设计和管理一个家庭的整体通信与信息流
核心活动 (Core Activity)措辞优化、指令结构设计、提供示例系统设计、数据检索、记忆管理、工具集成
关键产物 (Key Artifact)提示词字符串或模板动态组装的、包含多源信息的完整上下文窗口负载
关联技术 (Associated Tech)少样本学习、思维链提示检索增强生成(RAG)、向量数据库、智能体框架(如LangGraph)、API编排

四、上下文工程实践:核心组件与操作

上下文工程将与模型的交互从“一次性对话”提升为“系统性架构设计”,涉及多个协同组件,共同为模型构建动态、丰富的信息环境。

4.1 系统性指令设计(系统提示)

系统提示(System Prompt)是上下文工程的基石,为模型在整个会话或任务期间设定总体角色、行为准则、约束条件和目标。与针对单次请求的用户提示不同,系统提示具有持久性,构成指令层次结构的基础层。

  • 示例:客户服务机器人的系统提示——“你是一家名为‘ACME公司’的客户服务助理。你的语气应始终保持礼貌和共情。在回答问题时,必须优先使用提供的文档上下文,禁止透露个人身份信息(PII)”。
  • 最佳实践
    1. 语言清晰、直接,处于“恰当高度”(足够具体以引导行为,同时保持灵活性以适应不同情况,避免过度拟合硬编码逻辑);
    2. 用XML标签或Markdown标题组织系统提示的不同部分(如、),提升可读性和有效性。

4.2 动态知识集成:检索增强生成(RAG)

检索增强生成(RAG)是上下文工程的基础模式,旨在解决LLM“知识库静态(仅限训练数据截止日期前的信息)”的核心局限。通过将LLM与外部动态知识源(公司内部文档、数据库、实时API)连接,为模型提供最新、领域特定的信息,是当前减少模型“幻觉”(生成事实错误信息)、确保回答有据可依的主要手段。

典型RAG管线步骤
  1. 索引(Indexing):将外部知识源(PDF、网页)分割为较小文本块(chunks);用嵌入模型(embedding model)将每个文本块转换为高维向量,存储在向量数据库中;
  2. 检索(Retrieval):用户提出查询后,系统将查询转换为向量;在向量数据库中进行相似性搜索,找出与查询向量最接近的文本块(即最相关信息);
  3. 增强(Augmentation):将检索到的文本块与用户原始查询、系统提示等信息拼接,构成增强的信息丰富上下文;
  4. 生成(Generation):将完整上下文负载提交给LLM,模型基于内部知识和外部实时上下文,生成更准确、有事实依据的回答。

4.3 状态与记忆管理

对于多轮对话应用(如聊天机器人、AI助手),记忆管理是维持对话连贯性和实现个性化的关键,分为短期记忆和长期记忆:

  • 短期记忆:通过每次请求时,将最近对话历史包含在上下文窗口中实现,使模型“记住”直接上下文,确保回应连贯;
  • 长期记忆:为实现跨会话个性化,将关键信息(用户偏好、过去交互摘要、重要事实)存储在外部数据库(通常为向量数据库)中;新会话开始或检测到相关触发点时,从长期记忆库检索信息,注入当前上下文。

4.4 工具集成与智能体行为

上下文工程使LLM超越单纯文本生成,进化为可与外部世界交互的“智能体(Agent)”,核心是在上下文中为模型提供“工具”(即模型可调用的函数或API,如查询数据库、发送邮件、执行代码)。

工具集成工作流程
  1. 工具定义:在系统提示或上下文其他部分,清晰描述可用工具、功能及调用所需参数格式;
  2. 决策与调用:模型基于用户请求和当前上下文,自主决策是否调用工具、调用哪个工具;若调用,生成符合预定义格式的函数调用指令(如JSON对象);
  3. 执行与反馈:外部系统接收指令,执行工具(如调用天气API),并将执行结果(如“今天北京天气晴,25摄氏度”)返回;
  4. 整合与响应:将返回结果重新注入模型上下文窗口,成为模型生成最终答复的新信息来源。

应用示例:用户请求“查一下我上次的订单,里面的蓝色衬衫能退货吗?”——系统先通过记忆组件检索订单历史,再通过RAG组件查询退货政策文档,同时注入“处理退货”API工具定义;模型基于完整上下文,生成准确且可执行的回答,完成从“静态文本生成器”到“有状态、有知识、有行动能力的智能体”的转变。

4.5 高级上下文管理策略

有限的上下文窗口易成为瓶颈,导致“上下文腐烂(context rot)”,业界发展出多种高级管理策略:

  • 摘要/压缩(Summarization/Compaction):对话历史过长时,调用LLM对早期内容总结,用短摘要替代冗长原文,节省词元空间;
  • 结构化笔记(Structured Note-Taking):让智能体在执行任务过程中,将关键信息、中间结论或待办事项记录到上下文窗口之外的“草稿纸”或外部文件中;需要时,再将这些笔记检索回上下文中,避免关键信息占用实时窗口资源。
  • 多智能体架构(Multi-Agent Architectures):将复杂任务分解为多个子任务,为每个子任务分配专门的“子智能体”;每个子智能体在独立、干净的上下文中专注解决自身问题;最后由“主智能体”协调和综合所有子智能体的产出,形成最终解决方案,有效规避单一窗口的信息过载问题。

五、实际应用:上下文感知系统的概念性演练

为融会贯通前述概念,本节以“设计具备上下文感知能力的客户服务聊天机器人”为例,进行架构演练,清晰展示提示词工程如何在RAG、记忆、工具构成的动态上下文生态系统中发挥作用。

5.1 系统目标:一个多功能客户服务智能体

该系统需构建能处理多样化客户请求的AI智能体,核心能力要求:

  1. 回答关于公司产品和政策的事实性问题;
  2. 访问并处理用户相关动态数据(如订单历史);
  3. 执行具体操作(如发起退货流程);
  4. 交互过程中保持一致、友好的品牌形象和个性。

实现目标的关键:无缝融合静态知识(政策文档)、动态数据(用户信息)和有状态的交互能力。

5.2 构建上下文管线

典型的请求-响应周期涉及“动态、多阶段的上下文构建过程”,具体分为4个步骤:

步骤1:基础系统提示的构建(提示词工程)

系统起点是通过精心设计的系统提示,为智能体设定核心身份和行为准则。该提示为静态内容,每次交互开始时加载,需遵循结构化设计原则:

你是由ACME公司开发的AI客户服务助理“SupportBot”。  ### 核心准则
1. 语气必须始终保持礼貌、耐心和共情;
2. 回答公司政策相关问题时,严格依据提供的[文档上下文]作答,禁止依赖通用知识库;
3. 若[文档上下文]无足够信息,需明确告知用户“我没有找到相关信息”;
4. 绝对禁止询问用户密码、信用卡号等敏感个人身份信息(PII)。### 可用工具
你拥有以下工具帮助用户解决问题:
1. get_order_history(user_id):根据用户ID查询其最近的订单历史;
2. initiate_return(order_id, item_id):根据订单ID和商品ID为用户发起退货流程。
步骤2:运行时的上下文动态组装(上下文工程)

用户发起请求后,系统实时、动态构建针对该请求的专属上下文,包含4个关键动作:

  1. 用户身份识别:通过登录状态或其他方式获取用户唯一标识(user_id);
  2. 记忆检索:调用内部函数get_user_profile(user_id),从长期记忆库(如CRM数据库、用户画像系统)中检索用户关键信息(如是否为VIP客户、最近购买记录、历史客服工单摘要),添加到上下文中;
  3. RAG知识检索:分析用户查询(如“我想退掉上次买的相机”),提取关键词“退货”“相机”;向存储公司政策、产品手册的向量数据库发起查询,返回最相关文本块(如“电子产品退货政策”“相机产品保修条款”),作为[文档上下文]注入;
  4. 短期记忆注入:将当前会话中最近的几轮对话(如最近5轮)加入上下文,维持对话连贯性。
步骤3:最终上下文负载的形成

整合上述所有组件,生成提交给LLM的完整上下文负载,概念性结构如下:

[系统提示]
你是由ACME公司开发的AI客户服务助理“SupportBot”。  
### 核心准则
1. 语气必须始终保持礼貌、耐心和共情;
2. 回答公司政策相关问题时,严格依据提供的[文档上下文]作答,禁止依赖通用知识库;
3. 若[文档上下文]无足够信息,需明确告知用户“我没有找到相关信息”;
4. 绝对禁止询问用户密码、信用卡号等敏感个人身份信息(PII)。
### 可用工具
1. get_order_history(user_id):根据用户ID查询其最近的订单历史;
2. initiate_return(order_id, item_id):根据订单ID和商品ID为用户发起退货流程。[用户画像 (来自记忆库)]
用户ID: user_123
客户等级: VIP
历史问题: 曾咨询过相机镜头兼容性问题[对话历史 (短期记忆)]
用户: 你好
SupportBot: 您好!我是ACME公司的AI客服SupportBot,很高兴为您服务。
用户: 我想退掉上次买的相机[文档上下文 (来自RAG检索)]
文档1 (电子产品退货政策): "所有电子产品自购买之日起30天内可无理由退货,需包装完好,附购买凭证。"
文档2 (相机保修条款): "相机机身提供一年保修,不包括人为损坏、包装缺失的情况;退货需确保机身无划痕、配件齐全。"[当前用户请求]
用户: 我想退掉上次买的相机
步骤4:生成响应与工具使用

LLM基于上述信息丰富的上下文,进行精准推理和生成:

  1. 初步响应:综合用户画像(VIP身份)、RAG政策(30天无理由退货)、历史记录(曾咨询相机问题),生成个性化回答——“您好!查询到您是我们的VIP客户,非常感谢您的支持。根据公司政策,相机作为电子产品,自购买之日起30天内可无理由退货(需包装完好、配件齐全)。我查询到您最近的订单中包含一台‘ACME-X1’相机,请问您想退的是这台设备吗?”;
  2. 工具调用触发:若用户确认“是这台相机”,模型将依据系统提示中的工具定义,生成调用initiate_return工具的指令(如JSON格式:{"function":"initiate_return","parameters":{"order_id":"ORD-78901","item_id":"CAM-X1-001"}});
  3. 闭环执行:外部系统接收工具指令后,执行退货流程初始化,将结果(如“退货申请已提交,退货单号为RTN-12345,预计1-3个工作日审核”)反馈至上下文,模型再将该结果转化为自然语言答复用户,完成“信息收集-决策-行动-反馈”的智能体循环。

5.3 迭代与评估

构建上下文感知系统是持续迭代的过程,需通过“监控-评估-优化”闭环提升性能:

  1. 轨迹监控(Trace Monitoring):记录每次交互的完整上下文、模型中间思考步骤(如是否调用工具、检索是否准确)和最终响应,便于出现问题时(如政策引用错误、工具调用失败)定位根源;
  2. 系统性评估:建立包含真实用户问题的测试集(覆盖产品咨询、订单查询、售后操作等场景),从“准确性(政策引用是否正确)、相关性(回答是否匹配用户需求)、任务完成率(是否成功解决问题)”三个维度量化系统表现;
  3. 定向优化:根据评估结果调整关键组件——若RAG检索不准确,优化文本块分割策略或嵌入模型;若对话连贯性差,调整短期记忆的保留长度;若工具调用逻辑混乱,细化系统提示中的工具参数描述。

六、结论:从技巧到工程

对提示词工程和上下文工程的分析,揭示了人机交互范式的深刻演进——从依赖个人技巧、反复试错的“黑客式方法”,转向有理论基础、系统方法论、评估标准的“正式工程学科”。

核心论点总结

维度提示词工程(Prompt Engineering)上下文工程(Context Engineering)
定位战术层面的技能战略层面的学科
核心关注优化“指令本身”,确保单次交互的高质量输出架构化设计“模型的信息环境”,确保系统持续、可靠、可扩展运行
核心问题“如何更好地提问?”“如何让模型在提问时,知道所有它应该知道的事情?”
价值定位帮助获取“第一个好的输出”帮助构建“一个可靠的AI系统”

未来发展趋势

从提示词工程到上下文工程的演进,是构建“更自主、更有能力的AI智能体”的关键一步。未来焦点将进一步转向“高级工作流架构(Advanced Workflow Architecture)”:

  1. 自动化上下文组装:AI将自主规划解决复杂任务所需的信息(如“用户问‘最近的促销活动’,需先检索最新活动文档,再查询用户所在地区是否参与”),减少人工干预;
  2. 多智能体协同优化:不同功能的子智能体(如“检索智能体”“推理智能体”“工具执行智能体”)将实现更高效的协同,动态分配任务、共享上下文,提升复杂任务(如跨部门流程协调)的处理能力;
  3. 工程化标准完善:随着实践深入,上下文工程将形成更明确的设计模式(如“记忆分层管理模式”“RAG-工具协同模式”)、评估指标(如“上下文利用率”“幻觉率”)和开发框架,推动该领域从“手艺(Craft)”彻底走向“正式工程学科”,为下一代智能应用(如企业级AI助手、行业专属智能体)奠定坚实基础。
http://www.dtcms.com/a/461971.html

相关文章:

  • wordpress清理过期文件夹电商seo
  • html网站尺寸成立公司需要哪些资料
  • 物联网边缘节点中的MEMS传感器低功耗设计实战
  • 当工业生产遇上RFID:智能追溯让制造全流程“透明可见”
  • LeetCode 刷题【109. 有序链表转换二叉搜索树】
  • 建设企业网站模板下载黑龙江省建设工程质量安全协会网站
  • VMware 安装 Ubuntu 24.04(稳定版本) 母胎教学
  • 巴城镇建设网站微信微网站制作公司
  • Linux 系统配置 NTP 服务:轻松同步阿里云时间服务器
  • 网站建设公司列表网加强网站建设工作
  • 深度学习之模型的部署、web框架 服务端及客户端案例
  • 《投资-113》价值投资者的认知升级与交易规则重构 - 复利故事终止的前兆
  • 从 “黑盒“ 到 “透明“:SkyWalking 实战指南 —— 让微服务问题无所遁形
  • 网站流量增加专门做物理的网站
  • 鸿蒙应用开发从入门到实战(十七):ArkUI组件List列表布局
  • 论文阅读:arxiv 2025 Scaling Laws for Differentially Private Language Models
  • 如何自己做网站腾讯设计师培训基地
  • live555(笔记)
  • Linux系统编程:(二)基础指令详解(1)
  • 新闻视频网站开发wordpress如何自动采集网站图片
  • 【TIDE DIARY 1】dify日常试错; conda
  • Cucumber + Playwright 教程
  • 门户网站开发设计方案山东聊城建设学校网站
  • LLMs之Ling:Ling-1T的简介、安装和使用方法、案例应用之详细攻略
  • DOpusInstall-13.2.exe 安装方法,简单几步完成
  • 免费的api接口网站wordpress中文主题框架
  • 芯科科技第三代无线SoC现已全面供货
  • 1.c++入门(中)
  • 路桥养护:多交通场景下的差异化实践
  • 算法-快速排序