当前位置: 首页 > news >正文

第一章 开发工具与平台介绍

大模型开发并非“从零造轮子”——从模型训练、调优到部署,都需要依托成熟的工具与平台降低门槛、提升效率。无论是新手入门“跑通第一个模型 Demo”,还是企业级开发“优化千亿参数模型性能”,选对工具都能让开发流程事半功倍。本章将聚焦主流的大模型开发工具与平台,从深度学习框架到模型库,拆解它们的功能特点、使用方法与核心优势,为开发实践提供“工具指南”。

目录

    • 1 深度学习框架:大模型开发的“地基”
      • 1.1 PyTorch:灵活易用,科研与快速迭代首选
        • (1)核心特点:动态计算图,“边写边改”更灵活
        • (2)使用方法:代码简洁,贴近 Python 直觉
        • (3)核心优势:生态丰富,大模型支持完善
      • 1.2 TensorFlow:稳定高效,工业级部署首选
        • (1)核心特点:静态计算图,“先规划再执行”更高效
        • (2)使用方法:Keras 高阶 API,平衡效率与易用性
        • (3)核心优势:部署工具链完善,覆盖全场景
    • 2 模型库平台:大模型开发的“工具箱”
      • 2.1 Hugging Face:全球最大的大模型开源社区
        • (1)核心功能:三大核心库,覆盖“数据-模型-训练”全流程
        • (2)核心优势:开源生态+社区支持,降低开发门槛
      • 2.2 ModelScope(魔搭社区):国内大模型开发的“本土化选择”
        • (1)核心特点:本土化资源丰富,适配中文与国产硬件
        • (2)使用方法:与 Hugging Face 兼容,降低迁移成本
    • 3 工具与平台选择建议:按需匹配开发需求
    • 4 实战案例:工具平台协同开发小场景
      • 4.1 案例目标
      • 4.2 工具组合与核心步骤
        • (1)工具准备
        • (2)核心代码实现(完整流程)
        • (3)工具协同优势
    • 5 章节小结:工具是大模型开发的 “效率放大器”

1 深度学习框架:大模型开发的“地基”

深度学习框架是大模型开发的核心工具——它封装了复杂的数学计算(如矩阵乘法、梯度下降)和硬件调用(GPU/TPU 资源分配),让开发者无需关注底层细节,只需用简洁的代码就能搭建模型结构、实现训练逻辑。目前主流的框架有 PyTorchTensorFlow,二者各有侧重,覆盖了从科研实验到工业部署的全场景需求。

1.1 PyTorch:灵活易用,科研与快速迭代首选

PyTorch 由 Facebook(现 Meta)开发,以“动态计算图”和“代码简洁性”著称,是目前大模型科研领域(如 GPT、LLaMA 系列模型的初始开发)最常用的框架,也是新手入门的优选。

(1)核心特点:动态计算图,“边写边改”更灵活

计算图是框架描述模型计算流程的方式,PyTorch 的“动态计算图”允许开发者在代码运行过程中调整计算逻辑,就像“边写脚本边调试”,尤其适合大模型的快速迭代:

  • 比如在搭建 Transformer 注意力层时,若想临时增加“ dropout 比例”,只需在代码中修改 torch.nn.Dropout(p=0.1)p=0.2,无需重新定义整个模型结构;
  • 而 TensorFlow 早期的“静态计算图”需要先定义完整计算流程,再运行代码,修改逻辑时需重新编译,灵活性较低(目前 TensorFlow 也支持动态图,但生态仍以静态图为主)。
(2)使用方法:代码简洁,贴近 Python 直觉

PyTorch 的 API 设计完全贴合 Python 语法习惯,开发者无需学习复杂的框架特有规则,上手成本极低。以“搭建一个简单的 Transformer 文本分类模型”为例,核心代码仅需几十行:

import torch
import torch.nn as nn# 1. 定义模型结构
class TransformerClassifier(nn.Module):def __init__(self, vocab_size, embedding_dim, num_classes):super().__init__()self.embedding = nn.Embedding(vocab_size, embedding_dim)  # 词嵌入层self.transformer = nn.TransformerEncoderLayer(  # Transformer 编码器层d_model=embedding_dim, nhead=4, dim_feedforward=128)self.fc = nn.Linear(embedding_dim, num_classes)  # 分类输出层def forward(self, x):# x: [序列长度, 批次大小]embed = self.embedding(x)  # 词嵌入:[序列长度, 批次大小, 嵌入维度]trans_out = self.transformer(embed)  # Transformer 编码:[序列长度, 批次大小, 嵌入维度]avg_out = trans_out.mean(dim=0)  # 平均池化:[批次大小, 嵌入维度]return self.fc(avg_out)  # 分类输出:[批次大小, 类别数]# 2. 初始化模型并测试
model = TransformerClassifier(vocab_size=10000, embedding_dim=64, num_classes=2)
test_input = torch.randint(0, 10000, (10, 32))  # 模拟输入:[序列长度10, 批次大小32]
test_output = model(test_input)
print(test_output.shape)  # 输出:torch.Size([32, 2]),符合预期

从模型定义到输入测试,代码逻辑清晰,开发者能快速理解“数据如何在模型中流动”,便于后续调整结构(如增加注意力头数、修改隐藏层维度)。

(3)核心优势:生态丰富,大模型支持完善

PyTorch 拥有庞大的科研与开源生态,尤其在大模型领域有不可替代的优势:

  • 模型库丰富:Hugging Face Transformers 库的核心实现基于 PyTorch,GPT、BERT、LLaMA 等主流大模型都提供 PyTorch 版本,开发者可直接调用预训练模型,无需从零搭建;
  • 调试友好:支持 Python 原生调试工具(如 pdb),可在训练过程中打断点查看张量维度、梯度值,快速定位“维度不匹配”“梯度消失”等大模型常见问题;
  • 社区活跃:GitHub 上 PyTorch 相关项目超百万,遇到问题时能快速找到解决方案,适合新手学习与科研团队快速验证想法。

1.2 TensorFlow:稳定高效,工业级部署首选

TensorFlow 由 Google 开发,以“静态计算图”“分布式训练支持”和“部署工具链完善”为核心优势,更适合企业级大模型的工业化开发(如大规模预训练、多端部署)。

(1)核心特点:静态计算图,“先规划再执行”更高效

TensorFlow 的静态计算图需要先定义完整的计算流程(如模型结构、损失函数、优化器),再通过 tf.Session()tf.function() 执行。这种“先规划”的模式虽然灵活性低,但能让框架提前优化计算流程(如合并冗余操作、分配硬件资源),在大规模训练和部署时效率更高:

  • 比如训练千亿参数模型时,TensorFlow 可提前规划“不同 GPU 之间的张量拆分策略”,减少数据传输开销;
  • 部署到移动端或边缘设备时,静态图可被编译为更紧凑的二进制文件,降低内存占用。
(2)使用方法:Keras 高阶 API,平衡效率与易用性

为降低上手成本,TensorFlow 集成了 Keras 作为高阶 API,开发者可通过简洁的代码搭建模型,同时保留静态图的优化能力。以“复现上述 Transformer 文本分类模型”为例,Keras 实现代码如下:

import tensorflow as tf
from tensorflow.keras import layers, models# 1. 定义模型结构
def build_transformer_classifier(vocab_size, embedding_dim, num_classes):inputs = layers.Input(shape=(None,))  # 输入:[批次大小, 序列长度](None 表示可变长度)embed = layers.Embedding(vocab_size, embedding_dim)(inputs)  # 词嵌入:[批次大小, 序列长度, 嵌入维度]# Transformer 编码器层transformer = layers.TransformerEncoder(layers.TransformerEncoderLayer(d_model=embedding_dim, nhead=4, dim_feedforward=128),num_layers=1)trans_out = transformer(embed)  # Transformer 编码:[批次大小, 序列长度, 嵌入维度]avg_out = layers.GlobalAveragePooling1D()(trans_out)  # 平均池化:[批次大小, 嵌入维度]outputs = layers.Dense(num_classes, activation='softmax')(avg_out)  # 分类输出:[批次大小, 类别数]return models.Model(inputs=inputs, outputs=outputs)# 2. 初始化模型并测试
model = build_transformer_classifier(vocab_size=10000, embedding_dim=64, num_classes=2)
test_input = tf.random.uniform((32, 10), minval=0, maxval=10000, dtype=tf.int32)  # 模拟输入:[批次大小32, 序列长度10]
test_output = model(test_input)
print(test_output.shape)  # 输出:(32, 2),符合预期

Keras API 与 PyTorch 语法相似,但底层仍基于 TensorFlow 静态图,兼顾了易用性和工业级效率。

(3)核心优势:部署工具链完善,覆盖全场景

TensorFlow 的最大优势在于“从训练到部署的全链路支持”,尤其适合需要多端部署的大模型项目:

  • 部署工具丰富:支持通过 TensorFlow Lite 部署到移动端/边缘设备(如手机、嵌入式芯片),通过 TensorFlow Serving 部署到服务器(支持高并发请求),通过 TensorFlow.js 部署到浏览器(如网页端大模型交互 Demo);
  • 分布式训练成熟:内置 tf.distribute.Strategy API,可轻松实现多 GPU、多 TPU 分布式训练,无需手动编写硬件通信逻辑,适合企业级大规模预训练;
  • 工业界认可高:谷歌、阿里、腾讯等企业的大模型项目(如谷歌 PaLM、阿里通义千问)多基于 TensorFlow 开发,有成熟的工业化实践案例可参考。

2 模型库平台:大模型开发的“工具箱”

如果说深度学习框架是“地基”,那模型库平台就是“预制构件”——它们封装了主流大模型的预训练权重、训练代码和推理工具,让开发者无需“重复造轮子”,只需“拿来即用”,大幅缩短开发周期。目前最核心的模型库平台是 Hugging Face,此外还有国内的 ModelScope(魔搭社区) 等,覆盖多语言、多领域的大模型需求。

2.1 Hugging Face:全球最大的大模型开源社区

Hugging Face 是目前全球最主流的大模型开源平台,被称为“大模型开发者的 GitHub”,提供了模型库(Transformers)、数据集库(Datasets)、训练工具(Trainer API)等全链路工具,支持 PyTorch 和 TensorFlow 双框架,是新手入门和企业级开发的“首选工具箱”。

(1)核心功能:三大核心库,覆盖“数据-模型-训练”全流程

Hugging Face 的核心价值在于“整合开源资源,降低开发门槛”,其三大核心库可无缝配合,快速搭建大模型开发流程:

  • Transformers 库:最核心的模型库,提供 1000+ 预训练模型(包括 GPT、BERT、LLaMA、Stable Diffusion 等),支持文本生成、问答、翻译、图像生成等 10+ 任务。开发者可通过 3 行代码调用预训练模型,无需关注底层结构:

    from transformers import AutoModelForCausalLM, AutoTokenizer# 加载预训练模型(如 LLaMA 3-8B)和对应的分词器
    tokenizer = AutoTokenizer.from_pretrained("meta-llama/Llama-3-8B-hf")
    model = AutoModelForCausalLM.from_pretrained("meta-llama/Llama-3-8B-hf")# 生成文本
    inputs = tokenizer("请介绍大模型开发的核心工具:", return_tensors="pt")
    outputs = model.generate(**inputs, max_new_tokens=100)
    print(tokenizer.decode(outputs[0], skip_special_tokens=True))
    

    代码中 AutoModelForCausalLMAutoTokenizer 会自动识别模型类型,加载对应的结构和权重,支持多框架(将 return_tensors="pt" 改为 "tf" 即可切换到 TensorFlow)。

  • Datasets 库:提供 10000+ 开源数据集(如 GLUE 文本分类数据集、SQuAD 问答数据集、C4 预训练文本数据集),支持一键加载、预处理和格式转换,避免开发者手动处理数据格式:

    from datasets import load_dataset# 加载 SQuAD 问答数据集(用于微调问答模型)
    dataset = load_dataset("squad")
    print(dataset["train"][0])  # 输出单条数据:包含问题、上下文、答案
    # 预处理:将文本转换为模型可接受的输入格式(如 tokenize)
    def preprocess_function(examples):return tokenizer(examples["question"], examples["context"], truncation=True)
    tokenized_dataset = dataset.map(preprocess_function, batched=True)
    

    该库支持自动缓存数据集,避免重复下载,同时提供数据分片、打乱、过滤等工具,适合大规模数据处理。

  • Trainer API:封装了大模型训练的核心逻辑(如训练循环、梯度下降、 checkpoint 保存、评估指标计算),开发者无需手动编写训练代码,只需定义模型、数据集和训练参数,即可启动训练:

    from transformers import Trainer, TrainingArguments# 定义训练参数(如训练轮数、学习率、输出路径)
    training_args = TrainingArguments(output_dir="./llama-3-finetune",  # 模型保存路径per_device_train_batch_size=4,  # 单设备训练批次大小num_train_epochs=3,  # 训练轮数logging_dir="./logs",  # 日志保存路径logging_steps=10,  # 每 10 步打印一次日志
    )# 初始化 Trainer 并启动训练
    trainer = Trainer(model=model,  # 待训练模型args=training_args,  # 训练参数train_dataset=tokenized_dataset["train"],  # 训练数据集eval_dataset=tokenized_dataset["validation"],  # 验证数据集
    )
    trainer.train()  # 启动训练
    

    Trainer API 还支持分布式训练、混合精度训练(FP16/FP8)、模型量化等高级功能,大幅简化大模型调优流程。

(2)核心优势:开源生态+社区支持,降低开发门槛

Hugging Face 的优势不仅在于工具本身,更在于其庞大的开源生态和社区:

  • 模型资源丰富:覆盖文本、图像、音频、视频等多模态模型,支持多语言(中文模型如 bert-base-chineseQwen-7B 均在平台开源),开发者可直接基于预训练模型微调,无需从零训练;
  • 社区互动活跃:每个模型和数据集页面都有“讨论区”,开发者可提问、分享使用经验,甚至贡献代码优化(如修复模型 Bug、补充数据集);
  • 文档完善:提供详细的官方文档(包括快速入门教程、API 手册、实战案例),新手可通过“手把手教程”快速跑通第一个大模型 Demo,降低入门难度。

2.2 ModelScope(魔搭社区):国内大模型开发的“本土化选择”

ModelScope 是阿里巴巴主导的国内开源大模型社区,定位与 Hugging Face 类似,但更侧重“本土化资源”和“中文场景支持”,适合国内开发者(尤其需要中文模型、国内数据集或适配国产硬件的场景)。

(1)核心特点:本土化资源丰富,适配中文与国产硬件

ModelScope 的核心优势在于“贴合国内开发需求”,解决了 Hugging Face 在国内使用的部分痛点:

  • 中文模型齐全:收录了国内主流大模型(如阿里通义千问、百度文心一言开源版、华为盘古大模型),以及大量中文领域模型(如中文文本分类、中文OCR、中文语音识别),无需担心“英文模型对中文支持不足”的问题;
  • 国内数据集支持:提供中文开源数据集(如中文新闻分类数据集、中文医疗问答数据集),且部分数据集符合国内数据合规要求,避免使用海外数据集的“合规风险”;
  • 国产硬件适配:支持适配国产 GPU(如华为昇腾、海光DCU),无需手动修改代码即可在国产硬件上运行模型,适合企业级项目的国产化部署。
(2)使用方法:与 Hugging Face 兼容,降低迁移成本

ModelScope 的 API 设计与 Hugging Face 相似,熟悉 Hugging Face 的开发者可快速上手。以“调用中文预训练模型(如通义千问-7B)生成文本”为例,核心代码如下:

from modelscope.pipelines import pipeline
from modelscope.utils.constant import Tasks# 加载中文文本生成 pipeline(自动下载模型和分词器)
pipe = pipeline(Tasks.text_generation, model="qwen/qwen-7b-chat")# 生成中文文本
result = pipe("请用中文介绍大模型开发工具的核心作用:")
print(result["text"])

代码逻辑与 Hugging Face 类似,但模型和数据集更贴合中文场景,同时支持国内镜像加速下载,避免“海外资源下载慢”的问题。

3 工具与平台选择建议:按需匹配开发需求

不同的开发场景(新手入门、科研实验、工业部署)对工具的需求不同,选择时需结合 “技术目标”“团队能力” 和 “硬件环境” 综合判断:

开发场景推荐工具组合选择理由
新手入门 / 个人实验PyTorch + Hugging FacePyTorch 灵活易用,Hugging Face 提供现成模型和教程,可快速跑通 Demo(如调用 BERT 做文本分类),降低入门难度;且两者社区资源丰富,遇到问题易查找解决方案。
大模型科研(论文复现)PyTorch + Hugging Face + 自定义数据集PyTorch 动态图支持实时调整模型结构(如修改 Transformer 注意力机制),便于快速验证科研假设;Hugging Face 可加载主流预训练模型(如 LLaMA、GPT-2),支持对比实验;自定义数据集库(如自建医学文本数据集)可适配细分研究方向。
企业级工业部署(多端)TensorFlow + Hugging Face/TensorFlow HubTensorFlow 部署工具链完善,支持移动端(TensorFlow Lite)、服务器(TensorFlow Serving)、浏览器(TensorFlow.js)多端部署,满足企业 “一次训练,多端落地” 需求;搭配 Hugging Face 可复用预训练模型,搭配 TensorFlow Hub 可调用谷歌官方优化模型(如 MobileBERT),兼顾性能与部署效率。
国内中文场景开发PyTorch/TensorFlow + ModelScopeModelScope 提供丰富中文模型(如通义千问、文心一言开源版)和合规中文数据集(如中文医疗问答数据集),避免海外平台的语言适配问题;同时支持国产硬件(华为昇腾、海光 DCU),符合国内企业国产化部署要求;且 API 与 Hugging Face 兼容,熟悉海外工具的开发者可快速迁移。
多模态大模型开发(文本 + 图像)PyTorch + Hugging Face Transformers + DiffusersHugging Face Transformers 支持文本模型(如 GPT),Diffusers 库专门提供图像生成模型(如 Stable Diffusion),两者均基于 PyTorch 开发,可无缝融合(如用 GPT 生成图像描述,再用 Stable Diffusion 生成对应图像),满足多模态开发需求。

4 实战案例:工具平台协同开发小场景

通过 “中文新闻文本分类” 的简化案例,展示 PyTorch + Hugging Face 如何协同完成开发,让工具选择与使用更具实操性:

4.1 案例目标

用最小成本搭建一个 “中文新闻分类模型”,实现 “体育 / 财经 / 娱乐” 三类新闻的自动分类,验证工具链的易用性。

4.2 工具组合与核心步骤

(1)工具准备
  • 框架:PyTorch(灵活适配 Hugging Face 模型,便于调试);

  • 模型库:Hugging Face Transformers(加载中文预训练模型 bert-base-chinese);

  • 数据集:Hugging Face Datasets(加载中文新闻分类开源数据集 clue/tnews,筛选三类标签)。

(2)核心代码实现(完整流程)
# 1. 安装依赖(若未安装)# !pip install torch transformers datasets evaluate# 2. 导入工具库import torchfrom transformers import BertTokenizer, BertForSequenceClassification, Trainer, TrainingArgumentsfrom datasets import load_datasetimport evaluateimport numpy as np# 3. 加载并预处理数据集(筛选体育/财经/娱乐三类)def load_and_filter_dataset():# 加载中文新闻数据集dataset = load_dataset("clue", "tnews")# 标签映射:原数据集标签→自定义标签(0=体育,1=财经,2=娱乐)label_map = {"10": 0, "20": 1, "30": 2}# 筛选目标类别样本def filter_function(examples):return examples["label"] in label_map.keys()filtered_dataset = dataset.filter(filter_function)# 转换标签def map_labels(examples):examples["label"] = label_map[examples["label"]]return examplesfiltered_dataset = filtered_dataset.map(map_labels)return filtered_dataset# 4. 文本分词预处理tokenizer = BertTokenizer.from_pretrained("bert-base-chinese")def preprocess_function(examples):return tokenizer(examples["text"], truncation=True, padding="max_length", max_length=128)# 5. 加载评估指标(准确率、F1值)metric = evaluate.load("classification_metrics")def compute_metrics(eval_pred):logits, labels = eval_predpredictions = np.argmax(logits, axis=-1)return metric.compute(predictions=predictions,references=labels,average="weighted",metrics=["accuracy", "f1"])# 6. 初始化模型(3分类任务)model = BertForSequenceClassification.from_pretrained("bert-base-chinese",num_labels=3,ignore_mismatched_sizes=True)# 7. 配置训练参数training_args = TrainingArguments(output_dir="./chinese_news_classifier",  # 模型保存路径per_device_train_batch_size=8,           # 单设备训练批次大小(根据GPU显存调整)per_device_eval_batch_size=8,            # 评估批次大小num_train_epochs=3,                      # 训练轮数logging_dir="./logs",                    # 日志路径logging_steps=100,                       # 每100步打印日志evaluation_strategy="epoch",             # 每轮评估一次save_strategy="epoch",                   # 每轮保存一次模型load_best_model_at_end=True              # 训练结束加载最优模型)# 8. 启动训练if __name__ == "__main__":# 加载并预处理数据dataset = load_and_filter_dataset()tokenized_dataset = dataset.map(preprocess_function, batched=True)# 初始化Trainertrainer = Trainer(model=model,args=training_args,train_dataset=tokenized_dataset["train"],eval_dataset=tokenized_dataset["validation"],compute_metrics=compute_metrics)# 开始训练trainer.train()# 测试模型(用单条新闻验证)test_news = ["国足3-0击败越南队,取得世预赛首胜", "央行下调存款准备金率0.25个百分点", "某电影上映3天票房破5亿"]inputs = tokenizer(test_news, padding=True, truncation=True, return_tensors="pt")with torch.no_grad():outputs = model(**inputs)predictions = torch.argmax(outputs.logits, dim=1)label_names = ["体育", "财经", "娱乐"]for news, pred in zip(test_news, predictions):print(f"新闻:{news} → 分类:{label_names[pred]}")# 输出示例:# 新闻:国足3-0击败越南队,取得世预赛首胜 → 分类:体育# 新闻:央行下调存款准备金率0.25个百分点 → 分类:财经# 新闻:某电影上映3天票房破5亿 → 分类:娱乐
(3)工具协同优势
  • PyTorch:支持模型动态调试(如打印注意力权重),训练过程中可实时查看张量维度,快速定位 “输入输出不匹配” 等问题;

  • Hugging Face Transformers:1 行代码加载中文 BERT 模型和分词器,无需手动搭建 Transformer 结构,节省 90% 以上模型构建时间;

  • Hugging Face Datasets:2 行代码加载并筛选数据集,自动处理数据格式转换(如 JSON→Dataset 格式),避免手动编写数据读取脚本。

5 章节小结:工具是大模型开发的 “效率放大器”

大模型开发工具与平台的核心价值,在于 “降低技术门槛,提升开发效率”—— 从 PyTorch 的灵活调试到 TensorFlow 的部署能力,从 Hugging Face 的开源生态到 ModelScope 的中文适配,每类工具都对应特定场景需求,没有 “绝对最优”,只有 “场景适配”。

新手入门时,优先选择 “PyTorch + Hugging Face” 组合,通过快速跑通 Demo 建立信心;科研开发时,聚焦 “PyTorch + 自定义工具链”,灵活验证创新想法;企业部署时,侧重 “TensorFlow + 多端工具”,满足工业化落地需求;国内中文场景下,“ModelScope” 是本土化开发的重要补充。

后续章节中,我们将基于本章介绍的工具链,展开模型搭建、训练、评估的实战流程 —— 掌握这些工具,就掌握了大模型开发的 “基础装备”,为后续实战打下坚实基础。

http://www.dtcms.com/a/392069.html

相关文章:

  • 线上环境出了个问题:Young GC看起来很正常,但Full GC每天发生20多次,每次都让CPU飙得很高。你会怎么去排查和解决?
  • Linux系统多线程总结
  • 【PyTorch】单对象分割
  • 1.3 状态机
  • 软件测试之自动化测试概念篇(沉淀中)
  • 二分答案:砍树
  • 串口通信简介
  • 模运算(Modular Arithmetic)的性质
  • 破解“双高“电网难题,进入全场景构网新时代
  • 企业实训|AI技术在职能办公领域的应用场景及规划——某央企汽车集团
  • 双向链表与通用型容器
  • NodeRAG检索知识图谱复杂数据的启发
  • 卡尔曼滤波对非线性公式建模的详细步骤
  • Microsoft 365 中的 Entitlement Management(基础版)功能深度解析
  • 本科期间的技术回忆(流水账记录)
  • zotero和小绿鲸联合使用
  • Linux系统之logrotate的基本使用
  • 硬核突破!基于 ComfyUI + pyannote 实现 infiniteTalk 多轮对话数字人:从语音端点检测到上下文感知的闭环
  • 【LeetCode 每日一题】2197. 替换数组中的非互质数
  • 城市水资源与水环境:植被如何重塑地球水循环?
  • TransBench:阿里国际等推出的多语言翻译评测体系
  • Windows启动Minio服务
  • 技术原理与癌症筛查的适配性问题
  • 集合通信算法总结
  • AutoDL四周年 ,学会使用AutoDL
  • nginx如果启动失败怎么办?
  • linux使用gunzip来解压.gz文件
  • 硬件(十五)LCD
  • B3clf: 最新的精准预测药物血脑屏障透过能力的开源app
  • 第八章 惊喜10 分享+