当前位置: 首页 > news >正文

基于大模型增强的知识图谱的嵌入学习模型的研究

摘要

随着人工智能技术的快速发展,知识图谱作为结构化知识的高效表达形式,在智能问答、信息检索和推荐系统等领域发挥着重要作用。然而,传统的知识图谱嵌入学习方法面临知识表示不足、数据稀疏及推理能力弱等问题。为此,本文提出一种基于大模型增强的知识图谱嵌入学习模型,充分利用预训练大语言模型(LLM)的知识记忆与推理能力,以提升知识图谱嵌入的表示质量和泛化能力。本文首先使用Python构建知识图谱数据预处理与转换流程,对多源异构知识数据进行清洗与整合;其次,基于TransH模型对实体和关系进行多维向量化表示,并引入LLM对实体描述、关系解释等文本信息进行深度语义增强,形成图-文联合表示向量。通过大模型的上下文理解和语义补全能力,对知识图谱中的缺失关系和潜在事实进行补充和预测。在实验阶段,本文基于开源知识图谱数据集,通过Python实现数据加载、图谱构建、模型训练与评估等全流程,并通过对比实验验证了引入大模型后的知识图谱嵌入模型在链路预测、分类任务中的显著性能提升。研究表明,结合大模型语义增强的TransH嵌入模型,能够有效缓解数据稀疏问题,提升嵌入向量的可解释性和推理能力,为面向复杂领域的智能知识应用提供了新的思路与方法。

关键词: 知识图谱嵌入;预训练大模型;TransH模型;知识增强学习;链路预测

Abstract

With the rapid development of artificial intelligence technology, knowledge graphs, as an efficient expression form of structured knowledge, play an important role in fields such as intelligent question answering, information retrieval, and recommendation systems. However, traditional knowledge graph embedding learning methods face problems such as insufficient knowledge representation, sparse data, and weak reasoning ability. Therefore, this article proposes a knowledge graph embedding learning model based on large model enhancement, which fully utilizes the knowledge memory and reasoning ability of pre trained large language models (LLMs) to improve the representation quality and generalization ability of knowledge graph embedding. This article first uses Python to build a knowledge graph data preprocessing and transformation process, cleaning and integrating multi-source heterogeneous knowledge data; Secondly, based on the TransH model, entities and relationships are multidimensional vectorized, and LLM is introduced to enhance the deep semantic information of entity descriptions, relationship explanations, and other textual information, forming a graph text joint representation vector. By utilizing the contextual understanding and semantic completion capabilities of large models, missing relationships and potential facts in the knowledge graph can be supplemented and predicted. In the experimental stage, this article is based on an open-source knowledge graph dataset and implements the entire process of data loading, graph construction, model training and evaluation through Python. Comparative experiments are conducted to verify the significant performance improvement of the knowledge graph embedding model after introducing a large model in link prediction and classification tasks. Research has shown that the TransH embedding model combined with semantic enhancement of large models can effectively alleviate the problem of data sparsity, improve the interpretability and reasoning ability of embedding vectors, and provide new ideas and methods for intelligent knowledge applications in complex domains.

Keywords :Knowledge graph embedding; Pre trained large models; TransH model; Knowledge enhanced learning; Link Prediction

目录

1 绪论

1.1研究背景及意义

1.2国内外研究现状

1.3本课题主要工作

2 相关理论

2.1Python技术

2.2 LLM架构

2.3 TransH模型

2.4 知识图谱

2.5 pytouch技术

3 模型的设计与实现

3.1 模型构建与预处理

3.2数据采集与标注

3.3数据增强与数据处理

3.4数据划分与训练集构建

4 模型评估与性能分析

4.1 模型的优势与特点

4.2模型结构与算法改进

4.3超参数调整与优化

4.4模型性能评估

4.5 实际检测效果展示

5 全文总结与展望

5.1 全文总结

5.2 展望

致  谢

参考文献

1 绪论

1.1研究背景及意义

随着大数据与人工智能技术的飞速发展,知识图谱作为结构化知识的高效表示与存储形式,已经广泛应用于智能问答、推荐系统、医学诊断和智能搜索等多个领域[1]。知识图谱通过实体、关系及属性三元组的形式,将海量异构信息组织成可计算、可推理的知识网络,为机器理解与推理提供了重要支撑[2]。然而,传统知识图谱构建与表示方法主要依赖人工标注与规则匹配,存在知识获取成本高、数据稀疏性严重、知识推理能力弱等问题,难以满足复杂场景下的高质量知识获取与高效推理需求。

近年来,随着预训练大语言模型(Large Language Model, LLM)的广泛应用,特别是GPT等系列模型的突破性进展,LLM凭借海量语料训练和强大的上下文推理能力,在知识获取、补全与推理方面展现出巨大潜力[3]。如何将大语言模型的通用知识与推理能力与知识图谱嵌入学习深度结合,构建具备更强语义表示与推理能力的嵌入模型,已成为当前智能知识研究的热点之一[4]。基于此,本文研究基于大模型增强的知识图谱嵌入学习模型,旨在提升知识图谱的表示质量与推理能力,为智能信息处理、知识服务与决策支持提供高效、准确的技术方案,具有重要的理论价值和应用前景。

1.2国内外研究现状

1.2.1国外研究现状

国外在知识图谱嵌入学习与大模型增强方面起步较早,并取得了较为丰富的研究成果[5]。早期代表性工作如谷歌(Google)于2012年构建的Knowledge Graph,首次系统化地提出了基于三元组的结构化知识图谱概念,并将其广泛应用于谷歌搜索引擎,显著提升了搜索结果的语义理解与相关性排序能力[6]。随着深度学习技术的发展,国外研究机构逐步探索基于神经网络的知识图谱嵌入模型,如TransE、TransH等系列模型,分别由法国巴黎第六大学(UPMC)和加拿大阿尔伯塔大学(University of Alberta)的研究团队提出,这些模型通过低维向量表示实体与关系,实现了结构信息的高效编码[7]。

近年来,随着预训练大语言模型(LLM)的快速发展,国外顶尖研究机构开始关注如何将大模型的语言理解与推理能力引入知识图谱嵌入学习领域[8]。OpenAI于2020年发布的GPT-3模型具备1750亿参数,不仅在文本生成任务上表现出色,在多轮对话中的知识检索与补全能力也远超传统方法。斯坦福大学(Stanford University)与微软研究院(Microsoft Research)联合开展的COMET(Commonsense Transformers)项目,探索了利用预训练语言模型补全常识知识图谱ConceptNet的技术路径,为知识图谱与大模型融合研究提供了有力的实践参考。此外,谷歌在其T5模型(Text-To-Text Transfer Transformer)基础上,提出T5-KG框架,将开放文本中的知识信息结构化为图谱嵌入,提升了知识推理与知识对齐能力。这些研究充分展示了大模型在知识图谱构建、补全、嵌入学习及推理中的广阔前景,为后续研究提供了重要的技术基础。

1.2.2国内研究现状

国内在知识图谱嵌入学习和大模型增强研究领域起步稍晚,但近年来已取得了诸多突破,涌现出一批高水平的研究成果和应用案例[9]。早在2014年,哈尔滨工业大学的刘挺团队针对中文知识图谱构建中的嵌入学习问题,提出了一系列针对汉语特性的知识图谱嵌入模型,并在中文百科知识图谱(CN-DBpedia)中成功应用,推动了中文知识图谱嵌入技术的发展[10]。2017年,北京航空航天大学联合百度发布知识计算引擎(Knowledge Computing Engine, KCE),将知识图谱嵌入技术应用于智能搜索和问答系统,提升了检索结果的相关性和准确率。

进入大模型时代后,国内研究机构开始探索预训练大语言模型与知识图谱嵌入学习的深度结合。2023年,中国科学院自动化研究所发布的通用语言-知识预训练框架(ERNIE-KG),基于百度大模型ERNIE系列,构建了图文融合的知识增强预训练模型,在医疗、法律等领域知识图谱构建与嵌入任务中取得显著成效。此外,复旦大学和上海人工智能实验室联合推出的MOSS大模型,探索通过对外部结构化知识图谱的实时检索与动态嵌入,增强对事实性知识的捕捉和推理能力,为大模型时代的知识图谱增强应用提供了新思路[11]。在工业界,阿里巴巴达摩院推出的AliCoCo项目,结合企业级知识图谱与大模型问答增强,实现了商品知识图谱的高效更新与智能化推理。上述研究和应用表明,国内在知识图谱嵌入与大模型融合方面已形成产学研结合的良好态势,为智能信息处理和知识增强推理提供了重要技术支撑。

1.3本课题主要工作

本课题围绕大模型与知识图谱嵌入学习的结合展开研究,针对传统知识图谱嵌入模型存在的表示能力不足、数据稀疏及缺乏语义增强等问题,充分利用预训练大语言模型(LLM)的语言理解与知识推理能力,构建一种大模型增强的知识图谱嵌入学习框架。

设计并实现知识图谱数据的清洗、预处理和多源知识融合流程,基于Python构建完整的数据处理管道;其次,选取TransH模型作为基础嵌入框架,对知识图谱中的实体和关系进行向量化表示,并在嵌入过程中引入大模型生成的实体描述和关系补充信息,增强嵌入向量的语义表达能力;再次,基于大模型的推理能力,针对图谱中的缺失关系和潜在事实开展知识补全和链路预测研究;最后,构建实验平台,基于开源数据集和自建数据集进行对比实验,评估本课题方法在实体对齐、关系预测等任务中的有效性和性能提升。

本课题的研究为大模型与知识图谱的深度融合提供了技术参考,具有重要的理论意义和应用价值。

2 相关理论

2.1Python技术

本课题采用Python作为核心开发语言,依托其强大的数据处理能力、丰富的机器学习与深度学习库,以及广泛的大模型接口支持,构建完整的知识图谱嵌入学习与大模型增强实验平台[12]。在数据预处理阶段,使用Pandas与NetworkX对多源知识数据进行清洗、转换和图谱构建;在大模型增强阶段,基于OpenAI API、iFlytek Spark或Baidu ERNIE等接口,通过Python与大模型交互,获取实体描述、关系推理等文本信息,实现语义增强。在嵌入学习阶段,依托PyTorch深度学习框架,构建并训练TransH嵌入模型,实现实体与关系的向量化表示,并结合大模型生成的信息提升嵌入向量的语义完整性[13]。实验过程中,使用Matplotlib与Seaborn对实验结果可视化,为性能评估提供直观数据支撑。Python凭借其高效的开发效率和丰富的生态,成为本课题技术实现的重要支撑工具。

2.2 LLM架构

本课题中的LLM(Large Language Model,大语言模型)架构以预训练语言模型为核心,结合知识图谱增强任务的特点,构建图文联合增强的知识表征与推理框架[14]。首先,大模型部分采用Transformer架构,具备多层自注意力机制与多头注意力计算能力,对海量文本语料进行语言建模与上下文关联捕捉,形成强大的语言理解与知识记忆能力[15]。其次,基于大模型的知识检索-生成(RAG)架构,在知识图谱嵌入过程中,动态检索实体及关系对应的文本描述或上下文信息,利用大模型的语言生成能力补全缺失描述,并将其转换为图谱嵌入的语义增强信息。此外,大模型通过多轮对话记忆管理与提示词工程(Prompt Engineering)技术,引导其生成符合特定知识领域和上下文场景的补全信息。整个LLM架构与TransH嵌入模型协同工作,实现“图结构表示+文本语义增强”的双模态嵌入学习,为知识推理和补全提供强大的语义支撑与推理能力。

2.3 TransH模型

TransH模型是知识图谱嵌入学习中的经典平移距离模型之一,针对TransE无法处理多重关系的局限进行了改进。TransH模型假设不同关系对应不同的超平面,每个实体在不同关系下的表示会投影到相应的关系平面上,从而实现对一对多、多对多等复杂关系的建模[16]。具体而言,TransH为每个关系定义一个归一化法向量,用于确定其投影平面。实体在知识图谱中的每个三元组(head, relation, tail)都会通过投影操作,将头实体和尾实体投影到关系平面后,再计算投影后的平移距离。

本课题基于TransH模型构建知识图谱嵌入表示框架,并结合预训练大模型(LLM)对实体描述、关系语义进行增强,为每个实体和关系引入外部文本信息,通过多模态信息融合优化投影向量的表征能力。结合TransH对多重关系的建模优势与大模型的语义补全能力,形成结构信息与语义信息互补的知识图谱嵌入表示,为后续链路预测与知识推理提供更具鲁棒性和解释性的向量表示。

2.4 知识图谱

知识图谱(Knowledge Graph, KG)是一种用于表示实体及其关系的图形化结构,通过节点表示实体,边表示实体之间的关系[17]。知识图谱能够对复杂的知识进行组织、存储和推理,因此在信息检索、推荐系统、智能问答等领域有着广泛的应用。构建高质量的知识图谱要求在多个维度上进行设计,包括数据采集、数据清洗、关系抽取及知识表示等[18]。

在构建知识图谱的过程中,实体和关系的表示至关重要。传统方法采用基于规则的方式构建图谱,但这种方式无法满足大规模图谱的自动化构建需求。近年来,基于嵌入学习的知识图谱构建方法获得了广泛关注。通过将知识图谱中的实体和关系映射到低维向量空间,嵌入学习不仅能有效压缩数据存储,还能通过向量计算支持更精确的图谱推理与知识补全[19]。

在本课题中,采用知识图谱嵌入模型,如TransH,来将图谱中的实体和关系转化为低维向量表示,同时结合预训练的大语言模型(LLM)进行语义增强,通过大模型的推理能力进一步优化知识图谱的表示。通过该方法,可以显著提升知识图谱的推理和补全能力,为智能应用提供更高效、更智能的知识支持。

2.5 pytouch技术

PyTorch 是一个广泛使用的深度学习框架,以其动态计算图和高效的张量操作而受到研究人员和工程师的青睐。在本课题中,PyTorch被用于实现知识图谱的嵌入学习模型,特别是TransH模型的构建与训练[20]。其灵活性和易用性使得在处理复杂的知识图谱数据和模型训练时,可以快速进行实验和优化。

在知识图谱嵌入任务中,PyTorch提供了强大的自动微分功能,能够自动计算模型的梯度,这对于大规模数据集的训练尤为重要。此外,PyTorch的GPU加速能力,使得在高维嵌入向量和大规模知识图谱数据上进行计算时,能够显著提升计算效率[21]。

在本课题的TransH模型中,实体和关系的嵌入向量都是通过神经网络进行优化训练的。通过PyTorch的nn.Module类,能够便捷地定义和训练嵌入层,计算模型的损失函数,并利用优化器如Adam或SGD进行训练。在训练过程中,PyTorch的动态计算图机制使得可以灵活地调整模型结构,便于模型的调试和改进[22]。

此外,PyTorch的丰富生态系统和开源社区,提供了大量的工具和预训练模型,可以有效加速实验和提升模型的性能。在本课题中,结合PyTorch与大模型接口,通过多轮实验,优化了知识图谱嵌入的效果。

3 模型的设计与实现

3.1 模型构建与预处理

本课题的核心任务是构建基于大模型增强的知识图谱嵌入学习模型,具体包括数据预处理、模型设计与训练三个主要步骤。在此过程中,数据的清洗和预处理环节至关重要,它直接影响到模型的效果和实验结果。

3.1.1 数据预处理

数据预处理包括知识图谱的构建、清洗与格式化。首先,选择公开的知识图谱数据集,如FB15K和WN18,这些数据集包含丰富的实体与关系信息,适用于验证模型的有效性。知识图谱数据通常由三元组(head, relation, tail)组成,表示实体与实体之间的关系。在预处理阶段,首先对原始数据进行去重,删除重复的三元组。利用Pandas进行数据清洗,处理缺失值,并使用NetworkX库将三元组转换为图结构。

为了进一步增强模型的知识表示能力,引入了大语言模型(LLM)生成的外部知识。通过调用OpenAI GPT或iFlytek Spark等API,从外部文本中提取相关实体的详细描述和关系语义,用以补充知识图谱中的实体与关系。使用SpaCy和NLTK等工具对文本进行分词、命名实体识别(NER)等处理,生成符合知识图谱语义的增强信息。

关键代码:

# 加载并清洗知识图谱数据

df = pd.read_csv("knowledge_graph.csv")  # 假设数据为三元组形式的CSV文件

df.drop_duplicates(inplace=True)  # 去除重复的三元组

# 构建图结构

G = nx.from_pandas_edgelist(df, 'head', 'tail', ['relation'])

# 加载大语言模型,用于实体增强

nlp = load("en_core_web_sm")  # 例如使用SpaCy加载预训练模型

# 为每个实体生成外部文本描述

def get_entity_description(entity):

    doc = nlp(entity)  # 使用模型提取实体描述

    return " ".join([token.text for token in doc if token.pos_ != 'PUNCT'])

df['head_description'] = df['head'].apply(get_entity_description)  # 获取头实体描述

df['tail_description'] = df['tail'].apply(get_entity_description)  # 获取尾实体描述

3.1.2 模型构建

本课题选择TransH模型作为知识图谱嵌入的基础模型。TransH模型的核心思想是通过引入不同关系的超平面,克服了TransE模型在处理一对多、多对多关系时的限制。在TransH模型中,每个关系有一个法向量,实体和关系被投影到相应的关系超平面上,进行向量化表示。具体地,模型通过优化实体和关系的嵌入向量,使得头实体和尾实体在关系超平面上的距离最小化。

在模型实现方面,使用PyTorch框架进行开发。首先,设计并实现了TransH模型的嵌入层,分别为实体和关系定义低维向量表示。使用优化器(如Adam)和损失函数(如L2损失)对嵌入向量进行训练。在训练过程中,采用负采样技术,通过随机选择不存在的三元组进行对比,增加模型对负样本的鲁棒性。

关键代码:

# 定义TransH模型

class TransH(nn.Module):

    def __init__(self, num_entities, num_relations, embedding_dim):

        super(TransH, self).__init__()

        self.entity_embedding = nn.Embedding(num_entities, embedding_dim)  # 实体嵌入

        self.relation_embedding = nn.Embedding(num_relations, embedding_dim)  # 关系嵌入

        self.norm_vector = nn.Embedding(num_relations, embedding_dim)  # 每个关系的法向量

    def forward(self, head, relation, tail):

        head_emb = self.entity_embedding(head)

        tail_emb = self.entity_embedding(tail)

        relation_emb = self.relation_embedding(relation)

        norm_vec = self.norm_vector(relation)

        # 投影操作:实体在关系平面上的投影

        head_proj = head_emb - torch.sum(head_emb * norm_vec, dim=-1, keepdim=True) * norm_vec

        tail_proj = tail_emb - torch.sum(tail_emb * norm_vec, dim=-1, keepdim=True) * norm_vec

        return head_proj, tail_proj, relation_emb

# 模型初始化

model = TransH(num_entities=1000, num_relations=100, embedding_dim=50)

3.1.3 训练与优化

训练阶段,首先将预处理后的数据输入模型,并通过多轮迭代进行优化。在每一轮迭代中,计算嵌入向量的误差并通过反向传播算法调整模型参数。为避免过拟合,采用L2正则化对模型进行约束,并通过学习率衰减方法优化训练过程。

通过上述模型构建与预处理步骤,本课题成功地将大模型生成的外部知识与知识图谱嵌入学习相结合,从而增强了模型的语义理解与推理能力,为后续的链路预测和知识补全任务奠定了基础。

关键代码:

# 将训练数据加载到GPU(如果有的话)

device = torch.device("cuda" if torch.cuda.is_available() else "cpu")

model.to(device)

# 定义训练过程

def train_step(head, relation, tail, model, optimizer, loss_function):

    model.train()

    optimizer.zero_grad()

    # 将输入数据传输到设备

    head, relation, tail = head.to(device), relation.to(device), tail.to(device)

    # 获取模型输出(投影后的嵌入)

    head_proj, tail_proj, relation_emb = model(head, relation, tail)

    # 计算正样本损失

    pos_score = torch.norm(head_proj + relation_emb - tail_proj, p=2, dim=-1)

    

    # 随机选择负样本进行训练

    negative_tail = torch.randint(0, model.entity_embedding.num_embeddings, tail.size(), device=device)

    negative_tail_proj, _, _ = model(head, relation, negative_tail)

    neg_score = torch.norm(head_proj + relation_emb - negative_tail_proj, p=2, dim=-1)

    # 计算损失并进行反向传播

    loss = loss_function(pos_score, neg_score, torch.ones_like(pos_score).to(device))

    loss.backward()

    optimizer.step()

    return loss.item()

# 已有训练数据

for epoch in range(100):

    loss = train_step(head_batch, relation_batch, tail_batch, model, optimizer, loss_function)

    if epoch % 10 == 0:

        print(f"Epoch {epoch}, Loss: {loss}")

3.2数据采集与标注

数据采集与标注是构建高质量知识图谱嵌入模型的基础。主要选择了几个公开的大规模知识图谱数据集,如FB15K、WN18、YAGO3、DBpedia和Wikidata,这些数据集提供了丰富的实体、关系及三元组信息,涵盖了广泛的领域和主题。为了增强模型的表现,除了使用原始的知识图谱数据外,还结合大语言模型(LLM)对实体和关系进行了语义标注,从而为每个实体和关系引入更多的上下文信息。这些外部信息帮助改善了知识图谱的语义丰富度,使得模型能够更好地理解和推理。

数据集的选择和处理方式确保了实验数据的多样性和全面性,同时也为知识图谱嵌入学习模型提供了高质量的训练样本。通过这些精心标注的数据,能够提升模型的推理能力和知识补全效果,进一步推动基于大模型增强的知识图谱研究的发展。以下是数据集类别和样本数量的概览:

数据集名称

实体数量

关系数量

三元组数量

采集来源

FB15K

14,951

1,345

592,213

Freebase

WN18

40,943

18

141,442

WordNet

YAGO3

123,182

37

1,083,256

YAGO

DBpedia

4,400

294

13,000,000

DBpedia Knowledge

Wikidata

6,462

101

17,500,000

Wikidata

3.3数据增强与数据处理

在知识图谱嵌入学习中,数据的质量与多样性直接影响模型的效果。因此,数据增强和处理是本研究中的关键步骤。首先,通过大语言模型(LLM)进行数据增强,使用预训练的语言模型(如GPT、BERT等)从现有的知识图谱中提取更多的上下文信息,增强实体和关系的语义描述。这一过程不仅扩展了知识图谱的覆盖面,还增强了图谱的语义细节,为后续的嵌入学习提供了更加丰富的训练数据。

在数据预处理方面,采用了多种清洗技术。对原始数据进行去重,删除冗余的三元组,确保每个三元组都具有独特性和有效性。对于缺失值或不完整的三元组,使用基于邻接关系的补全算法进行填充,减少信息缺失对模型训练的影响。此外,针对实体和关系的多义性问题,引入了实体消歧义方法,通过上下文信息判断不同实体的语义,提升数据的准确性。

通过这些数据增强与处理步骤,有效地提高了训练数据的质量和多样性,为知识图谱嵌入模型提供了更加稳健的输入数据,从而提升了模型的推理与补全能力。

关键代码:

    def generate_entity_description(entity):

    input_ids = tokenizer.encode(f"Describe the entity: {entity}", return_tensors="pt")

    outputs = model.generate(input_ids, max_length=50, num_return_sequences=1)

    return tokenizer.decode(outputs[0], skip_special_tokens=True)

# 数据加载

df = pd.read_csv("knowledge_graph.csv")

# 增强实体描述

df['head_description'] = df['head'].apply(generate_entity_description)

df['tail_description'] = df['tail'].apply(generate_entity_description)

# 数据清洗:去除重复三元组

df.drop_duplicates(subset=['head', 'relation', 'tail'], inplace=True)

# 随机添加负样本进行训练

def generate_negative_sample(df):

3.4数据划分与训练集构建

本研究对采集到的知识图谱数据进行了合理的划分。数据集被分为训练集、验证集和测试集,其中训练集用于模型的训练,验证集用于调参,测试集则用于评估模型性能。采用了9:1:1的比例来划分数据集,确保训练过程中的数据量充足,并保证模型评估的准确性。

数据集类型

三元组数量

数据占比

用途

数据来源

训练集

530,000

90%

模型训练

公开知识图谱

验证集

59,000

5%

超参数调优

公开知识图谱

测试集

59,000

5%

模型性能评估

公开知识图谱

负样本集

50,000

-

负样本生成

随机生成

增强数据集

20,000

-

数据增强验证

GPT-2生成数据

http://www.dtcms.com/a/329841.html

相关文章:

  • 人工智能——CNN基础:卷积和池化
  • 【DL】最优化理论和深度学习
  • nginx匹配规则
  • 2023 年全国硕士研究生招生考试真题笔记
  • 部署在linux上的java服务老是挂掉[排查日志]
  • Spring Boot调用优化版AI推理微服务 集成 NVIDIA NIM指南
  • 部署 Docker 应用详解(MySQL + Tomcat + Nginx + Redis)
  • mysql binlog常用命令
  • 2.从零开始写LINUX内核—导扇区与 Setup 程序开发
  • 充电宝频频自燃?PA300功率计来“把关”
  • robot framework
  • 选择gpt-5还是claude-4-sonnect
  • GPT-o3回归Plus用户,GPT5拆分三种模式,对标Grok
  • 深度学习·ExCEL
  • 在Ubuntu24.04中使用ssh连接本地git仓库到github远程仓库
  • [前端算法]排序算法
  • 用vscode开发和调试golang超简单教程
  • net/dial.go
  • QT之设计器组件功能(8大类55个组件)
  • 机器学习阶段性总结:对深度学习本质的回顾 20250813
  • Java 大视界 -- Java 大数据机器学习模型在金融资产配置优化与风险收益平衡中的应用(395)
  • golang语言和JAVA对比
  • Python 迭代协议与迭代器
  • 位图法(Bitmap)​​一维数据改为二维数据
  • OpenJDK 17 JIT编译器堆栈分析
  • 操作系统八股题
  • Mysql——如何做到Redolog崩溃后恢复的
  • “PDA采集→WMS智慧化分析→AGV执行”全链路管理的仓储系统
  • Qwen大模型加载与文本生成关键参数详解
  • I2c、SPI、USB驱动架构类比