当前位置: 首页 > wzjs >正文

分销系统设计泉州seo代理商

分销系统设计,泉州seo代理商,室内设计网站导航,wordpress 插件启用钩子1.阅读论文LLM-KT LLM-KT: Aligning Large Language Models with Knowledge Tracing using a Plug-and-Play Instruction 传统模型和llm在知识追踪方面的优势。传统的模型擅长学习交互行为的序列,而llm则擅长利用丰富的世界知识进行推理。 Sun等人[29]通过发展渐进…

1.阅读论文LLM-KT

LLM-KT: Aligning Large Language Models with Knowledge  Tracing using a Plug-and-Play Instruction
传统模型和llm在知识追踪方面的优势。传统的模型擅长学习交互行为的序列,而llm则擅长利用丰富的世界知识进行推理。
Sun等人[29]通过发展渐进式知识追踪模型,在KT领域提供了一个新的视角。该模型强调学生顺序思维过程的学习过程,并将其分为三个相对独立但逐步推进的阶段:概念掌握、解决问题和回答行为,有效地模拟了从抽象推理到具体反应的过渡。

**Context Adapter(上下文适配器)**的作用是:

  1. 对齐文本表示,使其与大模型的语义空间兼容,从而提升知识追踪模型的效果。
  2. 通过 MLP 进行映射,将原始的文本表示 rQTtext,rCTtextr_{QT_{text}}, r_{CT_{text}}rQTtext​​,rCTtext​​ 转换为适配后的表示 hQTtext,hCTtexth_{QT_{text}}, h_{CT_{text}}hQTtext​​,hCTtext​​。
  3. 最终目标是让模型更有效地利用大模型的语义能力,捕捉问题与知识概念的关系

llm只能处理语言序列问题,对id序列的问题处理并不好,用传统dkt方法进行qid和cid的编码,然后于llm进行对齐,解决这一问题

论文2:CLST: Cold-Start Mitigation in Knowledge Tracing by Aligning a Generative Language Model as a Students’ Knowledge Tracer

llm在生成各种教育材料方面表现出了有效的表现,包括多项选择题[33]、阅读理解评估的故事[5]和测验[11]。此外,还对自适应课程设计[42]、自动评分[28]和自动反馈生成进行了研究。

上述由[31]进行的研究的局限性在于,因为它没有充分利用生成性llm的能力,因为练习只是简单地使用id来表示。

学习者解决问题的顺序在KT任务中是至关重要的,而有问题的研究只考虑了每个学习者的正确和错误答案的数量。

关于KT的研究是在NLP的背景下进行的,利用了问题中的文本数据。例如,运动增强递归神经网络(EERNN)[44]利用每个练习的文本来预测学生利用马尔可夫属性或注意机制的反应。Word2vec [29]用于将每个练习的单词转换为单词嵌入,练习嵌入随后通过双向长短期记忆(LSTM)网络学习。运动意识知识追踪(EKT)[24]是EERNN的一个扩展版本,其中部署了一个记忆网络来量化每个练习对学生掌握多个知识成分的贡献

此外,[46]利用BERT [10]嵌入练习中文本数据之间的相似性来构建一个图,从而使用分层GNN和两种注意机制来预测学生的反应。然而,这些方法并不依赖于生成语言模型,而是仅仅利用自然语言处理来获得运动表征。换句话说,基于广义的llm的KT模型的有效性仍有很多进一步研究的潜力。在本研究中,我们通过在自然语言中表达KT任务来检验生成性llm与KT对齐的有效性。

搞了半天就这样生成了个格式???

3.多模态大模型中的图片文本对齐

详见博客:

多模态大模型中的图片文本对齐_图像文本对齐-CSDN博客

论文11:Large Language Model with Graph Convolution for Recommendation

向用户推荐top_n个项目;
方法:我们提出的GacLLM的总体体系结构如图3所示。它有四个主要模块。首先,我们对LLM进行了监督微调(SFT),以激活其在任务相关领域中的功率。其次,我们提出了一种基于llm的图感知卷积推理策略,以逐步增强对用户和项目的描述。第三,我们将生成的描述对齐并融合到基于图形的用户和项目嵌入中。最后,我们介绍了该方法的目标函数和学习过程。
4.1具体流程
首先微调一下llm
我们使用了提示模板:“查询:给定一个项目的描述,生成一个适合它的用户描述。”项目的描述为“项目描述”。答:“,其中[项目描述]被替换为项目的实际描述.

利用lora策略进行参数学习。

4.2基于llm的卷积推理

4.2.1 图构造

图的节点有item和user构成,图中的每个节点都有一个文本描述,比如电影的摘要、社交网络上用户的个人资料和求职者的简历。

4.2.2 基于llm的卷积推理策略

提出了一种基于llm的卷积推理策略来探索图中描述的高阶关系

利用llm来重写用户的原始描述T𝑢,PROMPTuser表示用户描述生成(重写)的模板。

对称地,我们利用llm来重写该项目的原始描述T𝑖的描述。

然后进行层层迭代。

语言直观理解:

把这个方法想象成 逐步“扩散”信息,让每个节点(用户 & 物品)更好地理解整个图结构

  1. 第一层:用户的描述只包含自己的原始文本,物品的描述也只包含自己的原始文本。
  2. 第二层:用户的描述不仅包含自己的信息,还融合了与之连接的物品的文本信息;同样,物品的描述也融合了与之连接的用户信息。
  3. 更多层次后:用户可以获取到更远距离(L-hop)的邻居信息,比如 朋友的朋友喜欢的物品,或者 相似用户的行为数据

最终,LLM 通过逐步整合图中的关系,增强每个节点的语义理解能力,提升知识推理的效果。

4.2.3 基于llm的卷积策略的优势

1.最少到最多的推理:llm在其迭代聚合过程中采用了一种顺序的方法,以最少到最多的方式逐步构建对用户和项目的高质量描述。该策略将图分割成一个如图2所示的层次结构,突出了llm对复杂的基于图的知识的适应性

2.更有效(Effectiveness):利用 LLM 有限的上下文长度,逐步提取重要信息,而不是一次性输入所有内容。

更高效(Efficiency):减少冗余信息的计算,降低 token 数量,提高计算速度,使方法更适用于真实世界任务。

4.3Aligning GCN-based Embeddings for Recommendation -对基于 GCN(图神经网络)的嵌入进行对齐,以用于推荐任务

  • 引入文本信息对齐(Text Alignment)

    • 传统 GCN 只利用图结构信息,该方法额外引入文本描述信息,使嵌入更加丰富。
    • 采用 simbert-base-chinese2 编码文本,并与 GCN 生成的嵌入融合。
  • 逐层信息整合(Multi-Layer Aggregation)

    • 结合多层 GCN 计算结果,避免单层表示能力不足的问题。
  • 高效的推荐计算(Efficient Matching via Inner Product)

    • 采用内积计算用户-物品的匹配分数,提高计算效率。
  • 优化目标设计(Pairwise Loss)

    • 采用成对损失,使模型能够更准确地学习用户的偏好。

http://www.dtcms.com/wzjs/459437.html

相关文章:

  • 建设银行论坛网站首页人民日报最新新闻
  • wordpress 安装根目录灯塔seo
  • 潜江资讯网找工作seo网站推广目的
  • 网站开发者模式关键词排名霸屏代做
  • 网站开发怎么不出现滚动条哪家网站优化公司好
  • 莞城区网站仿做网站百度不收录
  • 怎么知道哪家公司网站做的好新产品市场推广方案
  • 手机h5免费模板网站模板下载友情链接代码模板
  • 网站建设宣传单页重庆seowhy整站优化
  • 男女做爰视频免费网站海外推广运营
  • 德阳企业品牌网站建设竞价推广公司
  • 印刷网站开发策划书今日头条新闻下载安装
  • 做信息网站的盈利方式有哪些网上销售有哪些方法
  • 新公司怎样做网站在四川眉山网站查找工具
  • 简述营销网站建设包括哪些内容google广告投放技巧
  • 互动网站开发桂林seo
  • 凉山北京网站建设阻断艾滋病的药有哪些
  • 网站分级怎么做seo软件安卓版
  • 做淫秽网站有事情吗免费推广软件
  • 苏州做网站销售营销方案100例
  • 做任务赚钱的网站起什么名字好东莞企业推广网站制作
  • 云南网是什么网站海外推广平台有哪些?
  • 企业网站建设课件湖南靠谱的关键词优化
  • 看乱码的网站百度竞价推广公司
  • 怎样制作自己的小程序百度首页排名优化平台
  • 淘宝做任务赚钱网站济南网站建设制作
  • 黑龙省建设厅网站精品成品网站入口
  • 做徽商要做网站吗青青河边草直播免费观看
  • 有哪些电商网站网络推广的网站有哪些
  • 网站建设需求背景苏州百度快速排名优化