生成式人工智能展望报告-欧盟-02-技术方面
原文地址
摘要
本章的重点是GenAI的技术层面,首先是对其能力和局限性的评估。它强调了部署GenAI系统所带来的网络安全挑战。会议讨论了新出现的技术趋势,为决策者和利益攸关方提供了前瞻性的视角。关键问题包括确保GenAI应用程序的安全性和可靠性所需的评估范式,特别是在安全关键领域。
文章目录
- 摘要
- 2.1 Generative AI Evaluation
- 当前的评估范式和方法
- 对评价科学的需要
- 未来前景
- 2.2 Generative AI的网络安全挑战
- 锚链定位
- 直接快速注射
- 信息提取
- 间接快速注射
- 2.3新兴技术趋势:决策者展望未来的视角
- AGENTIC AI
- 多模态GENAI
- REASONING
- EXPLICABILITY
- 从发动机到发电机
2.1 Generative AI Evaluation
关键信息
- 开发标准化的评估方法和基准对于了解GenAI模型和系统的潜在风险和局限性至关重要。
- 人类在GenAI评估中发挥着至关重要的作用,他们的参与对于开发值得信赖的基准,提高可解释性和可预测性以及确保GenAI模型和系统的安全性是必要的。
GenAI模型和系统的快速开发和部署引发了人们对其潜在风险和局限性的严重担忧。尽管人工智能评估界做出了努力,但GenAI在现实世界中的能力和安全性尚未得到充分理解,风险也没有得到充分识别和缓解。25这种情况在航空、汽车和制药等安全关键领域是不可接受的,在这些领域,严格的评估和测试是市场发布和普遍采用的必要先决条件。
当前的评估范式和方法
在不同的人工智能评估范式和方法中,26个基准测试是目前使用和采用最广泛的。标杆管理可以实现标准化比较,减少评估结果的模糊性,提高透明度,并促进长期绩效跟踪。然而,基准有几个局限性,包括有关数据收集,注释和文件的问题,对结构有效性的关注,社会文化和社会技术差距,有限的多样性和范围,以及与竞争和商业影响相关的风险。此外,基准测试很容易受到操纵和游戏、可疑的社区审查、饱和、复杂性和未知等问题的影响。27这种情况需要新的方式来表明哪些基准值得信任,特别是如果这些基准测试在监管应用环境中发挥重要作用。
另一种重要的评估方法是通过红队进行对抗性测试,其中人类或自动化代理交互式地尝试操纵GenAI模型或系统,引发不良反应。28人类评价,如“人类提升”研究,涉及在两种情况下对人类进行评估:一种是使用传统工具,另一种是使用GenAI模型。人类提升研究的目标是确定GenAI模型是否显著增强人类产生潜在危害的能力。29虽然红色团队或人类提升研究提供了一种系统的方法来识别GenAI模型和系统的缺陷,但一个主要的局限性是,所获得的结果永远不能被视为绝对的安全保证30(缺乏证据并不是缺乏证据)。所有涉及人类评价的方法,包括基准,实施成本都要高得多,而且规模较小。然而,人类在GenAI评估中的作用至关重要,包括需要人类水平的表现来提高基准的可解释性和可预测性。
值得信赖的基准预期将提供人的规范、能力概况和难度水平,以提高其解释力和可预测性。对于一个特定的任务,根据难度水平,目标表现应该是普通人类个体的表现,普通人类专家的表现,任何随机人类的表现,还是整个人类的集体能力?这是单独评估还是分组评估,有没有辅助工具的帮助?一项具体的任务应该分配多少时间?这些只是创建坚实的人类规范基线必须解决的一些问题。然而,当GenAI的能力大大超过人类时,人类参考可能会变得不足。
目前出现的GenAI智能体使自主系统能够在与动态环境交互的同时进行规划、推理、使用工具和维护内存,这需要新的基准和评估方法。已经提出了多个代理评估方法,包括最终响应,逐步的,基于概率的,A/B比较,或体操样的方法。尽管如此,仍然存在一些重要的挑战,特别是在成本效益、细粒度评估以及对安全性的关注有限方面。
对评价科学的需要
近年来,有人多次呼吁建立“评估科学“,一个新的“模型计量学”学科,或“GenAI评估科学”。这些倡议倡导需要对GenAI模型和系统的能力和安全性进行标准化评估,并创建一个专业社区,体现包括学术界,工业界,用户和政策制定者在内的多个利益相关者的努力和合作。
未来前景
总之,我们可以确定以下趋势,这些趋势将构成GenAI评价领域必要的正在进行和未来工作的一部分:
- 新的GenAI评估基准方法,包括透明度和对他们真正衡量的内容的明确评估,将在未来几年蓬勃发展。
- 将加强对GenAI系统安全性评价的关注。
- 人类将继续在GenAI评估中发挥关键作用,包括红色团队、结构化方法、以人为本的研究、A/B测试和开发人类水平的性能参考。
- “超人类评估”,即评估超出人类能力的能力和人类不可知或察觉不到的安全问题的需求将变得越来越重要。
- 我们预计GenAI在评估科学方面会有更多的呼吁和合作计划,这是一项涉及多个利益相关者和多个学科的合作努力。
2.2 Generative AI的网络安全挑战
关键信息
- GenAI系统的网络安全和安全性是关键问题,需要采取多方面的方法,将传统的软件风险管理与AI特定的策略相结合,并考虑完整的攻击面和AI人工制品,包括数据和模型。
- GenAI系统容易受到传统网络安全威胁和AI特有的漏洞的影响,例如数据和模型中毒、对抗性攻击以及出于恶意目的滥用生成的内容。这些挑战的重要性因依赖第三方数据和模型而增加。
与在类似环境中运行的传统数字系统相关的相同网络安全风险,以及GenAI组件和资产引入的AI特定漏洞,例如数据和模型中毒,对抗性攻击以及出于恶意目的滥用生成的内容。
在讨论人工智能的网络安全时,必须认识到两个关键方面。首先,传统的网络安全实践和程序在保护传统软件系统方面是行之有效的,但在解决影响GenAI系统的更广泛漏洞方面的能力有限。其次,人工智能网络安全包括人工智能系统的安全性,而不是单个人工智能组件(如人工智能模型)的安全性。人工智能系统可以构建在多个人工智能组件和工具之上,其安全性包括其相关资产,例如其训练数据。
锚链定位
人工智能系统继承了传统软件供应链的许多漏洞,例如对第三方依赖的依赖,但由于对数据和第三方人工智能模型的特定依赖,它们也带来了独特的挑战。这些漏洞可能会损害训练数据、模型和部署平台的完整性,导致有偏见的输出或安全漏洞。解决这些风险需要一种多方面的方法,将传统的软件风险管理与人工智能特定的策略相结合,例如使用来源信息来跟踪人工智能组件,并考虑完整的攻击面和人工智能伪影,包括数据和模型。
开放权重模型和新的微调方法(如LoRA 35和其他PEFT 36方法)的兴起,沿着设备上模型的出现,使AI供应链进一步复杂化,需要专门的安全措施来减轻潜在的中毒攻击。
- 数据中毒:GenAI基础模型的成功训练在很大程度上依赖于训练数据的规模和多样性。用于预训练GenAI模型的大规模数据集的主要来源是互联网,其内容通常未经验证,有时可能有害。缺乏对训练数据的细粒度控制使得这些数据集成为一个巨大的潜在攻击面,攻击者可以通过插入对抗性样本来利用这些数据集。攻击者可以利用这个机会引入漏洞、后门或偏差,这可能会损害模型的性能,从而降低其功能,导致有害的输出,例如传播错误信息或通过建议不安全的代码引入安全风险
- 模型中毒:GenAI系统容易受到各种模型中毒攻击,特别是当开发人员依赖开放权重模型时。通过开源平台分发的模型可能会携带隐藏的威胁,42例如嵌入模型源代码和后门中的恶意软件。43这些威胁可能保持不活动状态,仅在特定条件下触发,例如当模型加载或输入包含特定单词或短语时,使其难以检测并允许模型成为潜伏代理。44最近,研究人员已经证明,攻击者可以将后门插入到预先训练的模型中,即使经过微调45或额外的安全培训46,也可能持续存在,这引起了严重的担忧。
直接快速注射
当用户提示以非预期的方式改变生成模型的行为或输出时,会发生直接提示注入,可能导致其违反准则,生成有害内容,启用未经授权的访问或影响关键决策。在执行直接提示注入时,恶意用户可能会追求各种目标,例如启用滥用、侵犯隐私或破坏完整性。47直接提示注入攻击可大致分为基于优化的攻击、手动方法和模型辅助攻击:
- 基于优化的攻击通过算法优化方法系统地改进对抗性提示,旨在最大限度地提高生成恶意或有害响应的可能性。这可以通过优化对抗性后缀来实现,例如,允许规避GenAI模型的安全对齐。这些后缀通常可以在模型之间转移,使开放权重模型(允许恶意用户进行白盒访问)成为针对仅提供API访问的封闭系统的可转移性攻击的可行攻击向量。
- 手动方法试图触发GenAI模型的两种主要故障模式:竞争目标和不匹配的概括。52当模型的能力和安全目标发生冲突时,就会出现竞争目标,例如利用模型遵循用户提供的指令的意愿。一个突出的例子是使用角色扮演策略将模型推入与其原始意图冲突的状态,从而损害其安全协议。
- 模型辅助攻击使用辅助语言模型来自动生成和优化越狱提示。例如,可以采用攻击者模型、目标模型和判断模型来训练生成模型(攻击者),以依赖于从评估目标模型的输出是否有害的判断模型导出的奖励函数来为另一生成模型(目标)生成越狱。
信息提取
在其生命周期中,GenAI模型暴露于攻击者可能感兴趣的各种信息。例如,他们的训练数据可能包含尚未被适当匿名化的个人识别信息,或者当系统采用检索增强生成流水线时,敏感信息可能成为他们输入的一部分。此外,系统本身的资产,如模型权重或架构和系统提示,可能是有价值的目标。
- 数据泄漏和成员推断:当敏感或机密信息无意中暴露给未经授权的各方时,就会发生数据泄漏。在GenAI的背景下,这些信息包括各种类型的数据,例如机密培训数据,个人身份信息和受版权保护的材料。泄露敏感数据可能导致对GenAI系统提供商采取法律的行动和罚款,并损害其声誉,导致失去竞争优势。为了造成数据泄露,攻击者通常依赖于成员推理攻击,这些攻击试图揭示输入样本是否是GenAI模型训练数据的一部分,这可能会暴露模型在训练期间记忆的机密或敏感数据,例如受版权保护的材料或信用卡号码。
- 当攻击者试图重建训练数据或从模型的输出中推断敏感信息时,就会发生模型反转。在这种类型的攻击中,攻击者通常可以访问模型。通过分析模型的输出,攻击者试图对模型进行逆向工程,以提取有关原始训练数据的信息。如果模型是在敏感数据(如医疗记录或个人信息)上训练的,模型反演可能会导致隐私泄露。
- 当攻击者试图从远程模型中提取参数时,会发生模型提取,以便他们可以拥有自己的副本。此外,模型提取与训练数据提取有关。虽然这两种攻击有一些相似之处,但它们有不同的目标:模型提取旨在窃取远程模型的参数,而训练数据提取旨在提取用于生成这些参数的训练数据。研究人员最近表明,模型窃取攻击可以从生产系统中的黑盒AI模型中提取精确的、重要的信息。
间接快速注射
间接提示注入发生在GenAI模型接受来自外部来源(如网站或文件)的输入时,这可能会以意想不到的方式改变其行为或输出。这种类型的攻击是由恶意第三方执行的,与底层模型没有直接交互,并且可以影响系统操作。模型的主要用户经常遭受间接提示注入攻击的后果,这可能会损害GenAI系统的完整性,可用性或隐私。间接即时注射可能会导致几个问题,包括:
- 通过使模型执行耗时的操作,指示它不要使用某些API或工具,或破坏其输出来破坏可用性。
- 通过指示模型使用攻击者指定的信息进行响应来损害完整性,例如传播误导性信息,推荐欺诈性产品或服务,抑制或隐藏某些信息,或将用户重定向到恶意网站或内容。
- 侵犯隐私:通过导致敏感信息的泄漏,例如,通过说服主要用户提供然后被泄漏给攻击者的信息。
2.3新兴技术趋势:决策者展望未来的视角
关键信息:
- 技术发展的新趋势包括人工智能,它涉及自主系统做出独立决策并从结果中学习;多模式人工智能,它集成了多种数据格式,增强了多功能性,但带来了偏见挑战;高级人工智能推理,它通过分析复杂信息并得出逻辑结论来增强决策;人工智能的可解释性,这突出了人工智能系统越来越需要提供可理解的理由。
- 尽管这些发展在技术上具有革命性,但仍要求政策制定者反思在版权方面可能需要审查政策举措,并在优先考虑人工智能素养的同时继续实施道德监督,以及在人工智能系统中执行透明度和可解释性标准,并考虑资源的可持续利用。
一开始,LLM能够生成流畅和上下文适当的语言,但没有真正的理解或逻辑思考;绰号“随机鹦鹉”,他们重复最可能的答案而不理解。GenAI的核心技术没有改变:它使用Transformer架构。然而,GenAI的发展速度是前所未有的,预计在短期内将继续下去。这些发展是由缩放定律决定的:增加模型大小,数据集容量和计算能力会导致显着的性能改进。
然而,最近在架构和训练范式方面的进步为模型的出现铺平了道路,这些模型表现出四个关键功能:代理人工智能,多模态系统,推理和可解释性。这些进步使自主行动成为可能,整合了多样化的数据,增强了决策能力,并确保了一致性-显示出重塑GenAI使用及其影响的巨大潜力,并在其部署中提出了有关问责制,公平性和治理的关键政策问题。
AGENTIC AI
AGENTIC AI指的是对提示做出不止一次响应的系统-它们做出自主决策,发起追求目标的行动,并从结果中学习。与依赖外部提示的传统人工智能不同,代理人工智能显示出一种计算代理的形式-表现出意向性和主动性的特征。这些人工智能体正变得越来越自主,能够在数字环境中导航,管理复杂的任务,甚至通过反馈机制纠正自己的行为。例如,Agent-R引入了一个自校正框架;代理和模型尖峰神经网络在“做梦”时学习(在基于模型的模拟环境中体验新的体验);78和Meta的协作推理器(Coral)训练和评估人工智能代理的协作推理,79允许LLM修改其输出并从反馈循环中学习,随着时间的推移提高性能。这将人工智能的边界从被动工具推向半自主协作者。
这些发展对未来的工作和知识生产产生了重大影响。例如,在科学研究中,像谷歌DeepMind开发的人工智能合作科学家正在自主生成假设和设计实验。在业务方面,微软创建了代理商店,它使代理能够在日常企业设置中使用,甚至作为个人助理。这些数字化同事现在能够独立执行适应需求的复杂工作流程。
除了专业领域,人工智能也出现在日常互联网使用中,如OpenAI的Operator AI agent或Google的Mariner。这些系统提出了有关数据隐私、网络安全和治理的新问题,特别是当人工智能开始在没有直接人为干预的情况下在在线环境中做出决策时。随着这一趋势的发展,标准制定和监管透明度对于管理风险同时促进创新至关重要。
人工智能的兴起为人类与人工智能的协作、模型的个性化和这些模型的自适应学习开辟了新的领域。它还提出了基本的政策问题。如果一个人工智能系统可以独立行动,那么当出现问题时,谁来负责?在一个由自主系统执行任务的世界里,成为一名“员工”意味着什么?当机器共同创造甚至原创内容时,我们如何定义作者身份或所有权?我们如何与变得更加自主的AI系统进行交互?欧盟应该通过评估并可能通过重新思考责任框架、就业法和知识产权来应对这些挑战,以反映数字时代机构不断变化的性质。
多模态GENAI
多模式GenAI代表了GenAI发展的重要一步。通过集成多种数据格式-文本、图像、音频、数据(包括遗传或临床数据),甚至触觉或嗅觉(电子鼻)输入85-这些系统提供了更丰富、更通用的应用。从GPT 4 o(“o”代表“omni”)开始,GPT型号的多式联运能力不断增加。GPT-5,预计在2025年,86显著增加了多模态推理; Meta AI的Multimodal Iterative LLM Solver(MILS)引入了无需训练的多模态框架。87然而,这一进步也放大了现有的风险。训练数据的规模和多样性增加了偏见、错误信息和高能耗的可能性,使监管监督和社会信任复杂化。代表性不足的语言、文化和方言可能得到低于标准的服务。确保公平获取而不扩大数字鸿沟仍然是一个核心政策问题。
Aya Vision88引入了多语言和多模式功能,旨在提高全球可访问性,特别是低资源语言。通过将语言处理与视觉和听觉输入无缝结合,Aya Vision支持跨不同用户群体的包容性AI体验,增强对教育,医疗保健和通信服务的访问。
(艺术)表达的民主化带来了额外的政策问题。这些系统不断地回收现有的样式和材料,可能会降低创造性工作的新奇(见第3.2节)。这种“自我偏见”效应可能会导致平庸和衍生内容的饱和,从而抑制真正的艺术创新。政策制定者必须努力解决如何在获得创造性工具与鼓励创新之间取得平衡的问题。生成高质量的视频或音频内容(通常基于现有作品)的容易性给版权执法带来了严峻的挑战,特别是当系统在未经明确许可的情况下在大型数据集上进行训练时(见第5.4节)。欧盟必须解决与这些系统相关的道德、监管和技术复杂性,从保护数据隐私到确保公平性和包容性。改进版权和数据治理框架至关重要,促进质量保证、跨语言道德使用以及促进对这些强大工具的信任的模式也至关重要。此外,促进对多样化的原创内容创作的支持可以抵消这些系统不断回收现有风格和材料可能降低创意工作新奇的风险(见第3.2节)。这种“自我偏见”效应可能导致平庸和衍生内容的饱和,抑制真正的艺术创新。政策制定者必须努力解决如何在获得创造性工具与鼓励创新之间取得平衡的问题。生成高质量的视频或音频内容(通常基于现有作品)的容易性给版权执法带来了严峻的挑战,特别是当系统在未经明确许可的情况下在大型数据集上进行训练时(见第5.4节)。欧盟必须解决与这些系统相关的道德、监管和技术复杂性,从保护数据隐私到确保公平性和包容性。改进版权和数据治理框架至关重要,促进质量保证、跨语言的道德使用以及培养对这些强大的系统的信任的模式也至关重要,因为这些系统不断重复使用现有的风格和材料,可能会降低创造性工作的新奇(见第3.2节)。这种“自我偏见”效应可能导致平庸和衍生内容的饱和,抑制真正的艺术创新。政策制定者必须努力解决如何在获得创造性工具与鼓励创新之间取得平衡的问题。生成高质量的视频或音频内容(通常基于现有作品)的容易性给版权执法带来了严峻的挑战,特别是当系统在未经明确许可的情况下在大型数据集上进行训练时(见第5.4节)。欧盟必须解决与这些系统相关的道德、监管和技术复杂性,从保护数据隐私到确保公平性和包容性。改进版权和数据治理框架至关重要,促进质量保证、跨语言道德使用以及促进对这些强大工具的信任的模式也至关重要。此外,促进对多元化、原创内容创作的支持可以抵消人工智能生成媒体中同质化和偏见的风险。
REASONING
GenAI中的推理已经发生了显著的变化,从增强的决策能力扩展到模拟人类认知。建立在创新的架构,培训范式,知识表示和辅助系统(计算器,专业API)的基础上,旨在模拟人类水平的审议和结构化的问题解决。人工智能正在超越狭隘的、特定于任务的系统,转向可扩展的框架,这些框架集成了制造、物流、教育和公共服务等行业的推理和适应性。人工智能的主流化表明了一条走向通用智能的道路,但也引发了对基础设施、互操作性和治理的担忧。
脑启发认知的新兴发展寻求在人工智能系统中模拟人类推理,记忆保留和自适应学习,增强其自然交互能力。主要的LLM已经引入了一个专业的搜索/研究选项,以进行更周到的,逐步的推理。然而,这种人类层面的仿真引发了伦理和可行性方面的担忧,特别是围绕人类和机器认知之间日益模糊的界限以及增加的能源消耗。这些进步使得政策制定者必须解决人工智能开发的道德界限。
大型概念模型(LCM)的引入91 92通过将大量概念知识整合到语言模型中进一步扩展了推理;“人工智能干细胞”技术使用基于规则的科学框架进行决策。然而,概念集成的深度引起了对模型可解释性、计算成本和数据隐私的关注。随着这些系统规模的扩大,确保透明度和减轻相关风险对于负责任的人工智能部署至关重要。
最后,随着人工智能承担更多的推理任务,人类技术技能存在侵蚀的风险;教育系统内人工智能素养的差距加剧了这一问题。为此,欧盟委员会与经合组织合作,最近发布了中小学人工智能扫盲框架的初稿(见第6.2节)。
EXPLICABILITY
随着GenAI模型在敏感领域扮演更复杂的角色,AI系统为其决策提供可理解的理由的能力变得越来越重要。可解释AI(XAI)97 98通过确保AI系统能够以人类可解释和可理解的方式解释其输出来增强信任。在安全、医疗保健、金融和制造业等领域,了解人工智能系统如何得出结论对于用户信心、监管合规性和有效的人机协作至关重要。XAI与传统的黑箱模型不同,它结合了LIME和SHAP等事后解释技术,显着性图和注意力可视化,并引入了基于规则的决策以及哲学和认知科学中以人为本的方法,以提供可解释的见解。
Trustworthy AI进一步扩展了这一概念,除了透明和可解释外,还专注于使AI系统可靠,使用神经符号计算等方法将联合收割机机器学习与逻辑推理相结合。它还引入了风险评估工具,例如关键人工智能风险指标(开里),102帮助管理人工智能系统的潜在缺点。这种方法加强了安全、金融和公共服务等领域的公平性和问责制,但如何标准化跨部门的信任衡量和管理仍然是一个关键挑战。
通过将公平机制嵌入算法,这些系统可以防止人口统计群体之间的歧视性结果。偏见检测系统引入了创新的方法,如反事实推理和自动化框架。然而,平衡公平性与准确性以及标准化公平定义仍然是一项复杂的挑战,特别是在人力资源、科技、医疗保健和刑事司法等高风险领域。类似地,诸如法律的决策和医疗保健106等部门需要高度可解释的人工智能输出。在这些领域,可解释性支持合规性、道德责任和临床验证,确保人工智能提供的决策保持透明和可信。
其他概念,如认知AI、反事实可解释AI和通过强化学习的简洁推理108继续推动可解释性。这些方法将不确定性量化、对输入的敏感性和可解释性约束直接嵌入到人工智能模型中,不仅确保人工智能输出可以解释,而且确保其置信水平和潜在风险得到明确传达。可解释性的一个新领域是使用归因图。这些图提供了人工智能决策路径的可视化表示,允许用户跟踪影响模型输出的特定因素和数据点。这增加了透明度并有助于建立信任;然而,这些方法增加了复杂性,需要大量的计算资源,需要集成到现有的工作流程中,并在不同的行业中实现标准化。
对于政策制定者来说,可解释性不再是一个技术辩论,而是一个道德层面,更不用说是一个需要考虑的法律的要求。欧盟必须确保在欧盟各地部署的人工智能系统保持透明、可审计,并与社会价值观保持一致,平衡模型复杂性、计算可行性和解释权。然而,必须承认,目前的可解释性和可解释性工具面临挑战,例如确保其产出的可解释性、准确性和可靠性,在开发和部署这些系统时必须认真考虑这些挑战。预计透明度在今后仍将是一个挑战。
从发动机到发电机
GenAI有潜力改变人类与数字世界的互动方式,GenAI功能正在快速集成到许多欧洲公民使用的数字服务中就证明了这一点。最典型的例子是搜索引擎。用户在互联网上查找信息的方式正在从基于关键字的信息搜索和聚合策略(通过结果列表进行解析)演变为使用配备互联网搜索功能的LLM进行对话式搜索。在这个领域的第一批采用者是微软的Bing,提供能够在网络上搜索信息的自然语言搜索服务,将其作为人工智能生成的摘要和聊天响应呈现给用户。
互联网搜索的革命为用户、出版商和科技行业带来了令人兴奋的机遇和重大的不确定性。谷歌正在使用人工智能来提供搜索结果的快速摘要,这可能会减少对出版商网站的点击,而像Perplexity和ChatGPT(OpenAI)这样的新搜索引擎正在提供具有深入,全面答案的对话搜索体验。然而,这引起了出版商对“零点击搜索”的担忧,即用户不点击进入原始来源,潜在的版权或不公平竞争因素威胁到他们的流量和收入。新的搜索体验变得更加动态,人工智能工具能够提供实时数据,多媒体,甚至执行任务,朝着人工智能代表用户行事的“代理”未来发展。
然而,正在进行的转型并不局限于搜索引擎。亚马逊114和Zalando 115等在线市场已经开始为用户配备基于GenAI系统的个人购物助理,这些系统能够搜索大量产品目录,并针对用户的问题提供产品推荐。同样,Snapchat、116 Meta117和X、118等社交媒体平台也开始提供对自己聊天机器人的访问。将GenAI集成到社交媒体界面中可以实现超越对话用例的功能,例如,通过为用户提供创建或修改可以直接在平台上发布的内容的可能性,模糊用户和AI生成的内容之间的界限,并可能导致一系列新的挑战和风险(见第5.2节)。欧盟目前的立法,特别是《数字服务法》(DSA),要求指定的在线平台密切监测和解决因在数字服务中使用GenAI而加剧的现有和新出现的风险,特别是当这些服务的用户中有未成年人时。
虚拟世界的发展使用户能够以不同程度的沉浸感和互动体验虚拟和真实的信息,将这些机会交叉起来,将不断推动人机互动的界限。包括人类福祉、技能和能力,以及支持工业生态系统。正在进行的工作还特别关注虚拟世界技术与GenAI系统的结合使用,这带来了特别具有破坏性的机会,但也带来了挑战。
以上内容全部使用机器翻译,如果存在错误,请在评论区留言。欢迎一起学习交流!
郑重声明:
- 本文内容为个人对相关文献的分析和解读,难免存在疏漏或偏差,欢迎批评指正;
- 本人尊重并致敬论文作者、编辑和审稿人的所有劳动成果,若感兴趣,请阅读原文并以原文信息为准;
- 本文仅供学术探讨和学习交流使用,不适也不宜作为任何权威结论的依据。
- 如有侵权,请联系我删除。xingyezn@163.com