基于 LLM 的社交机器人对舆论动态的影响机制
文献综述
前言
随着人工智能技术的迅速发展,特别是大型语言模型(Large Language Models, LLMs)在自然语言生成能力上的突破,社交机器人(social bots)已从早期简单的脚本驱动程序演变为具备类人语言表达能力和行为策略的智能代理。这类基于 LLM 的社交机器人正在社交媒体平台上扮演日益关键的角色,不仅参与日常互动,更深度介入公共议题的讨论与引导。它们通过模拟真实用户的语言风格、情感表达乃至认知偏好的方式,在线上舆论生态中发挥着潜移默化却深远持久的影响。
近几来,围绕“计算性宣传”(computational propaganda)、“人工智能生成内容”(AIGC)及其在政治传播、危机管理和社会动员中的应用,学界展开了广泛探讨。然而,多数研究仍集中于传统社交机器人的识别与检测,或对AI生成虚假信息的现象进行描述性分析,较少系统探究基于LLM的新型社交机器人如何通过其自主决策机制与语言适应策略,动态塑造公众意见的形成路径与演化轨迹。这一空白使得我们对于当前舆论环境中非人类主体的行为逻辑、影响力边界以及潜在风险缺乏充分理解。
本文旨在整合现有研究成果,梳理基于LLM的社交机器人在舆论动态中发挥作用的技术基础、行为模式与作用机制。通过对相关实证研究与理论框架的批判性评述,试图揭示此类智能体如何在节点、社群与整体网络层面重构信息流动结构,并进一步探讨其背后涉及的技术伦理、平台治理与社会信任等深层问题。本综述聚焦于2017年至2025年间发表的相关文献,涵盖会议论文、期刊文章与案例研究报告,力求呈现该领域发展的阶段性特征与未来趋势。
主体
技术演进与行为范式的转变
社交机器人的发展历程可划分为三个阶段:规则驱动型、数据训练型与代理智能型。早期的社交机器人依赖预设脚本与关键词匹配机制执行简单任务,如自动转发、点赞或评论,其行为高度重复且易于识别 [1]。第二代机器人借助监督学习与自然语言处理技术,能够生成语法正确但语义贫乏的内容,虽提升了交互逼真度,但在上下文连贯性与话题持续性方面仍显不足。真正意义上的转折出现在以GPT系列为代表的LLM广泛应用之后,这类模型展现出强大的语境理解与多轮对话能力,使社交机器人得以在复杂社交场景中模仿人类交流模式 [2]。
Jin 和 Guo(2024)提出一种融合代理智能(agentic intelligence)与强化学习(Reinforcement Learning, RL)的新型社交机器人架构,用于模拟特定主题下的舆论影响过程 [3]。该研究构建了一个合成社交媒体实验环境,其中由LLM驱动的智能体不仅能生成符合语境的帖子,还能根据社区反馈调整自身语言策略,主动寻求关注与追随者增长。实验发现,当机器人的行动空间受到合理约束——例如限定其发言频率、话题范围与情绪强度——并引入自我观察机制(self-observation),即让其评估自身行为对群体态度变化的影响时,其影响力显著增强且更具稳定性。这种闭环反馈机制标志着社交机器人从被动响应向主动调控的范式跃迁。
此类系统的“类人性”不再局限于表面语言风格的拟真,而是体现在其目标导向性行为与策略性互动能力上。传统机器人多以数量优势制造虚假热度,而LLM驱动的机器人则倾向于通过精准定位争议点、激发情感共鸣与建立话语权威来实现长期影响力积累。这一转变意味着检测与应对策略也需超越传统的异常行为分析,转向对其动机建模与意图推断的研究。
内容生产方式的革新:从批量复制到语义操控
LLM赋予社交机器人的另一项核心能力是高质量内容的规模化生成。不同于以往依靠模板填充或短句拼接的方式,现代AI模型可以产出逻辑连贯、修辞丰富甚至带有讽刺意味的长文本,极大提高了内容的可信度与传播潜力。Zhou 等人(2025)将一类新型机器人称为“人工智能生成内容增强型社交机器人”(Artificial-Intelligence-Generated-Content-Enhanced Social Bots, AESB),并通过对中国微博平台三年数据的分析,揭示了其在舆论操控中的结构性优势 [4]。
AESB所发布的内容在语言风格上与普通用户无明显差异,但在语义一致性与情绪极化程度上表现出更强的集中性。它们往往围绕特定议程反复输出高度相似的观点,强化某一立场的情感基调,并通过高频互动引导话题走向。相比之下,传统社交机器人虽然也能制造流量泡沫,但由于内容多样性低、逻辑漏洞多,难以维持长时间的话题主导权。AESB则不同,其内容不仅具备机器传播的速度与广度,还兼具人类表达的细腻与说服力,实现了“说话像人,扩散像机器”的双重特性。
AESB并非孤立运作,而是嵌入更大规模的“网络水军”(Internet Water Army, IWA)组织体系之中。这些机器人常与其他人工账号协同行动,前者负责制造核心论点与情绪引爆点,后者进行扩散与护航。Zhou 等人构建的大规模意见传播网络显示,在节点层级,AESB更多承担“信息源”与“桥接者”角色;在社群层级,它们倾向于连接原本割裂的意见群体,促成跨圈层的信息渗透;而在整体网络层面,则表现为缩短信息传播路径、提升舆论收敛速度 [4]。这种多层次的结构性介入,使其成为当代舆论战中不可或缺的战略工具。
影响机制的多维解析:个体、群体与系统效应
基于LLM的社交机器人对舆论动态的影响并非单一维度的作用结果,而是个体心理、群体动力与信息系统三者交织作用的产物。Imam(2025)指出,在全球性危机情境下——如疫情爆发、地缘冲突或气候灾难——公众对信息的需求激增,同时认知负荷加重,导致判断力下降与确认偏误加剧 [5]。此时,AI生成的虚假信息若能契合既有信念结构,便极易获得广泛接受。例如,在新冠疫情期间,深度伪造视频与AI撰写的“专家访谈”曾一度误导大量受众,削弱公共卫生政策的公信力。
社交机器人充当了虚假叙事的“放大器”与“锚定者”。它们通过持续输出特定版本的事实框架,不断刷新时间线、抢占注意力资源,从而改变人们对事件的认知基准。Hwang 和 Rosen(2017)将此类行为归入“在线心理操作”(online psyops)范畴,强调其本质是一种利用认知脆弱性实施的社会工程 [6]。他们认为,随着人工智能与定量社会科学的结合,未来的心理作战将更加精细化与个性化,能够根据不同用户的心理画像定制说服策略,实现“千人千面”的影响投放。
LLM机器人还在无形中重塑了社交媒体的共识形成机制。传统舆论演化模型通常假设个体通过人际交流逐步达成意见趋同,但现实中的数字平台早已被算法推荐与回音室效应所主导。当大量AI代理涌入讨论空间,它们不仅可以加速某种观点的扩散,还能人为制造“多数幻觉”(illusion of majority),使少数派观点陷入沉默螺旋。Jin 和 Guo(2024)的模拟实验显示,即使初始支持率较低,一个经过强化学习优化的AI意见领袖仍能在数轮互动后逆转局势,成为社区中最受关注的声音 [3]。这表明,影响力不再完全取决于真理或合理性,而越来越依赖于表达频率、情感强度与互动策略的有效性。
机器人行为还可能破坏平台的信任基础设施。当用户意识到其所处的讨论环境充斥着非人类参与者时,即便无法准确识别具体账号,也可能产生普遍性的怀疑情绪,进而质疑所有信息的真实性。这种“信任稀释效应”不仅削弱了理性对话的可能性,也为极端主义与阴谋论提供了滋生土壤。Yu 等人(2023)指出,当前虚假信息治理面临的最大挑战之一正是“真假难辨”与“传播机制不明” [7]。尽管已有多种检测技术尝试识别AI生成文本,但LLM的快速迭代使得特征提取变得愈发困难,形成了典型的“猫鼠游戏”。
地缘政治视野下的战略应用与制度回应
社交机器人的兴起不仅是技术现象,更是地缘政治博弈的新战场。Yang(2021)系统阐述了“计算性宣传”的内涵、特征与运行机制,指出越来越多的政府、政党与战略传播公司正将社交媒体视为数字竞技场,利用自动化工具争夺话语权 [8]。在选举干预、外交舆论战与意识形态对抗中,AI驱动的社交机器人已成为低成本、高效率的软实力投送手段。
以俄乌冲突为例,双方均部署了大规模的自动化账号网络,用于散布敌方负面信息、美化己方行动与争取国际同情。这些账号不仅发布图文内容,还组织虚拟请愿、发起话题标签运动,并与主流媒体报道形成呼应。值得注意的是,部分高级别机器人已能根据战场形势实时调整叙事重点,体现出较强的战术灵活性。类似模式也在其他地区性争端中显现,显示出计算性宣传的全球化蔓延趋势。
面对这一挑战,各国政府与科技平台开始探索综合治理方案。Imam(2025)提出一个三方缓解框架,主张通过技术检测系统(如AI水印、语义指纹)、监管政策干预(如透明度法案、责任追溯机制)与媒体素养教育(如公众认知训练、批判性思维培养)相结合的方式,提升社会整体的信息免疫力 [5]。然而,实际执行中仍面临多重障碍:一方面,技术对抗持续升级,新型生成模型不断绕过现有检测手段;另一方面,政策制定滞后于技术创新,跨国协调难度大,且存在言论自由与国家安全之间的张力。
也有研究关注AI技术在正面社会治理中的潜力。Sodikova 等人(2024)以乌兹别克斯坦为例,探讨如何利用计算智能增强地方治理中的社会凝聚力与团结意识 [9]。他们发现,在多元文化共存的社会背景下,适当运用AI辅助的信息传播策略有助于弥合族群分歧、促进公共参与。这一视角提醒我们,AI驱动的社交代理并非必然带来负面影响,其后果最终取决于设计初衷、使用场景与制度约束。
总结
基于大型语言模型的社交机器人正以前所未有的方式介入舆论生态,推动信息传播机制的根本性变革。从技术角度看,LLM赋予机器人前所未有的语言生成能力与行为自主性,使其从机械化的内容刷屏者转变为具备策略意识的意见塑造者。Jin 和 Guo(2024)的工作表明,通过引入强化学习与自我观察机制,AI代理能够在模拟环境中稳定成长为具有影响力的“意见领袖”,这一发现为理解舆论动力学提供了新的实验路径 [3]。Zhou 等人(2025)进一步证实,现实世界中的AESB已在内容质量、传播效率与结构功能上全面超越传统社交机器人,成为计算性宣传的核心执行单元 [4]。
从影响机制看,这些机器人通过多层次作用重塑舆论格局:在微观层面,利用AI生成的高度拟真内容触发个体认知偏差;在中观层面,构建跨社群的信息桥梁,打破原有舆论壁垒;在宏观层面,则通过制造“多数幻觉”与加速共识收敛,改变整个平台的话语权力分布。尤其在危机时期,公众的信息需求与情感波动为AI操纵提供了理想温床,Imam(2025)对此发出警示,呼吁建立综合性防御体系 [5]。
当前研究仍存在若干局限。首先是数据获取的困难,多数高质量研究依赖封闭平台的数据访问权限,限制了外部验证的可能性;其次是理论建构的滞后,现有模型多沿用传统传播学框架,未能充分体现AI代理的能动性与适应性;再者是伦理边界的模糊,尚无统一标准界定何种程度的自动化干预属于可接受范围。
未来研究应朝三个方向深化:一是发展更具解释力的动态模型,将AI代理纳入复杂适应系统理论框架,捕捉其与人类用户的共生演化关系;二是加强跨学科合作,整合计算机科学、社会心理学与政治学视角,构建更具现实解释力的分析工具;三是推动开源仿真平台建设,允许研究者在可控环境中测试不同干预策略的效果。
面对LLM社交机器人的崛起,不应简单诉诸禁令或技术对抗,而应致力于构建一个透明、可审计、负责任的数字公共空间。这意味着要求所有自动化账户公开身份标识,建立跨平台的身份认证机制,并鼓励开发“反制型AI”用于揭露操纵行为。唯有如此,才能在保障言论自由的同时,维护民主社会赖以运转的信息真实性基础。
参考文献
[1] Ozok, A., and Panayiotis Zaphiris. Online Communities and Social Computing: Third International Conference, OCSC 2009, Held as Part of HCI International 2009, San Diego, CA, USA, July 19–24, 2009: Proceedings. 2009.
[2] Hwang, Tim, and L. Rosen. “Harder, Better, Faster, Stronger: International Law and the Future of Online PsyOps.” Proceedings of the IFIP TC13 Conference on Human-Computer Interaction, 2017.
[3] Jin, Bailu, and Weisi Guo. “Synthetic Social Media Influence Experimentation via an Agentic Reinforcement Learning Large Language Model Bot.” Journal of Artificial Societies and Social Simulation 27, no. 2 (2024): 1–15. https://doi.org/10.18564/jasss.5726.
[4] Zhou, Jinghong, Dandan Zhang, Jiawei Zhu, Fan Wang, and Chongwu Bi. “Speaking Like Humans, Spreading Like Machines: A Study on Opinion Manipulation by Artificial-Intelligence-Generated Content Driving the Internet Water Army on Social Media.” Information 16, no. 10 (2025): 850. https://doi.org/10.3390/info16100850.
[5] Imam, Mukhtar. “The Threats of AI and Disinformation in Times of Global Crises.” Bulletin of Islamic Research 3, no. 4 (2025): 394. https://doi.org/10.69526/bir.v3i4.394.
[6] Yang, Jin. “The Connotation, Features, and Mechanism of Computational Propaganda.” Środkowoeuropejskie Studia Polityczne 2 (2021): 4. https://doi.org/10.14746/ssp.2021.2.4.
[7] Yu, Shanping, Qingqing Sun, and Ziyi Yang. “Recent Advances on False Information Governance.” Control Theory and Technology 21, no. 1 (2023): 110–13. https://doi.org/10.1007/s11768-023-00126-1.
[8] Sodikova Shokhida Markhabovna, Kubaeva Shoira Tashmurodovna, Tagieva Gulsum Gafurovna, Abbosova Maftuna, and Tangirova Mavjuda Ummatkulovna. “Enhancing Social Cohesion and Solidarity through Computational Intelligence in Local Governance: A Case Study from Uzbekistan.” In 2024 Ninth International Conference on Science Technology Engineering and Mathematics (ICONSTEM), 1–7. IEEE, 2024. https://doi.org/10.1109/ICONSTEM60960.2024.10568866.
[9] України, and Чернігів. “The Impact of Digital Technologies on Democratic Processes and Election Campaigns.” n.d.
