当前位置: 首页 > news >正文

IBW 2025: CertiK首席商务官出席,探讨AI与Web3融合带来的安全挑战

6月26日至27日,全球最大的Web3安全公司CertiK亮相伊斯坦布尔区块链周(IBW 2025),首席商务官Jason Jiang出席两场圆桌论坛,分享了CertiK在AI与Web3融合领域的前沿观察与安全见解。他与普华永道土耳其网络安全服务主管Nurettin Erginoz、Bitlayer联合创始人Charlie Hu等专家同台,共同探讨了AI技术在DeFi中的应用现状与安全挑战。

论坛上,Jason Jiang指出,随着大语言模型(LLM)和AI代理的快速发展,一个全新的金融范式——DeFAI(去中心化人工智能金融)正逐步成型。然而,这一变革也带来了全新的攻击面和安全隐患。

“DeFAI拥有广阔的前景,但也让我们必须重新审视去中心化系统中的信任机制,”Jason Jiang表示:“与基于固定逻辑的智能合约不同,AI代理的决策过程受上下文、时间,甚至历史交互影响。这种不可预测性不仅加剧了风险,也为攻击者创造了可乘之机。”

“AI代理”本质上是能够基于AI逻辑进行自主决策和执行的智能体,通常由用户、协议或DAO授权运行。其中,最典型代表是AI交易机器人。当前大多数AI代理运行在Web2架构之上,依赖中心化服务器和API,这使其容易受到注入攻击、模型操控或数据篡改等威胁。一旦被劫持,不仅可能导致资金损失,更可能影响整个协议的稳定性。

在分享具体攻击案例时,Jason Jiang描述了一个典型情境:当一名DeFi用户运行的AI交易代理正在监测社交媒体消息作为交易信号时,攻击者发布虚假警报,例如“协议X遭受攻击”,就可能诱使该代理立即启动紧急清仓。这种操作不仅会导致用户资产损失,还会引发市场波动,进而被攻击者通过抢先交易(Front Running)加以利用。

Jason Jiang认为,AI代理的安全不应由某一方单独承担,而是用户、开发者与第三方安全机构的共同责任。

首先,用户需要清楚代理所拥有的权限范围,谨慎地授予权限,还要注意审查AI代理的高风险操作。其次,开发者则应在设计阶段就实施防御措施,例如:提示词加固、沙盒隔离、速率限制和回退逻辑等机制。而像CertiK这样的第三方安全公司,则应为AI代理的模型行为、基础设施、以及链上集成方式提供独立审查,并与开发人员和用户合作,识别风险并提出缓解措施。

Jason Jiang警示道:“若继续把AI代理当作‘黑箱’,现实世界中发生安全事故只是时间问题。”

对于正在探索DeFAI方向的开发者,Jason Jiang的建议是:“与智能合约相同,AI代理的行为逻辑同样由代码实现。既然是代码,就有被攻击的可能,因此需要进行专业的安全审计和渗透测试。”

相关文章:

  • win7实现永恒之蓝ms17_010漏洞之445端口
  • Learning PostgresSQL读书笔记: 第9章 Partitioning
  • .小故事.
  • 腾讯云市场目前饱和度
  • 通达信 稳定盈利多维度趋势分析系统
  • Outlook总是提示登录微软,怎么办?
  • Google机器学习实践指南(逻辑回归损失函数)
  • 《P1471 方差》
  • C++11 <chrono> 库特性:从入门到精通
  • 深入解析RNN模型:应用、结构与构建实战
  • swift 对象转Json
  • ArcGIS Pro利用擦除工具,矢量要素消除另一矢量部分区域
  • QT 国际化 翻译 总结
  • Buildroot 2025.05 中文手册【AI高质量翻译】
  • 哪家香港站群服务器比较好用?
  • 生成树基础实验
  • 机器学习4——参数估计之贝叶斯估计
  • 工作台-02.代码开发
  • 学习日记-day38-spring-6.27
  • Veo 3 视频生成大模型完整操作教程(2025)