人工智能风险与伦理(1)
人工智能技术正加速渗透到社会的方方面面,对人类生活带来了颠覆性的影响。大多数影响是正面的,但也潜藏不少风险。随着人工智能不断进步,当其能力逼近甚至超越人类时,如何处理人与人工智能的关系、构建智能时代的伦理体系,成为亟须思考的问题。总体上,人工智能可能带来的风险可分为两种:一种是已经显现、迫切需要应对的近期风险;另一种是尚未到来但或将产生长远影响的远期风险。
人工智能近期风险
一、数据安全
人工智能的广泛应用离不开对数据的采集与分析,但也因此带来了数据安全方面的担忧。人工智能系统随时随地在收集我们的个人信息——从浏览历史、购物记录到刷脸支付和语音通话。某些应用在未取得用户明确授权的情况下便采集信息,导致个人数据被过度或不当使用。而这些汇聚起来的海量数据若保管不善,还可能集中泄露,带来严重后果。一些典型的数据滥用风险如下。
人脸识别的隐患。大量应用和设备使用“刷脸”来验证身份。一旦人脸数据遭非法获取或滥用,便会引发安全与隐私风险,比如不法分子可利用人脸信息闯入私人场所、盗用银行账户等。鉴于此,许多国家和地区已对人脸识别作出明确限制。我国许多城市的酒店也不再“强制刷脸”,并对商场、超市安装监控摄像头加强了监管,以减少不必要的面部信息采集。
“大数据杀熟”。一些线上平台通过分析消费者的购买行为与偏好,对黏性更强的老顾客反而提高商品价格,从而获得额外利润。这被称为“大数据杀熟”,涉嫌不公平交易与价格歧视。某些调查显示,一些电商平台对“常旅客”或“高级会员”所显示的酒店预订价确实高于普通用户,构成不正当竞争。
第三方追踪与隐私泄露。网站与 APP 常使用 Cookies、广告追踪器等技术共享用户行为数据。结果是,当你在电商平台搜索“运动鞋”,短视频平台立刻推送相关广告或视频。若用户对技术原理不够了解,在浑然不觉的情况下盲目授权,就可能面临隐私泄露的风险。
非法采集与训练。一些人工智能公司为提高模型性能,擅自收集用户数据或用“信息差”方式诱骗用户同意数据采集,这些都侵犯了用户的隐私与数据所有权。为规范此类行为,我国于 2021 年颁布《中华人民共和国数据安全法》,明确要求“任何组织、个人收集数据,应当采取合法、正当的方式,不得窃取或者以其他非法方式获取数据”,从法律层面为数据合规使用提供了依据。