当前位置: 首页 > news >正文

人工智能的“歧视”:“她数据”在算法运行中隐形

纵观人类的发展史,每一次科技进步都将对性别平等产生深刻影响。尤其是当下,人们对于借助人工智能技术快速发展来弥合性别不平等寄予厚望。

但很多人没想过,人工智能技术本身是客观中立、不存在“算法歧视”“性别偏见的吗?

弗吉尼亚大学计算机科学专业教授在测试图像识别软件时曾发现,人脸识别系统会将厨房图片中的男性识别为女性;在烹饪和体育活动方面,用搜索引擎搜索出来的图片也存在明显的偏向性,如烹饪形象与女性相关,而体育形象则多为男性……

这些社会活动中的性别“刻板印象”,折现出算法本身的“性别偏见”。作为人工智能的核心要素,算法通过解决问题的逻辑规则,将数据转化为决策或预测。而在从数据运行到结果呈现,算法过程的每个环节都可能存在社会偏见,“性别偏见”往往被忽视却又真实存在。

如何消除算法中的“性别偏见”?如何平衡性别平等与个性化推荐?是人工智能发展过程中需要解决的伦理问题。

女性的“隐形”与“缺失”

数据是算法运行的基础,更是人工智能学习成长的“养料”。但实际上,当前的数据更偏向男性,在数据采集环节就可能埋下性别偏差的“种子”。

例如,美国加利福尼亚大学、华盛顿大学的研究人员在《柳叶刀·公共卫生》杂志上刊发的研究结果显示,女性遭受的非致命性疾病未得到足够重视。其中一项原因是,由于历史和社会原因,临床试验中纳入女性数据较少

这意味着,当此类数据被“投喂”给AI,并用于医疗领域时,针对女性的疾病诊断、治疗和预防策略可能并不完全准确和有效,AI提供的决策参考也会存在偏差。

维基百科也曾被指出在内容的质与量上存在性别偏差,其中女性条目数量占比不到五分之一。联合国教科文组织发起#Wiki4Women倡议,通过创建、编辑和翻译维基百科上的女性简介和列表,改善百科中性别失衡的情况。这一举措恰恰证明,数据世界中的女性“隐形”与“缺失”。

算法运行中同样存在性别偏差的风险,且隐蔽性更强,这往往体现在内容推荐层面。学者邓松在论文《算法性别歧视的认定与法律规制——以消费领域为例》中表示,算法设计者直接或间接、显性或隐性的性别主观思想,会直接反映到算法之中。具体表现为,算法通过一套内生的“歧视性”运算流程,对所收集的消费者数据进行分析, 并做出针对不同性别的不同商品推荐、价格标签等行为。

中华女子学院社会学系副教授周旅军则举例表示,在算法运行过程中,AI可能会向女性用户更多推荐美容、育儿类内容,而向男性用户更多推荐科技、体育等内容,看似基于用户兴趣,实则可能加深性别分化。

相关文章:

  • 《Effective Python》第三章 循环和迭代器——永远不要在迭代容器的同时修改它们
  • 基于Gitee 的开发分支版本管理规范
  • 字符串(二)
  • leetcode 153. Find Minimum in Rotated Sorted Array
  • RabbitMQ的基本使用
  • 力扣-盛最多水的容器
  • 文件包含靶场实现
  • RK3576 Android 14.0 SDK开发指南(第一集)
  • vivado fpga程序固化
  • FPGA:基于Vivado的仿真流程与波形调试实践
  • 企业级网络安全护盾:剖析高防IP原理与防护策略
  • C# 语法篇:字段的定义和运算
  • 基于R语言地理加权回归、主成份分析、判别分析等空间异质性数据分析技术
  • Python实现VTK - 自学笔记(4):用Widgets实现三维交互控制
  • 已解决:Git冲突完全解决指南(附最佳实践)
  • 第三个小程序动工:一款结合ai的菜谱小程序
  • 软考中级软件设计师——计算机网络篇
  • 国产远程工具如何重新定义高效连接?——从协议支持到生态整合的全面解析
  • SPA模式下的es6如何加快宿主页的显示速度
  • Index-AniSora技术升级开源:动漫视频生成强化学习
  • 中国华能:1-4月新能源装机突破1亿千瓦,利润总额再创新高
  • 来论|以法治之力激发民营经济新动能
  • 特朗普与普京开始进行电话会谈,稍后还将致电泽连斯基
  • 关税影响下沃尔玛想涨价,特朗普施压:自行承担,别转嫁给顾客
  • 倒票“黄牛”屡禁不绝怎么破?业内:强化文旅市场票务公开制度
  • 广西北流出现强降雨,1人被洪水冲走已无生命体征