【irregular swap】An Examination of Fairness of AI Models for Deepfake Detection
文章目录
- An Examination of Fairness of AI Models for Deepfake Detection
- 背景
- points
- 贡献
- 深伪检测
- 深伪检测审计
- 评估检测器主要发现
- 评估方法
- 审计结果
- 训练分布和方法偏差
An Examination of Fairness of AI Models for Deepfake Detection
会议/期刊:IJCAI 2021
作者:
背景
早期的针对深伪数据集类别(种族、性别等)属性的研究
深度学习模型可以根据受保护的类别(如种族和性别)进行区分。
当一个人的脸被交换到另一个不同种族或性别的人时,用于创建deepfakes作为正训练信号的方法往往会产生“不规则”的脸。
这导致检测器学习前景脸和虚假之间的虚假相关性。
【在机器学习中,越来越多的人担心有偏见或有缺陷的系统会产生意想不到的后果,这需要对数据集和模型进行仔细彻底的检查。】
points
评估受保护的亚组中存在的深度伪造数据集和检测模型的偏见。亚组——》子组</