首页 行业 最新信息 查看内容

AI看脸就知道性取向,不服气的做了一个实验,结果…

2019-3-15 06:29| 发布者: | 查看: 60| 评论: 0

摘要:   文/栗子、晓查  来源:量子位(ID:QbitAI)  斯坦福有一个看脸预测性取向的 AI,如同相面一般,根据面部特征就能判断一个人是直是弯,而且准确度喜人:  男生 81%,女生 74%。  研究结果一公布,网友沸 ...

  文/栗子、晓查

  来源:量子位(ID:QbitAI)

  斯坦福有一个看脸预测性取向的 AI,如同相面一般,根据面部特征就能判断一个人是直是弯,而且准确度喜人:

  男生 81%,女生 74%。

  研究结果一公布,网友沸腾。也有不少人怀疑:AI 哪有这么准?

  凡事需得研究才会明白。有位名叫约翰(John Leuner)的少年,不止嘴上不信,身体还积极地复现了算法,要用新的数据做个试验,看看它究竟有没有那么准。

  成绩依然不错:男生的准确率 68%,女生达到了 77%。

  这个结果,又引来网友们的一波激烈讨论。这一次,大家的关注点不仅仅是准确率本身,还有少年在复现研究中展现出的对 AI 的观察:

  凭什么说我是直男

  AI 到底是靠哪些线索,来判断人类的性向?

  约翰用了控制变量法,仔细观察人脸的每个角落。

  首先,他用眼睛、眉毛、轮廓、嘴巴和鼻子的特征,单独指导 AI 的预测。

  实验发现,男生的眼睛和眉毛,对 AI 预测性向最有指导意义,鼻子就没有帮助;

  而对女生来说,眼睛是最重要的,轮廓是最次要的。

  接下来,是胡子和眼镜。

  约翰发现,在留胡子和不留胡子的男生数量相同的数据集里,AI 判断男生性向的准确度,并没有受到影响。

  眼镜也一样,没有左右 AI 的预测。也就是说,靠刻意的伪装来欺骗 AI,并不是个好办法。

  神奇的是,就算缩小成 5x5 尺寸,AI 的判断依然没有受到严重的影响。AUC 基本保持在 0.6-0.8 之间,偶尔还会超过 0.8 (下图之左虚线为 5x5,右为大图) 。

  所以,大概是靠气质判断的吧┑( ̄Д  ̄)┍。

  为了做这些探索,约翰复现了一个深度神经网络模型和一个基于面部形态学(FM)的模型,还从约会网站中抓取了 50 万张照片,从中选取 2 万多张,做成性别、取向平衡分布的数据集。

  他用 VGG-Face 神经网络,从图像中提取鼻子、胡须、眉毛、嘴角、发际线等面部特征,然后将照片转换成 4096 个元素的特征向量。

  因为是约会网站,这些照片还会带有年龄、性别、性取向等标签信息。

  然后作者根据面部特征训练了一个回归模型来预测性取向。2017 年斯坦福大学的研究就是这么做的。当时,Kosinski 教授把人脸所有相同性取向的脸合成了 4 张图片:

  显然,这四张合成面部图片之间存在着差异。Kosinski 教授就此断言,性取向通常伴随着特有的面部特征。

  但是我们深究一下就会发现其中的问题:男同性恋的人脸合成图显示有眼镜。因此算法可能是根据脸上的配饰做出的判断。

  fast.ai 创始人 Jeremy Howard 认为,说 AI 无法通过照片判别性取向显然是不客观的,但相关性不等同于因果关系。

  神经网络只是发现面部特征和性取向的相关性,没有解释这背后的原因,它只是一台识别机器。

  又炸锅的网友

  和两年前一样,这项政治不正确的研究带来了极大的争议。对研究结果,国外网友提出了很多质疑。

  首先,带有偏见的数据集,必然导致带有偏见的结果。

  有网友指出,gay 一般比直男更在乎自己的形象,可能会精心打扮自己。而约会网站本来就带有强烈的目的性,用户会精心打扮自己吸引对象。

  这会导致模型不太适用于其他社交媒体的场景。

  这种猜测并非毫无根据,威斯康星大学麦迪逊分校的心理学教授 William Cox 研究发现,同性恋确实是更倾向于在网上发布自己高质量的图片。

  之前斯坦福大学的实验结果也证实,将模型用在 Facebook 图片上时,准确率会降至 52%。

  另外,这套算法在5×5 的图像上也有 63% 和 72% 的正确率,说明它还能根据皮肤、头发颜色进行分类。

  但是5×5 的马赛克基本上完全模糊掉了脸部特征,居然也能行!这与两年前 Kosinski 教授的推测相悖,更让人怀疑结果的可信程度。

  实验数据的表示方法也让人怀疑不够客观。

  比如数据集中有 70% 是直男、30% 是 gay,那么模型只要判断所有人都是直男,对准确率也会有 70%。

  比方说,每 1000 人中有 50 人是同性恋。准确率 91% 的结果会误认9% 的直男为同性恋,也就是 85 人。

  该算法还会将9% 的同性恋者视为直男,也就是会识别出 45 人为同性恋。结果在 130 个“同性恋”中,有三分之二的人其实并不是同性恋。

  约翰只是南非一个名不见经传的学生,对他的讨论尚且能控制在理性的范围内。

  而斯坦福大学的 Kosinski 教授就没这么幸运了,他的研究一经公布,就引起了极大的非议,他本人甚至收到了许多死亡威胁。LGBT 团体称他的研究是“垃圾科学”(junk science)。

  在某些国家,同性恋属于违法行为,甚至最高会被判处死刑。即使是在一些同志合法的国家,这项技术也面临着泄露隐私的指责。

  少年在自己 61 页长的论文中,就提到了这类技术的隐患:

  这类能检测性取向的新技术,可能会对同性恋男女的隐私和安全造成严重的影响。

  你怎么看?

  这项研究在遭到 LGBT 团体强烈抵制的同时,Kosinski 教授还提出了更大胆的主张,足以让每个人感到害怕。

  他相信 AI 算法很快就能够仅通过面部图像来判断人的智力、政治倾向和犯罪倾向。

  千万不要以为这只是臆想,以色列一家创业公司 Faception 已经开始出售这样一种 AI 软件,通过面相来识别恐怖分子,他们声称将这项技术用在 11 个恐怖分子身上,准确识别出了其中 9 人。

  用 AI 给人看相真的靠谱吗?


鲜花

握手

雷人

路过

鸡蛋
毒镜头:老镜头、摄影器材资料库、老镜头样片、摄影
爱评测 aipingce.com  
返回顶部