文/栗子、晓查 来源:量子位(ID:QbitAI) 斯坦福有一个看脸预测性取向的 AI,如同相面一般,根据面部特征就能判断一个人是直是弯,而且准确度喜人: 男生 81%,女生 74%。 研究结果一公布,网友沸腾。也有不少人怀疑:AI 哪有这么准? 凡事需得研究才会明白。有位名叫约翰(John Leuner)的少年,不止嘴上不信,身体还积极地复现了算法,要用新的数据做个试验,看看它究竟有没有那么准。 成绩依然不错:男生的准确率 68%,女生达到了 77%。 这个结果,又引来网友们的一波激烈讨论。这一次,大家的关注点不仅仅是准确率本身,还有少年在复现研究中展现出的对 AI 的观察: 凭什么说我是直男 AI 到底是靠哪些线索,来判断人类的性向? 约翰用了控制变量法,仔细观察人脸的每个角落。 首先,他用眼睛、眉毛、轮廓、嘴巴和鼻子的特征,单独指导 AI 的预测。 实验发现,男生的眼睛和眉毛,对 AI 预测性向最有指导意义,鼻子就没有帮助; 而对女生来说,眼睛是最重要的,轮廓是最次要的。 接下来,是胡子和眼镜。 约翰发现,在留胡子和不留胡子的男生数量相同的数据集里,AI 判断男生性向的准确度,并没有受到影响。 眼镜也一样,没有左右 AI 的预测。也就是说,靠刻意的伪装来欺骗 AI,并不是个好办法。 神奇的是,就算缩小成 5x5 尺寸,AI 的判断依然没有受到严重的影响。AUC 基本保持在 0.6-0.8 之间,偶尔还会超过 0.8 (下图之左虚线为 5x5,右为大图) 。 所以,大概是靠气质判断的吧┑( ̄Д  ̄)┍。 为了做这些探索,约翰复现了一个深度神经网络模型和一个基于面部形态学(FM)的模型,还从约会网站中抓取了 50 万张照片,从中选取 2 万多张,做成性别、取向平衡分布的数据集。 他用 VGG-Face 神经网络,从图像中提取鼻子、胡须、眉毛、嘴角、发际线等面部特征,然后将照片转换成 4096 个元素的特征向量。 因为是约会网站,这些照片还会带有年龄、性别、性取向等标签信息。 然后作者根据面部特征训练了一个回归模型来预测性取向。2017 年斯坦福大学的研究就是这么做的。当时,Kosinski 教授把人脸所有相同性取向的脸合成了 4 张图片: 显然,这四张合成面部图片之间存在着差异。Kosinski 教授就此断言,性取向通常伴随着特有的面部特征。 但是我们深究一下就会发现其中的问题:男同性恋的人脸合成图显示有眼镜。因此算法可能是根据脸上的配饰做出的判断。 fast.ai 创始人 Jeremy Howard 认为,说 AI 无法通过照片判别性取向显然是不客观的,但相关性不等同于因果关系。 神经网络只是发现面部特征和性取向的相关性,没有解释这背后的原因,它只是一台识别机器。 又炸锅的网友 和两年前一样,这项政治不正确的研究带来了极大的争议。对研究结果,国外网友提出了很多质疑。 首先,带有偏见的数据集,必然导致带有偏见的结果。 有网友指出,gay 一般比直男更在乎自己的形象,可能会精心打扮自己。而约会网站本来就带有强烈的目的性,用户会精心打扮自己吸引对象。 这会导致模型不太适用于其他社交媒体的场景。 这种猜测并非毫无根据,威斯康星大学麦迪逊分校的心理学教授 William Cox 研究发现,同性恋确实是更倾向于在网上发布自己高质量的图片。 之前斯坦福大学的实验结果也证实,将模型用在 Facebook 图片上时,准确率会降至 52%。 另外,这套算法在5×5 的图像上也有 63% 和 72% 的正确率,说明它还能根据皮肤、头发颜色进行分类。 但是5×5 的马赛克基本上完全模糊掉了脸部特征,居然也能行!这与两年前 Kosinski 教授的推测相悖,更让人怀疑结果的可信程度。 实验数据的表示方法也让人怀疑不够客观。 比如数据集中有 70% 是直男、30% 是 gay,那么模型只要判断所有人都是直男,对准确率也会有 70%。 比方说,每 1000 人中有 50 人是同性恋。准确率 91% 的结果会误认9% 的直男为同性恋,也就是 85 人。 该算法还会将9% 的同性恋者视为直男,也就是会识别出 45 人为同性恋。结果在 130 个“同性恋”中,有三分之二的人其实并不是同性恋。 约翰只是南非一个名不见经传的学生,对他的讨论尚且能控制在理性的范围内。 而斯坦福大学的 Kosinski 教授就没这么幸运了,他的研究一经公布,就引起了极大的非议,他本人甚至收到了许多死亡威胁。LGBT 团体称他的研究是“垃圾科学”(junk science)。 在某些国家,同性恋属于违法行为,甚至最高会被判处死刑。即使是在一些同志合法的国家,这项技术也面临着泄露隐私的指责。 少年在自己 61 页长的论文中,就提到了这类技术的隐患: 这类能检测性取向的新技术,可能会对同性恋男女的隐私和安全造成严重的影响。 你怎么看? 这项研究在遭到 LGBT 团体强烈抵制的同时,Kosinski 教授还提出了更大胆的主张,足以让每个人感到害怕。 他相信 AI 算法很快就能够仅通过面部图像来判断人的智力、政治倾向和犯罪倾向。 千万不要以为这只是臆想,以色列一家创业公司 Faception 已经开始出售这样一种 AI 软件,通过面相来识别恐怖分子,他们声称将这项技术用在 11 个恐怖分子身上,准确识别出了其中 9 人。 用 AI 给人看相真的靠谱吗? |