编者按:《AI研究院》由网易智能频道发起,网易杭州研究院等机构共同参与打造,每周五篇,专注AI行业研究与深度分析,并提供技术应用交流。转载请联系我们获得授权,公号smartman163。
【网易智能讯 4月27日消息】FaceApp是一款利用神经网络进行人像处理的软件,由于被指带有种族主义,该公司发表了道歉声明,要是所有的算法偏见都能这样轻易被发现就好了。
这款软件会让用户上传一张自拍照或脸部的照片,通过不同的滤镜对照片进行修改,其中包括将人物的脸部变老,甚至是改变性别。
问题是,它包含一个叫做“hotness”(热辣)的滤镜,这个滤镜有种族主义的嫌疑。正如用户所指出的那样,这个滤镜会把脸部肤色变浅,来达到它所谓的“美化”效果。大家可以将奥巴马总统照片在使用滤镜前后的效果进行对比。
FaceApp的创始人兼首席执行官Yaroslav Goncharov在一份电子邮件声明中对这一种族主义算法道歉:“这无疑是个严重的问题,我们对此深表歉意,我们并不是有意为之,原因是训练集偏见导致潜在神经网络产生了副作用。为了解决这个问题,我们对这个滤镜重新进行了命名。我们还在研究更完整的方案,很快就会得到结果。”
正如《卫报》在早些时候提到的,FaceApp在最近几周人气飙升,是否也在暗示着这款软件存在问题。
FaceApp暂时将滤镜的名字“hotness”改为“spark”(亮化),不过,在开发出更好的替代品之前,将这款滤镜撤销也许才是明智的选择。也可能是这款软件太过火爆(每天新增约70万用户),对公司政策的制定造成了干扰。
虽然支持FaceApp滤镜的人工智能技术包括一些开源库的代码,比如谷歌的TensorFlow,但Goncharov向我们证实,用于训练“hotness”滤镜的数据集是他们自己的,不是公共数据集。因此,FaceApp无法推卸责任。
坦率地说,这是能够说明算法中存在偏见风险的最佳案例。
机器学习模型的好坏取决于输入的数据,在FaceApp案例中,这支总部位于莫斯科的团队显然没有利用足够多的数据集来训练他们的算法。我们至少可以感谢他们这次用如此直观的方式展示了算法偏见的潜在问题。
随着人工智能控制的系统越来越多,我们迫切需要一个算法问责制度,建立健全的系统,避免将人类的偏见植入机器中。自动化技术并不意味着“不受人类缺陷的影响”,任何不承认这一理论的开发人员都是在说谎。
(英文来源/TechCrunch编译/机器小易 审校/日月沉香)