AI画画也有种族歧视?艺术加工软件把黑人变白人


来源:物联传媒   时间:2020-12-30 11:47:42


日本富士通的一支研究团队利用有向无环图模型(DAG)研究AI生成艺术中的偏见现象。该研究发现,目前的AI模型在艺术创作时展现出对特定流派、创作风格、种族、思想运动等因素的明显倾向性。

据分析,这种偏见现象的背后有两层原因,一方面是标记数据集中各类样本数量不均衡,一方面是标记过程受标记员主观影响较大。

该研究发表在康奈尔大学的论文库arXiv上,名为《艺术史视角下分析AI生成艺术中偏见产生的原因(Biases in Generative Art—A Causal Look from the Lens of Art History)》。

image.png

▲日本富士通研究团队发表《艺术史视角下分析AI生成艺术中偏见产生的原因(Biases in Generative Art—A Causal Look from the Lens of Art History)》一文

原文链接:https://arxiv.org/pdf/2010.13266.pdf

一、研究方法:采用DAG进行因果关系分析

随着人工智能技术研究的不断深入,人工智能的应用领域也越来越广泛,其中就有AI生成艺术。从创作绘画到开辟新的艺术风格,AI被应用到艺术创作的方方面面。

然而,随着AI艺术创作工具不断涌现,日本富士通的研究团队却指出:社会偏见可能会渗透到AI的艺术创作过程中。

为了验证猜想是否属实,富士通研究人员从相关学术论文、在线平台、应用程序入手,从中挑选出描摹现有流派和风格的样本并展开研究。

研究团队首先对影响AI创作的主要因素进行了分类,从而确定研究样本。他们最终选定的样本均由业内领先的AI系统创作,这些AI系统接受了文艺思潮、流派、创作材料、艺术家等各类标记数据集的训练。

文艺思潮方面,有文艺复兴、立体主义、未来主义、印象派、表现主义、后印象派、浪漫主义等。流派方面,有风景画、肖像、战斗绘画、素描等。材料方面,有木版画、版画、油漆等。艺术家方面,则有克莱门汀·亨特(Clementine Hunter)、玛丽·卡萨特(Mary Cassatt)、文森特·梵高(Vincent van Gogh)、古斯塔夫·多雷(Gustave Doré)、吉诺·塞维里尼(Gino Severini)等。

该文共同作者称,该研究利用了一个名为“有向无环图”(Directed Acyclic Graphs,“DAG”)的因果模型,他们能够通过这个模型识别出和AI艺术生成有关的因素,以及这些因素相互影响的方式。

比如,艺术思潮会影响创作材料的选择,肖像主体会影响艺术家风格的选择,而DAG能够将这些复杂的关系可视化,从而更好地分析不同因素之间的因果关系。

二、研究结果:AI艺术创作工具存在种族、性别歧视

经分析,AI系统在进行艺术创作时,存在对特定流派、风格、种族的明显偏好。

以艺术渲染工具DeepArt为例,用户可以在DeepArt上导入图片并添加艺术化渲染效果,最终生成具有特定艺术家风格的图片。

在处理立体派画家费尔南·莱热(Fernand Léger)的作品《推进器(Propellers)》时,DeepArt未能成功将其转换至未来派风格。在将玛丽·卡萨特(Mary Cassatt)的现实主义画作《玛丽·埃里森小姐(Miss Mary Ellison)》转换成表现主义风格时,DeepArt又未能展现出表现主义的典型特征。

image.png

▲中为玛丽·卡萨特(Mary Cassatt)的现实主义画作《玛丽·埃里森小姐(Miss Mary Ellison)》;右为凯尔希纳(Ernst Ludwig Kirchner)的表现主义画作;左为AI艺术创作工具Deepart根据右图风格对中图加工生成的表现主义作品。然而表现主义的典型特征之一——变形物体,并未出现在左图中。

更有甚者,DeepArt同类平台GoArt在为克莱门汀·亨特(Clementine Hunter)的画作《黑族长(Black Matriarch)》添加表现主义滤镜时,直接将主体人物的黑肤色变成了红色,在加工狄赛德里奥的雕塑作品《小男孩(Giovinetto)》时,却保留了艺术品中人物原本的白色肤色。

image.png

▲GoArt将克莱门汀·亨特(Clementine Hunter)的画作《黑族长(Black Matriarch)》中的主体人物的黑肤色变成了红色,保留了狄赛德里奥的雕塑作品《小男孩(Giovinetto)》中人物的白肤色。

艺术换脸软件AIportraits将黑肤色女星泰莎·汤普森(Tessa Thompson)的照片加工成艺术画时,直接将她的肤色调亮了几个度。

image.png

▲AIportraits将黑肤色女星泰莎·汤普森(Tessa Thompson)肤色调亮

另一款艺术加工工具Abacus直接把拉斐尔(Raphael)和皮耶罗·迪科西莫(Piero di Cosimo)作品中的长发年轻男子识别为女性。

三、原因分析:标记数据集的样本失衡

富士康的研究团队认为,这种偏见主要来自前期训练AI时使用的标记数据集。一方面,受到研发人员偏好影响,这些标记数据集涉及的样本数量可能不够均衡。以AI Portraits为例,该应用程序的训练样本便是以文艺复兴时期的白人肖像为主。

另一方面,给数据集做标注或是打标签的过程中可能存在标准不一致的情况。注释者拥有不同的偏好、文化和信念,这些差异可能会在他们创建的标签中得到反映。

论文指出,各类训练样本的数量并不均衡,比如照片很多、雕塑很少;欧洲艺术家很多、本土艺术家很少;文艺复兴、现代艺术运动作品居多,其他思潮作品很少。数据集也未能体现出不同种族、风格的面孔差异,因此出现了代表性偏差。

研究团队警告说,为艺术生成AI建模时,如果忽略某些细微因素,将造成社会、文化、政治方面的错误历史认知,从而影响人们正确地认识某些重要史实。

他们敦促AI研究人员和从业人员在考虑相关社会政治因素的前提下,应谨慎检查AI系统的设计原理。

结语:机器理性仍靠人智实现

还记得《终结者》系列中,施瓦辛格扮演的机器人T-800眼冒红光、冷面无情的模样,然而事实和科幻相去甚远,机器人目前既没有自主思考能力,更没有人类独有的情感和欲望。

人工智能仍依赖算法编程实现。因此,人工智能的好与坏、公平与偏颇全掌握在人类手中,这就对人类软件开发专家提出了更高的要求。

俗话说“上梁不正下梁歪”,如果人类开发者在训练AI的过程中,没有很好地考虑到社会公平的因素,那么个人认识的局限性和偏差便会传递到AI上。

比如说,谷歌BERT等大语言模型的训练样本就忽略了贫困地区尚不能联网的弱势群体,艺术生成AI的训练样本又主要以西方白人肖像为主。

不管是在艺术创作领域,还是在语言模型领域,AI训练样本不均衡导致的代表性偏差都是一个值得关注和深思的问题。若想充分发挥机器的理性优势,人类开发者在设计系统架构和训练AI的过程中必须更加谨慎细致。

  版权及免责声明:凡本网所属版权作品,转载时须获得授权并注明来源“物联之家 - 物联观察新视角,国内领先科技门户”,违者本网将保留追究其相关法律责任的权力。凡转载文章,不代表本网观点和立场。

延伸阅读

最新文章

腾讯微信支付支持全量商家小程序场景开通中国银联云闪付功能 腾讯微信支付支持全量商家小程序场景开通中国银联云闪付功能

精彩推荐

产业新闻

苹果发言人:富士康印度工厂进入试用期,将派遣独立审计师进行额外评估 苹果发言人:富士康印度工厂进入试用期,将派遣独立审计师进行额外评估

热门推荐

版权所有:物联之家 - 物联观察新视角,国内领先科技门户