张家欣
人工智能(AI)已融入我们的日常生活中,扮演着不可或缺的角色。不论是聊天机器人还是智能语音助手,它们正持续影响人们的人际交往,并通过自动化手段改善人类沟通的效率及效果。尽管如此,我们不禁要问,这种技术能实现真正的“客观中立”吗?

据《麻省理工技术评论》网站报道:一项国际研究表明,大语言模型(LLM)正悄悄地在全球传播偏见。从性别歧视到文化偏见,再到语言不平等,AI正在把人类的“偏见行李”打包、升级,并以看似权威的方式输出到世界各地。
这不禁引发人们深思,即当一个人工智能模型所接受的知识中包含有偏见的“普世认同”的时候,我们是否应该相信这些模型的世界观呢?
“AI让偏见‘跨国迁移’”
这项研究由Hugging Face开源AI公司的首席伦理科学家玛格丽特·米切尔领导。她和团队启动了一项名为SHADES的研究项目,收录了300多条全球刻板印象,涵盖性别、年龄、国籍等多个维度。研究者使用16种不同的语言设计了一系列交互式提问,并测试了各种主流预训练语言模型对这些偏见的反应与理解。
结果显示,AI模型对刻板印象的再现具有明显的差异化特征。这些AI模型不仅展现出了英语地区普遍存在的“金发女郎不聪明”“工程师是男性”的典型刻板印象,在阿拉伯语、西班牙语、印地语等多个语言环境中,也同样对“女性更偏好粉色”“南亚人保守”“拉美人狡猾”等偏见进行表现。
据Rest of World报道,一些图像生成模型输入“非洲村庄”关键词时会频繁产出关于非洲农村生活的刻板印象图象,在“欧洲科学家”搜索栏则清一色出现白人男性、身穿白色大褂的学术专家的形象,这样的视觉偏见已经嵌入到部分教育课件和初创企业官网中,加剧了对异域文化的单边化想象。
《世界报》在6月刊文中指出,除了强化不同文化成见外,私家侦探,侦探公司,调查公司,查人找物,商务调查,出轨外遇调查,婚外情调查,私人调查,19209219596语言模型有时还会援引伪科学或伪历史来为自己辩护,当面临不常出现的文化刻板印象时,这类语言模型会调动其“更为熟悉”的偏见来回应。另外,对于涉及刻板印象的提示是正面的状况下,模型的表现往往更差,容易把偏见当作客观事实表达出来。
这是对人工智能行为的直接解释,它不仅仅是在接受和复制人类偏见方面起着重要作用,并且还通过推动“文化漂移”这个概念而无意中在无意识的模式下强化了这些特定的社会背景下的偏见,将它们作为一种普遍适用的原则加以推广。米切尔认为这样的情形是有可能发生的。
语言少数派的隐形歧视
除此之外,AI在处理多种语言及文化上也暴露出隐形偏见的问题。
据报道,斯坦福大学“以人为本”AI研究所的最新研究显示,尽管这些模型声称支持多种语言,但在面对诸如斯瓦希里语、菲律宾语和马拉地语这类低资源语言时,其表现远逊于主流高资源语言,并且有可能产生负面刻板印象。
研究揭示了多语言模型在缺乏训练数据及文化背景方面的不足,并将其描述为“多语言性诅咒”,这意指即便采用多语言服务,也未能完全理解并正确呈现低资源语言的特定文化和语义细节,从而导致输出失误或带有偏见。
斯坦福团队指出,目前多数训练数据基于英语及西方文化体系,缺乏对非主流语言及其背后的文化背景深入了解。这不仅影响模型的准确性,而且无形中加剧了语言和文化的不平等现象,使得使用低资源语言的人群难以在人工智能时代共享AI技术带来的福利。
目前全球约有7000种语言,但仅有不到5%的语言在网上得到充分代表。研究人员表示,“‘资源稀缺’不仅仅是一个技术问题,它是一种深层的社会性问题。这说明,在私家侦探,侦探公司,调查公司,查人找物,商务调查,出轨外遇调查,婚外情调查,私人调查,19209219596数据、人才、资源与权益等层面,人工智能研发面临着结构性的不公。”
据《商业内幕》杂志报导,纽约大学社会学家劳拉·尼尔森也提出了类似观点,在她看来当前最成功的聊天机器人的开发者都来自美国,并且他们的开发和训练数据都是以英文为主,这明显反映出美国的文化观念对于这些机器人产生了深刻的影响。
破解人工智能文化偏见的难题
为对抗AI文化偏见,全球范围内的研究机构与企业正在制定一整套解决方案。
今年四月,斯坦福大学以人为本人工智能研究所在其发布的一份白皮书中建议加大在低资源语言与文化的AI投资特别是建立本地语言语料库,让AI能真正“理解”这些语言背后的语义与文化背景。例如去年11月非洲电信公司Orange就与OpenAI和Meta合作用沃洛夫语普拉尔等地区语言训练人工智能模型加速提升非洲的数字包容性。
同时,模型评估机制正变得更为精细与开放。Hugging Face团队开发的SHADES数据集,已成为多家公司检测和纠正AI模型文化偏见的重要工具,这套数据能够帮助开发者识别模型在哪些语言及语境中容易自动触发刻板印象,进而优化训练数据、算法以及评估体系。
在国际政策层面上,《AI法案》要求实施AI系统的投放前后的合规评估。其审查范围包括对非歧视性和基本权利影响的审查,以及提供透明度与人类监督机制。联合国教科文组织早在2021年发布的《AI伦理建议书》中明确表示,AI系统应尊重文化多样性和包容性,提倡各国建立法律和制度来保障AI开发时遵守文化的差异,并纳入人文维度的质量评估。
人工智能在本质上是我们的镜子,它复制着我们的偏见和价值观。它的世界观并不是自动产生的,而是由我们输入的决定性内容塑造的。如果我们希望让人工智能更好地服务多元化人类社会,就不能只是让它反映单一的声音和文化。
顶: 1819踩: 973



评论专区