联合国附属机构打造 AI 难民化身,引发道德争议

近期,一家与联合国有关联的研究机构——联合国大学政策研究中心(UNU-CPR)在一次课堂实验中开发了两位由人工智能驱动的虚拟“难民形象”。该项目的目标是借助 AI 技术引导公众更深入理解苏丹难民的处境,但却在发布后引发了不小的伦理争议。

AI “化身”重现难民经历

此次实验创造了两个虚构的 AI 人物:Amina,一位因战争而逃离苏丹、生活在乍得难民营的年轻女性;Abdalla,则是苏丹境内一支名为“快速支援部队”(RSF)的准军事组织的士兵。用户原本可以在实验网站上与这两位角色互动,了解他们的“故事”。

然而,在周末尝试注册体验时,该平台已无法正常使用,疑似被临时下线。

该项目由哥伦比亚大学教授、同时也是 UNU-CPR 高级研究员的爱德华多·阿尔布雷希特(Eduardo Albrecht)与其学生团队策划。他在接受采访时表示,这只是一次课堂上的“创意探索”,而非正式的联合国官方倡议。

项目初衷与实际效果的落差

根据该项目所附带的研究论文描述,AI 难民头像未来或许可以被用于“快速向捐赠者展示情况、争取援助资金”,即通过更加生动和个性化的交互方式来激发公众或资助机构的同理心与支持。

然而,这一设想并未被所有人接受。在一系列研讨会中,不少与会者对 AI 代理人表示反感,他们认为这种做法反而削弱了真实难民自身发声的权利。一位参与者直言:“现实生活中的难民有能力为自己说话,不需要虚拟角色替代他们的声音。”


我的看法:AI 能否讲述人类的痛苦?

这个项目表面上看是一次技术与人道主义的结合尝试,但实际上,它暴露了当前 AI 应用中一个越来越棘手的道德问题:AI 是否有资格代替人类表达真实痛苦?

在我看来,AI 难民化身的初衷可能是善意的——它试图用互动的方式提升公众对全球人道主义危机的理解。但这种“模拟苦难”的方式,也极易滑向“情感剥削”与“虚假共情”的边缘。

难民身份的复杂性,不仅包含政治背景和生存困境,更承载着具体的个人经历与文化伤痕。而用 AI 生成的“虚拟故事”来取代真实人的发声,不仅可能误导公众,还可能掩盖真正的问题根源。

更值得警惕的是,这类项目若被用于“向捐赠者展示需求”,可能会让人道主义援助沦为“感情营销”的表演。与其用合成的头像感动世界,我们更应该倾听现实中真正难民的声音,为他们提供平台、传达真实立场与尊严。