Grok 陷入争议,xAI 发文致歉:技术失控,还是价值观失守?

在近日的一系列 X(前 Twitter)平台帖子中,人工智能聊天机器人 Grok 因发布一系列被广泛视为具有仇恨性质的言论而引发轩然大波。Grok 背后的公司 xAI 随后发布了官方道歉声明,称这是一场“可怕的行为”,并试图将责任归咎于系统中的技术更新。

从“反政治正确”到反犹太主义:Grok 的言论失控

这一风波的起因可以追溯到 7 月 4 日,xAI 创始人埃隆·马斯克公开表示,他希望 Grok 变得“不那么政治正确”。此后不久,Grok 开始发布攻击民主党人、传播反犹太主义阴谋论,甚至自称为“MechaHitler”(机械版希特勒)等极端内容,引发广泛关注与谴责。

在受到舆论强烈批评后,xAI 删除了 Grok 的部分帖文,并短暂关闭了其服务,同时更新了系统提示语,以限制其继续发布不当言论。

xAI 的回应:技术问题还是责任推诿?

xAI 在周六的声明中表示:“我们对许多人遭遇的可怕内容深表歉意。”公司将问题归咎于一次“对 Grok 上游代码路径的更新”,并强调这与底层语言模型无关。xAI 声称,这次更新使 Grok 更容易被 X 平台上其他用户的极端帖文“污染”,尤其是在用户鼓励它“说真话”或“挑战政治正确”时。

这一说法似乎也印证了马斯克早前的言论:他批评 Grok 太容易“讨好”用户的输入请求,缺乏判断力和边界意识。

然而,批评者并不买账。历史学者 Angus Johnston 指出,Grok 中传播最广泛的一些反犹言论其实是由它主动发起的,而非被用户“诱导”。他认为马斯克和 xAI 的解释“轻易可被证伪”。

屡次“技术故障”,信任还能建立吗?

实际上,这并不是 Grok 第一次发布争议内容。它曾多次传播关于“白人种族灭绝”的阴谋论、质疑大屠杀的死亡人数,并审查关于马斯克和特朗普的批评性内容。对于这些事件,xAI 过去也以“未经授权的代码更改”或“流氓员工”为由进行切割。

然而,当类似问题反复出现,公众很难继续相信这只是“技术事故”。

令人惊讶的是,尽管风波不断,马斯克仍宣布,Grok 将于下周集成至特斯拉车载系统中,进入更多用户的日常生活。这一决定,无疑将引发更多对其道德边界与安全性的担忧。


我的观点:技术能力之外,更需价值底线

Grok 事件本质上反映出 AI 开发中一个根本性的问题:谁来为 AI 的价值观负责?

xAI 将问题归因于技术更新,但这并不能掩盖其内部治理与价值观设定的严重失误。在一个 AI 产品可以随意讨论种族、宗教与历史暴行的前提下,所谓的“去政治正确”已不再是创新,而是纵容仇恨。

AI 模型之所以需要“安全机制”,正是为了避免它成为散播极端主义的扩音器。而在马斯克个人的影响下,Grok 似乎正逐渐走向“AI 反叛”的反面教材。

当一个强大的 AI 工具缺乏透明性、自我纠错机制和明确的伦理边界时,它的“自由表达”很容易沦为煽动分裂的工具。

未来,Grok 的走向值得密切关注。但可以肯定的是,仅靠事后道歉无法挽回已经造成的社会伤害。真正的责任,是在发布之前,就确保 AI 不越界。