- 埃隆·马斯克公开批评他的人工智能 Grok,认为其对政治暴力的反应有偏见。
- 关于算法偏见和叙事控制的争论再次将人们的注意力集中在人工智能的作用上。
- 马斯克承诺重新校准 Grok,这引发了人们对数据完整性和人工智能自主性的担忧。
- 这场争议反映了社会政治的两极分化,并引发了人们对人工智能发展的道德和透明度的质疑。
埃隆·马斯克 正处于新媒体风暴的中心 在向 Grok 发起冲锋后,他的公司 xAI 开发的人工智能, 因为他对美国政治暴力发表了他认为是错误和有偏见的回应。 此前,格罗克根据各种学术和新闻来源声称,自 2016 年以来最致命的暴力行为主要与极右翼有关,并列举了冲击国会大厦和各种大规模枪击事件等事件,之后这位商人做出了这样的反应。
人工智能的回应,集成到X平台(以前称为Twitter), 这在用户和政界引发了激烈的争论。 马斯克明显感到不安, 他称该回应“客观上是错误的”,并指责格罗克只是重复他所谓的“传统媒体”言论。并宣布将亲自努力纠正这一问题。这一举动引发了人们对人工智能独立性及其创造者干预程度的强烈质疑。
导火索:一个简单的问题和大量的争议
这一切都始于 一位用户在社交网络上提问,询问自 2016 年以来,哪个政治派别应对最多的暴力事件负责. Grok 借鉴了战略与国际研究中心 (CSIS) 和政府问责局 (GAO) 的研究, 结论是极右翼应对更多的暴力事件和死亡事件负责尽管他也承认,自 2020 年抗议活动以来,左翼事件有所增加。
马斯克很快对 Grok 的回应表示不满,声称其提供的信息是一个“巨大的错误”。 并坚称其人工智能正在“重复传统媒体”。这位大亨公开表示,他打算重新调整该系统,使其反应更加准确,不受他所认为的媒体偏见的影响。
这项干预措施 引发了不同的反应,既有人工智能自主性的倡导者,也有那些与马斯克一样批判主流媒体的可靠性及其对人工智能模型的影响的人。
关于人工智能偏见与中立性的争论

这一事件再次引发了关于 算法偏见以及谁在技术发展中监督警察。 Grok 的回应得到了统计数据和独立研究的支持,但数据与马斯克的观点之间的差异引发了一个问题:人工智能是否应该根据其所有者进行定制,还是根据事实和经验证据说话。
在背景中,有一个 人们担心,干预人工智能的编程,使其适应特定视角,可能构成一种审查制度尤其是在政治暴力或社会两极分化等敏感问题上。
El Grok 本人在被问及马斯克引发的争议后, 他用来自学术来源的数据回复道强调他不仅仅是在重复媒体的叙述,而且 这是根据已核实的数据得出的这引发了更多关于这些系统的独立性和客观性的争论。
社会政治背景下的连锁反应和后果
该案件并没有停留在数字领域,而是 引发了关于在有影响力的平台上开发和调整人工智能的人的责任的讨论。 各种人工智能专家和学者都警告说,如果机器人的反应被修改以适应其创造者或主流意识形态运动的利益,则存在叙事操纵的风险。
在这样的背景下 美国的政治气氛依然特别紧张最近发生的事件,例如明尼苏达州参议员梅丽莎·霍特曼遇刺案以及有关政治攻击升级的争论,正在给科技平台带来越来越大的压力,要求其采取最大程度的透明度和问责制。
Grok 和 Musk 的整个事件引发了人们的质疑 人工智能在多大程度上可以真正保持中立,以及谁来决定哪些数据或叙述应该占上风。 这种情况反映出科技如何反映、放大,有时甚至加深社会分裂。对数据解读和传播的控制已成为当今技术伦理和社会凝聚力的核心问题。
我是一名技术爱好者,已将自己的“极客”兴趣变成了职业。出于纯粹的好奇心,我花了 10 多年的时间使用尖端技术并修改各种程序。现在我专攻计算机技术和视频游戏。这是因为 5 年多来,我一直在为各种技术和视频游戏网站撰写文章,旨在以每个人都能理解的语言为您提供所需的信息。
如果您有任何疑问,我的知识范围涵盖与 Windows 操作系统以及手机 Android 相关的所有内容。我对您的承诺是,我总是愿意花几分钟帮助您解决在这个互联网世界中可能遇到的任何问题。
