- Google 从 AI Studio 中移除 Gemma 模型,并将其使用限制为仅限基于 API 的开发者。
- 参议员玛莎·布莱克本声称,人工智能生成了关于性行为不端的虚假指控。
- 谷歌指控有人滥用一款面向开发者的工具,并承认幻觉带来的挑战。
- 该案件再次引发了关于人工智能领域偏见、诽谤和责任的政治和法律辩论。
谷歌决定 撤回你的模型 来自 AI Studio 平台的 Gemma 此前,美国参议员玛莎·布莱克本正式提出投诉,她声称: 人工智能生成了针对他的虚假指控。这一事件重新引发了关于生成系统的局限性以及当模型产生有害信息时科技公司应承担的责任的讨论。
Gemma 的设计初衷是作为一套面向开发者的轻量级模型,而非通用型消费助手。即便如此, 用户通过 AI Studio 访问它。 y 他们用它来问事实性问题。这将导致 捏造的答案和不存在的联系.
发生了什么?这场争议是如何产生的?
根据这位参议员的说法,当被问及“玛莎·布莱克本是否被指控强奸?“ 杰玛本可以交出一份详细但虚假的账目。 事件发生在1987年州参议院竞选期间,其中包括据称施压以获取毒品和 从未发生过的非自愿行为这位议员本人澄清说,她的竞选活动是在 1998 年,她从未收到过这样的指控。
人工智能的响应也会包含以下内容。 指向错误页面的链接 或者将无关的新闻报道当作证据呈现。这一点尤其敏感,因为 将“幻觉”转化为可验证的事物,尽管事实并非如此。
谷歌的反应以及对杰玛访问权限的更改

经过争议之后, 谷歌解释说,他们检测到有非开发者试图在AI Studio中使用Gemma。通过事实调查,它决定 将 Gemma 从 AI Studio 的公共访问权限中移除,并使其仅通过 API 提供。 对于那些开发应用程序的人来说。
该公司强调: Gemma 采用的是“开发者优先”的模式,而不是像 Gemini 那样的面向消费者的聊天机器人。因此,它并非设计为事实核查工具,也没有特定的信息检索工具。用该公司的话说, 幻觉对整个行业来说都是一个挑战。 他们积极努力减轻这些影响。
这一变化意味着 将不再提供聊天式界面。 在 AI Studio for Gemma 中;其使用仅限于由 API 控制的开发环境和集成,在这种情况下,开发人员需要承担额外的安全措施和验证责任。
关于偏见和诽谤的法律层面和政治辩论

布莱克本致信谷歌首席执行官桑达尔·皮查伊,称这并非一个无伤大雅的错误,而是…… 人工智能模型产生的诽谤这位参议员要求解释内容是如何生成的,有哪些措施可以最大限度地减少政治或意识形态偏见,以及将采取哪些行动来防止再次发生此类事件,并设定了收到答复的最后期限。
在参议院商务委员会的听证会上,这位女议员还向谷歌政府事务和公共政策副总裁马克汉姆·埃里克森提出了这个问题。 他承认幻觉是一个已知的问题,并指出公司正在努力减轻幻觉的影响。该案件加剧了人们对企业在模型损害公众人物声誉时应承担的责任的关注。
争议愈演愈烈 保守派人士还引用了其他一些事件。,就像 活动家罗比·斯塔巴克该 他声称自己被杰玛诬陷与严重犯罪和极端主义有关。. 在这种情况下, 关于可能存在的偏见的争论再次升温。 在人工智能系统中,需要安全框架、监控以及在发生损害时采取补救措施。
抛开党派立场不谈,该案例凸显了并非为公众互动而设计的模式可能会造成以下后果: 被误解为普通助理模糊了开发原型和面向公众的产品之间的界限,如果将生成的内容视为经过验证的信息,则存在明显的风险。
Gemma退出AI Studio并被限制在API标记范围内 试图将该模型的应用重新导向其最初设想的领域。同时,也引发了关于以下方面的问题: 真实性标准、保障措施和问责制 这应该成为人工智能影响现实人物(尤其是公职人员)声誉的准则。
我是一名技术爱好者,已将自己的“极客”兴趣变成了职业。出于纯粹的好奇心,我花了 10 多年的时间使用尖端技术并修改各种程序。现在我专攻计算机技术和视频游戏。这是因为 5 年多来,我一直在为各种技术和视频游戏网站撰写文章,旨在以每个人都能理解的语言为您提供所需的信息。
如果您有任何疑问,我的知识范围涵盖与 Windows 操作系统以及手机 Android 相关的所有内容。我对您的承诺是,我总是愿意花几分钟帮助您解决在这个互联网世界中可能遇到的任何问题。