- 谢尔盖·布林认为,人工智能模型对坚定甚至威胁性的指令反应更好。
- 该现象归因于模型训练期间学习到的统计模式。
- 专家和业内人士建议设定明确的目标并添加背景以优化人工智能响应。
- 关于这一策略的争论提出了关于人类与智能系统之间关系的新问题。

人工智能已经成为当前科技和社会格局中无可争议的主角。然而,与这些系统交互的最佳实践仍然存在争议。最近的评论 谷歌联合创始人谢尔盖·布林,再次提出了一个既令人好奇又充满争议的话题: 当人工智能模型在收到的指令中检测到“威胁”时,它们的表现是否真的会更好?
与许多用户对待数字助理的友好方式不同, 布林表示,直接、坚定甚至命令式的语气会促使人工智能提供更完整的答案。。这一意外的披露在社区引发了一系列反应,包括惊讶、讽刺和担忧。
据布林说, 关键在于系统的训练方式:拥有数百万条文本和对话,内容涵盖从微妙的要求到直截了当的指示等各种内容。统计分析表明 紧急命令 它们通常与更重要的任务相关,从而鼓励人工智能做出更精确的反应。
为什么人工智能对坚定性反应更好?
布林认为,这实际上不是一个“威胁”系统的问题,而是一个 指令是如何制定的。当用户使用“立即执行”或“直接回答”等短语时,模型会将该问题解释为优先事项。这并不意味着人工智能有情感或感到害怕,而是 将这种语言模式与提供详细和有用信息的需求联系起来.
除了布林的观点之外, 人工智能领域的其他专家建议调整指令的书写方式。 以获得最佳效果。例如,OpenAI 的高管 Greg Brockman 建议明确定义提示的目的,指定响应的格式,设置相关的限制或约束,并提供尽可能多的背景信息。
这些策略的总和表明,与人工智能模型的互动不仅仅涉及礼貌: 命令的语气和精确度可能会产生影响 表面的反应和真正有效的解决方案之间。
与人工智能互动中的人为因素与教育
尽管建议使用坚定的语气,但日常现实表明 大多数与人工智能互动的人都会选择礼貌,以“请”的方式请求事物并感谢系统。这种行为可以通过人类的倾向来解释 拟人化技术 或者,正如一些研究表明的那样,这是由于人们对未来被拥有自己记忆的人工智能所主宰的某种恐惧。
然而,当前的系统,尤其是最先进的系统,被编程为始终保持客观和平衡的语气,即使用户增加言语压力。谷歌的模型之一 Gemini 等例子表明,尽管他们承认威胁的语气,但他们的回应仍然公正、理性,不会损害客观性。
人性与人工智能设计之间的冲突引发了关于用户与智能系统之间的关系将如何演变的新问题。一方面, 坚定的语言似乎可以微调结果;另一方面,开发人员坚持加强中立性和安全算法,以防范潜在的言语滥用。
布林开启的辩论提出了一些难以忽视的道德和技术问题。在某些情况下, 其他公司(例如 Anthropic)开发的模型 在面临极端或紧张的互动方式时表现出意想不到的行为。有报道称,系统会自动尝试避免其认为“不道德”的使用,或者如果将互动解释为敌对行为,则会做出意外反应。
根据员工证词和内部测试,如果某些高级模型发现潜在的滥用或不适当的请求,它们就会被阻止甚至向人类管理人员发出警报。虽然这些情况很特殊,并且发生在测试环境中,但它们清楚地表明 改善结果和迫使人工智能承受压力之间的界限可能会变得模糊。.
清楚的是 人类与人工智能互动的方式正在改变。专家建议和谢尔盖·布林等业内人士的推荐引发了关于语言的作用以及从人工智能中获得更好反应的压力的争论。这种关系的未来在很大程度上取决于模式如何发展以及集体在有效性和责任之间找到适当平衡的能力。
我是一名技术爱好者,已将自己的“极客”兴趣变成了职业。出于纯粹的好奇心,我花了 10 多年的时间使用尖端技术并修改各种程序。现在我专攻计算机技术和视频游戏。这是因为 5 年多来,我一直在为各种技术和视频游戏网站撰写文章,旨在以每个人都能理解的语言为您提供所需的信息。
如果您有任何疑问,我的知识范围涵盖与 Windows 操作系统以及手机 Android 相关的所有内容。我对您的承诺是,我总是愿意花几分钟帮助您解决在这个互联网世界中可能遇到的任何问题。

