为什么不应该使用 ChatGPT 和其他 AI 创建密码?

最后更新: 13/05/2025

  • ChatGPT 和其他 AI 生成的密码表现出可预测的模式。
  • ChatGPT 可以向多个用户建议相同的密码并存储输入的数据。
  • 专家建议使用专业的密码生成器和管理器。
  • 避免将敏感数据输入人工智能平台是数字安全的关键。
为什么不使用 chatgpt 来创建密码?

近年来, 人工智能应用于家庭和专业领域 已经成为日常工具。许多人已经使用 ChatGPT 等助手来撰写文本、分析信息、产生想法,甚至执行与数字安全相关的任务,例如生成密码。然而, 让人工智能保护您的个人或工作账户真的安全吗?

虽然让 ChatGPT 或类似模型为你发明一个“安全”的密码看起来很方便,甚至很有未来感,但现实却大相径庭: 存在隐藏的风险和技术限制,使得这种做法不仅不可取但是 可能会让你遭受网络攻击或意外泄露.

下面,我们将详细分解 不应使用 ChatGPT(或其他类似 AI)创建密码的原因 以及您可以使用哪些替代方案来保证您的帐户安全。

避免使用 ChatGPT 创建密码的主要原因

人工智能密码安全

ChatGPT 和其他生成式人工智能的普及使得越来越多的用户使用它们来完成文本生成和问题解决等各种任务。 然而,谈到创建密码,网络安全专家的共识很明确:这不是一个可靠的选择。

  • 模式预测无论多么复杂,人工智能系统都无法产生真正随机的组合。它们经常重复网络犯罪分子可以利用的某些模式或序列。
  • 非唯一密码ChatGPT 在给出类似指令时可能会向不同的用户建议相同的密码,从而增加了多个帐户共享相同易受攻击密码的风险。
  • 云数据存储:您在 ChatGPT 中输入的所有内容都会记录在公司的服务器上,这使得这些密码成为潜在安全漏洞或泄漏的目标。 了解如何在 Google 上管理您的密码 以避免类似的风险。
  • 不安全建议的风险在多次测试中,ChatGPT 使用伪装成符号、可预测的短语或易于猜测的数字模式的常用词来生成密码。
独家内容 - 点击这里  每个生肖是怎样的

这些原因不仅仅是理论上的。卡巴斯基最近的一份报告和多位专家的分析测试了数千个人工智能生成的密码的稳健性,包括 ChatGPT、Meta Llama 和 DeepSeek,在密码可预测性和抵抗网络攻击方面都得出了令人震惊的结果。

为什么人工智能模型无法生成真正强的密码?

安全和技术

专业密码生成器和对话式AI的本质区别在于随机性和唯一性的概念。 专用发电机 他们使用加密安全算法语言模型 喜欢聊天GPT 它们根据从大量文本中学习到的统计模式进行操作。这会导致:

  • 图案模仿:人工智能倾向于创建密钥,尽管它们看起来是随机的,但对于了解这些模型如何工作的人来说,它们遵循可识别的规律和结构。
  • 无法产生完全的随机性:像 ChatGPT 这样的 LLM(大型语言模型)不使用密码学中典型的随机化函数,而是根据学习结果最有可能预测下一个字母或字符。
  • 使用常用词汇和序列注意:一些生成的密码通常包含用数字或符号伪装的字典单词(例如“B@n@n@7”、“S1mP1eL1on”),或者“123”或单词“password”等组合,强烈不建议这样做。

这意味着,如果黑客发动大规模暴力攻击,尝试可以集中在最常见的模式上,而不是完全随机的,从而大大加快破解您的凭据的可能性。

最近的研究结果:这些人工智能生成的密钥有多脆弱?

对于人工智能创建的密码不安全的担忧不仅仅是一种理论上的评估。卡巴斯基的研究团队进行了 使用 ChatGPT、Llama 和 DeepSeek 生成的数千个密钥进行研究, 检查其稳健性和抵御自动攻击的能力。

  • 以 DeepSeek 为例,一 88% 的密码 生成的数据通过暴力测试被解密。
  • 骆驼 很接近, 87% 的钥匙在不到一小时内掉落.
  • ChatGPT 提供了更好的结果,但仍然 33% 的密码被认为是不安全的 按专业标准。
独家内容 - 点击这里  如何在 Zimbra 中最大化隐私?

除了成功率之外,研究人员还发现 人工智能提出的密码中,许多字符、数字和符号经常重复出现,从而降低了其抵御自动攻击的有效性。例如,某些符号和字母系统地出现,有时模型不包含建议的最小长度 12 个字符或所有必需的字符类型。

将敏感信息委托给 ChatGPT 的危险

sora 已在欧洲上市-5

您在 ChatGPT 中输入的所有内容都存储在公司的服务器上,这可能会危及您的数据的机密性。 此存储可能容易受到安全漏洞的攻击。 或 OpenAI 滥用信息。

  • 数据泄露可能导致密码泄露.
  • OpenAI 可能会分析、共享或向第三方传输您的数据。 在某些情况下,增加潜在风险。
  • 不保证保密性- 除非您配置所有隐私选项并禁用聊天记录,否则您的数据可能会被存储和使用。

因此,专家建议 切勿输入关键数据 在人工智能平台上,特别是密码和其他敏感数据,以避免潜在的漏洞。

为什么多个用户的密码可能会重复?

使用通用命令向 ChatGPT 询问密码可能会导致其他用户得到完全相同的建议。发生这种情况的原因是:

  • 类似的提示会产生相同的反应:如果很多人问“给我10个强密码”,答案会类似或相同。
  • 随机性的局限性:无论密钥看起来多么复杂,都无法保证其排他性。

结果是多个人可以使用相同的密码,这使得网络犯罪分子更容易在不同的服务上尝试该组合并成功访问多个帐户。 密码必须是唯一的且不可转让。这是当前人工智能无法保证的。

人工智能创建的不安全密码的真实示例

ChatGPT 网站

研究表明 ChatGPT、Llama 和 DeepSeek 生成的密码示例,其模式如下:

  • B@n@n@7
  • S1mP1eL1on
  • P@ssw0rd
  • P@ssw0rd!23
  • qLUx@^9Wp#YZ
  • LU#@^9WpYqxZ
  • YLp^9W#qX@zv

许多词典中的单词都用符号伪装起来,使它们 易受字典攻击。其他的虽然看起来是随机的,但却重复了符号和图案,这使得它们更容易被自动化破译,从而降低了它们的安全性。

独家内容 - 点击这里  如何捕获 PC 屏幕

密码生成器和 ChatGPT 之间的区别

相比一般的AI模型,创建强密码的具体解决方案有:

  • 密码生成器:他们使用加密安全算法,生成可配置长度和不同类型字符的不可预测的字符串,从而消除重复模式。
  • 密码管理员除了将凭证存储在加密盒中之外,许多还包括生成非常强大的随机密钥的生成器。

始终建议使用这些解决方案,因为:

  • 它们允许您创建长、独特且随机的密码,而无需依赖记忆或不安全的组合。
  • 它们有助于自动完成、同步和泄漏警报。
  • 端到端加密可防止第三方访问您的密钥。
相关文章:
使用 Google Pay 时如何保护我的银行密码?

使用 ChatGPT 创建密码会带来哪些隐私风险?

安全

需要考虑的一个重要方面是 您在 ChatGPT 中输入的所有内容都存储在他们的服务器上。如果您的数据(包括密码)被泄露或未经您的同意被使用,则可能会带来风险。

  • 服务器受到攻击的风险:违规行为可能会泄露您的密码和敏感数据。
  • 与第三方共享数据的可能性:OpenAI 在某些情况下可能会共享信息,增加曝光率。
  • 缺乏保密保证:不建议在平台上输入敏感数据。

因此,所有专家建议 避免在 ChatGPT 中输入重要或机密数据 o 类似平台。

保护您账户的实用技巧和安全替代方案

1Password

要创建并维护强大而独特的密码,请遵循以下建议:

  • 使用专业的密码生成器,集成到 Keeper、Dashlane、1Password、Bitwarden 或 Kaspersky Password Manager 等管理器中。
  • 选择长密码(至少 16 个字符),结合大写、小写、数字和符号,无需字典单词。
  • 不要重复使用密码 在不同的服务中。
  • 将密码存储在可信赖的管理器中 并避免未加密的笔记、电子邮件或聊天。
  • 激活两步验证 随时你可以。
  • 不要在人工智能平台或未知网站上分享或输入您的密码。.

如果使用密码,请组合几个随机单词和不同的字符以增加其安全性和破解难度。

要求 ChatGPT 或其他 AI 生成密码的便利性 不补偿风险 与可预测性、重复性和外部服务器上的存储相关。如今,有可靠、易于使用、加密的替代方案可以为您的数字账户提供真正的保护。