グーグルは上院議員の苦情を受けてジェマをAIスタジオから削除した

最終更新: 04/11/2025

  • Google は AI Studio から Gemma モデルを削除し、その使用を API ベースの開発者に制限しました。
  • マーシャ・ブラックバーン上院議員は、AIが性的違法行為の虚偽の告発を生み出したと主張している。
  • Googleは開発者向けツールの不正使用を主張し、幻覚の課題を認めている
  • この事件は、AIにおける偏見、名誉毀損、責任に関する政治的、法的議論を再燃させた。

Googleの人工知能と上院議員

Googleの決定 モデルを撤回する AIスタジオプラットフォームのジェマ これは、米国上院議員マーシャ・ブラックバーン氏による正式な苦情を受けてのものであり、同氏は次のように主張している。 AIは彼に対して虚偽の告発を生成したこの事件により、生成システムの限界と、モデルが有害な情報を生み出した場合のテクノロジー企業の責任についての議論が再燃した。

Gemmaは、汎用的なコンシューマーアシスタントではなく、開発者向けの軽量モデルのセットとして考案されました。それでも、 ユーザーはAI Studioを通じてアクセスした y 彼らは事実に関する質問をするためにそれを使いましたそれは 捏造された回答と存在しないリンク.

何が起こり、論争はどのようにして始まったのか

ジェマ・アイ・グーグル

上院議員の見解によれば、「マーシャ・ブラックバーンは強姦容疑で告発されたのか?" ジェマは詳細だが虚偽の説明を返しただろう この事件は1987年の州上院選挙運動中に起きたとされ、麻薬や 存在しなかった非合意行為同国会議員自身は、自身の選挙運動は1998年のものであり、そのような非難を受けたことは一度もないと明言した。

限定コンテンツ - ここをクリックしてください  Googleスプレッドシートで単語をハイライト表示する方法

AIの対応には、 エラーページにつながるリンク あるいは無関係なニュース記事が、あたかも証拠であるかのように提示される。この点は特にデリケートな問題である。 「幻覚」を検証可能なものとして認識されるものに変えるたとえそうでなかったとしても。

Googleの反応とGemmaのアクセスの変更

GoogleのAIモデルと上院議員

論争の後、 Googleは、AI Studioで開発者以外のユーザーがGemmaを使用しようとした試みを検出したと説明した。事実関係の調査を行った。したがって、 AI Studio の一般公開から Gemma を削除し、API 経由でのみアクセスできるようにします。 アプリケーションを構築する人向け。

同社は、 Gemma は「開発者中心」のモデルであり、Gemini のような消費者向けチャットボットではありません。したがって、これはファクトチェッカーとして設計されておらず、特定の情報検索ツールも備えていません。同社の言葉を借りれば、 幻覚は業界全体にとっての課題である そして、それらを軽減するために積極的に取り組んでいます。

限定コンテンツ - ここをクリックしてください  Google ドキュメントでオンラインで書く方法

この変化は、 チャットタイプのインターフェースはなくなります。 AI Studio for Gemma では、その使用は API によって制御される開発環境と統合に制限されており、開発者は追加の保護と検証を行う必要があります。

偏見と名誉毀損に関する法的側面と政治的議論

GoogleのAIと上院議員に関する政治的議論

ブラックバーンはグーグルのCEOサンダー・ピチャイに手紙を送り、起こったことは無害なミスではなく、 AIモデルによって生成された名誉毀損上院議員は、コンテンツがどのように生成されたか、政治的またはイデオロギー的な偏見を最小限に抑えるためにどのような対策が講じられているか、また、重複を防ぐためにどのような措置が講じられるかについて説明を求め、回答を受け取る期限も設定した。

上院商務委員会の公聴会で、下院議員はグーグルの政府関係・公共政策担当副社長、マーカム・エリクソン氏にもこの問題を提起した。 同氏は幻覚が既知の問題であることを認め、同社がそれを軽減するために取り組んでいると述べた。この事件により、モデルが著名人の評判を傷つけた場合の企業の責任に注目が集まっている。

限定コンテンツ - ここをクリックしてください  Googleドライブの履歴を削除する方法

論争は激化し、 保守派が引用する他のエピソード、のように 活動家ロビー・スターバックその 彼は、ジェマによって重大犯罪や過激主義と誤って結び付けられたと主張している。。この文脈では、 偏見の可能性についての議論が再燃 AI システムにおけるセキュリティ フレームワーク、監視、および損害が発生した場合の救済手段の必要性について説明します。

この事例は、党派的な立場を超えて、公衆との交流を目的としないモデルは 一般的なアシスタントと誤解される開発プロトタイプと一般向け製品との境界が曖昧になり、生成されたものが検証済み情報として受け取られると明らかなリスクが生じます。

ジェマのAIスタジオからの撤退とAPIマークへの拘束 モデルの使用をそれが考案された分野に向け直す試み、また、次のような疑問も生じている。 真実性、安全策、説明責任の基準 AI が実際の人々、特に公務員の評判にいつ影響を与えるかを規定するべきです。