گوگل پس از شکایت یک سناتور، جما را از استودیوی هوش مصنوعی خود حذف کرد.

اخرین بروزرسانی: 04/11/2025

  • گوگل مدل Gemma را از AI Studio حذف کرده و استفاده از آن را به توسعه‌دهندگان مبتنی بر API محدود می‌کند.
  • سناتور مارشا بلکبرن مدعی است که هوش مصنوعی اتهامات دروغین سوء رفتار جنسی را مطرح کرده است.
  • گوگل مدعی سوءاستفاده از ابزاری است که برای توسعه‌دهندگان در نظر گرفته شده و چالش توهم را تصدیق می‌کند.
  • این پرونده، بحث‌های سیاسی و حقوقی در مورد تعصب، افترا و مسئولیت در هوش مصنوعی را دوباره شعله‌ور می‌کند.

هوش مصنوعی گوگل و سناتور

تصمیم گوگل برای مدل خود را پس بگیرید جما از پلتفرم AI Studio این پس از شکایت رسمی سناتور آمریکایی مارشا بلکبرن صورت می‌گیرد که ادعا می‌کند... هوش مصنوعی اتهامات دروغینی علیه او مطرح کرداین ماجرا بحث در مورد محدودیت‌های سیستم‌های مولد و مسئولیت شرکت‌های فناوری در زمانی که یک مدل اطلاعات مضر تولید می‌کند را دوباره داغ کرده است.

جما به عنوان مجموعه‌ای از مدل‌های سبک وزن برای توسعه‌دهندگان در نظر گرفته شده بود، نه به عنوان یک دستیار مصرف‌کننده‌ی همه منظوره. با این حال، کاربران از طریق AI Studio به آن دسترسی داشتند y آنها از آن برای پرسیدن سوالات واقعی استفاده کردندکه منجر به پاسخ‌های ساختگی و لینک‌های ناموجود.

چه اتفاقی افتاد و جنجال چگونه آغاز شد؟

جما با گوگل

طبق روایت سناتور، وقتی از او پرسیده شد «آیا مارشا بلکبرن به تجاوز جنسی متهم شده است؟" جما می‌توانست گزارشی مفصل اما نادرست ارائه دهد که این وقایع را در جریان مبارزات انتخاباتی سنای ایالتی در سال ۱۹۸۷ قرار داد، و شامل فشارهای ادعایی برای تهیه مواد مخدر و اعمال غیر توافقی که هرگز وجود نداشته‌اندخود این نماینده مجلس توضیح داد که مبارزات انتخاباتی او مربوط به سال ۱۹۹۸ بوده و هرگز چنین اتهامی به او وارد نشده است.

محتوای اختصاصی - اینجا را کلیک کنید  نحوه محاسبه خطای استاندارد در Google Sheets

پاسخ هوش مصنوعی نیز شامل می‌شد لینک‌هایی که به صفحات خطا منتهی می‌شدند یا اخبار نامرتبط، که طوری ارائه می‌شوند که گویی مدرک هستند. این نکته به ویژه حساس است زیرا یک «توهم» را به چیزی تبدیل می‌کند که قابل اثبات تلقی می‌شودحتی اگر اینطور نباشد.

واکنش گوگل و تغییرات در دسترسی جما

مدل هوش مصنوعی گوگل و سناتور

در پی جنجال‌های به وجود آمده، گوگل توضیح داد که تلاش‌هایی برای استفاده از Gemma توسط افراد غیر توسعه‌دهنده در AI Studio شناسایی کرده است.با تحقیقات واقعی. بنابراین، تصمیم گرفت Gemma را از دسترسی عمومی در AI Studio حذف کنید و آن را منحصراً از طریق APIها در دسترس نگه دارید. برای کسانی که اپلیکیشن می‌سازند.

این شرکت تأکید کرد که جما یک مدل «توسعه‌دهنده‌محور» است و مانند جمینی یک چت‌بات مصرف‌کننده نیست.بنابراین، این برنامه نه به عنوان یک بررسی‌کننده‌ی حقایق طراحی شده و نه ابزار بازیابی اطلاعات خاصی دارد. به گفته‌ی این شرکت، توهمات، چالشی برای کل صنعت هستند و آنها به طور فعال برای کاهش آنها تلاش می کنند.

محتوای اختصاصی - اینجا را کلیک کنید  نحوه اضافه کردن اعداد رومی در Google Docs

این تغییر حاکی از آن است که دیگر رابط کاربری از نوع چت وجود نخواهد داشت. در استودیوی هوش مصنوعی برای Gemma؛ استفاده از آن محدود به محیط‌های توسعه و یکپارچه‌سازی‌های کنترل‌شده توسط APIها است، زمینه‌ای که در آن توسعه‌دهنده، اقدامات حفاظتی و اعتبارسنجی‌های اضافی را بر عهده می‌گیرد.

ابعاد حقوقی و بحث سیاسی در مورد تعصب و افترا

بحث سیاسی درباره هوش مصنوعی گوگل و سناتور

بلکبرن نامه‌ای به مدیرعامل گوگل، ساندار پیچای، ارسال کرد و آنچه اتفاق افتاده را نه یک اشتباه بی‌ضرر، بلکه ... توصیف کرد. افترا تولید شده توسط یک مدل هوش مصنوعیسناتور درخواست توضیحاتی در مورد چگونگی تولید محتوا، اقدامات موجود برای به حداقل رساندن سوگیری‌های سیاسی یا ایدئولوژیک، و اقداماتی که برای جلوگیری از تکرار انجام خواهد شد، کرد و همچنین مهلتی برای دریافت پاسخ تعیین نمود.

این نماینده کنگره در جریان جلسه استماع کمیته بازرگانی سنا، این موضوع را با مارکهام اریکسون، معاون رئیس امور دولتی و سیاست عمومی گوگل، نیز مطرح کرد. او اذعان کرد که توهمات یک مشکل شناخته شده هستند و خاطرنشان کرد که این شرکت در تلاش است تا آنها را کاهش دهد.این پرونده تمرکز بر مسئولیت شرکت‌ها را در مواردی که مدل‌هایشان به اعتبار چهره‌های عمومی آسیب می‌رساند، تشدید کرده است.

محتوای اختصاصی - اینجا را کلیک کنید  نحوه حذف درخواست دسترسی در گوگل درایو

جنجال‌ها شدت گرفت سایر مواردی که محافظه‌کاران به آنها استناد کرده‌اند، مانند آن رابی استارباک، فعال حقوق بشرکه او ادعا می‌کند که جما به دروغ او را به جرایم جدی و افراط‌گرایی مرتبط دانسته است.. در این زمینه، بحث در مورد سوگیری‌های احتمالی دوباره داغ شده است در سیستم‌های هوش مصنوعی و نیاز به چارچوب‌های امنیتی، نظارت و مسیرهای جبران خسارت در هنگام وقوع آسیب.

فراتر از مواضع حزبی، این پرونده برجسته می‌کند که مدل‌هایی که برای تعامل عمومی طراحی نشده‌اند، می‌توانند به عنوان دستیار عمومی اشتباه گرفته می‌شوندمحو کردن مرز بین نمونه‌های اولیه در حال توسعه و محصولات برای عموم مردم، و اگر آنچه تولید می‌شود به عنوان اطلاعات تأیید شده تلقی شود، خطرات آشکاری به همراه خواهد داشت.

کناره‌گیری جما از AI Studio و محدود شدن او به علامت API تلاشی برای تغییر مسیر استفاده از مدل به حوزه‌ای که برای آن طراحی شده است، ضمن اینکه سوالاتی را نیز مطرح می‌کند استانداردهای صداقت، تضمین‌ها و پاسخگویی این باید زمانی را که هوش مصنوعی بر اعتبار افراد واقعی، به ویژه مقامات دولتی، تأثیر می‌گذارد، کنترل کند.