- گوگل مدل Gemma را از AI Studio حذف کرده و استفاده از آن را به توسعهدهندگان مبتنی بر API محدود میکند.
- سناتور مارشا بلکبرن مدعی است که هوش مصنوعی اتهامات دروغین سوء رفتار جنسی را مطرح کرده است.
- گوگل مدعی سوءاستفاده از ابزاری است که برای توسعهدهندگان در نظر گرفته شده و چالش توهم را تصدیق میکند.
- این پرونده، بحثهای سیاسی و حقوقی در مورد تعصب، افترا و مسئولیت در هوش مصنوعی را دوباره شعلهور میکند.
تصمیم گوگل برای مدل خود را پس بگیرید جما از پلتفرم AI Studio این پس از شکایت رسمی سناتور آمریکایی مارشا بلکبرن صورت میگیرد که ادعا میکند... هوش مصنوعی اتهامات دروغینی علیه او مطرح کرداین ماجرا بحث در مورد محدودیتهای سیستمهای مولد و مسئولیت شرکتهای فناوری در زمانی که یک مدل اطلاعات مضر تولید میکند را دوباره داغ کرده است.
جما به عنوان مجموعهای از مدلهای سبک وزن برای توسعهدهندگان در نظر گرفته شده بود، نه به عنوان یک دستیار مصرفکنندهی همه منظوره. با این حال، کاربران از طریق AI Studio به آن دسترسی داشتند y آنها از آن برای پرسیدن سوالات واقعی استفاده کردندکه منجر به پاسخهای ساختگی و لینکهای ناموجود.
چه اتفاقی افتاد و جنجال چگونه آغاز شد؟
طبق روایت سناتور، وقتی از او پرسیده شد «آیا مارشا بلکبرن به تجاوز جنسی متهم شده است؟" جما میتوانست گزارشی مفصل اما نادرست ارائه دهد که این وقایع را در جریان مبارزات انتخاباتی سنای ایالتی در سال ۱۹۸۷ قرار داد، و شامل فشارهای ادعایی برای تهیه مواد مخدر و اعمال غیر توافقی که هرگز وجود نداشتهاندخود این نماینده مجلس توضیح داد که مبارزات انتخاباتی او مربوط به سال ۱۹۹۸ بوده و هرگز چنین اتهامی به او وارد نشده است.
پاسخ هوش مصنوعی نیز شامل میشد لینکهایی که به صفحات خطا منتهی میشدند یا اخبار نامرتبط، که طوری ارائه میشوند که گویی مدرک هستند. این نکته به ویژه حساس است زیرا یک «توهم» را به چیزی تبدیل میکند که قابل اثبات تلقی میشودحتی اگر اینطور نباشد.
واکنش گوگل و تغییرات در دسترسی جما

در پی جنجالهای به وجود آمده، گوگل توضیح داد که تلاشهایی برای استفاده از Gemma توسط افراد غیر توسعهدهنده در AI Studio شناسایی کرده است.با تحقیقات واقعی. بنابراین، تصمیم گرفت Gemma را از دسترسی عمومی در AI Studio حذف کنید و آن را منحصراً از طریق APIها در دسترس نگه دارید. برای کسانی که اپلیکیشن میسازند.
این شرکت تأکید کرد که جما یک مدل «توسعهدهندهمحور» است و مانند جمینی یک چتبات مصرفکننده نیست.بنابراین، این برنامه نه به عنوان یک بررسیکنندهی حقایق طراحی شده و نه ابزار بازیابی اطلاعات خاصی دارد. به گفتهی این شرکت، توهمات، چالشی برای کل صنعت هستند و آنها به طور فعال برای کاهش آنها تلاش می کنند.
این تغییر حاکی از آن است که دیگر رابط کاربری از نوع چت وجود نخواهد داشت. در استودیوی هوش مصنوعی برای Gemma؛ استفاده از آن محدود به محیطهای توسعه و یکپارچهسازیهای کنترلشده توسط APIها است، زمینهای که در آن توسعهدهنده، اقدامات حفاظتی و اعتبارسنجیهای اضافی را بر عهده میگیرد.
ابعاد حقوقی و بحث سیاسی در مورد تعصب و افترا

بلکبرن نامهای به مدیرعامل گوگل، ساندار پیچای، ارسال کرد و آنچه اتفاق افتاده را نه یک اشتباه بیضرر، بلکه ... توصیف کرد. افترا تولید شده توسط یک مدل هوش مصنوعیسناتور درخواست توضیحاتی در مورد چگونگی تولید محتوا، اقدامات موجود برای به حداقل رساندن سوگیریهای سیاسی یا ایدئولوژیک، و اقداماتی که برای جلوگیری از تکرار انجام خواهد شد، کرد و همچنین مهلتی برای دریافت پاسخ تعیین نمود.
این نماینده کنگره در جریان جلسه استماع کمیته بازرگانی سنا، این موضوع را با مارکهام اریکسون، معاون رئیس امور دولتی و سیاست عمومی گوگل، نیز مطرح کرد. او اذعان کرد که توهمات یک مشکل شناخته شده هستند و خاطرنشان کرد که این شرکت در تلاش است تا آنها را کاهش دهد.این پرونده تمرکز بر مسئولیت شرکتها را در مواردی که مدلهایشان به اعتبار چهرههای عمومی آسیب میرساند، تشدید کرده است.
جنجالها شدت گرفت سایر مواردی که محافظهکاران به آنها استناد کردهاند، مانند آن رابی استارباک، فعال حقوق بشرکه او ادعا میکند که جما به دروغ او را به جرایم جدی و افراطگرایی مرتبط دانسته است.. در این زمینه، بحث در مورد سوگیریهای احتمالی دوباره داغ شده است در سیستمهای هوش مصنوعی و نیاز به چارچوبهای امنیتی، نظارت و مسیرهای جبران خسارت در هنگام وقوع آسیب.
فراتر از مواضع حزبی، این پرونده برجسته میکند که مدلهایی که برای تعامل عمومی طراحی نشدهاند، میتوانند به عنوان دستیار عمومی اشتباه گرفته میشوندمحو کردن مرز بین نمونههای اولیه در حال توسعه و محصولات برای عموم مردم، و اگر آنچه تولید میشود به عنوان اطلاعات تأیید شده تلقی شود، خطرات آشکاری به همراه خواهد داشت.
کنارهگیری جما از AI Studio و محدود شدن او به علامت API تلاشی برای تغییر مسیر استفاده از مدل به حوزهای که برای آن طراحی شده است، ضمن اینکه سوالاتی را نیز مطرح میکند استانداردهای صداقت، تضمینها و پاسخگویی این باید زمانی را که هوش مصنوعی بر اعتبار افراد واقعی، به ویژه مقامات دولتی، تأثیر میگذارد، کنترل کند.
من یک علاقه مند به فناوری هستم که علایق "گیک" خود را به یک حرفه تبدیل کرده ام. من بیش از 10 سال از زندگی خود را صرف استفاده از فناوری های پیشرفته و سرهم بندی کردن انواع برنامه ها از روی کنجکاوی کرده ام. اکنون در زمینه فناوری رایانه و بازی های ویدیویی تخصص دارم. این به این دلیل است که بیش از 5 سال است که برای وب سایت های مختلف در زمینه فناوری و بازی های ویدیویی می نویسم و مقالاتی را ایجاد می کنم که به دنبال ارائه اطلاعات مورد نیاز شما به زبانی قابل فهم برای همه هستند.
اگر سوالی دارید، دانش من از همه چیز مربوط به سیستم عامل ویندوز و همچنین اندروید برای تلفن های همراه است. و تعهد من به شماست، من همیشه حاضرم چند دقیقه وقت بگذارم و به شما کمک کنم تا هر سوالی را که ممکن است در این دنیای اینترنتی داشته باشید حل کنید.