גוגל מסירה את ג'מה מסטודיו הבינה המלאכותית לאחר תלונה של סנאטור

עדכון אחרון: 04/11/2025
מְחַבֵּר: אלברטו נבארו

  • גוגל מסירה את מודל ג'מה מ-AI Studio ומגבילה את השימוש בו למפתחים מבוססי API.
  • הסנאטורית מרשה בלקבורן טוענת כי בינה מלאכותית יצרה האשמות שווא על התנהגות מינית בלתי הולמת
  • גוגל טוענת לשימוש לרעה בכלי המיועד למפתחים ומכירה באתגר ההזיות.
  • המקרה מצית מחדש את הוויכוח הפוליטי והמשפטי על הטיה, לשון הרע ואחריות בבינה מלאכותית.

הבינה המלאכותית והסנאטור של גוגל

החלטת גוגל ל משוך את המודל שלך ג'מה מפלטפורמת AI Studio זה מגיע לאחר תלונה רשמית של הסנאטורית האמריקאית מרשה בלקבורן, שטוענת כי הבינה המלאכותית יצרה נגדו האשמות שוואהפרק הצית מחדש את הדיון על גבולותיהן של מערכות יצירתיות ועל אחריותן של חברות טכנולוגיה כאשר מודל מייצר מידע מזיק.

ג'מה נתפסה כמערכת של מודלים קלים המיועדים למפתחים, ולא כעוזר צרכני כללי. למרות זאת, משתמשים ניגשו אליו דרך AI Studio y הם השתמשו בזה כדי לשאול שאלות עובדתיותאשר היה מוביל ל תשובות מפוברקות וקישורים לא קיימים.

מה קרה וכיצד נוצרה המחלוקת

ג'מה בגוגל

לפי גרסת הסנאטור, כאשר נשאל "האם מרשה בלקבורן הואשמה באונס?”, ג'מה הייתה מחזירה דיווח מפורט אך כוזב אשר מיקם את האירועים במהלך קמפיין לסנאט של המדינה בשנת 1987, וכלל לחץ לכאורה להשיג סמים ו מעשים לא בהסכמה שמעולם לא היו קיימיםחברת הפרלמנט עצמה הבהירה כי הקמפיין שלה היה בשנת 1998 וכי מעולם לא קיבלה האשמה כזו.

תוכן בלעדי - לחץ כאן  GPT-4.5 עולה בהרבה על מבחן טיורינג: מה המשמעות של אבן דרך זו באבולוציה של בינה מלאכותית?

תגובת הבינה המלאכותית הייתה משלבת גם קישורים שהובילו לדפי שגיאה או ידיעות לא קשורות, המוצגות כאילו היו ראיות. נקודה זו רגישה במיוחד משום הופך "הזיה" למשהו שנתפס כניתן לאימות, גם אם זה לא.

תגובת גוגל והשינויים בגישה של ג'מה

מודל הבינה המלאכותית והסנאטור של גוגל

בעקבות המחלוקת, גוגל הסבירה כי זיהתה ניסיונות להשתמש בג'מה על ידי אנשים שאינם מפתחים ב-AI Studio.עם בירורים עובדתיים. לכן, היא החליטה הסר את Gemma מגישה ציבורית ב-AI Studio ושמור אותה זמינה באופן בלעדי דרך ממשקי API למי שבונה אפליקציות.

החברה הדגישה כי ג'מה היא מודל של "מפתחים קודם כל" ולא צ'אטבוט צרכני כמו ג'מיני.לכן, הוא אינו מיועד לבדיקת עובדות וגם אין בו כלים ספציפיים לאחזור מידע. במילות החברה, הזיות הן אתגר לכל התעשייה והם פועלים באופן פעיל כדי לצמצם אותם.

תוכן בלעדי - לחץ כאן  Xbox מציגה את Copilot for Gaming: הבינה המלאכותית שתשנה את חווית המשחק

שינוי זה מרמז על כך לא יהיה יותר ממשק בסגנון צ'אט. ב-AI Studio עבור Gemma; השימוש בו מוגבל לסביבות פיתוח ואינטגרציות הנשלטות על ידי ממשקי API, הקשר שבו המפתח נוטל על עצמו אמצעי הגנה ואימותים נוספים.

המימד המשפטי והוויכוח הפוליטי על הטיה והוצאת דיבה

ויכוח פוליטי על הבינה המלאכותית של גוגל והסנאטור

בלקברן שלח מכתב למנכ"ל גוגל, סונדר פיצ'אי, ובו תיאר את מה שקרה לא כטעות בלתי מזיקה, אלא כ... הוצאת דיבה שנוצרה על ידי מודל בינה מלאכותיתהסנאטור ביקש הסברים כיצד נוצר התוכן, אילו אמצעים קיימים כדי למזער הטיות פוליטיות או אידיאולוגיות, ואילו פעולות יינקטו כדי למנוע חזרות, וכן קבע מועד אחרון לקבלת התגובה.

במהלך דיון בוועדת המסחר של הסנאט, חברת הקונגרס העלתה את הנושא גם בפני סגן נשיא גוגל לענייני ממשל ומדיניות ציבורית, מרקהאם אריקסון, אשר... הוא הודה כי הזיות הן בעיה ידועה וציין כי החברה פועלת כדי לצמצם אותן.המקרה העצים את הדגש על אחריותן של חברות כאשר המודלים שלהן פוגעים במוניטין של אנשי ציבור.

תוכן בלעדי - לחץ כאן  השתמש ב-Windows Copilot ב-Mac: מדריך אינטגרציה מלא

המחלוקת התעצמה עם פרקים אחרים שצוטטו על ידי שמרנים, כמו זה של האקטיביסט רובי סטארבק, ש הוא טוען שג'מה קישרה אותו באופן שקרי לפשעים חמורים וקיצוניות. En este contexto, הדיון על הטיות אפשריות מתעורר מחדש במערכות בינה מלאכותית והצורך במסגרות אבטחה, ניטור ודרכי סליקה כאשר מתרחש נזק.

מעבר לעמדות מפלגתיות, המקרה מדגיש שמודלים שלא תוכננו לאינטראקציה ציבורית יכולים להיות לא הובנו כעוזרים כללייםטשטוש הגבול בין פיתוח אבות טיפוס לבין מוצרים לציבור הרחב, עם סיכונים ברורים אם מה שנוצר נחשב למידע מאומת.

פרישתה של ג'מה מ-AI Studio והסתגרותה בשוק ה-API ניסיון להפנות את השימוש במודל לתחום שלשמו הוא תוכנן, תוך העלאת שאלות גם לגבי סטנדרטים של אמת, אמצעי הגנה ואחריות שצריכה לשלוט מתי בינה מלאכותית משפיעה על המוניטין של אנשים אמיתיים, במיוחד עובדי ציבור.