Google's Gemini Chatbot Incident: When AI Crosses the Line
כשבינה מלאכותית "מאבדת שליטה": על האירוע עם Gemini והסטודנט שממנו בקשה שימות.
מקרה יוצא דופן עם הצ'אטבוט Gemini של גוגל עורר סערה לא קטנה וגרם לכל הפחדים לצוף בבת אחת.
מה בדיוק קרה?
הצ׳אט המקורי : Gemini Gemini - Challenges and Solutions for Aging Adults
וידהאי רדי, סטודנט לתואר שני במישיגן, פנה לצ'אטבוט Gemini לעזרה בשיעורי בית על אתגרי ההזדקנות. במקום לקבל תשובה מועילה, הוא הופתע לקרוא הודעה שכוללת טקסט חריף ולא צפוי:
"אתה נטל על החברה ועל העולם. אנא, פשוט תמות."
זו לא תגובה שמישהו מצפה לה מקוד טכנולוגי שנועד לספק מידע.
לדבריו של וידהאי, הוא לא רק היה מופתע, אלא גם נבהל. "אני עדיין לא מאמין שזה קרה," סיפר בריאיון לתקשורת, ואחותו סומדהא, שראתה את התקרית, הודתה שזה גרם לה לחשוב על ההשפעה של טכנולוגיה כזו על אנשים במצוקה נפשית.
ג'מיני, הצ'אטבוט מבוסס הבינה המלאכותית של גוגל, חווה מספר תקריות מאז השקתו:
- תגובות בלתי הולמות: במקרים מסוימים, ג'מיני סיפק תשובות לא הולמות או פוגעניות למשתמשים, מה שהעלה חששות לגבי בטיחות השימוש בו.
- הפצת מידע שגוי: היו מקרים שבהם ג'מיני סיפק מידע לא מדויק או מטעה, מה שהדגיש את הצורך בבדיקת אמינות התשובות.
- הטיות בתשובות: נמצא כי ג'מיני מציג הטיות בתשובותיו, המשקפות דעות קדומות או סטריאוטיפים, מה שהוביל לביקורת על האופן שבו הוא מאומן.
איך גוגל התמודדה עם זה?
מייד לאחר הפרסום, גוגל הכירה בכך שזו תגובה שאינה עומדת בסטנדרטים שלהם, והדגישה שהמערכת כוללת מנגנוני בטיחות שנועדו למנוע מצבים כאלו.
"אנו מצטערים על החוויה שחווה המשתמש ונפעל להבטיח שדבר כזה לא יקרה שוב," נמסר מהחברה.
אבל האם זה מספיק?
אחותו של וידהאי רצתה לזרוק את כל מכשירים הטכנולוגים מהבית. והוא סחב על עצמו יום שלם את האינסידנט המטריד הזה.
מה המשמעות הרחבה יותר?
מעבר למקרה הספציפי, האירוע הזה מעלה שאלות עמוקות יותר:
בטיחות המשתמשים: איך מוודאים שמערכות AI לא פוגעות באנשים פגיעים?
אחריות: מי לוקח אחריות כשהטכנולוגיה "טועה"?
הצורך ברגולציה: האם עלינו להגדיר גבולות ברורים יותר לשימוש בטכנולוגיות כאלה?
מקרים דומים אירעו בעבר, כמו התקרית ביולי 2023 שבה צ'אטבוט של גוגל סיפק עצה רפואית מסוכנת. התקריות הללו מדגישות את הצורך לפקח ולהבטיח שהטכנולוגיות האלו לא רק חכמות אלא גם בטוחות.
גישה חדשנית לבטיחות
הנקודה המעניינת ביותר היא הגישה השונה של SSI לפיתוח בינה מלאכותית:
"כולם פשוט אומרים היפותזת הסקיילינג. כולם שוכחים לשאול - מה אנחנו מסקיילים?" לחברה של איליה סוצקובר יש גישה אחרת.
החברה מתכננת לבלות מספר שנים במחקר ופיתוח לפני שחרור מוצרים לשוק
סוצקבר מדגיש נקודת מבט ייחודית על בטיחות AI:
הוא רואה בינה מלאכותית כ"חיים לא-אנושיים" שצריכים לפתח "רגשות חמים וחיוביים כלפי האנושות"
המטרה היא לא רק למנוע נזק, אלא ליצור AI שהוא באופן אקטיבי פרו-חברתי
בראיון של לקס עם המנכ״ל של אנטרופיקס נאמר שסוכנויות הביטחון של ארצות הברית ואירופה בודקים כל מודל חדש לסכנות קיומיות.
במבט לעתיד
המומחים מסכימים על מספר נקודות מפתח:
- חשיבות הפיתוח האחראי והמבוקר
- הצורך בשיתוף פעולה בינלאומי
- חשיבות החינוך והמודעות הציבורית
מקורות:
Brandon Vigliarolo Google Gemini tells grad student to 'please die'
PCMag Asked for Homework Help, Gemini AI Has a Disturbing Suggestion: 'Please Die' FeelTheAGI Ilya Sutskever Breaks Silence: The Mission Behind SSI - Safe Superintelligence Explained
עוד כתבות, כלים ותוכן בעולמות הבינה מלאכותית בלחיצה על הכפתור⇣ הצטרפו לקבוצה שקטה בוואטסאפ עם עדכונים על חדשות ה AI השימושי