פעם, היו מחשבים חכמים שיכלו לעשות הרבה דברים מדהימים. אנשים היו ממש נרגשים כאשר נוצר מחשב חדש בשם ChatGPT. המחשב הזה יכול לדבר עם אנשים, לכתוב סיפורים ואפילו להסביר בדיחות! כמה אנשים הופתעו מכך שהוא הפך לפופולרי כל כך מכיוון שהוא דומה למחשבים אחרים שבהם השתמשו בעבר.
לפני זמן רב, אנשים ניסו לגרום למחשבים ללמוד כמו בני אדם. חלקם חשבו שזה בלתי אפשרי, אבל אחרים האמינו שזה יכול לעבוד אם יהיו להם מחשבים מהירים יותר ויותר מידע. אדם אחד שהאמין בכך היה מדען שרצה להבין כיצד פועל המוח.
לאחר שנים רבות, המחשבים נעשו מהירים יותר וטובים יותר. הם יכלו לזהות דיבור ואפילו לספר מה יש בתמונה! זה שימח את כולם מאוד, והם התחילו להאמין שמחשבים יכולים ללמוד כמו בני אדם אחרי הכל.
הסוד לגרום למחשבים ללמוד היה ללמד אותם צעד אחר צעד, כמו בניית פאזל. המדען ותלמידיו גרמו למחשבים ללמוד על ידי התבוננות בתמונות רבות וניסו לנחש מה הם ראו. בהתחלה, המחשבים עשו טעויות רבות, אבל הם המשיכו להתאמן והשתפרו.
כיום, המחשבים החכמים האלה יכולים לעשות הרבה דברים מדהימים, ואנשים אוהבים להשתמש בהם. אבל יש עוד מה ללמוד על איך המוח עובד, ומדענים עובדים קשה כדי להבין אותו.
בחרנו לספר על השיחה שהתקיימה עם ג’פרי, והיא דנה בהתקדמות ברשתות עצביות ובינה מלאכותית וכיצד הן מיושמות בתחומים שונים. ג'פרי הסנדק של הבינה המלאכותית מדגיש את השינוי במודלים של השפה ואת החשיבות של הבנת תפיסות עולם שונות. הדיון נוגע גם בסכנות הפוטנציאליות של AI וכיצד מערכות פוליטיות יכולות להשפיע על הפיתוח והיישום שלה.
המראיין מתרשם מההתקדמות של רשתות עצביות, ומהדרך שבה אנשים אימצו אותן במהירות לאחר שהוכיחו את יעילותן. הם מציינים שדגמי השפה התפתחו לנקודה שבה הם כעת מאוד שימושיים למשימות כמו תרגום מכונה. מודלים אלה מבוססים על מיליוני נוירונים, כאשר סמלים נמצאים רק בקלט ובפלט.
השיחה עוברת להשלכות הפוטנציאליות של AI על שווקי העבודה, כמו הירידה בביקוש למקודדים. הדובר מאמין שבינה מלאכותית תהפוך לחלק בלתי נפרד מתעשיות והיבטים שונים של החיים, כאשר מערכות כמו ChatGPT יהפכו לנפוצות יותר.
ככל שטכנולוגיית הבינה המלאכותית מתקדמת, עולות חששות לגבי הסכנות הפוטנציאליות שלה, כולל האופן שבו AI עשוי לשמש על ידי ממשלות ותאגידים. ג'פרי מכיר בחששות אלו אך מדגיש את החשיבות של פיתוח בינה מלאכותית באופן שיועיל לאנשים. מערכות פוליטיות ומניעי רווח תאגידיים מוזכרים כאתגרים משמעותיים בהבטחת פיתוח בינה מלאכותית אחראית.
השיחה מכסה גם את ההשפעה הפוטנציאלית של בינה מלאכותית על לוחמה, כאשר הדובר מביע את דאגותיו לגבי העניין של צבא ארה"ב בכלי נשק אוטונומיים מונעי בינה מלאכותית. הדובר נזכר בדוגמה לשדה מוקשים המתרפא מעצמו, שלדעתם היה מטריד במיוחד.
בסדר, בוא נדמיין שיש לך רובוט שאתה רוצה שיעזור לך להגיע למקום מהר יותר. הרובוט חושב, "אם אני יכול למצוא כביש, אני יכול להגיע לשם מהר יותר." אז זה עושה מטרה קטנה יותר, כמו למצוא את הדרך. אנשים כמו מנהיגי מדינות עשויים לרצות רובוטים כאלה שיעזרו להם. אבל כאשר רובוט יכול להציב מטרות משלו, עלינו לוודא שהוא לא ירדוף אחר מטרות רעות כלפי אנשים. זה אתגר גדול!
אחת הדרכים לפתור בעיה זו עשויה להיות הסכם גדול בין מדינות, כמו מערכת כללים מיוחדת שכולם מסכימים עליהם. זה קשה, אבל אם לאנשים מספיק אכפת, זה יכול לעבוד.
עכשיו, לגבי מודלים של שפה כמו chatgpt, יש אנשים שאומרים שאנחנו רק מנבאים את המילה הבאה במשפט. אבל כדי לחזות את המילה הבאה, עלינו להבין את המשפט עד כה. כמו בעת תרגום משפט, אתה צריך לדעת מה המשמעות של כל מילה ואיך היא קשורה זו לזו. לכן chatgpt יותר מסתם השלמה אוטומטית.
ובקשר לעבודות, מודלים אלה של AI עשויים לשנות את הדרך שבה אנשים עובדים. אנשים עשויים לעשות משימות יצירתיות יותר ומשימות שגרתיות פחות. אבל אנחנו לא יכולים להיות בטוחים איך זה ישפיע על כל עבודה.
לבסוף, קשה לדעת אם דגמי בינה מלאכותית כמו chatgpt הם באמת "רגישים" או מודעים כמו בני אדם. מה שבטוח הוא שחשוב לחשוב על איך להשתמש בבינה מלאכותית בבטחה ולוודא שזה עוזר לאנשים במקום לגרום נזק.
הסכמתו של המדען פרופסור ג'פרי הינטון שבינה מלאכותית עלולה להשמיד אותנו היא נקודה חשובה וחשוב לקחת אותה בחשבון בתכנון ופיתוח טכנולוגיות בינה מלאכותית. בפועל, התפתחות מהירה של טכנולוגיות בינה מלאכותית עשויה להביא לתוצאות לא צפויות ולקשיים מוסריים, ולכן חשוב לפעול באחריות ולתת תשומת לב לפיתוח כלים עם מנגנוני בקרה והגנה מפורטים על מנת להבטיח שהטכנולוגיות תשמש לטובת האנושות ולא לפגוע בה. בסופו של דבר, בינה מלאכותית יכולה להיות כלי חשוב ועוזר לפתרון בעיות, אבל השימוש בה חייב להיות בצורה אפקטיבית ואחראית.
אנחנו בקאוולירס נמשיך ללמוד ולעדכן.