טוב זה ברור שיש סכנות בבינה מלאכותית אבל אנחנו מאמינים שיותר כדאי להתמקד במחקר. ואם כבר סכנות אז בואו נתייג אותם ונבין במה הן מתבטאות.
"האם A.I. יהפוך למקינזי החדש?
במאמר של ניו יורקר שכותרתו " המחבר מציג נקודת מבט חדשה על הסיכונים הפוטנציאליים הקשורים לבינה מלאכותית (AI). המחבר טוען כי במקום המטאפורה הנפוצה של AI להיות דומה לג'יני שמגשים כל משאלה שלנו, אנלוגיה מתאימה יותר היא שבינה מלאכותית דומה לחברת ייעוץ ניהולי כמו McKinsey & Company. המטאפורה הזו משכנעת כי היא מבטאת את החששות לגבי AI המשמש ככלי על ידי חברות להתחמק מאחריות למעשיהן, בדומה לאופן שבו חברות ייעוץ ניהולי מציעות את שירותיהן כדי להשיג את יעדי החברה מבלי ללכלך את ידיהן1.
לאחר מכן, המאמר מעלה שאלה מעוררת מחשבה: האם נוכל למנוע מ-AI להפוך לגרסה נוספת של מקינזי? השאלה היא משמעותית שכן היא נוגעת להשפעות החברתיות-כלכליות הרחבות יותר של AI. המאמר בוחן את הרעיון של AI לא רק כטכנולוגיה, אלא גם כמערכת שעלולה להנציח אי-שוויון ופגיעה חברתית אם היא משמשת בעיקר להגדלת ערך בעלי המניות ולהחלפת העבודה האנושית.
המחבר גם עוסק באופן ביקורתי ביחסים בין בינה מלאכותית לקפיטליזם, בטענה שבינה מלאכותית מחזקת כיום את הקפיטליזם על ידי סיוע להון על חשבון העבודה. המאמר קורא תיגר על הרעיון של AI כטכנולוגיה ניטרלית וקורא לדמיין מחדש כיצד ניתן להשתמש בבינה מלאכותית כדי להפחית את ריכוז העושר, במקום להחמיר אותו.
לבסוף, המאמר מציע ביקורת על הרעיון הרווח בקהילת הבינה המלאכותית שהכנסה בסיסית אוניברסלית (UBI) היא הפתרון לאבטלה הנגרמת על ידי בינה מלאכותית. המחבר מציע שהטיעון הזה מאפשר למפתחים בינה מלאכותית להעביר את הכסף לממשלה, ובעצם מגביר את הבעיות של הקפיטליזם עם הציפייה שהממשלה תתערב כשהן יהיו בלתי נסבלות.
החוזקות כאן במטאפורות החדשות שלו, בשאלות מעוררות מחשבה ובעיסוק ביקורתי בהשפעות החברתיות-כלכליות של בינה מלאכותית. הבנה פשטנית של AI ככלי טכנולוגי ובמקום זאת ממסגר אותו בתוך מבנים סוציו-אקונומיים גדולים יותר, ומעלה שיקולים אתיים חשובים לגבי פריסה והשפעה של AI.
למאמר המלא כאן. 4.5.23
תציגו דוגמאות - כיצד הבינה תשמיד את האנושות
במאמר זה, חבורה של אנשים חכמים באמת שעובדים עם AI, או בינה מלאכותית, אומרים שהם מודאגים. הם חושבים ש-AI יכול להיות מסוכן, כמעט כמו אסטרואיד ענק שפוגע בכדור הארץ או מלחמה ענקית עם פצצות גרעיניות. הם אפילו מציעים שבינה מלאכותית עלולה לגרום לכל בני האדם להיעלם, וזו מחשבה די מפחידה!
אבל כותב המאמר, שהוא גם אדם חכם שעובד עם AI, באופן אישי חושב שהדאגות האלה קצת גדולות מדי ולא מספיק ברורות. זה כמו שאם מישהו אמר לך, "תיזהר, יש סכנה!" אבל לא אמר לך מה הסכנה או מאיפה היא מגיעה. איך תדע מה לעשות?
שבעוד AI יכול לגרום לבעיות, כמו העלמת כמה עבודות או הפצת מידע כוזב, לא ברור איך זה יגרום לכל בני האדם להיעלם. ואם אנשים הולכים לטעון ש-AI כל כך מסוכן, הם צריכים להסביר בדיוק איך זה יכול לקרות. אז, המחבר מסכים שאנחנו צריכים להיות זהירים עם AI, אבל גם חושב שאנחנו צריכים להיות ברורים וספציפיים לגבי הבעיות שיכולות להיות.
למאמר המלא כאן. 31.5.23
לדעת מגי אפלטון, ככל שכלים גנרטיביים של בינה מלאכותית יתרחבו, האינטרנט יאבד את רלוונטיותו, כאשר נתחיל להיות מאוד מזדהים לעצמנו לגבי אמת המציאות של האחר, ונתחיל לשאול את עצמנו אם מהצד השני של הממשק הדיגיטלי יש בכלל אדם אמיתי. זה עשוי להשפיע באופן דרמטי על איך אנו מקיימים אינטראקציה מקוונת, על כמות המידע המתפשטת באינטרנט, ועל מבנה האינטרנט באופן כללי.
Freedom GPT
והינה מגיע החופש להגיד מה שרוצים לצאט, בלי צנזורות ובלי להחסם.
זה לא לקח הרבה זמן להגיע, ומדובר בכלי שיושב על המחשב שלכם ולא שולח את השיחות לגורמי צד שלישי. זה מבוסס על המודל שפה של פייסבוק LLaMA
האינטרנט עלול להפוך למקום לא רלוונטי
מגי אפלטון מדברת על איך מחשבים נעשים טובים מאוד בלהעמיד פנים שהם בני אדם. הם יכולים לכתוב דברים כמו סיפורים, מיילים או פרסומות, ואפילו ליצור תמונות שנראות כמו תמונות אמיתיות! זה עשוי להקל על כמה משימות משעממות, כמו כתיבת מטלות בית ספר או יצירת תמונה לפרויקט. אבל, אנחנו גם צריכים לחשוב איך זה עשוי להציף את הרשת בדברים מלאכותיים שנעשו ע”י מחשב , ופחות בידי אנשים אמיתיים. וזה עלול להוביל לכך שאינטרנט יהפוך למקום לא רלבנטי, כולנו נהפוך לספקנים מאוד אחד לגבי המציאות של האחר, ונשאל את עצמנו האם בצד השני של הממשק הדיגיטלי ישנו בכלל בן אנוש. משתף את נקודת מבטה ורד חורש בקבוצת הפייסבוק הפופולרית עליית המכונות.
ג'רון לאניר הוא גורו טכנולוגיה מהמשפיעים בעולם, ממייסדי האינטרנט שחתום על המצאת המציאות המדומה. אבל הוא בעיקר מבקר חריף ומבריק של תעשיית הטכנולוגיה, אף שהוא עובד בכיר במיקרוסופט. בריאיון מאלף הוא מסביר למה אינו שותף לבהלה מבינה מלאכותית: "אין סכנה שישות חייזרית תשתלט עלינו דרך הטכנולוגיה, אלא שאנו נשתמש בטכנולוגיה באופן הרסני". איך נמנעים מזה? בעזרת עקבות דיגיטליים ומודל שפיתחו חכמי התלמוד