בינה מלאכותית אינה מהווה סיכון קיומי לבני אדם

Image by Unsplash

This post is also available in: English (אנגלית)

בשנים האחרונות, ההתקדמות המהירה של בינה מלאכותית (AI) עוררה חששות לגבי עליית הטכנולוגיה על היכולות האנושיות, והסכנה שעלולה להוות לקיום האנושי. עם זאת, מחקר חדש מאוניברסיטת באת' והאוניברסיטה הטכנית של דרמשטדט בגרמניה שם סימן שאלה על חשש זה. על פי מחקר שהוצג ב-62nd Annual Meeting of the Association for Computational Linguistics (ACL 2024), מודלי שפה (LLM) אינם מהווים איום קיומי על האנושות. המחקר מצא כי לאור העובדה שמודלי שפה לא יכולים ללמוד באופן עצמאי או לרכוש מיומנויות חדשות ללא הדרכה מפורשת, זה מבטיח שהם יישארו ברי שליטה, צפויים, ובטוחים.

המחקר מדגיש כי על אף שמודלי שפה מיומנים בביצוע הוראות ולהפגין מיומנות במשימות מבוססות שפה, הם לא מחזיקים את היכולת לפתח מיומנויות חשיבה מורכבות באופן אוטונומי. למרות העובדה שהמודלים מאומנים על מערכי נתונים גדולים יותר ויותר, הם אינם צפויים להתפתח מעבר ליכולות הנוכחיות שלהם. ד"ר חריש טייאר מדבושי, מדען מחשבים מאוניברסיטת באת' ומחבר שותף של המחקר, מציין כי הפחד מ-AI כאיום על האנושות מסיט את תשומת הלב מנושאים דחופים יותר ומעכב את היתרונות הפוטנציאליים של הטכנולוגיה, על פי TechXplore.

בהובלתו של פרופ' אירינה גורביץ' מהאוניברסיטה הטכנית של דרמשטדט, צוות המחקר בחן את מה שמכונה "יכולות צצות" של LLM – משימות שלא הוכשרו במיוחד לביצוע. לדוגמה, LLM יכול לענות על שאלות על מצבים חברתיים ללא הכשרה מוקדמת, יכולת שנחשבה בעבר כדי להצביע על הבנה אינהרנטית של הקשרים כאלה. המחקר מגלה כי ביצועים אלה נובעים למעשה מ"למידה בהקשר" (ICL), שבו מודלים משתמשים בדוגמאות מסופקות להשלמת משימות.

הניסויים הנרחבים של הצוות הראו כי היכולות של LLM הן תוצאה של המיומנות שלהם בביצוע הוראות, בשילוב עם כישורי הזיכרון והשפה שלהם, ולא יכולת חשיבה מורכבת. ד"ר טייאר מדבושי התייחס לחששות שמודלים גדולים יותר עלולים לפתח יכולות מסוכנות כמו חשיבה או תכנון, והדגיש כי חששות כאלה אינם נתמכים על ידי ראיות.

הוא מסביר כי היה דיון משמעותי על הפוטנציאל של מודלים לרכוש יכולות בלתי צפויות ומסוכנות ככל שהם גדלים, כולל בפסגת בטיחות AI בשנה שעברה. המחקר מראה כי הרעיון של LLM שמפתח מיומנויות בלתי צפויות ומסוכנות הוא חסר בסיס לחלוטין.

בעוד שחששות לגבי סיכונים קיומיים נמשכים בקרב מומחים ולא מומחים, ד"ר מדבושי טוען כי אלו אינם הדברים שצריך לחשוש מהם. הוא מציע להתמקד בנושאים מעשיים, כגון שימוש לרעה בבינה מלאכותית ליצירת פייק ניוז או ביצוע הונאה, ולא באיומים היפותטיים.