סנדק הבינה המלאכותית מזהיר מפני סיכונים מתקרבים

סנדק הבינה המלאכותית מזהיר מפני סיכונים מתקרבים

Image provided by pixabay

This post is also available in: enEnglish (אנגלית)

"הסנדק" של טכנולוגיית הבינה המלאכותית, ג'פרי אוורסט הינטון, הודיע על התפטרותו מחברת גוגל. כעת, הוא אומר, הוא יכול לדבר ביותר חופשיות על הסיכונים האפשריים בטכנולוגיה שהוא עזר לפתח.

הינטון, פסיכולוג קוגניטיבי אנגלי-קנדי ומדען בתחום מדעי המחשב, הצהיר בהודעה רשמית אודות עזיבתו מחברת גוגל, בצטטו דאגות מפני הסיכונים בטכנולוגיית הבינה המלאכותית, למרות שבעברו שיבח את החברה על לקיחת אחריות בפיתוח כלי הבינה המלאכותית שלה.

לפני עזיבתו, הינטון האמין כי פיתוח בינה מלאכותית אמתית רחוק מאתנו ב-30 עד 50 שנה, ואף יותר. לעומת זאת, במהלך ראיון עם CBS בחודש מרץ של השנה, הוא טען כי "בינה מלאכותית למטרות כלליות עלולה להיות רחוקה רק ב-20 שנה ואולי אפילו פחות. הליך זה יכול לגרום לשינויים שמקבילים בהשפעה שלהם למהפכה התעשייתית או לתחילת השימוש בחשמל."

במהלך ראיון שנערך עם הניו יורק טיימס, הינטון דיבר על עזיבתו מחברת גוגל ואמר כי הוא בחר להתפטר כדי שיוכל "לדבר בחופשיות על הסכנות מאחורי טכנולוגיית הבינה המלאכותית ללא שיקולים על איך זה ישפיע על גוגל". הינטון הוסיף כי חלק ממנו מתחרט על עבודת חייו.

חלק מהסכנות של צ'אטבוטים חכמים הם "מפחידים למדיי", כך אמר הינטון ל-BBC. "כעת, הם לא יותר חכמים מאיתנו, עד כמה שאני רואה. אך יכול להיות שעוד מעט הם כן יהיו."

הינטון הסביר כי יש לצ'אטבוטים את היכולת ללמוד באופן עצמאי ולחלוק בידע. זה אומר שכאשר העתק בינה אחד משיג מידע חדש, הוא נשלח בפריסה אוטומטית לשאר הקבוצה. בכך, הצ'אטבוטים החכמים מסוגלים לאגור ידע בקיבולת עצומה וגדולה בהרבה והיכולת של כל בן אדם בנפרד.

במהלך סקירה טכנולוגית של אוניברסיטת MIT, הינטון הצביע גם אל "שחקנים עוינים" שעלולים להשתמש בבינה המלאכותית בדרכים שיקרסו וישפיעו לרעה על החברה שלנו – כגון השפעה על בחירות ועידוד אלימות.