האם ניתן לשלוט בבינה מלאכותית?

האם ניתן לשלוט בבינה מלאכותית?

image provided by pixabay

This post is also available in: enEnglish (אנגלית)

מומחים טוענים כי כיום אין ראיות המעידות כי ניתן לשלוט בבטחה בבינה מלאכותית. אם כך, האם בכלל ראוי להמשיך לפתח אותה?

מומחה בטיחות AI דר. רומן ו. ימפולסקי מסביר בספרו "AI: Unexplainable, unexpected, uncontrollable" שבעיית השליטה בבינה מלאכותית היא אחת הבעיות החשובות ביותר העומדות בפני האנושות, אך למרות זאת היא נותרת לא מובנת, לא מוגדרת ולא נחקרת כראוי.

ד"ר ימפולסקי טוען שהוא לא הצליח למצוא שום הוכחה בספרות המדעית לגבי AI שניתן לשלוט בטכנולוגיה בבטחה – והבקרות החלקיות הקיימות אינן מספיקות. הוא טוען כי לא נכון להניח שבעיית השליטה בבינה מלאכותית ניתנת לפתרון ומזהיר כי חשוב להראות כי הבעיה ניתנת לפתרון לפני שנשלב את הבינה המלאכותית בכל אספקט בחיי היומיום שלנו.

ימפולסקי מציין כי היכולת של בני אדם לייצר תוכנה אינטליגנטית עולה בהרבה על היכולת שלהם לשלוט או אפילו לאמת אותה, ומוסיף כי מערכות אינטליגנטיות מתקדמות לעולם לא יהיו ניתנות לשליטה מלאה, ולכן תמיד יציגו רמה מסוימת של סיכון ללא קשר לתועלת שיספקו.

על פי Techxplore, בינה מלאכותית וסופר-אינטליגנציה שונות מתוכנות אחרות ביכולתן ללמוד התנהגויות חדשות, להתאים את הביצועים שלהן ולפעול באופן חצי אוטונומי במצבים חדשים. ככל שיכולות הבינה המלאכותית יגדלו כך תגדל האוטונומיה שלה ותפחת שליטתנו בה, וימפולסקי טוען כי אוטונומיה מוגברת היא שם נרדף לירידה בבטיחות.

יתר על כן, או שבינה מלאכותית לא יכולה להסביר את החלטותיה או שאנחנו לא יכולים להבין את ההסבר שניתן, ואם אנחנו לא מבינים את ההחלטות של בינה מלאכותית, אנחנו לא יכולים להבין את הבעיה ולהפחית את הסיכויים לתאונות בעתיד.

ימפולסקי מציע פשרה שבה אנו נקריב יכולות מסוימות בתמורה לשליטה מסוימת, במחיר של תת למערכת מידה מסוימת של אוטונומיה.

כדי למזער את הסיכון שמציבה הבינה המלאכותית, ימפולסקי אומר שיש להשריש יכולת ביטול או "undo" שהינה ניתנת להגבלה, שקופה, וקלה להבנה. הוא גם מציע שכל הבינה המלאכותית צריכה להיות מסווגת כניתנת או בלתי ניתנת לשליטה, ושעלינו לשקול אפילו לשים איסורים חלקיים על סוגים מסוימים של טכנולוגיית בינה מלאכותית.

הוא מסכם באומרו: "ייתכן שלעולם לא נגיע לבינה מלאכותית שהיא 100% בטוחה, אבל אנחנו יכולים להפוך את הבינה המלאכותית לבטוחה יותר ביחס למאמצים שלנו, וזה הרבה יותר טוב מאשר לא לעשות כלום. אנחנו צריכים לנצל את ההזדמנות הזו בחוכמה".