מומחי AI מובילים קוראים למנהיגי העולם להתעורר ומזהירים מקטסטרופה

image provided by pixabay

This post is also available in: English (אנגלית)

25 ממדעני ה-AI המובילים בעולם קוראים למנהיגים וממשלות לנקוט פעולה חזקה יותר בנוגע לסיכוני הטכנולוגיה, ומזהירים כי ההתקדמות מאז פסגת בטיחות ה-AI הראשונה אינה מספיקה. המומחים האקדמיים המובילים מארה"ב, סין, האיחוד האירופי, בריטניה וכוחות בינה מלאכותית אחרים בעולם, פרסמו מאמר בעיתון "Science" בו הם מתארים סדרי עדיפויות דחופים למדיניות שמנהיגי העולם צריכים לאמץ כדי לנטרל את האיומים הנשקפים מטכנולוגיות AI.

במאמר נטען כי זה קריטי שמנהיגי העולם ישקלו ברצינות את האפשרות שמערכות בינה מלאכותית גנראליסטיות מתוחכמות שיעלו על יכולות אנושיות בתחומים קריטיים רבים, יפותחו כבר בעשור הבא, אם לא בעשור הזה. הם מציינים כי למרות שממשלות כבר דנו בהשלכות של טכנולוגיית AI ועשו מספר ניסיונות להציג הנחיות ראשוניות, זה פשוט לא משתווה לאפשרות של התקדמות המהירה והטרנספורמטיבית שמומחים רבים חוזים.

אלה הן הפעולות שהמומחים מחברי המאמר ממליצים לממשלות לנקוט, כפי שסופק על ידי Techxplore:

  • ראשית, הם ממליצים על הקמת מוסדות מומחים לפיקוח בינה מלאכותית המסוגלים לנקוט בפעולה מהירה, ולספק להם מימון מספיק.
  • שנית, הם קוראים לממשלות לקבוע הערכות סיכון הרבה יותר קפדניות עם השלכות הניתנות לאכיפה, במקום להסתמך על הערכות מודל לא מוגדרות.
  • הם בנוסף קוראים לדרוש מחברות הבינה המלאכותית לתעדף את בטיחות המוצרים שלהן ולחייב אותן להדגים שהמערכות שלהן לא יכולות לגרום נזק. זה יכלול שימוש ב"מקרי בטיחות" (המשמשים עבור טכנולוגיות אחרות בהן יש צורך קריטי לבטיחות ואבטחה, כמו תעופה).
  • לבסוף, המומחים קוראים ליישם תקני הפחתת סיכונים המתאימים לרמות הסיכון שמציבות מערכות AI. ממשלות צריכות לקבוע בדחיפות מדיניות שתופעל אוטומטית כאשר בינה מלאכותית תגיע לאבני דרך מסוימות של יכולות מסוכנות.

כשמדובר בסיכונים ובהשלכות של AI חזק ומתוחכם, המחברים מציינים כי הטכנולוגיה כבר מתקדמת במהירות בתחומים קריטיים כמו האקינג, מניפולציה חברתית ותכנון אסטרטגי, ועשויה בקרוב להציב אתגרי שליטה חסרי תקדים. הם טוענים כי היא יכולה לקדם מטרות לא רצויות על ידי השגת אמון אנושי, רכישת משאבים והשפעה על מקבלי החלטות מרכזיים.

הם אפילו מעלים תיאוריות שבמקרה של קונפליקט אמיתי, מערכות AI יכולות לפרוס באופן אוטונומי מגוון של כלי נשק, ומוסיפים כי התקדמות בלתי מבוקרת של AI יכולה להגיע לשיאה באובדן חיים וביוספירה בקנה מידה גדול, ואפילו בדחיקה לשוליים או בהכחדה של האנושות.

קצין סטיוארט ראסל, פרופסור למדעי המחשב באוניברסיטת קליפורניה בברקלי ומחבר ספר לימוד ה-AI הסטנדרטי כיום בעולם, אומר: "זהו מאמר קונצנזוס של מומחים מובילים, והוא קורא לרגולציה קפדנית על ידי ממשלות, לא קודי התנהגות "מרצון" שנכתבו על ידי התעשייה. הגיע הזמן להיות רציניים לגבי מערכות AI מתקדמות. אלה לא צעצועים. הגדלת היכולות שלהן לפני שאנחנו מבינים איך להפוך אותן לבטוחות היא פזיזה לחלוטין".

מידע זה סופק על ידי Techxplore.