תכנית הפעולה של OpenAI להתמודדות עם "הסיכונים הקטסטרופליים" של AI

תכנית הפעולה של OpenAI להתמודדות עם "הסיכונים הקטסטרופליים" של AI

image provided by pixabay

This post is also available in: enEnglish (אנגלית)

מוקדם יותר השבוע, חברת OpenAI הנמצאת מאחורי צ'אט GPT המהפכני פרסמה את ההנחיות החדשות שלה להערכת "סיכונים קטסטרופליים" אפשריים של מודלי בינה מלאכותית. הודעה זו מגיעה רק חודש לאחר שמנכ"ל החברה סם אלטמן פוטר על ידי דירקטוריון החברה והוחזר לתפקידו מספר ימים לאחר מכן עקב התקוממות העובדים והמשקיעים.

בהצהרה של החברה, שכותרתה "Preparedness Framework" (או "מסגרת מוכנות") נכתב: "אנו מאמינים שהמחקר המדעי של סיכונים קטסטרופליים מבינה מלאכותית לא הגיע למקום שבו אנחנו צריכים להיות".

לפי חדשות Techxplore, "מסגרת" זו נועדה לסייע בהתמודדות עם הפער המדובר. צוות ניטור והערכה יתמקד ב"מודלי חזית" שנמצאים כעת בפיתוח (הכוונה היא למודלים בעלי יכולת גבוהה בהרבה ממה שקיים בשוק). לאחר מכן הצוות יעריך באופן אינדיבידואלי את המודלים ויקצה להם רמת סיכון, מרמה "נמוכה" לרמה "קריטית", בארבע קטגוריות עיקריות. רק דגמים עם רמת סיכון "בינונית" או נמוכה ממנה יאושרו להפצה.

ארבע קטגוריות הסיכון הן:

  • הקטגוריה הראשונה עוסקת באבטחת סייבר וביכולת של המודל לבצע מתקפות סייבר בקנה מידה גדול.
  • הקטגוריה השנייה תמדוד את נטיית המודל לסייע ביצירת דברים שעלולים להזיק לבני אדם (תערובת כימית, אורגניזם כמו וירוס, או נשק גרעיני).
  • הקטגוריה השלישית עוסקת בכוח השכנוע של המודל והמידה בה הוא מסוגל להשפיע על התנהגות אנושית.
  • הקטגוריה הרביעית נוגעת לאוטונומיה הפוטנציאלית של המודל, ובית דיוק האם הוא יכול "להימלט" משליטת המתכנתים שיצרו אותו.

לאחר זיהוי הסיכונים, הצוות יגיש את הקטגוריה המתאימה לקבוצת הייעוץ לבטיחות של החברה- גוף חדש שתפקידו לתת המלצות מתאימות למנכ"ל או לאדם שמונה על ידו, שבתורו יחליט על השינויים שדרוש להחיל על המודל המדובר כדי להפחית את הסיכונים.