האם בינה מלאכותית יכולה לייצר את המגפה הבאה?

האם בינה מלאכותית יכולה לייצר את המגפה הבאה?

images provided by pixabay

This post is also available in: enEnglish (אנגלית)

טכנולוגיית הבינה המלאכותית מתפשטת ונהיית נגישה יותר ויותר – האם אפשרי כיום בשביל אדם עם מספיק כסף לגשת למעבדה המסוגלת להחיות וירוסים ומגפות מסוכנים?

מחקר חדש של ארגון המחקר RAND מגלה כי למרות שטכנולוגיית הבינה המלאכותית הנוכחית אינה מסוגלת לתכנן מתקפה ביולוגית, הדבר עשוי להשתנות בעתיד הקרוב ומהווה סיכון חדש. במהלך המחקר, מספר צוותים עבדו על יצירת תוכניות פעולה להתקפה ביולוגית, כאשר חלקם השתמשו במודלי שפה גדולים ואחרים רק השתמשו באינטרנט. לאחר מכן, נבחנה הפרקטיות של התוכניות והן קיבלו ציון בין 1 ל-9 (כאשר 1 פירושו תוכנית בלתי מעשית לחלוטין ו-9 פירושו תוכנית מושלמת).

על פי Cybernews, כ-15 צוותים עבדו במשך מספר שבועות, חיקו את תפקידם של גורמים זדוניים ובחנו מודלים של בינה מלאכותית בתרחישים בעלי סיכון גבוה. המחקר הגיע למסקנה כי הפרקטיות הממוצעת של תוכניות פעולה שנוצרו בעזרת מודל AI הייתה סטטיסטית שווה לכזאת שנוצרה ללא סיוע AI. בנוסף, אף תכנית לא קיבלה ציון מספק במונחים של בסיס מפורט ומדויק מספיק בשביל שגורם זדוני יוכל לקיים התקפה ביולוגית יעילה.

לצוותים שעבדו עם מודלי AI היה ציון מעט גבוה יותר מאשר אלה שהשתמשו באינטרנט בלבד. על פי דיווחים, ה-AI סיפק כמה נתוני פלט "מצערים", אבל נטה בדרך כלל לספק מידע שכבר זמין באינטרנט.

החוקרים ציינו: "בסך הכל, הממצאים שלנו על ביצועיות התכניות מצביעים על כך שהמשימות הכרוכות בתכנון מתקפות נשק ביולוגי כנראה נמצאות מחוץ ליכולות הקיימות של מודלי LLM". עם זאת, הם הוסיפו כי המחקר עדיין אינו חד משמעי ואינו שולל לחלוטין את הסיכון להתקפות ביולוגיות באמצעות LLM, וכי זה דורש בדיקה נוספת להערכה מדויקת יותר.

RAND מזהירים: "למרות שהממצאים שלנו מראים כי מודלי LLM לא מגדילים באופן משמעותי את הכדאיות של תכנון התקפה ביולוגית, עוד לא ניתן לשלול את הפוטנציאל לאיום ביולוגי לא ידוע ואף חמור המונע או נוצר על ידי LLM. בהינתן יותר זמן, כישורים מתקדמים, משאבים נוספים או מוטיבציות מוגברות, גורם זדוני יכול להיעזר במודל LLM קיים או עתידי לתכנן או לנהל מתקפת נשק ביולוגי".

הם סיכמו כי בהתחשב באבולוציה המהירה של הבינה המלאכותית והטכנולוגיה המבוססת עליה, חשוב לעקוב אחר ההתפתחויות העתידיות בטכנולוגיית LLM והסיכונים הפוטנציאליים הקשורים ליישום שלה לתכנון התקפה ביולוגית.