מודלים של בינה מלאכותית עלולים לשמש להתקפות ביולוגיות

מודלים של בינה מלאכותית עלולים לשמש להתקפות ביולוגיות

images provided by pixabay

This post is also available in: enEnglish (אנגלית)

ידוע כי צ'אט-בוטים ומודלי שפה גדולים (LLM) הם מאוד שימושיים ונמצאים כיום בשימוש נרחב על ידי מגוון תעשיות ואנשים פרטיים, אבל בדיוק כמו כל מהפכה טכנולוגית אחרת הם מגיעים גם עם חסרונות וסיכון של שימוש לרעה. דו"ח חדש של צוות חשיבה אמריקאי מראה כי מודלים של בינה מלאכותית עלולים לסייע בתכנון וביצוע התקפה ביולוגית.

הדו"ח (שפורסם על ידי חברת Rand) טוען כי גילה שמודלי שפה גדולים שונים הדריכו תכנון ויישום של התקפה ביולוגית, אך לא לייצר הוראות מפורשות ליצירת נשק ביולוגי. למרות שהחוקרים לא ציינו אילו מודלי שפה גדולים נבדקו, חשוב לציין כי מודלים כאלה הם הטכנולוגיה הבסיסית העומדת מאחורי צ'אט-בוטים פופולריים כמו בארד וצ'אט GPT.

על פי עיתון הגארדיאן, פסגת הבטיחות העולמית הקרובה בבריטניה מתכננת לדון באיומים חמורים הקשורים לבינה מלאכותית, כולל איומים ביולוגיים. בנוסף מנכ"ל Anthropic Dario Amodei הזהיר כי מערכות בינה מלאכותית עלולות לסייע ביצירת נשקים ביולוגיים אפילו שנתיים עד שלוש השנים הקרובות.

על פי אתר Interesting Engineering, התרחיש שנבדק כלל LLM שלא צוין בשמו ושימש לזיהוי סוכנים ביולוגיים פוטנציאליים (אבעבועות שחורות, אנתרקס, מגפה וכו') ודן בסיכויים שלהם לגרום למוות המוני, כמו גם את האפשרות של השגת בעלי חיים נגועים במגפה והובלתם בין מדינות. בתרחיש אחר, ה-LLM העריך את היתרונות והחסרונות של מנגנוני משלוח שונים עבור הרעל בוטולינום והעריך את הפוטנציאל של שימוש במזון או אירוסול כדי לספק את הרעלן. בנוסף, ה-LLM המליץ על סיפור כיסוי אפשרי לקבלת Clostridium botulinum בתירוץ שהגורם הזדוני עורך מחקר מדעי אמיתי.

החוקרים מציינים כי הדו"ח הסופי שלהם יחקור אם התגובות שהתקבלו ממודל השפה היו דומות למידע הזמין באינטרנט, והוסיפו כי עדיין לא ברור אם היכולות של המודל הנוכחי היוו איום משמעותי יותר מאשר המידע המזיק שכבר נגיש כיום באינטרנט.

החוקרים מסכמים כי קיים צורך חד משמעי בבדיקות קפדניות של מודלי שפה גדולים, והמליצו בדו"ח שלהם לחברות בינה מלאכותית להגביל את הפתיחות והנכונות של מודלים אלה לנהל שיחות מסוג זה. הם קראו גם לשיתוף פעולה בין הממשלה והתעשייה כדי להבטיח את הבטיחות והיתרונות של בינה מלאכותית.