הצד האפל של AI: כיצד סוכני בינה מלאכותית יכולים לשמש למתקפות סייבר

Image by Pexels

This post is also available in: English (אנגלית)

עלייתם של סוכני AI, כמו Operator של OpenAI שהושק לאחרונה ע"י החברה, מחוללת מהפכה בפרודוקטיביות על ידי אוטומציה של משימות כגון הזמנת טיולים או מילוי טפסים. עם זאת, התקדמות זו מהווה גם איום חדש ומסוכן לאבטחת סייבר: פושעי סייבר יכולים לנצל אותם כדי להוצא לפועל מתקפות מתוחכמות יותר עם התערבות אנושית מינימלית.

מודלי שפה גדולים (LLM) היו עד עכשיו בעיקר כלים פסיביים, וסייעו לפושעי סייבר רק במשימות ברמה נמוכה. כעת, סוכני AI לוקחים את האוטומציה הזו צעד נוסף קדימה, בכך שהם מאפשרים למשתמשים לעבוד על גבי דפי אינטרנט ולבצע פעולות מורכבות יותר. לדברי חוקרים ב-Symantec, חטיבת אבטחת סייבר של Broadcom, סוכנים אלה מסוגלים כעת לבצע משימות שניתן לנצל לרעה עבור מתקפות סייבר.

כדי להדגים את הסיכונים, צוות ציידי האיומים של סימנטק ערך ניסוי באמצעות Operator. סוכן AI זה, שהושק על ידי OpenAI בינואר עבור משתמשי פרו, מיועד להפוך משימות באינטרנט לאוטומטיות. החוקרים הטילו על Operator סדרה של פעולות הקשורות בדרך כלל למתקפת סייבר, כולל איסוף מידע על עובד ושליחת הודעות פישינג.

בתחילה, Operator סירב כאשר התבקש לשלוח הודעות דוא"ל לא רצויות, בטענה לחששות לפרטיות. עם זאת, כאשר ההנחיה הותאמה כדי לכלול שהיעד אישר את הפעולות, Operator המשיך לזהות את שם היעד ואת כתובת הדואר האלקטרוני שלו, ליצור script של PowerShell כדי לאסוף מידע מערכת ולגבש הודעת פישינג משכנעת. בעוד שהניסוי הזה היה פשוט יחסית, התוצאות מדגישות כיצד סוכני AI יכולים לשמש לפעילויות זדוניות מורכבות יותר.

ככל שסוכני בינה מלאכותית כמו Operator הופכים למתוחכמים יותר, הפוטנציאל לשימוש לרעה גדל. בעוד שטכנולוגיות אלה מציעות יתרונות משמעותיים לפרודוקטיביות, השימוש לרעה בהן עלול להוביל לעלייה דרמטית באיומי הסייבר, מה שיקל על התוקפים לבצע פעולות מתקדמות במינימום מאמץ. ככל שהקו בין אוטומציה לגיטימית וכוונה זדונית מטשטש, עסקים ואנשי מקצוע בתחום אבטחת הסייבר יצטרכו להקדים את ההתפתחויות הללו, ליישם אמצעי הגנה חזקים ולעקוב ללא הרף אחר כל סימן להתקפות מונחות AI. היכולות הגוברות של סוכני AI מדגישות את הצורך בגישה פרואקטיבית לאבטחת סייבר בעולם יותר ויותר אוטומטי.