This post is also available in: enEnglish (אנגלית)

כלים רבים מבוססי GPT כמו WormGPT ו-FraudGPT הפכו לפופולריים בפורומים חשאיים ונחשבו כמסייעים לספק זנים חדשים של תוכנות זדוניות וליצור אוטומציה של פשעי סייבר.

GPT הוא צורה של מודל שפה גדולה המאומן על מערכי נתונים מסיביים, ולגרסה "פרוצה" של GPT אין הגבלות עבור התוכן שנוצר, כך שניתן לאמן אותו על מידע המשמש בדרך כלל עברייני סייבר.

עם זאת, מומחי סייבר אמרו שהמצב לא כפי שהוא נראה וקבעו כי הגרסאות ה"אפלות" של GPT "מוערכות יתר על המידה, מופרזות, מיותרות ולא מתאימות ליצירת קוד זדוני". יתר על כן, גורמי סייבר זדוניים הביעו חששות לגבי האבטחה של המוצר הסופי, ותהו אם הוא יוכל לעקוף זיהויי אנטי-וירוס או גילויי EDR, והסיקו כי יש עוד הרבה מקום לשיפור כשזה מגיע ליישומים בעולם האמיתי.

לדברי Cybernews, החוקרים טענו כי הם מצאו "רק כמה דוגמאות של גורמי איום המשתמשים ב-LLM כדי ליצור תוכנות זדוניות וכלי תקיפה, וזה היה רק בהקשרי הוכחת היתכנות. עם זאת, יש כאלה המשתמשים בו ביעילות עבור עבודות מסוימות כמו משימות קידוד שגרתיות".

החוקרים מצאו מעט מאוד דיונים של פושעי סייבר בפועל המשתמשים בכלים כאלה. בין הדיונים המעטים שנמצאו, רבים התמקדו בטקטיקות פריצה של מודלי בינה מלאכותית לגיטימיים וחשבונות ChatGPT פרוצים המוצעים למכירה. "באופן לא מפתיע, 'ילדים מקודדים' ולא מיומנים הם המעוניינים להשתמש בפרוטוקולי GPT כדי ליצור קוד זדוני, אבל הם – שוב באופן לא מפתיע – לעתים קרובות אינם מסוגלים לעקוף הגבלות הנחייה (prompts) או לראות שגיאות בקוד שנוצר", כך כתבו החוקרים בדו"ח.

באופן כללי, חוקרים מדווחים על ספקנות רבה, והאקרים מביעים דאגתם לגבי אבטחה תפעולית, או אפילו חששות אתיים לגבי השימוש בבינה מלאכותית- "מצאנו מעט ראיות של גורמי איום המודים בשימוש ב-AI בהתקפות בעולם האמיתי, וזה לא אומר שזה לא קורה. אבל רוב הפעילות שצפינו בה בפורומים הייתה מוגבלת לשיתוף רעיונות, הוכחת ומחשבות".

החוקרים הגיעו למסקנה שאף אחת מהתוכנות הזדוניות שנוצרו על ידי בינה מלאכותית שהם מצאו בפורומים לא הייתה מתוחכמת, ולא מצאו שום עדות לתחכום ברמה גבוהה גם בפוסטים שהם בחנו. הם גם מאמינים כי שיבוטים לא חוקיים של ChatGPT שנבנו בכוונה עבור יישומים זדוניים אינם שימושיים במיוחד עבור עברייני סייבר, ובעוד שהם מצאו כמה שימושים עבורם, מנגנוני GPT לא מסוגלים ליצור תוכנות זדוניות או למצוא נקודות תורפה חדשות.