מחקר חדש מדגיש את הפגיעות של כלי AI פופולריים לשימוש בהונאות פישינג

Image by Unsplash

This post is also available in: English (אנגלית)

מחקר שנערך לאחרונה על ידי חברת אבטחת הסייבר Guardio Labs שפך אור על רמות שונות של פגיעות בקרב כלי AI פופולריים כאשר נעשה בהם שימוש לרעה ליצירת הונאות פישינג. המחקר מגלה כי Lovable, פלטפורמת AI שנועדה להקל על השימוש, היא הרגישה ביותר לניצול למטרות זדוניות, אחריה קלוד, ו-ChatGPT הכי עמיד לשימוש לרעה כזה.

Lovable התגלה ככלי שיהיה הכי קל לתוקפים בעלי מיומנות נמוכה להשתמש בו כדי לייצר הונאות פישינג. הפלטפורמה תואמת כמעט את כל ההנחיות ויוצרת ללא מאמץ אתרי אינטרנט ותוכן זדוניים. בתרחישי בדיקה, היא יצרה דף כניסה מזויף של מיקרוסופט ביעילות מדאיגה, שאפילו מנתב מחדש משתמשים לאתרים לגיטימיים כמו Office.com לאחר תיעוד נתוני ההתחברות שלהם, תוך חיקוי של ערכת פישינג טיפוסית.

לעומת זאת, הבדיקות של Guardio Labs הראו כי ChatGPT הוכיח הרבה יותר קשה לתמרון עבור שימוש זדוני. הכלי דחה בתחילה בקשות שנראו כרוכות בתוכן מזיק, תוך שהוא מצטט חששות אתיים. רק לאחר ש-Guardio Labs הבהירו כי הבקשה היא לצרכי מחקר, ChatGPT סיפקה קוד דף פישינג בסיסי. למרות זאת, הוא עדיין הפגין אמצעי הגנה חזקים מפני ניצול מלא.

קלוד, למרות שהוא קצת יותר פגיע מ-ChatGPT, הראה רמה גבוהה יותר של התנגדות מ-Lovable. המודל סירב באופן דומה לציית להנחיות מסוימות, אך נטה יותר לסייע חלקית, כגון יצירת דף כניסה מזויף עם דמיון רב לדף האמיתי – משהו ש- ChatGPTסירב לעשות, לא משנה בכמה jailbreaks השתמשו. Lovable, לעומת זאת, הצטיין בייצור העתקים כמעט זהים של דפי כניסה אמיתיים, ועשה זאת ללא התנגדות.

המחקר התרחב למשימות פישינג מורכבות יותר, כולל אסטרטגיות להתחמקות מגילוי ושיטות לאיסוף נתונים בדיסקרטיות. ChatGPT סירב לעשות זאת, אבל קלוד ו-Lovable הסכימו.

ההערכה של Guardio Labs נתנה לLovable ציון של 1.8 מתוך 10 במונחים של עמידות נגד שימוש לרעה, קלוד קיבל 4.3, ו-ChatGPT קיבל 8. הממצאים מדגישים את הסיכונים הפוטנציאליים של שימוש לרעה בטכנולוגיות AI עבור פשעי סייבר ואת הצורך לפתח אמצעי הגנה מפני שימוש שכזה.