מודלים של בינה מלאכותית שולחים כעת קישורים לאתרי פישינג בתשובותיהם

Image by Unsplash

This post is also available in: English (אנגלית)

התפתחות מדאיגה בטכנולוגיית הבינה המלאכותית מושכת את תשומת לבם של חוקרי סייבר: מודלי שפה גדולים (LLMs) מציעים בביטחון עמודי התחברות מזויפים כאילו היו פורטלים רשמיים.

לפי ממצאים של חברת הסייבר Netcraft, כאשר משתמשים מבקשים מעוזרי בינה מלאכותית, כמו אלה המשולבים במנועי חיפוש או בדפדפנים,תקישורים לעמודי התחברות של שירותים מוכרים, המודלים מציגים לעיתים קישורים מזויפים או מתחזים. לא מדובר בהטעיה מצד גורמים זדוניים, אלא ביצירת קישורים שגויים על ידי הבינה המלאכותית עצמה, תוך עקיפת מנגנוני האימות הרגילים הנהוגים במנועי חיפוש מסורתיים.

בבדיקה של Netcraft, שנערכה מול 50 מותגים גדולים, נמצא כי ביותר מ־34% מהמקרים, התשובות שסיפקו המודלים הפנו לדומיינים שאינם בשליטת החברות עצמן. חלק מהקישורים הובילו לאתרים לא פעילים או לא רלוונטיים, אך חלקם היו עמודי פישינג מסוכנים לכל דבר.

בניגוד למנועי חיפוש, שמספקים הקשר ותצוגה של כתובת האתר (URL), מודלים של בינה מלאכותית לרוב מציגים את המידע כ"תשובה סופית" – ללא סימני אזהרה. התוצאה היא אשליה מסוכנת של אמינות, שמאפשרת לתוכן זדוני לעבור מתחת לרדאר.

תופעה מתפתחת נוספת היא ייצור מאסיבי של עמודי תמיכה מזויפים, מדריכי תוכנה ועמודי התחברות שנועדו במיוחד להיות מזוהים ואפילו מוגברים על ידי מערכות AI. רבים מהאתרים הללו מחקים עמודי תמיכה רשמיים של שירותי בנקאות, ארנקים דיגיטליים או אתרי תיירות.

חמור מכך, תוקפים מפתחים כלים ומדריכים מזויפים שנועדו להטעות את הבינה המלאכותית עצמה על ידי הרעלת מקורות המידע שעליהם היא מתבססת.

למרות שמותגים מסוימים מנסים להקדים תרופה למכה ורוכשים דומיינים שניתן להשתמש בהם להונאה מראש, מודלים של AI מסוגלים לייצר אינסוף וריאציות חדשות, מה שמקשה על הגנה מונעת.

חוקרי אבטחת מידע מדגישים כי מדובר לא רק בכשל טכני, אלא בסיכון מערכתי ממשי. כאשר בינה מלאכותית מציגה קישור זדוני תוך הפגנת ביטחון מלא, היא פוגעת באמון המשתמשים ובביטחונם. המסקנה ברורה: יש להטמיע במודלים אלה מנגנוני אימות כתובות, מודיעין איומים וסינון תוכן קפדני לפני שימשיכו לתפקד כיועצים דיגיטליים מהימנים.