This post is also available in:
English (אנגלית)
עוזרי קוד מבוססי בינה מלאכותית שולבו באופן נרחב בסביבות פיתוח, ומשפרים את יעילות העבודה באמצעות יכולות כמו יצירת קוד, השלמה אוטומטית וכתיבת בדיקות. עם זאת, מחקר חדש מציג חששות גוברים בתחום האבטחה סביב כלים אלה — במיוחד בכל הנוגע לפגיעותם למניפולציה עקיפה על ידי תוקפים.
לפי דיווח של Unit 42, זרוע הסייבר של חברת Palo Alto Networks, תוקפי סייבר מוצאים יותר ויותר דרכים לנצל לרעה את עוזרי הקוד הללו באמצעות מניפולציה של התכנים שעליהם הם מתבססים. הדו"ח שפורסם לאחרונה מתאר כיצד ניתן לפגוע בכלים הללו מבלי לגשת ישירות למכשיר של המשתמש, אלא פשוט על ידי תקיפת מקורות המידע שבהם משתמשת הבינה המלאכותית.
אחת הסכנות המרכזיות היא הזרקת פקודות עקיפה (Indirect Prompt Injection). מצב זה מתרחש כאשר פקודות זדוניות מוחבאות במקורות חיצוניים — כגון אתרי אינטרנט, APIs, או מאגרי קוד ציבוריים — שעוזר הקוד מתוכנת לנתח או להסתמך עליהם. מכיוון שמודלי שפה אינם מבחינים באופן מהימן בין קלט מהמשתמש לבין הוראות מערכת, תוכן "מורעל" עלול לגרום לעוזר לבצע פעולות בלתי צפויות ואף מזיקות.
פגיעות נוספת ומשמעותית נוגעת לשימוש בקבצים וקישורים חיצוניים אשר מפתחים מספקים כדי להעשיר את הבנת העוזר. מקורות אלה שנועדו להדריך את כלי הבינה המלאכותית ביצירת הפלט, עשויים להיות מורעלים, במיוחד אם הם מגיעים ממאגרים פופולריים אך בלתי מאובטחים. מכיוון שהעוזר מעבד את ההקשר הזה לפני שהמשתמש מכניס שאלה, הסיכון לניצול גדל משמעותית.
Unit 42 הדגימו כיצד פוסט ממדיה חברתית שעבר מניפולציה והוזן לכלי הבינה המלאכותית גרם לעוזר קוד לייצר קוד עם דלת אחורית (Backdoor) כאשר התבקש לנתח נתונים מהאינטרנט. מפתחים אשר מעתיקים, מדביקים או מפעילים אוטומטית את הקוד שהוזן – עלולים, מבלי לדעת, להריץ הוראות זדוניות.
ככל שעוזרי קוד מבוססי AI ממשיכים להתפתח, החוקרים ממליצים למפתחים לסקור בקפידה כל קוד שנוצר, במיוחד אם הוא מבוסס על קלט חיצוני. כמו כן, מומלץ לפקח בקפדנות על מקורות ההקשר ולצמצם את ההסתמכות על הצעות אוטומטיות.
בסופו של דבר, למרות היתרונות הברורים של כלים מבוססי AI בשיפור פרודוקטיביות, הם גם יוצרים משטחי תקיפה חדשים שדורשים מעקב פעיל מצד מפתחים וצוותי אבטחת מידע.