מודלי AI פגיעים למתקפות סייבר הרסניות

מודלי AI פגיעים למתקפות סייבר הרסניות

image provided by pixabay

This post is also available in: enEnglish (אנגלית)

חוקרים מחברת Lasso Security בחשיפה מפתיעה ומדאיגה, על פיה פלטפורמות מפתחים כמו HuggingFace ו-GitHub החיוניות לפיתוח טכנולוגיות AI מספקות פתח איום לחשבונות ארגוניים ברמה הגבוהה ביותר (כמו גוגל, מטה ומיקרוסופט) ומשאירות אותם חשופים לגורמים זדוניים.

כחלק מהחקירה, חוקרי Lasso Security בדקו מאות ממשקי פרוטוקול יישומים (API, המאפשרים ליישומים במחשוב "לדבר" זה עם זה) בשתי הפלטפורמות ומצאה כי מודלי שפה גדולים (LLM) הם פגיעים במיוחד, במיוחד מודל הלמידה "Llama" של חברת Meta.

החוקרים ציינו כי חקירתם הובילה לגילוי של פריצה משמעותית בתשתית שרשרת האספקה, וחשיפת חשבונות בעלי פרופיל גבוה של Meta. "ההשלכות של הפרה זו מרחיקות לכת, שכן הצלחנו להשיג גישה מלאה הן להרשאות קריאה והן להרשאות כתיבה, ל-Meta Llama2, BigScience Workshop ו-Eleutherai".

בין כל החברות הפגיעות יש מודלים עם מיליוני הורדות, כולם חשופים לניצול פוטנציאלי על ידי שחקנים זדוניים. החוקרים אומרים כי לא ניתן להפריז בחומרת המצב, ומסבירים כי עם שליטה על ארגון עם מיליוני הורדות, התוקפים יכולים להחזיק ביכולת לתפעל מודלים קיימים ולהפוך אותם לישויות זדוניות. הם מציינים כי במקרה של הזרקת תוכנות זדוניות אל המודלים הפגומים האלה "יכולה להשפיע על מיליוני משתמשים המסתמכים על המודלים הבסיסיים הללו עבור היישומים שלהם".

על פי Cybernews, קיימת חולשה מרכזית באסימוני ה-API של HuggingFace הנמצאים בשימוש קבוע ע"י ארגונים רבים, וניצולם עלול להוביל לפריצות נתונים, התפשטות מודלים זדוניים ועוד.

חקירת הפלטפורמות נועדה לספק אמצעי אבטחה למפתחים כדי להגן על מודלי שפה גדולים מפני איומים פוטנציאליים, ולאחר השלמתה החוקרים הצהירו כי יש לנקוט צעדים מיידיים. "ההשלכות הן מעבר למניפולציה של מודלים בלבד", מציינים החוקרים, ומוסיפים כי תקיפת החולשות פותחת את הדלת ל-"הרעלת נתוני אימון". משמעות הדבר היא כי על ידי שיבוש מערכי נתונים מהימנים, התוקפים יכולים לסכן את שלמות המודלים ולהוביל לתוצאות נרחבות והרסניות.

החוקרים ציינו כי הם פנו לכל הגורמים הנוגעים בדבר, והם בתורם הגיבו מיד על ידי ביטול או מחיקה של אסימוני ה-API החשופים, במקרים רבים באותו יום בו התרחשה החשיפה.

בהמשך, כדי למנוע התרחשויות כאלה ולצפות מראש מקרי הרעלה או גניבת נתונים, חוקרי Lasso Security ממליצים שאסימונים המשמשים בפיתוח LLM יהיו מסווגים לחלוטין, עם פתרונות אבטחת סייבר המותאמים במיוחד עבור המודלים האלה.