This post is also available in: enEnglish (אנגלית)

אם נתבסס על הספר הלבן שפורסם לאחרונה על ידי חברת NCC (מרכז המחשוב הלאומי), מספר החברות שמייצרות ומשתמשות בפתרונות למידה מכונה עולה בקצב גבוה מאוד. לפי NCC עובדה זו אמורה לגרום לנו לחשוש. הספר הלבן הנ"ל מנגיש רשימה של מתקפות סייבר שגורמים עוינים יכולים להפעיל כנגד מערכות למידה מכונה. 

על פי סקירה של InfoQ, מערכות למידה מכונה חשופות למגוון מתקפות ספציפיות בנוסף למתקפות יותר שכיחות שעלולות לנצל באגים בתשתיות או ממשקים שונים, ובעיות שונות נוספות. 

הסיכון הראשון שחושף את מודלי הלמידה המכונה הוא שבתוך מודלים אלו ישנו קוד שמופעל כאשר המודל טוען או כאשר ישנה התאמה מסוימת של תנאים. זה אומר שתוקף עוין יוכל לייצר מודל המכיל קוד זדוני ובכך לתקוף במטרה לבצע מגוון פעילויות, כגון דליפה של מידע רגיש, התקנת תוכנות זדוניות, יצירת שגיאות בתוך המודל ועוד.

עלינו לגשת למודלים להורדה כמו שאנחנו ניגשים לקוד להורדה. שרשרת האספקה של הטכנולוגיה צריכה להיות מאושרת, התוכן צריך להיות חתום קריפטוגרפית, ויש לסרוק את המודלים במידה וישנה תוכנה זדונית חבויה. NCC טוענים שהם הצליחו לנצל חולשה זאת במספר מודלי למידה מכונה. 

תקיפה נוספת שעלולה להשפיע על המודלים היא מתקפת פרטורבציה עוינת, בה התוקף מייצר חומרי קלט שגורמים למערכת הלמידה המכונה להחזיר תוצאות שנבחרות על ידי התוקף. שיטה זו עלולה להיות מנוצלת כדי לשבש מערכות הרשאה וגישה, פילטור תוכן ועוד.

גם מתקפות הסקת השתייכות מאיימות על תחום זה. מתקפות אלו מסוגלות לחשוף ליידע את התוקף אם קלט מסוים הוא חלק מתוכנית אימון המודל. מתקפות הפיכת מודל עוזרות לתוקף לאסוף מידע רגיש שנמצא בתוך תוכנית האימון. תקיפות דלת אחורית של הרעלת מידע מאפשרות הוספה מלאכותית של פריטים מסוימים לנתוני אימון של מערכת מסוים וכך גורמות לה להגיב באופן מסוים שמוגדר מראש. 

מעוניינים לצלול אל תוך עולם העתידנות הטכנולוגית? – הירשמו לINNOTECH 2022, הכנס והתערוכה הבינלאומיים לסייבר, HLS וחדשנות באקספו תל אביב ב2-3 בנובמבר.

מעוניינים בחסות / ביתן תצוגה בתערוכת ה-INNOTECH 2022? לחצו כאן לפרטים!