מערכות למידה מכונה – חולשות אבטחה

מערכות למידה מכונה – חולשות אבטחה

Robots of the future, photo illust. by Pixabay
Robots of the future, photo illust. by Pixabay

This post is also available in: enEnglish (אנגלית)

כאשר מאמנים מערכת נוירונים של למידת מכונה, משתמשים בדרך כלל באלגוריתם backpropagation כדי לחשב את הנגזרת מפונקציית העלות ביחס לקלט. התקפה מסוג זה יכולה לגרום להטעיה של רכב אוטונומי כך שאינו מזהה שלט עצור. רכבים אוטונומיים משתמשים בדטקטורים של עצמים כדי למקם ולסווג מספר רב של עצמים בזירה נתונה (לדוגמא הולכי רגל, מכוניות אחרות, תמרורים ועוד). דטקטור עצמים מפיק מערך של "תיבות" ותיוגים והסבירות לעצם שיימצא בכל תיבה.

כחלק מראיון באתר jaxenter.com, דוויד גלאס, מומחה במחקר אודות למידה מכונה וחולשות האבטחה שנמצאות בה באוניברסיטת מינכן בגרמניה, אמר כי סוג ההתקפה המסוכן ביותר הוא התקפת התחמקות, מתקפה אשר משנה את המידע הנקלט על מנת להימנע מגילוי. ניתן לבצע מתקפה זו גם ללא ידע קודם אודות המערכת.

בסוף שנת 2018 הוכיחו חוקרים כי הם יכולים לגרום לשלט עצור "להיעלם" מבחינת הדטקטור, באמצעות הוספת מדבקות על גבי השלט. התקפה זו הצליחה להטעות מודלים מתקדמים ביותר של איתור עצמים, שלא הצליחו לזהות את השלט ב-85% ויותר מהפעים בסביבת מעבדה, ומעל 60% מהפעמים בסביבה חיצונית יותר מציאותית. 

מעוניינים לצלול אל תוך עולם העתידנות הטכנולוגית? – הירשמו לINNOTECH 2023, הכנס והתערוכה הבינלאומיים לסייבר, HLS וחדשנות באקספו תל אביב ב29-30 במרץ.

מעוניינים בחסות / ביתן תצוגה בתערוכת ה-INNOTECH 2023? לחצו כאן לפרטים!