כעת יש מענה לאתגר המורכב של למידת מכונה

כעת יש מענה לאתגר המורכב של למידת מכונה

machine learning

This post is also available in: enEnglish (אנגלית)

במודלים של למידת מכונה (ML) יש חולשות מובנות רבות, החושפות את הטכנולוגיה להטעייה, שחיתות וצורות אחרות של הונאה. התקפות על אלגוריתמי בינה מלאכותית עלולות להביא למגוון השלכות שליליות, החל משינוי במנוע המלצה על תוכן ועד לשיבוש פעולתו של רכב ללא נהג. ככל שמודלי ML משולבים יותר ויותר בתשתיות ובמערכות קריטיות, כך החולשות שלהם מדאיגות יותר.

סוכנות DARPA למחקרי ביטחון של מחלקת המדינה האמריקאית השיקה לאחרונה יוזמה שמתמודדת עם התקפות פוטנציאליות על ML.

תוכנית GARD (חיזוק הבינה המלאכותית כנגד הונאה) נועדה להתמודד מראש עם אתגרי האבטחה באמצעות פיתוח דור חדש של הגנות נגד התקפות על מודלי ML.

לדברי ברוס דרייפר, מנהל התוכנית, היוזמה "תייצר קהילה, שתאפשר החלפות רעיונות, כלים וטכנולוגיות במטרה לסייע לחוקרים לנסות ולהעריך את הגנות ה-ML שלהם. המטרה שלנו היא להעלות את הרף מבחינת הסטנדרטים של מהלכי ההערכה ולהביא יותר תחכום ובשלות לתחום".

היקף העבודה כולל חוקרים מחברות ומוסדות אקדמיים כגון IBM ואוניברסיטת שיקאגו, שיפתחו ארגזי כלים, מאגרי נתונים לצורך benchmarking וחומרי הדרכה, ויהפכו את הנכסים האלה לזמינים עבור קהילת המחקר הרחבה יותר, באמצעות מאגר ציבורי.

"המטרה היא לסייע לקהילת GARD לשפר את כישוריהם בתחום הערכת המערכת על ידי הבנה כיצד הרעיונות שלהם אכן פועלים ואיך ניתן למנוע שגיאות משותפות, שפוגעות באיתנות ההגנות", טוען דרייפר. "בעזרת המאגר למחקר עצמי, החוקרים יקבלו הבנה מעשית. הפרויקט נועד לספק להם ניסיון בשטח כדי לשפר את כישורי ההערכה שלהם", כך לפי homelandprepnews.com.

כלי מרכזי במערכת הוא הפלטפורמה הווירטואלית Armory, שמאפשרת הערכות חוזרות, סקיילביליות וחזקות של ההגנות. מעבדת ניסוי זו מספקת לחוקרים דרך להציב את ההגנות שלהם נגד התקפות מוכרות ותרחישים רלבנטים. היא גם מספקת יכולת לשנות את התרחישים כדי להבטיח שההגנות מסוגלות לספק תוצאות חוזרות במגוון רחב של התקפות, כך טוענת DARPA.