הגנה על בינה מלאכותית מפני תקיפות סייבר

הגנה על בינה מלאכותית מפני תקיפות סייבר

This post is also available in: enEnglish (אנגלית)

מחקר חדש משקף את הפגיעות של מודלים דחוסים של בינה מלאכותית לתקיפות עוינות ומציע אפשרות לפיתרון. מכשירים מחוברים (IoT) כמו סמארטפונים, מצלמות אבטחה וכו' הם רק כמה מהמכשירים שבקרוב יכילו יותר תוכנה של בינה מלאכותית כדי לזרז משימות של עיבוד תמונה ודיבור.

טכניקת דחיסה הנקראת קוואנטיזציה quantization מאפשרת להפוך את המודלים של הבינה המלאכותית לקטנים יותר כדי לחסוף בעלויות מחשוב ואנרגיה. הקוואנטיזציה היא תהליך שבו מאלצים תפוקה מסט גדול של ערכים או ערכים עוקבים (כמו המספרים הממשיים) לסט קטן (כמו המספרים השלמים).

אבל הסתבר שהקטנת המודלים הופכת אותם לפגיעים יותר לתקיפות שגורמות למערכת הבינה המלאכותית לסטות מההתנהגות הרצויה.

חוקרים מ-MIT, המכון הטכנולוגי של מסצ'וסטס, וחברת IBM מציעים פיתרון: הוספת אילוץ מתימטי במהלך תהליך הקוואנטיזציה כדי לצמצם את הסיכוי לכך שהבינה המלאכותית תטעה בזיהוי תמונה שעברה שינוי קל ותיכשל בסיווג שלה.

"הטכניקה שלנו מצמצת את הסיכון לטעות ואף עשויה להפוך את המודלים הדחוסים של למידה עמוקה לחסינים יותר מאשר מודלים בעלי דיוק מלא", כך טוען סונג האן, מרצה במחלקה להנדסת חשמל ומחשבים ב-MIT וחבר במעבדות הטכנולוגיה של מיקרו-מערכות במכון זה. "בעזרת קוואנטיזציה מתאימה אנחנו יכולים לצמצם את הטעות".

צוות החוקים מתכנן לשפר את הטכניקה באמצעות ביצוע אימונים על מערכי נתונים גדולים יותר ויישומם על טווח רחב יותר של מודלים, כך מדווח mit.edu.

באמצעות הקטנת המודלים של הבינה המלאכותית כדי שיפעלו מהר יותר ויוציאו פחות אנרגיה, האן משתמש בבינה המלאכותית עצמה כדי לדחוק את הגבולות של טכנולוגיית דחיסת המודלים.