עתיד בטוח יותר ל-AI מגיע עם אלגוריתמים חזקים יותר

image provided by pixabay

This post is also available in: English (אנגלית)

טכנולוגיית ה-AI מתפשטת במהירות במגוון תעשיות, והאינטגרציה שלה תלויה באמון ובבטיחות המשתמשים. עניין זה מסתבך כאשר מבינים כי האלגוריתמים הפועלים על כלים מבוססים AI פגיעים למתקפות סייבר שעלולות להביא להשלכות חמורות.

ד"ר דיוויד וודרוף מאוניברסיטת קרנגי מלון וד"ר שמשון ג'ואו מאוניברסיטת A&M טקסס פועלים לחיזוק האלגוריתמים המשמשים מודלי AI של ביג דאטה נגד התקפות סייבר אפשריות.

המחקר שלהם מתמקד בסוג של מודל ביג דאטה שנקרא "מודל סטרימינג" בו מידע חייב להיאסף מיד מהנתונים או שהוא יאבד לנצח כי אי אפשר לאחסן את כל הנתונים (כמו יישומים המספקים מידע בזמן אמת כגון יישום תחבורה ציבורית המראה את הזמנים והמסלול של האוטובוס).

על פי Techxplore, אתגר מרכזי אחד שעולה כאשר מנסים ליצור אלגוריתם מאובטח הוא אקראיות – אם אלגוריתם הוא סדרה של הוראות עבור ה-AI, אז אקראיות כלולה בהוראות אלה כדי לחסוך מקום. עם זאת, בדרך הזאת למהנדסים של האלגוריתם אין את התמונה המלאה של פעולתו הפנימית, מה שמשאיר את האלגוריתם פתוח להתקפה. וודרוף מסביר: "כל אלגוריתם שמשתמש באקראיות יכול להיות מותקף מכיוון שהתוקף לומד את האקראיות שלו באמצעות האינטראקציה איתו… ואם [התוקף] יודע משהו על האקראיות שלך, הוא יכול למצוא דברים להזין את האלגוריתם שלך ולהכריח אותו להיכשל ולקרוס."

שני סוגים אפשריים של התקפות הם התקפת black box (בה התוקפים מכירים את האופן שבו אלגוריתם מגיב לשאילתות ולכן הם מבססים שאילתות עתידיות על הפלט הקודם של האלגוריתם) והתקפת white box (בה התוקפים יודעים את הכל על האלגוריתם, איך הוא פועל ואיך הוא מגיב). החוקרים טוענים כי הם רוצים להגן מפני שני הסוגים.

החוקרים כרגע עובדים על ליצור אלגוריתם מאובטח מפני התקפות ולפתח קשרים חדשים בין מתמטיקה ומדעי המחשב התיאורטיים, כמו גם בוחנים את בעיית הצפנת הנתונים. הם מסכמים כי הם מקווים להבין כיצד לחזק אלגוריתמים נגד התקפה תוך שמירה על יעילותם ואף לזהות חולשות בסיסיות החבויות באלגוריתמים.