This post is also available in:
English (אנגלית)
מחקר שנערך לאחרונה על ידי חוקרים מאוניברסיטת טקסס בסן אנטוניו (UTSA) חושף חולשה קריטית בפלטפורמות זיהוי תמונה מודרניות של בינה מלאכותית: ערוץ האלפא, השולט בשקיפות התמונה. החוקרים פיתחו שיטת תקיפה שנקראת AlphaDog המסוגלת לנצל חולשה זו כדי להמחיש כיצד האקרים יכולים לרמות מערכות בינה מלאכותית.
גווינביר צ'ן, מרצה במחלקה להנדסת חשמל ומחשבים של UTSA, ודוקטורנטית לשעבר שלה, צ'י שיה, תיעדו את ממצאיהן במאמר שפורסם עבור ה-the Network and Distributed System Security Symposium 2025.
על פיTechXplore , AlphaDog פועל על ידי מניפולציה של השקיפות של תמונות כדי ליצור הבדל בין האופן בו בני אדם רואים את התמונה לבין האופן שמודל הבינה המלאכותית רואה אותה. החוקרים יצרו 6,500 תמונות 'תקיפה' ובדקו אותן על פני 100 מודלים של בינה מלאכותית, כולל פלטפורמות פופולריות כמו ChatGPT. הממצאים שלהם הראו כי AlphaDog יעיל במיוחד כשמתמקד באזורים בגווני אפור בתוך תמונות, מה שמהווה סיכונים משמעותיים למול תרחישים בעולם האמיתי.
אחת ההשלכות המדאיגות של מחקר זה היא ההשפעה האפשרית על בטיחות בדרכים. על ידי שינוי החלקים בגווני אפור של שלטי כביש, התוקפים יכולים להטעות כלי רכב אוטונומיים, וכתוצאה מכך לייצר מצבים מסוכנים. בנוסף, החוקרים מצאו כי מניפולציה של תמונות רפואיות בגווני אפור – כגון צילומי רנטגן ו- MRIיכולה להוביל לאבחנות שגויות, לסכן את בטיחות המטופל ולאפשר הונאה בתביעות ביטוח.
החוקרים גילו גם כי AlphaDog יכול לשבש מערכות זיהוי פנים על ידי ניצול של ערוץ האלפא. חולשה זו נובעת מכך שמודלי בינה מלאכותית רבים מתמקדים אך ורק בערוצי RGB (אדום, ירוק, כחול), ומזניחים את ערוץ האלפא המגדיר את שקיפות הפיקסלים.
צ'ן מדגישה את החשיבות של טיפול בחולשה זו, וציינה כי האנשים שכתבו את הקוד עבור AI כתבו אותו באופן שמתעלם מערוץ האלפא. כדי להפחית סיכונים אלה, צוות UTSA משתף פעולה עם חברות טכנולוגיה גדולות, כולל גוגל, אמזון ומיקרוסופט, כדי לשפר את האבטחה של מערכות AI לעיבוד תמונה.
כאשר הבינה המלאכותית ממשיכה לעצב את עולמנו, טיפול בחולשות אלה הוא חיוני להבטחת בטיחות ויושרה ביישומים שונים.