חוקרי אבטחת סייבר יכולים לגרום למכוניות אוטונומיות להזות

חוקרי אבטחת סייבר יכולים לגרום למכוניות אוטונומיות להזות

image provided by pixabay

This post is also available in: enEnglish (אנגלית)

כולנו חווים סוג של "הזיה חזותית" כאשר אנחנו מתבלבלים בין צללית של כיסא או מתלה בגדים בזווית העין לבין צללית של אדם. אבל מה ההשלכות אם דבר כזה יקרה, למשל, למכונית אוטונומית חכמה?

קווין פו הוא פרופסור להנדסה ומדעי המחשב המתמחה במציאה וניצול של טכנולוגיות חדשות באוניברסיטת נורת'איסטרן, והוא הצליח לגרום למכוניות אוטונומיות "להזות".

זהו סוג חדש לגמרי של מתקפת סייבר, סוג של למידת מכונה שפו וצוותו מכנים "התקפות פולטרגייסט (רוח רפאים)", להן עלולות להיות השלכות הרות אסון בידיים הלא נכונות. "פולטרגייסט" הוא יותר מרק שיבוש או הפרעה לטכנולוגיה כמו צורות אחרות של התקפות סייבר, שיטה זו יוצרת מציאות כוזבת ועקבית, אשליות אופטיות למחשבים המשתמשים בלמידת מכונה כדי לקבל החלטות.

על פי אתר Techxplore, תקיפת פולטרגייסט מנצלת את ייצוב התמונה האופטי שנמצא ברוב המצלמות המודרניות, שנועד לזהות את התנועה של הצלם ולהתאים את העדשה כדי להבטיח שהתמונות לא יהיו מטושטשות. פו מסביר שיש במערכת חיישן, ואם פוגעים בתדירות התהודה האקוסטית של החומר ממנו עשוי החיישן, אפשר לגרום לו לקלוט מידע כוזב.

פו וצוותו הצליחו לירות גלי קול תואמים לעבר עדשות המצלמה ולטשטש תמונות, תוך יצירת צלליות מזויפות מדפוסי הטשטוש. פו אומר שכאשר זה נעשה בשילוב עם למידת מכונה ברכב אוטונומי, הרכב מתחיל לתייג אובייקטים בצורה שגוייה.

פו וצוותו הצליחו להוסיף, להסיר ולשנות את האופן בו מכוניות אוטונומיות ורחפנים תפסו את סביבתם, שיבשו את אלגוריתם זיהוי האובייקטים של מכונית ללא נהג, והפכו את הצלליות שנוצרו על ידי התקפות פולטרגייסט לאנשים, תמרורי עצור או כל מה שהתוקף רוצה שהרכב יראה או לא יראה.

כמה דוגמאות קטלניות לשימוש בהתקפה זו כוללות גרימה למכונית ללא נהג לראות תמרור עצור שלא קיים, מה שעלול לגרום לעצירה פתאומית בכביש עמוס, או לשטות במכונית כך שלא תראה חפץ שנמצא לפניה.

אם החולשות הללו לא יתוקנו, האיומים אלה יהפכו לבעיה גדולה יותר עבור צרכנים, חברות ועולם הטכנולוגיה בכללותו, כאשר למידת מכונה וטכנולוגיות אוטונומיות יהפכו לנפוצות יותר ויותר.