נחשפה נקודת התורפה של סרטוני דיפ פייק

נחשפה נקודת התורפה של סרטוני דיפ פייק

deep fake

This post is also available in: enEnglish (אנגלית)

סרטוני deep fake שמופקים באמצעות בינה מלאכותית מציגים אנשים שאומרים דברים שהם מעולם לא אמרו. סרטונים אלה משמשים למטרות זדון, ומה שמטריד במיוחד – לצורך דיסאינפורמציה פוליטית.

מחקר חדש מבטיח לסייע במאמצים לאיתור זיופים אלה. חוקרים מאוניברסיטת בינגהמטון (SUNY) בארה"ב ומחברת אינטל יצרו תוכנה שמנצלת את העובדה שסרטוני וידאו אמיתיים של אנשים כוללים אותות פיזיולוגיים בלתי נראים לעין.

בפרט, סרט וידאו שמציג פנים של אדם מכיל שינויים מזעריים בצבע, שנובעים מהפעימות במחזור הדם שלו. למרות שלכאורה נראה שלא ניתן לאתר שינויים כאלה מתוך סרט וידאו, אבל מסתבר שהגברה והקצנה של שינויי הצבע האלה יכולה לסייע בחשיפה.

תופעה זו מהווה את הבסיס לטכניקה שנקראת PPG, שיכולה לשמש, לדוגמא, לניטור תינוקות ללא צורך להצמיד מכשירים לעורם הרגיש. 

בסרטוני deep fake אכן קיימים שינויי צבע המושפעים מפעימות הדם, אבל הם לא נראים בצורה מספיק מדויקת. החוקרים גילו ש"אותות ביולוגיים לא נשמרים בצורה עקבית בחלקים שונים של פנים סינתטיים" וכי "התוכן הסינתטי אינו כולל פריימים עם PPG יציב", כלומר: זיופי deep fake אינם מחקים בצורה משכנעת את הדרך בה פעימות הדופק באות לידי ביטוי במראה הפנים.

לפי spectrum.ieee.org, חוסר העקביות באותות ה-PPG שבאה לידי ביטוי בסרטונים המזויפים היווה את הבסיס למערכת למידה עמוקה שפיתחו החוקרים, הנקראת FakeCatcher. המערכת מסוגלת לקטלג סרטי וידאו של פנים של אדם כאמיתי או מזויף ברמת דיוק של למעלה מ-90%. מחקר נוסף שלהם מוכיח שגישה זו ניתנת ליישום לא רק לגלות זיופי וידאו אלא גם באיזו תוכנה השתמשו לצורך כך.

האם זייפני הווידאו יצליחו יום אחד להתגבר על טכנולוגיית החשיפה הזאת? סביר להניח שיצליחו, אבל לפחות בינתים טוב לדעת שיש שיטה חדשה ומבטיחה שמסוגלת לסכל את נסיונות הזיוף.