זייפני דיפ-פייק נעזרים במשאב בלתי צפוי

זייפני דיפ-פייק נעזרים במשאב בלתי צפוי

photo illus. by Pixabay
photo illus. by Pixabay

This post is also available in: enEnglish (אנגלית)

דיפ-פייק אלו תמונות, סרטונים או קולות מזויפים של אנשים אמיתיים, המיוצרים באמצעות בינה מלאכותית. התופעה הפכה לאיום אבטחתי משמעותי וחוקרים, כולל כאלה שממומנים על ידי צבא ארה"ב, מחפשים דרכים לאתר אוטומטית מקרים של דיפ-פייק באמצעות אותות ביומטריים (למשל, העובדה שאינדיקטורים פיזיים כמו דופק אינם משתקפים היטב בסרטונים מזויפים). 

לפי מחקר של FireEye, מערך של כלים זמינים לציבור מאפשר יצירת תמונות או הקלטת קול בצורה מזויפת.

כלים שנמצאים במאגרי קוד פתוח כמו פלטפורמת פיתוח התוכנה GitHub מצמצמים הצורך במומחיות טכנית כדי לייצר דיפ-פייק אמין ביותר. יתרה מזאת, הרבה יותר קל לרכוש אותם מחברות שיווק ויח"צ לא אמינות.

החוקרים טוענים שב-GitHub זמין קוד למודל רשת GAN המכונה StyleGAN2. החוקרים הוכיחו שעם מערך נתונים של תמונות של השחקן טום הנקס מובנות באותו גודל וכיוון כללי הם הצליחו בקלות להשתמש בכלים של StyleGAN2 כדי לייצר תמונות חדשות ומשכנעות של השחקן.

הם הוכיחו עד כמה פשוט להשתמש בתוכנה בשם SV2TTS כדי לשכפל את קולו של השחקן בשילוב התמונות המומצאות. 

קל יחסית לזהות מקרים של דיפ-פייק "מהמדף", שוב באמצעות תוכניות משין לרנינג שזמינות ב-GitHub. אבל ככל שהזייפן ישקיע יותר כסף וזמן בקסטומיזציה של התוכנה או מערך הנתונים, כך יהיה קשה יותר לחשוף אותו. "דיוק הגילוי יורד לכ-78% במקרים אלה", כך הם טוענים, לפי defenseone.com.