This post is also available in: enEnglish (אנגלית)

מספרם של סרטי ותמונות ה-deepfake שמציגים תוכן מזויף, עולה בקצב מואץ. סרטי הווידאו האלה נוצרים באמצעות למידה עמוקה, ומשמים להפצה מכוונת של מידע מוטעה. אמצעי אבטחה חדשים מצליחים לאתר תמונות וסרט דיפ-פייק רבים, אבל זיופים אלה נעשים יותר ויותר פשוטים להפקה וקשה יותר לגלות אותם, ככל שעוצמת המחשוב גוברת ואלגוריתמי למידה הופכים למתוחכמים יותר. 

במחקר שנערך על ידי סטודנטים להנדסת חשמל ומחשבים אפורבה גנדי ושומיק ג'יין מבית הספר להנדסה USC Vietrbi בלוס אנג'לס, הצליחו להוכיח איך תמונות דיפ-פייק יכולות לשטות אפילו בכלי האיתור המתוחכמים ביותר באמצעות שינויים קלים.

הרשתות הנוירוניות שאימנו שני החוקרים זיהוי בתחילה למעלה מ-95% ממקרי הדיפ-פייק הרגילים. אבל כאשר הם בלבלו את התמונות, כלי האיתור לא הצליחו לגלות אפילו אחוז אחד. כך מסתבר, שבנסיבות מסוימות הטכניקה הופכת את כלי האבטחה נגד דיפ-פייק למיושנים ולא יעילים.

החוקרים מעוניינים להפוך את הרשתות הנוירוניות לעמידות יותר. זאת ניתן להשיג באמצעות רגולריזציה, אסטרטגיה שמשפרת את יציבות הרשת הנוירונית כבר במהלך האימון שלה. הטכניקה שיפרה ב-10% את  יכולת האיתור של דיפ-פייק מעורבל – שיפור אך עדיין לא שינוי משמעותי.

אסטרטגיה מבטיחה יותר שהם מציעים נקראת הגנת תמונה מקדמית עמוקה. תהליך זה מנסה להסיר את הערבול החמקמק מהתמונות עוד לפני שמזינים אותן לכלי האיתור. לצורך פיתוח הטכניקה הסבו החוקרים אלגוריתמים שנועדו במקור לשיפור איכות תמונה. אמנם טכניקת הגנת התמונה המקדמית זיהתה דיפ-פייק ברמת דיוק של 95%, יחד עם זאת, האלגוריתם איטי מאוד. עיבוד תמונה אחת עלול לקחת 20-30 דקות, על פי דיווחי של viterbischool.usc.edu.

מעוניינים לצלול אל תוך עולם העתידנות הטכנולוגית? – הירשמו לINNOTECH 2023, הכנס והתערוכה הבינלאומיים לסייבר, HLS וחדשנות באקספו תל אביב ב29-30 במרץ.

מעוניינים בחסות / ביתן תצוגה בתערוכת ה-INNOTECH 2023? לחצו כאן לפרטים!