This post is also available in: enEnglish (אנגלית)

ההתקדמות הלא פוסקת של הבינה המלאכותית הניעה התפתחויות בסינתזה ריאליסטית של דיבור, ובעוד טכנולוגיה זו יכולה לשפר את חייהם של אנשים רבים באמצעות עוזרי קול מותאמים אישית וכלי תקשורת משפרי נגישות, היא גם הובילה ליצירת זיופי דיפ-פייק (Deep Fake) רבים בהם ניתן להשתמש בדיבור מסונתז כדי להטעות בני אדם ומכונות.

נינג ז'אנג הוא פרופסור למדעי המחשב והנדסה בבית הספר להנדסה מקלבי באוניברסיטת וושינגטון בסנט פטרסבורג לואיס, והוא פיתח כתגובה לאיום המתפתח הזה את AntiFake- מנגנון הגנה חדשני שנועד למנוע סינתזה לא מורשית של דיבור לפני שהיא אפילו מתרחשת.

על פי אתר Techxplore, בניגוד לשיטות זיהוי דיפ-פייק המסורתיות המשמשות להערכת וחשיפה של אודיו סינתטי ככלי להפחתת התקפות, AntiFake נוקטת עמדה יותר פרואקטיבית. הכלי משתמש בטכניקות יריבות כדי למנוע את הסינתזה של דיבור מזויף ומטעה, וגורם לכך שלכלי בינה מלאכותית יהיה קשה לקרוא את המאפיינים הדרושים מהקלטות קול. הקוד של AntiFake זמין באופן חופשי לכל משתמש מעוניין.

ז'אנג מסביר: "AntiFake מוודא שכאשר אנחנו משחררים לעולם מידע קולי, יהיה קשה לפושעים להשתמש במידע הזה כדי לסנתז את הקולות שלנו ולהתחזות לנו. הכלי משתמש בטכניקה של בינה מלאכותית יריבה שהייתה במקור חלק מארגז הכלים של פושעי הסייבר, אבל עכשיו אנחנו משתמשים בה כדי להתגונן מפניהם. אנחנו מבלבלים את אות השמע המוקלט רק קצת, מעוותים או מפריעים לו מספיק כך שזה עדיין נשמע נכון למאזינים אנושיים, אבל זה שונה לחלוטין עבור בינה מלאכותית".

בעיה נוספת עם הנוף הטכנולוגי המשתנה ללא הרף של בינה מלאכותית היא הצורך לוודא כי AntiFake יהיה מסוגל להחזיק מעמד נגד תוקפים פוטנציאליים ומודלי סינתזה לא ידועים בעתיד. ז'אנג וצוותו בנו את הכלי כך שיהיה ניתן להכליל אותו ובדקו אותו מול חמישה סינתיסייזרי דיבור חדישים, שם כלי AntiFake השיג שיעור הגנה של מעל 95%, אפילו נגד סינתיסייזרים מסחריים בלתי נראים. השימוש בכלי נבדק גם עם 24 משתתפים אנושיים כדי לאשר שהכלי אכן נגיש לאוכלוסיות מגוונות.

AntiFake יכול כיום להגן על קטעי דיבור קצרים, אבל לדברי ז'אנג אין שום דבר שיעצור את הכלי הזה מלהתרחב כדי להגן על הקלטות ארוכות יותר, או אפילו מוסיקה, במאבק המתמשך נגד דיסאינפורמציה.