This post is also available in: enEnglish (אנגלית)

מחקר חדש שנערך באוניברסיטת UCL מראה כי בני אדם מסוגלים לזהות דיבור שנוצר על ידי בינה מלאכותית רק 73% מהזמן, הן באנגלית והן במנדרינית.

אבל קודם כל, מה הם Deepfakes?

לפי אתר Techxplore, מדובר במדיה שנועדה להידמות לקול או למראה של אדם אמיתי. היא מיוצרת על ידי בינה מלאכותית גנראטיבית, שהיא סוג של למידת מכונה המכשירה אלגוריתם ללמוד את הדפוסים והמאפיינים של מערך נתונים כמו וידאו או אודיו של אדם אמיתי, כך שיוכל לשחזר תמונה או קול באופן שמחקה את המקור.

כאשר טכנולוגיית ה-Deepfake עוד הייתה בחיתוליה, נדרשו כמויות אדירות של נתונים כדי לייצר העתק משביע רצון של קול או תמונה של אדם, אבל האלגוריתמים החדישים שאומנו מראש יכולים לשחזר את קולו של אדם באמצעות הקלטה של שלוש שניות בלבד.

החוקרים ב-UCL יצרו כ-50 דגימות דיבור מזויפות הן באנגלית והן במנדרינית באמצעות אלגוריתם טקסט לדיבור (TTS) שהוכשר על שני מערכי נתונים זמינים לציבור, אחד לכל שפה.

החוקרים השמיעו גם דגימות אמיתיות וגם דגימות Deepfakes ל-529 משתתפים שהתבקשו לזהות אילו היו אמיתיים ואילו מזויפים. המשתתפים היו מסוגלים לזהות את הזיוף רק 73% מהזמן, ולאחר שקיבלו הכשרה לזהות מאפיינים של הקלטת Deepfake התוצאות השתפרו רק במעט.

החוקרים מציינים כי הצעד הבא הוא לפתח גלאי דיבור אוטומטיים יעילים יותר כחלק מהמאמצים המתמשכים ליצור יכולות זיהוי ולהתמודד עם האיום של אודיו ותמונות שנוצרו באופן מלאכותי.

כמובן שיש יתרונות לטכנולוגיית אודיו של בינה מלאכותית, כמו הנגשה לאנשים עם דיבור מוגבל או כאלה שאיבדו את קולם ממחלה. עם זאת, קיימת כבר תופעה הולכת וגדלה של שימוש בטכנולוגיה על ידי פושעים הגורמים נזק הן ליחידים והן לחברות, וזה צפוי רק להחמיר.

מחבר בכיר של המחקר, פרופסור לואיס גריפין מ-UCL Computer Science אמר: "בעוד שטכנולוגיית בינה מלאכותית הופכת ליותר מתוחכמת ורבים מהכלים האלה זמינים לציבור, אנחנו בקרוב נראה יתרונות רבים, כמו גם סיכונים. כמובן שיהיה נבון מצד ממשלות וארגונים לפתח אסטרטגיות להתמודדות עם ניצול לרעה של כלים אלה, אבל עלינו להכיר גם באפשרויות החיוביות הנמצאות באופק".