האיום הגובר של הדיפ פייק, ומה אפשר לעשות נגדו

האיום הגובר של הדיפ פייק, ומה אפשר לעשות נגדו

image provided by pixabay

This post is also available in: enEnglish (אנגלית)

סביר להניח שראיתם סרטון קומי ברשת, בו הפנים ולפעמים גם הקול של אנשים מפורסמים "הולבשו" על סיטואציה מצחיקה או מוזרה. הטכנולוגיה הזאת אולי נשמעת כמו משחק משעשע בו אפשר להשתמש בשביל מתיחות, אבל מה אם הייתם מקבלים שיחה ממישהו שנשמע בדיוק כמו בן משפחה שלכם שמתחנן לעזרה?

המושג דיפ פייק (Deep Fake, זיוף עמוק) הוא שם כינוי לסימולציה המונעת ע"י טכנולוגיית למידה עמוקה, בינה מלאכותית המשתמשת בכמויות מידע אדירות כדי לשחזר חוויה אנושית כלשהי, כמו ניהול שיחה (לדוגמה, צ'אט GPT) או יצירת תמונה או ציור (לדוגמה Dall-E).

מומחים באבטחת סייבר אומרים שטכנולוגיית דיפ פייק התקדמה כל כך שכעת אפשר להשתמש בה בזמן אמת, כך שניתן להשתמש בפנים ו/או קול של אנשים בזמן שיחת טלפון או פגישה ווירטואלית. בנוסף, הטכנולוגיה יחסית זמינה וקלה לשימוש, ורק משתפרת עם הזמן.

ישנם מקרים ידועים בהם היה שימוש בדיפ פייק כדי לגרום סבים וסבתות לשלוח כסף לקרובי משפחה מדומים, להשפיע על דעה פוליטית והצבעה של אנשים בבחירות, ולקחת במרמה כסף מגברים או נשים המחפשים קשר רומנטי.

ועדת הסחר הפדרלית מזהירה: "בזכות כלים של בינה מלאכותית היוצרים 'מדיה סינתטית' או כל תוכן הנוצר אוטומטית, אחוז הולך וגדל ממה שאנחנו רואים אינו אותנטי, ונהיה יותר ויותר קשה להבחין בהבדל".

אנדרו גרדנר, סגן הנשיא למחקר, חדשנות ובינה מלאכותית בGEN נשאל לדעתו על האיום הנ"ל ואמר- "אנחנו יודעים שאנחנו לא מוכנים לכך כחברה". ליתר דיוק, אין כלים זמינים לאימות אליהם ניתן לפנות מיד במקרה שחושדים ברמאות. כלים כאלה מתפתחים אבל בקצב לא מספק, והכלים הזמינים לא תמיד אפקטיביים או נותנים לשימוש של האדם הממוצע.

ד"ר ישראל מירסקי, חוקר בינה מלאכותית ומומחה לדיפ פייק באוניברסיטת בן גוריון טען שניתן ליצור דיפ פייק מתמונה אחת בלבד, וחיקוי סביר של קול מהקלטה של שלוש או ארבע שניות בלבד, אבל הכלים הדרושים לכך יקרים ומסובכים, ולפי גרדנר הכלים הזמינים לכלל האוכלוסייה ליצירת דיפ פייק דורשים כחמש דקות של אודיו ובין שעה לשעתיים של וידאו.

מומחים מציעים פתרון זמין ופשוט מאוד להתמודד עם סכנת הדיפ פייק: להמציא מילת קוד או סיסמה סודית שידועה לכל בני המשפחה ותהיה קשה לניחוש. אלי אמרסון, מנהלת תכנית רשת התמיכה לפשעי סייבר, טוענת שיש שיטות לזהות שימוש בדיפ פייק בסרטון. לדוגמה, אם האדם ממצמץ יותר או פחות מידי, אם הגבות נמצאות במקום שלא מתאים לפנים, או שיש שיער במקום לא נכון, או עור פנים שלא תואם לגיל הבנאדם.

אמרסון ממליצה לאנשים לבקש משותף השיחה שלהם לבצע כמה פעולות פשוטות, כמו לסובב את הראש ולשים יד אל מול הפנים שלהם. פעולות אלו יחשפו שימוש בדיפ פייק כי הטכנולוגיה עוד לא יודעת להתמודד עם פעולות כאלה באופן שנראה מציאותי.

מירסקי והצוות שלו באוניברסיטת בן גוריון פיתחו עוד שיטה שנקראת D-CAPTCHA שמציבה מבחן שאמור לבלבל את האלגוריתם ולחשוף שימוש בדיפ פייק. לדוגמה, לבקש מהמשתמשים לזמזם, לצחוק, לשיר או רק לכחכח בגרונם.

בנימה אחרת וחיובית יותר, גרדנר טוען שבימים אלה אנשים מתממשקים הרבה יותר עם אפליקציות של בינה מלאכותית (כמו צ'אט GPT) והחוויות האלה עוזרות להם לשאול את עצמם מה אמיתי ומה מזויף, ולהסתכל בעין ביקורתית ובוחנת על התוכן שהם צורכים.