איך להתגונן מפני זיוף תמונות לווין?

איך להתגונן מפני זיוף תמונות לווין?

This post is also available in: enEnglish (אנגלית)

בעיית ה-deep fake – זיוף שמבוסס על למידה עמוקה (תחום של בינה מלאכותית) – מתפתחת לתחומים חדשים. מדובר במניפולציה מבוססת בינה מלאכותית, המופעלת על סרטי וידאו של אנשים מפורסמים או מנהיגים, ומציגה אותם כאילו הם אומרים דברים שלא נאמרו. התופעה מעוררת דאגה גוברת בקרב ממשלות וסוכנויות ביטחון. כעת, גם צילומים של כדור הארץ נופלים קורבן לזיוף מסוג זה. מדינה או גורם יריב יכול להטעות אנליסטים שבוחנים תמונות מבוססות מחשב ולגרום להם לדווח על גשר מעל נחל מסוים למרות שהגשר לא קיים במציאות, מה שעלול להפתיע את הכוחות שיתאמנו לנוע במסלול מסויים לעבר הגשר.

ניתן להטעות מערכות רבות לזיהוי תמונה באמצעות הוספת שינויים ויזואליים קטנים לעצמים פזיים בסביבה עצמה, כגון מדבקות שנוספו לשלטי עצור, שכמעט אינן נראות לעין האנושית אבל עלולות להטעות מערכות ראיית מכונה.

לאחרונה מובילה סין את המאמצים לשימוש ב-GANs – רשתות גנרטיביות עוינות – כדי להטעות מחשבים ולגרום להם לראות עצמים בנוף או בתמונת לווין, שאינם קיימים בפועל.

טוד מיירס, ממינהל הטכנולוגיה בסוכנות האמריקאית הלאומית למודיעין גאו-מרחבי, טוען כי "הסינים כבר עשו זאת ועושים זאת כעת באמצעות GANs .. הם יוצרים מניפולציה של פיקסלים ותמונות כדי ליצור דברים למטרות זדון".

איך פועלת טכנולוגיית GANs? השיטה שתוארה עוד בשנת 2014 מייצגת התפתחות משמעותית בדרך שבה רשתות נוירוניות לומדות לראות ולזהות עצמים ואף להבדיל בין מציאות לדמיון, כך לפי defenseone.com. לדוגמא, אם הרשת הנוירונית הקונבנציולית צריכה להעריך עצמים בתמונות לווין, הרשת תחלק את התמונה למס' רב של חלקים, או אשכולות פיקסל, תחשב איך החלקים מתייחסים אחד לשני,

ובסופו של דבר תחליט מה הוא העצם או האם התמונות אמיתיות או מזויפות. התהליך כולו מבוסס על הניסיון שנצבר מהסתכלות על תמונות לווין רבות. הזיוף באמצעות GANs הופך תהליך זה על ראשו בכך שהוא מציב שתי רשתות יריבות זו מול זו.

הרשת היריבה לומדת איך לייצר x, y, z בדרך שתשכנע את הרשת הראשונה שיש משהו בתמונה, למרות שהוא לא קיים בפועל.

חוקרים רבים השתמשו בשיטה כדי לאתר עצמים ולהבחין בין תמונות אמיתיות למזויפות. ב-2017 השתמשו חוקרים סינים ב-GANs כדי לזהות כבישים, גשרים ומאפיינים נוספים בתמונות לווין.

החשש הוא שאותה טכניקה שיכולה להבחין בין אמת לזיוף יכולה לסייע ביצירת זיופים שבינה מלאכותית אינה מסוגלת להבדיל ביניהם לבין עצמים אמיתיים.

הצבא האמריקאי וקהיליית המודיעין מסוגלים להביס את השיטה הזו, טוען מיירס, אבל מדובר בתהליך ממ ושך ויקר, שדורש אוספים משוכפלים של תמונות לווין והוכחות נוספות. "עבור כל אוסף תמונות נדרש אוסף מקביל ממקורות שונים", הוא אומר. "המכשול העיקרי הוא המימון".

גורמים רשמיים בארה"ב אישרו כי אכן הם חוששים לגבי מהימנות הנתונים. רא"ל ג'ק שנהאן, העומד בראש המרכז המאוחד החדש לבינה מלאכותית של מחלקת ההגנה אומר: "יש לנו תוכנית הגנה עוצמתית שתגן על הנתונים. אם ניתן להגיע לנתונים, ניתן להגיע למודל". אבל כשמדובר בהגנה על נתונים ותמונות ציבוריים בקוד פתוח, בשימושים שונים על ידי כל הציבור, כאן שאלת ההגנה על הנתונים עדיין פתוחה.