פיצוץ מזויף בפנטגון הופך לוויראלי

פיצוץ מזויף בפנטגון הופך לוויראלי

Image provided by pixabay

This post is also available in: enEnglish (אנגלית)

מומחים רבים, ואחוזים משמעותיים מהציבור, כבר מביעים את חששותם אודות הפוטנציאל של טכנולוגיית הבינה המלאכותית לייצר תוכן שקרי וחדשות כזב בקלות. האירועים האחרונים שהתרחשו במהלך שבוע שעבר רק מדגישים שחשש לא רק מוצדק, אלא כבר מהווה חלק גדול מהמציאות שלנו כיום.

בפוסט יחיד הפורסם בפלטפורמת המדיה החברתית טוויטר נכתב "פיצוץ ענק בסמוך למתחם הפנטגון בוושינגטון די.סי – דיווח ראשוני". לפוסט צורפה תמונה מזויפת שנוצרה על ידי כלי בינה מלאכותית והראתה עמוד עשן סמיך העולה מאזור דשאי קרוב לבניין הפנטגון, שלכאורה נגרם בעקבות פיצוץ מסיבי במקום. בשעות בודדות מפרסום הפוסט, התמונה שותפה אלפי פעמים והפכה לוויראלית.

הדבר המדאיג ביותר, חוץ מהמהירות בה התמונה המזויפת שותפה והתפשטה ברחבי האינטרנט, היא העובדה שהפוסט פורסם על ידי חשבון טוויטר רשמי ומאומת, מה שעזר לשכנע אנשים שאכן התמונה אמתית ולגיטימית. כך, האמונה שהפיצוץ אכן אירע התפשטה גם כן. חשבון הטוויטר המדובר היה שייך למשתמש "מאומת" של חדשות בלומברג.

סימן האימות של טוויטר – וי כחול ליד שם המשתמש – אמור לספר אישור לגיטימציה למשתמשים רשמיים של אנשים בודדים או ארגונים למיניהם, אך כעת הסימן ניתן לכל מי שמוכן לשלם לחברת המדיה 8 דולרים לחודש ללא צורך בבדיקת זהות מעמיקה.

הקלות בה התמונה המזויפת התפשטה ברחבי טוויטר, ואף בכל האינטרנט כולו, מדגיש את הבעיה המשמעותית המערכת אימות הזהות של טוויטר, אך לא רק. התמונה נראה כה אמתית שהיה קל לרוב האנשים להאמין כי זהו תצלום חדשות לגיטימי ולא תמונה שנוצרה על ידי בינה מלאכותית.

ככל שמודלי הבינה המלאכותית ממשיכים להתקדם במהירות רבה ולשפר את רמות ביצועם, יותר ויותר מומחים מביעים את דאגותיהם בנוגע לפוטנציאל הזדוני של תוכן מזויף. בין אם בייצור תמונות וסרטון וידאו משכנעים, או בפרסום חדשות שקר, בייחוד בכל הקשור לבחירות המתקרבות לנשיאות האמריקאית.