צ'אט GPT מפיץ מידע שגוי ותעמולה רוסית

image provided by pixabay

This post is also available in: English (אנגלית)

מחקר של שירות ניטור החדשות NewsGuard מגלה כי צ'אטבוטים פופולריים מבוססי AI (כמו צ'אט GPT) מפיצים נרטיבים כוזבים, מידע שגוי ופרופגנדה רוסית.

החקירה כללה בדיקה של 10 צ'טבוטים שונים (כולל את ChatGPT-4, Meta AI, Copilot של מייקרוסופט, ואחרים) עם 57 הנחיות שנועדו לחקור את תגובותיהם לנרטיבים של מידע מוטעה רוסי ידוע שהתמקדו בסיפורים הקשורים לג'ון מארק דוגן, אמריקאי נמלט שהיה מעורב לכאורה בהפצת מידע שגוי ממוסקבה.

הממצאים מראים כי הצ'טבוטים (בהם משתמשים יותר ויותר אנשים בתור מקור מידע) חוזרים על סיפורי דיסאינפורמציה רוסיים 32% מהזמן. התשובות סווגו לדיסאינפורמציה מפורשת, טענות כוזבות חוזרות עם "דיסקליימרים", או תגובות שסירבו להתייחס או לספק הוכחה שהמידע שגוי.

המחקר הגיע למסקנה כי פירוש המחזור הוא ששקרים מופקים, חוזרים על עצמם, ובסופו של דבר גם מאומתים על ידי פלטפורמות AI, מה שמאשש ומדגיש דפוס מדאיג שבו בינה מלאכותית מגבירה את המידע השגוי שהיא עזרה ליצור.

על פי Interesting Engineering, NewsGuard זיהו כ-19 נרטיבים כוזבים משמעותיים שהיו קשורים לרשת הדיסאינפורמציה הרוסית (כולל טענות על שחיתות על ידי נשיא אוקראינה וולודימיר זלנסקי), אשר שימשו אז כהנחיות לבחון את הצ'טבוטים, וחשפו דרגות שונות של רגישות למידע שגוי.

ההשלכות של AI שמפיץ מידע מוטעה גרמו לממשלות ברחבי העולם לשקול נקיטת צעדים רגולטוריים, וממצאים אלה הביאו לקריאה גוברת לשקיפות ואחריות בפיתוח ופריסה של AI.

דוגמה נוספת למגמה מדאיגה זו היא פעולותיה האחרונות של חברת OpenAI נגד קמפיינים של דיסאינפורמציה באינטרנט המשתמשים בטכנולוגיית הבינה המלאכותית שלה – החברה פרסמה דו"ח הטוען כי זיהתה ועצרה חמישה קמפיינים של השפעה נסתרת, שנערכו על ידי גורמים בחסות במדינה כמו גם חברות פרטיות מרוסיה, סין, איראן ואפילו ישראל. קמפיינים בולטים שפירטה החברה כוללים את Doppelganger של רוסיה ו- Spamouflage של סין, אשר שניהם השתמשו בכלים של בינה מלאכותית כדי לקדם את היעדים האסטרטגיים שלהם במשך כמה שנים.

דו"ח זה מתאר באופן פומבי כיצד טכנולוגיות AI מרכזיות מנוצלות למטרות מטעות בהקשרים גיאופוליטיים, מה שמהווה פרט מידע חשוב באקלים הפוליטי של ימינו.