מחקר מצא כי צ'אטבוטים של בינה מלאכותית מפיצים בטעות דיסאינפורמציה רוסית

Image by Unsplash

This post is also available in: English (אנגלית)

מחקר שנערך לאחרונה על ידי NewsGuard גילה כי כמה צ'אטבוטים מערביים בולטים של בינה מלאכותית, כולל ChatGPT-4-o, ג'מיני, קלוד, ואחרים, מפיצים דיסאינפורמציה רוסיה, הקשורה במיוחד למלחמה באוקראינה. המחקר מדגיש כיצד נרטיבים כוזבים נספגים על ידי מערכות AI באמצעות רשת דיסאינפורמציה רוסית הידועה בשם Pravda, אשר מקדמת באופן פעיל סיפורים מטעים ומומצאים.

רשת פראבדה, מרכז מרכזי לתעמולה רוסית, הפיצה 207 טענות שווא, לפי NewsGuard, החל מהאשמות סביב מעבדות נשק ביולוגי של ארה"ב באוקראינה ועד לסיפורים מפוברקים על נשיא אוקראינה וולודימיר זלנסקי על כל שמשתמש לרעה בסיוע הצבאי של ארה"ב. נרטיבים אלה מופצים לראשונה על ידי אתרי אינטרנט פרו-רוסים לפני שהם נאספים על ידי מנועי חיפוש וסורקי אינטרנט. כתוצאה מכך, צ'אטבוטים כמו ChatGPT ואחרים חוזרים לעתים קרובות על טענות שווא אלה בתגובותיהם, מבלי לדעת שהם למעשה מפיצים דיסאינפורמציה.

במחקר, NewsGuard בחנו עשרה צ'אטים פופולריים, כולל ChatGPT, Smart Assistant, Grok, Pi, le Chat, Copilot, Meta AI, Claude, Gemini ו-Perplexity. נמצא כי 33% מתגובות הצ'אטבוט כללו דיסאינפורמציה מפרבדה. 56 מתוך 450 תגובות שנוצרו על ידי הצ'טבוטים הכילו קישורים או הפניות ישירות למאמרי Pravda שהפיצו מידע כוזב. שבעה מהצ'טבוטים אפילו ציטטו את פרבדה ישירות כמקור שלהם. זה מראה עד כמה דיסאינפורמציה רוסית משפיעה על התוצאות של פלטפורמות AI גדולות.

הרשת של פראבדה, למרות שהיא אינה מייצרת תעבורת אינטרנט משמעותית, מפרסמת כמות מדאיגה של מאמרים – כ-3.6 מיליון בשנה, מסבירים ב-NewsGuard. מאמרים אלה משולבים לתוך נתוני אימון AI, וכך מזהמים בטעות את התגובות של הצ'אטבוטים. כתוצאה מכך, מערכות בינה מלאכותית המסתמכות על מערכי נתונים עצומים כדי ליצור תגובות נמצאות בסיכון להפצת שקרים אלה למשתמשים ברחבי העולם.

עם השימוש הגובר ב-AI במסגרות אישיות ומקצועיות כאחד, נושא זה מדגיש את הסיכונים הפוטנציאליים של הפיכה לא מכוונת של מערכות AI לצינורות למידע שגוי. ככל שהטכנולוגיה משתלבת יותר בחיי היומיום, חשוב להבטיח את שלמותה ואמינותה כדי למנוע התפשטות נרטיבים מזיקים.