This post is also available in:
English (אנגלית)
דו"ח שפורסם לאחרונה על ידי OpenAI מדגיש כיצד קבוצות מדינתיות מתנסות יותר ויותר בשימוש בבינה מלאכותית עבור פעולות מקוונות חשאיות. OpenAI חשפה סדרה של ניסיונות של גורמים סיניים להשתמש לרעה בטכנולוגיות בינה מלאכותית גנראטיבית – כולל ChatGPT – עבור מבצעי השפעה, משימות תמיכה בסייבר ומניפולציה של תוכן.
בעוד שהמאמצים שזוהו היו מוגבלים בהיקף, הדו"ח מתאר עלייה קבועה באופן שבו בינה מלאכותית משולבת באסטרטגיות דיגיטליות חשאיות.
על פי OpenAI, כמה חשבונות שימשו ליצירת הודעות מדיה חברתית טעונות פוליטית על פני פלטפורמות שונות. אלה כללו ביקורת על תכנים הקשורים לטייוואן, תקיפה של פעילים זרים ופרשנות על סוגיות פנים-אמריקאיות כגון סיוע חוץ ומכסים. אף על פי שהפוסטים היו קטנים, נראה כי הם תוכננו לעורר תגובות רגשיות או לעצב נרטיבים בנושאים גיאו-פוליטיים שנויים במחלוקת.
מעבר לדיסאינפורמציה, כלי בינה מלאכותית שימשו גם כדי לסייע בפעולות סייבר. אלה כללו שינוי סקריפטים, איתור באגים בתצורות המערכת, ביצוע איסוף אוסינט ובניית כלים לתקיפות ברוט-פורס ולאוטומטיזציה של פעולות ברשתות החברתיות. OpenAI זיהתה והסרה חשבונות המעורבים בפעילויות אלה.
קמפיין נפרד, שמקורו גם בסין, השתמש במודלים גנרטיביים כדי ליצור תוכן מקטב בשני הצדדים של המפה הפוליטית בארה"ב. זה כלל לא רק טקסט, אלא גם תמונות פרופיל מזויפות שנוצרו עם AI, מה שנתן מראה של לגיטימיות לחשבונות מזוייפים.
ממצאים אלה באים על רקע חששות רחבים יותר לגבי האופן שבו בינה מלאכותית גנרטיבית יכולה להפוך לנשק בידי גורמים מדינתיים ולא מדינתיים כאחד. עם כלים כמו ChatGPT המסוגלים לייצר תוכן משכנע במהירות ובקנה מידה, הם מציבים אתגרים חדשים הן לאבטחת סייבר והן לשלמות המידע.
למרות ש-OpenAI ציינה כי ההשפעה של פעולות אלה עד כה הייתה מוגבלת, המגמה ברורה: גורמי איום בוחנים את הפוטנציאל של AI ליתרון אסטרטגי על פני פעולות סייבר, השפעה ופעולות פסיכולוגיות.
ככל שפלטפורמות הבינה המלאכותית הופכות מתוחכמות ונגישות יותר, התפתחויות אלה מדגישות את הצורך הדחוף של ממשלות, קהילות ביטחון והמגזר הפרטי להקים אמצעי הגנה ומנגנוני זיהוי – במיוחד בהקשר של ביטחון בחירות, עיצוב דעת קהל וסביבות סכסוך משתנות.