This post is also available in:
English (אנגלית)
חברת OpenAI נקטה לאחרונה בפעולה נגד מספר חשבונות משתמשים שלטענתה ניסו לנצל לרעה את פלטפורמת ChatGPT לצרכי ריגול ופעולות סייבר. בדו"ח האיומים האחרון שלה, מתארת החברה פעילות הקשורה לגורמים מדינתיים ולשחקנים פליליים – עם התמקדות בסין וברוסיה.
על פי הדו"ח, חלק מהחשבונות שנחסמו ביקשו עזרה בפיתוח כלים למעקב אחר פלטפורמות מדיה חברתית. הבקשות, שנכתבו בסינית, נועדו ליצור רעיונות למערכות שיכולות לעקוב אחר שיח מקוון – פעולה המהווה הפרה של מדיניות השימוש של OpenAI בנושאי ביטחון לאומי.
לפי דיווח של סוכנות הידיעות רויטרס, בנוסף לבקשות הקשורות למעקב, OpenAI זיהתה והשביתה חשבונות שניסו לנצל את הפלטפורמה לתמיכה בקמפיינים של פישינג ולבחון אפשרויות לאוטומציה של נוזקות. חלק מהבקשות כללו ניסיונות לשלב את מודל השפה הסיני DeepSeek בתוך מבצעי סייבר.
החברה דיווחה גם על סגירת חשבונות החשודים בקשרים לרשתות פשיעה קיברנטית דוברות רוסית. משתמשים אלה ניסו, לכאורה, להיעזר במודל כדי לכתוב קוד זדוני, אם כי OpenAI ציינה שמרבית הבקשות המזיקות נחסמו על ידי המערכות שלה, ולא סופקו למשתמשים יכולות התקפיות מתקדמות.
מאז שהחלה לפרסם דו"חות איומים בתחילת 2024, טוענת OpenAI כי זיהתה ושיבשה למעלה מ-40 רשתות שניסו לנצל את המודלים שלה. אף שהפלטפורמה מתוכננת לדחות בקשות הקשורות לנוזקות, הונאות או מניפולציות, החברה מודה כי ניסיונות עקביים מחייבים ניטור והתערבות שוטפת.
בדו"ח הנוכחי לא זוהו טקטיקות חדשות, ו-OpenAI הדגישה כי הבוט לא איפשר הופעתם של סוגי תקיפה חדשים. עם זאת, הממצאים מדגישים את הדאגה המתמשכת בנוגע לשימוש בבינה מלאכותית גנרטיבית על ידי גורמים זרים לצורכי ריגול, פשיעת סייבר ומבצעי השפעה.
הנושא עולה על רקע מתחים גיאופוליטיים רחבים יותר, במיוחד בין ארצות הברית לסין, כאשר שתי המדינות משקיעות משאבים משמעותיים בפיתוח תחום הבינה המלאכותית.