שיחות עם צ'אט הבינה המלאכותית גרוק הופיעו בתוצאות חיפוש בגוגל

This post is also available in: English (אנגלית)

תקרית עדכנית הקשורה לצ'אטבוט הבינה המלאכותית גרוק, שפותח על ידי חברת xAI של אילון מאסק, חשפה למעלה מ־370,000 שיחות משתמשים דרך מנועי חיפוש פומביים כמו גוגל. רבות מהשיחות כללו מידע אישי או רגיש, והפכו לנגישות לציבור מבלי שהמשתמשים היו מודעים לכך.

המקרה מתרחש כחודש בלבד לאחר תקלה דומה שאירעה ב-ChatGPT של OpenAI, אז הופיעו שיחות אישיות בתוצאות החיפוש של גוגל. גם כאן, מקור הבעיה הוא פונקציית השיתוף של הצ’אטבוט, היוצרת קישור ייחודי לכל שיחה. הפונקציה נועדה לאפשר למשתמשים להפיץ תוכן שנוצר על ידי הבינה המלאכותית דרך דוא"ל או הודעות, אך בפועל – היא הפכה את הקישורים לנגישים לזחלני רשת (web crawlers), וכך אפשרה את אינדוקסם על ידי מנועי חיפוש כמו גוגל, בינג ו-DuckDuckGo. שני המקרים מצביעים על ליקוי עיצוב חוזר בתכנון כלי השיתוף בפלטפורמות בינה מלאכותית.

לפי תחקיר שפורסם ב-Forbes, חלק מהשיחות שפורסמו כוללות שמות, סיסמאות, מסמכים, גיליונות אלקטרוניים וקבצי תמונה. בעוד שחלק מהאינטראקציות נראו שגרתיות – כמו ניסוח ציוצים או טקסטים עסקיים – אחרות כללו בקשות רגישות או בעייתיות, כגון הוראות להכנת סמים, קוד לתוכנות זדוניות ואף מדריכים לייצור פצצות.

המקרה ממחיש בעיה חמורה באופן שבו שיחות עם בינה מלאכותית משותפות ונשמרות ברשת. באופן בולט, חלק מהשיחות שפורסמו מהוות גם הפרה של מדיניות השימוש של xAI עצמה, האוסרת במפורש על קידום אלימות, פיתוח נשק להשמדה המונית או כל פעילות הפוגעת אנושות בחיי אדם.

חוקרי אבטחת מידע התריעו כי שיחות שדלפו עלולות לשמש למטרות זדוניות. מידע אישי שנחשף עשוי להוביל להטרדות, חשיפה מכוונת של זהות ("doxxing"), ואף להונאות.

ככל שכלים של בינה מלאכותית משתלבים יותר במשימות יומיומיות, האירוע מדגיש את הצורך בבקרות מחמירות יותר ובהבהרות ברורות למשתמשים בנוגע לשיתוף תוכן. עד ליישום מנגנוני הגנה כאלה, קיים סיכון ממשי לחשיפת מידע רגיש שלא בכוונה.