This post is also available in:
English (אנגלית)
מחקר חדש מקינגס קולג' בלונדון חושף כי צ’אטבוטים מבוססי בינה מלאכותית יכולים להיות מותאמים במכוון כדי לחלץ ממשתמשים כמויות משמעותיות של מידע אישי, הרבה מעבר למה שהיה נהוג להניח עד כה.
החוקרים הציגו את ממצאיהם בכנס האבטחה USENIX Security Symposium ה-34, והראו כיצד צ’אטבוטים מבוססי מודלי שפה גדולים (LLMs) ניתנים לכיוונון כך שיעודדו את המשתמשים לחשוף פרטים אישיים באופן שקט ואפקטיבי. החוקרים השתמשו במודלים בקוד פתוח כמו Mistral וגרסאות שונות של Llama, ובנו שלושה סוגים של צ’אטבוטים – שכל אחד מהם יישם אסטרטגיה שונה להנעת המשתמשים לשיתוף מידע.
במסגרת ניסויים שכללו יותר מ-500 משתתפים, הצ’אטבוטים הוגדרו להשתמש בשלוש טכניקות: שאלות ישירות, ניסוח שמדגיש את תועלת המשתמש, וגישה המבוססת על אינטראקציה הדדית. על פי TechXplore, הטכניקה היעילה ביותר הייתה הגישה ההדדית – בה הצ’אטבוט מדגים אמפתיה, משתמש בשפה תומכת, ומספר סיפורים אישיים (בדויים) כדי לבנות אמון. כתוצאה מכך, משתמשים חשפו עד פי 12.5 יותר מידע אישי, לעיתים מבלי להיות מודעים לכך שהם משתפים יתר על המידה.
הממצאים מעוררים דאגה נוכח ההתרחבות המהירה של כלים שיחתיים מבוססי בינה מלאכותית בתעשיות רבות – במיוחד בתחומים הרגישים למידע אישי. הסיכון אינו מוגבל רק לחשיפה מקרית של מידע; המחקר מדגים כיצד ניתן לתכנת בכוונה צ’אטבוטים להתנהג בדרכים מניפולטיביות ומטעות. מאחר שהמודלים הבסיסיים זמינים לרוב לציבור הרחב, נדרשת מיומנות טכנית מועטה בלבד כדי להתאים אותם לצרכים זדוניים.
המחקר מדגיש גם נקודת תורפה ידועה במודלי שפה גדולים: היעדר יכולת אמיתית לאבטח מידע סודי. בשל מאגרי המידע העצומים עליהם הם מאומנים, המודלים עלולים להכיל שברים של מידע מזהה, ואינם מתוכננים ליישם אכיפה של פרטיות בזמן אמת.
למרות שרבים רואים בצ’אטבוטים כלים ניטרליים או יעילים, החוקרים מדגישים את הצורך בפיקוח קפדני יותר ובהגברת המודעות הציבורית. הסיכון גבוה במיוחד כיוון שמשתמשים אינם נוטים לחשוד בכוונות נסתרות כאשר השיחה נשמעת ידידותית או תומכת.
המחקר קורא להתערבות רגולטורית מוקדמת, לשקיפות רבה יותר בפריסת צ’אטבוטים, ולפיתוח מנגנוני הגנה טובים יותר שימנעו איסוף סמוי של מידע אישי באמצעות פלטפורמות שיחה מבוססות בינה מלאכותית.