מייקרוסופט מזהירה: חולשה בנתונים של בינה מלאכותית עשויה לחשוף שיחות פרטיות

Representational image of AI

This post is also available in: English (אנגלית)

מחקר חדש של מייקרוסופט זיהה חולשה בצ’אטבוטים מבוססי בינה מלאכותית, כולל מודלים דומים ל־ChatGPT ו־Google Gemini, שעשויה לחשוף את נושאי השיחות של המשתמשים, גם מבלי לפענח את התכנים עצמם. הפגיעות, שכונתה "Whisper Leak" (דליפת לחישה), זוהתה כמעט בכל המודלים הלשוניים הגדולים (LLMs) שנבדקו על ידי החברה.

כאשר משתמשים מתקשרים עם עוזרי בינה מלאכותית, ההודעות שלהם מוגנות בדרך כלל באמצעות TLS (Transport Layer Security) – הצפנה זהה לזו שבה משתמשים בבנקאות מקוונת. TLS מונע מאנשים חיצוניים לקרוא את תוכן ההודעות. עם זאת, מחקר מייקרוסופט מראה כי מטא-דאטה מסוים (נתונים אודות אופן שידור ההודעות) נשארת גלויה. החולשה Whisper Leak מנצלת את מטא-דאטה זה, תוך שימוש בגודל ובזמן ההעברה של חבילות הנתונים כדי להסיק על מה המשתמש משוחח.

במהלך הניסויים בדקו חוקרי מייקרוסופט 28 מודלים שונים של LLM. הם הכינו שני סוגי שאילתות: אחת התמקדה בנושאים רגישים, כגון הלבנת כספים, ואחרת כללה אלפי שאלות יומיומיות רגילות. באמצעות תיעוד דפוסי העברת הנתונים, הצוות אימן מודל בינה מלאכותית שיבחין בין נושאים רגישים רק על סמך קצב ותבניות התעבורה.

על פי דיווח של TechXplore, התוצאות הראו כי המודל הצליח לזהות את נושא השיחה בדיוק של מעל 98% ברוב המודלים. בתרחישים שבהם נושאים רגישים הופיעו פעם אחת בלבד מתוך 10,000 שאילתות, המערכת עדיין הצליחה לזהותם באופן מהימן. הצוות גם בחן שלוש אסטרטגיות הפחתה, אך אף אחת מהן לא מנעה את הדליפה במלואה.

חשוב לציין כי החולשה אינה פוגעת בהצפנה עצמה. היא מנצלת מידע ש־TLS חושף מטבעו לגבי מבנה ותזמון הנתונים. החוקרים הדגישו כי הסיכון נובע מהאופן שבו תגובות המודלים נשלחות, ולא מהפרוטוקולים הקריפטוגרפיים שמגנים על ההודעות.

ממצאי מייקרוסופט מדגישים חשש גובר לאור השימוש ההולך וגובר של מערכות בינה מלאכותית במידע רגיש או סודי. המחקר קורא לספקי LLM לטפל בחולשת המטא-דאטה כדי להבטיח את פרטיות משתמשים, במיוחד ביישומים שבהם דנים לעיתים קרובות בנושאים רגישים. ככל שהשימוש בבינה מלאכותית מתרחב בהקשרים מסחריים וביטחוניים, מניעת דליפות עקיפות כאלה תהיה קריטית לשמירה על אמון במערכות אלו.

המחקר פורסם כאן.