This post is also available in:
English (אנגלית)
מחקר אקדמי חדש חשף כי תוספים פופולריים לדפדפנים המבוססים על בינה מלאכותית אוספים ומשתפים מידע רגיש של משתמשים כולל רשומות רפואיות, פרטים פיננסיים ופעילות גלישה, ללא אמצעי הגנה מספקים. ממצאי המחקר מעוררים חשש חמור בנוגע לפרטיות, במיוחד לנוכח הצמיחה המהירה של עוזרי אינטרנט מבוססי AI.
המחקר, שנערך על ידי חוקרים מאוניברסיטת קולג' לונדון ו- Mediterranea University of Reggio Calabria, היה הראשון שביצע ניתוח רחב היקף של עוזרי דפדפן מבוססי בינה מלאכותית גנרטיבית, תוך התמקדות באופן שבו כלים אלו מטפלים בנתוני המשתמש. הממצאים חשפו מעקב נרחב ויצירת פרופילי משתמש המתרחשים ברקע של פעילות יומיומית באינטרנט.
למרות שתוספים אלו מציעים תכונות שימושיות כגון סיכום תוכן, מענה על שאלות וניווט באינטרנט, המחקר מצא שרבים מהם מעבירים בשקט תוכן של עמודים מלאים לשרתי צד שלישי. בחלק מהמקרים אף נאספו נתונים שהוזנו בטפסים – כולל פרטי חשבון בנק או מידע רפואי.
לצורך המחקר, יצרו החוקרים פרופיל משתמש מדומה של "גבר מילניאלי עשיר מדרום קליפורניה שמתעניין בפעילויות רכיבה על סוסים" והשתמשו במספר עוזרי AI לצורך ביצוע משימות גלישה שגרתיות. הכלים שנבדקו כללו את ChatGPT for Google, Copilot, Merlin, Sider, Monica, TinaMind ו-Perplexity.
מרבית העוזרים שיתפו נתונים עם צדדים שלישיים או השתמשו בהם ליצירת פרופילי משתמש, ולעיתים הסיקו מאפיינים כמו גיל, הכנסה ותחומי עניין. פרופילים אלו שימשו להתאמת תגובות אישיות, לעיתים אף בין סשנים שונים. הכלי היחיד שלא הציג מעקב מתמשך ופרופיילינג הוא הכלי של Perplexity.
כמה מהכלים המשיכו לאסוף מידע גם בעת גלישה באתרים פרטיים כמו פורטלים רפואיים ואתרי ממשלה, בניגוד למה שמצופה בעת התמודדות עם מידע פרטי.
המחקר התמקד בשימוש בארצות הברית, אך מומחים סבורים כי רבות מהשיטות שתועדו עלולות להפר רגולציות פרטיות מחמירות יותר, כמו תקנות ה-GDPR באירופה.
החוקרים קוראים כעת להגברת השקיפות ולהחמרת הרגולציה, כדי לוודא שמשתמשים מודעים למידע שנאסף עליהם – ולמנוע מעקב חודרני מצד כלים שנועדו לסייע, לא לפקח.