האם אפליקציות בינה מלאכותית מסכנות את הפרטיות שלנו?

האם אפליקציות בינה מלאכותית מסכנות את הפרטיות שלנו?

image provided by pixabay

This post is also available in: enEnglish (אנגלית)

מה היא הסכנה הבלתי נראית של טכנולוגיית בינה מלאכותית? מומחים מביעים את חששותיהם מפני הסכנה שהן מהוות לפרטיות המשתמשים.

טכנולוגיה המבוססת על בינה מלאכותית מתפתחת בקצב מסחרר, ואיתה גדלה כמות המידע האישי שנאסף ומעובד. אבל איך אפליקציות בינה מלאכותית משפיעות על פרטיות המשתמשים?

אפליקציות כמו צ'אט GPT, LLaMA או PaLM2 משתמשות במודלי שפה גדולים (large language models-LLM), שצריכים לאסוף כמויות אדירות של נתונים כדי לאמן את האלגוריתמים שלהם – ככל שהם אוספים יותר נתונים, כך התגובות של הבוטים יותר טבעיות ו-"אנושיות".

בנוסף לשימוש בתוכן פתוח מהאינטרנט, כלי בינה מלאכותית מתעדים ומשתמשים בהוראות שהזינו המשתמשים שלהם, שלפעמים מכילות מידע רגיש הקשור לחיים הפרטיים של המשתמש או לעבודה שלו ועשויים להיות חשופים לגורמים לא רצויים- בין אם זו החברה בעלת הכלי או לצדדים אחרים עם גישה לנתונים.

על פי Cybernews, חברת OpenAI עומדת בפני תביעה בגין שימוש לכאורה בכמות מסיבית של נתונים מהאינטרנט הכוללים מידע אישי, פיננסי ובריאותי מפלטפורמות שונות של מדיה חברתית, זאת כדי להכשיר את צ'אט GPT.

בנוסף נטען כי OpenAI מתעדת את טביעות האצבע הדיגיטליות של המשתמשים שלה בעת פתיחת חשבון, המכילות מידע כמו כתובת ה- IP שלהם, הרחבות מותקנות בדפדפן אינטרנט, אזור זמן, סוג וגרסה של מערכת ההפעלה ופרופיל חומרה של המחשב. נתונים אלה מאפשרים זיהוי של מכשיר משתמש בין מיליוני התקנים מחוברים.

הטענה שאולי הינה הבעייתית ביותר, הינה שצ'אט GPT מתעד את יומני הצ'אט של המשתמשים אשר עשוי להכיל מידע פרטי או רגיש, גם לאחר שבחרו באפשרות "Disable history".

למרבה הצער, גם אלה המשתמשים ביישומים המשלבים את צ'אט GPT כמו Slack או MS Office ייחשפו לסכנות הללו.

בין אם נרצה ואם לא, עסקים בכל מקום ממהרים להצטרף לשיגעון הבינה המלאכותית, ושילוב הבינה המלאכותית במדיה החברתית ואפליקציות אחרות וודאי יהפוך למציאות בקרוב מאוד. מתור משתמשים ביישומים כאלה, חשוב להבין מהן ההשלכות הקשורות לפרטיות ולדעת להימנע משיתוף מידע פרטי או רגיש.

מידע זה סופק על ידי Cybernews.