אפליקציות בינה מלאכותית פופולריות מדליפות מידע רגיש

This post is also available in: English (אנגלית)

בעיה אבטחתית במערכת של Vyro AI, החברה מאחורי אפליקציות בינה מלאכותית גנרטיביות מוכרות, חשפה מידע רגיש של מיליוני משתמשים. פרצת האבטחה, שנחשפה על ידי חוקרים מ-Cybernews, גילתה ששרת שלא הוגדר כראוי דלף 116GB של לוגים חיים של משתמשים, ובכך סיכן את פרטי המשתמשים ופרטי האימות שלהם.

הנתונים שדלפו הגיעו מתוך סדרת האפליקציות הפופולאריות של Vyro AI, כולל האפליקציות ImagineArt, Chatly, ו-Chatbotx. ImagineArt לבדה בעלת יותר מ-10 מיליון הורדות, ו-Vyro AI טוענת כי יש לה סך של 150 מיליון הורדות בכל הפורטפוליו שלה. היקף החשיפה הזה מעלה חששות רציניים לגבי פגיעות המידע של המשתמשים בתעשיית הבינה המלאכותית הצומחת במהירות.

לפי Cybernews, בין הנתונים שדלפו היו גם פקודות AI שהוזנו על ידי המשתמשים, אסימוני אימות, וסוכני משתמשים. דליפת האסימונים מטרידה במיוחד, שכן הם יכולים לאפשר לתוקפים להשתלט על חשבונות, לגשת להיסטוריית שיחות, או אפילו לבצע עסקאות לא מורשות הקשורות ל-AI, כמו ביצוע רכישות של קרדיטים באופן בלתי חוקי.

הפריצה כללה גם פרטים חשובים, כגון הפקודות שהוזנו על ידי המשתמשים, שעשויות לכלול מידע רגיש או אישי. שיחות אלו עם ה-AI לעיתים קרובות מכילות נתונים פרטיים, וחשיפתן עלולה לחשוף יותר ממה שהמשתמשים התכוונו לשתף. לאור העובדה שכלי AI משמשים לעיתים קרובות למשימות יצירתיות, עסקיות או אפילו סודיות, אובדן נתונים זה מהווה סיכון משמעותי לפרטיות.

השרת היה חשוף ללא אבטחה במשך מספר חודשים, וניתן היה לראות אותו על ידי כל מי שסורק מאגרי נתונים פתוחים, לפחות מאז פברואר 2025. חשיפה נרחבת זו מעידה על כך שייתכן שהפרצה נוצלה על ידי תוקפים במשך תקופה ממושכת לפני שנמצאה באפריל 2025.

תקרית זו מדגישה את העלייה בבעיות אבטחת מידע בתחום ה-AI. בזמן שהתעשייה מתרחבת, חברות מסוימות ספגו ביקורת על כך שהתעלמו מהחמרת אמצעי האבטחה במרוץ שלהן לשוק. פרצה זו מצטרפת לתקריות אחרות בתחום ה-AI, כגון דליפת שיחות משתמשים מ-ChatGPT ו-Grok, ומדגישה את הסיכונים המתמשכים של תשתית AI שאינה מוגנת כראוי.

למרות שאין כרגע פרטים לגבי ציר הזמן לפתרון הבעיה, הפרצה הזו משמשת תזכורת בולטת לצורך בהגברת אמצעי אבטחה בתחום ה-AI, במיוחד כשמיליוני משתמשים ממשיכים להסתמך על כלים אלו.