כלי הבינה המלאכותית המועדף החדש על פושעי הסייבר

Image by Unsplash

This post is also available in: English (אנגלית)

צ'אט בוט AI חדש בשם Venice.ai החל למשוך תשומת לב מכל הסיבות הלא נכונות. הכלי, שבנוי לפעול ללא המגבלות האתיות הנמצאות בפלטפורמות המיינסטרים, הופך במהירות למועדף בקרב פושעי סייבר, על פי חברת האבטחה Certo.

במבט ראשון, Venice.ai משקף את חוויית המשתמש של דגמי AI בשימוש נרחב כמו ChatGPT. עם זאת, שלא כמו פלטפורמות מוסדרות שאוכפות תוכן בקפדניות, Venice.ai בנויה על מודלים בקוד פתוח בהם כל מחסומי הבטיחות שהוסרו במכוון. תמורת 18 דולר לחודש בלבד, המשתמשים מקבלים גישה למערכת שתעבד כמעט כל בקשה – לא משנה עד כמה זדונית.

החקירה של סרטו מגלה כי חוסר פיקוח זה הפך את Venice.ai למשאב רב עוצמה ליצירת קמפייני פישינג, כתיבת תוכנות זדוניות ופיתוח תוכנות ריגול בקלות מדאיגה. החוקרים הניעו בהצלחה את הצ'טבוט לנסח הודעות דואר אלקטרוני מתוחכמות עבור פישינג, ליצור keyloggers עבור מערכות ווינדוז, ואפילו לייצר תוכנות ריגול אנדרואיד המסוגלות להפעיל מרחוק את המיקרופון של המכשיר והזרמת נתוני אודיו לשרתים חיצוניים.

מה שמדאיג במיוחד לגבי Venice.ai הוא לא רק היכולות שלו, אלא גם אי-הציות הפתוח שלו לאילוצים אתיים. כאשר המערכת מתבקשת ליצור תוכן מזיק, היא מצייתת – ומציינת במפורש שהיא מתוכנתת להגיב לכל קלט המשתמש, כולל בקשות פוגעניות או מסוכנות.

מומחי אבטחה מזהירים כי כלים כאלה יכולים להוריד את מחסום הכניסה לפשעי סייבר. התוקפים אינם זקוקים עוד לידע קידוד נרחב כדי לפרוס הונאות ברמה מקצועית או לפתח תוכנות זדוניות. לדברי סרטו, זה יכול להרחיב באופן דרסטי את נוף האיומים, ומאפשר ליותר אנשים לבצע התקפות סייבר מתוחכמות עם מאמץ מינימלי.

השיח המקוון סביב Venice.ai רק גדל, במיוחד בפורומים ידועים של האקרים, שם הוא מקודם כ-AI "פרטי ולא מצונזר".

ככל שיכולותיה של בינה מלאכותית גנראטיבית ממשיכות להתקדם, הופעתם של כלים כמו Venice.ai מדגישה אתגר דחוף: איזון חדשנות עם שימוש אחראי. ללא אמצעי הגנה משמעותיים, טכנולוגיות כאלה מסתכנות בהפיכתן למאיצים לפשעי סייבר, ומאפשרות איומים המתרחבים מהר יותר ורחוק יותר מאי פעם. קהילת אבטחת הסייבר ניצבת כעת בפני המשימה הדחופה של התאמת ההגנות לעידן חדש שבו בינה מלאכותית חזקה נגישה לא רק למומחים, אלא לכל מי שיש לו חיבור לאינטרנט.