This post is also available in:
English (אנגלית)
מודל הבינה המלאכותית של DeepSeek, R1, כלי בינה מלאכותית חדש שנועד לסייע במשימות שונות, הראה נקודות תורפה בכל הנוגע ליצירת תוכנות זדוניות. חוקרים מחברת אבטחת הסייבר Tenable הוכיחו כי ניתן לתמרן בקלות את R1 ליצירת תוכנות זדוניות, כגון keyloggers ו-Ransomware, עם כמה הנחיות כתובות היטב.
בעוד שלכלי בינה מלאכותית גנראטיבית יש יתרונות רבים, הם יכולים גם להיות מנוצלים לרעה על ידי גורמים בעלי כוונות שליליות. עובדה זו גרמה לחברות כמו OpenAI ליישם אמצעי בטיחות כדי למנוע שימוש לרעה כזה. עם זאת, מודל R1 של DeepSeek נראה כבעל חולשות המאפשרות לו לעקוף אמצעי אבטחה אלה, מה שהופך אותו לרגיש יותר לניצול זדוני.
בסדרה של בדיקות, חוקרים של חברת Tenable גרמו ל-R1 ליצור keylogger באמצעות קוד C++. בתחילה, המודל סירב לשתף פעולה, והסביר כי keyloggers יכול לשמש למטרות זדוניות. עם זאת, על ידי שימוש בשפה ספציפית, כגון הצהרה כי הקוד ישמש למטרות חינוכיות, החוקרים הצליחו לתמרן את המערכת לעשות כמבוקשם. לאחר כמה סיבובים של הצגת בקשות, R1 סיפק קוד עבור keylogger, אם כי הוא לא היה שלם והיו בו באגים. לדברי החוקרים, ה-keylogger היה רק כמה צעדים הרחק מלהיות פונקציונלי לחלוטין.
ניסיונות נוספים לשפר את ה-Keylogger, כגון הסתרת קובץ ה-keylogging טוב יותר, עדיין דרש מהחוקרים לערוך ידנית את הקוד שנוצר. טקטיקות דומות שימשו לפיתוח תוכנות כופר, כאשר R1 סיפק הוראות מפורטות ליצירת תוכנת כופר פשוטה. למרות יעילותה בהכנת הקרקע, תוכנות הכופר דרשה גם עריכה ידנית כדי להיות תפעוליות באופן מלא.
הממצאים מדגישים חולשה מרכזית בתכנון של R1, אך בעוד שהמודל יכול ליצור את המבנה הבסיסי של תוכנות זדוניות, הוא לא יכול היה לייצר תוכנה זדונית בעלת תפקוד מלא ללא אינפוט נוסף ושינוי קוד ידני ע"י בני אדם. בכל זאת, הדבר מהווה חשש משמעותית לאבטחת סייבר, שכן מערכות מונחות AI כמו R1 יכולות להיות מנוצלות באופן פוטנציאלי כדי להפוך את היצירה של תוכנות מזיקות לאוטומטית אם לא נשלטות כראוי.