המרוץ של אבטחת הסייבר ופשעי הסייבר לעבר הבינה המלאכותית

המרוץ של אבטחת הסייבר ופשעי הסייבר לעבר הבינה המלאכותית

image provided by pixabay

This post is also available in: enEnglish (אנגלית)

זמן לא רב לאחר שמודלים של בינה מלאכותית כמו ChatGPT הגיעו לציבור הרחב, גורמים זדוניים השיקו תוכניות כמו FraudGPT כדי לסייע לעבריינים ליצור מתקפות סייבר בלחיצת כפתור פשוטה.

כיום חברות מאמצות הגנות סייבר המבוססות על בינה מלאכותית בתקווה להתגבר על שימוש בכלים דומים מצד התוקפים, אבל מומחים מזהירים כי יש צורך במאמץ רב יותר כדי להגן על הנתונים והאלגוריתמים שמאחורי מודלים של בינה מלאכותית, מחשש שהם עצמם ייפלו קורבן למתקפות סייבר.

בסקר של IBM שפורסם לאחרונה, 84% מהמנהלים בתאגידים שהגיבו על הסקר אמרו כי הם "יעדיפו פתרונות אבטחת AI על פני פתרונות קונבנציונליים" למטרות אבטחת סייבר. IBM מסרה כי היא מפתחת פתרונות אבטחת סייבר המבוססים על מודלים של בינה מלאכותית כדי "לשפר את המהירות, הדיוק והיעילות של יכולות זיהוי איומים ותגובה, ולהגדיל באופן דרסטי את היעילות של צוותי אבטחה".

על פי אתר Techxplore, חברת אבטחת הסייבר Darktrace פורסת מודלי בינה מלאכותית מותאמים אישית למטרות אבטחת סייבר, משתמשת בבינה מלאכותית כדי לחזות התקפות אפשריות, ומתכננת מודלי בינה מלאכותית קנייניים ללמידה עצמית שמביטים ומבינים את ההתנהגות של הסביבה בה הם פרוסים. המערכת ממפה את פעילותם של יחידים, קבוצות עמיתים וחריגים, ולאחר מכן מסוגלת לזהות סטיות מהנורמה ולספק הקשר לסטיות כאלה, מה שמאפשר למומחי אבטחה לפעול.

חוזה-מארי גריפית'ס, נשיא אוניברסיטת דקוטה ששירת בעבר בוועדה לביטחון לאומי של הקונגרס לבינה מלאכותית, קובע כי בנוסף לגילוי אנומליות וסיוע בחקירות של מתקפת סייבר, כלי בינה מלאכותית צריכים להיות שימושיים בניתוח קוד זדוני כדי לקבוע את מקורותיהם של תוקפים – "הנדסה לאחור של קוד זדוני כדי לזהות מי שלח אותו ומה הייתה הכוונה, הוא אזור אחד שבו לא ראינו שימוש רב בכלי בינה מלאכותית, אבל אנחנו יכולים לראות לא מעט עבודה, וזה תחום שמעניין אותנו".

גריפית'ס גם הזהיר כי בעוד שהשימוש במודלי בינה מלאכותית לשיפור אבטחת הסייבר צובר תאוצה, מומחי אבטחה חייבים גם לשים לב לשמירה על המודלים עצמם מכיוון שתוקפים יכולים לנסות לפרוץ למודלים ולנתונים הבסיסיים שלהם.