אדם נגד מכונה- האם בינה מלאכותית תוכל להגן מפני תקיפות סייבר?

אדם נגד מכונה- האם בינה מלאכותית תוכל להגן מפני תקיפות סייבר?

image provided by pixabay

This post is also available in: enEnglish (אנגלית)

בעולם בו משתמשים בבינה מלאכותית כדי לייעל פשעי סייבר, האם ניתן להשתמש באותם הכלים כדי להגן מפניהם? מומחים טוענים שחוות דעת אנושית עודנה נחוצה בכדי לשמור מפני איומי סייבר.

השימוש בבינה מלאכותית הולך וגובר, גם לטובה וגם לרעה. פשעי סייבר, שקיימים כבר שנים רבות, רק מתפתחים ומשתפרים, וכלי בינה מלאכותית רק מזרזים את התהליך.

בעבר, פשעי סייבר היו תחום מיוחד הדורש מומחיות גבוהה, אבל כיום כל אדם מהשורה יכול לבקש מצ'אטבוט לכתוב קוד ולהגיע להישגים מתוחכמים אותם לא יכל להשיג בעבר. הטכנולוגיות האלה מגבירות גם את כמות פשעי הסייבר, וגם את התחכום שלהם.

לפי "Innovation News Network", שליש מהחברות בבריטניה אמרו שהן מנטרות על פחות מ-75% משטח התקיפה שלהן, ו-20% מאמינות שאינן מודעות ליותר מחצי מההתקפות על החברה. אותן נקודות הנמצאות ללא השגחה מהוות סיכון גבוה מאוד לאותן החברות, ואת נקודת הגישה הטובה ביותר לפושעי סייבר.

כבר שנים רבות שחברות שונות משתמשות בסורקים אוטומטיים מבוססי בינה מלאכותית על מנת להעריך את שטח התקיפה שלהן ולמצוא חולשות, אבל התוצאות חלוקות. מצד אחד הכלים הללו מאוד מהירים ואינם יקרים, ומצד שני הם מגלים רק חלק קטן מהחולשות ונוטים לספק הרבה "אזעקות שווא" ו-"false positives".

בסופו של יום, הכלים הללו דורשים חוות דעת אנושית כדי לפרש את התוצאות על מנת שיהיו יעילים באמת. זהו מוטיב מוכר בכל הנוגע לכלים המבוססים בינה מלאכותית, שנוטה להיות טובה רק כמו המתפעל שלה.

לורי מרסר, מנהלת הנדסת אבטחה בחברת HackerOne, מציעה פתרון אפשרי- להכניס האקרים אתיים למשוואה. "יש צורך באינטליגנציה אנושית המשולבת עם גישה של פושעי סייבר, לכן האקרים אתיים גורמים להבדל כל כך גדול וחיובי בכל הנוגע לתכנות אבטחה. האקרים יכולים לעבוד יד ביד עם חברות כדי להתאים את האבחונים שלהם לכל סביבה טכנית מיוחדת, וכלי אבטחת הסייבר שיש לה", כך אמרה מרסר.

נראה שלמרות כל רואי השחורות הטוענים שבינה מלאכותית הולכת לקחת את העבודה של כל בני האדם, יש אפשרות לעתיד חיובי יותר בו משלבים בין כוח מכונה לכוח אדם כדי להגיע לתוצאות הטובות ביותר.