האם מודלי שפה גדולים יכולים לסייע ליישומי אבטחת סייבר?

האם מודלי שפה גדולים יכולים לסייע ליישומי אבטחת סייבר?

counter terror tech
photo illus. artificial intelligence by Pixabay

This post is also available in: enEnglish (אנגלית)

ספר לבן שפורסם על ידי החברות SEI ו-OpenAI טוען כי מודלי שפה גדולים יכולים להיות נכס עבור אנשי מקצוע בתחום אבטחת הסייבר, אך יש להעריך אותם באמצעות תרחישים אמיתיים ומורכבים כדי להבין טוב יותר את היכולות והסיכונים שמציבה הטכנולוגיה החדשה הזאת.

בעוד שמודלי שפה גדולים יודעים טוב מאוד לספק עובדות, המאמר "שיקולים להערכת מודלי שפה גדולים עבור משימות אבטחת סייבר" טוען כי זה לא מספיק – מודלי שפה גדולים יודעים הרבה, אבל הם לא בהכרח יודעים איך להשתמש במידע כראוי בסדר הנכון.

על פי Techxplore, התמקדות בידע תיאורטי מתעלמת מהמורכבות והניואנסים של משימות אבטחת סייבר בעולם האמיתי, מה שגורם לאנשי מקצוע בתחום אבטחת הסייבר לא לדעת איך או מתי לשלב מודלי שפה גדולים בפעילותם.

המאמר טוען כי הפתרון הוא להעריך מודלי שפה גדולים כמו שמעריכים מפעיל אבטחת סייבר אנושי: ידע תיאורטי, מעשי, ויישומי. עם זאת, בדיקה של רשת עצבית מלאכותית היא מאתגרת ביותר, שכן קשה מאוד אפילו להגדיר את המשימה בתחום מגוון כמו אבטחת סייבר.

יתר על כן, לאחר הגדרת המשימות, הערכה חייבת לשאול אפילו מיליוני שאלות כדי שמודלי השפה הגדולים ילמדו לחקות את המוח האנושי. בעוד שניתן לייצר את הנפח הזה של השאלות באמצעות אוטומציה, אין כלי שיכול לייצר מספיק תרחישים מעשיים או יישומיים עבור המודלים.

בינתיים, עד שהטכנולוגיה תגיע לרמה מספקת, הספר הלבן שפרסמו החברות מספק מסגרת לתכנון הערכות אבטחת סייבר מציאותיות של מודלי שפה גדולים: הגדרת משימה "מציאותית" בשביל תהליך ההערכה, ייצוג ראוי של משימות, חיזוק ההערכה, ומסגור ראוי של התוצאות.

מחברי המאמר מאמינים כי מודלי שפה גדולים בסופו של דבר יתמכו וישפרו את עבודתם של מפעילי אבטחת סייבר אנושיים במקום לעבוד באופן אוטונומי, ומדגישים כי למרות זאת, מודלי שפה גדולים עדיין צריך תהליכי בחינות והערכות. הם גם מביעים את תקוותם כי המאמר שפרסמו יתחיל תנועה לכיוון פרקטיקות שיכולות ליידע את בעלי ההחלטות שאחראים על הוספת מודלי שפה גדולים לפעילויות אבטחת סייבר.