This post is also available in: enEnglish (אנגלית)

אחד האתגרים שקשורים בשימוש בבינה מלאכותית הוא האמון. למרות שאלגוריתמים של משין לרנינג מציגים תוצאות מבטיחות במערכות ביטחוניות, עדיין לא ברור עד כמה המשתמשים יכולים לתת בהן אמון. גורמי מודיעין רשמיים בארה"ב חזרו וציינו שאנליסטים לא יכולים לסמוך על מערכות בינה מלאכותית שמהוות קופסה שחורה ומפיקות החלטה או פריט מודיעין, אלא עליהם להבין איך המערכת הגיעה להחלטה ומהן ההטיות הבלתי נראות שהשפיעו על ההחלטה (בנתוני האימונים של המערכת או גורמים אחרים).

היישומים הטכנולוגים של בינה מלאכותית ומשין לרנינג מתקדמת במהירות, וכעת עולה הצורך באינטגרציה שלהם בשטח, שימוש ונתינת אמון בהם. כך תוכל לסייע תוכנה חדשה של מחלקת ההגנה האמריקאית, שתאפשר יותר אמון בהחלטות ובמודיעין שמפיקים אלגוריתמים אלה. התוכנה מיועדת להגביר שקיפות במערכות משין לרנינג על ידי עריכה שלהן כך שיסופקו תובנות על הדרך שבה הגיעו להחלטות.

על פי c4isrnet.com, תוכנית מידפול של חברת BAE Systems מ פותחה למען שימוש דארפ"א בשיתוף עם מעבדת מדעי המחשב והבינה המלאכותית של MIT. המערכת מאחסנת נתונים רלבנטים כדי להשוות את הסביבה העכשווית לניסיון העבר ומספקת ממצאים פשוטים להבנה. היא מיועדת לספק יותר הקשר סביב התפוקות שלה. לדוגמא, לפי החברה, התוכנית תפיק היגדים כמו "המערכת המבוססת משין לרנינג ניווטה בין מכשולים בסביבות יבשות לאור שמש 1000 פעמים, והשלימה את המשימה ברמת דיוק גבוהה יותר מ-99% בתנאים דומים". או היגד אחר כמו "מהערכת ניווטה בין מכשולים בגשם רק 100 פעמים עם 80% דיוק בתנאים דומים, מומלצת השתלטות ידנית". 

מעוניינים לצלול אל תוך עולם העתידנות הטכנולוגית? – הירשמו לINNOTECH 2023, הכנס והתערוכה הבינלאומיים לסייבר, HLS וחדשנות באקספו תל אביב ב29-30 במרץ.

מעוניינים בחסות / ביתן תצוגה בתערוכת ה-INNOTECH 2023? לחצו כאן לפרטים!