יותר שקיפות נדרשת בפיתוח בינה מלאכותית

יותר שקיפות נדרשת בפיתוח בינה מלאכותית

military technology

This post is also available in: enEnglish (אנגלית)

מהלך חדש עשוי לשנות את דרך הפיתוח של בינה מלאכותית (AI) על ידי הממשל האמריקאי. במטרה להגביר את השקיפות, יחידת החדשנות של מחלקת ההגנה בממשל (DIU), המעניקה חוזים של מחלקת ההגנה לחברות, פרסמה קווים מנחים ל"אחריות בתחום ה-AI", שמפתחים צד שלישי יצטרכו לעמוד בהם בפיתוח AI לצבא, בין אם מדובר למטרות מערכת משאבי אנוש או לזיהוי מטרות.

לפי militaryaerospaece.com, הקווים המנחים לגבי אתיקה של AI מספקים לחברות תהליך צעד אחר צעד, לפיו הן צריכות לפעול במהלך התכנון, הפיתוח והפריסה. הקווים המנחים כוללים הליכים לזיהוי מי עשוי להשתמש בטכנולוגיה, מי עלול להפגע ממנה, מה תהיה הפגיעה ואיך ניתן למנוע אותה, הן לפני שהמערכת נבנתה והן לאחר שהיא כבר פועלת.

המטרה של הקווים המנחים היא להבטיח כי ספקיות הטכנולוגיה ידבקו בעקרונות האתיים הקיימים של מחלקת ההגנה לגבי AI. מחלקת ההגנה פרסמה את העקרונות האלה בשנה שעברה בעקבות מחקר של שנתיים על ידי בורד החדשנות של מחלקת ההגנה, צוות מייעץ הכולל חוקרי טכנולוגיה ואנשי עסקים מובילים, שהוקים ב-2016 כדי להביא מעט ברק מעמק הסיליקון לצבא האמריקאי.

יחד עם זאת, הקווים המנחים אינם מתייחסים לשימוש באמצעי לחימה אוטונומיים קטלניים, טכנולוגיה שהמתנגדים טוענים שיש להחרים. אבל ברייס גודמן, מיחידת החדשנות במחלקת ההגנה, וממחברי הקווים המנחים, טוען כי הרגולציה לגבי טכנולוגיות אלה נתונה להחלטת דרגים הרבה יותר גבוהים בשרשרת. המטרה של הקווים המנחים הנוכחיים היא להקל על פיתוח AI שעומד בתקנים, כך לפי technologyreview.com.