This post is also available in: enEnglish (אנגלית)

כבר בשנת 2015, מאות חוקרים ומעל 500 מומחים, ביניהם היזם אילון מאסק, האסטרופיזיקאי סטיבן הוקינג, שותף-מייסד של אפל סטיב ווזניאק, והפילוסוף נעם חומסקי חתמו על מכתב פתוח בו דרשו מהאו"ם לתמוך באיסור פיתוח מערכות נשק אוטונומיות קטלניות. הם טענו שטכנולוגיות בינה מלאכותית שמיושמות בתחומי הנשק הקטלני מהוות צעד בלתי הפיך, שיביא להתפשטותה של הטכנולוגיה למטרות זדוניות.

בדומה לנשק הגרעיני, טענו במכתב, גם הטכנולוגיה הזו תפתח מירוץ חימוש חדש. לעומת מערכות נשק אחרות, כמו נשק גרעיני, טכנולוגיית בינה מלאכותית זולה משמעותית לתפעול ותחזוקה, ולכן צפויה להיטמע במגוון מטרות צבאיות ולייצור המוני, ואף להתפשט בארגוני טרור ובשוק השחור בשל יתרונותיה. משום שמדובר בתחום חדש, אנשי המדע המובילים של תקופתנו דרשו לגבש הסכמות ותקנונים לשימוש בטכנולוגיית בינה מלאכותית כבר בעשור הקודם.

שבע שנים אחרי, אנו עדים לשילוב מסיבי של טכנולוגיות בינה מלאכותית בתעשיית הנשק האוטונומי. לאחרונה פורסם כי נדרשו רק 6 שעות למערכת רשת נוירונים כדי לפתח 40,000 סוגים שונים של נשק כימי. בעזרת בינה מלאכותית, החוקרים הצליחו להדגים באיזו קלות ניתן לכוון את המערכת למצב של "שחקן רע", ולנצל אותה למטרות זדוניות, כך לפי thetimeshub.in. 

המדענים, שנתנו למערכת הוראה לחפש אחר רכיבים רעילים, הביאו את האלגוריתם לתוצאות מרשימות ומדאיגות: האלגוריתם הצליח להמציא רבבות של חומרים חדשים, ביניהם חומרים דומים ל-VX (חומר לחימה כימי, גז עצבים) בשעות ספורות. בדרך זו ניסו החוקרים לעורר מודעות לתחום, ולנזקים הטמונים בשימוש לא מחקרי, בתחום שעדיין חסרות בו הנחיות לגבי שימוש לא ראוי בטכנולוגיה.