הדיון על אינטליגנציה מלאכותית מגיע לשיאים חדשים

הדיון על אינטליגנציה מלאכותית מגיע לשיאים חדשים

This post is also available in: enEnglish (אנגלית)

"טכנולוגיית אינטליגנציה מלאכותית הגיעה לנקודה בה הפעלת המערכות [האוטונומיות] – פרקטית, אם לא חוקית – סבירה להתרחש במהלך השנים הקרובות, לא בעידנים הקרובים, והסיכונים גבוהים: נשקים אוטונומיים תוארו כמהפכה השלישית בלוחמה, אחרי אבק שריפה ונשק גרעיני," כך כותבים מגאוני המדע והטכנולוגיה במכתב פתוח, החתום על ידי 1,000 חותמים, אשר הוצג בכנס המשותף הבינלאומי לאינטליגנציה מלאכותית בבואנוס-איירס.

החוקרים מודים ששליחת רובוטים לקרב תוכל להביא לתוצאה חיובית של פחות נפגעים. עם זאת, הם כותבים, זה מוריד את הסף ליציאה למלחמה מלכתחילה. "שלא כמו נשקים גרעיניים, הם לא דורשים חומרים יקרים שקשה להשיג, וכך הם יהפכו לנפוצים וזולים לייצור המוני על ידי כל הכוחות הצבאיים," הם כותבים. "לפתוח במירוץ חימוש אינטליגנציה מלאכותית הוא לא רעיון טוב ויש למנוע זאת על ידי איסור על נשקים אוטונומיים לתקיפה המתפקדים מעבר לשליטה אנושית".

המסר שמנסים החוקרים להעביר אינו שאינטליגנציה מלאכותית היא רעה כשלעצמה, אך שיש סכנה בשימוש בה באופן מנוגד לחלוטין לאופן בו יש לעשות בה שימוש – שימוש לטובה, לריפוי והקלה על סבל אנושי – אך ישנם מספק אנשים אשר "יכתימו" את התחום אשר, כמו ביולוגיה או כימיה, לא נועד לשם או מעוניין כלל בייצור נשקים. כל שימוש שלילי בידע זה יכול רק לגרום לציבור להתנגד לתחום ובכך לשלול ממנו כל סיכוי להיטיב בעתיד, הם כותבים.

אחד החתומים על המכתב, פרופסור בארט סלמן מאוניברסיטת קורנל, אמר שהמטרה של חוקרי ומפתחי אינטליגנציה מלאכותית היא לתת את הדעת לבטיחות הנושא. המכתב, הוא אומר, למחוקקים ולציבור הרחב, אמור להיות אינפורמטיבי ולא לזרוע בהלה.

האו"ם החל לדון לאחרונה בפוטנציאל לאיסור גלובלי על נשקים אוטונומיים – איסור לו אנגליה התנגדה באופן רשמי. ממשרד החוץ הבריטי נמסר כי "כיום, אנו לא רואים את הצורך בהגבלת השימוש בנשקי לייזר [אוטונומיים] שכן החוק ההומניטרי הבינלאומי כבר מספר רגולציה מספקת לתחום זה".

להרשמה לניוזלטר.