This post is also available in: enEnglish (אנגלית)

לאור המחאה הפנימית הקשה שהתעוררה בגוגל, והביאה לפרסום מכתב פתוח והתפטרות כתריסר עובדים, ניסחה החברה סט כללי אתיקה לגבי בינה מלאכותית, האוסר על פיתוח כלי נשק אוטונומיים. הרקע למחאה היה השימוש בטכנולוגיית הבינה המלאכותית של גוגל על ידי תוכנית של משרד ההגנה האמריקאי בשם פרויקט Maven, הצוות הבין-תפקודי ללוחמה אלגוריתמית, שנועד, בין השאר, לשפר את הדיוק של כטב"מי תקיפה.

אבל technologyreview.com מעריך כי העקרונות החדשים משאירים לגוגל די מקום להרוויח מעסקאות ביטחוניות משתלמות בהמשך.

הבלוג של גוגל, The Keyword, מפרט את רשימת הכללים של החברה לגבי ישומי בינה מלאכותית. עקרונית, הוא טוען כי החברה תיקח בחשבון סט רחב של שיקולים חברתיים וכלכליים, כולל העובדה שהטכנולוגיה צריכה להיות לטובת החברה; להמנע מיצירה או חיזוק של הטיות בלתי צודקות על ידי אלגוריתמים של בינה מלאכותית (לגבי היבטים כמו אתניות, מין ועוד). הפיתוח ייבנה וייבחן על פי הכללים הנהוגים במחקרי בטיחות בתחום הבינה המלאכותית. מערכות הבינה המלאכותית יספקו דין וחשבון ויאפשרו הזדמנות לפידבק; הן ימלאו אחר עקרונות הפרטיות. החברה תקדם סטנדרטים גבוהים של מצוינות מדעית בתחום, ותפעל להגבלת פוטנציאל הנזק או הפגיעה של ישומי בינה מלאכותית.

לפי הבלוג, החברה לא תקדם טכנולוגיות שגורמות לנזק כללי, כלי נשק ו טכנולוגיות אחרות שמטרתן העיקרית לגרום או לאפשר ישירות פגיעה באנשים, טכנולוגיות שאוספות או משתמשות במידע לצורך מעקב שמפר נורמות בינלאומיות מקובלות, וכן טכנולוגיות שמטרתן נוגדת עקרונות מקובלים של משפט בינלאומי וזכויות אדם.