ייתכן שבני אדם משנים את התנהגותם בעת אימון מודלי AI

Image provided by Unsplash

This post is also available in: English (אנגלית)

מחקר חדש של אוניברסיטת וושינגטון בסנט לואיס גילה שכאשר נאמר לבני אדם שהם מאמנים בינה מלאכותית לשחק משחק מיקוח, הם שינו את התנהגותם במכוון להתנהגות שהם כיותר אתית, ייתכן עם מוטיבציה להכשיר AI להגינות.

המחקר, שפורסם בכתב העת Proceedings of the National Academy of Sciences, כלל חמישה ניסויים, עם 200-300 נבדקים כל אחד. בכל ניסוי, המשתתפים התבקשו לשחק את "משחק האולטימטום", שבו הם ניהלו משא ומתן על סכום קטן של כסף מזומן (בין 1 דולר ל-6 דולר), בין אם עם שחקנים אנושיים אחרים ובין אם עם מחשב. לחלק מהמשתתפים נאמר שהחלטותיהם במשחק ישמשו להכשרת בוט מבוסס בינה מלאכותית על איך לשחק את המשחק. למרבה הפלא, אלה שהאמינו שהם מאמנים בינה מלאכותית נטו יותר ויותר לקבל נתח הוגן מהכסף, אפילו כשהדבר בא על חשבונם. באופן מפתיע, הנטייה הזו לחפש הוגנות המשיכה גם לאחר שנאמר להם שהבחירות שלהם כבר לא משמשות לאימון הבינה המלאכותית, דבר המצביע על כך שלחוויה של תרומה לטכנולוגיה הייתה השפעה מתמשכת על קבלת ההחלטות שלהם.

עם זאת, המניע להתנהגות זו עדיין לא לגמרי ברור. המחקר לא דרש מהמשתתפים לחשוף את ההגיון שעליו התבססו, וייתכן שהסיבה לא הייתה כוונותיהם הטובות להפוך את הבינה המלאכותית לאתית יותר. על כן, ניסויי המשך מתרחשים כעת כדי להבין את המניעים של אנשים בעת אימון בינה מלאכותית. יתר על כן, חוקרים מזהירים כי גם אם זה אכן המקרה, לאנשים אחרים עשויות להיות אג'נדות שונות.

כך או כך, מידע זה שאנשים אשר מודעים לכך שהם מאמנים בינה מלאכותית עשויים לשנות באופן פעיל את התנהגותם הינו משהו חשוב לשקול עבור מפתחים בעת עבודה על אימון AI. החוקרים מסבירים כי אם הטיות אנושיות במהלך אימון AI אינן נשקלות מראש, מודל ה- AI המאומן צפוי להיות מוטה באותו אופן. הם הסבירו שזה משהו שאנחנו כבר רואים היום בכך שתוכנות זיהוי פנים מסוימות מספקות דיוק פחות טוב כאשר מנסות לזהות אנשים מצבעי עור שונים, בין היתר משום שהנתונים המשמשים לאימון AI היו מוטים, כך על פי TechXplore.