This post is also available in:
English (אנגלית)
ניסוי התנהגותי חדש שפורסם ב- PNAS Nexus מצא שאנשים נוטים להיות פחות שיתופיים, בוטחים והוגנים כאשר הם יודעים שהם מקיימים אינטראקציה עם מערכת AI, גם אם אדם אמיתי בסופו של דבר מרוויח מהתוצאה. הממצאים מעלים שאלות לגבי השימוש בבינה מלאכותית בכל הקשר הדורש אמון ברמה אנושית, כמו למשל שימוש בה באימונים או בראיונות.
על פי TechXplore, המחקר השתמש במשחקי אינטראקציה אסטרטגית מוכרים כדי לבחון תגובות אנושיות כאשר הוא מתמודד מול בינה מלאכותית במקום אדם אחר. למעלה מ-3,500 משתתפים שיחקו בסדרה של משחקים מקוונים – כולל דילמת האסיר, משחק האולטימטום ומשחק האמון – שנועדו למדוד שיתוף פעולה, הוגנות וקבלת החלטות הדדית.
בכל משחק, המשתתפים שיחקו נגד בן אדם, או נגד מערכת AI (ספציפית – מודל השפה ChatGPT) הפועלת בשמו של בן אדם. בתיאוריה, התוצאות צריכות להיות זהות – הבינה המלאכותית קיבלה החלטות רק עבור אדם אמיתי. אבל בפועל, השחקנים התנהגו אחרת.
כאשר הם ידעו כי בינה מלאכותית מעורבת, אנשים נטו לשתף, לבטוח או לשתף פעולה פחות באופן משמעותי – גם אם הבינה המלאכותית פעלה בצורה הוגנת. ניסיון קודם עם כלי בינה מלאכותית לא עשה הבדל גדול. וכאשר המשתתפים יכלו להשתמש בבינה מלאכותית כדי לקבל החלטות משלהם, הם נטו לעשות זאת יותר אם הם ידעו שהצד השני לא יגלה.
התוצאות מצביעות על אי נוחות עמוקה יותר עם AI בתפקידים הפונים לבני אדם – במיוחד אלה הכרוכים בשיקול דעת מוסרי או אסטרטגי. תופעה זו, המכונה לעתים קרובות "סלידה מאלגוריתמים", משקפת נטייה להתנגד להשתתפות AI בתהליכים חברתיים, גם כאשר התוצאות הגיוניות או מועילות.
ככל שהבינה המלאכותית תשתלב יותר במערכות, ההבנה כיצד אנשים מגיבים לקבלת החלטות של בינה מלאכותית תהיה קריטית. תכנון מערכות המשלבות בינה מלאכותית מבלי לשחוק אמון או שיתוף פעולה עשוי להיות חשוב לא פחות מביצועים טכניים.