This post is also available in:
English (אנגלית)
מערכות AI יכולות להניב תוצאות מדהימות, לנהל שיחות אנושיות ולספק תשובות מנוסחות להפליא, מה שנותן לטכנולוגיה הזו אשליה של אמינות גבוהה. יתר על כן, מספר גדל והולך של תחומים מקצועיים משלבים כלי בינה מלאכותית כדי לתמוך במומחים ולמזער טעויות בקבלת החלטות.
עם זאת, ההטיות הקיימות בתוצאות של בינה מלאכותית מוכיחות כי טכנולוגיה זו אינה נטולת סיכונים. הנתונים המשמשים לאימון מודלים של בינה מלאכותית משקפים החלטות עבר אנושיות, כך שאם הם מכילים דפוסי טעויות שיטתיות, אלגוריתם הבינה המלאכותית ילמד וישחזר את השגיאות הללו. כבר ידוע שמערכות בינה מלאכותית יורשות ואף ומגבירות הטיות אנושיות.
באופן מפתיע, מחקר חדש של הפסיכולוגיות לוצ'יה וויצ'נטה והלנה מטוט מאוניברסיטת דאוסטו מספק ראיות כי כם ההפך יכול להתרחש: אנשים יכולים לרשת הטיות של בינה מלאכותית (טעויות שיטתיות בפלט בינה מלאכותית) שחודר להחלטות שלהם. לא רק בינה מלאכותית יכולה לרשת הטיות מנתונים אנושיים, אלא גם אנשים יכולים לרשת את ההטיות האלה מבינה מלאכותית, מה שעלול להפוך ללולאה מסוכנת של סיבה ותוצאה.
על פי Techxplore, החוקרות ערכו סדרה של שלושה ניסויים בהם מתנדבים ביצעו משימת אבחון רפואית. קבוצה אחת של המשתתפים נעזרה במערכת בינה מלאכותית מוטה (שהראתה שגיאה שיטתית), וקבוצת הביקורת לא נעזרה באף מערכת. המשתתפים שנעזרו בבינה מלאכותית מוטה עשו את אותן הטעויות שעשתה הבינה המלאכותית, בעוד קבוצת הביקורת לא עשתה את הטעויות האלה, מה שמוכיח שהמלצות הבינה המלאכותית השפיעו על החלטות המשתתפים.
הממצא המשמעותי ביותר של המחקר היה שלאחר אינטראקציה עם מערכת הבינה המלאכותית, המתנדבים שנעזרו בה המשיכו וחזרו על השגיאה השיטתית כאשר עברו לבצע את משימת האבחון ללא עזרה. זה מראה כי מידע מוטה של מודל בינה מלאכותית יכול להיות בעל השפעה שלילית ארוכת טווח על החלטות אנושיות.
"ירושה" זו של הטיה של בינה מלאכותית מוכיחה שיש צורך במחקר פסיכולוגי ורב תחומי נוסף על אינטראקציה אנושית עם בינה מלאכותית, וכן רגולציה מבוססת ראיות שתבטיח פיתוח של בינה מלאכותית הוגנת ואתית, עם התחשבות לא רק בתכונות הטכניות של בינה מלאכותית אלא גם בהיבטים הפסיכולוגיים של הבינה המלאכותית ושיתוף פעולה אנושי.
מחקר זה פורסם ב-Scientific Reports.