This post is also available in: enEnglish (אנגלית)

מחקר שנערך לאחרונה על ידיDHBW Stuttgart  בחן את היכולת של הבינה המלאכותית לזהות תוכן מפלה בתמונות ובפרסומות, והראה הן התקדמות מרשימה והן מגבלות קיימות.

במסגרת מחקר זה, אלגוריתם בינה מלאכותית קיבל תמונות ופרסומות שונות והתבקש להעריך אותן – כולל 60 פרסומות אותן ביקרה לאחרונה מועצת הפרסום הגרמנית. התוצאות מראות שבינה מלאכותית מסוגלת לזהות אפליה בפרסומות בדיוק מרשים, ובאופן כללי סיווגה את הפרסומות אותן ביקרה מועצת הפרסום הגרמנית כפרסומות מפלות.

על פי Techxplore, ההתקדמות המהירה של הבינה המלאכותית מעלה את השאלה היכן נמצאים הגבולות הנוכחיים שלה. הסטודנטית הלן בקר שהשתתפה במחקר דיברה על הגישה בה נקטו: "רצינו לדעת עד כמה הבינה המלאכותית מזהה התנהגות מפלה כאשר מציגים לה רק פרסומת ומבקשים שתעריך אותה".

עניין זה רלוונטי במיוחד לאור הגידול המסיבי באפליה על ידי אלגוריתמים שיכולים לפגוע באנשים על בסיס מגדר, דת, אידיאולוגיה, גזע או מוצא. יתר על כן, היבט זה הופך להיות חשוב יותר משום שאפליה כזו על ידי אלגוריתמים הופכת לבעיה רצינית יותר ויותר המשפיעה על תחומים רבים כגון תהליכי יישום, הקצאת אשראי, רפואה, וחישוב הסתברות החזרה לפשע של עבריין.

תובנה אחרונה חושפת כי צ'אט GPT יכול לזהות חשיבה סטריאוטיפית ומחפיצה – וכאשר הציגו לו פרסומת שונה עם החלפת התפקידים המגדריים, ה-AI הוכיח שהוא מסוגל גם לזהות אפליה במצבים הפוכים.

עם זאת, המחקר מצא כי הבינה המלאכותית מגיעה לגבולות יכולותיה כשזה מגיע לזיהוי צורות אחרות של אפליה, כמו אובייקטיביות, חוסר כבוד וניצול לרעה של כוח. המחקר מעלה שאלות חשובות לגבי האופן בו טכנולוגיות AI יכולות לשמש בעתיד למאבק באפליה בתחומים שונים ולקידום שוויון, ומדגיש את הצורך לפתח מערכות בינה מלאכותית שיגעו להכיר באפליה בצורה יעילה יותר ולמנוע אותה.