This post is also available in:
English (אנגלית)
ככל שמערכות בינה מלאכותית גנרטיביות גדלות ומתקדמות יותר, היישומים הפוטנציאליים שלהן במחקר ממשיכים להתרחב. עם זאת, מחקר שנערך לאחרונה מצא מגבלות קריטיות בעת שימוש במודלי שפה גדולים (LLM) כתחלופה למשתתפים אנושיים במחקר איכותני. בעוד LLMs מציעים יעילות וחיסכון בעלויות, חוקרים מאוניברסיטת קרנגי מלון (CMU) הגיעו למסקנה כי מודלים אלה לא מצליחים לדמות את העומק והניואנס של הניסיון האנושי הנדרש לסוגים מסוימים של מחקרים.
המחקר, שהוצג ב-CHI 2025 ביפן, בחן האם סוכנים מבוססי LLM יכולים להחליף כראוי קולות אנושיים במחקרים איכותנים – כגון ראיונות או מחקר אתנוגרפי – שבו תפיסה סובייקטיבית, הקשר רגשי ונרטיב אישי הם חיוניים. על פי TechXplore, המחקר כלל 19 אנשים שקיימו אינטראקציה עם LLM באמצעות ממשק צ'אטבוט. המטרה הייתה להעריך את הדיוק, העומק וההשלכות האתיות של תגובות שנוצרו על ידי ה-AI.
הממצאים גילו כי למרות היכולת של הבינה המלאכותית לייצר תשובות קוהרנטיות ומובנות, היא לעתים קרובות מיזגה נקודות מבט סותרות לנרטיב אחד. לדוגמה, במחקר היפותטי על תנאי המפעל, בינה מלאכותית עשויה למזג את נקודות המבט של מנהל ועובד מפעל לתגובה מאוחדת, אך מטעה. בלבול זה מעוות את המציאות ומוחק הבדלים חשובים בין תפקידים חברתיים, חוויות ודינמיקת כוח, על פי החוקרים.
בעיה נוספת היא הסכמה מדעת. מודלי שפה מאומנים בדרך כלל על מערכי נתונים גדולים, שחלקם כוללים נתוני משתמשים זמינים לציבור שנגרדו מפלטפורמות מקוונות. המחקר מעלה את השאלה האם האנשים שהנתונים שלהם תורמים להכשרת המודלים האלה אי פעם באמת הסכימו לשימוש הזה – במיוחד בהקשרים שבהם המילים שלהם מוצגות מחדש כמשתתפים סינתטיים במחקרים מדעיים.
המחקר גם מעלה חששות רחבים יותר לגבי האופן שבו ה-AI עשוי להנציח הטיות חברתיות המוטמעות בנתוני ההכשרה שלו. המודלים הללו, מזהירים החוקרים, אינם משקפים רק ידע – הם מעצבים אותו, ובכך מחזקים את הנרטיבים הדומיננטיים תוך דחיקת אחרים לשוליים.
בסופו של דבר, המסקנה ברורה: בעוד שמודלי שפה עשויים לשמש כלים שימושיים בתפקידי תמיכה במחקר, הם לא יכולים לשכפל באופן אותנטי את הקול האנושי במחקרים שבהם הבנת נקודות מבט אינדיבידואליות היא המפתח. הטכנולוגיה, לעת עתה, נתפסת בצורה הטובה ביותר כמשלימה – ולא כתחליף – לתובנה האנושית במחקר האיכותני.