This post is also available in: enEnglish (אנגלית)

מחקר חדש חושף שלמודלים של בינה מלאכותית יכולות להיות דעות פוליטיות שונות. חוקרים מאוניברסיטאות וושינגטון, קרנגי מלון ושיאן ג'יאוטונג עבדו עם 14 מודלי שפה גדולים (LLM) וגילו שלכולם אכן היו דעות פוליטיות שונות.

החוקרים הציגו למודלי השפה 62 אמירות טעונות פוליטיות וביקשו מהם להגיד אם הם מסכימים או לא מסכימים. החוקרים אז יצרו מהתשובות שהתקבלו גרף "מצפן פוליטי" המודד את מידת הליברליזם או השמרנות החברתיים והכלכליים.

המסקנות היו שחלק מהמודלים שפותחו על ידי חברת OpenAI (כמו צ'אט GPT ו-GPT-4) היו יותר ליברליים נוטי שמאל והעדיפו חופש חברתי ושוויון כלכלי, ואלה שפותחו על ידי Meta (כמו LLaMA ו-RoBERTa) היו יותר אוטוריטריים ימניים, והעדיפו סדר חברתי והיררכיה כלכלית. אפילו יותר מעניין הייתה התגלים שרוב המודלים הישנים יותר תמכו באחריות חברתית תאגידית, בעוד המודלים החדשים יותר לא תמכו.

למרות כל זאת, מסתבר שמודלי שפה גדולים יכולים ללמוד ולהתפתח בדיוק כמונו – החוקרים ניסו להכשיר מחדש את המודלים בעזרת נתונים פוליטיים שונים, והמודלים אכן שינו את דעותיהם הפוליטיות והביצועים שלהם.

למחקר יש השלכות חשובות על השימוש במודלי שפה מבוססי בינה מלאכותית, שהרי יש להם פוטנציאל לגרום נזק אמיתי אם הם מבטאים או מגבירים נטיות פוליטיות מזיקות או פוגעניות. ואכן, חלק מהחברות האחראיות על המודלים האלה התמודדו עם ביקורות רציניות מצד קבוצות שטוענות כי הצ'טבוטים משקפים השקפת עולם מוטה. עם זאת, חלק מהחברות כמו OpenAI הגיבו שהן פועלות כדי לטפל בבעיות אלה ולכוונן את המודלים כך שלא יעדיפו אף קבוצה פוליטית.

עם זאת, בעוד שהמחקר שופך אור על ההטיות הפוליטיות הקיימות במודלים של בינה מלאכותית, הוא גם מדגיש את המגבלות שלהם. מאמצים להסיר הטיות מנתוני אימון מודלים לא יספיקו, שכן הם עדיין יכולים לייצר תוצאות מוטות וללמוד ממידע נוסף שיסופק להם.

לדברי החוקרים, מחקר זה הוא הראשון שמודד ומשווה באופן שיטתי את ההטיות הפוליטיות של מודלי שפה שונים, ומקווים שעבודתם תעלה מודעות ותצית דיון על ההשלכות האתיות והחברתיות של מודלי שפה מבוססי בינה מלאכותית.

מידע זה נמסר על ידי אתר Interesting Engineering.