This post is also available in: English (אנגלית)
מערכות בינה מלאכותית גנראטיבית כמו ChatGPT זכו לתשומת לב נרחבת בשל יכולתן לייצר טקסט שנראה כאילו נכתב על ידי בני אדם. עם זאת, מערכות אלה מפגינות לעתים קרובות פגמים משמעותיים, כולל התפשטות מידע שגוי וחיזוק סטריאוטיפים מזיקים, במיוחד אלה הקשורים לגזע ולמגדר. אחד הגורמים העיקריים לבעיה זו טמון בנתוני השפה עליהם מאומנים מודלים אלה.
כדי להתמודד עם האתגרים הללו, צוות של חוקרים מאוניברסיטת בירמינגהם פיתח מסגרת פורצת דרך שמטרתה לשפר את הביצועים והשיקולים האתיים של מודלי שפה גדולים (LLM). הגישה שלהם משלבת עקרונות סוציו-לינגוויסטים – חקר וריאציה ושינוי השפה – לתוך התכנון וההכשרה של מערכות AI, על פי TechXplore. על ידי שיקוף טוב יותר של הוריאציות המגוונות של השפה, החוקרים מאמינים כי מודלים אלה יכולים להיות מדויקים יותר, אמינים יותר ומודעים חברתית יותר.
המחקר, שפורסם ב-Frontiers in AI, טוען כי על ידי שילוב מגוון של ניבים, רישומים, ו-וריאציות שפה היסטוריות, מודלי שפה יוכלו להפחית באופן משמעותי הטיות חברתיות, מידע שגוי, ובעיות אחרות. המחבר הראשי של המאמר, פרופסור ג'ק וייב, הדגיש כי כאשר מודלים של בינה מלאכותית, כגון ChatGPT, מאומנים על נתונים בעלי הטיה מראש, הם נוטים לשחזר סטריאוטיפים מזיקים, וכתוצאה מכך לייצר תוכן שעשוי להיות גזעני, סקסיסטי או מפלה.
על פי המחקר, טיפול בבעיה זו דורש fine-tuning של מערכות AI באמצעות מערכי נתונים המייצגים את המגוון המלא של השפה. זה כרוך בוידוא כי נתוני האימון כוללים ייצוג מאוזן של קבוצות חברתיות, הקשרים וניבים שונים.
החוקרים מדגישים כי המפתח לשיפור מודלי השפה טמון לא רק בהרחבת נפח נתוני האימון, אלא בשיפור המגוון הסוציו-לינגוויסטי שלה. על ידי כך, מערכות AI יכולות להתאים טוב יותר לערכים חברתיים ולעזור למתן את ההטיות הפוגעות כיום ביישומים רבים של בינה מלאכותית גנראטיבית.
לסיכום, המחקר מדגיש את הצורך ההולך והגובר בשילוב תובנות ממדעי החברה בפיתוח AI, ומבטיח כי מודלי שפה יוכלו לשרת את האנושות בצורה אתית וכוללנית יותר.