Home טכנולוגיה בינה מלאכותית מחקר: כלים לזיהוי טקסט מבוסס בינה מלאכותית עלולים לפגוע שלא בצדק במחברים...

מחקר: כלים לזיהוי טקסט מבוסס בינה מלאכותית עלולים לפגוע שלא בצדק במחברים שאנגלית אינה שפת האם שלהם

This post is also available in: English (אנגלית)

מחקר חדש חושף כשלים מהותיים בכלים הנפוצים לזיהוי טקסטים שנוצרו על ידי בינה מלאכותית, ומצביע על כך שניסיונות לאתר תוכן שנכתב על ידי מודלי שפה עשויים לגרום לפגיעה לא מכוונת במחברים שאינם דוברי אנגלית כשפת אם, וכן בתחומים אקדמיים מסוימים. הממצאים מעוררים שאלות בנוגע להוגנות ולאמינות של תהליכי הזיהוי האוטומטי בפרסום מדעי.

המחקר, שפורסם בכתב העת PeerJ Computer Science ונושא את הכותרת "The Accuracy-Bias Trade-Offs in AI Text Detection Tools and Their Impact on Fairness in Scholarly Publication", בחן את ביצועיהם של שלושה כלים פופולריים בתחום – GPTZero, ZeroGPT ו-DetectGPT בזיהוי אבסטרקטים מדעיים.

על אף שכלים אלו פותחו לזיהוי טקסטים שנוצרו באמצעות מודלים גנרטיביים כדוגמת ChatGPT, המחקר מראה כי הם מפגינים חוסר עקביות בביצועים, במיוחד כאשר טקסטים נכתבים על ידי בני אדם ומשופרים באמצעות בינה מלאכותית לצורכי בהירות וקריאות. טקסטים מסוג זה, הנכתבים בסיוע AI אך אינם נוצרים כולו על ידו, לעיתים קרובות מבלבלים את האלגוריתמים ומובילים לזיהוי שגוי.

אחת התובנות המרכזיות במחקר היא שקיים פרדוקס משמעותי: הכלים שהציגו את רמות הדיוק הגבוהות ביותר, הציגו גם את רמות ההטיה הגבוהות ביותר נגד מחברים שאנגלית אינה שפת האם שלהם. על פי TechXplore, כלים אלו נטו לזהות בטעות טקסטים שכתבו מחברים שאנגלית אינה שפת אמם ככאלה שנוצרו בידי בינה מלאכותית – למרות שמדובר בתוכן אנושי לחלוטין.

החוקרים מסבירים כי הבעיה כפולה: מצד אחד קיימת נטייה שיטתית לסיווג שגוי של טקסים המחוברים על ידי מחברים ששפת אמם אינה אנגלית, ומצד שני מדובר באוכלוסייה שעשויה להזדקק לכלים מבוססי AI יותר מכל על מנת לשפר את ניסוחיהם, דבר שעלול להוביל לאפליה.

כותבי המחקר קוראים לעבור מגישות שמתמקדות בכלי זיהוי, לשימוש אתי, אחראי ושקוף במודלי שפה במרחב האקדמי. במקום "לאכוף" שימוש בבינה מלאכותית בעזרת כלים לקויים, הם מציעים לפתח הנחיות ברורות השומרות על יושרה מדעית, תוך מתן מענה לגיוון התרבותי והרקע הלשוני של קהילת החוקרים הבינלאומית.

המסקנות מדגישות את הצורך בגישה זהירה ככל שכלי AI נטמעים עמוק יותר בתהליכי פרסום אקדמי – במיוחד כאשר הוגנות ודיוק נחשבים לערכים מרכזיים.