האם ניתן לתקן את ה"הזיות" של ChatGPT?

האם ניתן לתקן את ה"הזיות" של ChatGPT?

image provided by pixabay

This post is also available in: enEnglish (אנגלית)

כל אדם שהתנסה עם שירותי צ'אטבוטים כמו צ'אט GPT או גוגל בארד יודע שהם לעתים קרובות מספקים מידע לא מדויק ואף מומצא. מומחים קוראים לתופעה זאת "הזיות", והיא מהווה כיום בעיה עבור כל עסק או ארגון שמנסה לגרום למערכת בינה מלאכותית לכתוב מסמכים ולייעל את העבודה.

מפתחים רבים של מערכות AI המבוססות על מודלי שפה גדולים אומרים שהם עובדים שיספקו רק מידע אמיתי ואמין, אבל השאלה האמיתית היא האם הם יוכלו לעשות זאת.

בכל מקרה, ברור מאוד שטכנולוגיית הבינה המלאכותית כאן כדי להישאר, והיא כבר עוברת תהליכי יישום כמעט בכל היבט טכנולוגי של חיי היומיום שלנו. צ'אטבוטים הם רק חלק אחד מהטירוף הזה, הכולל גם טכנולוגיה שיכולה ליצור תמונות, וידאו, מוסיקה וקוד מחשב. כמעט כל אחת מהכלים הללו כולל מרכיב שפה מסוים.

כשנשאל על בעיית ה"הזיות", ענה מנכ"ל OpenAI סם אלטמן: "אני חושב שנביא את בעיית ההזיות למקום הרבה יותר טוב…אני חושב שזה ייקח לנו שנה וחצי, שנתיים… יש איזון בין יצירתיות לבין דיוק מושלם, והמודל יצטרך ללמוד מתי המשתמש רוצה אחד מהשניים".

אבל כמה מומחים שלמדו את הטכנולוגיה טוענים כי השיפורים האלה עדיין לא יספיקו. לפי חדשות CTV, מודל שפה הוא מערכת למידול הסבירות של מחרוזות שונות של מבני מילים, בהתבסס על נתונים כתובים ששימשו לאימון המודל. כך spellcheck יכול לזהות מתי הקלדת את המילה הלא נכונה, ואף מסייע להפעיל שירותי תרגום ותעתוק אוטומטיים.

אמילי בנדר, פרופסור לבלשנות ומנהלת המעבדה לבלשנות חישובית באוניברסיטת וושינגטון אמרה שכאשר הם משמשים ליצירת טקסט, מודלים של שפה "נועדו להמציא דברים. זה כל מה שהם עושים".

"הם טובים בחיקוי צורות כתיבה… אבל מכיוון שהם תמיד ממציאים דברים, כאשר הטקסט שהם הוציאו יוצא כמשהו שנראה לנו הגיוני, זה לגמרי במקרה", כך בנדר. "גם אם ניתן לכוונן אותם להיות צודקים אחוז גדול יותר מהזמן, עדיין יהיו להם מצבי כישלון – וסביר להניח שהכישלונות יהיו במקרים שבהם קשה יותר לאדם שקורא את הטקסט להבחין בהם כי הם יותר מעורפלים".

מייסד מיקרוסופט, ביל גייטס, הפגין גישה יותר אופטימית ואמר בפוסט בבלוג שלו כי הוא "אופטימי שלאורך זמן יהיה ניתן ללמד מודלים של בינה מלאכותית להבדיל בין עובדות לשקר".

לאחרונה חוקרים מהמכון הפדרלי השוויצרי לטכנולוגיה בציריך אמרו שהם פיתחו שיטה לזהות חלק מתוכן "ההזיות" של צ'אט GPT, אך לא את כולו, ולהסיר אותו באופן אוטומטי.

אבל אפילו אלטמן, לפחות לעת עתה, לא סומך על אמינות המודלים. "אני כנראה סומך על התשובות שיוצאות מצ'אט GPT פחות מכל אחד אחר על פני כדור הארץ", הוא אמר באוניברסיטת באגלר.