This post is also available in:
English (אנגלית)
OpenAI מתקדמת לעבר לכיוון חדש של התאמה אישית, ומדמיינת מודל שיכול לזכור ולהשתמש בכל הפעילות הדיגיטלית של בן אדם. באירוע שנערך לאחרונה, מנכ"ל OpenAI, סם אלטמן, שיתף תוכניות להרחבת היכולות של ChatGPT הרבה מעבר לדיאלוג פשוט, במטרה לייצר מערכת שמבינה משתמשים לעומק על ידי למידה מתמדת מנתוני החיים שלהם.
המטרה, כפי שתוארה במהלך הדיון, היא לבנות עוזר AI עם גישה "לטריליוני טוקנים" של הקשר. זה כולל כל שיחה קודמת, אימיילים, מסמכים, ספרים, היסטוריית גלישה, ומקורות נתונים חיצוניים המחוברים על-ידי המשתמש. למעשה, המודל ייצר חלון הקשר שמתעדכן כל הזמן ומשקף את כל ניסיון החיים של אדם.
אלטמן הסביר כי משתמשים צעירים כבר סוללים את הדרך לשינוי זה. סטודנטים רבים באוניברסיטה מדווחים כי הם מתייחסים ל-ChatGPT כמערכת הפעלה אישית – הם מעלים לאתר חומרי לימוד, מקשרים אליו מסדי נתונים, ומשתמשים בהנחיות מתוחכמות כדי לקבל החלטות אקדמיות ואישיות. עבורם, הצ'אט מתפקד יותר כיועץ מהימן לחיים מאשר צ'אטבוט פשוט.
חזון זה מתיישב עם מגמות הפיתוח הנוכחיות בעמק הסיליקון, שם סוכנים אוטונומיים המופעלים על ידי בינה מלאכותית מתחילים לטפל במשימות שגרתיות. איטרציות עתידיות של מערכות כאלה יכולות, למשל, לנהל משימות לוגיסטיקה, לקבוע פגישות, או אפילו לבצע רכישות מקוונות על בסיס ההעדפות והשגרה של המשתמש.
עם זאת, מודל AI מותאם אישית זה מעלה גם שאלות מורכבות על אבטחת נתונים ופרטיות. בעוד שהיתרונות של עוזר מודע ומסיק מסקנות ברורים, הטרייד-אוף כולל מסירת כמויות עצומות של נתונים אישיים לפלטפורמה גדולה. מבקרים מזהירים כי נתונים כאלה יכולים להיות מנוצלים לרעה, בין אם למטרות מסחריות או כדי להתאים להטיות פוליטיות או אידיאולוגיות.
לאחרונה, עלתה לכותרות סוגייה לפיה תגובות הצ'טבוט נעימות מדי ושקיימת בו חוסר עקביות אידיאולוגית המהווה חסרון פוטנציאלי. למרות השיפורים המתמשכים במודל, מערכות בינה מלאכותית גדולות עדיין חשופות לסיכון של "הזיות" ולהתנהגות בלתי צפויה.
הרעיון של בינה מלאכותית המציעה הדרכה חכמה ומודעת הקשר הוא מפתה. אבל ככל שמערכות אלה הופכות ליותר ויותר מוטמעות בחיי היומיום, התכנון שלהן יצטרך לאזן את השירות עם אמצעי הגנה חזקים סביב אמון, שקיפות ובקרת משתמש.