צ'אט בוטים, מידע שקרי וכל מה שביניהם

צ'אט בוטים, מידע שקרי וכל מה שביניהם

Image provided by pixabay

This post is also available in: enEnglish (אנגלית)

להרבה מאתנו כבר יצא לשמוע את השם ChatGPT, אחד מהצ'אט בוטים מבוססי הבינה המלאכותית שנפתחו לשימוש לציבור הרחב. ההשקה של כלי ה- ChatGPTלוותה בתגובות מתלהבות בנוגע לטכנולוגיה החדשנית של הכלי והתשובות המפורטות שהוא סיפק למשתמשים, אך ככל שעובר הזמן ויותר אנשים מתנסים בטכנולוגיה החדשה אנחנו רואים עלייה משמעותית בשימוש של הכלי למטרות של פרסום תוכן שקרי.

בשונה לכלי בינה מלאכותית אחרים בשוק כגון סירי ואלקסה, ChatGPT לא מבצע חיפושים דרך האינטרנט כדי לענות על השאלות שלהם. ChatGPT הינו מודל שפה, כלומר הבוט יודע כיצד לנתח כמויות עצומות של דאטא ולהפיק תשובה ייחודית שמתבססת על הניסיון הלימוד הקודם של הבוט. מסיפוק תשובות לשאלות פשוטות, המלצות על ספרים חמים או אפילו כתיבת מאמרים אקדמיים שלמים. עם כל האפשרויות האלו, לא מפתיע שהכלי החדש נמצא במרכז שיח בוהר על האתיקה בשימוש בכלים דומים והיכולת להפיק מידע שקרי באמצעות הבינה המלאכותית.

על פי דוח שנערך על ידי אוניברסיטת ג'ורג'טוון, ארה"ב, "ישנם שימושים שליליים אפשריים של מודלי השפה הגנרטיבים, או 'מודלי שפה' בקיצור. בשביל שחקני רשת זדוניים שמחפשים דרכים להפיץ פרופגנדה – מידע שמטרתו לעוות את הדרך בה אנשים חושבים ואת תפיסת העולם שלהם לכיוון פוליטי שהשחקן מעוניין בלהפיץ – מודלי השפה האלו מבטיחים דרך אוטומטית לייצר טקסטים שקריים לשימוש במבצעי השפעה, במקום להישען על עבודה ידנית של פעילים.

"בשביל החברה, פיתוחים אלו מביאים איתם רשימה חדשה של דאגות: היכולת של ביצוע קמפיינים – בקנה מידה עצום, אפילו עם יכולת שכנוע גבוהה – שמטרתם להשפיע באופן נסתר על הדעות של המגזר הציבורי," כך הדוח מפרט.

מעוניינים לצלול אל תוך עולם העתידנות הטכנולוגית? – הירשמו לINNOTECH 2023, הכנס והתערוכה הבינלאומיים לסייבר, HLS וחדשנות באקספו תל אביב ב29-30 במרץ.

מעוניינים בחסות / ביתן תצוגה בתערוכת ה-INNOTECH 2023? לחצו כאן לפרטים!