This post is also available in: enEnglish (אנגלית)

חברת OpenAI הכריזה כי תשיק כלים חדשים שנועדו להילחם בדיסאינפורמציה, בדיוק בזמן לאירועי בחירות רבים הצפויים להתקיים השנה בכמה מהמדינות המובילות בעולם.

כבר ברור שהסיוע והקידמה הטכנולוגית שהביאה איתה הבינה המלאכותית מגיעה עם המחיר הכבד של הצפת האינטרנט עם דיסאינפורמציה. בהגיענו לשנת בחירות במדינות כמו ארה"ב, הודו ובריטניה, חברת OpenAI הודיעה כי היא לא תאפשר לכלי הטכנולוגיה שלה (כמו צ'אט GPT ויוצר התמונות DALL-E 3) לשמש לקמפיינים פוליטיים.

על פי Techxplore, OpenAI הודיעו כי הם רוצים לוודא שהטכנולוגיה שלהם לא מנוצלת באופן שעלול לערער את התהליך הדמוקרטי. "אנחנו עדיין עובדים כדי להבין עד כמה הכלים שלנו יכולים להיות יעילים עבור שכנוע אישי. עד שנדע יותר, לא נאפשר לאנשים לבנות יישומים לקמפיין פוליטי ולשתדלנות".

בעוד שהחשש מפני דיסאינפורמציה במערכות בחירות אינו דבר חדש, הזמינות המוגברת של טקסטים ותמונות הנוצרים ע"י בינה מלאכותית הגבירה מאוד את האיום הזה, במיוחד כאשר למשתמשים אין את היכולת להבחין בקלות בין תוכן מזויף או מניפולטיבי.

הכלים החדשים של OpenAI יצרפו "ייחוס אמין" לטקסטים שנוצר על ידי ChatGPT, ויעניקו למשתמשים את היכולת לזהות אם תמונה נוצרה באמצעות DALL-E 3.

החברה הצהירה כי בכוונתה ליישם את האישורים הדיגיטליים של C2PA (הקואליציה למקורות ואותנטיות של תוכן), גישה המקודדת פרטים על מקור התוכן באמצעות קריפטוגרפיה. חברי הקואליציה כוללים את מיקרוסופט, סוני, אדובי, ניקון וקאנון, והיא שואפת לשפר את השיטות לזיהוי ולמעקב אחר תוכן דיגיטלי.

OpenAI מציינת בנוסף כי כאשר משתמשים ישאלו את צ'אט GPT שאלות פרוצדורליות על בחירות בארה"ב, הצ'אטבוט יכוון אותם לאתרים רשמיים. בנוסף, החברה טענה כי ל-DALL-E 3 יש "מעקה אבטחה" שמונע ממשתמשים ליצור תמונות של אנשים אמיתיים, כולל דמויות פוליטיות.