OpenAI לא תשחרר את כלי שיבוט הקול שלה מחשש לשימוש לרעה

OpenAI לא תשחרר את כלי שיבוט הקול שלה מחשש לשימוש לרעה

image provided by pixabay

This post is also available in: enEnglish (אנגלית)

הכלי של OpenAI יכול ליצור שיבוט משכנע של קולו של אדם בעזרת 15 שניות של אודיו מוקלט, והוכרז כמסוכן עבור הציבור הרחב כחלק ממאמץ למזער את האיום של הפצת מידע שגוי בשנה בה נערכות בחירות רבות ברחבי העולם.

הטכנולוגיה הנקראת Voice Engine פותחה בשנת 2022 ומעולם לא הוצגה לציבור הרחב, חלקית בשל הגישה הזהירה והמודעת שחברת OpenAI נוקטת. בהודעה שפרסמה החברה נכתב: "אנו מקווים לפתוח בדיאלוג על השימוש האחראי של קולות סינתטיים, וכיצד החברה יכולה להסתגל ליכולות החדשות הללו. בהתבסס על השיחות האלה ועל התוצאות של בדיקות בקנה מידה קטן, נקבל החלטה מושכלת יותר לגבי האם וכיצד לפרוס את הטכנולוגיה הזו בקנה מידה גדול".

עיתון הגארדיין מדווח כי החברה שיתפה דוגמאות לשימושים בעולם האמיתי של הטכנולוגיה שלה מכמה שותפים שקיבלו גישה ל-Voice Engine לבניית המוצרים שלהם. שימושים אלה כוללים יצירת קריינות מתוסרטת עבור יישום טכנולוגיית חינוך, תרגום תוכן מוקלט תוך שמירה על המהות של השפה המקורית, ואפילו שחזור הקול של אישה שאיבדה אותו בשל גידול במוח.

OpenAI הסבירה כי הם בוחרים כעת להציג אך לא לשחרר את הטכנולוגיה באופן נרחב על מנת "לחזק את החוסן החברתי כנגד האתגרים הניצבים בפני מודלים גנרטיביים ההופכים משכנעים יותר ויותר". החברה קראה גם ליצירת "מדיניות להגנה על השימוש בקולות של יחידים בבינה מלאכותית" ו-"חינוך הציבור להבנת היכולות והמגבלות של טכנולוגיות AI, כולל האפשרות של תוכן בינה מלאכותית מטעה".

עם זאת, בעוד התוצר של תוכנת Voice Engine מסומן ב-"חותמת", יש כלים מתחרים שכבר זמינים לציבור. לדוגמה, חברות כמו ElevenLabs יכולות ליצור שיבוט קול מלא רק עם "כמה דקות של אודיו".

כדי לנסות להתמודד עם הנזק הפוטנציאלי שטכנולוגיה זו עלולה לגרום, החברה הציגה אמצעי הגנה של "קולות מחוץ לתחום" שנועד לזהות ולמנוע יצירת שיבוטים קוליים "המחקים מועמדים פוליטיים המעורבים באופן פעיל בבחירות לנשיאות או לראשות הממשלה, ואנו מתחילים עם אלה בארה"ב ובבריטניה".