OpenAI מקימה ועדת בטיחות בינה מלאכותית בלעדית משלה

image provided by pixabay

This post is also available in: English (אנגלית)

ענקית הטכנולוגיה המובילה בתחום הבינה המלאכותית OpenAI חושפת כי הקימה ועדת בטיחות ואבטחת AI, ובנוסף לכך החלה להכשיר מודל בינה מלאכותית חדש שיחליף את מערכת ה-GPT-4 שלה עבור צ'אט GPT. בהודעה שפרסמה החברה נאמר כי תפקיד הוועדה הוא לייעץ למועצת המנהלים על "החלטות בטיחות ואבטחה קריטיות" לפרויקטים ולפעילויות שלה.

החדשות על ועדת הבטיחות החדשה מגיעות בעקבות הוויכוחים המסעירים את עולם הבינה המלאכותית בנוגע לבטיחות ה-AI בתעשייה בכלל ובחברת OpenAI בפרט, במיוחד לאחר שהחששות יצאו לאור כאשר החוקר יאן לייקה התפטר ושיתף את הביקורת שלו על החברה וטען שהיא מאפשרת למחשבה על בטיחות "להישאר מאחור לטובת למוצרים חדשים ונוצצים".

לייקה הודיע בנוסף בשבוע שעבר שהוא מצטרף לחברת הבינה המלאכותית המתחרה Anthropic שנוסדה על ידי מנהיגי OpenAI לשעבר, זאת על מנת "להמשיך שם את משימתsuperalignment " (שהתמקדה בניהול סיכוני הבינה המלאכותית).

OpenAI, לעומת זאת, אמרה כי היא "החלה לאחרונה להכשיר את מודל ה-frontier הבא שלה" וכי המודלים שלה בתחום הבינה המלאכותית הינם המובילים בתעשייה בתחום היכולת והבטיחות, אם כי לא הזכירה את הסקנדל האחרון שצוין למעלה. "אנחנו מברכים על דיון נרחב ומשמעותי ברגע חשוב זה", כך אמרה החברה.

האנשים שמרכיבים את וועדת הבטיחות כוללים את מנכ"ל OpenAI סם אלטמן ויו"ר ברט טיילור, ארבעה מומחי טכנולוגיה ומדיניות של OpenAI, מנכ"ל Quora אדם ד'אנג'לו והיועץ המשפטי לשעבר של סוני ניקול סליגמן. על פי הדיווחים, תפקידה הראשון של הוועדה יהיה להעריך ולפתח את התהליכים והגנות של OpenAI ולהציג את המלצותיה בפני מועצת המנהלים תוך 90 יום. החברה פרסמה הודעה בה טענה כי לאחר מכן תפרסם בפומבי את ההמלצות שהיא תאמץ "באופן העולה בקנה אחד עם בטיחות וביטחון".

"מודלי בינה מלאכותית" (AI models) הם מערכות חיזוי אשר מאומנות על מערכי נתונים מסיביים כדי ליצור טקסט, תמונות, וידאו ושיחה דמוית אדם לפי דרישה, בעוד ש"מודלי פרונטיר" (frontier models) הם מערכות הבינה המלאכותית החזקות והחדישות ביותר שקיימות כרגע בשוק.

זה מידע זה סופק על ידי Techxplore.