ענקי הטכנולוגיה פותחים פורום לפיתוח בטוח של בינה מלאכותית

ענקי הטכנולוגיה פותחים פורום לפיתוח בטוח של בינה מלאכותית

image provided by pixabay

This post is also available in: enEnglish (אנגלית)

בתוך תעשיית הבינה המלאכותית ההולכת וגדלה, יותר ויותר מומחים מבינים שיש צורך לווסת את המהפכה הטכנולוגית המשגשגת הזו. בראד סמית', סגן נשיא מיקרוסופט, אמר כי "לחברות שמייצרות טכנולוגיית בינה מלאכותית יש אחריות שתהיה בטוחה, מאובטחת ונשארת תחת שליטה אנושית".

חברות טכנולוגיה מובילות כמו OpenAI, מיקרוסופט וגוגל הקימו לאחרונה גוף חדש שיעקוב אחר הפיתוח הבטוח והאחראי של הדור הבא של מודלי הבינה המלאכותית. הוא נקרא "Frontier Model Forum" והוכרז ביום רביעי.

חברת OpenAI פרסמה הצהרה בה מסבירה כי שלושת תחומי המיקוד המרכזיים של הפורום יהיו קידום של שיתוף מידע בין חברות וממשלות, זיהוי שיטות עבודה מומלצות וקידום מחקר בטיחות בתחום הבינה המלאכותית.

המונח "Frontier AI" נטבע על ידי חברת OpenAI, ומתייחס למודלי יסוד בעלי יכולות גבוהות שעלולים להיות בעלי יכולות מסוכנות המספיקות כדי להוות סיכונים חמורים לביטחון הציבור.

אנה מקנג'ו, סגנית הנשיא לעניינים גלובליים בחברת OpenAI מסבירה: "חיוני שחברות בינה מלאכותית- במיוחד אלה העובדות על המודלים החזקים ביותר – יתאמו בניהן ויקדמו נהלי בטיחות מתחשבים ומתאימים כדי להבטיח שכלי בינה מלאכותית חזקים יהיו בעלי התועלת האפשרית הרחבה ביותר".

על פי Cybernews, הסנאט יקים את הפורומים הראשונים של AI Insight מאוחר יותר השנה שיזמינו מפתחים, מנהלים ומומחים בתחום הבינה המלאכותית לדבר על אמצעי הגנה אפשריים לחקיקה.

המייסדים מתכננים להתייעץ עם גופים ציבוריים, פרטיים וממשלתיים על מנת לסייע בעיצוב הפורום, ולהבין כיצד יוכלו לשתף פעולה בצורה הטובה ביותר. הפורום יקים ועדת ייעוץ מגוונת בחודשים הקרובים "כדי לסייע בהנחיית האסטרטגיה וסדרי העדיפויות שלה", על פי ההצהרה שפרסמו.

בנוסף, הוועדה לביטחון המולדת והממשל של הסנאט הצביעה ביום חמישי על קידום הצעת חוק חדשה שתיצור מועצה של מנהיגי בינה מלאכותית המייצגים כל אחת מ-100 הסוכנויות הפדרליות של ממשלת ארה"ב, כדי לתאם את השימוש בטכנולוגיות הבינה המלאכותית המתפתחות ברחבי וושינגטון.