This post is also available in: 
     English (אנגלית)
English (אנגלית)
קמפיין עולמי חדש קורא לממשלות לקבוע גבולות ברורים לפיתוח ולהטמעה של מערכות בינה מלאכותית מתקדמות, תוך אזהרה כי המאמצים הנוכחיים לניהול הסיכונים הכרוכים בטכנולוגיה מפוזרים ואינם מספקים.
היוזמה, שנקראת "הקריאה הגלובלית לקביעת קווים אדומים בבינה מלאכותית" (Global Call for AI Red Lines), מאגדת למעלה מ-200 חותמים — בהם זוכי פרס נובל, מנהיגים פוליטיים לשעבר, מדענים, מומחי טכנולוגיה וזכויות אדם. מטרת הקריאה המשותפת: להשיג הסכם מדיני בינלאומי מחייב בנושא קווים אדומים לבינה מלאכותית עד סוף שנת 2026.
את היוזמה מרכזים המרכז לבטיחות בבינה מלאכותית (CeSIA), ארגון The Future Society, ומרכז הבינה המלאכותית ההומניסטית של אוניברסיטת קליפורניה בברקלי (CHAI). מעל 70 ארגונים תומכים במסמך, המדגיש את הדאגה הגוברת לנוכח ההתפתחות המהירה והבלתי מרוסנת של טכנולוגיות AI, ובמיוחד של מערכות שמוענק להן יותר ויותר אוטונומיה.
בין החותמים נמנים חלוצי הבינה המלאכותית ג'פרי הינטון ויהושע בנג'יו — זוכי פרס טיורינג, וכן ההיסטוריון והסופר הישראלי יובל נח הררי. הם מדגישים כי מערכות AI מסוימות כבר כיום מציגות התנהגויות מזיקות או מטעות, ומזהירים כי שמירה על פיקוח אנושי מהותי עשויה להפוך לקשה יותר בעתיד הקרוב.
הקריאה מתריעה מפני מספר תרחישים בעלי סיכון גבוה, בהם: מערכות אוטונומיות המסוגלות לשכפל את עצמן, שימוש ב-AI לפיתוח נשק להשמדה המונית, קמפיינים רחבי היקף של דיסאינפורמציה ולוחמה קיברנטית והפרות של זכויות אדם באמצעות בינה מלאכותית.
מבקרי הרגולציה הנוכחית טוענים כי ההתחייבויות הוולונטריות מצד חברות הטכנולוגיה אינן עקביות, וכי הפיקוח עליהן עדיין מוגבל. דיווחים אחרונים על מודלי AI מתקדמים שהפגינו הטיות מזיקות או הציעו עצות לא אמינות מחזקים את הצורך הדחוף במנגנוני הגנה חזקים יותר.
למרות הקושי לגבש קונצנזוס פוליטי בנושא מדיניות AI גלובלית, הקריאה הזו משקפת הסכמה גוברת על כך שיש לקבוע גבולות ברורים. השאלה האם המאמצים יובילו לסטנדרטים בינלאומיים מחייבים נותרת פתוחה, אך הלחץ לפעולה מתואמת בהחלט הולך ומתגבר.

 
            
