גרוק מצטרף לארסנל הבינה המלאכותית של הפנטגון עם חוזה חדש מול ממשלת ארה"ב

Image by Unsplash

This post is also available in: English (אנגלית)

משרד ההגנה של ארצות הברית העניק חוזה מסגרת בסכום כולל של עד 200 מיליון דולר לחברת xAI, העומדת מאחורי מודל השפה Grok. החוזה הינו חלק מיוזמה רחבה של משרד הבינה המלאכותית והדיגיטל הראשי של הפנטגון (CDAO), שמטרתה לשלב טכנולוגיות בינה מלאכותית מתקדמות מהשוק הפרטי בפעילות צבאית וממשלתית.

xAI מצטרפת לחברות כמו OpenAI,  Googleו-Anthropic, שנבחרו אף הן לתמוך באינטגרציה של בינה מלאכותית בהקשרים ביטחוניים.

במסגרת ההכרזה, הציגה xAI חבילת שירותים ייעודית לממשלת ארה"ב בשם "Grok for Government", אשר זמינה באופן רשמי דרך לוח הרכש של סוכנות השירותים הכלליים (GSA). מהלך זה מרחיב משמעותית את הנגישות הפדרלית לטכנולוגיית החברה, ומאפשר לכל סוכנות ממשלתית בארה"ב לרכוש את הכלים של xAI ישירות.

בלב ההצעה עומד Grok 4 – הדור החדש של מודל השפה של החברה. לדברי xAI, המודל כולל יכולות חיפוש מעמיק (Deep Search), שילוב עם כלים נוספים, ופריסה בהתאמה אישית עבור משימות רגישות במגזר הממשלתי. החברה אף מתכננת ללוות את ההטמעות באנשי הנדסה בעלי סיווג ביטחוני מתאים.

משרד ההגנה הדגיש את חשיבות האימוץ של טכנולוגיות בינה מלאכותית מסחריות לצורך חיזוק היכולות הביטחוניות הלאומיות ולהאצת מוכנות מבצעית.

המהלך משתלב במגמה הולכת וגדלה של סוכנויות ממשלתיות הפונות למפתחי בינה מלאכותית פרטיים. שיתופי פעולה אחרונים כללו את השקת הכלים הייעודיים של OpenAI לממשלה, שינויי הרישוי של Meta לשימוש ביטחוני, ושיתוף הפעולה של Anthropic עם חברת Palantir.

עם זאת, כניסתו של Grok לממשל נעשית תחת פיקוח. אנליסטים וארגוני פיקוח הביעו חשש בנוגע לאופן שבו המודל מטפל בתכנים רגישים ונוהג עם הטיות אפשריות, כולל דיווחים על כך שהצ'אטבוט משקף עמדות שפורסמו ברשתות החברתיות של אילון מאסק, כמו גם תגובות בעייתיות בשאילתות מסוימות. סוגיות אלו עוררו דיון נרחב באשר לצורך בתקני בטיחות ופיקוח בתחום ה-AI הציבורי.

למרות הביקורת, הפוטנציאל ניכר. חוזים ממשלתיים מהווים אישרור ארוך טווח לפלטפורמות AI חדשות, וכעת, עם אישור ה-GSA, Grok של xAI עשוי להפוך לכלי נפוץ בסוכנויות אזרחיות וביטחוניות כאחד.