This post is also available in:
English (אנגלית)
ככל שהבינה המלאכותית משתלבת בניתוח מודיעיני, בפיתוח אמצעי לחימה ובתכנון מבצעי, השליטה באופן השימוש במערכות אלו הפכה לסוגיה אסטרטגית. מודלי שפה מתקדמים מוטמעים כיום בתהליכים רגישים, ותומכים בעיבוד נתונים ובהכנת משימות. התלות הגוברת יצרה חיכוך כאשר ספקים מטילים מגבלות שימוש שאינן חופפות במלואן לדרישות הביטחוניות.
משרד ההגנה האמריקאי נערך להרחיב את מגוון מערכות הבינה המלאכותית הפועלות ברשתות המסווגות שלו. עד כה, מודל השפה Claude של חברת Anthropic היה המודל הגדול היחיד שאושר לשימוש בסביבות הרגישות ביותר הקשורות למודיעין ולמבצעי לחימה. שילובו במספר תהליכים מסווגים הפך אותו לרכיב מרכזי במשימות אנליטיות בדרג גבוה.
המתיחות נוצרה סביב מדיניות השימוש. גורמים במשרד ההגנה ביקשו אפשרות להפעיל מערכות בינה מלאכותית לכל יישום חוקי, לרבות תחומים הקשורים למעקב ולמערכות נשק אוטונומיות. לפי Interesting Engineering, Anthropic סירבה להסיר חלק ממנגנוני ההגנה (guardrails) המגבילים את אופן השימוש במודל, גם כאשר הוא פועל במערכות ממשלתיות. כתוצאה מכך, הפנטגון החל לבחון מחדש את תלותו בספק יחיד.
במסגרת הסכם חדש, מודל Grok של חברת xAI צפוי לקבל אישור לפעול בסביבות מסווגות תחת מסגרת סטנדרטית המאפשרת שימוש לכל מטרה חוקית. Grok, לצד מודלים נוספים כגון Gemini של גוגל ו־ChatGPT של OpenAI, כבר פועל במערכות בלתי מסווגות של משרד ההגנה. המעבר לרשתות מסווגות יחייב ולידציה ואינטגרציה נוספות, במיוחד נוכח המורכבות שבהחלפת מודל המשולב עמוק בתהליכים קיימים.
גורמים רשמיים מודים כי מעבר מ־Claude יהיה תהליך טכני מאתגר, שכן המודל תומך בזרימות עבודה קריטיות בתחום המודיעין והתכנון. עם זאת, השיחות עם ספקים חלופיים התגברו, כאשר המשרד שוקל בין גמישות מבצעית לבין בשלות טכנולוגית והתאמה למדיניות.
ההתפתחות משקפת מגמה רחבה יותר של מעבר לאקוסיסטם רב־ספקי בתחום הבינה המלאכותית בתשתיות ביטחון לאומי. גיוון ספקי ה־AI עשוי לצמצם תלות אסטרטגית במודל יחיד ולהגביר תחרות וגמישות. במקביל, הוא מדגיש את תפקידם ההולך וגדל של מודלי שפה מתקדמים במבצעים צבאיים מסווגים – ואת אתגרי הממשל והבקרה הנלווים לפריסתם.

























