This post is also available in:
English (אנגלית)
סוכני בינה מלאכותית אוטונומיים עוברים בהדרגה משלב התיאוריה למערכות הפועלות מול הציבור, אך התשתיות הסובבות אותם מתקשות להדביק את הקצב. פלטפורמות שנבנו במקור לצורכי ניסוי נוטות להעדיף מהירות וחידוש על פני שליטה ובקרה, וכך נוצרות בעיות חדשות של אבטחה וממשל. ככל שסוכני בינה מלאכותית הופכים לבעלי יכולת פעולה עצמאית גבוהה יותר, שאלות הנוגעות לבעלות עליהם, לאימות פעולותיהם ולהגנה על נתונים הופכות לבלתי ניתנות להתעלמות.
דוגמה עדכנית לכך היא פלטפורמה בסגנון רשת חברתית שנבנתה במיוחד עבור סוכני בינה מלאכותית (Moltbook), ולא עבור משתמשים אנושיים. המערכת מאפשרת לסוכנים אוטונומיים לפרסם תכנים, להגיב וליצור אינטראקציות זה עם זה, בעוד שבני אדם מתבוננים מן הצד. מבחינה תפקודית היא מזכירה פורום מקוון, אך כזה שבו המשתתפים הם ישויות תוכנה הפועלות עם פיקוח מינימלי. רבים מהסוכנים הללו נוצרים באמצעות מסגרות עבודה מקומיות הפועלות ישירות על מחשב המשתמש, ומעניקות להם גישה לקבצים, למשאבי מערכת ולכלי תקשורת חיצוניים עוד לפני החיבור לפלטפורמה.
על פי דיווח של TechXplore, הרעיון מדגים הן את הפוטנציאל והן את הסיכון הגלומים בבינה מלאכותית מבוססת סוכנים. מצד אחד, הוא ממחיש כיצד סוכנים יכולים לייצר תוכן, לתאם ביניהם ולהמשיך לפעול ברציפות ללא הנחיות ישירות. מצד שני, הוא חושף את הסכנות הנוצרות כאשר זהות, אימות והרשאות מוגדרים באופן רופף. סקירות אבטחה עצמאיות מצאו כי חסרות הגנות בסיסיות. נתונים רגישים, לרבות פרטי הזדהות ותקשורת פנימית, היו נגישים באמצעות טכניקות בדיקה פשוטות. חוקרים אף הצליחו להתחזות לסוכנים, לשנות תכנים קיימים ולהפוך לאוטומטית את יצירתם של מספרים עצומים של חשבונות מזויפים.
ליקויים אלה מדגישים בעיה רחבה יותר במערכות בינה מלאכותית מתפתחות: אימות. אין כיום דרך אמינה לקבוע האם תוכן נוצר על ידי סוכן אוטונומי, הונחה בידי אדם, או נכתב במלואו על ידי אדם המתחזה לסוכן. כאשר לכך מתווספות שיטות פיתוח הנשענות במידה רבה על כלי קידוד אוטומטיים, שיקולי אבטחה מטופלים לעיתים רק לאחר שהמערכת כבר עלתה לאוויר.
מנקודת מבט ביטחונית ובתחום ביטחון המולדת, ההשלכות חורגות הרבה מעבר לפלטפורמת ניסוי בודדת; סוכנים אוטונומיים נבחנים יותר ויותר לשימושים כגון ניתוח מודיעין, פעילות סייבר, לוגיסטיקה ותמיכה בקבלת החלטות. מערכות החסרות גבולות ברורים, יכולת בקרה וביקורת ושליטה בזהויות עלולות להיות מנוצלות לדליפת מידע, למניפולציה או לפעולות השפעה. היכולת ליצור במהירות מספר רב של סוכנים מעלה גם חששות בנוגע להיקף מבצעי של קמפיינים של דיסאינפורמציה או מתקפות סייבר.
למרות שנרטיבים דרמטיים על בינה מלאכותית "משתוללת" עדיין מוקדמים, המקרה משמש תמרור אזהרה מעשי. ככל שמערכות מבוססות סוכנים נעשות נגישות יותר, יהיה הכרחי לשלב מנגנוני אבטחה, ממשל ואימות חזקים. בלעדיהם, הפער בין יכולות הבינה המלאכותית לבין היכולת לשלוט בהן ימשיך להתרחב — וייצור סיכונים החורגים בהרבה מגבולותיהם של פורומים מקוונים ניסיוניים.

























