This post is also available in:
English (אנגלית)
ב-1 באוגוסט נכנסה לתוקף אמנת הבינה המלאכותית של האיחוד האירופי. זהו צעד חשוב שמטרתו להגן על משתמשים המשתמשים בטכנולוגיית AI שנוצרה או נמצאת בשימוש בגבולות האיחוד האירופי.
החוק מסווג מערכות AI בהתבסס על רמת הסיכון שלהן:
- סיכון בלתי מתקבל על הדעת:
מערכות בינה מלאכותית האסורות לשימוש כיוון שהן מהוות סיכון משמעותי לזכויות אדם. מערכות אלה כוללות: שימוש בהונאה כדי לפגוע בקבלת החלטות או לנצל נקודות תורפה הקשורות לגיל, נכות או מעמד סוציו-אקונומי, מערכות ביומטריות שמעריכות מידע רגיש כמו גזע או אמונות פוליטיות (למעט כאשר נעשה בהן שימוש חוקי על ידי רשויות האכיפה), ניקוד חברתי אשר מפלה לרעה אנשים בהתבסס על התנהגותם או תכונותיהם, יצירת פרופיל לאנשים בסיכון פלילי בהתבסס אך ורק על תכונות אישיות, ללא ראיות קונקרטיות, איסוף נתוני זיהוי פנים ללא הבחנה ובחינת רגשות במקומות עבודה או בבתי ספר (למעט מסיבות רפואיות או בטיחותיות), זיהוי ביומטרי מרחוק בציבור בזמן אמת מוגבל למצבים ספציפיים של אכיפת חוק, כגון מציאת נעדרים או מניעת איומים.
- בינה מלאכותית בסיכון גבוה:
מערכות AI שנחשבות בסיכון גבוה יהיו כפופות לדרישות ספציפיות. מערכות בסיכון גבוה כוללות כאלו עם מטרות של זיהוי ביומטרי (לא כולל אימות), ניהול תשתיות קריטיות, חינוך והכשרה מקצועית, ניהול תעסוקה וניהול עובדים, גישה לשירות הציבורי, אכיפת החוק, הגירה ובקרת גבולות, צדק ותהליכים דמוקרטיים. ספקי מערכות בינה מלאכותית בסיכון גבוה חייבים בתהליך של ניהול סיכונים, להבטיח פיקוח מדויק על נתונים, לקיים תיעוד טכני, לאפשר שמירת רשומות, לאפשר פיקוח אנושי ולהבטיח דיוק ואבטחת סייבר. מערכות פרופיילינג תמיד ייחשבו כבעלות סיכון גבוה, וחברות המספקות שירות שכזה יהיו חייבות לציין אם הן מאמינות שהמערכות שלהן אינן בסיכון גבוה.
- סיכון שקיפות ספציפי:
מערכות AI כמו צ'אטבוטים חייבות להודיע למשתמשים באופן ברור שהם משוחחים עם בינה מלאכותית. תוכן שנוצר על ידי בינה מלאכותית, כמו deepfake, חייב להיות מתויג כך, וליידע משתמשים כאשר יש שימוש בסיווג ביומטרי או טכנולוגיות זיהוי רגש.
- סיכון מינימלי:
רוב מערכות הבינה המלאכותית שייכות לקטגוריה של AI בסיכון מינימלי, והן אינן מפוקחות על ידי האיחוד האירופי. זה כולל דוגמאות כמו מערכות שמציגות הצעות על בסיס AI, משחקי וידאו המשתמשים ב- AI ומסנני דואר זבל. חברות יכולות להחליט על חוקים משלהן על מנת לספק שקיפות למשתמשים שלהן ולהראות אחריות.
בנוסף למצוין לעיל, ישנם כללים ספציפיים עבור מודלים של AI למטרות כלליות – מודלים של AI שיכולים לבצע מגוון רחב של משימות בכוחות עצמם או כאשר משולבים בטכנולוגיות אחרות, כגון אלה המייצרים טקסט הדומה לבני אדם. מודלים אלה יהיו כפופים לדרישות שקיפות קפדניות על מנת להפחית סיכונים אפשריים.
למדינות החברות באיחוד האירופי יש עד 2 באוגוסט 2025 לייעד רשויות מוסמכות לאומיות לפקח על היישום של כללי AI ולנהל מעקב בשוק. חברות שלא יעמדו בדרישות חוק הבינה המלאכותית יעמדו בפני קנסות כבדים.
אמנת הבינה המלאכותית היא צעד חשוב בכיוון של עתיד עם בינה מלאכותית מוסדרת ובטוחה, ובתקווה תהווה השראה גם למדינות מחוץ לאיחוד האירופי.
למידע נוסף, בקרו באתר האינטרנט של אמנת הבינה המלאכותית של האיחוד האירופי.