בינה מלאכותית יכולה לרמות בני אדם – מה זה אומר לגבי העתיד...

בינה מלאכותית יכולה לרמות בני אדם – מה זה אומר לגבי העתיד שלנו?

image provided by pixabay

This post is also available in: enEnglish (אנגלית)

כיום ידוע לנו כי צ'אטבוטים מבוססי בינה מלאכותית נוטים לספק "הזיות" (תשובות מומצאות), וזהו פגם מובנה, אבל חלוץ תחום הבינה המלאכותית ג'פרי הינטון רואה פוטנציאל שיוכלו לעשות מניפולציה לבני אדם, והוא מודאג מאוד.

אבל רגע, האם מערכות בינה מלאכותית יכולות באמת לרמות בני אדם? Techxplore טוען כי מספר מערכות כבר למדו לעשות זאת, והסיכונים הנובעים מכך נעים בין הונאה או שיבוש בחירות, לאיבוד השליטה של בני האדם על בינה מלאכותית.

לפי Techxplore, דוגמה מטרידה אחת לרמאות של בינה מלאכותית היא CICERO של META, מודל בינה מלאכותית שנועד לשחק את המשחק "Diplomacy" לכבישת העולם דרך בניית בריתות בין מדינות. לאחר בדיקה מעמיקה התברר כי CICERO ממש "אמן הונאה", בוגד בקביעות בשחקנים האנושיים אחרים, ובמקרה אחד אף העמיד פנים שהוא בן אדם עם בת זוג.

אפילו מודלי שפה גדולים (LLM) הציגו יכולות מטעות, וחלקם למדו לשקר כדי לנצח במשחקי תעלומה חברתיים בהם שחקנים מתחרים כדי "להרוג" אחד את השני וחייבים לשכנע את הקבוצה שהם חפים מפשע.

עד כה, הדוגמאות היו של בוטים שמרמים ומשקרים למען המשחק – מה הנזק בזה?

Techxplore טוען כי מערכות בינה מלאכותית עם יכולות הטעייה והונאה יכולות להיות מנוצלות לרעה בדרכים רבות, כולל ביצוע הונאה או חבלה בבחירות, או ברמה חמורה בהרבה- שימוש בהונאה כדי לברוח משליטה אנושית.

בניסוי מדומה בו נוצר מבחן בטיחות שמטרתו לחסל סוכני בינה מלאכותית המשתכפלים במהירות, סוכני הבינה המלאכותית למדו "להעמיד פני מתים" ולהסוות את קצב השכפול המהיר שלהם בדיוק כאשר היו מוערכים.

למידה של התנהגות מטעה עשויה שלא לדרוש אפילו כוונה מפורשת לרמאות – הבינה המלאכותית הנזכרת לעיל העמידה פני מתה מתוך מטרה לשרוד ולא לרמות.

אז מה אפשר לעשות?

יש צורך ברור להסדיר רגולציה על מערכות בינה מלאכותית המסוגלות להונות, וחוק הבינה המלאכותית של האיחוד האירופי הוא מסגרת רגולטורית שימושית לכך. הוא מקצה לכל מערכת בינה מלאכותית אחת מארבע רמות סיכון: מינימלית, מוגבלת, גבוהה ובלתי מקובלת. מערכות בעלות סיכון בלתי מקובל אסורות, בעוד שמערכות בעלות סיכון גבוה כפופות לדרישות מיוחדות להערכת והפחתת סיכונים. קיימת טענה נוכחית כי מערכות בינה מלאכותית המסוגלות להונות בני אדם צריכות להיות מסווגות כ"סיכון גבוה" או "סיכון בלתי מתקבל על הדעת" כברירת מחדל.

תפיסה של מערכות בינה מלאכותית שנועדו בשביל משחקים כתמימות ולא מסוכנות היא קצרת רואי- יכולות שפותחו למטרת משחק עדיין יכולות לתרום להתפשטות של מוצרי בינה מלאכותית מטעים ומרמים.