מודל חדש של בינה מלאכותית מפצח אמצעי אבטחה

מודל חדש של בינה מלאכותית מפצח אמצעי אבטחה

anti-bot security

This post is also available in: enEnglish (אנגלית)

סוג עוצמתי של בינה מלאכותית המתקרב לתפיסה האנושית מצליח להביס אמצעי אבטחה נגד בוטים. הלגוריתם המבוסס על למידה חישובית מחקה את המוח האנושי.

אחד האמצעים הנפוצים לאבטחה באינטרנט למניעת גישה מגורמים שאינם אנושיים לאתרים במחשבים, זהו ה-CAPTCHA (מבחן אוטומטי להבחנה בין מחשב לגורם אנושי). מדובר בדרישה לזהות אותיות ומספרים המפוזרים בצורה מבולבלת כך שבוטים אוטומטיים לא יוכלו לזהותם. ובכן כיום הם כבר יכולים.

מבחני ה-CAPTCHA המסורתיים מקשים על מערכות אוטומטיות לזהות את האותיות ולהציב את הסיסמא הנכונה,בעוד שהעין האנושית יכולה לזהות את הטקסט. "הביולוגיה הציבה במוחנו פיגומים שמתאימים לעבודה עם העולם הזה", אומר ל-digitaltrends.com

דיליפ ג'ורג', שותף מייסד בסטארטאפ Vicarioius מתחום הבינה המלאכותית. "הם גורמים למוח ללמוד במהירות. אנחנו העתקנו את התובנות האלה מהטבע והצבנו אותן במודל שלנו".

לפי sciencealert.com, ג'ורג' ועמיתיו פיתחו מודל מחשב בשם RCN (רשת רקורסיבית של קליפת המוח) המסוגל להסיק ביעילות מהם אותם סמלים מפוזרים המופיעים במבחני ה-CAPTCHA.

אחד הגורמים לקושי של מערכות הבינה המלאכותית לעבור את מחסום ה-CAPTCHA הוא הדרך בה פועלות רשתות עצביות של למידה עמוקה. מערכות אלה לומדות על פי דוגמא, מפתחות את היכולת לזהות אותיות ומספרים באמצעות עיבוד אלפי תמונות שלהם.

זהו כלי יעיל לצורך אימון בינה מלאכותית, אבל על פי ג'ורג', הוא לא מסוגל להתמודד עם העיוותים שמציג ה-CAPTCHA, אלא אם נעזרים בכמות מסיבית של עוצמה חישובית.

במקום לאמן על פי אלפי תמונות או אותיות א"ב שתויגו מראש כדי להבדיל ביניהן, מודל ה-RCN משתמש באלגוריתמים שמאפשרים לו להכליל – לאתר דפוסים במשטחים ובקווים תוחמים ולהיות מסוגל להפריד עצמים גם אם הם חופפים.

בניסויים שערך הצוות, הגישה הזו איפשרה למודל להיות יעיל פי 300 בפיצוח ה-CAPTCHA בהשוואה למודלים אחרים של למידה עמוקה, והשיג עד 90% דיוק בזיהוי אותיות.

המטרה של המודל, בסופו של דבר, תהיה לפתח מערכות בינה מלאכותית שדומות יותר למה שאנחנו מבינים לגבי מדעי הרשת העצבית.