This post is also available in:
English (אנגלית)
מודל חדש של למידת מכונה שפותח על ידי צוות של חוקרים מאוסטרליה ובנגלדש עושה גלים במאבק נגד תוכן מזיק במדיה החברתית. המודל הראה דיוק מרשים של 87% בזיהוי תגובות פוגעניות, ומציע פתרון מבטיח למאבק בהסתה וצורות אחרות של שימוש לרעה ברשת.
הצוות, מאוניברסיטת מזרח מערב בבנגלדש ואוניברסיטת דרום אוסטרליה, הציג את ממצאיו בכנס הבינלאומי לחדשנות ואינטליגנציה לאינפורמטיקה, מחשוב וטכנולוגיות בשנת 2024. העבודה שלהם מציגה שיפור משמעותי על מערכות זיהוי אוטומטיות קיימות, שרבות מהן מתקשות עם פולס-פוזיטיב ולא מצליחים להבדיל ביעילות בין תוכן מזיק לתוכן לא מזיק, על פי TechXplore.
ככל שהשכיחות של דברי נאצה באינטרנט ממשיכה לעלות, לתגובות אלו יש השפעות הרסניות בחיים האמיתיים. לדברי הכותבת הראשית של המאמר, עפיה אחסאן, זיהוי תוכן מזיק באופן ידני הפך לבלתי מעשי יותר ויותר בשל כמות האינטראקציות הנרחבת שמתרחשת ברשת. עם יותר מ-5.5 מיליארד משתמשי אינטרנט ברחבי העולם, סינון תוכן מזיק ללא מערכות אוטומטיות פשוט אינו אפשרי.
הפתרון של הצוות משתמש באלגוריתם למידת מכונה ממוטב שנבדק על גבי מערך נתונים מגוון של תגובות באנגלית ובבנגלה שנאספו מפלטפורמות מדיה חברתית פופולריות כגון פייסבוק, יוטיוב ואינסטגרם. המודל הנבחר שלהם, SVM (Support Vector Machine), היה האמין ביותר והשיג שיעור דיוק של 87.6%, הרבה יותר מביצועי מודלים אחרים שהם ניסו.
לדברי TechXplore, ד"ר עבדאללהי צ'ודהורי, חוקר IT ו-AI ב-Unisa, הסביר כי מודל ה-SVM הממוטב הוכיח את עצמו כיעיל ביותר עבור יישומים בעולם האמיתי, שבו זיהוי מדויק של תגובות שטנה הוא חיוני. התקדמות זו יכולה לשנות את המשחק עבור פלטפורמות מדיה חברתית המבקשות למתן את ההשפעה של תוכן מזיק.
במבט קדימה, החוקרים מתכננים לחדד את המודל עוד יותר על ידי שילוב טכניקות למידה עמוקה והרחבת מערך הנתונים לכלול שפות נוספות וניבים אזוריים. הם גם מנהלים שיחות עם פלטפורמות מדיה חברתית כדי לשלב את הטכנולוגיה, ולהבטיח חוויה מקוונת בטוחה ומכבדת יותר למשתמשים ברחבי העולם.