המלחמה נגד פייק ניוז מתקיימת בעזרת למידת מכונה

image provided by pixabay

This post is also available in: English (אנגלית)

בשנים האחרונות, "פייק ניוז" או "חדשות מזויפות/כוזבות" היו נושא דיון בכל העולם, ועם עלייתה של טכנולוגיית הבינה המלאכותית שכבר זמינה לציבור הרחב, הנושא מהווה סכנה גדולה מאי פעם.

מידע כוזב יכול להוביל להשלכות מזיקות, ומגוון ערוצי חדשות, מדיה חברתית וארגונים ממשלתיים אימצו אסטרטגיות שונות להתמודדות עם התופעה, הכוללות לשים דגש רב יותר על בדיקת עובדות וסימון הודעות מטעות כדי לספק ההקשר חשוב שהקהל צריך.

אבל יחד עם שטף הפייק ניוז, איך אפשר למקד את המאמצים הנדרשים באזורים בהם סביר שיגרמו את הנזק הציבורי הגדול ביותר? מחקר מבית הספר לניהול של אוניברסיטת בינגהמטון (SOM) מציע מסגרת למידת מכונה עם שימוש מורחב בטכנולוגיית בלוקצ'יין כדי להילחם בתופעה זו.

ת'י טראן שהוביל את המחקר הסביר את המחשבה שמאחוריו: "סביר להניח שיהיה אכפת לנו מפייק ניוז אם הוא יגרום לנזק שמשפיע על הקוראים או על הקהל. אם אנשים חושבים שאין נזק, הם נוטים יותר לשתף את המידע השגוי. אם יש לנו דרך שיטתית לזהות היכן מידע שגוי יגרום לנזק הגדול ביותר, זה יעזור לנו לדעת היכן להתמקד בהפחתת הסיכון".

על פי אתר Techxplore, המחקר של טראן הציע מערכות למידת מכונה שיסייעו לקבוע כמה נזק יגרום התוכן לקהל שלו, ולהתמקד במשתמשים המזיקים ביותר. המסגרת תשתמש בנתונים ובאלגוריתמים כדי לזהות אינדיקטורים של מידע שגוי ולהשתמש בדוגמאות אלה כדי ליידע ולשפר את תהליך הזיהוי. בנוסף, המערכת תבחן את מאפייני המשתמש של אנשים בעלי ניסיון קודם או ידע על פייק ניוז כדי לסייע בבניית "מדד נזקים", אשר ישקף את חומרת הפגיעה האפשרית באדם בהקשרים מסוימים אם יחשפו ויפגעו על ידי פייק ניוז.

טראן מוסיף ואומר כי בהתבסס על המידע שנאסף, מערכת למידת המכונה יכולה לעזור למתן חדשות מזויפות ולהבחין אילו הודעות עלולות להיות המזיקות ביותר אם יאפשרו להן להתפשט ללא הגבלה.

"מודל המחקר שבניתי מאפשר לנו לבחון תיאוריות שונות ואז להוכיח מהי הדרך הטובה ביותר לשכנע אנשים להשתמש במשהו מבלוקצ'יין כדי להילחם במידע שגוי", אמר טראן. הוא גם העלה הצעה לסקר של 1,000 אנשים, גם מפיצי ומפיקי פייז ניוז וגם צרכני תוכן, לפרוס שלוש מערכות בלוקצ'יין קיימות ולראות את הנכונות של המשתתפים להשתמש במערכות אלה בתרחישים שונים.

"אני מקווה שהמחקר הזה יעזור לנו לחנך יותר אנשים להיות מודעים לדפוסים, כך שהם ידעו מתי לאמת משהו לפני שהם משתפים אותו ולהיות יותר ערניים לחוסר התאמה בין הכותרת לבין התוכן עצמו, מה שימנע מהמידע השגוי להתפשט שלא במתכוון", סיכם טראן.