פושעי סייבר יוצרים צ'אטבוטים זדוניים

פושעי סייבר יוצרים צ'אטבוטים זדוניים

image provided by pixabay

This post is also available in: enEnglish (אנגלית)

משתמשי רשת רבים משתמשים בכלים מבוססי בינה מלאכותית (כמו צ'אט GPT, Bard, ו-Dall-E) עבור משימות יומיומיות רבות, אבל משתמשים עם כוונות זדוניות יכולים לנצל ולחתור תחת טכנולוגיות אלה ואפילו ליצור צ'אטבוטים זדוניים משלהם למטרות פריצה והונאה.

ישנן דרכים רבות בהן פושעים יכולים להשתמש במערכות בינה מלאכותית גנרטיביות. לדוגמה, היכולת של צ'אט GPT ליצור תוכן מותאם אישית בהתבסס על כמה הנחיות פשוטות מאפשרת יצירה פשוטה של הונאות והודעות פישינג משכנעות והפצה נרחבת שלהן. היו מקרים מתועדים רבים בקהילות האקינג בהן פושעי סייבר השתמשו בצ'אט GPT עבור הונאה ויצירת תוכנות זדוניות עבור גניבת מידע או אפילו תוכנות כופר.

על פי Techxplore, האקרים לקחו את זה רחוק יותר ויצרו גרסאות זדוניות משלהם – שתי דוגמאות לכך הן WormGPT ו-FraudGPT המסוגלים ליצור תוכנות זדוניות, למצוא פרצות אבטחה במערכות, לייעץ על דרכים להונות אנשים, לתמוך בהאקינג ולפגוע במכשירים האלקטרוניים של אנשים. גרסה חדשה יותר היא Love-GPT אשר משמשת להונאות רומנטיות – היא יוצרת פרופילים מזויפים המסוגלים לשוחח עם קורבנות תמימים בטינדר, באמבל ואפליקציות היכרות אחרות.

סיכון גדול כשזה מגיע לשימוש בצ'טבוטים ובכלים מבוססי LLM הוא נושא הפרטיות והאמון. ככל שיותר אנשים משתמשים בכלים של בינה מלאכותית, כך גדל הסיכון לשיתוף מידע אישי וסודי. זה בעייתי במיוחד מכיוון שמערכות אלה משתמשות בכל קלט נתונים כחלק ממערך ההדרכה העתידי שלהן, ועשויות לשתף את הנתונים האישיים הללו עם משתמשים אחרים במקרה של פריצה.

חוקרים כבר הוכיחו כי צ'אט GPT יכול להדליף שיחות של משתמשים ולחשוף את הנתונים שלהם בשביל הכשרת המודל עליו הוא בנוי – חולשה המסכנת את הפרטיות של משתמש יחיד או נתונים של חברה.

בקנה מידה רחב יותר, תופעה זו יכולה לתרום לחוסר אמון כללי בכלי בינה מלאכותית. מספר חברות גדולות (הכוללות את אפל ואמזון) אסרו על השימוש בצ'אט GPT כאמצעי זהירות.

משום שמודלי שפה גדולים כמו צ'אט GPT מייצגים את ההתקדמות האחרונה בתחום הבינה המלאכותית, הינם זמינים לשימוש חופשי, ובבירור כאן כדי להישאר, חשוב שמשתמשים יהיו מודעים לסיכונים וידעו איך הם יכולים להשתמש בטכנולוגיות אלה בבטחה בבית או בעבודה.

בכל הנוגע לאמצעי בטיחות, מומחים ממליצים להיות זהירים לגבי התוכן שאנו משתפים עם כלי בינה מלאכותית ולהימנע משיתוף מידע רגיש או פרטי. הם גם מזכירים לנו שכלי בינה מלאכותית אינם מושלמים ולעיתים מספקים תגובות לא מדויקות או מומצאות, ויש לזכור זאת אם משתמשים בהם במסגרות מקצועיות.