כלי תמלול מבוסס בינה מלאכותית תחת בחינה משפטית בגין שימוש בהקלטות פגישות לאימון מודלים

This post is also available in: English (אנגלית)

שירות תמלול נפוץ המבוסס על בינה מלאכותית נמצא תחת בחינה משפטית בארצות הברית, בעקבות חששות כי הוא אוסף ומשתמש בהקלטות שיחות מבלי לקבל הסכמה נאותה. הפלטפורמה המדוברת, הידועה בכלי התמלול האוטומטי שלה בשם "Otter Notetaker", מואשמת בשימוש בהקלטות שמע כדי לאמן את האלגוריתמים שלה.

לפי דיווח של The Register, הבעיה התגלתה במסגרת תביעה שהוגשה לאחרונה על ידי משתמש שטוען כי השיחות שלו הוקלטו והוסבו לשימוש חוזר על ידי השירות — ללא כל הודעה מספקת. בלב התביעה עומדת הטענה כי המערכת של Otter מתעדת ומעבדת את כל מה שנאמר במהלך פגישה, ולאחר מכן משתמשת במידע זה כדי לשפר את המודלים שלה, בין אם הדוברים הם משתמשים רשומים בשירות ובין אם לא.

לפי כתב התביעה, Otter מטילה את האחריות להשגת הסכמה על המשתמש שיזם את ההקלטה, במקום לקבל אישור ישיר מכל המשתתפים. מצב זה מעורר שאלות חמורות בנוגע לעמידה בתקנות הגנת פרטיות, במיוחד כאשר מדובר במידע רגיש או קנייני שנדון בפגישות וירטואליות באמצעות פלטפורמות כמו Zoom, Microsoft Teams, או Google Meet.

כלי התמלול נועד להקליט פגישות, ולעיתים עושה זאת באופן אוטומטי, מבלי להתריע או לקבל אישור מפורש מהמשתתפים. במקרים רבים, ההקלטה עשויה להתחיל כברירת מחדל, במיוחד אם הכלי משולב ישירות בפלטפורמות הווידאו. כתוצאה מכך, ישנם חששות כי המשתמשים אינם מודעים כלל לכך שהשיחה מוקלטת, או לכך שקולם והתכנים שהם משתפים נשמרים ומנותחים.

להשלכות עשויות להיות משמעויות כבדות, במיוחד עבור ארגונים. אם שיחות פנימיות רגישות או מידע חסוי נאספים ומשמשים את ספק השירות החיצוני, קיימת סכנה להפרות של תקנות פרטיות, הפרות חוזים, ואף חשיפה לא מכוונת של מידע.

ככל שההליך המשפטי מתקדם, המקרה מדגיש את האתגרים ההולכים וגוברים באיזון שבין קידום טכנולוגיות בינה מלאכותית לבין שמירה על פרטיות המידע, בעיקר בסביבות שבהן כלים מסוג זה פועלים באופן פסיבי ברקע.