אפל פותחת עצמה למבחני אבטחה ציבוריים לקראת השקת בינה מלאכותית

Image by Pixabay

This post is also available in: English (אנגלית)

במאמץ פרואקטיבי להגביר את אמון הציבור בפרוטוקולי האבטחה שלה, אפל הזמינה חוקרים להעריך את ה-Private Cloud Compute (PCC) שלה ימים ספורים לפני ההשקה של Apple Intelligence ב-28 באוקטובר. יוזמה זו מאפשרת למומחי אבטחה ופרטיות לבחון בקפדנות את החוסן של תשתית הענן של אפל, שנועדה לנהל באופן מאובטח בקשות AI.

ה-PCC משמש כסביבה מבוצרת שבה הנתונים מאוחסנים ועליה היישומים מופעלים, ומבטיחה כי האינטראקציות של המשתמש עם AI מעובדות בצורה מאובטחת בענן. אפל הדגישה כי ה-PCC עבר בדיקות יסודיות על ידי צוותי אבטחה פנימיים ואודיטורים של צד שלישי לפני שלב הבדיקה הציבורית. גישה רב שכבתית זו נועדה לאמת את תכונות האבטחה של ה-PCC ולהבטיח כי הם עומדים בסטנדרטים מחמירים.

כעת, אפל מרחיבה את הגישה לכל חוקרי האבטחה והפרטיות המעוניינים בכך, ומזמינה אותם לערוך בדיקות עצמאיות של טענות האבטחה של החברה. שקיפות זו חיונית לבניית אמון, במיוחד כאשר ענקית הטכנולוגיה מתכוננת להשיק יכולות בינה מלאכותית משמעותיות בכל המכשירים שלה.
בנוסף לפתיחת PCC לבדיקה חיצונית, אפל מגדילה באופן משמעותי את תוכנית האבטחה שלה, עם תגמולים הנעים בין 50,000 דולר ל-1,000,000 דולר מרשימים לזיהוי חולשות, כגון חשיפת נתונים או השגת גישה לא מורשית. התרחבות זו מדגישה את המחויבות של אפל לטפח אקוסיסטם מאובטחת, במיוחד כאשר היא מתכוננת לקראת השקת יכולות חדשות בתחום הבינה המלאכותית.

Apple Intelligence צפויה להיות מושקת לצד iOS 18.1, מה שהופך את תכונות הבינה המלאכותית שלה לזמינות עבור דגמי ה-iPhone 15 Pro, ה-iPhone 16, ה-iPads וה-Macs המופעלים על ידי שבבי סדרת ה-M של אפל. בכך שהיא מאפשרת לחוקרים לחקור את PCC, אפל נוקטת צעדים מכריעים כדי להבטיח ששירותי הבינה המלאכותית שלה בנויים על בסיס איתן של אבטחה ופרטיות, ומחזקת את המוניטין שלה כמובילה בתחום הגנת המשתמשים. יוזמה זו לא רק משפרת את האבטחה אלא גם מתיישרת עם מגמות תעשייתיות רחבות יותר המדגישות שקיפות ואחריות בטכנולוגיה.