פיצוי על סימן גלגל המזלות
סלבריטאים C החלפה ג

גלה תאימות על ידי סימן גלגל המזלות

הסבר: איך אפל תסרוק תמונות של ניצול ילדים במכשירים, ומדוע היא מרימה גבות

התכונות צפויות לעלות לאוויר בארצות הברית בתחילה, והתכונות כוללות שימוש בטכנולוגיה חדשה כדי להגביל את התפשטות CSAM באינטרנט, במיוחד באמצעות פלטפורמת אפל.

בפוסט בבלוג, אפל הסבירה שהיא תשתמש ביישומי הצפנה דרך iOS ו-iPadOS כדי להתאים תמונות CSAM ידועות המאוחסנות ב-iCloud Photo.

אפל הודיעה על כך עדכוני תוכנה בהמשך השנה יביאו תכונות חדשות שיסייעו להגן על ילדים מפני טורפים המשתמשים בכלי תקשורת כדי לגייסם ולנצלם, ולהגביל את התפשטות חומרי התעללות מינית בילדים (CSAM).







התכונות צפויות לעלות לאוויר בארצות הברית בתחילה, והתכונות כוללות שימוש בטכנולוגיה חדשה כדי להגביל את התפשטות CSAM באינטרנט, במיוחד באמצעות פלטפורמת אפל.

לאחר מכן תהיה הגנה במכשיר לילדים מפני שליחת או קבלה של תוכן רגיש, עם מנגנונים להתריע להורים במקרה שהמשתמש מתחת לגיל 13. אפל גם תתערב כאשר ישמש Siri או Search כדי לחפש נושאים הקשורים ל-CSAM .



איזו טכנולוגיה עושה אפל כדי למנוע התפשטות של CSAM באינטרנט?

בפוסט בבלוג, אפל הסבירה שהיא תשתמש ביישומי הצפנה דרך iOS ו-iPadOS כדי להתאים תמונות CSAM ידועות המאוחסנות ב-iCloud Photo. הטכנולוגיה תתאים תמונות ב-iCloud של משתמש עם תמונות ידועות המסופקות על ידי ארגוני בטיחות ילדים. וזה נעשה מבלי לראות את התמונה בפועל ורק על ידי חיפוש מה שדומה לגפרור טביעת אצבע. במקרה שיש התאמות שחוצות סף, אפל תדווח על מקרים אלו למרכז הלאומי לנעדרים ומנוצלים (NCMEC).

אפל הבהירה שהטכנולוגיה שלה שומרת על פרטיות המשתמש, ומכאן שמסד הנתונים הופך לסט בלתי קריא של hashes המאוחסן בצורה מאובטחת במכשירים של המשתמשים. היא הוסיפה כי לפני העלאת תמונה כלשהי ל-iCloud, מערכת ההפעלה תתאים אותה ל-hashs הידועים של CSAM באמצעות טכנולוגיה קריפטוגרפית הנקראת Private set intersection. טכנולוגיה זו גם תקבע התאמה מבלי לחשוף את התוצאה.



בשלב זה, המכשיר יוצר שובר בטיחות קריפטוגרפי עם תוצאת ההתאמה ונתונים מוצפנים נוספים ושומר אותו ב-iClouds עם התמונה. טכנולוגיית השיתוף הסודי של Threshold מבטיחה שאפל לא תוכל לפרש שוברים אלו אלא אם חשבון iCloud Photos חצה סף של תוכן CSAM ידוע. סף זה, טען הבלוג, נקבע כדי לספק רמת דיוק גבוהה ביותר ומבטיח פחות מ-1 לטריליון אחד סיכוי בשנה לסימון שגוי של חשבון נתון. אז תמונה בודדת לא סביר שתפעיל התראה.



אבל אם חריגה מהסף, אפל יכולה לפרש את התוכן של שוברי הבטיחות ולבדוק ידנית כל דוח להתאמה, להשבית את החשבון של המשתמש ולשלוח דוח ל-NCMEC. אפל אמרה שמשתמשים יוכלו לערער אם הם חושבים שסומנו בטעות.

כיצד פועלות התכונות האחרות?

בטיחות התקשורת החדשה של אפל להודעות תטשטש תמונה רגישה ותזהיר ילד על אופי התוכן. אם מופעלת מהקצה האחורי, ניתן גם לומר לילד שהוריו קיבלו התראה על ההודעה שבה צפו. כך גם אם הילד יחליט לשלוח הודעה רגישה. אפל מסרה כי הודעות תשתמש בלמידה חישובית במכשיר כדי לנתח קבצים מצורפים של תמונות ולקבוע אם תמונה מפורשת מבחינה מינית וכי אפל לא תקבל גישה להודעות. התכונה תגיע כעדכון על חשבונות שהוגדרו כמשפחות ב-iCloud עבור גרסאות מערכת ההפעלה העדכניות ביותר.
כמו כן, עם העדכון, כאשר משתמש מנסה לחפש נושאי CSAM פוטנציאליים, Siri ו-Search יסבירו מדוע זה עלול להיות מזיק ובעייתי. המשתמשים יקבלו גם הדרכה כיצד להגיש דוח על ניצול ילדים אם יבקשו זאת.



גם בהסבר| הסבר: כיצד ומדוע Google תציע יותר הגנה לילדים באינטרנט

מדוע אפל עושה זאת ומה החששות המועלים?

חברות טכנולוגיה גדולות נמצאות במשך שנים בלחץ לפצח את השימוש בפלטפורמה שלהן לניצול ילדים. דיווחים רבים הדגישו במהלך השנים עד כמה לא נעשה מספיק כדי למנוע מהטכנולוגיה להפוך תוכן CSAM זמין יותר.

עם זאת, ההכרזה של אפל זכתה לביקורת, כאשר רבים הדגישו כיצד זה בדיוק סוג טכנולוגיית המעקב שממשלות רבות היו רוצות לקבל ואוהבות לעשות שימוש לרעה. העובדה שזה בא מאפל, שהייתה מזה זמן רב אוהדת הפרטיות, הפתיעה רבים.



כמו כן, מומחי קריפטוגרפיה כמו מתיו גרין מאוניברסיטת ג'ונס הופקינס הביעו חשש שהמערכת יכולה לשמש למסגר אנשים חפים מפשע ששולחים להם תמונות שנועדו להפעיל את ההתאמות עבור CSAM. חוקרים הצליחו לעשות זאת די בקלות, הוא אמר ל-NPR, והוסיף כי אפשר לרמות אלגוריתמים כאלה.

אבל הניו יורק טיימס ציטט את קצין הפרטיות הראשי של אפל, אריק נוינשוונדר, שאמר כי התכונות הללו לא יהיו אומרות משהו שונה עבור משתמשים רגילים.



אם אתה מאחסן אוסף של חומרי CSAM, כן, זה רע עבורך, הוא אמר לפרסום.

ניוזלטר| לחץ כדי לקבל את הסברים הטובים ביותר של היום בתיבת הדואר הנכנס שלך

האם לחברות טכנולוגיה גדולות אחרות יש טכנולוגיות דומות?

כן. למעשה, אפל היא מצטרפת מאוחרת יחסית למקום שכן מיקרוסופט, גוגל ופייסבוק התריעו לרשויות אכיפת החוק על תמונות CSAM. אפל נשארה מאחור מכיוון שכל טכנולוגיה כזו הייתה נוגדת את המחויבות המוצהרת שלה לפרטיות המשתמשים. כתוצאה מכך, בשנת 2020, כאשר פייסבוק דיווחה על 20.3 מיליון הפרות CSAM ל-NCMEC, אפל יכלה לדווח רק על 265 מקרים, כך דיווח הניו יורק טיימס.

רק עכשיו היא הצליחה למצוא את ה- sweetspot הטכנולוגי לעשות זאת מבלי להשפיע על המשתמשים הרגילים, או לפחות להפחיד אותם. עם זאת, כפי שהראתה התגובה הראשונית, זו עדיין הליכה על חבל דק.

שתף עם החברים שלך: