آبل تحارب صور إساءة معاملة الأطفال

أكدت Apple أنها تخطط لنشر تقنية جديدة داخل iOS و macOS و watchOS و iMessage تكتشف صورًا لإساءة معاملة الأطفال المحتملة ، وتوضح تفاصيل مهمة عن المشروع الجاري.

بالنسبة للأجهزة في الولايات المتحدة ، تتضمن الإصدارات الجديدة من iOS و iPadOS التي سيتم طرحها هذا الخريف تطبيقات تشفير جديدة للمساعدة في تقليل انتشار مواد CSAM عبر الإنترنت.

تم تفصيل المشروع في صفحة “سلامة الأطفال” الجديدة على موقع الشركة. التطبيق الأكثر إثارة للجدل هو النظام الذي يقوم بمسح الجهاز قبل نسخ الصورة احتياطيًا إلى iCloud.

وفقًا للوصف ، لا يحدث المسح حتى يتم نسخ الملف احتياطيًا إلى iCloud ، ولا تتلقى Apple بيانات حول تطابق ما لم تستوف قسائم التشفير (التي تم تحميلها عبر iCloud مع الصورة) لحساب معين حد المطابقة.

لسنوات ، استخدمت الشركة أنظمة التجزئة للبحث عن صور إساءة معاملة الأطفال المرسلة عبر البريد الإلكتروني ، بما يتماشى مع الأنظمة المماثلة في Gmail وموفري البريد الإلكتروني السحابي الآخرين.

يقوم البرنامج بتطبيق نفس عمليات المسح على صور المستخدم المخزنة في صور iCloud ، حتى إذا لم يتم إرسال الصور إلى مستخدم آخر أو مشاركتها بأي طريقة أخرى.

في ملف PDF المقدم إلى جانب الملخص ، بررت الشركة تحركاتها لمسح الصور من خلال وصف العديد من القيود التي تم تضمينها لحماية الخصوصية:

لا تتعلم Apple أي شيء عن الصور التي لا تتطابق مع قاعدة بيانات CSAM المعروفة. لا يمكن للشركة الوصول إلى البيانات الوصفية أو المشتقات المرئية لصور مرآة CSAM حتى يتم تجاوز حد المطابقة لحساب iCloud Image. خطر قيام النظام بالإبلاغ عن الحساب بشكل غير صحيح منخفض للغاية. بالإضافة إلى ذلك ، تقوم الشركة يدويًا بمراجعة جميع التقارير المقدمة إلى NCMEC لضمان دقة التقارير. لا يمكن للمستخدمين الوصول إلى قاعدة بيانات صور CSAM المعروفة أو عرضها. لا يمكن للمستخدمين تحديد الصور التي تم وضع علامة CSAM عليها بواسطة النظام.

تضيف التفاصيل الجديدة عددًا من الضمانات التي يجب أن تحميها من مخاطر الخصوصية لمثل هذا النظام.

يضمن نظام الحد أن الأخطاء الفردية لن تولد تنبيهات. يسمح هذا للشركة باستهداف معدل خطأ لتنبيه كاذب واحد لكل تريليون مستخدم سنويًا.

اقرأ أيضًا: تفحص Apple الصور المخزنة في أجهزتها

تركز Apple على حماية الأطفال

يقتصر نظام التجزئة أيضًا على المواد التي تم وضع علامة عليها بواسطة NCMEC والصور التي تم تحميلها عبر iCloud Photos.

بمجرد إنشاء التنبيه ، تتم مراجعته من قبل الشركة والمركز الوطني للأطفال المفقودين والمستغلين قبل تنبيه تطبيق القانون ، مما يوفر حماية إضافية ضد النظام.

أجرت الشركة تقييمات فنية للنظام من ثلاثة خبراء تشفير مستقلين وجدوا أنه قوي من الناحية الحسابية.

من المرجح أن يزيد مثل هذا النظام بشكل كبير من احتمالية العثور على الأشخاص الذين يمتلكون أو يشاركون مثل هذه الصور. هذا يجب أن يساعد في حماية الأطفال.

ومع ذلك ، قالت الشركة إنه من المحتمل أن تضيف مجموعات أخرى لسلامة الأطفال كمصادر للبيع بالتجزئة مع توسع البرنامج. لم تلتزم الشركة بإتاحة قائمة الشركاء للجمهور في المستقبل.

من المرجح أن يؤدي هذا إلى زيادة القلق بشأن كيفية استغلال الحكومة الصينية للنظام. التي سعت منذ فترة طويلة إلى زيادة الوصول إلى بيانات مستخدمي iPhone داخل الدولة.

بالإضافة إلى الإجراءات الجديدة في صور iCloud. أضافت الشركة نظامين إضافيين لحماية مالكي iPhone الأصغر سنًا المعرضين لخطر إساءة معاملة الأطفال.

يُجري تطبيق Messages فحصًا عبر الأجهزة لمرفقات الصور على حسابات الأطفال بحثًا عن المحتوى الجنسي الصريح المحتمل.

بمجرد اكتشاف المحتوى ، يتم تعتيمه ويظهر تحذير. يؤدي الإعداد الجديد إلى تشغيل رسالة تخبر الطفل أن الوالد قد تلقى رسالة إذا تم عرض الصورة المكتشفة أو إرسالها.

تعمل Apple أيضًا على تحديث كيفية استجابة Siri وتطبيق البحث للاستفسارات حول صور إساءة معاملة الأطفال.

في ظل النظام الجديد ، توضح التطبيقات للمستخدمين أن الاهتمام بهذا الموضوع ضار ومشكل. يوفر موارد من الشركاء للمساعدة في حل هذه المشكلة.

اقرأ أيضًا: نظرة على شاحن AirPower اللاسلكي الملغي

مقالات ذات صلة

زر الذهاب إلى الأعلى