يقول WhatsApp إنه لن يقوم بمسح صورك لإساءة معاملة الأطفال

[ad_1]

صورة للمقال بعنوان WhatsApp يقول أنه لن يتم مسح صورك لإساءة معاملة الأطفال

صورة فوتوغرافية: كارل كورت / طاقم العمل (جيتي إيماجيس)

أداة آبل الجديدة للتخلص منها إساءة معاملة الأطفال المحتملة في صور iPhone تثير الجدل بالفعل. يوم الجمعة ، بعد يوم واحد فقط من الإعلان عنه ، قال ويل كاثكارت ، رئيس تطبيق المراسلة على Facebook ، WhatsApp ، إن الشركة سترفض اعتماد البرنامج على أساس أنها قدمت مجموعة من المخاوف القانونية والمتعلقة بالخصوصية.

“قرأت المعلومات التي قدمتها Apple أمس وأنا قلق. أعتقد أن هذا هو النهج الخاطئ وانتكاسة لخصوصية الناس في جميع أنحاء العالم ، “غردت كاثكارت. لقد سأل الناس عما إذا كنا سنعتمد هذا النظام من أجل WhatsApp. الجواب لا. “

في سلسلة من التغريدات ، تحدثت كاثكارت بالتفصيل عن تلك المخاوف ، مستشهدة بقدرة حكومات شركات برامج التجسس على اختيار البرنامج وإمكانية انتهاك البرامج غير المصرح بها للخصوصية.

“هل يمكن أن يكون برنامج المسح هذا الذي يعمل على هاتفك مقاومًا للخطأ؟ كتب لم يُسمح للباحثين بمعرفة ذلك. “لما لا؟ كيف سنعرف عدد المرات التي تنتهك فيها الأخطاء خصوصية الأشخاص؟ “

في إعلانها عن البرنامج يوم الخميس ، قالت شركة آبل إنها حددت التحديث لإصدار أواخر عام 2021 كجزء من سلسلة من التغييرات التي تخطط الشركة لتنفيذها من أجل حماية الأطفال من المحتالين الجنسيين. كما جيزمودو المذكور سابقا، الأداة المقترحة – والتي قد تستخدم “وظيفة المطابقة العصبيةيسمى NeuralHash لتحديد ما إذا كانت الصور الموجودة على جهاز المستخدم تتطابق مع بصمات الأصابع المعروفة المتعلقة بالاعتداء الجنسي على الأطفال (CSAM) – قد تسبب بالفعل في قدر من الذعر بين خبراء الأمن.

في أغسطس. 4 tweet thread ، ماثيو جرين ، أستاذ مشارك في معهد جونز هوبكنز لأمن المعلومات، حذر من أن الأداة يمكن أن تصبح في النهاية مقدمة لـ “إضافة المراقبة إلى أنظمة المراسلة المشفرة”.

“لقد تلقيت تأكيدًا مستقلاً من عدة أشخاص بأن Apple ستصدر أداة من جانب العميل لفحص CSAM غدًا. هذه فكرة سيئة حقًا ، “غرين غرد. “ستسمح هذه الأدوات لشركة Apple بفحص صور iPhone الخاصة بك بحثًا عن الصور التي تتطابق مع تجزئة إدراكية معينة ، وإبلاغ خوادم Apple بها في حالة ظهور عدد كبير جدًا منها.”

لكن وفقًا لشركة Apple ، إن توصيف كاثكارت للبرنامج على أنه يُستخدم “لفحص” الأجهزة ليس دقيقًا تمامًا. قالت الشركة إنه بينما يشير المسح إلى نتيجة ، فإن البرنامج الجديد سيجري فقط مقارنة بين أي صور يختارها مستخدم معين لتحميلها على iCloud باستخدام أداة NeuralHash. سيتم تضمين نتائج هذا الفحص في قسيمة أمان مشفرة – وهي عبارة عن حقيبة تحتوي على أجزاء يمكن تفسيرها من البيانات على الجهاز – وسيتعين إرسال محتويات هذا الإيصال لتتم قراءتها. بعبارة أخرى ، لن تقوم Apple بجمع أي بيانات من مكتبات الصور الخاصة بالمستخدمين الفرديين نتيجة لمثل هذا الفحص – إلا إذا كانوا يخزنون مجموعة من مواد الاعتداء الجنسي على الأطفال (CSAM).

وفقًا لشركة Apple ، على الرغم من وجود احتمال وجود قراءة خاطئة ، فإن معدل المستخدمين الذين تم إرسالهم خطأً للمراجعة اليدوية سيكون أقل من واحد في 1 تريليون في السنة.

.

[ad_2]

Leave a Comment