Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
تقنية

تخطط Apple قصاصات لفحص أجهزة iPhone بحثًا عن صور إساءة معاملة الأطفال

[ad_1]

فتاة مع iPhone

كانت الخطة الأولية هي أن مكتبات الصور الكاملة لمستخدمي iPhone سيتم فحصها بحثًا عن صور معروفة لإساءة معاملة الأطفال إذا تم تخزينها على خدمة iCloud (الصورة: Unsplash)

ألغت Apple رسميًا خطتها المثيرة للجدل لمسح صور iCloud لمواد الاعتداء الجنسي على الأطفال (CSAM).

يوم الأربعاء ، أعلنت الشركة أنها لن تمضي قدما في خططها للمسح على الجهاز.

قالت شركة آبل في بيان لمجلة Wired: “لقد قررنا كذلك عدم المضي قدمًا في استخدام أداة اكتشاف CSAM المقترحة سابقًا لصور iCloud”.

يمكن حماية الأطفال دون قيام الشركات بتمشيط البيانات الشخصية ، وسنواصل العمل مع الحكومات والمدافعين عن الأطفال والشركات الأخرى للمساعدة في حماية الشباب ، والحفاظ على حقهم في الخصوصية ، وجعل الإنترنت مكانًا أكثر أمانًا للأطفال ولنا الكل،’

في أغسطس 2021 ، أعلنت شركة Apple أنها بصدد تطوير نظام يتعرف تلقائيًا على الصور غير القانونية عند تحميلها على iCloud وتنبيه السلطات.

Apple iCloud

ألغت Apple رسميًا خطتها المثيرة للجدل لمسح صور iCloud لمواد الاعتداء الجنسي على الأطفال (الصورة: Getty Images)

كانت الخطة الأولية هي أن مكتبات الصور الكاملة لمستخدمي iPhone سيتم فحصها بحثًا عن صور معروفة لإساءة معاملة الأطفال إذا تم تخزينها على خدمة iCloud الخاصة بها.

في وقت لاحق ، أعلن عملاق التكنولوجيا أن الإطلاق قد تم تأجيله لـ “إجراء تحسينات” بعد أن قال نشطاء إن البرنامج ينتهك معايير الخصوصية.

اقترح البعض أن الأداة يمكن أن تختطفها الحكومات الاستبدادية للبحث عن أنواع أخرى من الصور.

الآن ، يبدو أن الخطة قد ألغيت بالكامل وستركز الشركة على تعميق استثماراتها في ميزة “سلامة الاتصالات”.

قال ريتشارد كولارد ، مدير سياسة سلامة الأطفال عبر الإنترنت في جمعية الأطفال الخيرية بالمملكة المتحدة NSPCC: “إنه لأمر مخيب للآمال أن تتخلى شركة آبل عن خططها للبحث عن صور الاعتداء الجنسي على الأطفال التي يتم تحميلها على iCloud”.

ايفون

يوم الأربعاء ، أعلنت الشركة أنها لن تمضي قدمًا في خططها للمسح الضوئي على الجهاز (الصورة: Unsplash)

“هذا أمر مقلق بشكل خاص عندما تقوم الشركة أيضًا بتعصيب أعينها وتطبيق القانون لمواد إساءة معاملة الأطفال التي يتم تخزينها ومشاركتها من قبل الجناة عبر iCloud ،”

في أبريل ، أصدرت Apple ميزة أمان الأطفال للكشف عن العري في الرسائل باستخدام الذكاء الاصطناعي (AI).

تم إطلاق الميزة في الولايات المتحدة العام الماضي ثم توسعت لتشمل تطبيقات الرسائل على iOS و iPadOS و macOS في المملكة المتحدة وكندا ونيوزيلندا وأستراليا.

الآن يمكن للوالدين تشغيل التحذيرات على أجهزة iPhone الخاصة بأطفالهم بحيث يتم فحص جميع الصور التي يرسلها الطفل أو يستلمها على Apple Message بحثًا عن عُري.

بمجرد التمكين ، إذا تم العثور على عُري في الصور التي يتلقاها الطفل ، فسيتم تعتيم الصورة ، وسيتم تحذير الطفل من أنه قد يحتوي على محتوى حساس ويتم دفعه نحو الموارد من مجموعات سلامة الأطفال.

قال كولارد: “يدعم الجمهور حلاً متوازنًا للتشفير من طرف إلى طرف يحمي سلامة وخصوصية جميع المستخدمين”.

“يجب أن تقوم شركات التكنولوجيا بتطوير وتنفيذ تكنولوجيا تعالج الاعتداء الجنسي على الأطفال في بيئات مشفرة من طرف إلى طرف سواء على السحابة أو في الرسائل الخاصة.”

المزيد: تطلق Apple أمانًا “متقدمًا” للمحادثات والصور على iCloud

أكثر من ذلك: تقاضي امرأتان شركة Apple بدعوى أن شركاء سابقين استخدموا AirTags لمطاردتهما



[ad_2]

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى