سان فرانسيسكو: الفيسبوك المؤتمر الوطني العراقي يوم الاربعاء ان المشرفين على الشركة خلال الربع الأخير إزالة 8.7 مليون صور المستخدم من العري مع مساعدة من قبل البرامج التي لم يكشف عنها تلقائيا أعلام هذه الصور.

تعرفت أداة التعلم الآلي خلال العام الماضي على الصور التي تحتوي على كل من العري والطفل ، مما يسمح بزيادة فرض حظر فيسبوك على الصور التي تظهر القُصّر في السياق الجنسي.

كشف نظام مماثل أيضًا يوم الأربعاء عن قيام المستخدمين بممارسة “الاستمالة” أو مصادقة القصر على الاستغلال الجنسي.

قال رئيس إدارة الأمان العالمي في الفيسبوك أنتيجون ديفيس لرويترز في مقابلة إن “الآلة تساعدنا في تحديد الأولويات” والمحتوى الإشكالي “الأكثر كفاءة” بالنسبة لفريق المراجعين المدربين للشركة.

تستكشف الشركة تطبيق التقنية نفسها على تطبيق Instagram .

تحت ضغط من المنظمين والمشرعين ، وتعهد الفيسبوك لتسريع إزالة المواد المتطرفة وغير المشروعة. تعد برامج التعلم الآلي التي تدرّس المليارات من أجزاء المحتوى التي ينشرها المستخدمون كل يوم ضرورية لخطتها.

التعلم الآلي غير مثالي ، ووكالات الأنباء والمعلنين من بين أولئك الذين اشتكوا هذا العام من أن الأنظمة التلقائية على الفيسبوك تمنع بشكل خاطئ وظائفهم.

قال ديفيس إن أنظمة سلامة الأطفال قد ترتكب أخطاء ولكن يمكن للمستخدمين الاستئناف.

“نفضل أن نخطئ إلى جانب الحذر مع الأطفال” ، قالت.

قواعد الفيس بوك لسنوات حظرت حتى صور عائلية لأطفال يرتدون ملابس خفيفة تم تحميلهم بـ “النوايا الحسنة” ، وهم قلقون بشأن الكيفية التي قد يسيء بها الآخرون مثل هذه الصور.

قبل البرنامج الجديد ، اعتمد موقع Facebook على المستخدمين أو فلاتر العري البالغ التابعة لهم لالتقاط صور الأطفال. نظام منفصل يمنع المواد الإباحية للأطفال التي سبق أن تم إبلاغ السلطات عنها.

لم يفصح موقع Facebook في وقت سابق عن بيانات حول عمليات إزالة عُري الأطفال ، على الرغم من أنه قد تم حساب البعض من بين 21 مليون مشاركة وتعليقات تمت إزالتها في الربع الأول للنشاط الجنسي وعُري البالغين.

تراجعت أسهم فيس بوك بنسبة 5٪ يوم الأربعاء.

قال فيسبوك إن البرنامج الذي تعلم من مجموعة صوره العارية للكبار وصور الأطفال الملبس ، أدى إلى المزيد من عمليات الإزالة. وهو ما يجعل استثناءات للفن والتاريخ ، مثل صورة الحائز على جائزة بوليتزر لفتاة عارية تفر من هجوم نابالم حرب فيتنام.

يقوم نظام بتقييم عوامل مثل عدد الأشخاص الذين قاموا بحجب مستخدم معين وما إذا كان هذا المستخدم يحاول بسرعة الاتصال بالعديد من الأطفال ، على حد قول ديفيس.

قالت ميشيل ديلون ، رئيسة العمليات في المركز الوطني للأطفال المفقودين والمستغلين (NCMEC) ، إن المنظمة تتوقع تلقي حوالي 16 مليون تلميذة إباحية للأطفال في جميع أنحاء العالم هذا العام من فيسبوك وغيرها من شركات التكنولوجيا ، بزيادة عن 10 ملايين العام الماضي .

مع الزيادة ، قال NCMEC أنه يعمل مع Facebook لتطوير البرمجيات لتحديد أي نصائح لتقييم أولا.

مع ذلك ، اعترف DeLaune أن هناك نقطة عمياء حاسمة هي تطبيقات الدردشة المشفرة والمواقع السرية “ ويب المظلمة ” حيث تنشأ الكثير من المواد الإباحية الجديدة للأطفال.

تشفير الرسائل على WhatsApp المملوك لـ Facebook ، على سبيل المثال ، يمنع التعلم الآلي من تحليلها.

قال DeLaune أن NCMEC سوف يعلم شركات التكنولوجيا و “نأمل أن يستخدموا الإبداع” لمعالجة هذه القضية.

.


Source link

Load More By admin
Load More In Uncategorized

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

Check Also

يتوفر الآن جهاز العرض Xiaomi Mi Laser في الولايات المتحدة

يتوفر الآن جهاز العرض Xiaomi Mi Laser في الولايات المتحدة من خلال Walmart ، بسعر 2000 دولا…