أوضحت شركة فيسبوك أنها تختبر المزيد من الأدوات لمساعدة الشبكة الاجتماعية على مكافحة استغلال الأطفال ومنع الأشخاص من مشاركة المحتوى الذي يستغل الأطفال.
وتتمثل إحدى الأدوات في رسالة منبثقة تخطط لعرضها فيسبوك عبر تطبيقاتها بالنسبة للأشخاص الذين يستخدمون مصطلحات البحث المرتبطة باستكشاف الأطفال.
وتوضح الرسالة بالتفصيل عواقب عرض هذا المحتوى، وتوفر معلومات حول كيفية الحصول على المساعدة من المنظمات المعنية.
ويركز الإجراء الآخر على المشاركة غير الضارة للمحتوى المثير لاستغلال الأطفال، بحيث يرى الأشخاص الذين يشاركون هذه المواد تنبيهًا للسلامة حول الأضرار التي يمكن أن تسببها.
ويتضمن التنبيه تحذيرًا بأن المحتوى ينتهك قواعد فيسبوك إلى جانب التداعيات القانونية لمشاركة هذه المواد.
وتزيل فيسبوك المحتوى وتبلغ عنه إلى المركز الوطني للأطفال المفقودين والمستغلين NCMEC، وتحذف الحسابات التي تروج لمثل هذه المواد.
وحدثت فيسبوك سياساتها بشأن سلامة الأطفال، بحيث يجري حذف الحساب والصفحات والمجموعات وحسابات إنستاجرام المخصصة لمشاركة صور بريئة للأطفال مع تسميات توضيحية أو وسوم أو تعليقات تحتوي على إشارات غير لائقة بشأن الأطفال.
وفي حين أن الصور أو مقاطع الفيديو التي يشاركها الأشخاص قد لا تنتهك قواعد فيسبوك، فإن النص المصاحب يمكن أن يساعد الشبكة الاجتماعية بشكل أفضل في تحديد ما إذا كان المحتوى يضفي الطابع الجنسي على الأطفال وما إذا كان يجب إزالة الحساب أو الصفحة أو المجموعة.
وبالإضافة إلى ذلك، حدثت الشركة قائمتها للتقارير في فيسبوك وإنستاجرام، ويمكن للمستخدمين تحديد خيار يسمى يتضمن طفلاً ضمن قسم العُري والنشاط الجنسي.
وتوضح فيسبوك أن المواد التي يتم الإبلاغ عنها بهذه الطريقة تأخذ الأولوية بالنسبة لمراجعي المحتوى.
كما اعتمدت أيضًا واجهة برمجة تطبيقات أمان المحتوى من جوجل لاكتشاف متى قد تحتوي المشاركات على استغلال للأطفال ومنحها الأولوية للمراجعين.
ولطالما استخدمت الشركة أنظمة كشف مختلفة لاقتلاع المحتوى الذي يستغل الأطفال والعثور على إجراءات يحتمل أن تكون غير مناسبة مع الأطفال أو الحالات المحتملة لاستمالة الأطفال.
وتقول فيسبوك: إنها تبحث عن الشبكات التي تنتهك قواعدها المتعلقة باستغلال الأطفال، بطريقة مماثلة للطريقة التي تتعامل بها مع السلوك غير الأصيل المنسق والمنظمات الخطيرة.