تقرير : كيف تكافح فيسبوك الإرهاب

بقلم مونيكا بيكرت، مدير إدارة السياسة العالمية وبريان فيشمان، مدير سياسة مكافحة الإرهاب

في أعقاب الهجمات الإرهابية الأخيرة، بدأ الناس يشككون في دور شركات التكنولوجيا في مكافحة الإرهاب على شبكة الإنترنت. ونحن نسعى لتقديم الإجابات على هذه الأسئلة. وبالفعل نتفق مع أولئك الذين يرون أن وسائل التواصل الاجتماعي ينبغي ألا تكون منصة للإرهابيين تمكنهم من إيصال رسائلهم ونشر فكرهم. ونريد أن نكون واضحين جداً حول الإجراءات الجدية والحاسمة التي نتخذها لمعالجة هذه المسألة لأن الحفاظ على أمن مجتمعاتنا على فيسبوك أمر بالغ الأهمية وأولوية رئيسية ضمن رسالتنا.

وسنسلط الضوء في هذه المدونة على إجراءاتنا وجهودنا خلف الكواليس، بما في ذلك كيفية استخدامنا لتقنيات الذكاء الاصطناعي للتخلص من المحتوى الذي يحض عل الإرهاب وإزالته عن صفحات فيسبوك، وهو أمر لم نتحدث عنه علناً ​​من قبل. وسوف نناقش أيضاً الجهود التي يبذلها المستخدمون في مكافحة الإرهاب، حيث قضى بعضهم مسيرتهم المهنية بأكملها في مكافحة الإرهاب، فضلاً عن طرق تعاوننا مع الشركاء خارج شركتنا في هذا المجال.

موقفنا صريح وبسيط: ليس هناك مكان للإرهاب على فيسبوك. فنحن نتخلص من الإرهابيين ونزيل المنشورات التي تدعم الإرهاب فور علمنا بها. وعندما نتلقى تقارير عن منشورات محتملة تدعم الإرهاب، نراجع تلك المنشورات والمشاركات بشكل سريع ومستعجل ونتحقق منها بدقة. وفي حالات نادرة وعندما نكتشف أدلة على وقوع ضرر وشيك، نقوم بإبلاغ السلطات على الفور. وعلى الرغم من أن البحوث الأكاديمية ترى أن صناعة التطرف وتجنيد أعضاء الجماعات مثل “داعش” و”القاعدة” يحدث في المقام الأول على الأرض وفي الميدان، نحن نعلم جيداً أن الإنترنت تلعب دوراً مهماً أيضاً- ونحن لا نريد أن يستخدم فيسبوك في أي نشاط إرهابي مهما كان.

نحن نؤمن بأن التكنولوجيا و”فيسبوك” يمكن أن يكونا جزءاً من الحل.

لقد توخينا الحذر، ويعود ذلك جزئياً لأننا لا نريد أن نشير إلى وجود طريقة تقنية سهلة للتعامل مع المسألة. فالحفاظ على سلامة الناس على منصة يستخدمها ما يقرب من 2 مليار شخص كل شهر ويشاركون وينشرون التعليقات بأكثر من 80 لغة في كل ركن من أركان المعمورة، يشكل تحدياً هائلاً. وهناك الكثير من العمل والإجراءات المعقدة التي يتعين القيام بها. ولكننا أردنا أن نشرككم بما نعمل عليه حالياً ونسمع تعليقاتك وملاحظاتكم حتى نتمكن من تحقيق ما هو أفضل.

 

الذكاء الاصطناعي

نحن نسعى إلى العثور على المحتوى المتطرف بصورة فورية، قبل أن يتسنى للناس في مجتمعنا مشاهدته. ومعظم الحسابات التي نزيلها بسبب قضايا مكافحة الإرهاب، نعثر عليها بأنفسنا. ولكننا نعلم أننا إذا ما استخدمنا التكنولوجيا سنحقق نتائج أفضل – ونتحدث هنا تحديداً عن الذكاء الاصطناعي – في مجال وقف انتشار المحتوى المتطرف على “فيسبوك”. وعلى الرغم من أن استخدامنا للذكاء الاصطناعي في مواجهة الإرهاب لا يزال حديث العهد إلى حد ما، إلا أنه بات يغير الطرق التي نتخلص من خلالها من الترويج المحتمل للإرهاب وإزالة حسابات المتطرفين عن الفيسبوك. ونحن نركز جهودنا حالياً على أحدث تقنياتنا لمكافحة المحتوى المتطرف عن تنظيم الدولة الإسلامية (داعش) وتنظيم القاعدة والمنظمات أو الجماعات التابعة لها، ونتوقع التوسع في جهودنا لمحاربة منظمات إرهابية الأخرى في الوقت المناسب. ونقوم باستمرار بتحديث الحلول التقنية لدينا، ولكن فيما يلي مجموعة من جهودنا الحالية.

 

 

 

 

 

الخبرات البشرية

ليس بإمكان الذكاء الاصطناعي أن يكشف عن كل شيء. إن تعقب واكتشاف الأشخاص الذين يدعمون الإرهاب والفكر المتطرف ليس بمسألة سهلة أو مباشرة، والخوارزميات لا تصل إلى مستوى مهارة البشر عندما يتعلق الأمر بفهم هذا النوع من المحتوى. فقد تكون صورة رجل مسلح يلوح بعلم تنظيم الدولة “داعش” دعاية أو محاولة للحشد أو التجنيد ولكنها أيضاً قد تكون صورة واردة في خبر. وكذلك فإن بعض الانتقادات الأكثر فعالية لهذه الجماعات المتطرفة مثل تنظيم الدولة “داعش” قد تعتمد في نقدها على نفس المواد والأفكار التي تروجها هذه الجماعات ولفهم هذه الحالات المعقدة، نحن بحاجة إلى الخبرات البشرية.

 

 

الشراكة مع جهات أخرى

إن العمل على إبعاد الإرهاب عن “فيسبوك” ليس كافياً لأن الإرهابيين قادرون على التنقل من منصة إلى أخرى. ومن هنا تبرز أهمية الشراكات مع الآخرين كالشركات الأخرى والمجتمع المدني والباحثين والحكومات.

 

 

 

التزامنا

نريد أن يكون فيسبوك مكانا معادياً وغير حاضناً للإرهابيين. والتحدي بالنسبة للمجتمعات الافتراضية على الإنترنت هو بنفس ثقل التحدي الذي تواجهه المجتمعات في عالمنا الفعلي – ويتمثل في تحسين طرق وسرعة اكتشاف الإشارات الأولى للإرهاب قبل فوات الأوان. ونحن ملتزمون التزاماً مطلقاً بإبعاد الإرهاب والتطرف عن منصتنا وسنواصل مشاركة المزيد حول هذا العمل المستمر مع تطور جهودنا في المستقبل.

Exit mobile version