فيسبوك يُقرّ: المحتوى العنيف والمزعج في تزايد بعد تغيير السياسات... وميتا تحتفل بـ"أخطاء أقل"!
في أول تقرير "نزاهة" ربع سنوي لها منذ أن قام مارك زوكربيرج بتعديل سياسات خطاب الكراهية وغيّر نهج الشركة تجاه تعديل المحتوى في وقت سابق من هذا العام، كشفت شركة ميتا عن نتائج مقلقة. فبحسب التقرير، شهد فيسبوك ارتفاعًا ملحوظًا في المحتوى العنيف، بالإضافة إلى زيادة في التنمر والتحرش، وذلك على الرغم من الانخفاض العام في كمية المحتوى الذي أزالته الشركة.
هذه هي المرة الأولى التي تشارك فيها ميتا بيانات تفصيلية حول تداعيات قرار زوكربيرج الجذري بتغيير سياسات المحتوى على المنصة التي يستخدمها مليارات الأشخاص. والمثير للدهشة أن الشركة تحاول تصوير هذه التغييرات كانتصار، مدعيةً أنها قللت من "أخطائها" في تطبيق السياسات بمقدار النصف، بينما ظل معدل انتشار المحتوى المخالف لقواعدها "دون تغيير إلى حد كبير في معظم الجوانب الإشكالية".
عندما تتحدث الأرقام: ارتفاعات مقلقة رغم "الأخطاء الأقل"
رغم تفاخر ميتا بتقليل الأخطاء، إلا أن تقرير الربع الأول من عام 2025 يُظهر استثناءين بارزين ومقلقين مقارنة بنهاية عام 2024:
المحتوى العنيف والصادم: ارتفعت نسبة انتشاره من (0.06% - 0.07%) إلى 0.09%. وتعزو ميتا هذه الزيادة إلى "ارتفاع في مشاركة المحتوى المخالف" بالإضافة إلى محاولاتها الخاصة "لتقليل أخطاء تطبيق السياسات".
التنمر والتحرش: شهد فيسبوك أيضًا زيادة ملحوظة في انتشار هذه النوعية من المحتوى، حيث ارتفعت من (0.06% - 0.07%) إلى (0.07% - 0.08%). وتبرر ميتا ذلك بحدوث "ارتفاع مفاجئ" غير محدد في الانتهاكات خلال شهر مارس. (وتجدر الإشارة إلى أن هذه الفئة منفصلة عن سياسات خطاب الكراهية التي أعيدت صياغتها لتسمح بمنشورات تستهدف المهاجرين ومجتمع الميم).
قد تبدو هذه النسب المئوية ضئيلة، ولكن حتى الزيادات الطفيفة يمكن أن تكون لها آثار ضخمة وملحوظة على منصة بحجم فيسبوك، التي تشهد مليارات المنشورات يوميًا. (تصف ميتا مقياس "الانتشار" بأنه تقدير لمدى تكرار ظهور المحتوى المخالف لقواعدها على المنصة).
تراجع كبير في الإزالات: هل هو تساهل أم دقة أكبر؟
يُسلط التقرير الضوء أيضًا على الانخفاض الهائل في كمية المحتوى الذي تزيله ميتا بشكل عام منذ أن تخلت عن التطبيق الاستباقي لمعظم سياساتها، باستثناء تلك المتعلقة بالانتهاكات الجسيمة مثل استغلال الأطفال والمحتوى الإرهابي. ويُظهر التقرير انخفاضًا كبيرًا في منشورات فيسبوك التي أُزيلت بسبب المحتوى الذي يحض على الكراهية، حيث تم "اتخاذ إجراء" بشأن 3.4 مليون قطعة محتوى فقط بموجب هذه السياسة، وهو أدنى رقم تسجله الشركة منذ عام 2018.
كما انخفضت عمليات إزالة المحتوى غير المرغوب فيه (البريد العشوائي أو Spam) بشكل حاد من 730 مليون في نهاية عام 2024 إلى 366 مليون فقط في بداية عام 2025. وانخفض أيضًا عدد الحسابات المزيفة التي أُزيلت بشكل ملحوظ على فيسبوك من 1.4 مليار إلى 1 مليار حساب (ولا تقدم ميتا إحصاءات حول إزالة الحسابات المزيفة على إنستغرام).
في المقابل، تدعي ميتا أنها ترتكب أخطاء أقل بكثير في تعديل المحتوى، وهو أحد المبررات الرئيسية التي ساقها زوكربيرج لقراره بإنهاء التعديل الاستباقي. وكتبت الشركة: "شهدنا انخفاضًا بنسبة 50% تقريبًا في أخطاء تطبيق السياسات على منصاتنا في الولايات المتحدة من الربع الرابع لعام 2024 إلى الربع الأول لعام 2025". لم توضح ميتا كيفية حساب هذا الرقم، لكنها قالت إن التقارير المستقبلية "ستتضمن مقاييس حول أخطائنا حتى يتمكن الناس من تتبع تقدمنا".
المراهقون: استثناء ضروري من التساهل
مع ذلك، تعترف ميتا بأن هناك فئة واحدة على الأقل لا يزال التعديل الاستباقي ضروريًا لها: المراهقون. وكتبت الشركة: "في الوقت نفسه، نظل ملتزمين بضمان أن يتمتع المراهقون على منصاتنا بأكثر التجارب أمانًا الممكنة. ولهذا السبب، سنواصل أيضًا إخفاء أنواع أخرى من المحتوى الضار بشكل استباقي للمراهقين، مثل التنمر". وقد بدأت ميتا في طرح "حسابات المراهقين" خلال الأشهر القليلة الماضية، مما يسهل تصفية المحتوى خصيصًا للمستخدمين الأصغر سنًا.
الذكاء الاصطناعي و"ملاحظات المجتمع": بدائل ميتا الجديدة
قدمت الشركة أيضًا تحديثًا حول كيفية استخدامها لنماذج اللغات الكبيرة (LLMs) للمساعدة في جهود تعديل المحتوى. وكتبت ميتا: "بعد مزيد من الاختبارات، بدأنا نرى نماذج اللغات الكبيرة تعمل بشكل يتجاوز الأداء البشري في مجالات سياسات محددة. كما نستخدم نماذج اللغات الكبيرة لإزالة المحتوى من قوائم المراجعة في ظروف معينة عندما نكون واثقين بشدة من أنه لا ينتهك سياساتنا".
أما العنصر الرئيسي الآخر في تغييرات سياسة زوكربيرج فكان إنهاء شراكات ميتا مع مدققي الحقائق الخارجيين في الولايات المتحدة. وبدأت الشركة في طرح نسختها الخاصة من "ملاحظات المجتمع" (Community Notes) على فيسبوك وإنستغرام وثريدز في وقت سابق من هذا العام، ومنذ ذلك الحين وسعت هذا الجهد ليشمل مقاطع ريلز والردود على ثريدز. لم تقدم ميتا أي رؤى حول مدى فعالية نهجها الجديد القائم على التعهيد الجماعي لتدقيق الحقائق أو مدى تكرار ظهور هذه الملاحظات على منصتها، على الرغم من أنها وعدت بتحديثات في الأشهر المقبلة.
تساؤلات حول التوازن بين الحرية والأمان
يثير هذا التقرير تساؤلات جدية حول التوازن الذي تحاول ميتا تحقيقه بين ما تعتبره "حرية تعبير" وتخفيف القيود، وبين مسؤوليتها في الحفاظ على بيئة آمنة لمستخدميها. فبينما تحتفل الشركة بتقليل "أخطاء" تطبيق السياسات، تُظهر الأرقام واقعًا آخر يتمثل في زيادة المحتوى الضار. ويبقى السؤال: هل هذا هو الثمن الذي يجب أن يدفعه المستخدمون مقابل سياسات أقل صرامة؟
ما رأيك في هذه التغييرات وتأثيرها على تجربتك على فيسبوك؟
هل ترى أن "الأخطاء الأقل" تبرر زيادة المحتوى الضار؟ شاركنا وجهة نظرك في التعليقات!