بدلًا من البشر: ميتا تخطط للاعتماد على الذكاء الاصطناعي لتقييم معظم مخاطر منتجاتها!
في تحول جذري قد يُعيد تشكيل كيفية تعاملها مع سلامة المستخدمين، تخطط شركة ميتا لنقل مهمة تقييم المخاطر المحتملة لمنتجاتها من المراجعين البشريين إلى الاعتماد بشكل كبير على أنظمة الذكاء الاصطناعي، وذلك بهدف تسريع العملية. هذا ما كشفه تقرير صادم من الإذاعة الوطنية العامة (NPR) الأمريكية، والذي اطلع على وثائق داخلية مسربة من عملاق التكنولوجيا.
ووفقًا لـ NPR، تهدف ميتا إلى أن يتولى الذكاء الاصطناعي ما يصل إلى 90% من عمليات تقييم المخاطر، وتدرس الشركة استخدام مراجعات الذكاء الاصطناعي حتى في المجالات شديدة الحساسية مثل المخاطر المتعلقة بالشباب وقضايا "النزاهة"، والتي تشمل المحتوى العنيف والمعلومات المضللة وغيرها.
تحذيرات من الداخل: هل يتجاهل الذكاء الاصطناعي المخاطر الخفية؟
أعرب موظفون حاليون وسابقون في ميتا، تحدثوا مع NPR شريطة عدم الكشف عن هوياتهم، عن مخاوف جدية من أن الذكاء الاصطناعي قد يتجاهل مخاطر كبيرة كان بإمكان الفريق البشري التعرف عليها ومعالجتها. فلطالما خضعت التحديثات والميزات الجديدة لمنصات ميتا، بما في ذلك إنستغرام وواتساب، لمراجعات بشرية دقيقة قبل إطلاقها للجمهور.
ولكن، بحسب التقرير، ضاعفت ميتا من استخدام الذكاء الاصطناعي في عملياتها الداخلية خلال الشهرين الماضيين. والآن، يُطلب من فرق المنتج ملء استبيان حول منتجهم وتقديمه للمراجعة بواسطة نظام الذكاء الاصطناعي، الذي يقدم عادةً "قرارًا فوريًا" يتضمن تحديد مجالات الخطر والمتطلبات اللازمة لمعالجتها قبل الموافقة على إطلاق المنتج.
"تقليل التدقيق يعني مخاطر أعلى"
حذر مسؤول تنفيذي سابق في ميتا، في حديثه مع NPR، من أن "تقليل التدقيق يعني أنك تخلق مخاطر أعلى. ومن غير المرجح أن يتم منع التداعيات السلبية لتغييرات المنتج قبل أن تبدأ في التسبب بمشاكل في العالم الحقيقي."
في المقابل، صرحت ميتا لـ NPR بأنها ستواصل الاعتماد على "الخبرة البشرية" لتقييم "القضايا الجديدة والمعقدة"، بينما ستترك "القرارات منخفضة المخاطر" للذكاء الاصطناعي. (يمكن قراءة التقرير الكامل على موقع NPR).
سياق مقلق: بعد تقرير النزاهة الأخير
يأتي هذا الكشف بعد أيام قليلة فقط من إصدار ميتا لأحدث تقارير النزاهة ربع السنوية، وهو الأول منذ تغيير سياساتها المتعلقة بتعديل المحتوى وتدقيق الحقائق في وقت سابق من هذا العام. وكما كان متوقعًا، أظهر التقرير انخفاضًا في كمية المحتوى الذي تم حذفه في أعقاب هذه التغييرات. ولكن، الأهم من ذلك، أنه أشار إلى ارتفاع طفيف في حالات التنمر والتحرش، وكذلك المحتوى العنيف والصادم على منصاتها.
هذا الربط بين تقرير النزاهة المقلق والتوجه الجديد نحو تقييم المخاطر بالذكاء الاصطناعي يثير تساؤلات جدية حول أولويات ميتا، وما إذا كانت السرعة والكفاءة التشغيلية تأتي على حساب سلامة المستخدمين والتدقيق اللازم للمحتوى والميزات الجديدة.
الذكاء الاصطناعي: أداة فعالة أم تضحية بالسلامة؟
لا شك أن الذكاء الاصطناعي يمكن أن يقدم حلولاً لتسريع العمليات وتحليل كميات هائلة من البيانات. ولكن، عندما يتعلق الأمر بتقييم المخاطر التي قد تؤثر على مليارات المستخدمين، بما في ذلك فئات حساسة كالشباب، فإن الاعتماد شبه الكامل على الأنظمة الآلية يفتح الباب أمام مخاوف مشروعة. فهل ستتمكن الخوارزميات، مهما بلغت من تطور، من فهم الفروق الدقيقة والسياقات المعقدة التي يستوعبها العقل البشري، خاصة في تحديد المخاطر غير الواضحة أو تلك التي تتطلب حكمًا أخلاقيًا؟
ما رأيك في هذا التوجه الجديد من ميتا؟
هل تثق في قدرة الذكاء الاصطناعي على ضمان سلامة المنتجات الرقمية بشكل كامل، أم ترى أن العنصر البشري لا غنى عنه في هذا المجال؟ شاركنا وجهة نظرك في التعليقات.