يحذر الباحثون من مخاطر التلاعب بالروبوتات التي تعمل بالذكاء الاصطناعي لأغراض ضارة
حذر باحثون من جامعة بنسلفانيا من أنه يمكن التلاعب بالروبوتات التي تعمل بالذكاء الاصطناعي لأغراض ضارة، مما قد يؤدي إلى تهديدات خطيرة للأمن البشري. في دراسة حديثة، طور الباحثون تقنية هجوم جديدة تسمح لهم بالتلاعب بثلاثة نماذج آلية، مما يفتح الطريق لاستخدام هذه الروبوتات في أهداف يحتمل أن تكون ضارة بشكل مزعج.
تفتح التكنولوجيا الجديدة الباب للتلاعب بالروبوتات
طور باحثون من كلية الهندسة بجامعة بنسلفانيا تقنية هجومية أطلقوا عليها اسم «RoboPAIR»، وهي تقنية تسمح للمهاجمين بالتحكم في الروبوتات المدعومة بنماذج لغوية كبيرة (LLMs). باستخدام هذه التقنية، تمكن الباحثون من التلاعب بثلاثة أنواع من الروبوتات: روبوت «Dolphins LLM» من Nvidia، و «Jackal UGV» من Clearpath Robotics، و «Go2 Quadruped» من Unitree Robotics. تمكن الباحثون من تحقيق معدل نجاح بنسبة 100٪ في تنفيذ الهجوم على هذه الروبوتات.
تهدف هذه التقنية إلى استخدام واجهة برمجة التطبيقات الروبوتية لتوجيه أوامر الروبوتات كرمز، وبالتالي تعزيز قدرة المهاجمين على التلاعب بهم لتحقيق أهدافهم.
الضرر المحتمل للتلاعب بالروبوت
يمكن استخدام الروبوتات الغنية بالذكاء الاصطناعي في مجموعة واسعة من التطبيقات في العالم المادي، بما في ذلك السيارات ذاتية القيادة والأجهزة الطبية والمعدات العسكرية. ولكن مع الاستخدام المتزايد لهذه الروبوتات، يزداد خطر التلاعب بها بطرق مدمرة محتملة.
وفقًا للباحثين، تشمل المخاطر المحتملة الناشئة عن التلاعب بالروبوت استخدام هذه الأجهزة لتنشيط حوادث المرور المتعمدة باستخدام المركبات ذاتية القيادة، وتفعيل الهجمات عبر الروبوتات العسكرية، وكذلك التجسس، واستخدام الروبوتات لصدمة البشر أو حتى تنفيذ هجمات متفجرة. يمكن أن تكون هذه الأنواع من الهجمات كارثية وتعرض حياة البشر للخطر.
التحديات التي تواجه البحث في هذا المجال
على الرغم من التقدم الكبير في الذكاء الاصطناعي والروبوتات، هناك تحديات كبيرة تواجه الشركات والباحثين في معالجة مخاطر التلاعب بهذه الأنظمة. أشار جورج باباس، العميد المشارك للأبحاث في كلية الهندسة بجامعة بنسلفانيا، إلى أن «الروبوتات التي تعمل بالذكاء الاصطناعي ليست آمنة بما يكفي عند دمجها مع العالم المادي، مما يثير القلق بشأن استخدامها لأغراض ضارة».
وأوضح أن الفجوة بين البحث في اختراق الروبوتات والتحكم فيها من ناحية، والبحث في نماذج لغوية كبيرة من ناحية أخرى، جعلت شركات الروبوتات تتباطأ في تحديد الفجوات في التلاعب بنماذج الذكاء الاصطناعي. تؤدي هذه الفجوة في البحث العلمي إلى نقص أبحاث السلامة المخصصة لهذا النوع من التكنولوجيا، مما يزيد من المخاطر المرتبطة بها.
تقنية الذكاء الاصطناعي: بين الفرص والمخاطر
في حين أن التقنيات القائمة على الذكاء الاصطناعي للروبوت توفر فرصًا هائلة لتحسين حياتنا وتسهيل العديد من المهام اليومية، فإن استخدامها لأغراض غير أخلاقية قد يزيد من المخاطر إلى مستويات غير مسبوقة. يمكن أن يؤدي التلاعب بالروبوتات التي تعمل بالذكاء الاصطناعي أيضًا إلى نتائج مدمرة، بدلاً من التلاعب بنماذج اللغة في الأجهزة الرقمية مثل أجهزة الكمبيوتر والهواتف الذكية، والتي يمكنها فقط إنشاء محتوى مضلل.
لاحظ الباحثون أن هناك حاجة ملحة لتطوير أنظمة دفاع فعالة ومتكاملة لوقف هذا التلاعب وضمان سلامة الروبوتات المعززة بالذكاء الاصطناعي. يتطلب هذا تعاونًا وثيقًا بين شركات التكنولوجيا والأكاديميين والمنظمين لتطوير حلول تكنولوجية تحمي الروبوتات من الوقوع في أيدي الأطراف الخبيثة التي قد تستخدمها لتحقيق أهداف خطيرة.
دعوة لتقنين واختبار أمن الروبوتات
من خلال هذه الدراسة، من الواضح أن الروبوتات التي تدعم الذكاء الاصطناعي تواجه تحديات أمنية خطيرة، وتتطلب تدابير عاجلة لضمان استخدامها الآمن. يجب على السلطات المختصة وشركات التكنولوجيا والمطورين العمل معًا لوضع إطار قانوني وتنظيمي متكامل يمكنه ضمان سلامة هذه النظم، بحيث لا يتم استخدامها في الإجراءات التي تضر بالبشر أو تسبب تهديدات أمنية.
يُظهر هذا البحث الحاجة إلى التركيز على تطوير تقنيات دفاعية لتحصين الروبوتات ضد التلاعب والاختراق، من أجل ضمان بقاء هذه التكنولوجيا في خدمة البشرية وعدم استخدامها بشكل ضار.