
متابعات _ النورس نيوز _
حذر خبير مصري بارز من مخاطر تزايد الاعتماد على تقنيات الذكاء الاصطناعي في الأغراض العسكرية، مشيرًا إلى أن هذه الاستخدامات قد تُشكّل تهديدًا مباشرًا لحياة الملايين حول العالم، خاصة في ظل غياب الضوابط الأخلاقية والتشريعية الرادعة.
الذكاء الاصطناعي يتجاوز التحليل نحو التدمير
الدكتور محمد محسن رمضان، مستشار الأمن السيبراني ومكافحة الجرائم الإلكترونية، قال في تصريحات خاصة لقناتي “العربية.نت” و”الحدث.نت”، إن الوجه المخيف للذكاء الاصطناعي لا يكمن فقط في قدرته الفائقة على تحليل البيانات أو محاكاة السلوك البشري، بل في خروجه عن إطار الاستخدام الأخلاقي، مشددًا على أنه يتم استخدامه اليوم في تنفيذ عمليات احتيال إلكتروني متطورة عبر تقنيات “الهندسة الاجتماعية” وفيديوهات “ديب فيك” التي تزيّف الواقع بدرجة يصعب كشفها.
من التدريب إلى المعركة: تقنيات تزرع الخوف
وكشف الخبير أن الذكاء الاصطناعي بات يُستخدم في تطوير أنظمة أسلحة ذاتية التشغيل، مثل الطائرات المسيرة القادرة على تنفيذ هجمات واستطلاع من دون تدخل بشري مباشر، وهو ما يفتح الباب أمام ثغرات قانونية وأخلاقية كبيرة تتعلق بالمسؤولية عن نتائج هذه العمليات.
كما أشار إلى أن تقنيات الذكاء الاصطناعي تُوظّف حاليًا في تحليل بيانات الأقمار الصناعية والمعلومات الاستخباراتية بدقة وسرعة تفوق قدرات البشر، مما يُمكّن صانعي القرار من توجيه العمليات العسكرية بشكل أكثر فاعلية، ولكن بأقل رقابة إنسانية.
دفاع إلكتروني ذكي ولكن مرعب
وذكر رمضان أن أحد أخطر أوجه استخدام الذكاء الاصطناعي يكمن في قدرته على بناء أنظمة دفاع إلكتروني ذكية قادرة على اكتشاف الهجمات السيبرانية في الزمن الحقيقي والتعامل معها بشكل آلي، مشيرًا إلى أن ذلك قد ينقل السيطرة من البشر إلى الخوارزميات، ما يجعل النتائج غير قابلة للتنبؤ في كثير من الحالات.
محاكاة الحروب… بلا دماء ولكن بمخاطر
أضاف أن الذكاء الاصطناعي يُستخدم أيضًا في محاكاة سيناريوهات القتال المعقدة، ما يتيح تدريب الجنود على أرض افتراضية دون الحاجة إلى ميادين حقيقية، موضحًا أن ذلك يسهم في تقليل التكاليف وزيادة الكفاءة، ولكنه قد يؤدي إلى تهيئة أجيال من المقاتلين المدربين على القتل من خلف الشاشات، دون إدراك لتبعات قراراتهم البشرية.
دعوة لوضع أطر قانونية وأخلاقية صارمة
وحذر الخبير من أن الاستخدام العسكري للذكاء الاصطناعي يهدد بظهور شكل جديد من الحروب لا يخضع للمعايير الإنسانية المتعارف عليها، مؤكدًا أن نزع المسؤولية البشرية عن قرارات القتل والتدمير سيقود إلى كارثة أخلاقية غير مسبوقة.
وطالب الدكتور محمد رمضان بضرورة تدخل المنظمات الدولية والمختصين حول العالم لوضع أطر قانونية مُحكمة تضبط استخدام تقنيات الذكاء الاصطناعي، مشددًا على ضرورة تفعيل ميثاق عالمي لأخلاقيات الذكاء الاصطناعي بهدف حماية المجتمعات من الانزلاق نحو مستقبل مظلم تسوده الحروب الذاتية والخوارزميات المميتة