خوارزميات الموت: كيف يغير الذكاء الاصطناعي في الحروب مفهوم الاغتيالات الممنهجة؟
يواجه العالم اليوم ما يصفه الخبراء العسكريون بـ "الثورة الصناعية الثالثة في الحروب"، وهي مرحلة تلي اكتشاف البارود وابتكار الأسلحة النووية. في هذا العصر الجديد، لم يعد الذكاء الاصطناعي في الحروب مجرد أداة لتحسين الإمدادات، بل أصبح المحرك الأساسي لغرف العمليات، حيث باتت الخوارزميات هي التي تمتلك سلطة تحديد المصائر في ساحات القتال.
من المراقبة البشرية إلى التصنيف الخوارزمي
تاريخياً، كانت عمليات الاغتيال تتطلب أشهراً من العمل الاستخباراتي الميداني والمراقبة اللصيقة. أما اليوم، فقد كشفت تقارير استقصائية لصحيفة "ذا غارديان" عن تحول جذري عبر استخدام أنظمة متطورة مثل "لافندر" (Lavender).
تعتمد هذه المنظومة على تقنيات "التعلم الآلي" لتحليل بيانات ملايين السكان في ثوانٍ معدودة. يقوم النظام بتقييم الأفراد بناءً على سجلات رقمية وسلوكيات محددة، مثل:
- الانضمام لمجموعات تواصل اجتماعي معينة.
- تكرار تغيير السكن أو الموقع الجغرافي.
- التشابه السلوكي الرقمي مع أشخاص مصنفين كـ "مسلحين".
نظام "ذا غوسبل": تحويل الحرب إلى خط إنتاج
بينما يركز "لافندر" على الأفراد، يختص نظام آخر يُدعى "ذا غوسبل" (The Gospel) بتحديد الأهداف النوعية والمنشآت. ووفقاً لتقارير من "رويترز" وصحيفة "لوموند"، أحدث هذا النظام قفزة مرعبة في وتيرة الاستهداف:
- القدرة البشرية: كان المحللون يستخرجون قرابة 50 هدفاً سنوياً في مناطق محددة.
- القدرة الآلية: يستطيع النظام إنتاج مئات الأهداف العسكرية في يوم واحد.
هذا التحول حوّل النزاعات المسلحة إلى ما يشبه "خط الإنتاج الصناعي"، حيث يتم توليد الأهداف آلياً وبسرعة تتجاوز قدرة الاستيعاب البشري.
الرؤية الحاسوبية والاغتيال الآلي بالكامل
لا يتوقف الأمر عند البرمجيات التحليلية، بل يمتد إلى الرصد الميداني المباشر. تشير تقارير منظمة العفو الدولية إلى أنظمة مثل "ريد ولف" (Red Wolf)، التي تُستخدم لمراقبة الهويات عبر نقاط التفتيش آلياً.
وعند دمج هذه البيانات مع "الذخائر المتسكعة" أو الطائرات بدون طيار مثل "إس تي إم كارغو" التركية أو "سويتش بليد" الأمريكية، يصبح الاغتيال عملية مؤتمتة تبدأ من التعرف على الوجه وتنتهي بإطلاق المقذوف دون تدخل بشري مباشر.
المعضلة الأخلاقية: القبول المسبق بالخطأ التقني
تعد نقطة "تقليل الرقابة البشرية" هي الأكثر إثارة للجدل. فقد كشفت تسريبات نشرتها مجلة "سي آي أو" (CIO) أن القادة العسكريين قد يمنحون الخوارزميات صلاحية القصف بهامش خطأ محدد.
على سبيل المثال، قد يُسمح للنظام باستهداف شخص إذا كانت نسبة دقة الخوارزمية تتجاوز 90%، حتى لو كان ذلك يعرض حياة المدنيين للخطر. هذا "القبول المسبق بالخطأ التقني" يمثل تحدياً صارخاً للقانون الدولي الإنساني ويطرح تساؤلات حول المسؤولية الجنائية؛ فمن يحاسب عندما تخطئ الآلة؟ المبرمج، أم القائد، أم النظام نفسه؟
مستقبل "الحرب بسرعة البرق"
إن العالم يتجه بسرعة نحو عصر "الحرب بسرعة البرق"، حيث تتخذ الأنظمة قراراتها في أجزاء من الثانية. في هذا المشهد المعقد، يبرز السؤال الوجودي الأهم: هل سيتحول البشر في النزاعات القادمة إلى مجرد أرقام وبيانات في قاعدة بيانات خوارزمية صماء، تفقد فيها الإنسانية سيطرتها على قرار القتل؟
المصدر: الجزيرة


اترك تعليقاً