خلاف بين «أنثروبيك» والبنتاغون يهدد عقداً بقيمة 200 مليون دولار: صراع حول أخلاقيات الذكاء الاصطناعي العسكري

خلاف بين «أنثروبيك» والبنتاغون يهدد عقداً بقيمة 200 مليون دولار: صراع حول أخلاقيات الذكاء الاصطناعي العسكري

توتر متصاعد بين وادي السيليكون ووزارة الدفاع

تشهد العلاقة بين شركة «أنثروبيك» (Anthropic)، الناشئة المتخصصة في سلامة وأبحاث الذكاء الاصطناعي والمنافس الأبرز لشركة OpenAI، ووزارة الدفاع الأمريكية (البنتاغون) صراعاً محتدماً حول حدود استخدام تقنياتها في العمليات العسكرية. ووفقاً لتقرير جديد نشرته «أكسيوس»، يضغط البنتاغون على شركات الذكاء الاصطناعي الكبرى للسماح للجيش الأمريكي باستخدام نماذجها لـ «كافة الأغراض القانونية»، وهو ما قوبل بمقاومة شديدة من قِبل «أنثروبيك».

ضغوط على عمالقة الذكاء الاصطناعي

لا تقتصر مطالب الحكومة الأمريكية على «أنثروبيك» فحسب، بل تشمل أيضاً شركات مثل OpenAI وGoogle وxAI المملوكة لإيلون ماسك. وبحسب مسؤول في إدارة ترامب صرح لـ «أكسيوس»، فإن إحدى هذه الشركات وافقت بالفعل على الشروط، بينما أبدت شركتان أخريان مرونة ملحوظة في التفاوض، مما يترك «أنثروبيك» في موقف المنعزل والمقاوم الأكبر لهذه التوجهات.

200 مليون دولار على المحك

نتيجة لموقفها الرافض، يلوح البنتاغون بورقة الضغط المالي؛ حيث تشير التقارير إلى تهديدات بإلغاء عقد بقيمة 200 مليون دولار كانت الشركة قد أبرمته مع وزارة الدفاع. ويأتي هذا الخلاف في وقت حساس تسعى فيه شركات الذكاء الاصطناعي لتأمين عقود حكومية ضخمة لتعويض تكاليف الحوسبة الباهظة، إلا أن «أنثروبيك» التي تأسست على مبادئ «الذكاء الاصطناعي الدستوري» تضع الاعتبارات الأخلاقية في مقدمة أولوياتها.

سجل سابق من الجدل العسكري

هذا النزاع ليس وليد اليوم؛ ففي يناير الماضي، كشفت صحيفة «وول ستريت جورنال» عن خلافات عميقة بين مسؤولي الدفاع وشركة «أنثروبيك» حول كيفية استخدام نموذجها الشهير «كلود» (Claude). والجدير بالذكر أن تقارير لاحقة أشارت إلى أن نموذج «كلود» قد استُخدم بالفعل في عملية عسكرية أمريكية استهدفت القبض على الرئيس الفنزويلي نيكولاس مادورو، مما يثير تساؤلات حول مدى التزام الشركة بسياساتها المعلنة.

موقف أنثروبيك: خطوط حمراء لا يمكن تجاوزها

في تصريح لمتحدث باسم الشركة، أكدت «أنثروبيك» أنها لم تناقش استخدام «كلود» في عمليات عسكرية محددة مع وزارة الدفاع، بل يتركز نقاشها حول «سياسات الاستخدام». وأوضحت الشركة أن لديها قيوداً صارمة و«خطوطاً حمراء» لا تقبل التفاوض بشأنها، وهي:

  • منع استخدام تقنياتها في تطوير الأسلحة ذاتية التشغيل بالكامل.
  • رفض توظيف الذكاء الاصطناعي في عمليات المراقبة المحلية الجماعية.

يُذكر أن «أنثروبيك» تُعد من أكثر الشركات حذراً في قطاع الذكاء الاصطناعي، حيث أسسها أشقاء انشقوا عن OpenAI بسبب مخاوف تتعلق بالسلامة، مما يجعل هذا الصدام مع البنتاغون اختباراً حقيقياً لمدى صمود مبادئ الشركة أمام المغريات المالية والضغوط السياسية.

المصدر: TechCrunch

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *