صراع القيم والمصالح: لماذا تتحدى أنثروبيك وزارة الدفاع الأمريكية؟
شهد الأسبوعان الماضيان تصعيداً حاداً في التوتر بين داريو أمودي، الرئيس التنفيذي لشركة أنثروبيك (Anthropic)، ووزير الدفاع الأمريكي بيت هيغسيث. يتمحور هذا الصراع حول قضية جوهرية: حدود استخدام الجيش الأمريكي لتقنيات الذكاء الاصطناعي المتطورة التي تطورها الشركات الناشئة في وادي السيليكون.
تتمسك “أنثروبيك”، وهي شركة ناشئة متخصصة في أبحاث وسلامة الذكاء الاصطناعي (تُعرف بنموذجها الشهير Claude)، بموقف صارم يرفض استخدام نماذجها في عمليات المراقبة الجماعية للمواطنين الأمريكيين أو في تطوير أسلحة ذاتية التشغيل بالكامل قادرة على تنفيذ ضربات فتاكة دون تدخل بشري. في المقابل، يرى الوزير هيغسيث أن وزارة الدفاع لا ينبغي أن تتقيد بـ “قواعد الموردين”، مؤكداً أن أي “استخدام مشروع” للتكنولوجيا يجب أن يكون مسموحاً به للجيش.
ما الذي يوضع على المحك فعلياً؟
يتجاوز الخلاف مجرد شروط تعاقدية؛ إنه صراع حول جهة السيطرة على أنظمة الذكاء الاصطناعي القوية. هل السيادة للشركات التي تبتكر هذه الأنظمة وتضع ضوابطها الأخلاقية، أم للحكومة التي ترغب في توظيفها لأغراض أمنية ودفاعية؟
- المراقبة الجماعية: تخشى أنثروبيك من قدرة الذكاء الاصطناعي على تحليل السلوكيات البشرية وتحديد الأنماط عبر قواعد بيانات ضخمة، مما قد يحول المراقبة القانونية إلى أداة قمعية فائقة القدرة.
- الأسلحة ذاتية التشغيل: ترفض الشركة غياب “العنصر البشري” في قرارات الاستهداف والقتل، محذرة من أن التكنولوجيا الحالية ليست ناضجة بما يكفي لاتخاذ قرارات مصيرية دون أخطاء كارثية.
- مخاطر سلاسل التوريد: لوح البنتاغون بتصنيف أنثروبيك كـ “خطر على سلاسل التوريد”، وهو ما يعني فعلياً وضعها على القائمة السوداء ومنعها من التعامل مع أي جهة حكومية.
معضلة “الاستخدام المشروع” والضمانات المفقودة
تكمن مخاوف أنثروبيك في طبيعة العمل العسكري الذي يتسم بالسرية. فإذا بدأ الجيش في أتمتة القرارات القتالية الفتاكة باستخدام نماذج الشركة، فقد لا يعلم العالم بذلك إلا بعد دخولها حيز التنفيذ الفعلي. وتعتبر الشركة أن نماذجها الحالية تفتقر إلى الكفاءة اللازمة لدعم مثل هذه العمليات الحساسة بأمان، حيث قد يؤدي خطأ تقني بسيط في تحديد الهدف إلى تصعيد صراعات دولية لا يمكن التراجع عنها.
من جانبه، صرح شون بارنيل، المتحدث باسم البنتاغون، عبر منصة X بأن الوزارة لا تسعى للمراقبة المحلية الجماعية، لكنه شدد بلهجة حازمة: “لن نسمح لأي شركة بإملاء الشروط المتعلقة بكيفية اتخاذنا للقرارات العملياتية”. وأمهل الشركة حتى مساء الجمعة للرضوخ لمطالب الوزارة أو مواجهة إنهاء الشراكة.
السياسة والذكاء الاصطناعي: شبح “Woke AI”
لا يخلو الصراع من أبعاد سياسية وثقافية، حيث سبق للوزير هيغسيث أن هاجم ما وصفه بـ “الذكاء الاصطناعي المسيس” (Woke AI) في خطاباته، مشيراً إلى أن وزارة الحرب تحتاج إلى أسلحة جاهزة للقتال، وليس إلى “روبوتات دردشة” مصممة وفق أهواء الأكاديميين في الجامعات المرموقة. هذا التوجه يشير إلى رغبة الإدارة في تجريد نماذج الذكاء الاصطناعي من أي قيود أخلاقية أو برمجية قد تعيق فاعليتها العسكرية.
الخلاصة: هل هي نهاية الطريق لأنثروبيك؟
يرى خبراء الاستثمار في تكنولوجيا الدفاع أن تسمية “خطر سلاسل التوريد” قد تكون بمثابة “نهاية اللعبة” لأنثروبيك من حيث النمو الحكومي. ومع ذلك، فإن استبعادها قد يمثل ثغرة في الأمن القومي إذا ما فقد الجيش الوصول إلى أحد أكثر النماذج ذكاءً وأماناً في السوق.
وفي ظل استعداد شركة xAI المملوكة لإيلون ماسك لملء الفراغ، وتوجهات OpenAI التي قد تلتزم بخطوط حمراء مشابهة لأنثروبيك، يبقى التساؤل: هل سيخضع قطاع الذكاء الاصطناعي بالكامل لمتطلبات البنتاغون، أم أن المعايير الأخلاقية ستصمد أمام ضغوط الميزانيات العسكرية الضخمة؟
المصدر: TechCrunch


اترك تعليقاً