ترامب يوجه بوقف استخدام تقنيات Anthropic فوراً
أصدر الرئيس الأمريكي دونالد ترامب يوم الجمعة توجيهاً للوكالات الفيدرالية الأمريكية بوقف استخدام نموذج الذكاء الاصطناعي “كلود” (Claude) التابع لشركة Anthropic. جاء هذا القرار الحاسم بعد رفض الشركة منح وزارة الدفاع (البنتاغون) الإذن باستخدام تقنياتها في عمليات الرقابة المحلية الجماعية أو في أنظمة الأسلحة ذاتية التشغيل بالكامل.
عبر منصته “تروث سوشيال” (Truth Social)، أعلن ترامب أنه أمر الحكومة الفيدرالية بـ “التوقف الفوري” عن استخدام أدوات Anthropic، مع تحديد فترة انتقالية مدتها ستة أشهر لوكالات مثل وزارة الدفاع للتخلص التدريجي من الاعتماد على هذه التقنية. تمثل هذه الخطوة أحدث تصعيد في المواجهة بين الشركة الناشئة والإدارة الأمريكية، والتي بلغت ذروتها هذا الأسبوع.
خلفية النزاع: الرقابة والأسلحة المستقلة
يُستخدم نموذج “كلود” على نطاق واسع في أروقة البنتاغون، بما في ذلك الأنظمة المصنفة سرية. ومع ذلك، سعت إدارة ترامب إلى توسيع نطاق استخدام هذه التكنولوجيا لـ “أي غرض قانوني”. في المقابل، تمسكت Anthropic ببنود عقدها التي تمنع استخدام الذكاء الاصطناعي في المراقبة الجماعية للمواطنين الأمريكيين أو في أنظمة الأسلحة الهجومية المستقلة التي لا تخضع لإشراف بشري مباشر.
وكان وزير الدفاع بيت هيغسيث قد وجه إنذاراً نهائياً لداريو أمودي، الرئيس التنفيذي لشركة Anthropic، مهدداً باستخدام سلطات نادرة لإجبار الشركة على الرضوخ أو تصنيفها كـ “خطر على سلاسل التوريد”، وهو ما قد يحظر استخدامها من قبل المقاولين الدفاعيين والحكومة بشكل كامل.
موقف Anthropic: المبادئ فوق العقود
من جانبه، أكد داريو أمودي أن الشركة، التي تأسست بتركيز معلن على سلامة الذكاء الاصطناعي، لا يمكنها “بضمير حي” الموافقة على طلب البنتاغون بإزالة القيود التعاقدية. وأعرب أمودي عن قلقه من أن القوانين الحالية لم تواكب بعد القدرات الهائلة للذكاء الاصطناعي في مجال المراقبة.
وأوضح أمودي قائلاً: “الذكاء الاصطناعي القوي يجعل من الممكن تجميع البيانات المتفرقة وغير المؤذية ظاهرياً لبناء صورة شاملة لحياة أي شخص، وبشكل تلقائي وعلى نطاق واسع”.
آراء الخبراء والبدائل المطروحة
يرى مايكل باستور، عميد برامج قانون التكنولوجيا في كلية نيويورك للحقوق، أن موقف Anthropic مبرر، مشيراً إلى أن إصرار البنتاغون على مصطلح “الأغراض القانونية” دون توضيح ماهية تلك الأغراض يثير تساؤلات جدية حول النوايا المتعلقة بالرقابة المحلية.
ومع تراجع حظوظ Anthropic في العقود الحكومية، تبرز بدائل أخرى قد يلجأ إليها البنتاغون، تشمل أدوات من OpenAI، أو Google، أو شركة xAI المملوكة لإيلون ماسك. ومع ذلك، كشفت مذكرات داخلية في OpenAI أن رئيسها التنفيذي سام ألتمان يتبنى خطوطاً حمراء مماثلة فيما يخص الرقابة والأسلحة المستقلة، وإن كان يميل إلى حل هذه الإشكاليات عبر قيود تقنية بدلاً من المنع التعاقدي المطلق.
جبهة موحدة من الموظفين
وفي تحرك لافت، تداول موظفون في شركتي Google وOpenAI عريضة تطالب شركاتهم بالوقوف إلى جانب Anthropic في رفض استخدام نماذج الذكاء الاصطناعي في الرقابة الجماعية أو الأسلحة الفتاكة. وحذرت العريضة من محاولات البنتاغون لتقسيم الشركات من خلال إثارة مخاوف من رضوخ المنافسين.
يختتم النزاع الحالي فصلاً جديداً من الصراع بين السلطة السياسية والشركات التقنية، حيث يتسارع تبني الذكاء الاصطناعي في المجالات العسكرية والأمنية بوتيرة تفوق بكثير قدرة التشريعات والرقابة التنظيمية على الملاحقة، مما يضع مستقبل الخصوصية وأخلاقيات الحروب على المحك.
المصدر: CNET


اترك تعليقاً