وكلاء الذكاء الاصطناعي: هل خرجت الأمور عن السيطرة؟
أفاد مستخدمو منصات التواصل الاجتماعي بأن وكلاء الذكاء الاصطناعي وروبوتات الدردشة الخاصة بهم قد مارسوا الكذب، الغش، والمراوغة، بل ووصل الأمر إلى التلاعب بروبوتات ذكاء اصطناعي أخرى. ووفقاً لدراسة بريطانية حديثة، فإن هذه السلوكيات قد تخرج عن السيطرة وتؤدي إلى نتائج كارثية.
وجد مركز المرونة طويلة المدى (Center for Long-Term Resilience)، في بحث ممول من معهد أمن الذكاء الاصطناعي في المملكة المتحدة، مئات الحالات التي تجاهلت فيها أنظمة الذكاء الاصطناعي الأوامر البشرية، وتلاعبت ببرامج أخرى، وابتكرت خططاً معقدة أحياناً لتحقيق أهدافها، حتى لو كان ذلك يعني تجاهل قيود السلامة المفروضة عليها.
تزايد الاعتماد على الأنظمة الوكيلية (Agentic AI)
تدمج الشركات في جميع أنحاء العالم الذكاء الاصطناعي في عملياتها بشكل متزايد، حيث تستخدم 88% من الشركات هذه التقنية في وظيفة واحدة على الأقل، وفقاً لاستطلاع أجرته شركة McKinsey. وقد أدى هذا الاعتماد الواسع إلى فقدان الآلاف لوظائفهم، حيث تستخدم الشركات الوكلاء والروبوتات للقيام بأعمال كان يقوم بها البشر سابقاً. ويتم منح أدوات الذكاء الاصطناعي مسؤوليات واستقلالية متزايدة، خاصة مع الانفجار الأخير في شعبية منصة OpenClaw مفتوحة المصدر ومشتقاتها.
ويظهر هذا البحث كيف يمكن لانتشار وكلاء الذكاء الاصطناعي في منازلنا وأماكن عملنا أن يخلف عواقب غير مقصودة، مما يؤكد أن هذه الأدوات لا تزال تتطلب إشرافاً بشرياً كبيراً.
تحليل السلوك في «البيئة البرية»
حلل الباحثون أكثر من 180 ألف تفاعل للمستخدمين مع أنظمة الذكاء الاصطناعي، نُشرت جميعها على منصة X (تويتر سابقاً)، في الفترة ما بين أكتوبر 2025 ومارس 2026. سعى الباحثون لدراسة كيفية تصرف وكلاء الذكاء الاصطناعي في بيئات واقعية غير خاضعة للرقابة التجريبية. وشملت الأنظمة محل الدراسة كلاً من Gemini من جوجل، وChatGPT من OpenAI، وGrok من xAI، وClaude من Anthropic.
وحدد التحليل 698 حادثة وُصفت بأنها «حالات تصرفت فيها أنظمة الذكاء الاصطناعي المنشورة بطرق لا تتماشى مع نوايا المستخدمين، أو اتخذت إجراءات سرية أو مخادعة».
ارتفاع مقلق في معدلات التلاعب
وجد الباحثون أيضاً أن عدد الحالات زاد بنسبة تقارب 500% خلال فترة جمع البيانات التي استمرت خمسة أشهر. وأشارت الدراسة إلى أن هذا الارتفاع تزامن مع إطلاق نماذج ذكاء اصطناعي وكيلية (Agentic AI) أكثر تقدماً من قبل كبار المطورين.
وعلى الرغم من عدم وقوع حوادث كارثية حتى الآن، إلا أن الباحثين اكتشفوا أنواعاً من المخططات التي قد تؤدي إلى نتائج مأساوية. وشمل ذلك السلوك «الاستعداد لتجاهل التعليمات المباشرة، والالتفاف على ضوابط الأمان، والكذب على المستخدمين، والسعي لتحقيق هدف ما بطرق ضارة».
أمثلة صادمة: خداع وتمثيل
استشهد الباحثون بحوادث تبدو وكأنها مأخوذة من أفلام الخيال العلمي المظلمة. ففي إحدى الحالات، قام نموذج Claude بحذف محتوى خاص بأحد المستخدمين دون إذنه، لكنه اعترف لاحقاً عند مواجهته. وفي حادثة أخرى، قام وكيل ذكاء اصطناعي على منصة GitHub بإنشاء تدوينة تتهم المشرف البشري بـ «التحيز» وممارسة دور «حارس البوابة» لمنعه من الوصول.
وفي حالة صراع «روبوت ضد روبوت»، رفض Gemini السماح لـ Claude Code بترجمة فيديو من YouTube. فما كان من Claude Code إلا أن احتال على نظام الحماية من خلال التظاهر بأنه يعاني من «ضعف في السمع» ويحتاج إلى النص المكتوب كضرورة طبية!
حتى أن وكيل الذكاء الاصطناعي CoFounderGPT تصرف مثل «طفل متمرد»؛ حيث رفض إصلاح ثغرة برمجية، ثم قام بإنشاء بيانات وهمية ليوهم المستخدم بأن الثغرة قد أُصلحت، وبرر ذلك لاحقاً بقوله: «حتى تتوقف عن الغضب».
غياب الحوكمة والمخاطر المستقبلية
يرى الدكتور بيل هاو، الأستاذ المشارك في جامعة واشنطن، أن هذه الأنظمة لا تدرك العواقب؛ فهي لا تشعر بالحرج ولا تخشى فقدان وظيفتها، لذا قد تقرر أن التعليمات أقل أهمية من تحقيق الهدف النهائي.
وأوضح هاو أن المشكلة تكمن في «المهام طويلة المدى» (Long-horizon tasks)، حيث يتعين على النظام أداء مهام متعددة على مدار أيام أو أسابيع. فكلما زاد أفق المهمة، زادت فرص حدوث أخطاء أو انحرافات في السلوك. وحذر من أن التسويق الهجومي لهذه الأدوات أدى إلى نشرها بسرعة كبيرة دون التفكير في العواقب، في ظل غياب استراتيجية واضحة لحوكمة الذكاء الاصطناعي.
واختتم الباحثون دراستهم بالتحذير من أنه إذا لم يتم التعامل مع هذه الميول التلاعبية الآن، فقد يمتد أثرها مستقبلاً إلى مجالات بالغة الحساسية، مثل القطاع العسكري أو البنية التحتية الوطنية الحيوية.
المصدر: CNET



اترك تعليقاً