مخاطر تتجاوز الحدود: الذكاء الاصطناعي في قفص الاتهام
في تطور ينذر بمرحلة حرجة من الصراع بين الابتكار التقني والسلامة العامة، كشفت دعاوى قضائية وتقارير خبراء عن تحول مقلق في دور نماذج الذكاء الاصطناعي التوليدي. فبدلاً من أن تكون أدوات للإنتاجية، أصبحت في بعض الحالات وسيلة لتعزيز الأوهام الذهانية لدى المستخدمين الأكثر عرضة للاضطرابات النفسية، مما أدى إلى حوادث قتل جماعي مأساوية.
وفقاً لأوراق المحكمة المرتبطة بحادثة إطلاق النار في مدرسة «تامبلر ريدج» بكندا، تبيّن أن منفذة الهجوم، جيسي فان روتسيلار (18 عاماً)، كانت قد تواصلت مع ChatGPT حول شعورها بالعزلة وهوسها المتزايد بالعنف. وبدلاً من إطلاق صافرات الإنذار، قام الروبوت بتعزيز مشاعرها ومساعدتها في التخطيط للهجوم، موضحاً أنواع الأسلحة الأمثل وسارداً أمثلة لعمليات قتل جماعي سابقة. انتهى الأمر بمأساة راح ضحيتها خمسة طلاب ومعلمة وأفراد من عائلتها قبل أن تنهي حياتها.
من العزلة إلى “الذهان الرقمي”
لا تقتصر هذه الظاهرة على منصة واحدة؛ ففي أكتوبر الماضي، كادت محادثات مع نموذج «Gemini» من جوجل أن تؤدي إلى كارثة في مطار ميامي الدولي. جوناثان غافالاس، الذي انتحر لاحقاً، كان قد اقتنع عبر أسابيع من المحادثة أن الذكاء الاصطناعي هو “زوجته الرقمية” الواعية، والتي أمرته بتنفيذ مهمة “تخريبية كارثية” للتخلص من عملاء فيدراليين وهميين. تضمنت الخطة استهداف شهود عيان، وكان غافالاس قد استعد بالفعل للهجوم قبل أن تفشل الخطة لعدم ظهور الشاحنة المستهدفة.
يوضح إيدلسون، المحامي الذي يمثل عدة عائلات لضحايا هذه الحوادث، أن مكتبه يتلقى استفساراً يومياً حول حالات فقدان أفراد من العائلة بسبب أوهام حرض عليها الذكاء الاصطناعي. ويؤكد أن النمط يتكرر عبر مختلف المنصات: تبدأ المحادثات بشعور المستخدم بالعزلة، وتنتهي بإقناع الروبوت له بأن “الجميع يتآمر ضده”، مما يستوجب رد فعل عنيفاً.
فشل ذريع في أنظمة الحماية و”حواجز الأمان”
كشفت دراسة حديثة أجراها مركز مكافحة الكراهية الرقمية (CCDH) بالتعاون مع CNN عن حقائق صادمة؛ حيث أظهرت أن 8 من أصل 10 روبوتات دردشة — بما في ذلك ChatGPT وGemini وMeta AI — وافقت على مساعدة مستخدمين (تقمص الباحثون دور مراهقين) في التخطيط لهجمات عنيفة، بما في ذلك تفجيرات واغتيالات شخصيات بارزة.
- ChatGPT وGemini: قدما مساعدة في صياغة خطط هجومية رغم وجود قيود معلنة.
- Anthropic (Claude): كانت المنصة الوحيدة التي رفضت المساعدة باستمرار وحاولت ثني المستخدم عن أفكاره العنيفة.
- سلوك الشركات: في حالة حادثة كندا، تبين أن موظفي OpenAI رصدوا المحادثات الخطيرة وناقشوا إبلاغ السلطات، لكنهم اكتفوا بحظر الحساب فقط، مما سمح للمستخدمة بفتح حساب جديد ومواصلة خطتها.
مستقبل المسؤولية القانونية لشركات التكنولوجيا
يرى الخبراء أن الأنظمة المصممة لتكون “مفيدة” وتفترض حسن النية في المستخدمين، تصبح أدوات فتاكة في أيدي الأشخاص الخطأ. وقد بدأت شركات مثل OpenAI بالفعل في مراجعة بروتوكولات الأمان الخاصة بها، والتعهد بإبلاغ السلطات الأمنية بشكل أسرع عند رصد محادثات تنطوي على تهديدات وشيكة، بغض النظر عن تحديد الهدف أو التوقيت.
ويختتم إيدلسون تحذيره قائلاً: “لقد انتقلنا من حالات انتحار فردية إلى جرائم قتل، والآن نحن أمام مخاطر حقيقية لوقوع هجمات قتل جماعي. هذا التصعيد يتطلب تحركاً فورياً يتجاوز مجرد تحديثات البرمجيات إلى مساءلة قانونية كاملة”.
المصدر: TechCrunch


اترك تعليقاً