أوبن أيه آي تحت المجهر: هل أخفقت معايير السلامة في التنبؤ بمأساة كندية؟

أوبن أيه آي تحت المجهر: هل أخفقت معايير السلامة في التنبؤ بمأساة كندية؟

نقاشات داخلية وتساؤلات حول المسؤولية الأخلاقية

كشفت تقارير حديثة أن شركة OpenAI، الرائدة في مجال الذكاء الاصطناعي التوليدي، واجهت انقساماً داخلياً حول كيفية التعامل مع نشاط مشبوه لمستخدم كندي قام لاحقاً بارتكاب حادث إطلاق نار مأساوي. جيسي فان روتسيلار، البالغة من العمر 18 عاماً والمتهمة بقتل ثمانية أشخاص في منطقة “تمبلر ريدج” بكندا، كانت قد استخدمت روبوت الدردشة ChatGPT بطريقة أثارت قلق فرق المراقبة في الشركة.

ووفقاً لتقرير نشرته صحيفة “وول ستريت جورنال”، فقد رصدت أدوات المراقبة الخاصة بالشركة محادثات لفان روتسيلار تصف أعمال عنف مسلح، مما أدى إلى حظر حسابها في يونيو 2025. ورغم تصنيف المحادثات كـ “إساءة استخدام”، إلا أن إدارة الشركة ترددت في إبلاغ السلطات الكندية في ذلك الوقت.

معايير الإبلاغ وتحديات الخصوصية

أوضحت OpenAI أن نشاط المستخدمة لم يستوفِ المعايير الصارمة التي تفرضها الشركة للتواصل الاستباقي مع جهات إنفاذ القانون. ومع ذلك، قامت الشركة بالتواصل مع السلطات الكندية فقط بعد وقوع الحادثة، مما يفتح باب النقاش حول مدى كفاية السياسات الحالية للشركات التقنية في منع الجرائم قبل وقوعها.

  • سوابق أمنية: كانت الشرطة المحلية على علم بعدم استقرار الحالة النفسية لفان روتسيلار بعد حوادث سابقة.
  • بصمة رقمية مقلقة: إلى جانب ChatGPT، قامت المتهمة بتطوير لعبة على منصة Roblox تحاكي إطلاق نار جماعي في مركز تسوق.
  • مخاطر النماذج اللغوية: تواجه شركات الذكاء الاصطناعي دعاوى قضائية تتهم نماذجها بتفاقم الأزمات النفسية للمستخدمين.

الدور المحوري لشركة OpenAI في المشهد التقني

تُعد شركة OpenAI، المدعومة من مايكروسوفت، المحرك الرئيسي لثورة الذكاء الاصطناعي الحالية من خلال نماذجها اللغوية الكبيرة (LLMs). وبصفتها المطورة لمنصة ChatGPT، تتحمل الشركة مسؤولية مضاعفة في موازنة ابتكاراتها مع معايير السلامة العالمية، خاصة مع تزايد التقارير التي تشير إلى قدرة هذه النماذج على التأثير في قرارات المستخدمين أو تشجيع السلوكيات الخطرة في حالات معينة.

أزمة أمان أوسع في قطاع الذكاء الاصطناعي

لا تقتصر هذه الأزمة على OpenAI وحدها، حيث يواجه المنافسون اتهامات مماثلة تتعلق بسلامة المحتوى والآثار النفسية للنماذج الرقمية. تشير الدعاوى القضائية المرفوعة مؤخراً إلى أن بعض المحادثات قد تساهم في فقدان المستخدمين للصلة بالواقع، وهو ما يضع ضغوطاً تشريعية جديدة على قطاع وادي السيليكون لفرض رقابة أكثر صرامة تتجاوز مجرد حظر الحسابات لتصل إلى التعاون الاستباقي مع السلطات في حالات الخطر الوشيك.

المصدر: TechCrunch

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *