مصر مباشر - تكنولوجيا وتنمية

جدل حول دور ChatGPT بعد حادث إطلاق نار في تومبلر ريدج بكندا

كتبت: نور عبدالقادر

كشفت تقارير صحفية أن شابًا يبلغ من العمر 18 عامًا، يُزعم تورطه في حادث إطلاق نار جماعي بمدينة Tumbler Ridge في كندا، كان قد أجرى محادثات مقلقة عبر روبوت الدردشة ChatGPT التابع لشركة OpenAI قبل وقوع الحادث.

ووفقًا للتفاصيل المنشورة، تضمنت المحادثات أوصافًا لمشاهد عنف باستخدام أسلحة نارية، ما دفع أنظمة المراقبة الداخلية في الشركة، المصممة لرصد إساءة استخدام نماذج اللغة الكبيرة (LLMs)، إلى وضع علامة تحذيرية على الحساب، قبل أن يتم حظره في يونيو 2025.


نقاش داخلي حول إبلاغ السلطات

بحسب ما أوردته صحيفة The Wall Street Journal، دار نقاش داخل OpenAI حول ما إذا كان ينبغي التواصل مع جهات إنفاذ القانون الكندية بشأن طبيعة تلك المحادثات، إلا أن الشركة قررت حينها عدم الإبلاغ، لعدم استيفاء النشاط للمعايير المعتمدة لديها.

غير أن متحدثًا باسم الشركة أكد لاحقًا أنها تواصلت مع السلطات الكندية بعد وقوع الحادث، وقدمت المعلومات المتاحة لديها لدعم التحقيق.


تواصل مع الشرطة الملكية الكندية

أوضحت الشركة أنها زودت Royal Canadian Mounted Police بالمعلومات المتعلقة باستخدام المتهم للمنصة، في إطار التعاون مع التحقيقات الرسمية الجارية.

ويأتي ذلك في وقت تتزايد فيه الضغوط على شركات الذكاء الاصطناعي لتوضيح سياساتها بشأن التعامل مع المحتوى العنيف أو المثير للقلق الذي قد ينشره بعض المستخدمين.


نشاط رقمي مقلق خارج ChatGPT

لم تقتصر المؤشرات التحذيرية على محادثات ChatGPT، إذ أشارت التقارير إلى أن المتهم أنشأ لعبة عبر منصة Roblox تضمنت محاكاة لحادث إطلاق نار داخل مركز تجاري، كما نشر محتوى متعلقًا بالأسلحة عبر منصة Reddit، ما يعكس اهتمامًا متكررًا بموضوعات العنف قبل وقوع الجريمة.


سجل سابق مع الشرطة المحلية

ذكرت التقارير أيضًا أن الشرطة المحلية كانت قد تعاملت سابقًا مع المتهم، بعد حادثة إشعال حريق داخل منزل عائلته أثناء وجوده تحت تأثير مواد مخدرة غير محددة، وهو ما أثار تساؤلات حول المؤشرات التحذيرية التي سبقت الحادث وإمكانية التدخل المبكر.


اتهامات متجددة لروبوتات الذكاء الاصطناعي

في سياق أوسع، تواجه روبوتات الدردشة المعتمدة على نماذج اللغة الكبيرة، سواء التابعة لـ OpenAI أو غيرها، انتقادات متزايدة بشأن تأثيرها المحتمل على بعض المستخدمين، خاصة في الحالات النفسية الحساسة.

وقد رُفعت بالفعل دعاوى قضائية تستند إلى محادثات يُزعم أنها شجعت أفرادًا على إيذاء أنفسهم، ما أعاد إشعال الجدل حول حدود مسؤولية شركات الذكاء الاصطناعي وآليات الرقابة المعتمدة لديها.


تنبيه بشأن الأزمات النفسية

إذا كنت تمر بأزمة نفسية أو تراودك أفكار انتحارية، يمكنك التواصل مع خدمات الدعم المحلية في بلدك. وفي الولايات المتحدة، يمكن الاتصال أو إرسال رسالة نصية إلى الرقم 988 للوصول إلى خط دعم الأزمات والانتحار.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى