كيف تعمل أدوات كشف المحتوى المولّد بالذكاء الاصطناعي وهل يمكن الاعتماد عليها

كتب: محمد أشرف
مع تزايد استخدام أدوات الذكاء الاصطناعي في الحياة اليومية والأعمال، أصبح من الضروري فهم طريقة عمل هذه الأدوات وكيفية التحقق من المحتوى الذي تنتجه. فقد واجهت شركات ومؤسسات عدة مشكلات نتيجة الاعتماد على المحتوى المولّد آليًا، حيث اضطرت شركة Deloitte لدفع أموال للحكومة الأسترالية بعد اكتشاف أخطاء في تقرير رسمي، كما خضع محامٍ في ولاية فكتوريا الأسترالية لإجراءات تأديبية بعد تضمين استشهادات قانونية غير صحيحة ولّدها الذكاء الاصطناعي، وحتى الجامعات بدأت تقلق من اعتماد الطلاب على هذه الأدوات.
تعمل أدوات كشف المحتوى المولّد بالذكاء الاصطناعي عبر البحث عن أنماط كتابية معينة في النصوص، أو تحليل البيانات الوصفية في الصور، أو التعرف على العلامات المائية الخفية التي يضيفها بعض مطوري النماذج داخل المحتوى. ومع ذلك، أصبح من الصعب الاعتماد عليها بشكل كامل، إذ أن النصوص المولدة أصبحت قريبة جدًا من الأسلوب البشري، ويمكن تعديل الصور أو النصوص بسهولة لخداع هذه الأدوات، كما أن معظم الأدوات تعطي نسبة ثقة دون تفسير سبب الحكم، مما يقلل من مصداقيتها.
تظهر الاختبارات أن أداء أدوات الكشف ينخفض بشكل كبير عند التعامل مع محتوى جديد لم تتدرب عليه سابقًا، مثل مقاطع التزييف العميق الحديثة، وقد تتسبب هذه الأخطاء في مشكلات عملية مثل اتهام الطلاب بالغش أو افتراض أن رسائل حقيقية مولدة بالذكاء الاصطناعي، رغم أن الأدوات ما تزال بعيدة عن الاعتمادية الكاملة.
في الوقت الحالي، يمكن اعتبار هذه الأدوات مؤشراً أولياً فقط، ولا توجد طريقة مؤكدة تمامًا للتمييز بين المحتوى البشري والمولّد آليًا، ومع تطور نماذج الذكاء الاصطناعي، يصبح التحدي في كشف المحتوى الآلي أكثر صعوبة يومًا بعد يوم



