دراسة جديدة: نماذج الذكاء الاصطناعي تعمل كـ “مجتمعات عقلية” داخلية لتحسين التفكير

كتبت: نور عبد القادر
كشفت دراسة بحثية حديثة شارك فيها باحثون من Google Research أن بعض نماذج الذكاء الاصطناعي المتقدمة لا تعمل وفق منطق خطي تقليدي، بل تُظهر أنماطاً أقرب إلى الذكاء الجماعي، مع سلوك يشبه النقاش الداخلي بين مجموعة من العقول البشرية.
الدراسة، المنشورة على منصة arXiv تحت عنوان “Reasoning Models Generate Societies of Thought”, ركزت على نماذج استدلال متقدمة، مثل DeepSeek-R1 و QwQ-32B التابع لشركة علي بابا، وخلصت إلى أن هذه النماذج لا تقتصر على معالجة البيانات حسابياً، بل تحاكي ضمنياً تفاعلاً متعدد الوكلاء داخل النموذج الواحد.
نقاش داخلي بدل التفكير الأحادي
وأوضح الباحثون أن النماذج تولّد أحياناً أفكاراً متعارضة، ثم تعمل على موازنتها وحل التناقضات داخلياً، بطريقة تشبه نقاش فريق عمل يسعى للوصول إلى أفضل قرار ممكن، بحيث يظهر للمستخدم النتيجة النهائية بعد جدل داخلي غير مرئي.
هذا النهج يختلف عن الفكرة السائدة في وادي السيليكون التي ركزت على توسيع حجم النماذج وزيادة البيانات والقدرة الحاسوبية، مؤكدة الدراسة أن طريقة تنظيم عملية التفكير بنفس أهمية القوة الحسابية وحجم النموذج.
“محامي الشيطان” الرقمي
تشير النتائج إلى أن فعالية النماذج ترجع إلى قدرتها على مراجعة استنتاجاتها، وطرح أسئلة توضيحية، واختبار بدائل متعددة قبل الوصول للإجابة النهائية، وهو ما يشبه وجود “محامي شيطان” داخلي يدفع النموذج للتشكيك في استنتاجاته.
ماذا يعني ذلك للمستخدمين؟
-
تحسين الدقة: النماذج تصبح أقل عرضة لإعطاء إجابات خاطئة واثقة.
-
التعامل مع التعقيد: أفضل أداء مع الأسئلة المعقدة والغامضة.
-
تقليل التحيز: مراعاة وجهات نظر متعددة داخلياً تحد من التفكير الأحادي.
نحو جيل جديد من الذكاء الاصطناعي
تدفع هذه النتائج إلى إعادة تعريف الذكاء الاصطناعي من مجرد آلة حسابية إلى نظام تفكير منظم يعتمد على التنوع الداخلي والتعاون الضمني. وقد يصبح مفهوم الذكاء الجماعي، المعروف في علم الأحياء والمجتمعات البشرية، الأساس للطفرة التالية في التكنولوجيا.



