مصر مباشر - الأخبارمصر مباشر - تكنولوجيا وتنمية

حين تُصبح الأسئلة أسرع من الأجوبة: قصة تقرير ٢,٧٧٨ باحثًا عن مستقبل الذكاء الاصطناعي

اعداد: احمد الطاهري

جلس أحمد الطاهري أمام شاشة الكمبيوتر في صباح هادئ، يفصله عن ضجيج العالم نافذة صغيرة وطبق قهوة بارد. على الشاشة ورقة علمية طويلة، نتائج استبيان لم يغب عنه أحد منذ نشره: أكثر من 2,778 باحثًا في مؤتمرات الذكاء الاصطناعي الكبرى يضعون توقعاتهم للمستقبل — أرقام وأحتمالات تقرع أجراس الفرح والخطر في آنٍ واحد.

النبأ الذي تصدّر العناوين

الاستبيان—الذي نُشر على مستودع الأبحاث العلمي arXiv—جمع آراء باحثين نشروا مؤخرًا في مؤتمرات مرموقة مثل NeurIPS وICML وICLR، وخرج بتوقعات جريئة: فرص 50% بأن تتفوق الأنظمة الذكية على البشر في «كل المهام» بحلول عام 2047، واحتمال 10% بأن يحدث ذلك مبكرًا — حول 2027. كما قدّر المشاركون احتمالات لتحقيق أنظمة ذكاء اصطناعي لبعض المعالم التقنية القابلة للقياس خلال سنوات قليلة. هذه الدراسة المتسعة تُعد مرجعية مهمة لصناع القرار والباحثين معًا.

ملاحظة مهمة: النصوص المنتشرة التي تُنسب هذه الدراسة تلقائيًا إلى مجلة JAIR في أكتوبر 2025 ليست مؤكدة؛ المصدر المتاح للدراسة هو المستودع العلمي arXiv، والسجلات العامة لمجلة JAIR لا تُظهر نشرًا مطابقًا بتاريخ أكتوبر 2025.

بين التفاؤل والتحفُّظ: أرقام تروي خوفًا وأملًا

المفاجأة ليست فقط في تواريخ التفوّق المحتملة، بل في المزاج الجمعي للعلماء: نحو 68% منهم يعتقدون أن نتائج الذكاء الاصطناعي ستكون «مفيدة» أكثر من أن تكون ضارة، ومع ذلك فإن نسبة كبيرة من هؤلاء لا تستبعد احتمالات كارثية ضئيلة لكنها حقيقية — بعض المشاركين أعطوا احتمالات لا تقل عن 5% لسيناريوهات شديدة الضرر بما في ذلك نتائج متطرفة للغاية. هذه البينات تضع المجتمع العلمي أمام سؤال أخلاقي وعملي: كيف نوازن طموح الابتكار مع إدارة المخاطر؟

لماذا القصة أكبر من الأرقام؟

القفزة المتوقعة في قدرات النماذج لا تعني مجرد أدوات أفضل؛ بل تغيير في موازين القوة الاقتصادية والاستراتيجية والاجتماعية. ما بدأ كأدوات مساعدة سرعان ما قد يتحول إلى بنية تحتية جديدة للثروة والمعرفة، وفي أحسن صورها إلى فُرص تنموية، وفي أسوأها إلى أدوات تضليل ومراقبة وتوسيع للفجوات بين الدول والشعوب. هذه المخاطر هي نفسها التي أعرب عنها غالبية المستطلَعين في الدراسة، وهو ما يجعل تنظيم الاستخدام والبحث في أمان الأنظمة ضرورة لا رفاهية.

ما الذي تقوله المعايير العالمية؟ (خلاصة موجزة قابلة للتطبيق)

لا نبدأ من الصفر: المجتمع الدولي والجهات الفنية أوجدت أطرًا للتعامل مع مخاطرِ الذكاءِ الاصطناعي. من أبرزها إطار إدارة مخاطر الذكاء الاصطناعي الصادر عن NIST الذي يقدّم أدوات وإرشادات عملية لإدارة المخاطر التقنية والتنظيمية والمؤسسية، ويؤكّد على الحوكمة، والاختبار، والشفافية، والإفصاح عن الحوادث.

الاتحاد الأوروبي سار أيضًا في مسار تشريعي طموح عبر قانون الذكاء الاصطناعي (AI Act) الذي دخل حيز التنفيذ ويفرض التزامات متزايدة على مطوّري النماذج والأنظمة، لا سيما في ما يتصل بالنماذج العامة والأنظمة عالية المخاطر، ما يعكس توجهًا لحوكمة تطبيقات الذكاء الاصطناعي على مستوى سياسات الدولة.

ومن بعدٍ أخلاقي مؤسسي عالمي، قدمت اليونسكو توصيات أخلاقية تُشدد على حماية حقوق الإنسان والكرامة والشفافية والعدالة وضرورة الإشراف البشري في أنظمة الذكاء الاصطناعي. هذه المستندات تُمثل أرضية مشتركة يمكن للدول والمؤسسات البناء عليها.

ماذا نحتاج عمليًا الآن؟ (مقترحات موجزة مستلهمة من المعايير)

تعزيز أبحاث الأمان وتمويلها كأولوية موازية للابتكار.

إلزامية الشفافية والإفصاح عن قدرات النماذج وسجل الحوادث خاصة للنماذج العامة.

آليات تقييم مستقلّة (اختبار ما قبل النشر، تدقيقات طرف ثالث).

أطر أخلاقية وطنية ودولية تحمي الحقوق الرقمية وتمنع الاستغلال السياسي والتجاري للتقنية.

برامج تعليمية وتوسيع القدرات لتقليل فجوة المعرفة بين الدول والمؤسسات.

الإنسان أمام مرآة صنعه

عاد أحمد للطاولة، يحدّق في كلمات الباحثين كما لو كانت مرايا زمنية: لم تعد المسألة متى سيصل الذكاء الاصطناعي إلى إمكاناتٍ فائقة فحسب، بل هل سنملك مؤسساتٍ وأدواتٍ وأخلاقيات تجعل من هذا الوصول خدمةً مشتركةً لا تهديدًا جماعيًا. الدراسة تقول إن الاحتمالات ليست صفراً، وأن الأمل مترافق مع قدرٍ من الخطر. ما علينا الآن ليس الهروب من المستقبل، بل بناء سياج ذكي حوله — سياج من قواعد علمية، ومعايير إنسانية، وسياسات واقعية تُنقذنا من أخطاء قد لا يمكن التراجع عنها بسهولة.

محمد ابراهيم

تحيا_مــ𓁳_𓆃ـصــ𓅮ـر _𝕰𝖌𝖞𝖕𝖙𓁳𓄿𓅓

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى