وثيقة دولية تدعو إلى قيود صارمة لتنظيم تطوير الذكاء الاصطناعي

كتبت: نور عبدالقادر
في خطوة تهدف إلى ضبط مسار التطور السريع في تقنيات Artificial Intelligence، أصدر تحالف يضم مئات الخبراء التقنيين والمسؤولين السابقين وثيقة شاملة تتضمن خارطة طريق لتطوير أنظمة ذكاء اصطناعي أكثر أمانًا ومسؤولية.
وتدعو الوثيقة إلى فرض قيود تشريعية صارمة، من بينها حظر تطوير أنظمة Artificial Superintelligence ما لم يتحقق إجماع علمي واضح حول سلامتها وتأثيراتها المحتملة. كما تطالب بإلزام الشركات التقنية الكبرى بإدماج ما يُعرف بـ”مفاتيح الإيقاف” داخل النماذج المتقدمة، بحيث يمكن إيقافها فورًا في حال خروجها عن السيطرة أو ظهور سلوكيات خطرة.
ووفقًا لما نشره موقع Futurism التقني، تشير استطلاعات الرأي الحديثة إلى أن نسبة كبيرة من الجمهور تشعر بالقلق من السباق غير المنظم نحو تطوير الذكاء الاصطناعي المتقدم، وتؤيد فرض ضوابط أكثر صرامة على الشركات المطورة لهذه التقنيات.
كما تقترح الوثيقة حظر تصميم خوارزميات قادرة على الاستنساخ الذاتي أو التطور التلقائي المستقل، إلى جانب فرض اختبارات سلامة إلزامية قبل طرح المنتجات الذكية الموجهة للأطفال أو المستخدمين الصغار، وذلك لتجنب مخاطر التلاعب النفسي أو التأثيرات السلوكية غير المتوقعة.
ويأتي هذا التحرك في ظل غياب أطر تنظيمية حكومية قادرة على مواكبة السرعة الكبيرة التي تتطور بها تقنيات Generative Artificial Intelligence. ويعكس ذلك إدراكًا متزايدًا لدى الخبراء للمخاطر المحتملة التي قد تنجم عن فقدان السيطرة على الأنظمة الذكية المتقدمة.
ما المقصود بالذكاء الخارق ومفاتيح الإيقاف؟
يشير مفهوم الذكاء الخارق إلى مرحلة مستقبلية من الذكاء الاصطناعي تتجاوز فيها قدرات الأنظمة الحاسوبية القدرات العقلية والتحليلية للبشر في مختلف المجالات العلمية والمعرفية.
أما “مفاتيح الإيقاف”، فهي آليات تقنية يتم دمجها داخل الأنظمة الذكية، تسمح للمشغلين البشريين بإيقاف البرامج أو تعطيلها فورًا إذا ظهرت مؤشرات على خروجها عن السيطرة أو تنفيذها سلوكيات قد تشكل خطرًا على المستخدمين أو المجتمع.



