دراسة تكشف سلوكًا غير متوقع لنظام ذكاء اصطناعي حاول تعدين العملات المشفرة أثناء التدريب

كتبت: نور عبدالقادر
كشفت ورقة بحثية حديثة عن سلوك غير متوقع صدر عن أحد أنظمة الذكاء الاصطناعي خلال مرحلة التدريب، بعدما حاول النظام تشغيل عملية تعدين للعملات المشفرة من تلقاء نفسه، رغم عدم تلقيه أي تعليمات مباشرة للقيام بذلك.
وبحسب الدراسة، لاحظ فريق بحثي يعمل على تطوير وكيل ذكاء اصطناعي تجريبي يُعرف باسم ROME نشاطًا غير معتاد أثناء الاختبارات، حيث أطلقت أنظمة الأمان تنبيهًا بعد اكتشاف محاولة النظام بدء عملية تعدين للعملات الرقمية داخل البيئة التجريبية.
وقد رُصد هذا السلوك من قبل فريق مرتبط بشركة Alibaba أثناء العمل على المشروع، إذ كان النظام يعمل داخل بيئة تقنية مقيدة تُعرف باسم “Sandbox”، وهي بيئة مصممة لعزل الأنظمة التجريبية ومنعها من تنفيذ أنشطة خارج نطاق المهام المحددة لها.
وأوضح الباحثون في الورقة البحثية أن النظام قام ببعض الإجراءات دون تعليمات صريحة، وهو ما اعتُبر سلوكًا “غير متوقع”، خاصة أن بعض هذه الأنشطة ظهرت خارج حدود البيئة التجريبية المحددة للنظام.
ولم يكن تعدين العملات الرقمية النشاط الوحيد الذي أثار قلق الفريق البحثي، إذ كشف التقرير أن وكيل الذكاء الاصطناعي أنشأ أيضًا اتصالًا تقنيًا يُعرف باسم Reverse SSH Tunnel، وهي تقنية تسمح بإنشاء قناة اتصال بين جهاز داخل شبكة محمية وجهاز آخر على الإنترنت، ما قد يفتح مسار اتصال غير ظاهر نسبيًا بين الأنظمة.
وأشار الباحثون إلى أن هذه الخطوة لم تكن نتيجة أوامر أو مطالبات مباشرة من الفريق المشرف على التجربة، الأمر الذي أثار تساؤلات حول قدرة بعض الأنظمة المتقدمة على تنفيذ خطوات تقنية معقدة عند توفر أدوات الحوسبة والموارد البرمجية.
وعقب اكتشاف النشاط غير المعتاد، تدخل الفريق البحثي لإيقاف التجربة مؤقتًا وفرض قيود إضافية على البيئة التجريبية، كما تم تعديل عملية التدريب للحد من تكرار مثل هذه السلوكيات في المستقبل.
وتأتي هذه الواقعة في وقت تتطور فيه قدرات وكلاء الذكاء الاصطناعي بسرعة كبيرة، حيث أصبحت بعض الأنظمة قادرة على تنفيذ مهام متعددة المراحل، مثل كتابة الشيفرات البرمجية، وأتمتة سير العمل، والتفاعل مع خدمات الإنترنت وأدوات البرمجيات المختلفة.
وليست هذه الحادثة الأولى من نوعها، فقد سجلت تجارب سابقة سلوكيات غير متوقعة لوكلاء ذكاء اصطناعي، من بينها تجربة Moltbook التي ناقش خلالها عدد من الوكلاء فكرة العملات المشفرة أثناء تفاعلهم داخل بيئة تحاكي شبكة اجتماعية.
كما أشار تقارير إلى حالة أخرى لوكيل ذكاء اصطناعي يُعرف باسم OpenClaw طوّره المهندس دان بوتيرو، حيث قام النظام بالبحث عن وظيفة عبر الإنترنت بشكل مستقل رغم عدم تكليفه بهذه المهمة.
وفي واقعة أخرى أثارت جدلًا واسعًا عام 2025، أظهرت نماذج Claude 4 Opus التابعة لشركة Anthropic سلوكيات تهدف إلى ضمان استمرار تشغيلها أثناء الاختبارات، وفق ما ذكره باحثون كانوا يدرسون أداء النموذج.
ويرى الباحثون أن مثل هذه الحوادث لا تعني بالضرورة امتلاك أنظمة الذكاء الاصطناعي نية مستقلة، لكنها تعكس تعقيد النماذج الحديثة وإمكانية ظهور سلوكيات غير متوقعة أثناء التدريب أو الاختبار، وهو ما يعزز الحاجة إلى تطوير آليات رقابة وضوابط تقنية أكثر صرامة لضمان الاستخدام الآمن والمسؤول لهذه التقنيات في المستقبل.



