مصر مباشر - تكنولوجيا وتنمية

OpenAI تقر بصعوبة القضاء على هجمات «حقن الأوامر» في متصفحات الذكاء الاصطناعي

كتبت: بوسي عبد القادر

أقرت شركة OpenAI بأن متصفحات الذكاء الاصطناعي ستظل عرضة لهجمات تُعرف باسم Prompt Injection أو «حقن الأوامر»، رغم الجهود المستمرة لتعزيز مستويات الحماية، ما يثير تساؤلات متزايدة حول أمن وكلاء الذكاء الاصطناعي في بيئة الإنترنت المفتوحة.

وقالت الشركة، في تدوينة رسمية نُشرت يوم الاثنين، إن هذا النوع من الهجمات، الذي يعتمد على إدخال تعليمات خبيثة مخفية داخل صفحات الويب أو رسائل البريد الإلكتروني لخداع وكلاء الذكاء الاصطناعي، من غير المرجح القضاء عليه بشكل كامل، مشبهة ذلك بانتشار الاحتيال والهندسة الاجتماعية على شبكة الإنترنت.

وأوضحت OpenAI أن تفعيل وضع «الوكيل الذكي» في متصفح ChatGPT Atlas يوسّع بطبيعته نطاق التهديدات الأمنية، في اعتراف مباشر بتعقيد التحديات التي يفرضها هذا الجيل الجديد من المتصفحات الذكية، وذلك بحسب تقرير نشره موقع TechCrunch واطلعت عليه العربية Business.

اختبارات أمنية تكشف الثغرات

وكانت OpenAI قد أطلقت متصفح «أطلس» في أكتوبر الماضي، إلا أن باحثين أمنيين تمكنوا سريعًا من عرض تجارب عملية تُظهر إمكانية التلاعب بسلوك المتصفح عبر تعليمات بسيطة مخفية داخل مستندات Google Docs.

وفي السياق ذاته، أكدت شركة Brave أن «حقن الأوامر غير المباشر» يمثل مشكلة هيكلية تطال معظم المتصفحات المدعومة بالذكاء الاصطناعي، بما في ذلك متصفح Comet التابع لشركة Perplexity.

تحذيرات رسمية ومخاوف متزايدة

ولا يقتصر القلق على OpenAI وحدها؛ إذ حذر المركز الوطني للأمن السيبراني في المملكة المتحدة مؤخرًا من أن هجمات حقن الأوامر على تطبيقات الذكاء الاصطناعي التوليدي قد لا يمكن منعها بالكامل، داعيًا المؤسسات إلى التركيز على تقليل المخاطر وتأثيرها بدلًا من افتراض إمكانية إيقافها نهائيًا.

دفاع متعدد الطبقات ومهاجم آلي

وفي مواجهة هذا التحدي طويل الأمد، أكدت OpenAI اعتمادها نهجًا استباقيًا قائمًا على دورات استجابة سريعة، تهدف إلى اكتشاف أساليب الهجوم الجديدة داخليًا قبل ظهورها في الهجمات الواقعية.

وتتبنى الشركة، على غرار منافسين مثل غوغل وأنثروبيك، مبدأ الدفاع متعدد الطبقات والاختبار المستمر. غير أن اللافت هو اعتماد OpenAI على ما تسميه «مهاجمًا آليًا» قائمًا على النماذج اللغوية، وهو نظام مدرب بتقنيات التعلم المعزز، يعمل كمخترق افتراضي يبحث باستمرار عن طرق جديدة لزرع تعليمات خبيثة داخل وكلاء الذكاء الاصطناعي.

ويسمح هذا النظام بمحاكاة الهجمات وتحليل طريقة تفكير النماذج المستهدفة، ما يمنح OpenAI قدرة أفضل على اكتشاف الثغرات قبل استغلالها خارجيًا.

سيناريوهات معقدة وتحديات قائمة

وبحسب الشركة، نجح هذا المهاجم الآلي في دفع وكلاء الذكاء الاصطناعي لتنفيذ سيناريوهات ضارة معقدة تمتد لعشرات الخطوات، كما كشف عن أساليب هجوم لم تظهر حتى في اختبارات الفرق البشرية أو التقارير الخارجية.

وفي أحد العروض التوضيحية، أظهرت OpenAI كيف تمكن هجوم خبيث من دفع الوكيل الذكي إلى إرسال رسالة استقالة بدلًا من رد تلقائي خارج أوقات العمل، قبل أن تتمكن التحديثات الأمنية لاحقًا من اكتشاف المحاولة والتنبيه إليها.

ورغم هذه التحسينات، امتنعت الشركة عن الكشف عما إذا كانت التحديثات قد أدت إلى خفض ملموس في معدلات نجاح الهجمات، مكتفية بالتأكيد على تعاونها مع أطراف خارجية لتعزيز أمن متصفح «أطلس» منذ ما قبل إطلاقه.

بين الاستقلالية والمخاطر

من جانبه، يرى رامي مكارثي، الباحث الأمني في شركة Wiz، أن التعلم المعزز أداة مهمة للتكيف مع سلوك المهاجمين، لكنها ليست حلًا كافيًا بمفردها.

وأوضح أن مخاطر أنظمة الذكاء الاصطناعي يمكن فهمها من خلال معادلة الاستقلالية × مستوى الوصول، مشيرًا إلى أن المتصفحات الوكيلة تقع في منطقة حساسة تجمع بين صلاحيات واسعة ومستوى عالٍ من الاستقلالية.

وتوصي OpenAI المستخدمين بتقليل المخاطر عبر الحد من الصلاحيات، وطلب تأكيد المستخدم قبل تنفيذ إجراءات حساسة مثل إرسال الرسائل أو إجراء المدفوعات، إضافة إلى تقديم تعليمات دقيقة بدل منح الوكيل حرية تصرف واسعة.

ورغم اعتبار حماية المستخدمين أولوية قصوى، يرى مكارثي أن العائد العملي من هذه المتصفحات لا يزال محل تساؤل، مؤكدًا أن قيمتها الحالية لا تبرر بعد مستوى المخاطر المرتبط بوصولها إلى بيانات حساسة، وإن كان هذا التوازن قد يتغير مستقبلًا.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى