دراسة تحذر من الاعتماد على الذكاء الاصطناعي في الاستشارات الطبية

كتب/ محمد السباخي
في ظل التوسع الكبير في استخدام تقنيات الذكاء الاصطناعي، كشفت دراسة حديثة سلط عليها الضوء موقع ساينس أليرت عن مخاطر متزايدة للاعتماد على هذه الأنظمة في تقديم الاستشارات الطبية.
وأظهرت النتائج أن نسبة كبيرة من الإجابات المقدمة للمرضى عبر هذه الأدوات تفتقر إلى الدقة العلمية، ما يثير تساؤلات حول مدى موثوقيتها في القضايا الصحية الحساسة.
معلومات مضللة ومراجع غير حقيقية
أشارت الدراسة إلى أن الأخطاء لا تقتصر على المعلومات العامة، بل تمتد إلى موضوعات خطيرة مثل السرطان واللقاحات.
كما رصد الباحثون ظاهرة “المراجع الوهمية”، حيث تقوم بعض الأنظمة بإنشاء روابط ودراسات غير موجودة فعليًا لإضفاء مصداقية زائفة على إجاباتها، وهو ما قد يؤدي إلى تضليل المستخدمين ودفعهم لاتخاذ قرارات صحية غير صحيحة.
نسب الدقة تثير القلق
وفقًا لنتائج التحليل، فإن نحو 70% من الإجابات التي تقدمها هذه الأنظمة تُصنف على أنها إشكالية، تتراوح بين معلومات مضللة وأخرى قد تكون خطرة، بينما لا تتجاوز نسبة الإجابات الدقيقة 30% فقط.
ويُعزى ذلك إلى طبيعة عمل هذه النماذج التي تعتمد على التنبؤ اللغوي استنادًا إلى بيانات متنوعة، قد تشمل مصادر غير موثوقة مثل المنتديات ومنصات التواصل الاجتماعي.
الاستشارة الطبية البشرية لا غنى عنها
أكد الخبراء أن الاعتماد الكامل على الذكاء الاصطناعي في التشخيص أو العلاج يمثل مخاطرة حقيقية، خاصة أن قدرة المستخدم العادي على تفسير المعلومات الطبية بشكل صحيح لا تتجاوز 35%.
ويرجع ذلك إلى تعقيد الحالات الطبية التي تتطلب خبرة بشرية وفهمًا دقيقًا للتفاصيل السريرية.
دور مساعد لا بديل عن الطبيب
خلصت الدراسة إلى أن الذكاء الاصطناعي يمكن أن يكون أداة مفيدة لتبسيط المعلومات الطبية أو دعم البحث، لكنه لا يصلح كبديل عن الأطباء أو المستشارين الصحيين المعتمدين.
ويؤكد المختصون ضرورة استخدام هذه التقنيات بحذر، مع الاعتماد على الاستشارة الطبية المهنية عند اتخاذ قرارات تتعلق بالصحة.
اقرأ أيضا: تحذيرات من الاعتماد على الذكاء الاصطناعي في النصائح المالية.. مخاطر خفية



