شركة غوغل تطور ذكاءً اصطناعياً يختلق عضو دماغي ويثير مخاوف الأطباء

أثارت شركة “غوغل” موجة من الانتقادات في الأوساط الطبية بعد كشف خطأ جسيم ارتكبه نظام الذكاء الاصطناعي الجديد للرعاية الصحية الذي طورته، والمعروف باسم “Med-Gemini”.
الخطأ ظهر خلال تحليل للنظام لتصوير دماغي، حيث أشار إلى وجود خلل في عضو غير موجود أصلاً، وهو ما أثار تساؤلات حول دقة واعتمادية هذه التكنولوجيا المتقدمة.
تفاصيل الحادثة كشفت أن “Med-Gemini” ارتكب خطأً في تسمية منطقة دماغية أثناء مراجعة الفحص، حيث ذكر “basilar ganglia” كعضو مصاب، وهو مصطلح خاطئ وغير موجود في تشريح الدماغ البشري.
ومن المحتمل أن النظام خلط بين “العقد القاعدية” (basal ganglia) التي تلعب دوراً حيوياً في التحكم في الحركة والانفعالات، و”الشريان القاعدي” (basilar artery) المسؤول عن تغذية قاعدة الدماغ، مما أدى إلى ابتكار هذا المصطلح الوهمي.
هذا الخطأ ظهر في ورقة بحثية نشرتها “غوغل” للترويج لنظام “Med-Gemini”، كما تضمنه منشور في مدونة الشركة الرسمية.
الطبيب المتخصص في الأعصاب، برايان مور، كان من أوائل من لاحظ الخطأ وأبلغ غوغل عنه، لكن الشركة قامت بتعديل النص داخل المدونة دون إعلان رسمي أو توضيح، في حين بقيت الورقة البحثية المنشورة تحتوي على الخطأ الأصلي، مما أثار غضباً وانتقادات لاذعة من مجتمع الأطباء والخبراء.
وصف العديد من المختصين الحادثة بأنها “هلوسة ذكاء اصطناعي”، وهي ظاهرة يُنتج فيها النموذج معلومات وهمية أو خاطئة لكنه يعرضها بثقة تامة، مما قد يؤدي إلى مخاطر صحية كبيرة في حال الاعتماد الكامل على هذه الأنظمة في التشخيص الطبي.
رداً على هذه الانتقادات، بررت “غوغل” الأمر باعتباره “خطأ مطبعي”، لكن هذا التبرير لم يلقَ قبولاً واسعاً، خصوصاً مع ورود تقارير تفيد بأن النظام يخضع بالفعل للتجارب في مستشفيات حقيقية، مما يضع جدية وموثوقية هذه التكنولوجيا قيد التساؤل.
ليس هذا فقط، فقد ظهر نموذج آخر تابع لغوغل يدعى “MedGemma” يعاني أيضاً من تناقضات في الأداء، إذ يقدم أحياناً تشخيصات دقيقة عند طرح أسئلة معقدة، لكنه يفشل في الإجابة على أسئلة أبسط تتعلق بنفس الحالة، ما يبرز التحديات الكبيرة التي تواجه إدماج الذكاء الاصطناعي في المجال الطبي.
يشدد خبراء الصحة على أن الذكاء الاصطناعي يمثل أداة واعدة لتعزيز الرعاية الصحية وتسهيل التشخيص، لكنه لا يمكن أن يحل محل الخبرة البشرية، ويحتاج إلى رقابة صارمة وإشراف مستمر، لأن اعتماد الأطباء والمرضى على هذه الأنظمة بشكل أعمى قد يؤدي إلى أخطاء كارثية تهدد حياة المرضى.
تظل هذه الحادثة جرس إنذار حول ضرورة تطوير معايير صارمة لاختبار وتقييم تقنيات الذكاء الاصطناعي الطبية، وضمان دمجها بحذر مع الخبرة الطبية التقليدية، للحفاظ على سلامة المرضى وتحقيق الفوائد المرجوة من هذه التقنيات الحديثة.