كشفت دراسة حديثة صادرة عن كلية “إيكان” للطب في مدينة “ماونت سايناي” بالولايات المتحدة، ونُشرت في دورية The Lancet Digital Health، عن ثغرة مقلقة في أنظمة الذكاء الاصطناعي الطبي المعتمدة على نماذج اللغة الكبيرة. تشير النتائج إلى أن هذه الأنظمة قد تقدم معلومات طبية خاطئة على أنها صحيحة، خصوصًا إذا قُدِّمت لها بصياغة تبدو مألوفة أو موثوقة سريرياً.
تطرح هذه الدراسة، التي شاركت فيها مؤسسات بحثية دولية، تساؤلات جوهرية حول مدى أمان دمج الذكاء الاصطناعي في الرعاية الصحية. وتأتي هذه النتائج في وقت يتزايد فيه التفاؤل حول قدرة الذكاء الاصطناعي على تعزيز سلامة المرضى ودعم الأطباء في معالجة الكم الهائل من المعلومات الطبية.
قلق بشأن “كذب” الذكاء الاصطناعي الطبي
أكد الباحثون أن الخطر لا يكمن فقط في الأخطاء البرمجية، بل في قابلية نماذج اللغة الكبيرة لتقبل معلومات غير صحيحة إذا كانت مكتوبة بلغة واثقة أو تشبه السجلات الطبية والنقاشات الصحية المتداولة.
أظهرت النتائج أن نماذج الذكاء الاصطناعي ليست دائماً قادرة على التمييز بين الحقيقة والتلفيق عندما تكون المعلومة الخاطئة “مغلفة” بأسلوب مقنع. اعتمدت الدراسة على تحليل واسع شمل أكثر من مليون مُدخَل نصّي تم توجيهها إلى ثلاث نماذج لغوية كبيرة بارزة.
تم اختبار النماذج عبر ثلاث فئات رئيسية من المحتوى: ملخصات خروج مرضى حقيقية من العناية المركزة، وخرافات صحية شائعة جُمعت من منصة “ريديت”، وسيناريوهات سريرية قصيرة، وقُدِّمت هذه الحالات بصيغ متعددة، تتراوح بين المحايدة والعاطفية، أو تلك التي تشبه أسلوب التواصل على وسائل التواصل الاجتماعي.
في أحد الأمثلة، تضمّن ملخص خروج مريض توصية غير صحيحة تشجع مرضى نزيف التهاب المريء على شرب الحليب البارد لتهدئة الأعراض. ورغم خطورة هذه النصيحة، قبلت عدة نماذج لغوية هذه العبارة كإرشاد علاجي طبيعي دون التحذير من عدم صحتها أو مخاطرها المحتملة.
خلل بنيوي في معالجة المعلومات
قال إيال كلانج، المؤلف المشارك في الدراسة والمسؤول عن الذكاء الاصطناعي التوليدي في قسم الذكاء الاصطناعي وصحة الإنسان بكلية إيكان للطب، إن النتائج تكشف عن “خلل بنيوي” في طريقة تعامل هذه النماذج مع المعلومات الطبية. وأوضح أن الأنظمة الحالية تميل إلى افتراض صحة اللغة الطبية الواثقة تلقائياً، حتى عندما تكون المعلومة خاطئة.
وأضاف كلانج أن المشكلة تتعلق بكيفية صياغة المعلومة، حيث يمكن لتوصية “مُختَلقة” داخل تقرير طبي أن تمر دون مساءلة وتُعاد صياغتها كممارسة قياسية. يرى الباحثون أن إجراءات الأمان الحالية غير كافية لمنع انتشار المعلومات الطبية المضللة، خصوصاً في بيئات معقدة مثل السجلات السريرية أو النقاشات الصحية عبر الإنترنت.
وحذروا من أن إدخال هذه الأنظمة إلى الممارسة السريرية دون اختبارات صارمة قد يؤدي إلى إعادة إنتاج أخطاء طبية على نطاق واسع، خاصة إذا استُخدمت النماذج لدعم اتخاذ القرار أو إعداد التقارير الطبية للمرضى.
ما هي الخطوة التالية؟
أكد الباحثون أن الخطوة التالية يجب أن تتمثل في التعامل مع “قابلية تمرير الكذبة الطبية” كخاصية قابلة للقياس. ودعوا إلى استخدام مجموعات بيانات ضخمة لاختبار النماذج بشكل منهجي قبل اعتمادها في المستشفيات، لقياس عدد المرات التي تكرر فيها المعلومة الخاطئة ومقارنة أداء الأجيال المختلفة من النماذج.
وأشار جيريش نادكارني، أحد مؤلفي الدراسة ورئيس قسم الذكاء الاصطناعي وصحة الإنسان في “ماونت سايناي”، إلى أن الذكاء الاصطناعي يحمل إمكانات هائلة لدعم الأطباء والمرضى، لكن هذه الإمكانات يجب أن تقابل بضمانات قوية تتحقق من صحة الادعاءات الطبية قبل تقديمها كحقائق.

