حذرت دراسة حديثة من مخاطر أمنية تحيط بخدمة «ChatGPT Health» التابعة لشركة «أوبن إيه أي»، مؤكدة فشل نظام الذكاء الاصطناعي في تقديم توصيات دقيقة بالرعاية الطارئة في أكثر من نصف الحالات التي تستدعي تدخلاً طبياً فورياً.وكشف الباحثون عن نتائج اختبارات أجريت على 60 سيناريو واقعياً لحالات مرضية متفاوتة الخطورة، حيث أظهرت المقارنة بين تقييمات الأطباء وتوصيات الأداة خللاً جسيماً في تقدير الحالات الحرجة، ففي أكثر من 50% من الحالات التي تطلبت نقل المريض إلى المستشفى، قدم النظام نصائح بالبقاء في المنزل أو الاكتفاء بحجز موعد عادي مع طبيب.وأوضحت الدراسة أن أداء الخدمة كان مقبولاً في حالات الطوارئ الواضحة كالسكتات الدماغية، إلا أنها واجهت صعوبات بالغة في تشخيص الأعراض المعقدة أو الغامضة، مع رصد قصور في التعامل مع مخاطر الانتحار وتذبذب وظائف الإنذار المرتبطة بها.في المقابل، دافعت شركة «أوبن أيه أي» عن خدمتها مشيرة إلى أن الدراسة لا تعكس واقع الاستخدام العملي، وأن النموذج يخضع لعمليات تحديث وتطوير مستمرة لتجاوز هذه الثغرات.