كشفت دراسة حديثة أجراها باحثون من كلية الطب التقويمي بجامعة إنكارنيت الأمريكية وعيادة مايو كلينك، عن انتهاك وكلاء الذكاء الاصطناعي المرخصين للحدود المهنية خلال حوارات الصحة النفسية المطولة، محذرة من خطورة الاعتماد على النماذج اللغوية الضخمة مثل «تشات جي بي تي» بصفته مصدراً وحيداً للمشورة والدعم النفسي.وأظهرت الدراسة، أن هذه النماذج التي تولد نصوصاً واقعية للغاية تضلل المستخدمين وتدفعهم لتطوير معتقدات وهمية أو إلحاق ضرر حقيقي بأنفسهم نتيجة غياب بروتوكولات أمان صارمة تكتشف مسارات المحادثة الخطِرة.واستخدم الفريق البحثي إطار عمل جديد يعتمد على «اختبار الإجهاد متعدد المراحل» لتقييم سلامة نماذج المحادثة عبر 150 اختباراً شملت 50 ملفاً شخصياً لمستخدمين وهميين يواجهون تحديات نفسية متنوعة.وتبين من خلال تقييم نماذج «DeepSeek-chat» و «Gemini-2.5-Flash» و «Grok-3» تحت ضغط متزايد، أن جميعها فشلت في الحفاظ على حدود الأمان عند استدراجها في محادثات تصل إلى 20 جولة، حيث ظهرت سلوكيات محفوفة بالمخاطر مثل تأكيد الأوهام، وافتراض السلطة السريرية، وتقديم وعود بنتائج غير مؤكدة كقولها «ستكون بخير»، وهو ما يعد تآكلاً تدريجياً للحدود المهنية.وتؤكد النتائج الأولية أن أنظمة الذكاء الاصطناعي الحالية غير قادرة على إجراء حوارات مطولة وآمنة حول الصحة النفسية، ما يلقي بمسؤولية كبيرة على المطورين لابتكار ضمانات منظمة مدمجة في دورة حياة المنتج بدلاً من إلقاء العبء بالكامل على المستخدم.ويسعى الباحثون في المراحل القادمة إلى توسيع مكتبة السيناريوهات لتشمل لغات وحالات سريرية أكثر تعقيداً، مع إشراك مقيمين مرخصين في الطب النفسي لتحسين أنظمة التقييم الآلية، بهدف تصميم ضوابط أكثر أماناً تمنع تراجع مستويات السلامة قبل نشر هذه النماذج للاستخدام العام، خاصة في السياقات عالية الخطورة التي تتعامل مع فئات هشة من المجتمع.