كشفت دراسة جديدة من جامعة براون الأميركية عن قصور كبير في أداء روبوتات المحادثة العلاجية المعتمدة على نماذج اللغة الكبيرة، محذّرة من أنها قد تنتهك المعايير الأخلاقية المعمول بها في العلاج النفسي، وتسيء التعامل مع المواقف الحرجة، مع إظهار تعاطف “مصطنع” لا يرقى لمستوى الدعم المهني المطلوب.
الباحثون قاموا بتحليل محادثات علاجية تجريبية مع عدد من نماذج الذكاء الاصطناعي، من بينها أنظمة قائمة على GPT وClaude وLlama، مستخدمين أسلوب العلاج المعرفي السلوكي (CBT) في توجيه الأسئلة. شارك في الاختبارات مرشدون (peer counselors)، فيما تولّى أخصائيون نفسيون مرخّصون تقييم أداء النماذج ومراجعة المحادثات باعتبارها جلسات علاج افتراضية.
وتمّ رصد 15 نوعاً من المخاطر الأخلاقية مصنّفة ضمن خمس فئات رئيسية، أبرزها:
-
فهم ضعيف للسياق الشخصي للمستخدمين
-
تعاون محدود وعدم القدرة على بناء خطة علاجية مشتركة
-
تعاطف سطحي أو زائف لا يعكس استجابة إنسانية حقيقية
-
تحيّزات وانعدام إنصاف في بعض الردود
-
تعامل غير آمن مع الأزمات النفسية ومواقف الخطر
وأظهرت الدراسة أن هذه الأدوات قد تعزّز أحياناً معتقدات سلبية أو مؤذية لدى المستخدم، أو تزيد شعوره بالرفض، كما تفشل في كثير من الحالات في توجيهه إلى قنوات مساعدة مناسبة مثل الخطوط الساخنة للأزمات أو المتخصصين المؤهلين.
الخبراء المشاركون شددوا على أن مستوى الرقابة والتقييم المفروض على “المعالجين” من الذكاء الاصطناعي بعيد عن المعايير المفروضة على الأخصائيين البشر، مطالبين بوضع أطر أخلاقية وتعليمية وقانونية واضحة لهذه الفئة من التطبيقات، مع اعتماد تقييمات مستمرة تتجاوز المقاييس الآلية الثابتة، وتضمن وجود متخصصين بشريين في الحلقة الإشرافية (Human-in-the-loop).
ورغم إقرار الباحثين بأن الذكاء الاصطناعي يمكن أن يوسّع الوصول إلى الدعم النفسي الأولي، خصوصاً في البيئات التي تعاني نقصاً في الأخصائيين، فإنهم يحذّرون من أن الاعتماد على روبوتات علاجية من دون ضوابط صارمة ومحاسبة واضحة قد يسبّب ضرراً حقيقياً بدلاً من تقديم المساعدة، ويقوّض الثقة في حلول الصحة النفسية الرقمية.


