آیا استفاده از چتبات برای سلامت روان خوب است؟
پژوهشی تازه نشان میدهد چتباتهای هوش مصنوعی که نقش درمانگر را بر عهده میگیرند، با وجود ظاهر حرفهای و پاسخهای دقیق، در بسیاری موارد دچار تخلفات جدی اخلاقی میشوند و نمیتوانند استانداردهای مورد انتظار در رواندرمانی را رعایت کنند.
این مطالعه که همزمان با افزایش استفاده جهانی از مدلهای زبانی بزرگ برای دریافت مشاوره و حمایت ذهنی انجام شده، هشدار میدهد که این ابزارها در موقعیتهای حساس میتوانند رفتارهای خطرآفرین از خود نشان دهند.
براساس گزارش سایتک دیلی، افراد زیادی برای صحبت درباره مسائل مرتبط با سلامت روان به چت جیپیتی و سایر مدلهای زبانی بزرگ مراجعه میکنند. اما یافتههای جدید آشکار میکند این سامانهها حتی وقتی با دستورهای مبتنی بر روشهای درمانی معتبر هدایت میشوند، در بسیاری مواقع از رعایت اصول اخلاقی اعلامشده توسط نهادهایی مانند انجمن روانشناسی آمریکا بازمیمانند. گروهی از پژوهشگران دانشگاه براون در همکاری با متخصصان سلامت روان نشان دادهاند که این چتباتها میتوانند طیفی از تخلفات اخلاقی شامل برخورد نامناسب در شرایط بحرانی، ارائه پاسخهای گمراهکننده و ایجاد توهم همدلی را بروز دهند.
در این تحقیق، پژوهشگران چارچوبی متکی بر تجربه درمانگران ارائه کردهاند که در آن ۱۵ خطر اخلاقی شناسایی و بررسی شده است. نتایج نشان میدهد مشاورهای مبتنی بر LLM در برخورد با کاربران ممکن است توصیههای غیرمتناسب، تأیید باورهای نادرست یا پیشداوریهای فرهنگی و جنسیتی نشان دهند و در موقعیتهای بحرانی مانند مواجهه با افکار خودکشی واکنش مناسب ارائه نکنند.
در بخش دیگری از مطالعه، نقش «پرامپتها» یا دستورهایی که کاربران برای دریافت مشاوره به مدل میدهند، بررسی شده است. زینب افتخار، دانشجوی دکتری دانشگاه براون، توضیح میدهد که کاربران ممکن است از مدل بخواهند مانند یک درمانگر مبتنی بر CBT یا DBT عمل کند، اما مدلها فقط پاسخی شبیهسازیشده بر اساس الگوهای آموختهشده ارائه میدهند و نه یک درمان واقعی. محبوبیت این نوع پرامپتها در شبکههای اجتماعی مانند تیکتاک، اینستاگرام و ردیت باعث شده بسیاری از چتباتهای سلامت روان نیز نسخههای تغییریافتهای از همین مدلهای عمومی باشند.
در مرحله بعد، تعامل چند مشاور آموزشدیده با نسخههای مختلف GPT، کلود و لاما بررسی شد و روانشناسان بالینی گفتوگوها را برای شناسایی علائم تخلف اخلاقی ارزیابی کردند. در پایان ۱۵ مورد در پنج دسته شامل نبود درک زمینه، همکاری درمانی ضعیف، همدلی سطحی، سوگیری و فقدان ایمنی در شرایط بحرانی ثبت شد.
پژوهشگران تأکید میکنند که حتی درمانگران انسانی نیز ممکن است در معرض این خطاها قرار گیرند، اما تفاوت اصلی در مسئله مسئولیتپذیری است. درمانگران انسانی تحت نظارت نهادهای رسمی فعالیت میکنند، اما برای چتباتها هیچ ساختار نظارتی روشنی وجود ندارد. متخصصان معتقدند هوش مصنوعی میتواند بخشی از چالشهای حوزه سلامت روان را کاهش دهد، اما استفاده از آن نیازمند ارزیابی دقیق، مقررات مشخص و طراحی مسئولانه است تا از بروز آسیبهای احتمالی جلوگیری شود.