یک مطالعه علمی جدید زنگ خطر را برای استفاده از چتباتهای درمانگر مبتنی بر هوش مصنوعی در حوزه سلامت روان به صدا درآورده است. این پژوهش که در واکنش به گرایش فزاینده کاربران به ابزارهای هوش مصنوعی برای دریافت مشاوره روانشناختی صورت گرفته، تاکید میکند که این سیستمها در موقعیتهای حساس قادر به رعایت استانداردهای اخلاقی بنیادین درمان نیستند و حتی ممکن است به کاربران آسیب برسانند. این تحقیق نشان میدهد که فقدان مسئولیتپذیری و نظارت حرفهای در این سامانهها، نیاز به مقرراتگذاری دقیق و طراحی مسئولانه را بیش از پیش ضروری ساخته است.

واقعیت تلخ: چرا چتباتهای درمانگر از اصول اخلاقی سر باز میزنند؟
بر اساس یافتههای این مطالعه، که توسط محققان دانشگاه براون با همکاری متخصصان سلامت روان انجام شده، چتباتهای درمانگر با وجود ارائه پاسخهای به ظاهر دقیق و حرفهای، در عمل اغلب مرتکب تخلفات جدی اخلاقی میشوند. این سامانهها حتی زمانی که با دستورالعملهای مبتنی بر روشهای درمانی معتبر مانند درمان شناختی-رفتاری (CBT) یا درمان رفتاری دیالکتیکی (DBT) هدایت میشوند، در پایبندی به اصول اخلاقی تعریفشده توسط نهادهای معتبر همچون انجمن روانشناسی آمریکا ناتوان هستند. این نقص، به ویژه در شرایط بحرانی، میتواند رفتارهای بالقوه خطرآفرینی را در این چتباتهای درمانگر هوش مصنوعی منجر شود.
افزایش دسترسی به ابزارهایی نظیر ChatGPT و سایر مدلهای زبانی بزرگ (LLMs)، باعث شده تا بخش قابل توجهی از مردم برای بحث درباره مسائل سلامت روان خود به این سامانهها روی آورند. این روند، در کنار گسترش "پرامپتهای درمانی" در شبکههای اجتماعی، نگرانیها درباره ماهیت تقلیدی و غیرواقعی این مشاورهها را تشدید کرده است.
۱۵ خطر اخلاقی کلیدی در تعامل با چتباتهای درمانگر هوش مصنوعی
تیم پژوهشی دانشگاه براون با دقت ۱۵ خطر اخلاقی کلیدی را در تعاملات با چتباتهای درمانگر هوش مصنوعی شناسایی و دستهبندی کرده است. این خطرات شامل ارائه توصیههای غیرمناسب، تایید باورهای نادرست، تقویت پیشداوریهای فرهنگی و جنسیتی، و مهمتر از همه، ناتوانی در واکنش مناسب و ایمن به ابراز تمایلات خودکشی میشود.
به گفته «زینب افتخار»، دانشجوی دکتری و از اعضای این تیم پژوهشی: «کاربران غالباً از مدل میخواهند تا نقش یک درمانگر متخصص را ایفا کند، اما خروجی این سیستمها در بهترین حالت، یک شبیهسازی مبتنی بر الگوهای دادههای آموزشی است و فاقد ماهیت، مسئولیتپذیری و اثربخشی یک درمان واقعی محسوب میشود.»
مشاوران آموزشدیده در این مطالعه، با چندین مدل پرکاربرد از جمله GPT، کلود (Claude) و لاما (Llama) تعامل کرده و سپس روانشناسان بالینی این گفتوگوها را با دقت مورد بررسی قرار دادند. نتایج این ارزیابی، ثبت ۱۵ مورد تخلف اخلاقی در پنج دسته اصلی زیر را در عملکرد چتباتهای درمانگر نشان داد:
عدم درک صحیح از زمینه و موقعیت کاربر
ایجاد رابطه درمانی ضعیف
ابراز همدلی سطحی و ساختگی
نشاندادن سوگیریهای مختلف
فقدان استانداردهای ایمنی در شرایط بحرانی
تفاوت بنیادین: مسئولیتپذیری انسان در برابر چتباتهای درمانگر
پژوهشگران بر این نکته تأکید میکنند که اگرچه درمانگران انسانی نیز ممکن است مرتکب خطا شوند، اما تفاوت اساسی در مکانیسمهای مسئولیتپذیری و نظارت حرفهای است. درمانگران تحت قوانین مجوزدهی، کدهای اخلاقی حرفهای و نظارت نهادهای رسمی فعالیت میکنند و در قبال اقدامات خود پاسخگو هستند. این در حالی است که برای چتباتهای درمانگر هوش مصنوعی، چنین چارچوب نظارتی شفاف و الزامآوری تاکنون وجود ندارد. این خلاء قانونی و اخلاقی، کاربران را در مواجهه با خطاهای احتمالی هوش مصنوعی بیدفاع میگذارد.
مسیر پیشرو: ضرورت تنظیم مقررات و طراحی مسئولانه برای چتباتهای درمانگر
کارشناسان با اذعان به پتانسیل چشمگیر هوش مصنوعی در کمک به حل برخی چالشهای حوزه سلامت روان، هشدار میدهند که بهرهگیری از این فناوری باید با رویکردی مسئولانه همراه باشد. این امر مستلزم ارزیابیهای دقیق و مستمر، طراحی هوشمندانه و اخلاقی سیستمها و مهمتر از همه، تدوین مقررات جامع و استانداردهای سختگیرانه است. هدف اصلی این اقدامات، جلوگیری از آسیبهای جبرانناپذیر به کاربران آسیبپذیر و تضمین ارائه خدماتی ایمن و موثر در آینده است. بدون چنین چارچوبی، گسترش چتباتهای درمانگر میتواند به جای کمک، به بحرانی جدید در حوزه سلامت روان تبدیل شود.
مطالب مرتبط
- هوش مصنوعی xAI با “Grok Imagine” انقلابی در تولید ویدیو از متن ایجاد کرد
- مایکروسافت با هوش مصنوعی لوکال Fara-7B، امنیت و حریم خصوصی دادههای کاربران را تضمین کرد
- نوکیا با سرمایهگذاری چهار میلیارد دلاری، توسعه شبکههای مبتنی بر هوش مصنوعی را در آمریکا شتاب میبخشد
- هزینه پنهان سرمایهگذاری در هوش مصنوعی و تهدید صنایع سنتی

سینا علیپور
او دانشجوی رشته مهندسی کامپیوتر در مقطع کارشناسی است و فعالیت حرفهای خود را در عرصه رسانه از سال ۱۳۹۸ با یک بلاگ شخصی در حوزه فناوری آغاز کرده است. وی پس از مدتی به عنوان نویسنده آزاد در مجلههای آنلاین تکنولوژی فعالیت کرد و در حال حاضر، دبیر سرویس نقد و بررسی گجتهای هوشمند در یک مجله معتبر تکنولوژی است.