پژوهشگران هشدار می‌دهند: چت‌بات‌های درمانگر هوش مصنوعی در رعایت استانداردهای اخلاقی سلامت روان شکست می‌خورند

n00088203 b

یک مطالعه علمی جدید زنگ خطر را برای استفاده از چت‌بات‌های درمانگر مبتنی بر هوش مصنوعی در حوزه سلامت روان به صدا درآورده است. این پژوهش که در واکنش به گرایش فزاینده کاربران به ابزارهای هوش مصنوعی برای دریافت مشاوره روان‌شناختی صورت گرفته، تاکید می‌کند که این سیستم‌ها در موقعیت‌های حساس قادر به رعایت استانداردهای اخلاقی بنیادین درمان نیستند و حتی ممکن است به کاربران آسیب برسانند. این تحقیق نشان می‌دهد که فقدان مسئولیت‌پذیری و نظارت حرفه‌ای در این سامانه‌ها، نیاز به مقررات‌گذاری دقیق و طراحی مسئولانه را بیش از پیش ضروری ساخته است.

image

واقعیت تلخ: چرا چت‌بات‌های درمانگر از اصول اخلاقی سر باز می‌زنند؟

بر اساس یافته‌های این مطالعه، که توسط محققان دانشگاه براون با همکاری متخصصان سلامت روان انجام شده، چت‌بات‌های درمانگر با وجود ارائه پاسخ‌های به ظاهر دقیق و حرفه‌ای، در عمل اغلب مرتکب تخلفات جدی اخلاقی می‌شوند. این سامانه­ها حتی زمانی که با دستورالعمل‌های مبتنی بر روش‌های درمانی معتبر مانند درمان شناختی-رفتاری (CBT) یا درمان رفتاری دیالکتیکی (DBT) هدایت می‌شوند، در پایبندی به اصول اخلاقی تعریف‌شده توسط نهادهای معتبر همچون انجمن روان‌شناسی آمریکا ناتوان هستند. این نقص، به ویژه در شرایط بحرانی، می‌تواند رفتارهای بالقوه خطرآفرینی را در این چت‌بات‌های درمانگر هوش مصنوعی منجر شود.

افزایش دسترسی به ابزارهایی نظیر ChatGPT و سایر مدل‌های زبانی بزرگ (LLMs)، باعث شده تا بخش قابل توجهی از مردم برای بحث درباره مسائل سلامت روان خود به این سامانه‌ها روی آورند. این روند، در کنار گسترش "پرامپت‌های درمانی" در شبکه‌های اجتماعی، نگرانی‌ها درباره ماهیت تقلیدی و غیرواقعی این مشاوره‌ها را تشدید کرده است.

۱۵ خطر اخلاقی کلیدی در تعامل با چت‌بات‌های درمانگر هوش مصنوعی

تیم پژوهشی دانشگاه براون با دقت ۱۵ خطر اخلاقی کلیدی را در تعاملات با چت‌بات‌های درمانگر هوش مصنوعی شناسایی و دسته‌بندی کرده است. این خطرات شامل ارائه توصیه‌های غیرمناسب، تایید باورهای نادرست، تقویت پیش‌داوری‌های فرهنگی و جنسیتی، و مهم‌تر از همه، ناتوانی در واکنش مناسب و ایمن به ابراز تمایلات خودکشی می‌شود.

به گفته «زینب افتخار»، دانشجوی دکتری و از اعضای این تیم پژوهشی: «کاربران غالباً از مدل می‌خواهند تا نقش یک درمانگر متخصص را ایفا کند، اما خروجی این سیستم‌ها در بهترین حالت، یک شبیه‌سازی مبتنی بر الگوهای داده‌های آموزشی است و فاقد ماهیت، مسئولیت‌پذیری و اثربخشی یک درمان واقعی محسوب می‌شود.»

مشاوران آموزش‌دیده در این مطالعه، با چندین مدل پرکاربرد از جمله GPT، کلود (Claude) و لاما (Llama) تعامل کرده و سپس روان‌شناسان بالینی این گفت‌وگوها را با دقت مورد بررسی قرار دادند. نتایج این ارزیابی، ثبت ۱۵ مورد تخلف اخلاقی در پنج دسته اصلی زیر را در عملکرد چت‌بات‌های درمانگر نشان داد:

عدم درک صحیح از زمینه و موقعیت کاربر

ایجاد رابطه درمانی ضعیف

ابراز همدلی سطحی و ساختگی

نشان‌دادن سوگیری‌های مختلف

فقدان استانداردهای ایمنی در شرایط بحرانی

تفاوت بنیادین: مسئولیت‌پذیری انسان در برابر چت‌بات‌های درمانگر

پژوهشگران بر این نکته تأکید می‌کنند که اگرچه درمانگران انسانی نیز ممکن است مرتکب خطا شوند، اما تفاوت اساسی در مکانیسم‌های مسئولیت‌پذیری و نظارت حرفه‌ای است. درمانگران تحت قوانین مجوزدهی، کدهای اخلاقی حرفه‌ای و نظارت نهادهای رسمی فعالیت می‌کنند و در قبال اقدامات خود پاسخگو هستند. این در حالی است که برای چت‌بات‌های درمانگر هوش مصنوعی، چنین چارچوب نظارتی شفاف و الزام‌آوری تاکنون وجود ندارد. این خلاء قانونی و اخلاقی، کاربران را در مواجهه با خطاهای احتمالی هوش مصنوعی بی‌دفاع می‌گذارد.

مسیر پیش‌رو: ضرورت تنظیم مقررات و طراحی مسئولانه برای چت‌بات‌های درمانگر

کارشناسان با اذعان به پتانسیل چشمگیر هوش مصنوعی در کمک به حل برخی چالش‌های حوزه سلامت روان، هشدار می‌دهند که بهره‌گیری از این فناوری باید با رویکردی مسئولانه همراه باشد. این امر مستلزم ارزیابی‌های دقیق و مستمر، طراحی هوشمندانه و اخلاقی سیستم‌ها و مهم‌تر از همه، تدوین مقررات جامع و استانداردهای سختگیرانه است. هدف اصلی این اقدامات، جلوگیری از آسیب‌های جبران‌ناپذیر به کاربران آسیب‌پذیر و تضمین ارائه خدماتی ایمن و موثر در آینده است. بدون چنین چارچوبی، گسترش چت‌بات‌های درمانگر می‌تواند به جای کمک، به بحرانی جدید در حوزه سلامت روان تبدیل شود.

مجله تکنولوژی هارپی تک


مطالب مرتبط

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *