اگرچه ChatGPT سیستم قدرتمندی با انبوهی از اطلاعات است، اما نباید آن را به عنوان یک روان درمانگر جایگزین در نظر گرفت. این سیستم می تواند توصیه های نادرست یا حتی محتوای خطرناک ارائه دهد و اطلاعات شخصی کاربران را فاش سازد.
اعتماد بیش از حد به فناوری های بی روح برای افشای عمیق ترین افکار شما می تواند عواقب سنگینی را در پی داشته باشد. همانطور که یکی از کاربران تیک تاک اعتراف کرد، استفاده از ChatGPT به عنوان یک درمانگر غیر رسمی رواج یافته است، اما او تنها نیست.
مردم به ChatGPT روی می آورند تا در روابط شخصی، مسائل عاطفی و حتی راهنمایی های خودیاری کمک بگیرند. برای مثال، فردی از ChatGPT خواسته است تا از قول سخنرانان الهام بخش مورد علاقه او توصیه هایی ارائه دهد.
درمانگران هوش مصنوعی جدید نیستند. Woebot از سال 2017 به عنوان یک دستیار سلامت روان از پردازش زبان طبیعی و پاسخ های از پیش تعریف شده برای شبیه سازی مکالمات استفاده می کند. دکتر کارل مارسی، روانشناس بالینی و نویسنده کتاب «بازنشانی: محافظت از مغز در عصر دیجیتال» می گوید که ظهور درمانگران هوش مصنوعی صرفاً یک روند فناورانه نیست، بلکه هشداری در مورد کمبود نیروی انسانی در زمینه سلامت روان است.
در بسیاری از مناطق، کمبود متخصصان سلامت روان وجود دارد، در حالی که اکثر مردم وجود بحران سلامت روان را درک می کنند. هزینه بالای درمان و دسترسی محدود به آن، ChatGPT را با پاسخ های سریع و رایگان جذاب تر می کند.
علاوه بر این، ماهیت غیرانسانی ChatGPT به برخی از افراد اجازه می دهد تا بدون ترس از قضاوت، عمیق ترین افکار خود را بیان کنند. با این حال، به اشتراک گذاشتن چنین اطلاعات حساس با فناوری هایی که نگرانی های مربوط به حریم خصوصی را برمی انگیزند، بدون ریسک نیست.
ChatGPT برای درمانگری طراحی نشده است. خود این سیستم نیز به کاربران هشدار می دهد که ممکن است اطلاعات نادرست یا دستورات مضر ارائه کند. به گفته دکتر مارسی، مدل های زبان بزرگ هنوز در دست آزمایش هستند و ممکن است توهماتی ایجاد کنند که برای افراد آسیب پذیر گمراه کننده یا حتی در صورت درخواست اشتباه، منجر به توصیه های خطرناک شود.