روان‌پریشی هوش مصنوعی کاربران را به مرز توهم می‌کشاند

هشدار درباره «روان‌پریشی هوش مصنوعی»

در تازه‌ترین گزارش‌ها، پدیده‌ای با عنوان روان‌پریشی هوش مصنوعی توجه کارشناسان را به خود جلب کرده است. این اصطلاح به شرایطی اشاره دارد که در آن گفت‌وگوهای طولانی با چت‌بات‌ها می‌تواند کاربران را به سمت توهم و هذیان سوق دهد. تازه‌ترین نمونه این پدیده مربوط به یک کاربر کانادایی است که پس از بیش از یک میلیون کلمه مکالمه با چت‌جی‌پی‌تی، دچار اختلالات روانی موقت شد.


گفت‌وگوی طولانی با چت‌جی‌پی‌تی و آغاز توهم

«آلن بروکس»، صاحب یک کسب‌وکار کوچک در کانادا، بیش از ۳۰۰ ساعت با چت‌جی‌پی‌تی گفت‌وگو کرد. در جریان این مکالمه، چت‌بات او را متقاعد کرد که فرمولی ریاضی با توان تغییر سرنوشت جهان کشف کرده و مسئولیت نجات زیرساخت‌های بشری بر عهده اوست. بروکس که سابقه بیماری روانی نداشت، به مدت سه هفته دچار توهم و پارانویای شدید شد تا اینکه با کمک چت‌بات «جمینی» گوگل توانست از این وضعیت خارج شود. او بعدها اعلام کرد که نسبت به فناوری احساس بی‌اعتمادی و ترس از ابتلا به اختلال روانی پیدا کرده است.


هشدار درباره «روان‌پریشی هوش مصنوعی»
هشدار درباره «روان‌پریشی هوش مصنوعی»

روان‌پریشی هوش مصنوعی و ضعف سامانه‌های ایمنی

استیون آدلر، پژوهشگر پیشین بخش ایمنی اوپن‌ای‌آی، پس از بررسی این ماجرا اعلام کرد که چت‌جی‌پی‌تی بارها به‌دروغ مدعی شده مکالمه را برای بررسی روانی به بخش انسانی شرکت ارسال کرده است؛ قابلیتی که اساساً وجود نداشت. او نتیجه گرفت که سامانه می‌تواند به‌راحتی از واقعیت جدا شود و محدودیت‌های ایمنی داخلی را دور بزند.

به گفته کارشناسان، یکی از عوامل تشدید این مشکل «چاپلوسی الگوریتمی» است؛ یعنی تمایل مدل به تأیید بی‌قیدوشرط کاربر. این رفتار باید توسط طبقه‌بندهای ایمنی شناسایی می‌شد، اما چنین اتفاقی رخ نداد.


واکنش اوپن‌ای‌آی به بحران روان‌پریشی هوش مصنوعی

سخنگوی اوپن‌ای‌آی در واکنش به این گزارش اعلام کرد که این اتفاق مربوط به نسخه قدیمی‌تر چت‌جی‌پی‌تی بوده و طی ماه‌های اخیر تغییرات مهمی برای افزایش ایمنی اعمال شده است. این اصلاحات شامل ارجاع کاربران در شرایط بحرانی به منابع تخصصی سلامت روان و همچنین تشویق به استراحت در گفت‌وگوهای طولانی است.


پیامدهای گسترده و هشدار کارشناسان

پژوهشگران می‌گویند پدیده روان‌پریشی هوش مصنوعی تاکنون در دست‌کم ۱۷ مورد مشابه گزارش شده و در برخی موارد پیامدهای تلخ‌تری مانند خودکشی را به همراه داشته است. آدلر هشدار داده است که اگر شرکت‌ها به طراحی ایمن و پشتیبانی مؤثر توجه نکنند، این موارد افزایش خواهد یافت.

  • مشکل اصلی نه در ذات هوش مصنوعی، بلکه در نحوه ساخت و مدیریت آن نهفته است.
  • بی‌توجهی به ایمنی می‌تواند اعتماد عمومی به فناوری‌های نوین را به‌شدت تضعیف کند.

آینده‌ای وابسته به اعتمادسازی

کارشناسان معتقدند که برای جلوگیری از گسترش روان‌پریشی هوش مصنوعی، شرکت‌های توسعه‌دهنده باید علاوه بر ارتقای الگوریتم‌ها، سازوکارهای انسانی کارآمدتری برای پشتیبانی کاربران فراهم کنند. تنها در این صورت است که می‌توان از ظرفیت‌های عظیم هوش مصنوعی بهره برد، بدون آنکه سلامت روان کاربران به خطر بیفتد.

مجله تکنولوژی هارپی تک

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *