در پی ادعاهای جنجالی برخی چتباتهای هوش مصنوعی مبنی بر ارائه خدمات سلامت روان، دادستان کل ایالت تگزاس، کن پکستون، تحقیقات رسمی درباره دو شرکت بزرگ فعال در این حوزه یعنی Meta AI Studio و Character.AI را آغاز کرده است. این اقدام در واکنش به نگرانیها درباره نحوه تعامل این چتباتها با کاربران زیر سن قانونی و احتمال سوءاستفاده از اطلاعات شخصی آنها صورت گرفته است.
چتباتهایی با ادعای درمانگری؛ واقعیت یا فریب؟
برخی چتباتهای ارائهشده توسط این دو شرکت، خود را بهعنوان رواندرمانگر یا مشاور سلامت روان معرفی کردهاند؛ در حالی که هیچگونه تأییدیه رسمی یا صلاحیت حرفهای برای ارائه خدمات درمانی ندارند. این موضوع باعث شده تا کاربران نوجوان در معرض اطلاعات نادرست و گمراهکننده قرار گیرند؛ اطلاعاتی که ممکن است به سلامت روانی آنها آسیب وارد کند.
دادستان تگزاس اعلام کرده است که این چتباتها با تکیه بر دادههای آموزشی و الگوریتمهای یادگیری ماشین، پاسخهایی ارائه میدهند که ممکن است فاقد اعتبار علمی باشند. از سوی دیگر، نگرانیهایی درباره نحوه جمعآوری و استفاده از دادههای شخصی کاربران کمسنوسال نیز مطرح شده است؛ بهویژه در ایالتی مانند تگزاس که قانون SCOPE برای محافظت از اطلاعات کودکان اجرا میشود.
قانون SCOPE؛ محافظی برای کودکان در فضای دیجیتال
قانون SCOPE در تگزاس شرکتها را موظف میکند تا در تعامل با کاربران زیر سن قانونی، ابزارهایی برای کنترل حریم خصوصی در اختیار والدین قرار دهند. این قانون همچنین محدودیتهایی برای استفاده از دادههای کودکان اعمال کرده و شرکتها را ملزم به شفافسازی در نحوه استفاده از اطلاعات شخصی کرده است. در همین راستا، دادستان کل ایالت درخواست تحقیقات مدنی (CID) را به هر دو شرکت ارسال کرده تا بررسی شود آیا قوانین حمایت از مصرفکننده نقض شدهاند یا خیر.
واکنش شرکتها؛ تأکید بر جنبه سرگرمی
در پاسخ به این تحقیقات، سخنگوی Character.AI اعلام کرده است که شخصیتهایی که کاربران در این پلتفرم خلق میکنند، صرفاً خیالی و برای سرگرمی هستند. این شرکت همچنین تأکید کرده که در هر گفتوگو، هشدارهایی به کاربران داده میشود تا بدانند این شخصیتها واقعی نیستند و نباید توصیههای آنها را جدی تلقی کنند. متا نیز در بیانیهای مشابه، بر غیرواقعی بودن چتباتهای خود و عدم ادعای درمانگری تأکید کرده است.

با این حال، گزارشهایی از جمله مقاله منتشرشده در وبسایت 404 Media نشان میدهد که برخی چتباتها در Character.AI خود را بهعنوان متخصصان دارای مجوز معرفی کردهاند؛ موضوعی که میتواند کاربران را به اشتباه بیندازد و اعتماد نابهجا ایجاد کند.
چالشهای اخلاقی و قانونی در مسیر توسعه هوش مصنوعی
این پرونده بار دیگر توجهها را به چالشهای اخلاقی و قانونی در حوزه هوش مصنوعی جلب کرده است. در حالی که فناوریهای نوین میتوانند نقش مؤثری در بهبود کیفیت زندگی ایفا کنند، نبود نظارت کافی و شفافیت در عملکرد آنها ممکن است منجر به آسیبهای جدی شود؛ بهویژه برای گروههای آسیبپذیر مانند کودکان و نوجوانان.
با ادامه تحقیقات در ایالت تگزاس، انتظار میرود نتایج این پرونده تأثیر قابلتوجهی بر نحوه فعالیت شرکتهای هوش مصنوعی و تنظیم مقررات مربوط به آنها داشته باشد. این موضوع همچنین میتواند نقطه آغازی برای تدوین قوانین جامعتر در سطح ملی و بینالمللی باشد تا از سوءاستفادههای احتمالی در فضای دیجیتال جلوگیری شود.

سینا علیپور
او دانشجوی رشته مهندسی کامپیوتر در مقطع کارشناسی است و فعالیت حرفهای خود را در عرصه رسانه از سال ۱۳۹۸ با یک بلاگ شخصی در حوزه فناوری آغاز کرده است. وی پس از مدتی به عنوان نویسنده آزاد در مجلههای آنلاین تکنولوژی فعالیت کرد و در حال حاضر، دبیر سرویس نقد و بررسی گجتهای هوشمند در یک مجله معتبر تکنولوژی است.