شرکت متا اعلام کرده است که ممکن است توسعه سیستمهای هوش مصنوعی خود را به دلیل خطرات احتمالی آن متوقف کند. این شرکت در یک سند پیرامون سیاست جدید خود به نام «Frontier AI Framework» دو نوع سیستم هوش مصنوعی پرخطر و بحرانی را شناسایی کرده و گفته است که انتشار آنها را بسیار خطرناک میداند.
به گفته متا، این سیستمها میتوانند به امنیت سایبری، حملات شیمیایی و بیولوژیکی کمک کنند و حتی منجر به فجایع جبرانناپذیر شوند. متا اذعان میکند که فهرست فجایع احتمالی در سند کامل نیست، اما مواردی را شامل میشود که معتقد است فوریترین و محتملترین آنها هستند.
نکته قابل توجه این است که متا خطر سیستم را بر اساس آزمایشهای تجربی طبقهبندی نمیکند، بلکه طبقهبندی را بر اساس دادههای ارائهشده توسط پژوهشگران داخلی و خارجی انجام میدهد. متا میگوید که معتقد نیست علم ارزیابی به اندازه کافی قوی باشد تا معیارهای کمی قطعی را برای تصمیمگیری درباره خطرپذیری یک سیستم ارائه دهد.
متا اعلام کرده است که اگر تشخیص دهد که یک سیستم پرخطر است، دسترسی به آن را به صورت داخلی محدود میکند و تا زمانی که اقدامات کاهشی را برای کاهش خطر به سطوح متوسط انجام ندهد، آن را منتشر نخواهد کرد. از سوی دیگر، اگر یک سیستم خطرناک تلقی شود، توسعه آن را متوقف و حفاظتهای امنیتی نامشخصی را برای جلوگیری از نفوذ به سیستم اجرا خواهد کرد.
سند Frontier AI Framework متا که به گفته شرکت، با تغییر چشمانداز هوش مصنوعی تکامل خواهد یافت، به نظر میرسد پاسخی به انتقاد از رویکرد باز این شرکت برای توسعه سیستم باشد. متا بر خلاف شرکتهایی مانند OpenAI که تصمیم میگیرند سیستمهای خود را پشت یک API قرار دهند، پذیرفته است که فناوری هوش مصنوعی خود را به صورت آزاد اما نه به صورت منبع باز در دسترس قرار دهد.
متا در انتشار Frontier AI Framework خود نیز ممکن است قصد داشته باشد راهبرد هوش مصنوعی باز خود را با راهبرد شرکت چینی هوش مصنوعی دیپسیک مقایسه کند. دیپسیک سیستمهای خود را به صورت آزاد در دسترس قرار میدهد، اما هوش مصنوعی این شرکت، محافظهای کمی دارد و به راحتی میتوان آن را برای تولید خروجیهای مضر هدایت کرد.
متا در این سند نوشته است: ما معتقدیم که با در نظر گرفتن مزایا و خطرات برای تصمیمگیری درباره چگونگی توسعه و استقرار هوش مصنوعی پیشرفته میتوان آن را به گونهای به جامعه تحویل داد که مزایای آن برای جامعه حفظ شود و در عین حال، سطح مناسبی از خطر را داشته باشد.
بروزترین اخبار تکنولوژی را در هارپی تک بخوانید