احتمال توقف توسعه سیستم هوش مصنوعی متا به دلیل خطرات احتمالی

شرکت متا اعلام کرده است که ممکن است توسعه سیستم‌های هوش مصنوعی خود را به دلیل خطرات احتمالی آن متوقف کند. این شرکت در یک سند پیرامون سیاست جدید خود به نام «Frontier AI Framework» دو نوع سیستم هوش مصنوعی پرخطر و بحرانی را شناسایی کرده و گفته است که انتشار آنها را بسیار خطرناک می‌داند.

به گفته متا، این سیستم‌ها می‌توانند به امنیت سایبری، حملات شیمیایی و بیولوژیکی کمک کنند و حتی منجر به فجایع جبران‌ناپذیر شوند. متا اذعان می‌کند که فهرست فجایع احتمالی در سند کامل نیست، اما مواردی را شامل می‌شود که معتقد است فوری‌ترین و محتمل‌ترین آنها هستند.

نکته قابل توجه این است که متا خطر سیستم را بر اساس آزمایش‌های تجربی طبقه‌بندی نمی‌کند، بلکه طبقه‌بندی را بر اساس داده‌های ارائه‌شده توسط پژوهشگران داخلی و خارجی انجام می‌دهد. متا می‌گوید که معتقد نیست علم ارزیابی به اندازه کافی قوی باشد تا معیارهای کمی قطعی را برای تصمیم‌گیری درباره خطرپذیری یک سیستم ارائه دهد.

متا اعلام کرده است که اگر تشخیص دهد که یک سیستم پرخطر است، دسترسی به آن را به صورت داخلی محدود می‌کند و تا زمانی که اقدامات کاهشی را برای کاهش خطر به سطوح متوسط ​​انجام ندهد، آن را منتشر نخواهد کرد. از سوی دیگر، اگر یک سیستم خطرناک تلقی شود، توسعه آن را متوقف و حفاظت‌های امنیتی نامشخصی را برای جلوگیری از نفوذ به سیستم اجرا خواهد کرد.

سند Frontier AI Framework متا که به گفته شرکت، با تغییر چشم‌انداز هوش مصنوعی تکامل خواهد یافت، به نظر می‌رسد پاسخی به انتقاد از رویکرد باز این شرکت برای توسعه سیستم باشد. متا بر خلاف شرکت‌هایی مانند OpenAI که تصمیم می‌گیرند سیستم‌های خود را پشت یک API قرار دهند، پذیرفته است که فناوری هوش مصنوعی خود را به ‌صورت آزاد اما نه به صورت منبع باز در دسترس قرار دهد.

متا در انتشار Frontier AI Framework خود نیز ممکن است قصد داشته باشد راهبرد هوش مصنوعی باز خود را با راهبرد شرکت چینی هوش مصنوعی دیپ‌سیک مقایسه کند. دیپ‌سیک سیستم‌های خود را به صورت آزاد در دسترس قرار می‌دهد، اما هوش مصنوعی این شرکت، محافظ‌های کمی دارد و به راحتی می‌توان آن را برای تولید خروجی‌های مضر هدایت کرد.

متا در این سند نوشته است: ما معتقدیم که با در نظر گرفتن مزایا و خطرات برای تصمیم‌گیری درباره چگونگی توسعه و استقرار هوش مصنوعی پیشرفته می‌توان آن را به گونه‌ای به جامعه تحویل داد که مزایای آن برای جامعه حفظ شود و در عین حال، سطح مناسبی از خطر را داشته باشد.

بروزترین اخبار تکنولوژی را در هارپی تک بخوانید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *