هشدار ایمنی علیه Figure AI: افشای قدرت بالقوه مرگبار ربات‌های انسان‌نما صنعت را به چالش کشید

n00088004 b

افشاگری یک مهندس ارشد سابق علیه استارتاپ Figure AI، بار دیگر نگرانی‌ها را پیرامون ایمنی و قدرت بالقوه تخریبگر ربات‌های انسان‌نما این شرکت برانگیخته است. این پرونده حقوقی جنجالی که ادعاهایی مبنی بر توانایی ربات‌ها برای خرد کردن جمجمه انسان را مطرح می‌کند، سوالات جدی درباره شتاب‌زدگی در توسعه فناوری‌های هوشمند و اخلاق حرفه‌ای در این حوزه را پیش می‌کشد.

افشای جنجالی: قدرت تخریبگر ربات‌های انسان‌نما Figure AI

رابرت گروندل، مهندس ارشد و رئیس سابق بخش ایمنی محصولات شرکت Figure AI، شکایتی را در دادگاه منطقه شمالی کالیفرنیا ثبت کرده است. او مدعی است که به دلیل هشدار درباره خطرات احتمالی ربات‌های هوش مصنوعی این شرکت از کار برکنار شده و اکنون خود را یک "افشاگر" می‌داند. به گفته گروندل، ربات‌های انسان‌نمای تولیدشده توسط Figure AI از چنان قدرت فیزیکی برخوردارند که توانایی خرد کردن جمجمه انسان را دارند. این ادعا در پی حادثه‌ای مطرح شد که طی آن یکی از ربات‌ها هنگام نقص عملکرد، شیاری به عمق تقریبی ۶ میلی‌متر روی درِ فولادی یک یخچال ایجاد کرده بود؛ رخدادی که به باور گروندل، نشان‌دهنده توان بالقوه خطرناک این ماشین‌هاست.

ربات‌های انسان‌نما Figure AI

این پرونده، شرکت Figure AI را که با حمایت سرمایه‌گذاران بزرگی چون انویدیا، مایکروسافت و جف بزوس رشد چشمگیری داشته است، به کانون توجه رسانه‌ها کشانده است. نگرانی‌های مطرح شده توسط گروندل تنها به قدرت فیزیکی ربات‌های انسان‌نما محدود نمی‌شود، بلکه به رویکرد مدیریت شرکت در قبال مسائل ایمنی نیز تسری می‌یابد.

ایمنی ربات‌های انسان‌نما؛ آیا شتاب Figure AI منطقی است؟

گروندل در شکایت خود بیان می‌کند که مدیرعامل شرکت، «برت اَدکاک»، و مهندس ارشد نسبت به هشدارهای او بی‌اعتنا بوده‌اند. او مدعی است که نگرانی‌های ایمنی بیشتر به عنوان مانعی برای جذب سرمایه و سرعت توسعه در نظر گرفته می‌شد. به گفته وی، او مسئولیت تهیه «نقشه‌راه ایمنی» برای ارائه به دو سرمایه‌گذار مطرح را بر عهده داشته، اما مدیران از او خواسته‌اند محتوای آن را "تنزل" دهد. همچنین ادعا شده است که در همان ماهی که شرکت موفق به جذب دور سرمایه‌گذاری بزرگی شد، بخش قابل توجهی از برنامه ایمنی تدوین‌شده توسط او از اسناد مربوطه حذف شده است؛ اقدامی که از دید گروندل می‌تواند نوعی فریب سرمایه‌گذاران تلقی شود.

در مقابل این اتهامات، شرکت Figure AI هرگونه ادعا را رد کرده و دلیل قطع همکاری با گروندل را "عملکرد ضعیف" او عنوان کرده است. این شرکت اطمینان داده است که تمامی اتهامات مطرح‌شده در دادگاه بی‌اعتبار خواهند شد. با این حال، Figure AI در اوایل سال ۲۰۲۴ توانست ۶۷۵ میلیون دلار سرمایه جذب کند و هدف‌گذاری کرده تا سال ۲۰۲۹ بیش از ۲۰۰ هزار ربات را در کارخانه‌ها و خانه‌ها مستقر کند، که این امر ارزش بازاری ۹ میلیارد دلاری را برای شرکت ترسیم می‌کند. این ادعاها بار دیگر این سؤال اساسی را مطرح می‌کند: آیا صنعت ربات‌های انسان‌نما با سرعتی بیش از حد به سوی تجاری‌سازی پیش می‌رود، و ایمنی را فدای سود و سرعت می‌کند؟

تبعات حقوقی و آینده مبهم ربات‌های انسان‌نما

رابرت گروندل اکنون خواهان دریافت خسارت اقتصادی، جبرانی و تنبیهی است و درخواست محاکمه توسط هیئت منصفه را مطرح کرده است. وکیل او این پرونده را یکی از نخستین موارد افشاگری مرتبط با ایمنی ربات‌های انسان‌نما می‌داند، حوزه‌ای که سرعت رشد آن نگرانی‌های جدی را در میان متخصصان و عموم مردم ایجاد کرده است. این پرونده، فراتر از یک درگیری حقوقی داخلی، به مناقشه‌ای گسترده‌تر درباره توسعه اخلاقی و ایمن هوش مصنوعی و ربات‌های انسان‌نما دامن می‌زند. از سال‌ها پیش، فلاسفه و دانشمندان (همچون آیزاک آسیموف با قوانین سه‌گانه رباتیک) درباره لزوم تدوین چارچوب‌های سخت‌گیرانه برای کنترل ماشین‌های هوشمند هشدار داده‌اند.

این دست از پرونده‌ها اهمیت حیاتی برای آینده تعامل انسان و رباتیک دارد. توسعه و استقرار گسترده ربات‌های انسان‌نما در محیط‌های کاری و زندگی روزمره، مستلزم رعایت بالاترین استانداردهای ایمنی و اخلاقی است. عدم توجه به این مسائل می‌تواند منجر به حوادث ناگواری شود و اعتماد عمومی به این فناوری‌های نوظهور را از بین ببرد.

چالش‌های پیش روی ایمنی ربات‌های انسان‌نما شامل موارد زیر است:

نیاز به استانداردهای صنعتی سخت‌گیرانه برای طراحی و تولید ربات‌های انسان‌نما.

تدوین قوانین روشن برای مسئولیت‌پذیری در حوادث ناشی از کارکرد ربات‌های انسان‌نما.

فرهنگ‌سازی و آموزش کارمندان برای تعامل ایمن با این فناوری‌های پیشرفته.

این پرونده جنجالی به عنوان یک زنگ خطر عمل می‌کند تا شرکت‌ها و قانون‌گذاران با دقت بیشتری به جنبه‌های ایمنی و اخلاقی ربات‌های انسان‌نما بپردازند و از تکرار حوادث احتمالی در آینده جلوگیری کنند.

مجله تکنولوژی هارپی تک


مطالب مرتبط

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *