براساس گزارش‌های منتشرشده، ظاهراً متا تیم هوش مصنوعی مسئولانه (RAI) خود را منحل کرده است، زیرا قصد دارد منابع‌اش را بیشتر درزمینه توسعه هوش مصنوعی مولد متمرکز کند. تیم RAI متا مسئول تنظیم امنیت سرمایه‌گذاری‌های غول فناوری در توسعه و راه‌اندازی فناوری‌های هوش مصنوعی است.

همان‌طور که اینفورمیشن در گزارش خود توضیح داده، اکثر اعضای RAI به تیم محصولات تولیدی هوش مصنوعی متا منتقل خواهند شد و سایر افراد روی زیرساخت AI این شرکت کار خواهند کرد. متا تاکنون بارها اعلام کرده است که هوش مصنوعی را به‌طور مسئولانه توسعه می‌دهد و حتی صفحه‌ای را در وب‌سایت خود برای این ادعا راه‌اندازی کرده است.

بااین‌حال، اکنون اینفورمیشن در گزارش خود اعلام کرده که متا‌ از طریق یک پست داخلی، تیم RAI یا هوش مصنوعی مسئولانه خود را منحل کرده است.

وعده متا برای توسعه ایمن و مسئولانه هوش مصنوعی

ظاهراً «جان کارویل»، نماینده متا، در این پست اعلام کرده است که غول فناوری «به اولویت‌بندی و سرمایه‌گذاری در توسعه ایمن و مسئولانه هوش مصنوعی ادامه خواهد داد.» او در ادامه گفت که هرچند شرکت درحال تجزیه این تیم است، اما اعضای آن «به حمایت از تلاش‌های سراسری در متا درزمینه توسعه و استفاده مسئولانه از هوش مصنوعی ادامه خواهند داد.»

تیم RAI متا در اوایل سال جاری تجدید ساختاری دیگری را نیز تجربه کرده بود که در آن برخی اعضای تیم اخراج شدند و این امر RAI را به «پوسته یک تیم» تبدیل کرد. در آن زمان همچنین گفته شده بود تیم RAI که از سال 2019 کار خود را شروع کرده است، استقلال کمی دارد و ابتکارات آن باید قبل از اجرا از طریق مذاکرات طولانی با سهامداران به اشتراک گذاشته شود.

این تیم با هدف شناسایی مشکلات رویکردهای آموزشی هوش مصنوعی متا ایجاد شد و مسائلی مانند اینکه آیا مدل‌های متا با اطلاعات متنوع و کافی آموزش دیده‌اند، بررسی می‌کرد. پلتفرم‌های متا در این زمینه با مشکلات متفاوتی مواجه می‌شوند. به عنوان مثال، الگوریتم‌های اینستاگرام در برخی موارد ممکن است به‌اشتباه مطالب نامناسب را به کودکان نشان دهند. همچنین اشتباه قابلیت ترجمه فیسبوک در سال 2017 باعث دستگیری یک فرد شد.