سام آلتمن، مدیر عامل OpenAI اخیراً گفت که چین باید نقشی کلیدی در شکل‌دهی نرده‌های حفاظی که در اطراف این فناوری قرار گرفته‌اند، ایفا کند.

آلتمن هفته گذشته طی یک سخنرانی در آکادمی هوش مصنوعی پکن (BAAI) گفت: چین دارای برخی از بهترین استعدادهای هوش مصنوعی در جهان است. حل تراز برای سیستم‌های هوش مصنوعی پیشرفته نیازمند برخی از بهترین ذهن‌ها از سراسر جهان است – و بنابراین من واقعاً امیدوارم که محققان چینی هوش مصنوعی در اینجا سهم بزرگی داشته باشند.

آلتمن در موقعیت خوبی برای اظهار نظر در مورد این موضوعات قرار دارد. شرکت او پشت ChatGPT، چت ربات است که به دنیا نشان داد که قابلیت‌های هوش مصنوعی با چه سرعتی در حال پیشرفت هستند. چنین پیشرفت هایی باعث شده است که دانشمندان و فناوران خواستار محدودیت در فناوری شوند. در ماه مارس، بسیاری از کارشناسان نامه‌ای سرگشاده امضا کردند که در آن خواستار توقف شش ماهه در توسعه الگوریتم‌های هوش مصنوعی قدرتمندتر از الگوریتم‌های پشتیبان ChatGPT شدند. ماه گذشته، مدیران اجرایی از جمله آلتمن و دمیس حسابیس، مدیرعامل گوگل دیپ مایند، بیانیه‌ای را امضا کردند و هشدار دادند که هوش مصنوعی روزی می‌تواند خطری وجودی قابل مقایسه با جنگ هسته‌ای یا بیماری‌های همه‌گیر ایجاد کند.

چنین اظهاراتی که اغلب توسط مدیرانی که بر روی فناوری کار می کنند امضا می شود که آنها هشدار می دهند که می تواند ما را بکشد، می تواند توخالی باشد. برای برخی، آنها نیز نکته را از دست می دهند. بسیاری از کارشناسان هوش مصنوعی می‌گویند تمرکز بر آسیب‌هایی که هوش مصنوعی می‌تواند از طریق تقویت تعصب عمومی و آسان‌تر کردن انتشار اطلاعات نادرست انجام دهد، مهم‌تر است.

ژانگ هونگجیانگ، رئیس BAAI به من گفت که محققان هوش مصنوعی در چین نیز بسیار نگران فرصت‌های جدید در حال ظهور در هوش مصنوعی هستند. او گفت: «من واقعاً فکر می‌کنم که (اولتمن) با انجام این تور و گفتگو با دولت‌ها و نهادهای مختلف، خدمتی به بشریت می‌کند.

ژانگ گفت که تعدادی از دانشمندان چینی، از جمله مدیر BAAI، نامه‌ای را امضا کردند که خواستار توقف توسعه سیستم‌های هوش مصنوعی قدرتمندتر شده بود، اما او اشاره کرد که BAAI مدت‌هاست بر روی خطرات فوری‌تر هوش مصنوعی متمرکز شده است. ژانگ گفت: تحولات جدید در هوش مصنوعی به این معنی است که ما قطعا تلاش بیشتری برای همسویی با هوش مصنوعی خواهیم کرد. اما او افزود که این مشکل دشوار است زیرا “مدل های هوشمندتر در واقع می توانند کارها را ایمن تر کنند.”

آلتمن تنها متخصص هوش مصنوعی غربی نبود که در کنفرانس BAAI شرکت کرد.

همچنین جفری هینتون، یکی از پیشگامان یادگیری عمیق، فناوری که زیربنای تمام هوش مصنوعی مدرن است، حضور داشت که ماه گذشته گوگل را ترک کرد تا به مردم در مورد خطراتی که الگوریتم‌های پیشرفته‌تر می‌توانند به زودی ایجاد کنند، هشدار دهد.

مکس تگمارک، پروفسور مؤسسه فناوری ماساچوست (MIT) و مدیر مؤسسه آینده زندگی، که نامه ای را برای توقف توسعه هوش مصنوعی سازماندهی کرد، همچنین در مورد خطرات هوش مصنوعی صحبت کرد، در حالی که Yann LeCun، یکی دیگر از پیشگامان در یادگیری عمیق، نشان داد که اضطراب فعلی در مورد خطرات هوش مصنوعی ممکن است کمی بیش از حد باشد.

هر کجا که در بحث پایان جهان بایستید، چیز خوبی در مورد اشتراک نظر ایالات متحده و چین در مورد هوش مصنوعی وجود دارد. لفاظی های معمول حول نبرد کشورها برای تسلط بر توسعه فناوری می چرخد ​​و به نظر می رسد که هوش مصنوعی به طرز ناامیدکننده ای در سیاست غرق شده است. به عنوان مثال، در ماه ژانویه، کریستوفر رای، رئیس FBI، در مجمع جهانی اقتصاد در داووس گفت که از برنامه هوش مصنوعی دولت چین “عمیقا نگران” است.

با توجه به اینکه هوش مصنوعی برای رشد اقتصادی و مزیت استراتژیک حیاتی خواهد بود، رقابت بین المللی تعجب آور نیست. اما هیچ کس از توسعه فناوری به شیوه ای ناامن سود نمی برد و قدرت رو به رشد هوش مصنوعی مستلزم سطحی از همکاری بین ایالات متحده، چین و سایر قدرت های جهانی است.

اما مانند توسعه سایر فناوری‌های «تغییرکننده جهان»، مانند انرژی هسته‌ای و ابزارهای مورد نیاز برای مبارزه با تغییرات آب و هوایی، یافتن زمینه‌های مشترک ممکن است به دست دانشمندانی بیفتد که این فناوری را بهتر درک می‌کنند.