سام آلتمن، مدیر عامل OpenAI اخیراً گفت که چین باید نقشی کلیدی در شکلدهی نردههای حفاظی که در اطراف این فناوری قرار گرفتهاند، ایفا کند.
آلتمن هفته گذشته طی یک سخنرانی در آکادمی هوش مصنوعی پکن (BAAI) گفت: چین دارای برخی از بهترین استعدادهای هوش مصنوعی در جهان است. حل تراز برای سیستمهای هوش مصنوعی پیشرفته نیازمند برخی از بهترین ذهنها از سراسر جهان است – و بنابراین من واقعاً امیدوارم که محققان چینی هوش مصنوعی در اینجا سهم بزرگی داشته باشند.
آلتمن در موقعیت خوبی برای اظهار نظر در مورد این موضوعات قرار دارد. شرکت او پشت ChatGPT، چت ربات است که به دنیا نشان داد که قابلیتهای هوش مصنوعی با چه سرعتی در حال پیشرفت هستند. چنین پیشرفت هایی باعث شده است که دانشمندان و فناوران خواستار محدودیت در فناوری شوند. در ماه مارس، بسیاری از کارشناسان نامهای سرگشاده امضا کردند که در آن خواستار توقف شش ماهه در توسعه الگوریتمهای هوش مصنوعی قدرتمندتر از الگوریتمهای پشتیبان ChatGPT شدند. ماه گذشته، مدیران اجرایی از جمله آلتمن و دمیس حسابیس، مدیرعامل گوگل دیپ مایند، بیانیهای را امضا کردند و هشدار دادند که هوش مصنوعی روزی میتواند خطری وجودی قابل مقایسه با جنگ هستهای یا بیماریهای همهگیر ایجاد کند.
چنین اظهاراتی که اغلب توسط مدیرانی که بر روی فناوری کار می کنند امضا می شود که آنها هشدار می دهند که می تواند ما را بکشد، می تواند توخالی باشد. برای برخی، آنها نیز نکته را از دست می دهند. بسیاری از کارشناسان هوش مصنوعی میگویند تمرکز بر آسیبهایی که هوش مصنوعی میتواند از طریق تقویت تعصب عمومی و آسانتر کردن انتشار اطلاعات نادرست انجام دهد، مهمتر است.
ژانگ هونگجیانگ، رئیس BAAI به من گفت که محققان هوش مصنوعی در چین نیز بسیار نگران فرصتهای جدید در حال ظهور در هوش مصنوعی هستند. او گفت: «من واقعاً فکر میکنم که (اولتمن) با انجام این تور و گفتگو با دولتها و نهادهای مختلف، خدمتی به بشریت میکند.
ژانگ گفت که تعدادی از دانشمندان چینی، از جمله مدیر BAAI، نامهای را امضا کردند که خواستار توقف توسعه سیستمهای هوش مصنوعی قدرتمندتر شده بود، اما او اشاره کرد که BAAI مدتهاست بر روی خطرات فوریتر هوش مصنوعی متمرکز شده است. ژانگ گفت: تحولات جدید در هوش مصنوعی به این معنی است که ما قطعا تلاش بیشتری برای همسویی با هوش مصنوعی خواهیم کرد. اما او افزود که این مشکل دشوار است زیرا “مدل های هوشمندتر در واقع می توانند کارها را ایمن تر کنند.”
آلتمن تنها متخصص هوش مصنوعی غربی نبود که در کنفرانس BAAI شرکت کرد.
همچنین جفری هینتون، یکی از پیشگامان یادگیری عمیق، فناوری که زیربنای تمام هوش مصنوعی مدرن است، حضور داشت که ماه گذشته گوگل را ترک کرد تا به مردم در مورد خطراتی که الگوریتمهای پیشرفتهتر میتوانند به زودی ایجاد کنند، هشدار دهد.
مکس تگمارک، پروفسور مؤسسه فناوری ماساچوست (MIT) و مدیر مؤسسه آینده زندگی، که نامه ای را برای توقف توسعه هوش مصنوعی سازماندهی کرد، همچنین در مورد خطرات هوش مصنوعی صحبت کرد، در حالی که Yann LeCun، یکی دیگر از پیشگامان در یادگیری عمیق، نشان داد که اضطراب فعلی در مورد خطرات هوش مصنوعی ممکن است کمی بیش از حد باشد.
هر کجا که در بحث پایان جهان بایستید، چیز خوبی در مورد اشتراک نظر ایالات متحده و چین در مورد هوش مصنوعی وجود دارد. لفاظی های معمول حول نبرد کشورها برای تسلط بر توسعه فناوری می چرخد و به نظر می رسد که هوش مصنوعی به طرز ناامیدکننده ای در سیاست غرق شده است. به عنوان مثال، در ماه ژانویه، کریستوفر رای، رئیس FBI، در مجمع جهانی اقتصاد در داووس گفت که از برنامه هوش مصنوعی دولت چین “عمیقا نگران” است.
با توجه به اینکه هوش مصنوعی برای رشد اقتصادی و مزیت استراتژیک حیاتی خواهد بود، رقابت بین المللی تعجب آور نیست. اما هیچ کس از توسعه فناوری به شیوه ای ناامن سود نمی برد و قدرت رو به رشد هوش مصنوعی مستلزم سطحی از همکاری بین ایالات متحده، چین و سایر قدرت های جهانی است.
اما مانند توسعه سایر فناوریهای «تغییرکننده جهان»، مانند انرژی هستهای و ابزارهای مورد نیاز برای مبارزه با تغییرات آب و هوایی، یافتن زمینههای مشترک ممکن است به دست دانشمندانی بیفتد که این فناوری را بهتر درک میکنند.