با‌این‌حال، ایلیا در مصاحبه‌هایش بیشتر از آنکه از مزیت‌های هوش مصنوعی حرف بزند، بر خطرات آن تاکید می‌کند. او اوایل امسال، رهبری گروهی در OpenAI را به دست گرفت تا راهی برای مهار سیستم‌های هوش مصنوعی فرابشری آینده پیدا کند. به باور او، این سیستم‌ها ممکن است «بسیار خطرناک باشند و به سلب قدرت از انسان‌ها یا حتی انقراض بشریت بیانجامند.»

ایلیا به‌تازگی در مصاحبه‌ای با MIT گفت که تمرکزش به جای ساخت نسخه‌‌ی بعدی مدل زبانی GPT یا مولد تصویر DALL-E این است که جلوی از افسارگسیختگی «ابرهوش مصنوعی» را بگیرد. او بر این باور است که ChatGPT ممکن است حتی همین حالا به خودآگاهی رسیده باشد و دنیا باید حواسش به قدرت واقعی تکنولوژی‌ای که OpenAI در حال توسعه‌‌ی آن است، باشد. ایلیا حتی فکر می‌کند در آینده برخی از انسان‌ها تصمیم خواهند گرفت خودشان را با ماشین‌ها پیوند بزنند.

ایلیا در سال ۲۰۲۲ در توییتی نوشت که «شاید شبکه‌های عصبی بزرگ امروزی کمی خودآگاه باشند.» در جواب او، موری شاناهان (Murray Shanahan)، دانشمند ارشد دیپ‌مایند گوگل و مشاور علمی فیلم Ex Machina به طعنه نوشت: «همان‌طور که یک مزرعه‌ی بزرگ گندم می‌تواند کمی پاستا باشد.»

اما ایلیا درمورد خطرات AI واقعا جدی است. او هوش مصنوعی را به مغز بولتسمان (Boltzmann brain) تشبیه می‌کند؛‌ فرضیه‌ای در مکانیک کوانتومی که می‌گوید نوسانات ترمودینامیکی تصادفی در جهان باعث می‌شود مغز یا «ادراکی» خودآگاه لحظه‌ای به‌وجود آید و بعد از بین برود. انگار که تا زمانی‌که در حال صحبت با هوش مصنوعی هستید، این مدل‌ها خودآگاه می‌شوند و وقتی کارتان با آن‌ها تمام شد، هوشیاری‌شان از بین می‌رود.

دالتون کالدول (Dalton Caldwell)، مدیر سرمایه‌گذاری Y Combinator می‌گوید:

درحالی که دیگران هنوز با ایده‌ی ساخت هوش مصنوعی انسان‌گونه دست‌وپنجه نرم می‌کنند، ایلیا درحال آماده شدن برای ظهور سیستم‌هایی است که می‌توانند از هوش انسان‌ها پیشی بگیرند. او این سیستم‌ها را «ابرهوش مصنوعی» (Artificial Superintelligence) می‌نامد که «چیزها را عمیق‌تر خواهند دید. چیزهایی که ما نمی‌بینیم.»

وقتی یک سر ماجرا، اعتقاد به تجاری‌سازی هوش مصنوعی و تسریع توسعه‌ی AI باشد و سر دیگر، ترس از نابودی بشر به دست هوش مصنوعی، بحران و تنش اجتناب‌ناپذیر خواهد بود؛ مگر اینکه حد وسطی پیدا شود.

همه‌چیز خواب بود؟

درنهایت، پس از پنج روز کشمکش و جایگزینی دو نفر از اعضای هیئت‌مدیره، سم آلتمن و به‌همراهش گرگ براکمن به‌طرز غافل‌گیرکننده‌ای به OpenAI بازگشتند. برگشت آلتمن به OpenAI شاید از اخراجش هم عجیب‌تر باشد، چراکه هیئت‌مدیره واقعا مصر بود جلوی این اتفاق را به هر قیمتی بگیرد. حتی سرمایه‌گذاری ۱۳ میلیارد دلاری مایکروسافت هم نتوانسته بود در تصمیم هیئت‌مدیره تاثیرگذار باشد.

آلتمن در توییت چهارشنبه از بازگشتش به OpenAI خبر داد:

ساتیا نادلا هم پس از شنیدن خبر بازگشت آلتمن گفت:

بازگشت آلتمن به OpenAI بعد از چند روز پر التهاب مثل تماشای فیلمی است که در پایان، کاراکترها بیدار می‌شوند و می‌بینند تمام اتفاقاتی که از سر گذرانده‌اند، خواب بوده است! اما پشت این ماجرا، داستان مهم‌تری در جریان است؛ دلیلی که احتمالا باعث اخراج آلتمن شده بود.

OpenAI برخلاف اسمش که از هوش مصنوعی متن‌باز حرف می‌زند، شرکت چندان روراستی نیست و اکثر اتفاقاتی که پشت دیوارهای آن می‌افتد، از دید خبرنگاران و عموم مردم پنهان است. ماجرای اخراج آلتمن برای اولین بار ساختار مدیریتی عجیب و ناکارآمد این شرکت را زیر ذره‌بین رسانه‌ها قرار داد و تنش بین آلتمن و سوتسکیور به نگرانی درباره‌ی آینده‌ی تکنولوژی دامن زد.