در سال 1945، درست قبل از آزمایش اولین بمب هسته ای در صحرای نیومکزیکو در ایالات متحده، انریکو فرمی، یکی از فیزیکدانانی که در ساخت این بمب همکاری داشته است، با همکاران دانشمند خود شرط بندی کرده است. آیا گرمای بی سابقه ناشی از انفجار باعث آتش سوزی هسته ای در جو می شود؟ اگر چنین است، آیا طوفان آتش فقط نیومکزیکو را نابود خواهد کرد یا کل جهان را نابود خواهد کرد؟ البته این آزمایش به اندازه شرط بندی های شیطنت آمیز فرمی احمقانه نبود. هانس زدفیزیکدان دیگری محاسبه کرده بود که وجود چنین جهنمی تقریبا غیرممکن است.

این روزها، نگرانی در مورد «تهدیدات وجودی»، یعنی آنهایی که تهدیدی جدی برای کل نسل بشر به عنوان یک گونه (نه انسان به عنوان افراد) هستند، به دانشمندان نظامی محدود نمی شود. جنگ هسته‌ای، زمستان هسته‌ای، بیماری‌های جهانی (چه طبیعی مانند کووید-19 یا ایجاد شده)، برخورد یک سیارک به زمین و احتمالات بی‌شماری دیگر می‌تواند اکثر مردم یا حتی کل نژاد بشر را از بین ببرد.

به گزارش اکونومیست، آخرین تهدید آخرالزمانی برای بشر امروز، هوش مصنوعی (AI) و پایان جهان و نسل بشر به دست این فناوری است. در ماه می، گروهی از چهره‌های برجسته در حوزه هوش مصنوعی نامه‌ای سرگشاده امضا کردند که در آن آمده بود: «کاهش خطر انقراض ناشی از هوش مصنوعی باید یک اولویت جهانی در کنار سایر خطرات اجتماعی مانند بیماری‌های جهانی و جنگ هسته‌ای باشد».

اما نگرانی در مورد چقدر منطقی است؟ 10 جولای (19 ژوئیه) گروهی از محققان از جمله عزرا کارگراقتصاددان در شیکاگو فدرال رزرو و فیلیپ تتلاکدانشمند علوم سیاسی از دانشگاه پنسیلوانیا، مقاله ای را منتشر کرد که سعی دارد با تحقیق سیستماتیک دو گروه مختلف از متخصصان، پاسخ این سوال را بیابد.

در یک طرف مطالعه، متخصصان حوزه مورد بحث یا «حوزه ویژه» در جنگ هسته‌ای، سلاح‌های بیولوژیکی، هوش مصنوعی و حتی خود موضوع «انقراض» و در طرف دیگر گروهی از «فوق‌العاده‌های حرفه‌ای» حضور داشتند. پیش بینی کننده ها” یا پیش بینی های جهانی با پیش بینی های دقیق در انواع موضوعات مختلف، از نتایج انتخابات تا شروع جنگ های مختلف.

محققان در مجموع 89 ابر پیش بینی، 65 متخصص در این زمینه و 15 متخصص “در خطر انقراض” را انتخاب کردند. دو نوع مختلف بلایا برای ارزیابی به داوطلبان ارائه شد. فاجعه به عنوان “فاجعه طبیعی ناگهانی” تعریف می شود که تنها 10 درصد از جمعیت انسانی جهان یا حدود 800 میلیون نفر را می کشد. برای مقایسه، تخمین زده می شود که جنگ جهانی دوم حدود 3 درصد از جمعیت 2 میلیاردی جهان را کشته است. از سوی دیگر، “انقراض” به عنوان رویدادی تعریف می شود که همه افراد خوش شانس (یا بدشانس) را به جز تا 5000 نفر از بین می برد.

اگر باید برویم، همه با هم می رویم

از دو گروه خواسته شد تا درباره احتمال وقوع همه چیز، از رویدادهای شدید مانند انقراض ناشی از هوش مصنوعی یا جنگ هسته‌ای گرفته تا سؤالات کوچک‌تر، از جمله اینکه چه پیشرفت‌های هشداردهنده‌ای در قابلیت‌های هوش مصنوعی ممکن است به‌عنوان تابلوهای راهنما در مسیر فاجعه در آینده رخ دهد، فکر کنند. در آینده، پیش بینی کنید.

شگفت‌انگیزترین نتیجه این مطالعه این است که متخصصان این حوزه که معمولاً بر گفتگوهای عمومی در مورد خطرات وجودی تسلط دارند، آینده را بسیار تاریک‌تر از پیش‌بینی‌کنندگان فوق‌العاده می‌بینند. کارشناسان تخمین زده اند که احتمال وقوع یک بلای طبیعی تا سال 2100 حدود 20 درصد و احتمال انقراض انسان حدود 6 درصد است. برای این رویدادها احتمالات 9 و 1 درصدی توسط پیش بینی گران در نظر گرفته شد.

این شکاف گسترده جزئیات جالبی را پنهان می کند. دو گروه بیشترین اختلاف نظر را در شناسایی خطرات ناشی از هوش مصنوعی داشتند. به طور متوسط، پیش بینی کنندگان تخمین می زنند که تا پایان قرن، احتمال یک فاجعه ناشی از هوش مصنوعی 2.1٪ و احتمال انقراض ناشی از AI 0.38٪ است. از سوی دیگر کارشناسان حوزه هوش مصنوعی برای این دو رویداد به ترتیب احتمال 12 و 3 درصد را تعیین کردند. در مورد زندگی روزمره، ابر پیش بینی ها نسبت به کارشناسان نسبت به خطرات بیماری های طبیعی بدبین تر بودند.

شاید جالب ترین نتیجه این بود که اگرچه دو گروه در مورد سطح دقیق خطر اختلاف نظر داشتند، اما هر دو هوش مصنوعی را به عنوان بزرگترین نگرانی در هنگام فکر کردن به سقوط یا انقراض رتبه بندی کردند. دن مریلندیک ابر پیش بینی که در این مطالعه شرکت داشت معتقد است که یکی از دلایل خطرناک تر بودن هوش مصنوعی این است که به عنوان یک “تقویت کننده نیرو” در برابر تهدیدات دیگر مانند سلاح های هسته ای عمل می کند.

در صورت وقوع جنگ هسته ای یا برخورد سیارک، هوش مصنوعی (مثلاً به شکل ربات های مسلح) می تواند انسان ها را مستقیماً به سمت مرگ بفرستد. همچنین می تواند در تیز کردن تبر سایر جلادان نقش داشته باشد. به عنوان مثال، اگر انسان‌ها از هوش مصنوعی برای طراحی سلاح‌های بیولوژیکی قوی‌تر استفاده کنند، هوش مصنوعی اساساً، اگر غیرمستقیم، در فاجعه نقش داشته باشد.

ابر پیش بینی ها، در حالی که نسبت به هوش مصنوعی بدبین بودند، تا حدودی در مورد آن نامطمئن بودند. جهان نزدیک به 80 سال است که با سلاح های هسته ای سر و کار دارد. این واقعیت که یک جنگ هسته ای تمام عیار هنوز رخ نداده است، داده های ارزشمندی را ارائه می دهد که می تواند در پیش بینی های آینده در مورد احتمال آن مفید باشد. اصطلاح هوش مصنوعی، حداقل به معنای فعلی آن، بسیار جدیدتر است. ظهور مدل های مدرن یادگیری ماشینی قدرتمند به اوایل دهه 2010 برمی گردد. این زمینه هنوز به سرعت در حال توسعه و گسترش است. که داده های بسیار کمتری برای پیش بینی باقی می گذارد.

به طور خاص، دکتر تتلاک کارهای زیادی در مورد مشکل پیش بینی آینده انجام داده است. او اولین کسی بود که “ابر پیش بینی کنندگان” را شناسایی و نام برد. افرادی که به طور غیرعادی در پیش بینی آینده موفق به نظر می رسند. چنین افرادی دارای چندین ویژگی مشترک هستند، مانند تفکر دقیق بر اساس آمار و آگاهی از سوگیری های شناختی که می تواند آنها را گیج و گمراه کند. علیرغم فقدان تخصص خاص، ابرپیش‌بینی‌کنندگان در بسیاری از زمینه‌های فنی دیگر، از امور مالی گرفته تا ژئوپلیتیک، کارکردی بهتر از کارشناسان دارند.

به نظر می‌رسد که اختلاف نظر بین گروه‌ها تا حدودی نشان‌دهنده تفاوت در مدل‌های آن‌ها از نحوه عملکرد جهان است. خطرات فاجعه بار نه تنها به پیچیدگی یا قدرتمند بودن یک فناوری، بلکه به نحوه واکنش مردم به آن نیز بستگی دارد. به عنوان مثال، پس از ترس از جنگ هسته ای در آغاز جنگ سرد، ایالات متحده و اتحاد جماهیر شوروی، دو قدرت بزرگ هسته ای جهان، شروع به همکاری کردند. دو قدرت جهانی با ابتکاراتی مانند ایجاد «خطوط تماس مستقیم» بین مسکو و واشنگتن، توافق‌نامه‌هایی برای بازرسی تسلیحات یکدیگر و معاهداتی که برای محدود کردن ذخایر طراحی شده‌اند، به کاهش خطرات جنگ هسته‌ای کمک کرده‌اند.

اما ابر پیش‌بینی‌کنندگان و کارشناسان هوش مصنوعی ظاهراً دیدگاه‌های متفاوتی در مورد نحوه واکنش جوامع به آسیب‌های کوچک هوش مصنوعی داشتند. ابر پیش بینی ها بر این باورند که چنین آسیب هایی منجر به بررسی دقیق تر و مقررات سخت گیرانه تر برای مقابله با مشکلات بزرگتر پیش رو می شود. در مقابل، کارشناسان در این زمینه تمایل دارند بر این باورند که انگیزه‌های تجاری و ژئوپلیتیک می‌تواند بر نگرانی‌های ایمنی، حتی پس از وارد شدن خسارت واقعی، بیشتر باشد.

ابر پیش بینی ها و صاحب نظران نیز دیدگاه های متفاوتی در مورد حدود هوش داشتند. کریستی مورلیکی دیگر از ابرپیش‌بینی‌کنندگان شرکت‌کننده در این مطالعه به سادگی معتقد است که «کشتن همه مردم به این راحتی نیست». او خاطرنشان می کند که این احتمالاً مستلزم داشتن «توانایی برای تعامل با دنیای فیزیکی است. ما احتمالاً قبل از رسیدن به آن نقطه به پیشرفت زیادی در دنیای رباتیک نیاز داریم.»