در سال 1945، درست قبل از آزمایش اولین بمب هسته ای در صحرای نیومکزیکو در ایالات متحده، انریکو فرمی، یکی از فیزیکدانانی که در ساخت این بمب همکاری داشته است، با همکاران دانشمند خود شرط بندی کرده است. آیا گرمای بی سابقه ناشی از انفجار باعث آتش سوزی هسته ای در جو می شود؟ اگر چنین است، آیا طوفان آتش فقط نیومکزیکو را نابود خواهد کرد یا کل جهان را نابود خواهد کرد؟ البته این آزمایش به اندازه شرط بندی های شیطنت آمیز فرمی احمقانه نبود. هانس زدفیزیکدان دیگری محاسبه کرده بود که وجود چنین جهنمی تقریبا غیرممکن است.
این روزها، نگرانی در مورد «تهدیدات وجودی»، یعنی آنهایی که تهدیدی جدی برای کل نسل بشر به عنوان یک گونه (نه انسان به عنوان افراد) هستند، به دانشمندان نظامی محدود نمی شود. جنگ هستهای، زمستان هستهای، بیماریهای جهانی (چه طبیعی مانند کووید-19 یا ایجاد شده)، برخورد یک سیارک به زمین و احتمالات بیشماری دیگر میتواند اکثر مردم یا حتی کل نژاد بشر را از بین ببرد.
به گزارش اکونومیست، آخرین تهدید آخرالزمانی برای بشر امروز، هوش مصنوعی (AI) و پایان جهان و نسل بشر به دست این فناوری است. در ماه می، گروهی از چهرههای برجسته در حوزه هوش مصنوعی نامهای سرگشاده امضا کردند که در آن آمده بود: «کاهش خطر انقراض ناشی از هوش مصنوعی باید یک اولویت جهانی در کنار سایر خطرات اجتماعی مانند بیماریهای جهانی و جنگ هستهای باشد».
اما نگرانی در مورد چقدر منطقی است؟ 10 جولای (19 ژوئیه) گروهی از محققان از جمله عزرا کارگراقتصاددان در شیکاگو فدرال رزرو و فیلیپ تتلاکدانشمند علوم سیاسی از دانشگاه پنسیلوانیا، مقاله ای را منتشر کرد که سعی دارد با تحقیق سیستماتیک دو گروه مختلف از متخصصان، پاسخ این سوال را بیابد.
در یک طرف مطالعه، متخصصان حوزه مورد بحث یا «حوزه ویژه» در جنگ هستهای، سلاحهای بیولوژیکی، هوش مصنوعی و حتی خود موضوع «انقراض» و در طرف دیگر گروهی از «فوقالعادههای حرفهای» حضور داشتند. پیش بینی کننده ها” یا پیش بینی های جهانی با پیش بینی های دقیق در انواع موضوعات مختلف، از نتایج انتخابات تا شروع جنگ های مختلف.
محققان در مجموع 89 ابر پیش بینی، 65 متخصص در این زمینه و 15 متخصص “در خطر انقراض” را انتخاب کردند. دو نوع مختلف بلایا برای ارزیابی به داوطلبان ارائه شد. فاجعه به عنوان “فاجعه طبیعی ناگهانی” تعریف می شود که تنها 10 درصد از جمعیت انسانی جهان یا حدود 800 میلیون نفر را می کشد. برای مقایسه، تخمین زده می شود که جنگ جهانی دوم حدود 3 درصد از جمعیت 2 میلیاردی جهان را کشته است. از سوی دیگر، “انقراض” به عنوان رویدادی تعریف می شود که همه افراد خوش شانس (یا بدشانس) را به جز تا 5000 نفر از بین می برد.
اگر باید برویم، همه با هم می رویم
از دو گروه خواسته شد تا درباره احتمال وقوع همه چیز، از رویدادهای شدید مانند انقراض ناشی از هوش مصنوعی یا جنگ هستهای گرفته تا سؤالات کوچکتر، از جمله اینکه چه پیشرفتهای هشداردهندهای در قابلیتهای هوش مصنوعی ممکن است بهعنوان تابلوهای راهنما در مسیر فاجعه در آینده رخ دهد، فکر کنند. در آینده، پیش بینی کنید.
شگفتانگیزترین نتیجه این مطالعه این است که متخصصان این حوزه که معمولاً بر گفتگوهای عمومی در مورد خطرات وجودی تسلط دارند، آینده را بسیار تاریکتر از پیشبینیکنندگان فوقالعاده میبینند. کارشناسان تخمین زده اند که احتمال وقوع یک بلای طبیعی تا سال 2100 حدود 20 درصد و احتمال انقراض انسان حدود 6 درصد است. برای این رویدادها احتمالات 9 و 1 درصدی توسط پیش بینی گران در نظر گرفته شد.
این شکاف گسترده جزئیات جالبی را پنهان می کند. دو گروه بیشترین اختلاف نظر را در شناسایی خطرات ناشی از هوش مصنوعی داشتند. به طور متوسط، پیش بینی کنندگان تخمین می زنند که تا پایان قرن، احتمال یک فاجعه ناشی از هوش مصنوعی 2.1٪ و احتمال انقراض ناشی از AI 0.38٪ است. از سوی دیگر کارشناسان حوزه هوش مصنوعی برای این دو رویداد به ترتیب احتمال 12 و 3 درصد را تعیین کردند. در مورد زندگی روزمره، ابر پیش بینی ها نسبت به کارشناسان نسبت به خطرات بیماری های طبیعی بدبین تر بودند.
شاید جالب ترین نتیجه این بود که اگرچه دو گروه در مورد سطح دقیق خطر اختلاف نظر داشتند، اما هر دو هوش مصنوعی را به عنوان بزرگترین نگرانی در هنگام فکر کردن به سقوط یا انقراض رتبه بندی کردند. دن مریلندیک ابر پیش بینی که در این مطالعه شرکت داشت معتقد است که یکی از دلایل خطرناک تر بودن هوش مصنوعی این است که به عنوان یک “تقویت کننده نیرو” در برابر تهدیدات دیگر مانند سلاح های هسته ای عمل می کند.
در صورت وقوع جنگ هسته ای یا برخورد سیارک، هوش مصنوعی (مثلاً به شکل ربات های مسلح) می تواند انسان ها را مستقیماً به سمت مرگ بفرستد. همچنین می تواند در تیز کردن تبر سایر جلادان نقش داشته باشد. به عنوان مثال، اگر انسانها از هوش مصنوعی برای طراحی سلاحهای بیولوژیکی قویتر استفاده کنند، هوش مصنوعی اساساً، اگر غیرمستقیم، در فاجعه نقش داشته باشد.
ابر پیش بینی ها، در حالی که نسبت به هوش مصنوعی بدبین بودند، تا حدودی در مورد آن نامطمئن بودند. جهان نزدیک به 80 سال است که با سلاح های هسته ای سر و کار دارد. این واقعیت که یک جنگ هسته ای تمام عیار هنوز رخ نداده است، داده های ارزشمندی را ارائه می دهد که می تواند در پیش بینی های آینده در مورد احتمال آن مفید باشد. اصطلاح هوش مصنوعی، حداقل به معنای فعلی آن، بسیار جدیدتر است. ظهور مدل های مدرن یادگیری ماشینی قدرتمند به اوایل دهه 2010 برمی گردد. این زمینه هنوز به سرعت در حال توسعه و گسترش است. که داده های بسیار کمتری برای پیش بینی باقی می گذارد.
به طور خاص، دکتر تتلاک کارهای زیادی در مورد مشکل پیش بینی آینده انجام داده است. او اولین کسی بود که “ابر پیش بینی کنندگان” را شناسایی و نام برد. افرادی که به طور غیرعادی در پیش بینی آینده موفق به نظر می رسند. چنین افرادی دارای چندین ویژگی مشترک هستند، مانند تفکر دقیق بر اساس آمار و آگاهی از سوگیری های شناختی که می تواند آنها را گیج و گمراه کند. علیرغم فقدان تخصص خاص، ابرپیشبینیکنندگان در بسیاری از زمینههای فنی دیگر، از امور مالی گرفته تا ژئوپلیتیک، کارکردی بهتر از کارشناسان دارند.
به نظر میرسد که اختلاف نظر بین گروهها تا حدودی نشاندهنده تفاوت در مدلهای آنها از نحوه عملکرد جهان است. خطرات فاجعه بار نه تنها به پیچیدگی یا قدرتمند بودن یک فناوری، بلکه به نحوه واکنش مردم به آن نیز بستگی دارد. به عنوان مثال، پس از ترس از جنگ هسته ای در آغاز جنگ سرد، ایالات متحده و اتحاد جماهیر شوروی، دو قدرت بزرگ هسته ای جهان، شروع به همکاری کردند. دو قدرت جهانی با ابتکاراتی مانند ایجاد «خطوط تماس مستقیم» بین مسکو و واشنگتن، توافقنامههایی برای بازرسی تسلیحات یکدیگر و معاهداتی که برای محدود کردن ذخایر طراحی شدهاند، به کاهش خطرات جنگ هستهای کمک کردهاند.
اما ابر پیشبینیکنندگان و کارشناسان هوش مصنوعی ظاهراً دیدگاههای متفاوتی در مورد نحوه واکنش جوامع به آسیبهای کوچک هوش مصنوعی داشتند. ابر پیش بینی ها بر این باورند که چنین آسیب هایی منجر به بررسی دقیق تر و مقررات سخت گیرانه تر برای مقابله با مشکلات بزرگتر پیش رو می شود. در مقابل، کارشناسان در این زمینه تمایل دارند بر این باورند که انگیزههای تجاری و ژئوپلیتیک میتواند بر نگرانیهای ایمنی، حتی پس از وارد شدن خسارت واقعی، بیشتر باشد.
ابر پیش بینی ها و صاحب نظران نیز دیدگاه های متفاوتی در مورد حدود هوش داشتند. کریستی مورلیکی دیگر از ابرپیشبینیکنندگان شرکتکننده در این مطالعه به سادگی معتقد است که «کشتن همه مردم به این راحتی نیست». او خاطرنشان می کند که این احتمالاً مستلزم داشتن «توانایی برای تعامل با دنیای فیزیکی است. ما احتمالاً قبل از رسیدن به آن نقطه به پیشرفت زیادی در دنیای رباتیک نیاز داریم.»