چگونه ASI می تواند از حیات بیولوژیکی آزاردهنده ای که در آن وجود دارد رهایی یابد؟ می تواند یک ویروس کشنده ایجاد کند. یا از تولید و توزیع محصولات کشاورزی جلوگیری کند و یا حتی باعث سقوط یک نیروگاه هسته ای و شروع جنگ شود.

هنوز نمی توان به طور قطعی در مورد احتمالات صحبت کرد، زیرا قلمرو هوش مصنوعی نامشخص است. صدها سال پیش نقشه نگاران هیولاها را در مناطق ناشناخته جهان می کشیدند و اکنون این کاری است که ما انجام می دهیم. تحلیل گرت بر این فرض استوار است که ASI و انسان ها فضای یکسانی را اشغال می کنند. اما اگر بتوانیم به حالت چند سیاره ای برسیم، این سناریو تغییر خواهد کرد. گرت می نویسد:

به عنوان مثال، گونه های چند سیاره ای می توانند از تجربه مستقل سیارات مختلف استفاده کنند و با افزایش تنوع استراتژی های بقا، از شکست تک نقطه ای تحمیل شده توسط یک تمدن سیاره ای منفرد جلوگیری کنند.

اگر بتوانیم خطر را در چندین سیاره اطراف چندین ستاره پراکنده کنیم، می توانیم از خود در برابر بدترین عواقب ممکن یک ASI محافظت کنیم. این مدل توزیع شده با ایجاد افزونگی، تاب آوری تمدن زیستی را در برابر بلایای هوش مصنوعی افزایش می دهد. اگر یکی از سیارات یا پایگاه هایی که توسط انسان های آینده اشغال شده است نتواند از تکینگی فناوری ASI جان سالم به در ببرد، بقیه ممکن است زنده بمانند و از شکست درس بگیرند.

وضعیت چند سیاره ای نیز ممکن است فراتر از نجات ASI باشد. بر اساس سناریوهای فرضی گرت، می‌توانیم تجربیات هوش مصنوعی بیشتری را در عین محدود نگه داشتن آن امتحان کنیم. هوش مصنوعی را در یک سیارک یا سیاره کوتوله منزوی در نظر بگیرید که به منابعی که برای فرار از آن نیاز دارد دسترسی ندارد و بنابراین می تواند محدود شود. از گرت:

این سناریو برای محیط های ایزوله ای اعمال می شود که می توان اثرات هوش مصنوعی پیشرفته را بدون خطر فوری نابودی جهانی کشف کرد.

با این حال، یک سوال دشوار در اینجا مطرح می شود. هوش مصنوعی با سرعت فزاینده‌ای در حال پیشرفت است، در حالی که تلاش‌های انسان برای تکامل به گونه‌ای چند سیاره‌ای کند است. به گفته گرت، ناسازگاری بین توسعه سریع هوش مصنوعی و توسعه آهسته فناوری فضایی بسیار واضح است.

سرعت هوش مصنوعی بسیار سریعتر از سرعت سفرهای فضایی است

تفاوت در اینجا این است که هوش مصنوعی محاسباتی و اطلاعاتی است، اما سفر فضایی با موانع فیزیکی زیادی روبرو است که ما هنوز نمی دانیم چگونه بر آنها غلبه کنیم. طبیعت بیولوژیکی انسان مانعی برای سفرهای فضایی است، اما هیچ یک از این موانع هوش مصنوعی را محدود نمی کند.

بیشتر بخوانید:

به گفته گرت، در حالی که هوش مصنوعی از نظر تئوری می تواند توانایی های خود را حتی بدون محدودیت فیزیکی بهبود بخشد، سفر فضایی با محدودیت هایی در زمینه انرژی، علم مواد و واقعیت خشن محیط فضایی مواجه است.

در حال حاضر، هوش مصنوعی در چارچوب محدودیت های تعیین شده توسط انسان عمل می کند. اما ممکن است همیشه اینطور نباشد. ما هنوز نمی دانیم که چه زمانی ممکن است هوش مصنوعی به ASI تبدیل شود. اما ما نمی توانیم این احتمال را نادیده بگیریم. این سوال می تواند به دو نتیجه مرتبط منجر شود.

اگر گرت درست می گوید، انسان ها باید برای سفرهای فضایی بیشتر تلاش کنند. ممکن است دور از ذهن به نظر برسد، اما افراد آگاه می دانند که زمین برای همیشه قابل سکونت نخواهد بود. اگر انسان تمدن خود را به فضا گسترش ندهد، ممکن است به دست خود یا به دست طبیعت نابود شود. با این حال، رسیدن به ماه و مریخ ممکن است نویدبخش گام های آینده باشد.

نتیجه دوم مربوط به قانونی سازی و نظارت بر هوش مصنوعی است. یک کار دشوار در دنیایی که بیماری روانی می تواند کنترل کل ملت ها را در دست بگیرد و منجر به افزایش جنگ ها شود. گرت می نویسد، اگرچه سهامداران صنعت، سیاستمداران، کارشناسان مستقل و دولت های آنها در مورد نیاز به قانون هشدار داده اند، اما ایجاد یک چارچوب قانونی پذیرفته شده جهانی دشوار بوده است.

در واقع، نارسایی ابدی بشریت، هدف کنترل هوش مصنوعی را غیرقابل کنترل می کند. مهم نیست که چقدر سریع استراتژی ها را توسعه می دهیم، هوش مصنوعی می تواند حتی سریعتر رشد کند. در واقع، بدون قانون قابل اجرا، دلیلی وجود دارد که باور کنیم هوش مصنوعی نه تنها تهدیدی برای تمدن آینده است، بلکه تهدیدی برای تمام تمدن های پیشرفته است.

ادامه حیات هوشمندانه و هوشمندانه در جهان ممکن است در گرو اجرای مؤثر و به موقع مقررات قانونی و تلاش های فناوری باشد.