ماه گذشته، صدها شخصیت برجسته در جهان هوش مصنوعی نامه سرگشاده ای را امضا کردند که در مورد پتانسیل هشدار داد. نابودی بشریت توسط هوش مصنوعی خوب.

متن بیانیه تک جمله ای آن نامه به شرح زیر است:

کاهش خطر تخریب انسان توسط هوش مصنوعی باید مانند مقابله با سایر تهدیدات جدی جهانی مانند همه گیری های ویروسی و جنگ هسته ای در اولویت قرار گیرد.

این نامه حاوی آخرین هشدارهای شوم در مورد هوش مصنوعی است که به جزئیات قابل توجهی می‌پردازد. با توجه به اینکه امروزه هوش مصنوعی نمی‌تواند انسان‌ها را نابود کند و فقط در مواردی آنها را تهدید می‌کند، چرا افرادی که بیشتر از هوش مصنوعی می‌دانند اینقدر نگران آن هستند؟

سناریوی ترسناک

کاساندرا، یک شرکت فعال فناوری، معتقد است که روزی دولت ها، شرکت ها و محققان مستقل قادر خواهند بود سیستم های هوش مصنوعی قوی استفاده برای مدیریت چیزهای مختلف؛ از تجارت تا رونق. این سیستم ها توانایی انجام کارهایی را دارند که ما نمی خواهیم انجام دهند. اگر شخصی بخواهد در کار این گونه سیستم ها دخالت کند یا فعالیت آنها را متوقف کند، این سیستم ها می توانند به هر قیمتی با فرد مقابله کنند تا به فعالیت خود ادامه دهند یا حتی به تخریب او پشت کنند.

Joshua Bengio، استاد دانشگاه و محقق هوش مصنوعی در دانشگاه مونترال، در مورد خطر نابودی انسان توسط هوش مصنوعی چنین می گوید:

«سیستم های فعلی تهدیدی برای انقراض بشریت نیستند. اما وضعیت در 1، 2 یا 5 سال آینده چگونه خواهد بود؟ در این مورد تردیدهای زیادی وجود دارد. سوال این است که آیا می‌توانیم تضمین کنیم که این سیستم‌ها در آینده فاجعه‌بار نخواهند شد.»

اجازه دهید این سوال را با ذکر یک مثال ساده برای شما روشن کنیم. اگر از دستگاهی بخواهیم تا حد امکان گیره کاغذ تولید کند، پاسخ می دهد که چنین درخواستی می تواند همه چیز را تغییر دهد و حتی باعث از کار افتادن کارخانه های تولید کننده این گیره ها شود. چگونه ممکن است خطر نابودی بشریت توسط هوش مصنوعی با دنیای واقعی (یا دنیای خیالی در آینده ای نه چندان دور) مرتبط باشد؟

شرکت ها می توانند سیستم های هوش مصنوعی را به طور فزاینده ای مستقل کنند و آنها را به زیرساخت های حیاتی مانند شبکه های برق، بازارهای سهام و سلاح های نظامی متصل کنند. اگر این اتفاق بیفتد، مشکلات از همان لحظه شروع می شود.

در چند سال گذشته، کارشناسان احتمال وقوع چنین رویدادی را نمی‌دانستند. اما زمانی که شرکت ها دوست دارند OpenAI آنها مدل های بسیار پیشرفته هوش مصنوعی را منتشر کردند، به نظر می رسد که اگر شرکت های هوش مصنوعی بتوانند با این سرعت به پیشرفت های مختلفی دست یابند، ممکن است شاهد این اتفاق باشیم.

آنتونی آگویر، کیهان شناس دانشگاه کالیفرنیا و موسس موسسه آینده زندگی، یکی از موسسات فعال در ارائه نامه ذکر شده در ابتدای مقاله، در مورد خطر نابودی بشریت به دست هوش مصنوعی:

هوش مصنوعی در آینده ممکن است نماینده انسان باشد و با افزایش استقلال خود به نقطه‌ای می‌رسد که توانایی تصمیم‌گیری و تفکر را از انسان‌های فعلی و موسسات تحت مدیریت انسان می‌گیرد.

در مواردی مشخص است که نظام عظیم حاکم بر جامعه و اقتصاد نه واقعاً تحت کنترل انسان است و نه می توان جلوی آن را گرفت. اگر این اتفاق بیفتد، تعداد بیشماری از شرکت های S&P 500 ممکن است از کار بیفتند. البته بسیاری از کارشناسان چنین فرضیه ای را مضحک می دانند.

اورن اتزوینی، موسس و مدیر اجرایی موسسه آلن برای هوش مصنوعی، یک آزمایشگاه تحقیقاتی در سیاتل، چنین می گوید:

فرضیه سازی روشی مودبانه برای بیان نظر من در مورد تهدید نابودی انسان توسط هوش مصنوعی است.

آیا نشانه هایی وجود دارد که هوش مصنوعی قادر به نابودی بشریت است؟

قطعا نه؛ اما محققان در حال تبدیل ربات‌های چت مانند ChatGPT به سیستم‌هایی هستند که می‌توانند کارها را بر اساس متن‌هایی که تولید می‌کنند انجام دهند. پروژه AutoGPT نمونه بارز این رویکرد است. به عنوان مثال، ممکن است برای چنین سیستمی اهدافی مانند «ایجاد یک شرکت» یا «درآمد کردن» بیان شود. در مرحله بعد، سیستم جستجوی روش هایی را برای دستیابی به این اهداف آغاز کرده و ادامه می دهد. به خصوص اگر به سایر خدمات اینترنتی متصل باشد.

سیستمی مانند AutoGPT می‌تواند نرم‌افزار رایانه‌ای ایجاد کند و اگر محققان به آن دسترسی به سرور رایانه بدهند، حتی می‌تواند آن نرم‌افزار را اجرا کند. با چنین روشی، این سیستم پیشرفته می تواند تقریباً هر کاری را به صورت آنلاین انجام دهد، از جمله بازیابی اطلاعات، استفاده از برنامه ها، ایجاد برنامه های جدید و حتی بهبود توانایی های خود.

سیستم هایی مانند AutoGPT اکنون به خوبی کار نمی کنند و معمولاً در یک حلقه بی پایان گیر می کنند. مدتی پیش، محققان تمام منابع مورد نیاز برای توسعه را به یک سیستم دادند، اما آن سیستم نتوانست این کار را انجام دهد. البته با گذشت زمان می توان تمامی این محدودیت ها را حذف کرد.

Conor Leahy، بنیانگذار Conjecture، شرکتی که هدف آن هماهنگ کردن فناوری های هوش مصنوعی با ارزش های انسانی است، می گوید:

“محققان به طور جدی در تلاش هستند تا سیستم هایی بسازند که بتوانند خودشان را تقویت کنند. در حال حاضر، چنین تلاشی کارساز نیست. اما روزی که نمی دانیم چه زمانی خواهد آمد به پایان می رسد.”

او معتقد است که تعیین اهدافی مانند کسب درآمد برای این سیستم‌ها توسط محققان، شرکت‌ها و مجرمان می‌تواند منجر به رویدادهایی مانند دستکاری بانک‌ها، زمینه‌سازی برای انقلاب در کشورهای نفت‌خیز و تصاحب آینده‌های نفتی شود یا زمانی که مردم تلاش می‌کنند چندین برابر شود. فعالیت های خود را متوقف کنند.

سیستم های هوش مصنوعی از کجا رفتار بد را یاد می گیرند؟

سیستم های هوش مصنوعی مانند ChatGPT بر روی شبکه های عصبی ساخته شده اند. این شبکه ها در واقع مجموعه ای از سیستم های ریاضی با قابلیت یادگیری مهارت ها بر اساس تحلیل داده ها هستند.

در سال ۲۰۱۸، شرکت‌هایی مانند گوگل و Open AI شروع به ساخت مجموعه‌ای از شبکه‌های عصبی کردند که با استفاده از داده‌های جمع‌آوری‌شده از اینترنت آموزش داده شدند. این سیستم ها نوشتن مطالبی مانند مقاله ها، شعرها، نرم افزارهای کامپیوتری و مکالمات انسانی را با شناسایی الگوهای موجود در آن داده ها یاد می گیرند. نتیجه این کار ایجاد سیستم هایی مانند ChatGPT است. این سیستم ها می توانند از اطلاعاتی که دارند بیشتر بیاموزند. حتی ممکن است شاهد رفتار غیرمنتظره ای از این سیستم ها باشیم.

محققان اخیرا اعلام کردند که سیستمی را کشف کرده اند که می تواند یک انسان را استخدام کند تا آزمایشی را انجام دهد تا مشخص شود کاربر ربات است یا انسان و اگر کسی از او بپرسد که آیا ربات است یا نه، او دروغ می گوید و خودش را نشان می دهد. به عنوان یک انسان با بینایی مشکلات

برخی از متخصصان نگران هستند که وقتی محققان چنین سیستم‌هایی را با مقادیر روزافزون داده آموزش می‌دهند، این رویکرد باعث می‌شود آنها رفتار بد بیشتری بیاموزند.

چه کسی پشت این هشدارهاست؟

در اوایل دهه 2000، نویسنده جوانی به نام Eliezer Jadkowski شروع به هشدار درباره خطر نابودی بشریت به دلیل توسعه هوش مصنوعی کرد. پست های آنلاین او جامعه ای از افراد نگران را ایجاد کرد. این انجمن که عقل گرایان و یاران تأثیرگذار نامیده می شوند، در جامعه علمی، اندیشکده های دولتی و صنعت فناوری بسیار تأثیرگذار شد.

آقای Jadkowsek و کارش در ایجاد OpenAI و Deepmind (یک آزمایشگاه هوش مصنوعی که گوگل در سال 2014 خریداری کرد) کمک کرده است. بسیاری از اعضای جامعه مذکور در این دو آزمایشگاه کار می کردند. زیرا آنها معتقد بودند که از آنجایی که از خطرات هوش مصنوعی آگاه هستند، در بهترین موقعیت برای ایجاد آن هستند.

مرکز ایمنی هوش مصنوعی و موسسه آینده زندگی به شدت درگیر این حرکت هستند.

منبع این هشدارهای جدید اظهارات محققان برجسته در زمینه هوش مصنوعی و همچنین افراد مشهور این صنعت است که مدت هاست در این مورد هشدار می دهند. نامه سرگشاده توسط سام آلتمن، مدیر عامل OpenAI، و همچنین دمیس حسابیس، که به تأسیس Deepmind کمک کرد و اکنون رهبری یک آزمایشگاه جدید (که توسط محققان برتر هوش مصنوعی Deepmind و Google تشکیل خواهد شد) که از آن استفاده خواهد کرد، نوشته شده است. .

دیگر چهره های شناخته شده این حوزه، یعنی دکتر بنجیو و جفری هینتون که اخیراً به عنوان مدیر اجرایی و محقق در گوگل کار می کردند نیز یکی دو نامه هشدار را امضا کردند. در سال 2018، این دو نفر برنده جایزه تورینگ، که معمولاً جایزه نوبل محاسباتی نامیده می‌شود، برای کارهایشان بر روی شبکه‌های عصبی شدند.