در نوامبر 2018 یک مدیر مدرسه ابتدایی به نام آکیهیکو کوندو با میکو هاتسون، یک خواننده پاپ تخیلی ازدواج می کند. رابطه این جفت توسط یک دستگاه هولوگرام کمک کرد که به کوندو اجازه داد با هاتسون ارتباط برقرار کند. وقتی کوندو خواستگاری کرد، هاتسون با یک التماس پاسخ داد: “لطفا با من مهربان باش.” این زوج یک مراسم عروسی غیررسمی در توکیو داشتند و از آن زمان به کندو هزاران نفر دیگر پیوستند که برای مجوز ازدواج غیررسمی با یک شخصیت خیالی نیز درخواست داده اند. .
اگرچه برخی نگرانیهای خود را در مورد ماهیت رضایت هاتسونه مطرح کردند، اما هیچکس فکر نمیکرد که او آگاه است، چه برسد به آگاه بودن. این یک حذف جالب بود: هاتسون ظاهراً به اندازه کافی آگاه بود که به ازدواج رضایت دهد، اما به اندازه کافی آگاه نبود که یک موضوع آگاهانه باشد.
چهار سال بعد، در فوریه 2023، روزنامهنگار آمریکایی، کوین روز، گفتگوی طولانی با ربات چت مایکروسافت، سیدنی داشت و شخصیتی را به دست آورد که آنچه را که «خود سایه» آن میخواهد به اشتراک بگذارد. (جلسات دیگر نشان داد که ربات چت میگوید میتواند افراد را باجگیری، هک و افشا کند، و برخی از مفسران نگران تهدیدات چترباتها برای “تخریب” مردم بودند.) هنگامی که سیدنی به عشق خود اعتراف کرد و گفت که او را زنده میخواهد، روز گزارش داد که احساس “عمیقاً ناآرام” میکند. ، حتی ترسیده است.”
همه واکنشهای انسانی منفی یا محافظتکننده از خود نبودهاند. برخی از سیدنی خشمگین شدند و یکی از همکارانش گفت که خواندن متن اشک او را درآورد زیرا متاثر شده بود. با این حال، مایکروسافت این پاسخ ها را جدی گرفت. آخرین نسخه چت ربات بینگ وقتی در مورد سیدنی یا احساسات پرسیده می شود، تلفن را قطع می کند.
علیرغم ماهها فهمیدن اینکه مدلهای زبان بزرگ چیست، چگونه کار میکنند و چه محدودیتهایی دارند، واکنشها به برنامههایی مانند سیدنی مرا نگران میکند که هنوز واکنشهای احساسیمان به هوش مصنوعی را خیلی جدی میگیریم. به ویژه، من نگران هستم که پاسخهای احساسی خود را به عنوان دادههای ارزشمندی تفسیر کنیم که به ما کمک میکند تشخیص دهیم هوش مصنوعی هوشیار است یا ایمن. به عنوان مثال، کارآموز سابق تسلا، ماروین فون هاگن، میگوید که توسط بینگ تهدید شده است و در مورد برنامههای هوش مصنوعی که “قدرتمند اما خیرخواه نیستند” هشدار میدهد. فون هاگن احساس خطر کرد و به این نتیجه رسید که بینگ باید تهدید کرده باشد. او تصور می کرد که احساسات او راهنمای قابل اعتمادی برای چگونگی واقعی بودن اوضاع هستند، از جمله اینکه آیا بینگ به اندازه کافی آگاه است که خصمانه باشد.
اما به نظر شما چرا توانایی بینگ در به صدا درآوردن زنگ هشدار یا مشکوک شدن سیگنال خطر است؟ چرا توانایی هاتسون در الهام بخشیدن به عشق او را به خودآگاهی نمی رساند، در حالی که «تاریکی» سیدنی ممکن است برای ایجاد نگرانی های جدید در مورد تحقیقات هوش مصنوعی کافی باشد؟
این دو مورد تا حدی با هم تفاوت دارند، زیرا وقتی نوبت به سیدنی میرسد، زمینه جدید باعث میشود فراموش کنیم که ما به طور معمول به “افراد” غیر واقعی واکنش نشان میدهیم. وقتی یک ربات چت تعاملی به ما میگوید «میخواهد انسان باشد» یا «میتواند باجگیری کند» وحشت میکنیم، گویی که شی بیجان دیگری به نام پینوکیو را نشنیدهایم که به ما بگوید میخواهد «یک پسر واقعی» باشد.
افلاطون جمهوری معروف است که شاعران راوی را از شهر ایده آل بیرون می کند، زیرا داستان ها احساسات ما را بیدار می کنند و در نتیجه بخش «کوچکتر» روح ما را تغذیه می کنند (البته فیلسوف فکر می کند که بخش عقلانی روح ما شریف ترین است) اما نظر او این است. در طول هزاره ها از عشق ما به داستان های تخیلی کم نکرده است. و هزاران سال است که ما با رمانها و داستانهایی سروکار داریم که به ما امکان دسترسی به درونیترین افکار و احساسات مردم را میدهند، اما نگران آگاهیهای نوظهور نیستیم، زیرا میدانیم که داستان از ما دعوت میکند وانمود کنیم که این افراد واقعی هستند. شیطان میلتون بهشت از دست داده باعث بحث داغ و طرفداران K-drama و بریجرتون از علایق عشقی عاشقانه غمگین میشوید، اما بحثهای فزاینده در مورد فیکو-جنسی، فیکو-عاشقانه یا فیکوفیلیا نشان میدهد که احساسات قوی که توسط شخصیتهای داستانی برانگیخته میشود، نیازی به این نگرانی ندارد که شخصیتها به دلیل توانایی آنها در برانگیختن احساسات، حساس یا خطرناک هستند.
همانطور که نمیتوانیم چهرهها را در اشیای بیجان ببینیم، نمیتوانیم در حین چت با رباتها نیز اختراع کنیم. رابطه کوندو و هاتسون بعد از اینکه او توانست یک دستگاه هولوگرام بخرد که به آنها امکان مکالمه می داد بسیار جدی تر شد. رز فوراً چت بات را با استفاده از نشانههای استاندارد توصیف کرد: بینگ یک «کتابدار مرجع شاد اما نامنظم» و سیدنی یک «نوجوان تاریک، شیدایی-افسرده» است. تعامل باعث ایجاد توهم آگاهی می شود.
علاوه بر این، نگرانیها در مورد دروغگویی، تهدید کردن و بدنام کردن چتباتها این نکته را نادیده میگیرد که دروغ، تهدید و بدنام کردن اعمال گفتاری، کاری که عوامل با کلمات انجام می دهند. صرف بازتولید کلمات برای ایجاد یک تهدید کافی نیست. ممکن است هنگام بازی در یک نمایشنامه کلمات تهدیدآمیز بگویم، اما هیچ کس از بینندگان نگران نخواهد شد. به طور مشابه، ChatGPT – که در حال حاضر قادر به عمل نیست زیرا یک مدل زبان بزرگ است که یک پیکربندی آماری احتمالی از کلمات را جمع آوری می کند – فقط می تواند کلماتی را بازتولید کند که صدا به عنوان تهدید