در سال 2014، DeepMind پس از نمایش نتایج چشمگیر از نرم افزاری که از یادگیری تقویتی برای تسلط بر بازی های ویدیویی ساده استفاده می کرد، توسط گوگل خریداری شد. در طول چند سال بعد، DeepMind نشان داد که چگونه این تکنیک کارهایی را انجام میدهد که زمانی منحصراً انسانی به نظر میرسیدند – اغلب با مهارتهای مافوق بشری. هنگامی که AlphaGo قهرمان Go Lee Sedol را در سال 2016 شکست داد، بسیاری از کارشناسان هوش مصنوعی شگفت زده شدند زیرا آنها معتقد بودند که چندین دهه طول می کشد تا ماشین ها در یک بازی با چنین پیچیدگی مهارت پیدا کنند.
تفکر جدید
آموزش یک مدل زبان بزرگ مانند GPT-4 OpenAI شامل وارد کردن حجم عظیمی از متن های انتخاب شده از کتاب ها، صفحات وب و سایر منابع به نرم افزار یادگیری ماشینی معروف به ترانسفورماتور است. از الگوهای موجود در این دادههای آموزشی استفاده میکند تا در پیشبینی حروف و کلماتی که باید از یک متن پیروی کنند ماهر شود، مکانیزم سادهای که در پاسخ به سؤالات و تولید متن یا کد بسیار قدرتمند است.
یک مرحله مهم اضافی در ایجاد ChatGPT و مدلهای زبانی مشابه، استفاده از یادگیری تقویتی بر اساس بازخورد انسان در مورد پاسخهای یک مدل هوش مصنوعی برای اصلاح عملکرد آن است. تجربه عمیق DeepMind با یادگیری تقویتی می تواند به محققان این امکان را بدهد که به Gemini قابلیت های جدیدی بدهند.
Hassabis و تیم او همچنین ممکن است سعی کنند فناوری مدل زبان بزرگ را با ایده هایی از سایر زمینه های هوش مصنوعی بهبود بخشند. محققان DeepMind در زمینه های مختلف از رباتیک تا علوم اعصاب کار می کنند و اوایل این هفته این شرکت الگوریتمی را نشان داد که قادر به یادگیری انجام کارهای دستکاری با طیف گسترده ای از دست های مختلف ربات است.
انتظار میرود که یادگیری از تجربیات فیزیکی جهان، همانطور که انسانها و حیوانات انجام میدهند، در توانایی بیشتر هوش مصنوعی مهم باشد. این واقعیت که مدل های زبان به طور غیرمستقیم، از طریق متن، جهان را یاد می گیرند، توسط برخی از کارشناسان هوش مصنوعی به عنوان یک محدودیت بزرگ تلقی می شود.
آینده ای مبهم
Hassabis وظیفه تسریع تلاش های هوش مصنوعی گوگل را بر عهده دارد و در عین حال خطرات ناشناخته و بالقوه جدی را مدیریت می کند. پیشرفتهای سریع اخیر در مدلهای زبان، بسیاری از کارشناسان هوش مصنوعی – از جمله برخی که الگوریتمها را میسازند – نگران هستند که این فناوری برای اهداف مخرب استفاده شود یا کنترل آن دشوار شود. برخی از کارشناسان فناوری حتی خواستار توقف توسعه الگوریتمهای قدرتمندتر برای جلوگیری از ایجاد چیزی خطرناک شدهاند.
Hassabis میگوید که مزایای بالقوه باورنکردنی هوش مصنوعی – مانند اکتشافات علمی در زمینههایی مانند سلامت یا آب و هوا – این امر را ضروری میسازد که بشریت به توسعه این فناوری ادامه دهد. او همچنین احساس کرد که تحمیل مکث غیرعملی است زیرا اجرای آن تقریبا غیرممکن است. او درباره هوش مصنوعی میگوید: «اگر به درستی انجام شود، مفیدترین فناوری برای بشریت خواهد بود. ما باید جسورانه و شجاعانه این چیزها را دنبال کنیم.»
این بدان معنا نیست که Hassabis از توسعه هوش مصنوعی دفاع می کند. DeepMind از قبل از ظهور ChatGPT در مورد خطرات بالقوه هوش مصنوعی تحقیق کرده است و Shane Legg، یکی از بنیانگذاران این شرکت، سال ها گروه “ایمنی AI” را در این شرکت رهبری کرده است. حسابیس ماه گذشته با امضای بیانیهای به دیگر شخصیتهای ارشد هوش مصنوعی پیوست و هشدار داد که هوش مصنوعی روزی میتواند خطری قابل مقایسه با جنگ هستهای یا یک بیماری همهگیر ایجاد کند.
Hassabis میگوید یکی از بزرگترین چالشها در حال حاضر، تعیین خطرات هوش مصنوعی قویتر است. او میگوید: «فکر میکنم باید تحقیقات بیشتری در این زمینه انجام شود – خیلی فوری – در مورد مواردی مانند تستهای ارزیابی، تا مشخص شود مدلهای جدید هوش مصنوعی چقدر قابل و قابل کنترل هستند. او میگوید برای این منظور، DeepMind میتواند سیستمهای خود را برای دانشمندان خارجی قابل دسترستر کند. او میگوید: «من دوست دارم دانشگاهها به این مدلهای مرزی دسترسی زودهنگام داشته باشند.
چقدر باید نگران بود؟ Hassabis می گوید هیچ کس به طور قطع نمی داند که آیا هوش مصنوعی به یک خطر بزرگ تبدیل خواهد شد یا خیر. اما او مطمئن است که اگر پیشرفت با سرعت فعلی خود ادامه یابد، زمان زیادی برای توسعه پادمان ها وجود نخواهد داشت. او میگوید: «من میتوانم به درستی ببینم که ما در حال ساختن چه چیزهایی در سریال Gemini هستیم، و دلیلی نداریم که باور کنیم آنها کار نمیکنند.