این جدول مقایسه دقیق یک به یک ارائه نمی دهد. در این گزارش می خوانیم که گوگل از دو ویژگی ویژه برای بهبود عملکرد Palm 2 استفاده کرده است: یکی ایجاد زنجیره فکر و دیگری سازگاری با خود.

خود سازگاری به این معنی است که مدل چندین پاسخ مختلف تولید می کند و سپس می بیند که کدام پاسخ بیشتر تکرار شده تا آن را به عنوان پاسخ صحیح انتخاب کند. به عنوان مثال، اگر پاسخ اول می گوید A، پاسخ دوم می گوید B، و پاسخ سوم می گوید A، مدل می گوید که A رایج تر است. بنابراین من این را به عنوان پاسخ صحیح انتخاب می کنم.

زنجیره فکری همچنین مستلزم این است که مدل از طریق پاسخ های خود قدم به قدم فکر کند. در بسیاری از مطالعات اخیر، تأثیر استفاده از زنجیره فکری بر بهبود عملکرد مدل های زبانی نشان داده شده است. به عنوان مثال، وب سایت Khan Academy که از هوش مصنوعی OpenAI استفاده می کند، از همین زنجیره فرآیندهای فکری برای پاسخ بهتر به سوالات ریاضی کاربران استفاده می کند. بنابراین، حتی قبل از اینکه مربیان هوش مصنوعی در این پلتفرم از کاربر سوالی بپرسند، تمام مراحل را ایجاد کرده اند تا یک بار برای خود به پاسخ برسند تا وقتی کاربر پاسخ داد، بتواند از “حافظه” خود برای راهنمایی استفاده کند. آنها را گام به گام با پاسخ صحیح همراه کنید.

با توضیح آن، بیایید نتایج را بررسی کنیم. گوگل می گوید که با استفاده از زنجیره پرس و جو ذهنی، توانسته عملکرد PalM 2 را در مقایسه با PalM در تمامی تست ها افزایش دهد. این به ویژه برای نمره آزمون ریاضی جالب است، که نشان دهنده افزایش بیش از 4 برابری عملکرد در مدل مجهز به سوالات زنجیره ای تفکر و افزایش بیش از 6 برابری در مدل مجهز به سازگاری با خود است.

با این حال، در حالی که گوگل بر اساس آزمایش GPT-4، نتیجه PalM 2 را با رقیب خود مقایسه کرد، شرکت OpenAI تنها از تابع بازجویی زنجیره ای فکر در آزمایش GSM-8K و نتیجه استفاده کرد. 222 مقایسه این نتیجه با مدل Flan-PaLM 2 مقایسه منصفانه ای نیست. از آنجایی که این مدل با داده های تست تخصصی آموزش داده شده است. فرض کنید گوگل به دلایلی از قرار دادن نتیجه آزمایش MGSM برای GPT-4 خودداری کرد.

چرا گوگل در مورد برنامه های خود برای افزایش امنیت هوش مصنوعی صحبت نمی کند؟

نکته جالب دیگر در مورد گزارش فناوری گوگل این است که به نگرانی‌هایی که امروزه مردم و صنایع مختلف در مورد هوش مصنوعی دارند، توجه نمی‌کند. نگرانی هایی مانند جایگزینی انسان با هوش مصنوعی در محیط کار، استفاده از هوش مصنوعی در سلاح ها، مسائل مربوط به کپی رایت و ایمنی کلی استفاده از هوش مصنوعی برای نسل بشر.

بیشتر گزارش گوگل به “هوش مصنوعی مسئول” اختصاص دارد. اما محور صحبت های این غول فناوری، استفاده از ضمایر صحیح در ترجمه است. این موضوع به ویژه توجه من را به خود جلب کرد زیرا مدتی پیش، جفری هینتونپدرخوانده هوش مصنوعی، پس از 10 سال گوگل را ترک کرد تا در مورد خطرات هوش مصنوعی برای مشاغل و حتی خود مردم صحبت کند.

در همین حال، هنگامی که OpenAI در مورد امنیت مدل زبان خود در گزارش GPT-4 صحبت می کند، نمونه هایی را نشان می دهد که ربات چت به درخواست های غیرقانونی یا خطرناک مانند ساخت بمب پاسخ نمی دهد.

OpenAI در پایان گزارش خود می گوید در حال کار با محققان مستقل برای درک و ارزیابی بهتر اثرات احتمالی هوش مصنوعی و برنامه ریزی برای قابلیت های خطرناکی است که ممکن است در سیستم های آینده ظاهر شوند. سوالی که مطرح می شود این است که گوگل چه برنامه ای برای امنیت هوش مصنوعی دارد؟ چرا او تصمیم گرفت فعلاً مسائل هوش مصنوعی را به مسائل ترجمه محدود کند؟

آیا گوگل به رقبای هوش مصنوعی خود می رسد؟

در این میان آنچه عجیب به نظر می رسد این است که چگونه گوگل با همه منابع و میلیاردها دلاری که صرف تحقیق و توسعه هوش مصنوعی کرده است و حتی زودتر از رقبای خود وارد این عرصه شده است، هنوز هم بسیار عقب مانده است – شرکت کوچکی مانند OpenAI؟

این گوگل بود که در سال 2017 شبکه عصبی ترانسفورماتور را با انتشار مقاله “توجه تنها چیزی است که نیاز دارید” معرفی کرد. شبکه ای که الگوهای بزرگ زبان را ممکن کرد و بدون آن ایجاد چت ربات ChatGPT امکان پذیر نبود.

جالب است بدانید که از 8 نویسنده این مقاله، تنها یک نفر هنوز در گوگل است و بقیه برای راه اندازی استارت آپ های هوش مصنوعی خود رفته اند. از جمله Adept AI Lab و Air Street Capital و البته OpenAI. برخی از محققان هوش مصنوعی گوگل حتی شایعه شده اند که شرکت را ترک می کنند. زیرا گوگل متهم شد که چت بات Bard را با داده های ChatGPT بدون اجازه آموزش داده است.