اپل همچنان وعده‌‌هایی برای ارائه‌ی هوش مصنوعی می‌دهد. متخصصان این شرکت در مقاله‌ی تحقیقاتی جدیدی، سیستمی را توصیف می‌کنند که در آن سیری می‌تواند بسیار فراتر از ابزاری برای تشخیص محتوای تصاویر عمل کند. محققان باور دارند یکی از مدل‌هایشان در انجام این کار نسبت‌ به GPT-4 عملکرد بهتری از خود نشان می‌دهد.

اپل در مقاله‌ی خود چیزی را توصیف می‌کند که دستیار صوتی بهبودیافته با مدل زبانی بزرگ را به ابزار بسیار کاربردی‌تر تبدیل خواهد کرد. مدل زبانی این شرکت موسوم‌ به ReALM به‌طور همزمان به آنچه روی صفحه‌نمایش کاربر وجود دارد و کارهای درحال انجام، توجه می‌کند. در ادامه بخشی از مقاله‌ی اپل آورده شده است:

  • On-screen Entities: محتواهایی که درحال حاضر روی نمایشگر کاربر وجود دارند.
  • Conversational Entities:‌ محتواهایی که با مکالمه ارتباط دارند و می‌توانند از درخواست‌های قبلی کاربر به‌دست بیایند. به‌طور مثال زمانی‌ که کاربر می‌گوید Call Mom (به مادر زنگ بزن)، مخاطبی که با نام Mom ذخیره‌ شده است، مدنظر خواهد بود.
  • Background Entities: محتواهای مرتبطی که از فرایندهای پس‌زمینه به‌دست می‌آیند و الزاماً بخش مستقیمی از آنچه روی نمایشگر دیده می‌شود نیستند؛ به‌طور مثال آلارمی که شروع به زنگ‌زدن می‌کند یا آهنگی که در پس‌زمینه‌ی دستگاه درحال پخش است.
  • به‌نوشته‌ی 9to5Mac، سیستم هوش مصنوعی اپل درصورت کارکرد صحیح می‌تواند به دستورالعمل‌هایی برای بهبود هوشمندی و کاربرد سیری تبدیل شود. اپل همچنین به توانایی خود در تکمیل سیستم مذکور با سرعت بالا اطمینان دارد و عملکرد آن را با GPT-3.5 و GPT-4.0 شرکت OpenAI مقایسه کرده است.

    اپل به‌عنوان معیار سیستم هوش مصنوعی خود، نسخه‌هایی از GPT-3.5 و GPT-4.0 را با یادگیری درون‌متنی اجرا کرده است. هدف سازنده‌ی گوشی آیفون این بود از هر دو نسخه‌ی مدل زبانی بزرگ OpenAI برای پیش‌بینی فهرستی از محتواها بهره ببرد.

    GPT-3.5 فقط متن را به‌عنوان ورودی می‌پذیرد و ورودی اپل درمورد این مدل فقط شامل دستور اصلی می‌شود. از طرفی GPT-4.0 توانایی درک موقعیت بر اساس عکس را هم دارد و طبق اعلام اپل، ارائه‌ی چندین اسکرین‌شات به‌عنوان ورودی باعث بهبود چشم‌گیر عملکرد هوش مصنوعی می‌شود.

    اپل درمورد عملکرد مدل هوش مصنوعی خود گفت: «ما پیشرفت‌های قابل‌ توجهی نسبت به یکی از سیستم‌های موجود با عملکرد مشابه داریم، به‌طوری‌که کوچک‌ترین مدل ما برای پیش‌بینی مواردی که روی نمایشگر دیده می‌شوند، به‌طور مطلق حدود پنج درصد بهتر است. همچنین عملکرد مدل هوش مصنوعی خود را در برابر GPT-3.5 و GPT-4 مورد سنجش قرار دادیم. این کار نشان داد کوچک‌ترین مدل ما عملکردی در سطح GPT-4 دارد و مدل‌های بزرگ‌تر ما با اختلاف قابل‌ توجهی از آن پیشی می‌گیرند.»

    در بخش نتیجه‌گیری مقاله‌ی تحقیقاتی اپل آمده است: «ReALM عملکرد بهتری نسبت‌ به رویکردهای قبلی دارد و تقریباً به‌خوبی بهترین مدل زبانی بزرگ حالِ‌ حاضر جهان یعنی GPT-4 عمل می‌کند. با وجود اینکه مدل‌ ما از پارامترهای بسیار کمتری بهره می‌برد، نسبت‌ به GPT-4 عملکرد بهتری دارد.»

    به‌نظر می‌رسد اپل در توسعه‌ی هوش مصنوعی خود به اجرای آن روی دستگاه بدون نیاز به اینترنت تمرکز دارد. روند توسعه‌ی هوش مصنوعی این شرکت طی سال‌های آینده باید بسیار جذاب باشد و امیدواریم با iOS 18 در WWDC 2024 که از ۱۰ ژوئن (۲۱ خرداد ۱۴۰۳) آغاز می‌شود، اطلاعات بیشتری در این‌ مورد دردسترس قرار گیرد.