OpenAI ده ها میلیارد دلار برای توسعه فناوری های هوش مصنوعی در حال تغییر جهان جمع آوری کرده است. اما یک مشکل بزرگ وجود دارد: این شرکت هنوز در یافتن نحوه عملکرد فناوری خود مشکل دارد.

در طول اجلاس جهانی هوش مصنوعی که هفته گذشته توسط اتحادیه بین‌المللی مخابرات در ژنو سوئیس برگزار شد، سام آلتمن، مدیر عامل OpenAI، در پاسخ به سوالی درباره عملکرد واقعی مدل‌های زبان بزرگ شرکتش (LLM) نتوانست پاسخی مستقیم بدهد. .

چالش های محققان در تبیین فرآیندهای هوش مصنوعی

آلتمن به نقل از Observer گفت: «ما قطعاً مشکل تفسیرپذیری را حل نکرده ایم. برای رسیدن به آنجا پاسخ داد.

وقتی نیکلاس تامپسون، مدیر عامل آتلانتیک، او را در این رویداد تحت فشار قرار داد و از او پرسید که آیا این ممکن است «دلیلی برای عقب‌نشینی از مدل‌های جدید و قدرتمندتر» باشد، آلتمن گیج به نظر می‌رسید و با بیانی بی‌تفاوت پاسخ داد که مدل‌های هوش مصنوعی «مثلاً به طور کلی سالم و بی خطر در نظر گرفته می‌شوند. “

پاسخ ناامید کننده آلتمن یک مشکل واقعی در فضای نوظهور هوش مصنوعی را برجسته می کند. محققان مدت‌هاست که برای توضیح فرآیندهای مدل‌های هوش مصنوعی آزاداندیش که تقریباً به شکلی جادویی و بدون دردسر به هر سؤالی که از آنها می‌شود پاسخ می‌دهند، تلاش کرده‌اند.

اما سعی کنید، ردیابی خروجی به مواد اولیه ای که هوش مصنوعی روی آن آموزش دیده بود، بسیار دشوار بود. OpenAI، علیرغم نام شرکت و داستان اصلی خود، همچنین داده هایی را که هوش مصنوعی خود را بر روی آنها آموزش می دهد کاملاً محرمانه نگه داشته است.

گروهی متشکل از 75 متخصص اخیراً در گزارشی علمی به سفارش دولت بریتانیا به این نتیجه رسیدند که توسعه‌دهندگان هوش مصنوعی «در مورد نحوه عملکرد سیستم‌هایشان اطلاعات کمی دارند» و دانش علمی «بسیار محدود» است.

در این گزارش آمده است: «تکنیک‌های تفسیر و توضیح مدل می‌توانند درک محققان و توسعه‌دهندگان از نحوه عملکرد سیستم‌های هوش مصنوعی عمومی را بهبود بخشند، اما این تحقیق هنوز در مراحل اولیه است.»

سایر شرکت‌های هوش مصنوعی در تلاش هستند تا با نقشه‌برداری از نورون‌های مصنوعی الگوریتم‌های خود، راه‌های جدیدی برای «باز کردن جعبه سیاه» بیابند. برای مثال، رقیب OpenAI Anthropic اخیراً نگاه دقیق‌تری به ساختار داخلی یکی از جدیدترین مدل‌های LLM خود، Claude Sonnet انداخته است.