OpenAI ده ها میلیارد دلار برای توسعه فناوری های هوش مصنوعی در حال تغییر جهان جمع آوری کرده است. اما یک مشکل بزرگ وجود دارد: این شرکت هنوز در یافتن نحوه عملکرد فناوری خود مشکل دارد.
در طول اجلاس جهانی هوش مصنوعی که هفته گذشته توسط اتحادیه بینالمللی مخابرات در ژنو سوئیس برگزار شد، سام آلتمن، مدیر عامل OpenAI، در پاسخ به سوالی درباره عملکرد واقعی مدلهای زبان بزرگ شرکتش (LLM) نتوانست پاسخی مستقیم بدهد. .
چالش های محققان در تبیین فرآیندهای هوش مصنوعی
آلتمن به نقل از Observer گفت: «ما قطعاً مشکل تفسیرپذیری را حل نکرده ایم. برای رسیدن به آنجا پاسخ داد.
وقتی نیکلاس تامپسون، مدیر عامل آتلانتیک، او را در این رویداد تحت فشار قرار داد و از او پرسید که آیا این ممکن است «دلیلی برای عقبنشینی از مدلهای جدید و قدرتمندتر» باشد، آلتمن گیج به نظر میرسید و با بیانی بیتفاوت پاسخ داد که مدلهای هوش مصنوعی «مثلاً به طور کلی سالم و بی خطر در نظر گرفته میشوند. “
پاسخ ناامید کننده آلتمن یک مشکل واقعی در فضای نوظهور هوش مصنوعی را برجسته می کند. محققان مدتهاست که برای توضیح فرآیندهای مدلهای هوش مصنوعی آزاداندیش که تقریباً به شکلی جادویی و بدون دردسر به هر سؤالی که از آنها میشود پاسخ میدهند، تلاش کردهاند.
اما سعی کنید، ردیابی خروجی به مواد اولیه ای که هوش مصنوعی روی آن آموزش دیده بود، بسیار دشوار بود. OpenAI، علیرغم نام شرکت و داستان اصلی خود، همچنین داده هایی را که هوش مصنوعی خود را بر روی آنها آموزش می دهد کاملاً محرمانه نگه داشته است.
گروهی متشکل از 75 متخصص اخیراً در گزارشی علمی به سفارش دولت بریتانیا به این نتیجه رسیدند که توسعهدهندگان هوش مصنوعی «در مورد نحوه عملکرد سیستمهایشان اطلاعات کمی دارند» و دانش علمی «بسیار محدود» است.
در این گزارش آمده است: «تکنیکهای تفسیر و توضیح مدل میتوانند درک محققان و توسعهدهندگان از نحوه عملکرد سیستمهای هوش مصنوعی عمومی را بهبود بخشند، اما این تحقیق هنوز در مراحل اولیه است.»
سایر شرکتهای هوش مصنوعی در تلاش هستند تا با نقشهبرداری از نورونهای مصنوعی الگوریتمهای خود، راههای جدیدی برای «باز کردن جعبه سیاه» بیابند. برای مثال، رقیب OpenAI Anthropic اخیراً نگاه دقیقتری به ساختار داخلی یکی از جدیدترین مدلهای LLM خود، Claude Sonnet انداخته است.