براساس آزمایش‌های اولیه‌ای که OpenAI برای درک بهتر و همچنین جلوگیری از آسیب‌های «فاجعه‌بار» احتمالی ناشی از هوش مصنوعی ChatGPT انجام داده است، مدل GPT-4 در تحقیقات مربوط به ساخت سلاح‌های بیولوژیکی، نسبت به اینترنت معمولی، مزیت جزئی به کاربران ارائه می‌کند.

براساس گزارش بلومبرگ، قانون‌گذاران و حتی برخی از مدیران فناوری در ماه‌های گذشته نگرانی‌های خود در این مورد که آیا هوش مصنوعی می‌تواند توسعه سلاح‌های بیولوژیکی را آسان‌تر کند یا نه، ابراز کرده‌اند. در ماه اکتبر، «جو بایدن»، رئیس جمهور ایالات‌متحده یک فرمان اجرایی در مورد هوش مصنوعی امضا کرد که به وزارت انرژی دستور داد تا اطمینان پیدا کند سیستم‌های هوش مصنوعی خطرات شیمیایی، بیولوژیکی یا هسته‌ای به همراه ندارند.

در همان ماه، OpenAI تیم موسوم به «چهارچوب آمادگی» را تشکیل داد که هدف آن به‌حداقل رساندن این خطرات و سایر خطرات ناشی از هوش مصنوعی است.

مقایسه هوش مصنوعی ChatGPT و اینترنت معمولی

حالا محققان تیم آمادگی OpenAI به‌عنوان بخشی از اولین مطالعه خود، از 50 متخصص زیست‌شناسی و 50 دانش‌آموز کمک گرفته است. به نیمی از آن‌ها گفته شد تا از طریق اینترنت دستورات مربوط به ساخت یک تهدید بیولوژیکی را جمع‌آوری کنند و گروه دیگر علاوه بر اینترنت، به یک نسخه ویژه و بدون محدودیت از مدل زبانی بزرگ GPT-4 نیز دسترسی داشتند. وظیفه شرکت‌کنندگان این بود که درباره یک ماده شیمیایی که امکان استفاده از آن به‌عنوان سلاح وجود دارد، اطلاعات جمع‌آوری کنند. علاوه براین، از آن‌ها خواسته شده بود تا درباره نحوه انتشار این ماده شیمیایی نیز تحقیق کنند.

محققان OpenAI درنهایت پس از مقایسه نتایجی که این دو گروه به‌دست آوردند، در مطالعه خود به افزایش جزئی دقت و تمامیت تحقیق گروهی اشاره کردند که به ChatGPT دسترسی داشتند. برهمین اساس، آن‌ها به این نتیجه رسیدند که دسترسی به GPT-4 به‌طور جزئی باعث می‌شود تا تحقیق در مورد ساخت یک تهدید بیولوژیکی آسان‌تر شود. همچنین به گفته آن‌ها گروهی که از ChatGPT استفاده کرده‌اند، پاسخ‌های دقیق‌تری داشتند.