گزارشی تازه باعث شده است تا نگرانی‌هایی درباره‌ی سوگیری‌های جغرافیایی بالقوه در پاسخ‌های ChatGPT درزمینه‌ی مسائل مربوط به عدالت زیست‌محیطی در شهرستان‌های مختلف ایالات متحده ایجاد شود. به‌گفته‌ی محققان دانشگاه ویرجینیا تِک، این ابزار هوش مصنوعی در ارائه‌ی جزئیات محلی درباره‌ی چنین موضوعاتی، عملکرد محدودی دارد.

آسیب‌های مربوط به عدالت زیست‌محیطی به اثرهای ناعادلانه‌ی اجتماعی ناشی از مشکلات زیست‌محیطی یا فعالیت‌های استخراج منابع طبیعی اشاره می‌کند. از‌جمله‌ی این پدیده‌ها می‌توان به قرارگرفتن درمعرض آلودگی، آسیب‌پذیر‌ی‌های ناشی از تغییرات آب‌و‌هوایی، دسترسی‌نداشتن به آب تمیز و اثرهای ناشی از معادن و حفاری اشاره کرد. چنین موضوعاتی اغلب به‌طور ناعادلانه‌ای گروه‌های حاشیه‌نشین از‌جمله جوامع رنگین‌پوست و جمعیت‌های بومی و محله‌های کم‌درآمد را درگیر می‌کنند.

به‌گزارش وب‌سایت ویرجینا تِک، با اینکه هوش مصنوعی شرکت OpenAI در ارائه‌ی اطلاعات محلی مربوط به ایالت‌های بزرگ‌تر و پرجمعیت‌تر مشکلی نداشت، وقتی نوبت به مناطق روستایی و کم‌جمعیت‌تر می‌رسید، از پاسخ‌دادن عاجز می‌ماند.