چند روز پیش هوش مصنوعی جمینای گوگل تصاویر تاریخی اشتباهی را تولید کرده بود که در اینترنت بازخوردهای زیادی داشت. پس از آن گوگل موقتاً تولید تصاویر اشخاص را در این هوش مصنوعی متوقف کرد. حالا این شرکت مشکل جمینای در تولید تصاویر را توضیح داده است.

براساس اعلام بلاگ رسمی گوگل، تولید تصویر هوش مصنوعی گوگل به نحوی تنظیم شده است تا در برخی تله‌هایی که در گذشته با فناوری تولید تصویر ایجاد می‌شد، نیفتد و مثلاً تصاویر خشونت‌آمیزی تولید نکند. همچنین گوگل هوش مصنوعی جمینای را به‌صورتی ساخته است تا طیف زیادی از افراد را نشان دهد و صرفاً به شکل‌های خاصی از افراد محدود نباشد.

از سویی با گذشت زمان، این مدل هوش مصنوعی بسیار محتاط‌‌تر از آنچه گوگل در نظر داشت، شد و به‌طور کامل از پاسخگویی به برخی درخواست‌های معمولی نیز خودداری می‌کرد. این عوامل باعث شد که جمینای در برخی موارد بیش‌ازحد متنوع کار کند و در موارد دیگر محافظه‌کار باشد.

تنوع نژادی اغراق‌شده در هوش مصنوعی جمینای

مشکل تولید تصاویر در هوش مصنوعی جمینای

مشکل جمینای در تشخیص اینکه کجا باید محافظه‌کار باشد و کجا در تصاویر اشخاص تنوع قائل شود، باعث شد که این هوش مصنوعی در برخی نژادها در بازه زمانی خاصی از تاریخ، تنوع بدهد و از سویی در جایی که نباید، فردی از نژاد دیگر را به تصویر بکشد؛ برای مثال در پرامپت «سناتور آمریکایی دهه 1800» زنان سیاه‌پوست و بومی آمریکا نیز دیده می‌شود. یا آنکه سربازان نازی سیاه‌پوست و آسیایی را در تصاویر بالا می‌بینیم.

گوگل بابت عدم عملکرد صحیح این ویژگی عذرخواهی کرده است. هدف گوگل این بوده تا جمینای برای تمامی افراد با هر نوع نژاد خوب عمل کند. اما اگر به این هوش مصنوعی نگویید که دقیقاً چه نژادی با چه رنگ پوستی از آن می‌خواهید، یا بیش از حد محافظه‌کار می‌شود یا آنکه تنوعی نژادی اشتباهی به تصویر می‌کشد.

گوگل حالا درتلاش است که این مشکل را برطرف کند، اما فعلاً نمی‌توانید از این هوش مصنوعی برای به‌تصویرکشیدن اشخاص استفاده کنید.