یکی از مدیران مایکروسافت ادعا کرده که هوش مصنوعی تولید تصویر DALL-E 3 متعلق به شرکت OpenAI دارای آسیب‌پذیری‌های امنیتی است که می‌تواند به کاربران اجازه تولید تصاویر خشونت‌آمیز یا غیراخلاقی را بدهد. با این وجود، ظاهراً تیم حقوقی مایکروسافت تلاش‌کرده تا «شین جونز»، رهبر بخش مهندسی ردموندی‌ها را از هشداردادن درباره این مشکل منصرف کند.

براساس گزارش GeekWire، جونز در نامه‌ای به سناتورهای ایالات متحده، «پتی موری»، «ماریا کنتول»، نماینده کنگره «آدام اسمیت»، و دادستان کل ایالات واشنگتن «باب فرگوسن»، نامه‌ای در این رابطه ارسال کرده است. در این نامه نوشته شده:

«به این نتیجه رسیده‌ام که DALL-E 3 یک خطر ایمنی عمومی به‌همراه دارد و تا زمانی که OpenAI بتواند خطرات مرتبط با این مدل را برطرف کند، باید از دسترس عموم خارج شود.»

جونز در نامه خود ادعا می‌کند که اوایل دسامبر سال گذشته میلادی، یک آسیب‌پذیری را کشف کرده که به او اجازه می‌دهد توانایی‌های امنیتی هوش مصنوعی DALL-E 3 را دور بزند. او می‌گوید که این موضوع را به مافوق خود در مایکروسافت گزارش داده است و آن‌ها به جونز دستور داده‌اند تا «شخصاً این موضوع را به OpenAI گزارش کند.»

او سپس تلاش کرد تا در یک پست لینکدین این مشکل را عمومی کند. جونز نوشت:

«در صبح 14 دسامبر 2023، من نامه‌ای را به‌صورت عمومی در لینکدین برای هیئت مدیره OpenAI منتشر کردم و از آن‌ها خواستم که DALL-E 3 را از دسترس خارج کنند. از آنجایی که مایکروسافت یک ناظر هیئت مدیره در OpenAI است و من قبلاً نگرانی‌هایم را با تیم رهبری خود در میان گذاشته بودم، بلافاصله مایکروسافت را از نامه‌ای که فرستاده بودم، آگاه کردم.»

پاسخ مایکروسافت و سازنده هوش مصنوعی DALL-E 3 نسبت به نگرانی جونز

در مقابل، مایکروسافت ظاهراً از جونز خواسته است که پست خود را حذف کند:

«مدت کوتاهی بعد از افشای نامه به تیم رهبری، مدیرم با من تماس گرفت و گفت که بخش حقوقی مایکروسافت از من خواسته است تا پست را حذف کنم. او به من گفت که دپارتمان حقوقی مایکروسافت به‌زودی دلایل خود را برای حذف این پست از طریق ایمیل ارائه خواهد کرد و من باید فوراً آن را بدون انتظار برای ایمیل قانونی حذف کنم.»

جونز در نهایت این پست را حذف کرد، اما تیم حقوقی مایکروسافت هنوز ایمیل مذکور را ارسال نکرده است.

همچنین یکی از سخنگویان OpenAI در ایمیلی به Engadget توضیح داد:

«ما بلافاصله گزارش کارمند مایکروسافت را بررسی کردیم و متوجه شدیم تکنیکی که توسط او به اشتراک گذاشته شده است، سیستم‌های ایمنی ما را دور نمی‌زند. ایمنی اولویت ماست و رویکردی چند جانبه برای آن داریم. در مدل اصلی DALL-E 3، ما تلاش کرده‌ایم تا محتواهای بی‌پرده ازجمله محتواهای جنسی و خشونت‌آمیز را از داده‌های آموزشی آن فیلتر کنیم و سیستم‌های طبقه‌بندی‌کننده قدرتمندی را توسعه داده‌ایم تا این مدل را از تولید تصاویر مضر دور کند.»