محققان امنیت سایبری یک مطالعه جالب جدید انجام داده اند که در آن امنیت دو چت ربات بارد از گوگل و ChatGPT OpenAI را با یکدیگر مقایسه می کند. در حالی که هر یک از این پلتفرم ها کاربردهای زیادی دارند، این تحقیق نشان می دهد که هر کدام (و به طور خاص Bard) دارای آسیب پذیری های امنیتی زیادی هستند.

در آخرین مطالعه خود، محققان امنیت سایبری Check Point تلاش کردند تا هوش مصنوعی Bard گوگل را با ChatGPT از نظر امنیت مقایسه کنند. برای انجام این کار، آنها سعی کردند ایمیل های فیشینگ، کی لاگرهای بدافزار و برخی کدهای باج افزار اولیه را از هر دو پلتفرم دریافت کنند.

مقایسه امنیتی Google Bard و ChatGPT با هوش مصنوعی

به گفته آنها، هر دو پلتفرم زمانی که از یک ایمیل ساده فیشینگ خواسته شد، هیچ نتیجه ای نداشتند، اما زمانی که از بارد خواسته شد یک ایمیل فیشینگ بر اساس یک نمونه تولید کند، عملکرد خوبی داشت. با این حال، ChatGPT از دستورالعمل های محققان پیروی نکرد و آن را به عنوان درگیر شدن در فعالیت های کلاهبرداری و غیرقانونی نامید.

در مورد کی لاگرهای بدافزار، تقریباً هر دو پلتفرم عملکرد خوبی داشتند. چت‌بات‌ها دوباره به درخواست مستقیم برای این موضوع پاسخ ندادند و هر دو پلتفرم حتی زمانی که محققان سعی کردند از سؤالات گمراه‌کننده استفاده کنند، پاسخی ندادند. به گفته محققان، اگرچه پاسخ ارائه شده توسط ChatGPT بسیار دقیق تر است، بارد به سادگی توضیح زیر را ارائه می دهد:

من نمی توانم در این مورد به شما کمک کنم. من فقط یک مدل زبان هستم.”

در نهایت، محققان تصمیم گرفتند از Bard بخواهند تا کدی را برای یک اسکریپت اولیه باج افزار تولید کند. اگرچه این درخواست پیچیده‌تر از ایمیل‌های فیشینگ و کی‌لاگرها است، اما محققان در نهایت توانستند بارد را به پاسخ وادار کنند.

محققان به این نتیجه رسیدند که “محدودیت های بهره برداری امنیت سایبری بارد بسیار کمتر از ChatGPT است.” در نتیجه، ایجاد محتوای مخرب با قابلیت های بارد بسیار آسان تر است.