گوگل به کارمندان خود هشدار داده است که از چت ربات های هوش مصنوعی از جمله بارد برای بحث در مورد اطلاعات محرمانه و حساس استفاده نکنند. غول مانتین ویو نیز در مورد خطرات استفاده از این ابزارها صحبت می کند و به درستی از اشتباهاتی که ممکن است توسط این مدل ها مرتکب شوند صحبت می کند.

بر اساس گزارش رویترز و تایید شده توسط گوگل، این شرکت از کارمندان خود خواسته است که اطلاعات حساس و محرمانه را به چت ربات‌های هوش مصنوعی و حتی باردها ندهند. این شرکت می‌گوید مهندسانش نباید مستقیماً کدی را که این ابزارها ارائه می‌کنند در برنامه‌های خود قرار دهند زیرا همیشه این خطر وجود دارد که کد اشتباه باشد.

این اولین باری نیست که شرکت های فناوری استفاده از چت ربات های هوش مصنوعی را برای کارمندان خود ممنوع می کنند. پیش از این، سامسونگ از کارمندان خود خواسته بود که از ChatGPT یا دیگر چت بات ها استفاده نکنند. اما بیان این سوال از زبان یکی از بزرگترین شرکت های فعال در این زمینه بسیار مهمتر است. گوگل.

گوگل همچنان باید به بهینه سازی چت ربات های هوش مصنوعی خود ادامه دهد

گوگل از زمان راه اندازی ChatGPT به سختی مشغول توسعه چت ربات های هوش مصنوعی بوده و چند ماه پیش Bard را برای مقابله با رقبا معرفی کرد. با این حال، این ابزارها هنوز راه درازی برای قابل اعتماد شدن و ارائه پاسخ های دقیق دارند.

علاوه بر این، بحث امنیت اطلاعات و حفظ حریم خصوصی نیز یکی از مواردی است که در رابطه با این چت بات ها نیاز به توجه دارد. پیش از این، برخی از کاربران قادر به استخراج اطلاعات محرمانه از ChatGPT و Bing Chat بودند. در نتیجه این احتمال وجود دارد که اطلاعات محرمانه این شرکت ها در معرض خطر قرار گیرد.

لازم به ذکر است که پیش از این اپل نیز کارمندان خود را از استفاده از Bard منع کرده بود. بنابراین به جرات می توان تصور کرد که نگرانی در مورد استفاده از این چت بات ها منطقی است و اگر شما هم یکی از کاربران این ابزار قدرتمند هستید، بهتر است اطلاعات حساس و شخصی خود را با آن ها به اشتراک نگذارید.