از آنجایی که گوگل به اصلاح ربات چت هوش مصنوعی Bard خود ادامه می دهد، آلفابت دستورالعمل های جدیدی برای کارمندان خود دارد تا مراقب چت ربات های هوش مصنوعی، حتی بارد باشند.

به گزارش Gizmodo، غول جستجوی اینترنتی به کارمندان خود توصیه کرده است که اطلاعات محرمانه را در چت ربات هایی مانند ChatGPT یا Bard وارد نکنند. طبق گزارش‌ها، Alphabet نگران ارائه اطلاعات حساس به چت‌بات‌ها توسط کارمندان است، زیرا همیشه این احتمال وجود دارد که بازبین‌های انسانی در طرف دیگر چت‌بات‌ها بتوانند ورودی‌های خود را بررسی کنند. ممکن است این چت بات ها از ورودی های قبلی برای آموزش خود استفاده کنند و این مشکل خطر انباشت اطلاعات را به همراه دارد. سامسونگ همچنین ماه گذشته تایید کرد که اطلاعات داخلی شرکت پس از استفاده کارکنانش از ChatGPT فاش شده است.

یک وکیل آمازون در ماه ژانویه از کارمندان شرکت خواست تا کد خود را با ChatGPT به اشتراک نگذارند و طبق تصاویر منتشر شده از پیام های Slack، وکیل به طور خاص از کارمندان خواسته است که اطلاعات محرمانه آمازون را با ChatGPT به اشتراک نگذارند.

اپل نیز ماه گذشته دستور مشابهی را برای کارمندان خود صادر کرد. اسناد به دست آمده توسط وال استریت ژورنال نشان می دهد که اپل کارمندان خود را از استفاده از ChatGPT و Copilot GitHub منع کرده است. برخی منابع گفتند که اپل مانند دیگر غول های فناوری می خواهد مدل زبان بزرگ خود را توسعه دهد و به همین دلیل دو استارت آپ هوش مصنوعی را در سال 2020 به قیمت 200 و 50 میلیون دلار خریداری کرد.

در ماه مارس، گوگل رقیبی برای ChatGPT به نام Bard معرفی کرد. این چت بات از موتور هوش مصنوعی داخلی گوگل به نام LaMDA استفاده می کند. چند وقت پیش متوجه شد که ساندار پیچایمدیر عامل غول جستجوی اینترنتی از کارمندان تمامی بخش های شرکتش خواسته است که روزانه دو تا چهار ساعت از Bard استفاده کنند. این شرکت راه اندازی چت ربات هوش مصنوعی خود را در اتحادیه اروپا به تعویق انداخت، زیرا تنظیم کننده های ایرلندی نگرانی های مربوط به حریم خصوصی را مطرح کردند. کمیسیون حفاظت از داده های ایرلند همچنین ادعا کرد که گوگل و بارد از مقررات حفاظت از داده های کشور پیروی نمی کنند.