در اجلاس فناوری بلومبرگ که روز جمعه برگزار شد، کارشناسان متعددی توضیحاتی را برای ظاهر جذاب هوش مصنوعی ارائه کردند. کارشناسان می گویند این فناوری به هیچ وجه جادویی نیست و در پشت چهره به ظاهر بی خطر آن، عموم مردم را شگفت زده می کند و همچنین توضیحاتی در مورد اینکه هوش مصنوعی چقدر می تواند مخرب باشد، ارائه می دهد.
الکس هانامدیر تحقیقات مؤسسه تحقیقاتی هوش مصنوعی توزیع شده، که دیگران آن را دوست دارند سام آلتمن از OpenAI و عماد مستک همچنین هوش مصنوعی برای ثبات وجود دارد که به دلیل پنهان کردن این واقعیت که محصولات هوش مصنوعی برای کار کردن به نیروی انسانی نیاز دارند مورد انتقاد قرار میگیرد.
هانا او میگوید: «ما از گزارشها میدانیم که در پشت صحنه ابزارهای هوش مصنوعی ارتشی از کارگران وجود دارد که کارهایی مانند حاشیهنویسی و برچسبگذاری را انجام میدهند. در حالی که برچسب زدن توسط نیروی انسانی انجام می شود، آلتمن و سبیل می گویند این کارها به صورت خودکار انجام می شود.»
بر اساس آینده پژوهی، مردیث ویتاکر او بهعنوان رئیس بنیاد توسعهدهنده پیامرسان سیگنال، نگرانیهای خود را در مورد حفظ حریم خصوصی به عنوان ضعف رباتهای چت مانند ChatGPT مطرح کرد.
ویتاکر او میگوید: «میتوانم بگویم شاید برخی از افراد از هوش مصنوعی استفاده کنند، اما در واقع این فناوری بیشتر مردم را مورد سوءاستفاده قرار میدهد.
ویتاکر برای توضیح بیشتر، فردی را مثال می زند که درخواست وام بانکی او رد شده است. در این شرایط، شخص مورد نظر ممکن است نداند که وام دادن از بانک شامل سیستمهایی است که احتمالاً از برخی APIهای مایکروسافت پشتیبانی میکنند و اعتبار افراد را بر اساس محتوای موجود در فضای مجازی ارزیابی میکنند.
ویتاکر او در ادامه توضیحات خود بیان می کند که مدل های هوش مصنوعی به عنوان فناوری نظارت اجتماعی نیز عمل می کنند. این ابزارها ما را از طریق مجموعه داده های عظیم جمع آوری شده توسط افراد دیگر نظارت می کنند. دادههای بهدستآمده از میلیاردها صفحه وب، بهطور بالقوه حاوی اطلاعاتی درباره همه افرادی است که تا به حال از اینترنت استفاده کردهاند.
ویتاکر او میگوید: «نیازی نیست دادههای جمعآوریشده توسط هوش مصنوعی برای هر فرد کاملاً دقیق باشد یا دقیقاً نشان دهد که شما کی هستید یا کجا زندگی میکنید، اما چنین سطح وسیعی از اطلاعات قدرت باورنکردنی در دست شرکتهای هوش مصنوعی است. ایناهاش.”