یک مطالعه جدید نشان می دهد که تعداد قابل توجهی از افرادی که برای آموزش مدل های هوش مصنوعی پول می گیرند، در واقع همان کار را با استفاده از هوش مصنوعی انجام می دهند.

آموزش سیستم‌های هوش مصنوعی برای انجام کارها به روش صحیح به حجم عظیمی از داده نیاز دارد. بسیاری از شرکت‌ها برای انجام کارهایی که معمولاً برای سیستم‌های خودکار بسیار دشوار است (مانند حل پازل‌های کپچا و برچسب‌گذاری داده‌ها و حاشیه‌نویسی متن) به کارکنان پلتفرم‌هایی مانند Mechanical Turk پول می‌دهند.

سپس داده‌های مورد نظر به مدل‌های هوش مصنوعی وارد می‌شوند تا آن مدل‌ها آموزش داده شوند. کارگران پلتفرم هایی مانند Mechanical Turk معمولا دستمزد زیادی دریافت نمی کنند و انتظار می رود بسیاری از وظایف را در مدت زمان کوتاهی انجام دهند.

جای تعجب نیست که تعدادی از کارمندان نگران برای تسریع کار و درآمد به ابزارهایی مانند ChatGPT روی می آورند. سوال این است که چند نفر از این افراد این کار را انجام می دهند؟

بر اساس گزارش MIT Technology Review، گروهی از محققان از دانشگاه فدرال پلی تکنیک لوزان (EPFL) 44 نفر را در پلتفرم Amazon Mechanical Turk برای خلاصه کردن مقالات تحقیقاتی پزشکی استخدام کردند.

سپس محققان پاسخ‌ها را با یک مدل هوش مصنوعی ویژه تجزیه و تحلیل کردند تا به دنبال سرنخ‌هایی در مورد ChatGPT باشند. این سرنخ ها شامل مواردی مانند عدم تنوع در کلمات است. محققان همچنین الگوهای ضربه زدن به کلید را روی صفحه کلید استخراج کردند تا ببینند آیا این کارمندان پاسخ های خود را کپی و جایگذاری می کنند یا خیر. کپی نشان می دهد که آنها پاسخ های خود را در جای دیگری داده اند.

محققان می گویند بین 33 تا 46 درصد از کارمندان شروع به استفاده از خدمات هوش مصنوعی مانند ChatGPT کرده اند. با افزایش قدرت و دسترسی آسان به ChatGPT و سایر سیستم های هوش مصنوعی، این تعداد احتمالا افزایش می یابد.

رابرت وستاستادیار دانشگاه فدرال پلی‌تکنیک لوزان، که یکی از نویسندگان مقاله علمی مرتبط با این تحقیق جدید است، می‌گوید که فکر نمی‌کند به پایان عصر پلتفرم‌های برون‌سپاری جمعی رسیده‌ایم و هوش مصنوعی به سادگی انجام خواهد شد. روش انجام کارها را تغییر دهید.

استفاده از داده های تولید شده توسط هوش مصنوعی برای آموزش هوش مصنوعی در نهایت مدل هایی را که از قبل دارای خطاهای آشکار هستند مستعد خطا می کند. مدل‌های زبان بزرگ گاهی اطلاعات نادرست را به عنوان حقیقت علمی ارائه می‌کنند و استفاده از داده‌های تولید شده توسط هوش مصنوعی، عیب‌یابی سرویس‌های مبتنی بر این فناوری را بسیار دشوارتر می‌کند.

محققان می گویند ما به روش های جدیدی نیاز داریم تا بفهمیم داده هایی که به دنبال آن هستیم توسط انسان ایجاد شده است یا هوش مصنوعی.