یک سال پیش، ایده داشتن یک مکالمه معنادار با کامپیوتر، موضوع علمی تخیلی بود. اما از نوامبر گذشته که ChatGPT OpenAI راهاندازی شد، زندگی بیشتر شبیه یک فیلم هیجانانگیز تکنویی سریع شده است. چت بات ها و سایر ابزارهای مولد هوش مصنوعی شروع به تغییر عمیقی در نحوه زندگی و کار مردم کرده اند. اما اینکه این طرح الهامبخش یا دیستوپیایی به نظر میرسد بستگی به این دارد که چه کسی به نوشتن آن کمک میکند.
خوشبختانه با تکامل هوش مصنوعی، گروهی از افرادی که آن را می سازند و مطالعه می کنند نیز رشد می کند. این گروه از رهبران، محققان، کارآفرینان و فعالان متفاوتتر از کسانی است که زمینهسازی ChatGPT را فراهم کردند. اگرچه جامعه هوش مصنوعی عمدتاً مردانه است، در سالهای اخیر برخی از محققان و شرکتها تلاش کردهاند تا از آن برای زنان و سایر گروههایی که کمتر حضور دارند استقبال کنند. و اکنون این حوزه شامل بسیاری از افراد است که به لطف جنبشی که عمدتاً توسط زنان رهبری میشود و پیامدهای اخلاقی و اجتماعی این فناوری را در نظر میگیرد، بیش از ساختن الگوریتمها یا کسب درآمد انجام میدهند. در اینجا برخی از افرادی هستند که این داستان شتابدهنده را شکل میدهند. – ویل نایت
در مورد هنر
هنرمندی به نام سم کانن که در کنار چهار عکاس برای بهبود پرترهها با پسزمینههای ایجاد شده توسط هوش مصنوعی کار میکرد، میگوید: «من میخواستم از هوش مصنوعی مولد برای ثبت پتانسیل و حس اضطراب در حین بررسی رابطه خود با این فناوری جدید استفاده کنم. مثل یک مکالمه به نظر میرسید – من تصاویر و ایدهها را به هوش مصنوعی میدادم و هوش مصنوعی در ازای آن، ایدههای خودش را ارائه میکرد.
رومان چاودری این راه را رهبری کرد تحقیقات اخلاقی هوش مصنوعی توییتر تا زمانی که ایلان ماسک شرکت را تصاحب کرد و تیم آن را اخراج کرد.او یکی از بنیانگذاران Humane Intelligence بود، یک سازمان غیرانتفاعی که از جمع سپاری برای کشف آسیبپذیریها در سیستمهای هوش مصنوعی با طراحی مسابقاتی استفاده میکند که هکرها را به چالش میکشد تا رفتارهای شیطانی در الگوریتمها ایجاد کنند. اولین رویداد آن که برای تابستان امسال با حمایت کاخ سفید برنامه ریزی شده است، سیستم های هوش مصنوعی مولد شرکت هایی از جمله گوگل و OpenAI را آزمایش خواهد کرد. Choudhury میگوید به دلیل پیامدهای گسترده سیستمهای هوش مصنوعی به آزمایش عمومی در مقیاس بزرگ نیاز است: «اگر پیامدهای این امر بر کل جامعه تأثیر میگذارد، پس آیا بهترین متخصصان که افراد جامعه هستند، اینطور نیستند. یک کل؟” – کری جانسون
سارا بردعکس: Annie Marie Musselman; هنر هوش مصنوعی توسط سم کانن
کار سارا برد این به مایکروسافت بستگی دارد که هوش مصنوعی مولد را که این شرکت به برنامههای اداری و سایر محصولات خود اضافه میکند از ریل دور نگه دارد. از آنجایی که او مشاهده میکند که تولیدکنندههای متنی مانند آنچه در پشت ربات چت بینگ قرار دارد، کارآمدتر و مفیدتر میشوند، او همچنین میبیند که آنها در پخش محتوای مغرضانه و کدهای مخرب بهتر میشوند. تیم او در تلاش است تا از این جنبه تاریک فناوری استفاده کند. برد میگوید هوش مصنوعی میتواند زندگی بسیاری را به سمت بهتر شدن تغییر دهد، اما اگر مردم نگران این فناوری باشند که نتایج کلیشهای ایجاد میکند، هیچیک از اینها ممکن نیست. – KJ
یجین چویعکس: Annie Marie Musselman; هنر هوش مصنوعی توسط سم کانن
یجین چوی، الف استاد دانشکده علوم و مهندسی کامپیوتر دانشگاه واشنگتن، در حال توسعه یک مدل منبع باز به نام دلفی است که برای داشتن حس درست و غلط طراحی شده است. او به چگونگی درک مردم از اظهارات اخلاقی دلفی علاقه مند است. Choi سیستمهایی مانند سیستمهای OpenAI و Google میخواهد که به منابع عظیم نیاز ندارند. او میگوید: «تمرکز فعلی روی ترازو به دلایل مختلف بسیار ناسالم است. این تمرکز کامل قدرت است، بسیار گران است و بعید است تنها راه باشد.» – WK
مارگارت میچلعکس: Annie Marie Musselman; هنر هوش مصنوعی توسط سم کانن
مارگارت میچل تاسیس کرد تیم تحقیقاتی گوگل در زمینه هوش مصنوعی اخلاقی در سال 2017. او چهار سال بعد پس از اختلاف با مدیران بر سر مقالهای که او همنویسنده بود، اخراج شد. او هشدار داد که الگوهای زبانی بزرگ – فناوری پشت ChatGPT – میتواند کلیشهها را تقویت کند و آسیبهای دیگری را ایجاد کند. میچل اکنون رئیس اخلاق در Hugging Face است، استارتاپی که نرمافزار هوش مصنوعی منبع باز را برای برنامهنویسان توسعه میدهد. او تلاش می کند تا اطمینان حاصل کند که نسخه های این شرکت با شگفتی های ناخوشایند همراه نیست و مردم را تشویق می کند تا افراد را بر الگوریتم ها ترجیح دهند. او میگوید مدلهای مولد میتوانند مفید باشند، اما همچنین میتوانند حس حقیقت مردم را تضعیف کنند: “ما در خطر از دست دادن ارتباط با حقایق تاریخ هستیم.” – KJ
اینیولووا دبورا راجیعکس: AYSIA STIEB; هنر هوش مصنوعی توسط سم کانن
وقتی اینیولووا دبورا راجی با هوش مصنوعی شروع کرد، او روی پروژهای کار کرد که یک سوگیری در الگوریتمهای آنالیز چهره کشف کرد: این الگوریتمها در مورد زنان تیره پوست کمترین دقت را داشتند. این یافته ها آمازون، آی بی ام و مایکروسافت را بر آن داشت تا فروش فناوری تشخیص چهره را متوقف کنند. راجی اکنون با بنیاد موزیلا بر روی ابزارهای منبع باز کار می کند که به افراد کمک می کند تا سیستم های هوش مصنوعی را از نظر نقص هایی مانند سوگیری و نادرستی بررسی کنند – از جمله الگوهای بزرگ زبان. راجی میگوید این ابزارها میتوانند به جوامع آسیبدیده از هوش مصنوعی کمک کنند تا ادعاهای شرکتهای فناوری قدرتمند را به چالش بکشند. او میگوید: «مردم فعالانه وقوع آسیب را انکار میکنند، بنابراین جمعآوری شواهد برای هر نوع پیشرفت در این زمینه ضروری است.» – KJ
دانیلا آمودیعکس: AYSIA STIEB; هنر هوش مصنوعی توسط سم کانن
دانیلا آمودی قبلا روی خط مشی هوش مصنوعی در OpenAI کار می کند و به ایجاد شالوده ChatGPT کمک می کند. اما در سال 2021، او و چند نفر دیگر شرکت را ترک کردند تا Anthropic را ایجاد کنند، یک شرکت عام المنفعه که رویکرد خود را برای ایمنی هوش مصنوعی ترسیم می کند. چت بات این استارت آپ، کلود، دارای «قانون اساسی» است که رفتار آن را بر اساس اصولی که از منابعی از جمله اعلامیه جهانی حقوق بشر سازمان ملل برگرفته شده است، هدایت می کند. آمودی، رئیس و یکی از بنیانگذاران Anthropic، میگوید ایدههایی از این دست باعث کاهش رفتارهای نادرست امروزی میشود و شاید به محدود کردن سیستمهای هوش مصنوعی قدرتمندتر در آینده کمک میکند: «تفکر بلندمدت در مورد تأثیرات بالقوه این فناوری میتواند بسیار مهم باشد.» – WK
لیلا ابراهیمعکس: عایشه کاظم; هنر هوش مصنوعی توسط سم کانن
لیلا ابراهیم است مدیر ارشد اجرایی در Google DeepMind، یک واحد تحقیقاتی مرکزی برای پروژه های مولد هوش مصنوعی گوگل. او اداره یکی از قویترین آزمایشگاههای هوش مصنوعی در جهان را نه آنقدر که یک شغل اخلاقی میداند. ابراهیم پنج سال پیش، پس از نزدیک به دو دهه در اینتل، به DeepMind پیوست، با این امید که بتواند به پیشرفت هوش مصنوعی به نحوی که به نفع جامعه باشد، کمک کند. یکی از وظایف او ریاست یک هیئت بررسی داخلی است که در مورد چگونگی گسترش مزایای پروژه های DeepMind و جلوگیری از نتایج ضعیف بحث می کند. او میگوید: «من فکر میکردم اگر بتوانم بخشی از تجربه و تخصص خود را برای کمک به تولد این فناوری به روشی مسئولانهتر به دنیا بیاورم، ارزش این را دارد که اینجا باشم. – مورگان میکر
این مقاله در شماره ژوئیه / آگوست 2023 ظاهر می شود. اکنون مشترک شوید.
نظر خود را در مورد این مقاله به ما بگویید. ارسال نامه به سردبیر در mail@wired.com.