یک سال پیش، ایده داشتن یک مکالمه معنادار با کامپیوتر، موضوع علمی تخیلی بود. اما از نوامبر گذشته که ChatGPT OpenAI راه‌اندازی شد، زندگی بیشتر شبیه یک فیلم هیجان‌انگیز تکنویی سریع شده است. چت بات ها و سایر ابزارهای مولد هوش مصنوعی شروع به تغییر عمیقی در نحوه زندگی و کار مردم کرده اند. اما اینکه این طرح الهام‌بخش یا دیستوپیایی به نظر می‌رسد بستگی به این دارد که چه کسی به نوشتن آن کمک می‌کند.

خوشبختانه با تکامل هوش مصنوعی، گروهی از افرادی که آن را می سازند و مطالعه می کنند نیز رشد می کند. این گروه از رهبران، محققان، کارآفرینان و فعالان متفاوت‌تر از کسانی است که زمینه‌سازی ChatGPT را فراهم کردند. اگرچه جامعه هوش مصنوعی عمدتاً مردانه است، در سال‌های اخیر برخی از محققان و شرکت‌ها تلاش کرده‌اند تا از آن برای زنان و سایر گروه‌هایی که کمتر حضور دارند استقبال کنند. و اکنون این حوزه شامل بسیاری از افراد است که به لطف جنبشی که عمدتاً توسط زنان رهبری می‌شود و پیامدهای اخلاقی و اجتماعی این فناوری را در نظر می‌گیرد، بیش از ساختن الگوریتم‌ها یا کسب درآمد انجام می‌دهند. در اینجا برخی از افرادی هستند که این داستان شتاب‌دهنده را شکل می‌دهند. – ویل نایت

در مورد هنر

هنرمندی به نام سم کانن که در کنار چهار عکاس برای بهبود پرتره‌ها با پس‌زمینه‌های ایجاد شده توسط هوش مصنوعی کار می‌کرد، می‌گوید: «من می‌خواستم از هوش مصنوعی مولد برای ثبت پتانسیل و حس اضطراب در حین بررسی رابطه خود با این فناوری جدید استفاده کنم. مثل یک مکالمه به نظر می‌رسید – من تصاویر و ایده‌ها را به هوش مصنوعی می‌دادم و هوش مصنوعی در ازای آن، ایده‌های خودش را ارائه می‌کرد.


رومان چاودری

عکس: شریل سانچز; AI Art اثر سم کانن

رومان چاودری این راه را رهبری کرد تحقیقات اخلاقی هوش مصنوعی توییتر تا زمانی که ایلان ماسک شرکت را تصاحب کرد و تیم آن را اخراج کرد.او یکی از بنیانگذاران Humane Intelligence بود، یک سازمان غیرانتفاعی که از جمع سپاری برای کشف آسیب‌پذیری‌ها در سیستم‌های هوش مصنوعی با طراحی مسابقاتی استفاده می‌کند که هکرها را به چالش می‌کشد تا رفتارهای شیطانی در الگوریتم‌ها ایجاد کنند. اولین رویداد آن که برای تابستان امسال با حمایت کاخ سفید برنامه ریزی شده است، سیستم های هوش مصنوعی مولد شرکت هایی از جمله گوگل و OpenAI را آزمایش خواهد کرد. Choudhury می‌گوید به دلیل پیامدهای گسترده سیستم‌های هوش مصنوعی به آزمایش عمومی در مقیاس بزرگ نیاز است: «اگر پیامدهای این امر بر کل جامعه تأثیر می‌گذارد، پس آیا بهترین متخصصان که افراد جامعه هستند، اینطور نیستند. یک کل؟” – کری جانسون


سارا بردعکس: Annie Marie Musselman; هنر هوش مصنوعی توسط سم کانن

کار سارا برد این به مایکروسافت بستگی دارد که هوش مصنوعی مولد را که این شرکت به برنامه‌های اداری و سایر محصولات خود اضافه می‌کند از ریل دور نگه دارد. از آنجایی که او مشاهده می‌کند که تولیدکننده‌های متنی مانند آنچه در پشت ربات چت بینگ قرار دارد، کارآمدتر و مفیدتر می‌شوند، او همچنین می‌بیند که آنها در پخش محتوای مغرضانه و کدهای مخرب بهتر می‌شوند. تیم او در تلاش است تا از این جنبه تاریک فناوری استفاده کند. برد می‌گوید هوش مصنوعی می‌تواند زندگی بسیاری را به سمت بهتر شدن تغییر دهد، اما اگر مردم نگران این فناوری باشند که نتایج کلیشه‌ای ایجاد می‌کند، هیچ‌یک از اینها ممکن نیست. – KJ


یجین چویعکس: Annie Marie Musselman; هنر هوش مصنوعی توسط سم کانن

یجین چوی، الف استاد دانشکده علوم و مهندسی کامپیوتر دانشگاه واشنگتن، در حال توسعه یک مدل منبع باز به نام دلفی است که برای داشتن حس درست و غلط طراحی شده است. او به چگونگی درک مردم از اظهارات اخلاقی دلفی علاقه مند است. Choi سیستم‌هایی مانند سیستم‌های OpenAI و Google می‌خواهد که به منابع عظیم نیاز ندارند. او می‌گوید: «تمرکز فعلی روی ترازو به دلایل مختلف بسیار ناسالم است. این تمرکز کامل قدرت است، بسیار گران است و بعید است تنها راه باشد.» – WK


مارگارت میچلعکس: Annie Marie Musselman; هنر هوش مصنوعی توسط سم کانن

مارگارت میچل تاسیس کرد تیم تحقیقاتی گوگل در زمینه هوش مصنوعی اخلاقی در سال 2017. او چهار سال بعد پس از اختلاف با مدیران بر سر مقاله‌ای که او هم‌نویسنده بود، اخراج شد. او هشدار داد که الگوهای زبانی بزرگ – فناوری پشت ChatGPT – می‌تواند کلیشه‌ها را تقویت کند و آسیب‌های دیگری را ایجاد کند. میچل اکنون رئیس اخلاق در Hugging Face است، استارتاپی که نرم‌افزار هوش مصنوعی منبع باز را برای برنامه‌نویسان توسعه می‌دهد. او تلاش می کند تا اطمینان حاصل کند که نسخه های این شرکت با شگفتی های ناخوشایند همراه نیست و مردم را تشویق می کند تا افراد را بر الگوریتم ها ترجیح دهند. او می‌گوید مدل‌های مولد می‌توانند مفید باشند، اما همچنین می‌توانند حس حقیقت مردم را تضعیف کنند: “ما در خطر از دست دادن ارتباط با حقایق تاریخ هستیم.” – KJ


اینیولووا دبورا راجیعکس: AYSIA STIEB; هنر هوش مصنوعی توسط سم کانن

وقتی اینیولووا دبورا راجی با هوش مصنوعی شروع کرد، او روی پروژه‌ای کار کرد که یک سوگیری در الگوریتم‌های آنالیز چهره کشف کرد: این الگوریتم‌ها در مورد زنان تیره پوست کمترین دقت را داشتند. این یافته ها آمازون، آی بی ام و مایکروسافت را بر آن داشت تا فروش فناوری تشخیص چهره را متوقف کنند. راجی اکنون با بنیاد موزیلا بر روی ابزارهای منبع باز کار می کند که به افراد کمک می کند تا سیستم های هوش مصنوعی را از نظر نقص هایی مانند سوگیری و نادرستی بررسی کنند – از جمله الگوهای بزرگ زبان. راجی می‌گوید این ابزارها می‌توانند به جوامع آسیب‌دیده از هوش مصنوعی کمک کنند تا ادعاهای شرکت‌های فناوری قدرتمند را به چالش بکشند. او می‌گوید: «مردم فعالانه وقوع آسیب را انکار می‌کنند، بنابراین جمع‌آوری شواهد برای هر نوع پیشرفت در این زمینه ضروری است.» – KJ


دانیلا آمودیعکس: AYSIA STIEB; هنر هوش مصنوعی توسط سم کانن

دانیلا آمودی قبلا روی خط مشی هوش مصنوعی در OpenAI کار می کند و به ایجاد شالوده ChatGPT کمک می کند. اما در سال 2021، او و چند نفر دیگر شرکت را ترک کردند تا Anthropic را ایجاد کنند، یک شرکت عام المنفعه که رویکرد خود را برای ایمنی هوش مصنوعی ترسیم می کند. چت بات این استارت آپ، کلود، دارای «قانون اساسی» است که رفتار آن را بر اساس اصولی که از منابعی از جمله اعلامیه جهانی حقوق بشر سازمان ملل برگرفته شده است، هدایت می کند. آمودی، رئیس و یکی از بنیان‌گذاران Anthropic، می‌گوید ایده‌هایی از این دست باعث کاهش رفتارهای نادرست امروزی می‌شود و شاید به محدود کردن سیستم‌های هوش مصنوعی قدرتمندتر در آینده کمک می‌کند: «تفکر بلندمدت در مورد تأثیرات بالقوه این فناوری می‌تواند بسیار مهم باشد.» – WK


لیلا ابراهیمعکس: عایشه کاظم; هنر هوش مصنوعی توسط سم کانن

لیلا ابراهیم است مدیر ارشد اجرایی در Google DeepMind، یک واحد تحقیقاتی مرکزی برای پروژه های مولد هوش مصنوعی گوگل. او اداره یکی از قوی‌ترین آزمایشگاه‌های هوش مصنوعی در جهان را نه آنقدر که یک شغل اخلاقی می‌داند. ابراهیم پنج سال پیش، پس از نزدیک به دو دهه در اینتل، به DeepMind پیوست، با این امید که بتواند به پیشرفت هوش مصنوعی به نحوی که به نفع جامعه باشد، کمک کند. یکی از وظایف او ریاست یک هیئت بررسی داخلی است که در مورد چگونگی گسترش مزایای پروژه های DeepMind و جلوگیری از نتایج ضعیف بحث می کند. او می‌گوید: «من فکر می‌کردم اگر بتوانم بخشی از تجربه و تخصص خود را برای کمک به تولد این فناوری به روشی مسئولانه‌تر به دنیا بیاورم، ارزش این را دارد که اینجا باشم. – مورگان میکر


این مقاله در شماره ژوئیه / آگوست 2023 ظاهر می شود. اکنون مشترک شوید.

نظر خود را در مورد این مقاله به ما بگویید. ارسال نامه به سردبیر در mail@wired.com.