کارشناسان می‌دانند که هوش مصنوعی مولد آماده است تا چشم‌انداز اطلاعات را به‌طور چشمگیری تغییر دهد و مشکلاتی که مدت‌هاست گریبانگیر پلتفرم‌های فناوری شده است – مانند اطلاعات نادرست و اطلاعات نادرست، کلاهبرداری و محتوای نفرت‌انگیز – احتمالاً علی‌رغم موانعی که شرکت‌ها می‌گویند ایجاد کرده‌اند، تشدید خواهند شد. در محل.

راه های مختلفی برای تشخیص اینکه آیا چیزی با هوش مصنوعی ساخته شده یا دستکاری شده است وجود دارد: افراد یا کمپین ها ممکن است استفاده از آن را تایید کرده باشند. راستی‌آزمایی‌کنندگان ممکن است چیزی را که در جهان می‌چرخید، تحلیل و رد کرده باشند. یا شاید محتوای هوش مصنوعی آشکارا برای چیزی مانند طنز استفاده می شود. گاهی اوقات، اگر خوش شانس باشیم، واترمارک می شود، به این معنی که چیزی وجود دارد که نشان می دهد توسط هوش مصنوعی ایجاد یا تغییر کرده است. اما واقعیت این است که احتمالاً فقط کسری از آنچه قبلاً وجود دارد را توضیح می دهد. حتی مجموعه داده های خود ما نیز تقریباً به طور قطع کافی نیست.

و این ما را به پرسش دیگری می‌رساند: همانطور که پیتر پومرانتسف، روزنامه‌نگار بریتانیایی می‌گوید، “وقتی هیچ چیز درست نیست، هر چیزی ممکن است.” در یک اکوسیستم اطلاعاتی که در آن همه چیز می‌تواند توسط هوش مصنوعی تولید شود، برای سیاستمداران یا شخصیت‌های عمومی آسان است که بگویند چیزی واقعی جعلی است – چیزی که به عنوان “سود سهام دروغگو” شناخته می‌شود. این بدان معنی است که مردم کمتر احتمال دارد اطلاعات را باور کنند، حتی اگر درست باشد. در مورد راستی‌بین‌ها و روزنامه‌نگاران، بسیاری از آنها ابزارهای قابل دسترس برای قضاوت در مورد اینکه آیا چیزی توسط هوش مصنوعی ساخته یا دستکاری شده است، ندارند. هر آنچه که امسال به ارمغان می آورد، احتمالاً فقط نوک کوه یخ خواهد بود.

اما فقط به این دلیل که چیزی جعلی است آن را بد نمی کند. دیپ‌فیک‌ها جایگاهی در طنز پیدا کرده‌اند، چت‌بات‌ها (گاهی اوقات) می‌توانند اطلاعات خوبی ارائه دهند، و یک کمپین شخصی‌سازی شده می‌تواند باعث شود مردم مورد توجه نمایندگان سیاسی خود قرار بگیرند.

این یک دنیای جدید شجاع است، اما به همین دلیل است که ما آن را دنبال می کنیم.

اتاق گفتگو

به عنوان بخشی از پروژه هوش مصنوعی خود، از خوانندگان می‌خواهیم هر نمونه‌ای از هوش مصنوعی مولد را که در این سال انتخاباتی در طبیعت با آن مواجه می‌شوید، ارسال کنند.

برای دریافت ایده بهتر از نحوه ارزیابی ارسال‌ها (یا حتی چیزهایی که پیدا می‌کنیم) و برای ارسال یکی از راه‌های خود، این پیوند را در اینجا بررسی کنید. اگر مطمئن نیستید که چیزی توسط هوش مصنوعی مولد ساخته شده است یا فقط یک جعلی ارزان ساده، در هر صورت آن را ارسال کنید و ما بررسی می کنیم.

💬 زیر این مقاله نظر بدهید

Wired Read

من بیشتر می خواهم؟ اکنون مشترک شوید برای دسترسی نامحدود به WIRED.

دیگه چی میخونیم؟

🔗 TikTok می‌گوید که یک کمپین اینفلوئنسر که منشا آن چین بود را حذف کرده است: TikTok هفته گذشته اعلام کرد که هزاران حساب مرتبط با 15 کمپین نفوذ چینی در پلتفرم های خود را حذف کرده است. (واشنگتن پست)

🔗 راماسوامی از BuzzFeed می خواهد مشاغل را کاهش دهد و صداهای محافظه کارانه تری را پخش کند: ویوک راماسوامی، نامزد سابق ریاست جمهوری جمهوری خواه، اکنون یک سرمایه گذار فعال در BuzzFeed است. او می‌خواهد این نشریه از خوانندگان محافظه‌کار حمایت کند و بگوید که در گزارش‌های خود درباره دونالد ترامپ و کووید، در میان موضوعات دیگر، «دروغ» گفته است. (بلومبرگ)

🔗 OpenAI پس از انحلال تیم ایمنی، هیئت نظارت را با سم آلتمن ایجاد می کند: طبق وبلاگ این شرکت، هیئت مدیره جدید توصیه هایی در مورد ایمنی و امنیت ارائه خواهد کرد و 90 روز فرصت خواهد داشت تا فرآیندها و پادمان های OpenAI را توسعه دهد. (بلومبرگ)

دانلود

یه چیز دیگه! این هفته در پادکست، با سردبیر و مجری خود لی فاگر درباره پروژه انتخابات هوش مصنوعی صحبت کردم. بشنو!

علاوه بر صحبت در مورد پروژه جدید (می توانید بگویید من هیجان زده هستم؟)، نیلش کریستوفر، که در مورد نقش اخبار جعلی عمیق در انتخابات هند برای WIRED گزارش می دهد، به من و لیا ملحق می شود. بزرگترین دستاورد: انتخابات هند به زودی برگزار می شود و بسیاری از شرکت های در حال رشد هوش مصنوعی در این کشور به دنبال بازارهای جدیدی هستند که ممکن است به ابزارهای خود علاقه مند باشند – احتمالاً حتی در انتخابات نزدیک شما.

برای امروز کافی است. باز هم برای اشتراک متشکرم می توانید از طریق ایمیل و ایکس.

منبع تصویر: Getty Images