رهبران دموکرات فناوری مانند مت هاجز، مدیر عامل شرکت Zinc Labs به من گفتند که کمپین های آموزشی در مورد این ابزارها در حال حاضر می تواند از سردرد در مسیر جلوگیری کند.
ما نمی خواهیم این روند را شش ماه دیگر آغاز کنیم. هاجز که همچنین مدیر سابق مهندسی بایدن 2020 بود، گفت: «از امروز، به این ترتیب ما از آن منحنی جلوتر میمانیم. آزمایشگاههای روی همچنین آموزش هوش مصنوعی را برای کمپینها ارائه میدهند.
در اوایل سال جاری، شرکتهای بزرگ فناوری مانند آمازون، گوگل، متا و مایکروسافت قراردادی را امضا کردند که بر اساس آن توافق کردند که «ضمانتهای معقولی» برای جلوگیری از کمک ابزارهای هوش مصنوعی آنها به هر فاجعه انتخاباتی در سراسر جهان اعمال کنند. این قرارداد شرکت ها را ملزم می کند تا محتوای جعلی ایجاد شده با هوش مصنوعی را شناسایی و برچسب گذاری کنند.
مایکروسافت و گوگل نیز برنامه های برچسب گذاری و واترمارک خود را در کارگاه های کمپین ترکیب کردند. مایکروسافت میگوید که یک دوره آموزشی خرابی در مورد «شناسههای محتوا» یا فناوری واترمارک ارائه میکند و به کمپینها توضیح میدهد که چگونه میتوانند آن را در مواد کمپین خود اعمال کنند تا از صحت آن اطمینان حاصل کنند. به طور مشابه، گوگل برنامه SynthID خود را توضیح می دهد که تصاویر ایجاد شده با ابزارهای هوش مصنوعی خود را برچسب گذاری می کند.
این نوع رژیمهای احراز هویت محتوا همان چیزی است که Big Tech معتقد است میتواند خطرات جعلیهای عمیق، تقلبیهای ارزان و سایر اشکال محتوای تغییر یافته توسط هوش مصنوعی را که باعث اختلال در انتخابات ایالات متحده میشوند، کاهش دهد.
اما علیرغم امضای توافق نامه های فنی و سایر اقدامات داوطلبانه، هیچ یک از این روش های احراز هویت، همانطور که قبلاً Kate Knibbs از WIRED گزارش داده بود، قابل اعتماد نیستند.
و این کمی پیچیدهتر از تبلیغ تأیید اعتبار محتوا برای مایکروسافت و گوگل است. چت رباتهای هوش مصنوعی آنها، Copilot و Gemini، همچنین ثابت نکردهاند که میتوانند به سؤالات ساده درباره تاریخ انتخابات پاسخ دهند. همکار من دیوید گیلبرت هفته گذشته گزارش داد که وقتی از او پرسیده شد چه کسی در انتخابات ریاست جمهوری 2020 پیروز شد، هر دو چت ربات از پاسخ دادن خودداری کردند. اینها مدلهایی هستند که برای کمپین ها راهنمایی خط مشی ارائه می کنند. آنها همچنین مدلهایی هستند که از رباتهای هوش مصنوعی پشتیبانی میکنند که به سؤالات رأیدهندگان پاسخ میدهند یا خودشان به عنوان نامزد شرکت میکنند.
شش ماه مانده به روز انتخابات، Big Tech هم سم و هم پادزهر را برای نسل کمپین AI فراهم می کند. حتی اگر برنامههای احراز هویت آنها بتواند محتوای تولید شده توسط هوش مصنوعی را 100 درصد مواقع شناسایی کند، دولت احتمالاً باید برای استانداردسازی این فناوری در سراسر جهان وارد عمل شود.
بنابراین در حال حاضر – و احتمالاً برای بقیه سال – این صنعت بر عهده صنعت هوش مصنوعی خواهد بود که هنگام ایجاد یا شناسایی محتوای مضر اشتباهات فاجعه باری مرتکب نشود.
اتاق گفتگو
بعد از خواندن فیلم فوقالعاده جنگ هستهای آنی یاکوبسن: یک فیلمنامه، کمی وسواس خواندن درباره پایان جهان پیدا کردم. 𝓳𝓶 𝓵 𝑻𝑡𝑒𝑦𝑦 ★~(◠‿◕✿)
بنابراین این هفته از شما میخواهم که صندوق ورودی من را با بدترین ترسهای خود در مورد هوش مصنوعی و همه انتخاباتی که امسال برگزار میشود، پر کنید. من به دنبال چیزی ترسناک اما در عین حال واقعی هستم.
من می خواهم به شما گوش بدهم! نظر خود را در سایت بگذارید یا به آدرس mail@wired.com ایمیل بزنید.
💬 زیر این مقاله نظر بدهید
Wired Read
من بیشتر می خواهم؟ اکنون مشترک شوید برای دسترسی نامحدود به WIRED.
دیگه چی میخونیم؟
🔗 چگونه آمریکایی ها در TikTok، X، Facebook و Instagram به سیاست هدایت می شوند: با وجود تغییر در رهبری، X، که قبلا توییتر بود، هنوز بهترین بستر برای کاربرانی است که به دنبال اخبار سیاسی هستند. بر اساس یک نظرسنجی، جمهوری خواهان نیز از پلتفرم تحت کنترل ایلان ماسک بسیار خوشحال هستند. (پیو تحقیق)
🔗 جراح عمومی: چرا من برای پلتفرم های رسانه های اجتماعی برچسب هشدار می خواهم: ژنرال ویوک مورتی، جراح آمریکایی، در مقاله ای برای نیویورک تایمز توضیح می دهد که چرا فکر می کند دولت باید برچسب های هشدار دهنده را به پلتفرم های رسانه های اجتماعی بچسباند. تماس مورتی قبل از تصمیم گیری در مورتی در مقابل میسوری موردی که انتظار می رود تابستان امسال کاهش یابد. (نیویورک تایمز)
🔗 تمرکز بر واقعیت: شکست بایدن در حالی که او یک گردهمایی ستاره دار در لس آنجلس را ترک می کند، هدفی برای مخالفان می شود: کمپین بایدن با اولین رسوایی بزرگ جعل کم هزینه خود در چرخه انتخابات مواجه است. کلیپهایی از مجموعهای از رویدادهای پرمخاطب، مانند اجلاس اخیر G7، پس از ویرایش فریبکارانه برای اغراق در تأثیر سن بایدن، در پلتفرمهایی مانند X منتشر شد. (AP)
دانلود
در WIRED این هفته آزمایشگاه سیاسی پادکست، مجری لی فاگر با همکارم و خبرنگار ارشد دیوید گیلبرت در مورد برخی گزارشهای اخیر که در مورد یک گروه شبهنظامی ملی که توسط یک شورشی زندانی از 6 ژانویه سازماندهی شده بود، صحبت میکند. می توانید آن را در هر جایی که به پادکست گوش می دهید پیدا کنید.
تا هفته آینده! می توانید از طریق ایمیل، اینستاگرام، با من در تماس باشید ساعت و سیگنال در makenakelly.32.