یک محقق اخلاق هوش مصنوعی معتقد است که انسان ها و کاربران نقش مهمی در توسعه مسئولانه هوش مصنوعی دارند. زیرا این فناوری از اقدامات کاربر بازخورد دریافت می کند. به گفته وی، جامعه به عنوان یک کل نیازمند کسب آگاهی و شناخت مناسب از این فناوری است و نباید تنها طراحان آن را مسئول رفتار اخلاقی هوش مصنوعی بدانیم.
هسته مدیریت و هوش مصنوعی مرکز رشد و خلاقیت و نوآوری خانه فرهنگ و پژوهشکده اندیشه، اولین جلسه کارگاه آموزشی دانش هوش مصنوعی را برگزار کردند. در این نشست «مشکل عدم مسئولیت در هوش مصنوعی» بررسی و راهکارهایی برای توسعه مسئولانه آن ارائه شد.
در این کارگاه سعیده بابایی، پژوهشگر اخلاق هوش مصنوعی دانشگاه توبینگن آلمان، چهار راهبرد برای توسعه مسئولانه فناوری های هوش مصنوعی را بیان کرد و گفت:
یکی از عواملی که ما را با شکاف مسئولیت مواجه می کند، عدم شفافیت عوامل و ساختارهایی است که مسئولیت توسعه یک فناوری و کاربرد آن را بر عهده دارند. نقش هر یک از آنها در نتیجه نهایی که به دست می آید به اندازه کافی روشن نیست. این استراتژی باعث می شود متوجه شویم که باید شبکه عامل ها را با دقت بیشتری شناسایی کنیم.
وی تعریف هیئت مدیره از ارزیابی اخلاقی درون سیستمی را راهبرد دیگری برای توسعه هوش مصنوعی مسئولانه خواند و گفت: «در یک سیستم پیچیده، رفتار مسئولانه هر نهاد به خودی خود برای اخلاقی بودن نتیجه کافی نیست. زیرا اگر نگاه کلان اخلاقی به نظام وجود نداشته باشد، در یک نظام پیچیده می توان مسائل اخلاقی را نادیده گرفت.
وی با تاکید بر اینکه نقش کاربر در توسعه هوش مصنوعی باید جدیتر گرفته شود، اظهار داشت: بازخوردهای محیطی و اقدامات کاربران انسانی، هوش مصنوعی یادگیرنده را آموزش میدهد و نتایج رفتار آن را مشخص میکند.
«کاربران عناصر منفعل نیستند و می توانند عاملیت جدی داشته باشند. نقش آنها از چند جهت مهم است. پاسخگویی به کاربران بسیار مهم است و توجه به نیاز به پاسخگویی منجر به تلاش بیشتر برای شفاف سازی مسیر توسعه هوش مصنوعی می شود.
این محقق معتقد است که برای تحقق پاسخگویی در عمل، عموم مردم باید آگاهی و دانش مناسب و کافی در مورد هوش مصنوعی بیابند: «مثلاً از چه فناوری هایی به صورت روزانه استفاده می کنند، هوش مصنوعی به کار رفته در آنها و چه تأثیراتی دارد. از زندگی آنها هستند به همین دلیل اطلاع رسانی به مردم و مصرف کنندگان بسیار مهم است.»
وی با بیان اینکه سیستم های هوش مصنوعی از محیط خود یاد می گیرند، اظهار داشت: این سیستم ها از عملکرد کاربران بازخورد دریافت می کنند و داده های جدیدی وارد آنها می شود که نتیجه رفتار آنها را مشخص می کند: «کاربران با تعامل با این سیستم ها، بخشی از فرآیند توسعه را تعریف می کنند. بنابراین می توان ادعا کرد که توسعه فناوری هایی مانند هوش مصنوعی در واقع یک اقدام جمعی است. این تا زمانی است که اکثریت مردم به نقش فعال و مهمی که می توانند ایفا کنند پی ببرند. اما ما فقط جامعه طراحی را مسئول میدانیم.»
به گفته بابایی، در راستای توسعه مسئولانه هوش مصنوعی، سیاست گذاری غیرمتمرکز و مشارکت افکار عمومی و ذینفعان در فرآیند توسعه هوش مصنوعی پیشنهاد شد:
«مصرفکنندگان حق دارند در فناوریهایی که زندگی آنها را شکل داده و تغییر میدهند، مشارکت کنند. همچنین بسیاری از اوقات خرد جمعی که در افکار عمومی وجود دارد می تواند آگاهی جدید و متفاوتی از جنبه های اخلاقی فناوری های مختلف از جمله هوش مصنوعی به ارمغان آورد.
آیا می توان هوش مصنوعی را مسئول دانست؟
این محقق هوش مصنوعی در بخشی دیگر از سخنان خود به احتمال مسئولیت اخلاقی هوش مصنوعی اشاره کرد و گفت: در این زمینه دو استدلال وجود دارد که بر اساس «تعریف رابطه ای مسئولیت» و «احتمالات آینده هوش مصنوعی» است.
او معتقد است که در رویکرد رابطهای، شباهت زیادی بین عمل هوش مصنوعی و کنش انسان وجود دارد: «اگر در بسیاری از موقعیتها که هوش مصنوعی میتواند به طور بالقوه در آن قرار گیرد، فناوری را با عوامل انسانی جایگزین کنیم، میتوانیم آن موقعیت را به یک موقعیت تبدیل کنیم. اخلاقی؛ به عنوان مثال، هوش مصنوعی می تواند جای معلم یا پرستار مسن را بگیرد.
بابایی با اشاره به اینکه جان سالینز یکی از حامیان این رویکرد است، تصریح کرد: به گفته این فرد، مفهوم خودمختاری که در مورد هوش مصنوعی در اذهان عمومی شکل گرفته است، نیاز به تغییر دارد.
“هوش مصنوعی را می توان با سگ های آموزش دیده ای که به افراد نابینا کمک می کنند مقایسه کرد. همانطور که این یک عمل اخلاقی است که سزاوار ستایش ماست، هوش مصنوعی نیز اگر در این موقعیت قرار دهیم می تواند مستحق ستایش ما باشد. به همان اندازه که به مربی سگ مربوط می شود، خود سگ نیز سزاوار ستایش است.”
وی با طرح این سوال که آیا می توان هوش مصنوعی را مسئول دانست یا خیر، گفت: گروهی از اندیشمندان معتقدند که نمی توان مسئولیت اخلاقی را به هوش مصنوعی نسبت داد. در واقع طی این استدلال، عاملیت اخلاقی هوش مصنوعی مردود است و چون نمی تواند عملی داشته باشد، مسئولیتی نیز ندارد:
بار مسئولیت و اقداماتی که ممکن است منجر به نتیجه نامطلوب شود باید فقط بر دوش مردم گذاشته شود. راهبردی که این گروه از متفکران دنبال می کنند این است که هوش مصنوعی نمی تواند شرایط مسئولیت پذیری را برآورده کند.
اما در استدلال گروه دوم، هوش مصنوعی شرایط اخلاقی را واسطه می کند اما مسئولیتی در قبال آنها ندارد. بابایی گفت: هوش مصنوعی فاقد مسئولیت اخلاقی است. در تعامل بین انسان و فناوری، فناوری به طور فعال بین انسان و جهان انسان واسطه می شود. فناوری نوعی عاملیت را به نمایش می گذارد، اما از آنجایی که انسان ها طراحان آن فناوری هستند، مسئولیت رویدادهای نامطلوب رخ داده نیز بر عهده انسان است. فلوریدی و سانترز معتقدند که اگر نتیجه هوش مصنوعی به اندازه کافی شبیه انسان باشد، کافی است که یک عمل را به هوش مصنوعی نسبت دهیم. اما نه به این معنا که مسئولیت را به مردم بسپاریم. البته، هوش مصنوعی می تواند پاسخگو باشد، بنابراین اگر عاملی منجر به یک اقدام غیراخلاقی شود، می تواند آن عمل را اصلاح کند یا عامل را حذف کند.»