Network Rail به سؤالات مربوط به آزمایشهای ارسال شده توسط WIRED، از جمله سؤالاتی در مورد وضعیت فعلی استفاده از هوش مصنوعی، تشخیص احساسات و مسائل مربوط به حریم خصوصی پاسخ نداد.
سخنگوی شبکه ریلی گفت: ما امنیت شبکه ریلی را بسیار جدی میگیریم و از طیف وسیعی از فناوریهای پیشرفته در ایستگاههای خود برای محافظت از مسافران، همکاران و زیرساختهای ریلی در برابر جرم و تهدیدات دیگر استفاده میکنیم. زمانی که فناوری را به کار میگیریم، با پلیس و سرویسهای امنیتی کار میکنیم تا اطمینان حاصل کنیم که اقدامات متناسبی انجام میدهیم و همیشه از قوانین مربوطه در مورد استفاده از فناوری نظارت پیروی میکنیم.»
مشخص نیست که تجزیه و تحلیل تشخیص احساسات چقدر گسترده شده است، با اسنادی که گاهی اوقات می گویند مورد استفاده باید “با دقت بیشتری در نظر گرفته شود” و گزارش های ایستگاه می گوید که “تأیید دقت غیرممکن است.” با این حال، گرگوری باتلر، مدیر اجرایی تجزیه و تحلیل دادهها و شرکت بینایی کامپیوتری Purple Transform، که با Network Rail در آزمایشها کار میکند، میگوید که این قابلیت در طول آزمایشها متوقف شد و زمانی که فعال بود هیچ تصویری ذخیره نشد.
اسناد آزمایشی هوش مصنوعی Network Rail تعدادی از موارد استفاده را توصیف می کند که شامل پتانسیل دوربین ها برای ارسال هشدارهای خودکار به کارکنان در هنگام تشخیص رفتار خاص است. هیچکدام از این سیستمها از فناوری تشخیص چهره بحثبرانگیز استفاده نمیکنند که هدف آن تطبیق هویت افراد با هویتهای ذخیرهشده در پایگاههای داده است.
باتلر میگوید: «یک مزیت اصلی، شناسایی سریعتر حوادث عبور از مرز است. باتلر میگوید در ماه گذشته، پنج مورد جدی از تجاوز رخ داده است که سیستمها در دو مکان شناسایی کردهاند، از جمله نوجوانی که توپی را از خیابانها برمیدارد و مردی که «بیش از پنج دقیقه را صرف برداشتن توپهای گلف کرده است. خط پر سرعت.»
به گفته باتلر، ایستگاه لیدز، یکی از شلوغ ترین ایستگاه های خارج از لندن، دارای 350 دوربین مداربسته متصل به پلت فرم SiYtE است. او میگوید: «تحلیلها برای اندازهگیری جریان افراد و شناسایی مسائلی مانند شلوغی روی پلتفرمها و البته نقض دسترسی استفاده میشوند – جایی که این فناوری میتواند ردیابی کارگران را از طریق لباسهای PPE آنها فیلتر کند.» هوش مصنوعی به اپراتورهای انسانی که نمیتوانند دائماً همه دوربینها را نظارت کنند، کمک میکند تا خطرات و مسائل ایمنی را بهموقع ارزیابی و رسیدگی کنند.»
اسناد شبکه ریل ادعا میکند دوربینهای مورد استفاده در یکی از ایستگاهها، ریدینگ، به پلیس این امکان را داده است که با شناسایی دوچرخهها در فیلم، تحقیقات در مورد سرقت دوچرخه را تسریع بخشد. در این پرونده ها آمده است: “مشخص شد که در حالی که تحلیلگران نمی توانند با اطمینان سرقت را تشخیص دهند، اما می توانند فردی را که سوار بر دوچرخه است، شناسایی کنند.” آنها همچنین اضافه میکنند که حسگرهای جدید کیفیت هوا که در آزمایشها مورد استفاده قرار میگیرند میتوانند در وقت کارکنان از انجام بررسیهای دستی صرفهجویی کنند. یکی از نمونههای هوش مصنوعی از دادههای حسگر برای تشخیص کفهای «عرقزده» که بر اثر تراکم لغزنده شدهاند استفاده میکند و به کارکنان هشدار میدهد که در صورت نیاز به تمیز کردن آنها.
در حالی که اسناد برخی از عناصر آزمایشات را شرح می دهد، کارشناسان حفظ حریم خصوصی می گویند که نگران عدم شفافیت کلی و بحث در مورد استفاده از هوش مصنوعی در فضاهای عمومی هستند. در مقاله ای که برای ارزیابی مسائل مربوط به حفاظت از داده ها در سیستم ها طراحی شده است، هرفورت از دیده بان برادر بزرگ گفت که به نظر می رسد یک “نگرش تحقیرآمیز” نسبت به افرادی که ممکن است نگرانی های مربوط به حریم خصوصی داشته باشند وجود دارد. یک سوال می پرسد: “آیا برخی افراد احتمالاً اعتراض می کنند یا آن را مزاحم می دانند؟”
در عین حال، سیستم های نظارت هوش مصنوعی مشابهی که از فناوری نظارت بر جمعیت استفاده می کنند، به طور فزاینده ای در سراسر جهان مورد استفاده قرار می گیرند. در طول المپیک پاریس در فرانسه اواخر سال جاری، نظارت تصویری هوش مصنوعی هزاران نفر را زیر نظر خواهد گرفت و سعی خواهد کرد امواج ازدحام جمعیت، استفاده از سلاح و اشیاء متروکه را شناسایی کند.
Carissa Veliz، دانشیار روانشناسی در موسسه اخلاق در هوش مصنوعی در دانشگاه آکسفورد می گوید: «سیستم هایی که افراد را شناسایی نمی کنند بهتر از سیستم هایی هستند که این کار را انجام می دهند، اما من نگران یک شیب لغزنده هستم. ویلیز به آزمایشهای هوش مصنوعی مشابهی در متروی لندن اشاره میکند که در ابتدا چهره افرادی را که احتمالاً از کرایهها اجتناب میکردند محو میکردند، اما سپس رویکرد خود را تغییر دادند و عکسها را محو کردند و تصاویر را برای مدت طولانیتر از آنچه در نظر گرفته شده بود نگه داشتند.
ولیز می گوید: «یک انگیزه بسیار غریزی برای گسترش نظارت وجود دارد. «انسان ها دوست دارند بیشتر ببینند، بیشتر ببینند. اما نظارت منجر به کنترل می شود و کنترل منجر به از دست دادن آزادی می شود که دموکراسی های لیبرال را تهدید می کند.