Network Rail به سؤالات مربوط به آزمایش‌های ارسال شده توسط WIRED، از جمله سؤالاتی در مورد وضعیت فعلی استفاده از هوش مصنوعی، تشخیص احساسات و مسائل مربوط به حریم خصوصی پاسخ نداد.

سخنگوی شبکه ریلی گفت: ما امنیت شبکه ریلی را بسیار جدی می‌گیریم و از طیف وسیعی از فناوری‌های پیشرفته در ایستگاه‌های خود برای محافظت از مسافران، همکاران و زیرساخت‌های ریلی در برابر جرم و تهدیدات دیگر استفاده می‌کنیم. زمانی که فناوری را به کار می‌گیریم، با پلیس و سرویس‌های امنیتی کار می‌کنیم تا اطمینان حاصل کنیم که اقدامات متناسبی انجام می‌دهیم و همیشه از قوانین مربوطه در مورد استفاده از فناوری نظارت پیروی می‌کنیم.»

مشخص نیست که تجزیه و تحلیل تشخیص احساسات چقدر گسترده شده است، با اسنادی که گاهی اوقات می گویند مورد استفاده باید “با دقت بیشتری در نظر گرفته شود” و گزارش های ایستگاه می گوید که “تأیید دقت غیرممکن است.” با این حال، گرگوری باتلر، مدیر اجرایی تجزیه و تحلیل داده‌ها و شرکت بینایی کامپیوتری Purple Transform، که با Network Rail در آزمایش‌ها کار می‌کند، می‌گوید که این قابلیت در طول آزمایش‌ها متوقف شد و زمانی که فعال بود هیچ تصویری ذخیره نشد.

اسناد آزمایشی هوش مصنوعی Network Rail تعدادی از موارد استفاده را توصیف می کند که شامل پتانسیل دوربین ها برای ارسال هشدارهای خودکار به کارکنان در هنگام تشخیص رفتار خاص است. هیچ‌کدام از این سیستم‌ها از فناوری تشخیص چهره بحث‌برانگیز استفاده نمی‌کنند که هدف آن تطبیق هویت افراد با هویت‌های ذخیره‌شده در پایگاه‌های داده است.

باتلر می‌گوید: «یک مزیت اصلی، شناسایی سریع‌تر حوادث عبور از مرز است. باتلر می‌گوید در ماه گذشته، پنج مورد جدی از تجاوز رخ داده است که سیستم‌ها در دو مکان شناسایی کرده‌اند، از جمله نوجوانی که توپی را از خیابان‌ها برمی‌دارد و مردی که «بیش از پنج دقیقه را صرف برداشتن توپ‌های گلف کرده است. خط پر سرعت.»

به گفته باتلر، ایستگاه لیدز، یکی از شلوغ ترین ایستگاه های خارج از لندن، دارای 350 دوربین مداربسته متصل به پلت فرم SiYtE است. او می‌گوید: «تحلیل‌ها برای اندازه‌گیری جریان افراد و شناسایی مسائلی مانند شلوغی روی پلت‌فرم‌ها و البته نقض دسترسی استفاده می‌شوند – جایی که این فناوری می‌تواند ردیابی کارگران را از طریق لباس‌های PPE آنها فیلتر کند.» هوش مصنوعی به اپراتورهای انسانی که نمی‌توانند دائماً همه دوربین‌ها را نظارت کنند، کمک می‌کند تا خطرات و مسائل ایمنی را به‌موقع ارزیابی و رسیدگی کنند.»

اسناد شبکه ریل ادعا می‌کند دوربین‌های مورد استفاده در یکی از ایستگاه‌ها، ریدینگ، به پلیس این امکان را داده است که با شناسایی دوچرخه‌ها در فیلم، تحقیقات در مورد سرقت دوچرخه را تسریع بخشد. در این پرونده ها آمده است: “مشخص شد که در حالی که تحلیلگران نمی توانند با اطمینان سرقت را تشخیص دهند، اما می توانند فردی را که سوار بر دوچرخه است، شناسایی کنند.” آنها همچنین اضافه می‌کنند که حسگرهای جدید کیفیت هوا که در آزمایش‌ها مورد استفاده قرار می‌گیرند می‌توانند در وقت کارکنان از انجام بررسی‌های دستی صرفه‌جویی کنند. یکی از نمونه‌های هوش مصنوعی از داده‌های حسگر برای تشخیص کف‌های «عرق‌زده» که بر اثر تراکم لغزنده شده‌اند استفاده می‌کند و به کارکنان هشدار می‌دهد که در صورت نیاز به تمیز کردن آن‌ها.

در حالی که اسناد برخی از عناصر آزمایشات را شرح می دهد، کارشناسان حفظ حریم خصوصی می گویند که نگران عدم شفافیت کلی و بحث در مورد استفاده از هوش مصنوعی در فضاهای عمومی هستند. در مقاله ای که برای ارزیابی مسائل مربوط به حفاظت از داده ها در سیستم ها طراحی شده است، هرفورت از دیده بان برادر بزرگ گفت که به نظر می رسد یک “نگرش تحقیرآمیز” نسبت به افرادی که ممکن است نگرانی های مربوط به حریم خصوصی داشته باشند وجود دارد. یک سوال می پرسد: “آیا برخی افراد احتمالاً اعتراض می کنند یا آن را مزاحم می دانند؟”

در عین حال، سیستم های نظارت هوش مصنوعی مشابهی که از فناوری نظارت بر جمعیت استفاده می کنند، به طور فزاینده ای در سراسر جهان مورد استفاده قرار می گیرند. در طول المپیک پاریس در فرانسه اواخر سال جاری، نظارت تصویری هوش مصنوعی هزاران نفر را زیر نظر خواهد گرفت و سعی خواهد کرد امواج ازدحام جمعیت، استفاده از سلاح و اشیاء متروکه را شناسایی کند.

Carissa Veliz، دانشیار روانشناسی در موسسه اخلاق در هوش مصنوعی در دانشگاه آکسفورد می گوید: «سیستم هایی که افراد را شناسایی نمی کنند بهتر از سیستم هایی هستند که این کار را انجام می دهند، اما من نگران یک شیب لغزنده هستم. ویلیز به آزمایش‌های هوش مصنوعی مشابهی در متروی لندن اشاره می‌کند که در ابتدا چهره افرادی را که احتمالاً از کرایه‌ها اجتناب می‌کردند محو می‌کردند، اما سپس رویکرد خود را تغییر دادند و عکس‌ها را محو کردند و تصاویر را برای مدت طولانی‌تر از آنچه در نظر گرفته شده بود نگه داشتند.

ولیز می گوید: «یک انگیزه بسیار غریزی برای گسترش نظارت وجود دارد. «انسان ها دوست دارند بیشتر ببینند، بیشتر ببینند. اما نظارت منجر به کنترل می شود و کنترل منجر به از دست دادن آزادی می شود که دموکراسی های لیبرال را تهدید می کند.