Cámaras con inteligencia artificial impulsadas por Amazon se utilizan para detectar emociones de pasajeros involuntarios de trenes del Reino Unido
Resumen:
- Implementación de IA en estaciones de trenes: Ocho estaciones en el Reino Unido, incluidas Euston y Waterloo, han probado cámaras de vigilancia con IA para monitorear a los pasajeros
- Análisis de emociones y demografía: Las cámaras usan el software Rekognition de Amazon para predecir edad, género y emociones de los viajeros, con potencial uso en publicidad
- Detección de comportamientos antisociales: La IA detecta invasiones a las vías, monitorea el hacinamiento en las plataformas e identifica conductas antisociales como correr y fumar
- Sensores adicionales: Se usaron sensores inalámbricos para detectar suelos resbaladizos, contenedores llenos y desagües que podrían desbordarse
- Controversias sobre privacidad: Organizaciones de derechos civiles como Big Brother Watch critican la falta de transparencia y el uso intrusivo de la vigilancia con IA
- Advertencias sobre análisis de emociones: Expertos y la Oficina del Comisionado de Información del Reino Unido advierten que la tecnología de detección de emociones es poco confiable y «inmadura»
- Beneficios de seguridad: Network Rail defiende la tecnología por mejorar la seguridad, detectando incidentes rápidamente y protegiendo a los pasajeros y el personal ferroviario
Articulo completo: https://www.wired.com/story/amazon-ai-cameras-emotions-uk-train-passengers/
En el Reino Unido, Amazon ha estado probando cámaras de vigilancia con inteligencia artificial (IA) en estaciones de tren para monitorear y analizar el comportamiento de los pasajeros. Estas cámaras, combinadas con el software Rekognition de Amazon, fueron utilizadas para predecir la edad, el género y las emociones de los viajeros, con la posibilidad de utilizar estos datos para sistemas publicitarios en el futuro. Durante los últimos dos años, ocho estaciones, incluidas grandes estaciones como Euston y Waterloo en Londres, y Manchester Piccadilly, han participado en estas pruebas (Enterprise Technology News and Analysis) (The Independent).
Las cámaras inteligentes fueron implementadas para alertar al personal sobre incidentes de seguridad y reducir ciertos tipos de delitos. Utilizando reconocimiento de objetos, la IA puede identificar a personas que invaden las vías, monitorear el hacinamiento en las plataformas y detectar comportamientos antisociales como correr, gritar, andar en monopatín y fumar. Además, sensores inalámbricos fueron probados para detectar suelos resbaladizos, contenedores llenos y desagües que podrían desbordarse (The Independent).
Un aspecto controvertido de estas pruebas fue la capacidad de las cámaras para analizar las emociones de los pasajeros. Según los documentos obtenidos por la organización de derechos civiles Big Brother Watch, las cámaras podían realizar un análisis estadístico de la demografía de los pasajeros y detectar emociones como felicidad, tristeza y enfado. Estas imágenes se capturaban cuando las personas cruzaban un «sensor virtual» cerca de las barreras de boletos y eran enviadas para su análisis a través del sistema Rekognition de Amazon (The Independent).
Expertos en privacidad y ética han expresado preocupaciones sobre la falta de transparencia y el debate público en torno al uso de la IA en espacios públicos. En particular, han advertido que la tecnología para detectar emociones es poco confiable y puede nunca funcionar correctamente. La Oficina del Comisionado de Información del Reino Unido también ha emitido advertencias sobre el uso de esta tecnología, calificándola de «inmadura» (Enterprise Technology News and Analysis) (The Independent).
A pesar de estas preocupaciones, Network Rail, la entidad que supervisa la infraestructura ferroviaria, ha defendido el uso de la tecnología como una medida para mejorar la seguridad en las estaciones y en las vías del tren. Sin embargo, no está claro cuán ampliamente se ha implementado el análisis de detección de emociones, ya que algunos informes indican que esta función fue descontinuada durante las pruebas y no se almacenaron imágenes cuando estaba activa (Enterprise Technology News and Analysis) (The Independent).