Una organización británica de campaña por las libertades civiles ha advertido que la tecnología de reconocimiento facial está agregando a ciudadanos, sin saberlo, a las listas de vigilancia de la policía.
La alerta de Reloj Gran Hermano se produce después de que una mujer fuera acusada erróneamente de ser ladrona después de que su imagen fuera capturada por FaceWatch, un sistema de reconocimiento facial implementado por varios minoristas británicos.
Según lo informado por el bbcSara (que deseaba permanecer en el anonimato) entró en una tienda para comprar chocolate, pero en lugar de eso, se le acercaron inmediatamente y le dijeron: “Eres una ladrona, tienes que salir de la tienda”.
Se llevaron a Sara, le registraron el bolso y le informaron que se le prohibió el acceso a todos los puntos de venta que usaran la tecnología FaceWatch, pero luego se supo que había ocurrido un error y recibió una carta para reconocer el error.
Un grupo de campaña se esfuerza por aumentar la oposición al reconocimiento facial
Silkie Carlo, directora de Big Brother Watch, ha grabado a la policía en varios despliegues de reconocimiento facial, pero subraya que hay una falta de conciencia sobre cómo funciona la vigilancia.
“Mi experiencia, al observar el reconocimiento facial en vivo durante muchos años, (es que) la mayoría del público no sabe realmente qué es el reconocimiento facial en vivo”, afirmó Carlo.
“Si activan una alerta de coincidencia, entonces entrará la policía, posiblemente los detendrá, los interrogará y les pedirá que demuestren su inocencia”, y añade que cualquier persona cuyo rostro sea escaneado forma parte de una recopilación de reconocimientos policiales digitales.
Big Brother Watch quiere detener la vigilancia masiva, implorando que la sociedad debe reaccionar para evitar que el reconocimiento facial se normalice.
En Londres, bajo la fuerza de la Policía Metropolitana, el uso de la tecnología en evolución está aumentando. Entre 2020 y 2022, la Met utilizó el reconocimiento facial en vivo nueve veces, y aumentó a 23 el año siguiente. En lo que va de 2024, ha habido 67 despliegues, por lo que está claro ver la proliferación.
Los partidarios de esta herramienta de seguridad insisten en que los errores son raros, mientras que la Policía Metropolitana dice que alrededor de una de cada 33.000 personas capturadas por las cámaras están identificadas erróneamente, pero la BBC indica que esta estadística es engañosa.
El informe destaca que una vez que el reconocimiento facial detecta a una persona, el recuento de errores aumenta y, en lo que va del año, uno de cada 40 alters tiene un resultado falso positivo.
Crédito de la imagen: Ideograma