Reconocimiento facial en CABA: ni tan efectivo ni tan seguro

El pasado 3 de abril, Diego Santilli –vicejefe de Gobierno de la Ciudad de Buenos Aires y responsable de su Ministerio de Seguridad– anunció que implementarían “un sistema de reconocimiento facial con inteligencia artificial para detectar o arrestar a personas que tengan pedido de captura judicial” en el municipio, según informó la agencia de noticias Télam. Tan solo 22 días después, esta tecnología hizo su debut.

Desde su implementación hasta agosto, el sistema había generado 3059 alertas –es decir, un llamado de emergencia donde la policía debe intervenir inmediatamente e identificar a la persona–, de las cuales en poco más de 1300 casos los individuos fueron puestos a disposición de la justicia (42,5%). ¿Cómo sabemos esto? Gracias a un pedido de informes realizado desde el Observatorio de Derecho Informático Argentino (ODIA). “Como vemos, la eficiencia del sistema está muy por debajo del 95% que habían indicado en repetidas oportunidades desde el Gobierno, sobre todo si consideramos que, de esos 1300 casos, cerca del 80% fue puesto en libertad inmediatamente, de acuerdo a lo señalado en varias notas periodísticas”, observó Víctor Castillejo, abogado y miembro de ODIA.

Para entender la magnitud del problema, empecemos a desarmar la situación. Por un lado, tenemos la implementación de un tipo de tecnología que fue prohibida en varias partes del mundo debido a su falta de precisión. Por poner apenas un ejemplo, investigadores de la Universidad de Essex (Reino Unido) descubrieron que en su país el reconocimiento facial falla en el 80% de los casos. “En Argentina, la base de datos con la que se comparan los rostros es la del CONARC [Consulta Nacional de Rebeldías y Capturas]. El tema es que está mal hecha, contiene información errónea o desactualizada”, advirtió el especialista.

Ahora bien, más allá de este detalle no menor, para detectar a las personas que aparecen en esta base de datos el sistema debería escanear todos los rostros y compararlos, sean o no prófugos. “En este punto, suelen escudarse en que los únicos datos que guardan son las imágenes que levantan alertas. El tema es que para que suceda eso antes hay que recolectar determinados puntos de los rostros de todos para contrastarlos con la base de datos, con lo cual el procedimiento viola varios derechos, como el de libertad ambulatoria y privacidad”, reflexionó Castillejo.

Por otro lado, “supuestamente, la información recopilada se trata en el Centro de Monitoreo Urbano de Chacarita. De acuerdo a la respuesta a nuestro amparo, en este punto hay dos problemas: el primero es que hay 114 personas con acceso a ella, un número muy elevado –especialmente tratándose de datos sensibles–; el segundo, que los datos son encriptados a través de un protocolo llamado 3DES o TDEA, que no solo ya no se utiliza sino que está dado de baja como protocolo de encriptación seguro”, enumeró el abogado.

Entonces, hasta ahora tenemos un tipo de software que suele tener sesgos al momento de reconocer rostros, que para buscar sospechosos debe evaluar las caras de todos los transeúntes, que carece de la seguridad necesaria para la clase de información que recolecta y cuya efectividad está, hasta el momento, muy por debajo de lo esperado. “A todo esto es preciso agregar que el sistema está diseñado para reconocer conceptos como hacinamiento o comportamiento sospechoso y que, al igual que el propuesto en en Ezeiza, el pliego señala que también debe contar con la capacidad de reconocer las emociones en la cara”, añadió el miembro de ODIA. “Quizás, el reconocimiento facial no era lo importante después de todo, sino que lo que se pretende es contar con un verdadero sistema de vigilancia”, reflexionó.

El camino del Observatorio para conseguir la información (que puede verse completa en este enlace) no fue sencillo: hicieron un pedido de información con 77 preguntas y recibieron solo 10 respuestas, por lo que solicitaron un amparo ante la justicia y consiguieron 40 contestaciones más. Aun restan 27 preguntas, que fueron nuevamente enviadas junto con otras consultas más. “Queremos que nos aclaren conceptos abstractos como hacinamiento o comportamiento sospechoso; también insistimos en que nos entreguen el código fuente, nos dijeron que está protegido por copyright, un motivo más para insistir con el uso de software libre por parte del Estado”, puntualizó Castillejo. En adición, también esperan obtener precisiones acerca de la forma en la que la inteligencia artificial fue entrenada –para determinar si contiene algún sesgo–.

“No somos anti tecnología, solo buscamos evitar el tecno-optimismo, que cree que si ponés tecnología, las cosas funcionan. Acá el problema es otro: tener un sistema de este estilo no hará que baje la cantidad de delitos, lo que logrará es estigmatizar a las personas que estén en esa base de datos, que quizás ya cumplieron su condena y recuperaron la libertad pero no fueron dadas de baja de allí”, afirmó el abogado.

Tengamos en cuenta que, al menos en este caso, el argumento económico tampoco funciona: no ahorramos dinero si la mayoría de la gente detenida es puesta en libertad inmediatamente. Además, ¿qué pasó con las más de 1700 alertas donde los involucrados no fueron puestos a disposición de la justicia? Podríamos suponer que fueron falsos positivos pero en la respuesta al amparo se aclara que el número alcanzado en esta categoría fue de 123. “El software de reconocimiento facial está mal desde todo punto de vista, inserta en las comunidades un elemento riesgoso que pone en peligro los datos personales. Ya no hablamos de una contraseña sino de datos biométricos y, ante un problema, no podemos cambiarnos el rostro”, sentenció el experto.

Y ahora, ¿qué? Desde ODIA respondieron a la contestación que recibieron producto del amparo del pedido de acceso a la información pública, con lo que están a la espera de novedades. Sin embargo, este no es el único frente de acción. La ONG Asociación por los Derechos Civiles (ADC) presentó una Acción Declarativa de Inconstitucionalidad por la resolución que implementó el sistema de reconocimiento facial ante el Tribunal Superior de Justicia de la Ciudad. Este es un recurso especial que evalúa la constitucionalidad de una norma en abstracto.

Por su parte, la ONG Access Now está haciendo lo propio en Córdoba, donde se implementó una prueba piloto de software de reconocimiento biométrico. “En este caso desconocemos contra qué compara los datos que recopila. Por eso, la Organización tramitó un pedido de acceso a la información pública, para saber cuáles pueden ser sus implicancias”, aclaró Castillejo.

Un comentario sobre “Reconocimiento facial en CABA: ni tan efectivo ni tan seguro

Deja una respuesta

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.