«Constituía un terrible peligro pensar mientras se estaba en un sitio público o al alcance de la telepantalla. El detalle más pequeño podía traicionarle a uno. […] llevar en el rostro una expresión impropia (por ejemplo, parecer incrédulo cuando se anunciaba una victoria) constituía un acto punible. Incluso había una palabra para esto en neolengua: caracrimen«. Si bien este relato pertenece a 1984, de George Orwell, no son pocos los parecidos con la nueva tecnología que la Administración Federal de Ingresos Públicos (AFIP) busca implementar en el aeropuerto de Ezeiza.
Algunos medios argentinos -como Infobae y Clarín– publicaron información acerca del «‘pliego de condiciones particulares’ que el ente recaudador le hizo llegar a algunos de sus proveedores y con el que inicia la licitación pública de estos requerimientos de tecnología de avanzada». De acuerdo a la información allí disponible, el organismo quiere adquirir cámaras de reconocimiento facial y software de reconocimiento sensorial para detectar a personas que «estén nerviosas» o presenten «gestos de inseguridad». El objetivo sería detectar narcotraficantes y contrabandistas.
Desde la AFIP sostienen que esta tecnología ya fue implementada en otros países -como México, Brasil y Colombia- y que aspira, en un futuro, a reducir el tiempo que se demora en la Aduana, al tiempo que eliminaría los semáforos. ¿Qué es lo que se empleará para las detecciones? Información proveniente de Interpol y Migraciones, datos extraídos de redes sociales como Facebook y Twitter y el manifiesto de pasajeros informado a la Aduana por las aerolíneas al momento de despegar un avión. A esto se suma el software de reconocimiento sensorial, que escaneará rostros y posturas en tiempo real, tendrá un análisis termográfico y buscará emociones primarias como el temor (ansiedad, preocupación, aprehensión). Si quienes pasen por Ezeiza se encuentran dentro de una «lista de interés», se enviará una alerta al personal aduanero.
Resulta cuanto menos llamativa la decisión de licitar esta tecnología, sobre todo teniendo en cuenta dos antecedentes. Por un lado, investigadores de la Universidad de Essex (Reino Unido) descubrieron que en su país el reconocimiento facial falla en el 80% de los casos. Esto tiene consecuencias inmediatas: se detiene a personas equivocadas. A pesar de esto, por ejemplo, un ciudadano fue multado y obligado a mostrar su rostro luego de cubrírselo durante una prueba piloto. Esto no es una casualidad: investigadores del MIT Media Lab y del equipo ético de Inteligencia Artificial de Google ya habían demostrado que esta tecnología tiene grandes dificultades al momento de identificar entre hombres y mujeres con un tono de piel oscuro.
Por otra parte, también es preciso considerar los casos de San Francisco y Somerville, las primeras ciudades de Estados Unidos en prohibir el uso del reconocimiento facial. «Con este voto, San Francisco declaró que esta tecnología es incompatible con una democracia sana», aseguró Matt Cagle, miembro de la Unión de Libertades Civiles Americanas en California del Norte.
Al parecer, la evidencia científica se encuentra del lado de la imprecisión del reconocimiento facial -algo de lo que los habitantes de la Ciudad de Buenos Aires fueron testigos, con un 4% de detenidos por error dentro de los primeros 60 días de implementación de esta tecnología-. Si a esto se le agrega el «reconocimiento sensorial», tal vez no nos queden más opciones que seguir los pasos de Winston Smith y educar a nuestro rostro para no despertar las sospechas de las telepantallas.
[…] está diseñado para reconocer conceptos como hacinamiento o comportamiento sospechoso y que, al igual que el propuesto en en Ezeiza, el pliego señala que también debe contar con la capacidad de reconocer las emociones en la […]
Me gustaMe gusta
[…] la tecnología de reconocimiento facial es imprecisa, lo que conlleva a producir falsos positivos (aquí escribí un poco al respecto). De hecho, los legisladores aprobaron la regulación luego de que el programa de Amazon creado […]
Me gustaMe gusta
[…] reconocimiento facial está a la orden del día. Se multiplican las noticias acerca de su uso (y de sus falsos positivos). Por supuesto que Hong Kong no es la excepción: la Policía utilizó esta tecnología para conocer […]
Me gustaMe gusta