La privacidad es un tema delicado: cada vez es más frecuente encontrar tecnologías que la ponen en jaque. Uno de los grandes debates de 2019 fue el reconocimiento facial y su uso por parte de las fuerzas de seguridad. California (Estados Unidos) lo prohibió, Buenos Aires (Argentina) lo implementó y la Unión Europea se encuentra debatiendo su suspensión por cinco años.
En general, estos sistemas funcionan alimentados por bases de datos policiales (imágenes de personas con antecedentes penales o provenientes de los registros de conducir, por ejemplo). De aquí que su éxito se vea limitado –y que, entre muchas otras cosas, revictimice a aquellos que ya cumplieron su condena–. Ahora bien, al parecer, Clearview AI llegó para cambiarlo todo (y exponernos aun más). Una investigación del diario New York Times reveló que la compañía conformó una base de datos con más de 3 mil millones de fotos, tomadas en su mayoría de redes sociales como Facebook y YouTube, y la vendió a más de 600 agencias gubernamentales de Estados Unidos y Canadá en el último año. Esto no es todo: también cuenta con información personal, pero pública, de los individuos y enlaces a sus fuentes. El premio al final del arcoíris es grande: los oficiales son capaces de identificar personas, que –afirman– no podrían encontrar de otra manera, en cuestión de minutos.
¿Cómo es esto posible? Clearview AI creó una gran base de datos gracias a una técnica conocida como scrapping. Básicamente, programó un software para “peinar” la web y recopilar capturas e identidades, en su mayoría de redes sociales pero también de sitios educativos y empresariales, que sean públicas –algo que, cabe aclarar, las plataformas prohíben–. Luego, convirtió esas imágenes en fórmulas matemáticas o vectores para obtener datos como las proporciones de los rostros y conservó los enlaces de donde fueron obtenidas. Así es como, luego de cometido un delito, los oficiales ingresaron una captura del hecho (de una cámara de seguridad, un video o una foto de algún testigo) y la inteligencia artificial les devolvió rápidamente un nombre y un perfil del ciudadano (en teoría) en cuestión.
Hasta aquí casi que parece una solución positiva, ¿no? Pues no es tan así. Primero, para confeccionar esa base de datos toman toda la información disponible en la web, e independientemente de que luego decidas borrar tus perfiles, eso quedará allí alojado. Segundo, aun se desconocen las medidas de seguridad con las que estos datos sensibles son resguardados por la empresa. Tercero, tampoco existen impedimentos para emplear esta tecnología con otros fines –de hecho, la periodista autora de la investigación, Kashmir Hill, solicitó a algunos agentes ingresar su imagen al sistema con el fin de conocer lo que este devolvía y rápidamente fueron contactados por personas de Clearview para averiguar si mantenían contacto con la prensa–.
De acuerdo al reporte del New York Times, la app cuenta con una efectividad del 75% y tiene la “ventaja” de no necesitar fotografías de buena calidad. Sin embargo, su fundador, Hoan Ton-That, lamentó que “las cámaras de seguridad no estén colocadas a menor altura”, ya que la mayor parte de las tomas se realizan desde arriba, mientras que la base de datos cuenta, en general, con capturas al nivel de los ojos. Se desconoce la cantidad de falsos positivos porque la herramienta no ha sido auditada por terceros. En este punto cabe también aclarar que otro de los aspectos ampliamente criticado de los sistemas de reconocimiento facial es el sesgo con el que son construidos: cuentan, por ejemplo, con grandes dificultades para identificar correctamente a personas con tonos de piel oscuros.
La aplicación también está preparada para ser compatible con lentes de realidad aumentada, aunque aseguran que no tienen planes de hacer pública esta funcionalidad. Detrás de la compañía se encuentra Ton-That –un joven australiano con desarrollos previos (aunque no tan exitosos) –, pero también Richard Schwartz –asesor de un exalcalde de Nueva York– y Peter Thiel –capitalista de riesgo, cofundador de PayPal y miembro del Consejo de Administración de Facebook–, entre otros.
Hasta el momento, un vocero de Facebook aseguró que están analizando la situación y tomarán las medidas adecuadas en caso de que Clearview AI esté violando sus términos de uso. Por su parte, Twitter ya solicitó a la compañía que deje de usar las fotografías de sus usuarios. En el material de marketing de la empresa se destaca la frase “Dejá de buscar. Empezá a resolver”, quizás lo que deberíamos pensar es el costo de esta llamada a la acción.
[ACTUALIZACIÓN] El sitio web ZDNet informó que se inició una demanda colectiva contra Clearview AI en Illinois (EE. UU.), por considerar que esta tecnología viola las leyes de privacidad del Estado en cuestión. En particular, los demandantes entienden que no respeta el Acta de Privacidad de Información Biométrica de Illinois (BIPA, por sus siglas en inglés), que protege a los residentes en caso de que sus datos biométricos sean utilizados sin consentimiento.
De acuerdo a esta ley, las compañías deben obtener un permiso explícito de sus clientes antes de recolectar o usar este material. Los demandantes señalaron que, en este caso, «los identificadores biométricos y la información siguen siendo propiedad de los defendidos, por lo que están protegidos de hackeos y de su consecuente uso y venta ilegal». Con esta acción se busca que la empresa desarrolladora no pueda vender los datos de los ciudadanos de Illinois.
Si querés saber más acerca del tema, te recomendamos leer la nota completa (en inglés), que podés encontrar en este enlace.
[…] AI es noticia otra vez. En enero conocimos su existencia gracias a una investigación del New York Times. En ese momento nos enteramos que, mediante una técnica llamada scrapping, había recopilado más […]
Me gustaMe gusta