Amazon e IBM suspenden sus proyectos de reconocimiento facial

En medio de las protestas en Estados Unidos tras el asesinato de George Floyd, ayer Amazon publicó un comunicado informando que «suspenderán por un año el uso de su software de reconocimiento facial por parte de la policía». Así, se suma a la decisión de IBM, que hace unos días fue un poco más allá y se retiró del negocio (al menos por el momento).

Las medidas no son casuales: numerosos estudios y expertos ya advirtieron no solo sobre las imprecisiones del sistema (que pueden llevar a falsos positivos) sino también acerca del sesgo respecto de las personas de color. Por poner solo un ejemplo, investigadores del MIT Media Lab y del equipo ético de Inteligencia Artificial de Google demostraron que esta tecnología tiene grandes dificultades al momento de identificar entre hombres y mujeres con un tono de piel oscuro.

«IBM ya no ofrece software de reconocimiento o análisis facial. La compañía se opone firmemente y no perdonará el uso de ninguna tecnología -incluyendo aquellas de reconocimiento facial ofrecidas por otras empresas- para la vigilancia masiva, el perfilamiento racial, la violación de derechos humanos básicos y libertades o cualquier otro fin que no sea consistente con nuestro valores y los Principios de Confianza y Transparencia», afirmó Arvind Krishna, CEO de IBM, en una carta dirigida al Congreso. «Creemos que este es el momento de comenzar un diálogo nacional acerca de si el sistema de reconocimiento facial debe ser empleado por las agencias de seguridad domésticas y de qué manera», completó.

El ejecutivo destacó que «la inteligencia artificial es una herramienta poderosa que puede ayudar a mantener a los ciudadanos a salvo», aunque señaló que tanto vendedores como usuarios tienen una responsabilidad conjunta para asegurar que esta tecnología sea analizada, auditada y reportada en busca se sesgos, en particular cuando se usa con fines de seguridad.

Por su parte, Amazon detalló: «Implementaremos un año de suspensión en el uso policial de la tecnología de reconocimiento facial de Amazon. Continuaremos permitiendo su empleo para organizaciones como Thorn, el Centro internacional para chicos perdidos y explotados y Marinus Analytics, con el fin de ayudar a rescatar a víctimas de tráfico de personas y a reunir a las familias con sus hijos extraviados». Sin embargo, afirmaron defender la idea de que los gobiernos dicten regulaciones fuertes para administrar el uso ético de este tipo de software, algo que entienden que el Congreso está preparado para hacer. «Esperamos que esta pausa de un año pueda darle al Parlamento suficiente tiempo para implementar leyes adecuadas y estamos listos para ayudar si lo necesitan», concluyó.

Deja una respuesta

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.