El uso del reconocimiento facial por parte de la policía vuelve a ser cuestionado en Estados Unidos tras la denuncia de una mujer negra detenida en febrero, y liberada a las diez horas, por un delito que no había cometido. Porcha Woodruff, residente del estado de Michigan (norte), presentó la semana pasada una denuncia por arresto indebido contra la ciudad de Detroit y contra el policía a cargo de la investigación en un caso de robo de auto con violencia.
La señora Woodruff, identificada como sospechosa tras un registro con un software de reconocimiento facial, pasó «aproximadamente once horas de pie o sentada en un banco de hormigón» en la comisaría, cuando estaba embarazada de ocho meses, subraya la denuncia.
Quince días después, en marzo, un tribunal desestimó los cargos en su contra por falta de pruebas.
“Dadas las conocidas fallas en las tecnologías de reconocimiento facial, que tienden a errar, la policía de Detroit violó los derechos de la demandante al no protegerla de los errores previsibles y sus consecuencias”, afirman sus abogados en la demanda.
Esta tecnología de inteligencia artificial (IA) ha sido criticada durante años por los defensores de los derechos humanos. Denuncian en particular el hecho de que los algoritmos, entrenados a partir de poblaciones predominantemente blancas, cometen más errores con las personas negras. En el caso de Porcha Woodruff, la policía utilizó imágenes grabadas por una cámara de circuito cerrado de televisión en una gasolinera.
“¿Robo de autos a mano armada? ¿Estás bromeando? ¿Ven que tengo ocho meses de embarazo?”, le dijo a los policías que se presentaron en su casa el 16 de febrero con una orden de arresto.
Pero a pesar de las protestas de sus dos hijos, su prometido y su madre contactados telefónicamente, “se la llevaron, registraron y esposaron frente a su familia y vecinos”, relata la denuncia.
Después de un día en la comisaría, fue al hospital que encontró su “frecuencia cardíaca baja debido a la deshidratación”. Y “ella (allí) se enteró que tenía contracciones por el estrés que le infligía”.
La denuncia culpa a la policía por no haber “establecido reglas apropiadas para el uso de esta tecnología” y por no haber “capacitado adecuadamente a sus empleados”, lo que “revela una indiferencia deliberada hacia el daño potencial que sufren las personas erróneamente identificadas”. .
En Estados Unidos, ante la presión de las asociaciones, grandes grupos como Amazon, Microsoft, IBM y Google han dejado, al menos temporalmente, de vender su software de reconocimiento facial a la policía.