UNA universidad de EEUU de la reclamación puede utilizar el reconocimiento facial para «predecir la delincuencia» ha renovado el debate sobre los prejuicios raciales en la tecnología.

Harrisburg investigadores de la Universidad dijo que su software «puede predecir si una persona es un criminal, basada únicamente en una imagen de su cara».

El software «está diseñado para ayudar a la aplicación de la ley prevenir el delito», dijo.

Pero 1,700 académicos han firmado una carta abierta exigiendo la investigación permanece inédito.

Uno de Harrisburg de investigación de los estados, un ex oficial de policía, escribió: «la Identificación de la criminalidad de [una] persona de su imagen facial permitirá una ventaja significativa para la aplicación de la ley y otras agencias de inteligencia para prevenir el delito se produzca.»

Los investigadores afirmaron que su software funciona «sin prejuicios raciales».

Pero los organizadores de la carta abierta, la Coalición para la Crítica de la Tecnología, dijo: «Tales afirmaciones se basan en la precariedad de la premisas científicas, de investigación y de los métodos, que numerosos estudios que abarcan nuestras respectivas disciplinas han desacreditado a través de los años.

IBM abandona ‘parcial’ de reconocimiento facial con tecnología de reconocimiento Facial falla en la raza, el estudio dice que el Pasaporte facial comprueba que no funciona con la piel oscura

«Estos desacreditado las reclamaciones de los resurgir.»

El grupo apunta a «un sinnúmero de estudios», sugiriendo las personas pertenecientes a minorías étnicas son tratados con más severidad en el sistema de justicia penal, distorsionando los datos en lo criminal supuestamente «se parece».

la Universidad de Cambridge en computación investigador Krittika D’Silva, al comentar sobre la controversia, dijo: «es una irresponsabilidad de alguien a pensar que puede predecir la criminalidad basada únicamente en una imagen de la cara de una persona.

«Las implicaciones de esto son que el crimen ‘predicción’ software puede hacer un daño grave y es importante que los investigadores y los formuladores de políticas a tomar en serio estas cuestiones.

«Numerosos estudios han demostrado que la máquina-algoritmos de aprendizaje, en particular con reconocimiento de rostros software, raciales, de género, y la edad de los prejuicios», dijo, como un 2019 estudio que indica de reconocimiento facial que funciona mal en las mujeres y los mayores y negros o Asiáticos.

En la última semana, un ejemplo de este tipo de falla fue viral en línea, cuando un AI escalador que «depixels» rostros se volvieron ex Presidente de estados unidos, Barack Obama, blanco en el proceso.

Skip Twitter post por @Chicken3gg

Informe

Final del post de Twitter por @Chicken3gg

El escalador de alto nivel en sí, simplemente inventa nuevos rostros basados en una primera pixelada de la foto – no realmente con el objetivo de una verdadera recreación de la persona real.

Pero el equipo detrás del proyecto, el Pulso, ya han modificado su papel a decir puede «iluminar algunos sesgos» en una de las herramientas que utilizan para generar las caras.

El New York Times esta semana también informó sobre el caso de un hombre negro que se convirtió en el primer caso conocido de arresto ilegal basada en un falso reconocimiento facial algoritmo de coincidencia.

En la Harrisburg caso, la universidad se había dijo que la investigación podría aparecer en un libro publicado por Springer Naturaleza, cuyos títulos incluyen el bien considerado revista académica de la Naturaleza.

Pero después de la protesta, Springer twitter no sería de publicar el artículo, sin proporcionar más detalles.

MIT Technology Review informa de que el libro fue rechazada durante el proceso de revisión por pares.

Harrisburg la Universidad, mientras tanto, tomó su propio comunicado de prensa «en la solicitud de la facultad a participar».

El documento fue actualizado «para abordar las preocupaciones», dijo.

Y mientras apoyaba la libertad académica, la investigación de su personal «no necesariamente reflejan los puntos de vista y objetivos de esta universidad».

la Coalición para La Crítica de la Tecnología de los organizadores, mientras tanto, han exigido «todos los editores deben abstenerse de publicar estudios similares en el futuro».