Foto: Cortesía

Una IA que predice el crimen mirando tu cara

Más de 1.700 expertos se han levantado en contra de la utilización de esta IA por considerarlo un método “socialmente injusto”.

¿El rostro de un criminal? Un libro sobre una investigación controvertida que emplea algoritmos automáticos de reconocimiento facial para predecir si una persona cometerá o no un delito, va a ser publicado próximamente. Sin embargo, más de 1.700 expertos, investigadores y académicos en múltiples campos de la inteligencia artificial han firmado una carta abierta que se opone a dicho trabajo, citando "graves preocupaciones" sobre el estudio e instando a Springer, la editorial que va a publicar la obra, a retirar su lanzamiento.


Un rechazo masivo

Usar la tecnología para predecir el crimen sería “injusto y provocaría un daño real”, según los expertos. La Coaltition for Critical Technology escribió una carta abierta a Springer Verlag en Alemania para expresar su gran preocupación sobre el software de reconocimiento facial automatizado recientemente desarrollado que un grupo de científicos de la Universidad de Harrisburg, Pensilvania.


Y es que Springer's Nature Research Book Series tiene la intención de publicar un artículo de los científicos de Harrisburg llamado “Un modelo de red neuronal profunda para predecir la criminalidad mediante el procesamiento de imágenes” (cuyo comunicado oficial acerca del estudio se ha borrado de la red). La coalición quiere que se rescinda la publicación del estudio, y otros similares, argumentando que el documento hace afirmaciones que se basan en premisas, investigaciones y métodos científicos poco sólidos.

Los científicos que han desarrollado esta IA exponían que el algoritmo tiene un "80% precisión y sin prejuicios raciales; el software puede predecir si alguien es un delincuente basándose únicamente en una imagen de su cara. El software está destinado a ayudar a la policía a prevenir el delito".


Multitud de expertos se han negado categóricamente a su uso, de esta forma:

"Seamos claros: no hay forma de desarrollar un sistema que pueda predecir o identificar 'criminalidad' que no esté sesgada racialmente, porque la categoría de 'criminalidad' en sí misma está sesgada racialmente", agregó. "Los datos generados por el sistema de justicia penal no pueden ser utilizados para "identificar delincuentes o predecir el comportamiento delictivo. Nunca".

"Innumerables estudios han demostrado que las personas de color son tratadas con más dureza que las personas blancas situadas de manera similar en todas las etapas del sistema legal, lo que resulta en serias distorsiones en los datos", continúa la carta del grupo de expertos.

"Por lo tanto, cualquier software creado dentro del marco legal penal existente inevitablemente hará eco de esos mismos prejuicios e inexactitudes fundamentales cuando se trata de determinar si una persona tiene la 'cara de un criminal'".

Springer, por su parte, ha afirmado que el documento no fue "en ningún momento" aceptado para su publicación y se sometió a una conferencia en la que Springer publicará las actas en las que había sido rechazada cuando se emitió la carta abierta.


Mientras tanto, los organizadores de la Coalición para la Tecnología Crítica han señalado que la 'ciencia policial' se ha utilizado en el pasado como una forma de justificar prácticas racionalmente discriminatorias y han exigido que "todos los editores deben abstenerse de publicar estudios similares en el futuro".

Muy Interesante. 

 

Temas relacionados: