Inteligencia Artificial podría exacerbar los sesgos en la justicia penal, la contratación, advierten en conferencia NJIT
Ricardo Kaulessar / Northjersey.com
La inteligencia artificial (IA) está transformando el mundo, pero los científicos en una conferencia del Instituto de Tecnología de Nueva Jersey advirtieron el viernes que no es inmune a los prejuicios históricos contra las mujeres y las personas de color.
Los oradores de la Conferencia Mujeres Diseñando el Futuro de 2023, todas mujeres, examinaron todo, desde la probabilidad de que la IA se convierta en una fuerza abrumadora que se apodere del mundo hasta preocupaciones más sutiles sobre la equidad, la responsabilidad y la transparencia.
En particular, argumentaron, la tecnología defectuosa ya ha llevado a la discriminación.
La conferencia de un día, organizada por el Centro Murray para Mujeres en Tecnología de la universidad, tuvo como tema central, «Inteligencia artificial/vidas humanas reales: hacer que la tecnología funcione para todos nosotros».
Reconocimiento facial y condenas defectuosas
Renee Cummings, especialista en ética de la inteligencia artificial y profesora de la Facultad de Ciencias de la Información de la Universidad de Virginia, afirmó que las comunidades de color se han visto perjudicadas por la vigilancia excesiva basada en la IA que se basa en datos erróneos y discriminatorios.
Citó el caso del residente de Paterson, Nijeer Parks, quien demandó a Woodbridge Township en 2020 alegando que la ciudad usó una tecnología de reconocimiento facial defectuosa que condujo a una orden de arresto. Parks, cuyo caso aún está pendiente, asegura que nunca había visitado Woodbridge.
Los sistemas de inteligencia artificial se alimentan con datos del pasado, pero los «conjuntos de datos históricos» afectados por la discriminación pasada continúan «creando mucho trauma, muchas lágrimas, mucho dolor y muchos de los problemas que estamos viendo con la tecnología de reconocimiento facial y con las tecnologías que se están empleando», señaló Cummings.
Rebecca Brown, directora de políticas de Innocence Project, comenzó mostrando un video de algunas de las personas condenadas injustamente que el grupo sin fines de lucro ha ayudado a exonerar. Afirmó que los investigadores han encontrado que alrededor del 4% de las personas en las cárceles de EE. UU. son inocentes. The Innocence Project conoce a cinco hombres, todos negros, que fueron identificados erróneamente y arrestados debido a la tecnología de reconocimiento facial, agregó.
«Qué sucede cuando la base de una condena injusta no es una mala conducta per se, sino una tecnología defectuosa», preguntó Brown.
¿Podría la IA sesgada costarle su trabajo?
Julia Stoyanovich, profesora asociada de la Universidad de Nueva York que se especializa en informática, ingeniería y ciencia de datos, explicó cómo la inteligencia artificial utilizada por las empresas para contratar empleados puede ser problemática cuando los algoritmos reflejan prejuicios contra las minorías y las mujeres.
Los empleadores han adoptado el software de contratación automatizada por eficiencia, y los partidarios argumentan que puede promover la equidad al tomar decisiones iniciales sobre quién será entrevistado sin la intervención de los humanos. Pero los escépticos temen que los sistemas de inteligencia artificial basados en prácticas de contratación anteriores simplemente automaticen viejos sesgos raciales y culturales.
Stoyanovich comentó que hay esfuerzos para luchar contra esto, señalando una ley de la ciudad de Nueva York aprobada en 2021 que requiere que los empleados sean notificados sobre el uso de herramientas de inteligencia artificial en la contratación o las promociones. Una propuesta similar se está abriendo paso en la Legislatura de Nueva Jersey.
Stoyanovich advirtió: «Debemos mantener la cabeza como humanos cuando pensamos en lo que permitimos que haga la IA que es demasiado complicado para nosotros».
Incorporar comunidades de color a la conversación
Sarah Chu, asesora principal en política de ciencia forense en Innocence Project, informó que el grupo ha estado buscando una moratoria en la tecnología de vigilancia en el sistema legal penal para limitar el daño a personas inocentes. También señaló que las comunidades afectadas por esta tecnología deben ser incluidas en las discusiones de las agencias que la usan.
«Piense en la agenda de quién está representada en la mesa cuando se compra tecnología, cuando se implementa. Ciertamente no son las comunidades las que se ven afectadas», dijo Chu.
This translation was provided by Reporte Hispano, in association with the Montclair State University Center for Cooperative Media and is financially supported by the NJ Civic Information Consortium. The story was originally written in English for NorthJersey.com and is republished under a special content-sharing agreement through the NJ News Commons Spanish Translation News Service.
Esta traducción fue proporcionada por Reporte Hispano, en asociación con el Centro de Medios Cooperativos de la Universidad Estatal de Montclair, y cuenta con el apoyo financiero del Consorcio de Información Cívica de NJ. La historia fue escrita originalmente en inglés por NorthJersey.com y se vuelve a publicar en virtud de un acuerdo especial para compartir contenido a través del Servicio de noticias de traducción al español de NJ News Commons.