Washington.– Los sistemas de inteligencia artificial que “aprenden” el lenguaje a partir de textos humanos copian los sesgos y prejuicios, según revela un nuevo estudio publicado hoy en la revista Science.
Un grupo de científicos de la Universidad de Princeton (EE.UU.) y de Bath (Reino Unido) elaboró un método para medir el sesgo en estos sistemas similar al test de asociación implícita que se usa para evaluar el de los humanos.
En ese test, se pide a la persona que empareje dos conceptos que considera similares, en contraste con dos que considera diferentes.
Las personas suelen asociar, por ejemplo, “flores” con “agradable” mientras que “insectos” lo relacionan a menudo con “desagradable».
Los científicos, liderados por Aylin Caliskan de la Universidad de Princeton (Nueva Jersey, EE.UU.), analizaron estadísticamente el número de asociaciones entre palabras de los sistemas de inteligencia artificial, con un total de aproximadamente 2,2 millones de palabras en total.
Los resultados demostraron que los sistemas de inteligencia artificial retienen el sesgo visto en los humanos.
Por ejemplo, los estudios de comportamiento humano muestran que el mismo currículum tiene un 50 % más de posibilidades de conducir a una oportunidad laboral si el nombre del candidato es de origen europeo que de origen africano.