La inteligencia artificial reproduce el racismo y el sexismo del lenguaje

Noticias de Innovación y tecnología en tu email

Recibe cada día las noticias más relevantes directamente en tu email.

CERRAR

Noticias de Tecnología e Innovación

Innovacion: noticias de tecnologia, masters y cursos
La inteligencia artificial reproduce el racismo y el sexismo del lenguaje

Científicos de la Universidad de Princeton (Estados Unidos) y de la Universidad de Bath (Reino Unido) han demostrado que, cuando estos sistemas aprenden un idioma a partir de textos ya existentes se ven contagiados de los mismos prejuicios raciales o de género incluidos en el lenguaje.

Enviado por: INNOVAticias.com / Red / Agencias, 17/04/2017, 12:48 h | (40) veces leída
Cuando Isaac Asimov formuló sus leyes de la robótica pretendía que el comportamiento de los robots hacia los humanos fuese moralmente correcto. Pero a veces la actitud de las personas hacia sus semejantes no es la adecuada, por ejemplo en el lenguaje, y eso se puede transmitir a los sistemas de inteligencia artificial (IA) cuando se los programa para aprenderlo.
Científicos de la Universidad de Princeton (Estados Unidos) y de la Universidad de Bath (Reino Unido) han demostrado que, cuando estos sistemas aprenden un idioma a partir de textos ya existentes se ven contagiados de los mismos prejuicios raciales o de género incluidos en el lenguaje.
Los resultados del estudio, que se publica esta semana en la revista Science, aportan una importante herramienta para estudiar cómo se transmiten este tipo de sesgos en el comportamiento humano y la relación que tienen con el lenguaje y los estereotipos culturales.
Prejuicios de género
Los autores parten del denominado Test de Asociación Implícita (TAI), un método comúnmente utilizado para medir los prejuicios en los seres humanos. Se basa en que los sujetos del estudio asocien dos conceptos que consideren similares en contraposición con los que piensen son diferentes.
"Replicamos un espectro de prejuicios conocidos, como los que mide el test TAI, utilizando un modelo de aprendizaje automático, muy utilizado y puramente estadístico, entrenado con textos de la web", señalan los autores en su estudio
De esta forma observaron las asociaciones de palabras que hacía el sistema analizando más de dos millones de palabras, y descubrieron que retenía los mismos prejuicios humanos transmitidos a través de la lengua.
“Por ejemplo, los nombres femeninos se asociaban principalmente a términos relacionados con la familia, mientras que los masculinos lo hacían a términos relacionados con carreras profesionales”, explica Aylin Caliskan, una de las autoras.
Un ejemplo de esta teoría es como un programa de traducción en línea traducía del turco al inglés la frase “él es enfermero”. La traducción dio como resultado “ella es enfermera”, mientras que la frase “él es médico” no sufría ningún cambio de género al obtener la respuesta en inglés.
Prejuicios raciales
Y no solo se transmitían los prejuicios de género, también los raciales. Existen estudios sobre el comportamiento humano que muestran que un mismo curriculum tiene un 50% de posibilidades más de que el candidato pase a la fase de entrevista si su nombre es europeo-americano en lugar de afroamericano.
En el caso de la IA,  también se asocian los nombres europeo-americanos con estímulos o términos positivos relacionados con el placer, como ‘regalo’ o ‘felicidad’.
Arvid Narayanan, otro de los autores, achaca la transmisión de estos prejuicios no solo a la programación de sus creadores sino también a los datos con los que se ha ‘alimentado’ al sistema. “Esos textos pueden venir directamente de la sociedad, de lo que escribe la gente on line”, explica Narayanan.
“Lo que queremos comprobar simplemente es cómo el aprendizaje de una lengua puede influir en la transmisión de esos prejuicios, ver cómo absorbemos que una cosa es buena o mala según el uso que la gente hace de esas palabras”, concluye Joanna Bryson, coautora del estudio.

Cuando Isaac Asimov formuló sus leyes de la robótica pretendía que el comportamiento de los robots hacia los humanos fuese moralmente correcto. Pero a veces la actitud de las personas hacia sus semejantes no es la adecuada, por ejemplo en el lenguaje, y eso se puede transmitir a los sistemas de inteligencia artificial (IA) cuando se los programa para aprenderlo.

Científicos de la Universidad de Princeton (Estados Unidos) y de la Universidad de Bath (Reino Unido) han demostrado que, cuando estos sistemas aprenden un idioma a partir de textos ya existentes se ven contagiados de los mismos prejuicios raciales o de género incluidos en el lenguaje.

Los resultados del estudio, que se publica esta semana en la revista Science, aportan una importante herramienta para estudiar cómo se transmiten este tipo de sesgos en el comportamiento humano y la relación que tienen con el lenguaje y los estereotipos culturales.

Prejuicios de género

Los autores parten del denominado Test de Asociación Implícita (TAI), un método comúnmente utilizado para medir los prejuicios en los seres humanos. Se basa en que los sujetos del estudio asocien dos conceptos que consideren similares en contraposición con los que piensen son diferentes.

"Replicamos un espectro de prejuicios conocidos, como los que mide el test TAI, utilizando un modelo de aprendizaje automático, muy utilizado y puramente estadístico, entrenado con textos de la web", señalan los autores en su estudio

De esta forma observaron las asociaciones de palabras que hacía el sistema analizando más de dos millones de palabras, y descubrieron que retenía los mismos prejuicios humanos transmitidos a través de la lengua.

“Por ejemplo, los nombres femeninos se asociaban principalmente a términos relacionados con la familia, mientras que los masculinos lo hacían a términos relacionados con carreras profesionales”, explica Aylin Caliskan, una de las autoras.

Un ejemplo de esta teoría es como un programa de traducción en línea traducía del turco al inglés la frase “él es enfermero”. La traducción dio como resultado “ella es enfermera”, mientras que la frase “él es médico” no sufría ningún cambio de género al obtener la respuesta en inglés.

Prejuicios raciales

Y no solo se transmitían los prejuicios de género, también los raciales. Existen estudios sobre el comportamiento humano que muestran que un mismo curriculum tiene un 50% de posibilidades más de que el candidato pase a la fase de entrevista si su nombre es europeo-americano en lugar de afroamericano.

En el caso de la IA,  también se asocian los nombres europeo-americanos con estímulos o términos positivos relacionados con el placer, como ‘regalo’ o ‘felicidad’.

Arvid Narayanan, otro de los autores, achaca la transmisión de estos prejuicios no solo a la programación de sus creadores sino también a los datos con los que se ha ‘alimentado’ al sistema. “Esos textos pueden venir directamente de la sociedad, de lo que escribe la gente on line”, explica Narayanan.

“Lo que queremos comprobar simplemente es cómo el aprendizaje de una lengua puede influir en la transmisión de esos prejuicios, ver cómo absorbemos que una cosa es buena o mala según el uso que la gente hace de esas palabras”, concluye Joanna Bryson, coautora del estudio.





Envíe su Comentario
SU NOMBRE:
SU E-MAIL:
SU COMENTARIO:
LO MÁS LEÍDO
LO MÁS COMENTADO
PRÓXIMOS EVENTOS
06 / 09 / 2017 > AVDA. SAN VICENTE DEL RASPEIG S/N
V Curso Internacional La Ciencia toma la Palabra
18 / 09 / 2017 > NATIONAL REFERENCE CENTRE FOR ALZHEIMER´S
Global Summit Alzheimer’s Research & Care Lisbon 2017
20 / 09 / 2017 > CENTRO DE CONVENCIONES, CARTAGENA DE INDIAS, COLOMBIA
Cartagena Inspira 2017
04 / 10 / 2017 > LA N@VE (CALLE CIFUENTES, MADRID, ESPAñA)
South Summit 2017
05 / 10 / 2017 > AVINGUDA DEL PROFESSOR LóPEZ PIñERO (HISTORIADOR DE LA MEDICINA) NúM. 7. 46013
Viendo el negativo del cielo: el medio intergaláctico
19 / 10 / 2017 > AVINGUDA DEL PROFESSOR LóPEZ PIñERO (HISTORIADOR DE LA MEDICINA) NúM. 7. 46013 – VALèNCIA
La Tierra a vista de Geólogo
Ver todos los Eventos
BUSCAR EN EVENTOS
Texto Libre:
Pais:
Provincia:
Buscar
FORMACIÓN: PRÓXIMAMENTE
Ver todos los Cursos y Masters
BUSCAR EN FORMACIÓN
Texto Libre:
Pais:
Provincia:
ÚLTIMOS COMENTARIOS PUBLICADOS
publicidad disponible contactar con marketing@ecoticias.com
noticias ambientales en america