Por qué la falta de diversidad es un lastre para la inteligencia artificial

Por qué la falta de diversidad es un lastre para la inteligencia artificial

Una forma de minimizar los riesgos de la IA es aumentar la diversidad de los equipos implicados en su desarrollo

Los sistemas de Inteligencia Artificial (IA) son cada vez más listos y derrotan a campeones del mundo en juegos como Go, identifican tumores em pruebas médicas, mejor que los radiólogos humanos y aumentan la eficacia de los centros de datos hambrientos de electricidad. Algunos economistas comparan el potencial transformador de la IA con otras “tecnologías de uso general” como la máquina de vapor, la electricidad o el transistor.

Pero los sistemas de IA actuales distan de ser perfectos. Tienden a reflejar los prejuicios de los datos que se utilizan para entrenarlos y a estropearse cuando se enfrentan a situaciones inesperadas. Se les puede engañar, como hemos visto en el caso de las controversias que rodean la información falsa en las redes sociales, el contenido violento publicado em Youtube, o el famoso caso de Tay, el chatbot de Microsoft, que fue manipulado para hacer declaraciones sexistas en cuestión de horas.

¿Realmente queremos transformar estas frágiles tecnologías propensas a los prejuicios en la piedra angular de la economía del mañana?

Minimizar el riesgo

Una forma de minimizar los riesgos de la IA es aumentar la diversidad de los equipos implicados en su desarrollo. Como indica la investigación sobre toma de decisiones colectiva y creatividad, los grupos que son cognitivamente más diversos tienden a tomar mejores decisiones. Desgraciadamente, este no es ni de lejos el caso de la comunidad que actualmente está desarrollando sistemas de IA. Y la falta de diversidad de género es una dimensión importante (aunque no la única) de esto.

Un análisis publicado este año por el AI Now Institute reveló que menos del 20% de los investigadores que solicitan participar en prestigiosas conferencias sobre IA son mujeres, y que estas representan solo una cuarta parte de los estudiantes universitarios de IA en Stanford y en la Universidad de California en Berkeley.

Los autores afirmaban que esta falta de diversidad de género da lugar a fallos de IA que únicamente afectan a las mujeres, como um sistema de contratación de Amazon que discriminaba a los solicitantes de trabajo con nombres femeninos.

Nuestro reciente informe Diversidad de género em la investigaición sobre IA, incluye un análisis de big data de 1,5 millones de trabajos de arXiv, una página web de prepublicaciones que la comunidad de la IA utiliza muy a menudo para difundir su trabajo.

“Nuestro análisis confirma la idea de que hay una crisis de diversidad de género en la investigación sobre IA. Solo el 13,8% de los autores de IA en arXiv son mujeres y, en términos relativos, la proporción de trabajos de IA de los cuales es coautora al menos una mujer no ha mejorado desde la década de los noventa”.

Analizamos el texto de resúmenes para determinar cuáles aplican técnicas de IA, dedujimos el género de los autores a partir de sus nombres y estudiamos los niveles de diversidad de género en la IA y su evolución en el tiempo. También comparamos la situación en diversos campos de investigación y países, y las diferencias en el lenguaje entre los trabajos con coautores femeninos y los trabajos con autores solo masculinos.

Hay diferencias significativas entre países y campos de investigación. Encontramos una mayor representación femenina en la investigación sobre IA en Holanda, Noruega y Dinamarca, y una representación menor en Japón y Singapur. También encontramos que es más probable que las mujeres que trabajan en física, educación, biología y aspectos sociales de la informática publiquen trabajos sobre IA frente a las que trabajan en informática o matemáticas.

Además de medir la diversidad de género del personal investigador de la IA, también exploramos las diferencias semánticas entre trabajos de investigación con y sin participación femenina. Probamos la hipótesis según la cual los equipos de investigación con más diversidad de género tienden a aumentar la variedad de problemas y temas que se tienen consideración en la investigación sobre IA, lo cual hace que sus resultados sean potencialmente más inclusivos.

Para hacerlo, medimos la “firma semántica” de cada trabajo utilizando una técnica de aprendizaje de las máquinas llamada word embeddings (mapeo de palabras) y comparamos las firmas de los trabajos en los cuales al menos un autor era una mujer con las de trabajos sin ninguna autora.

Este análisis, que se centra en el campo del Aprendizaje de las Máquinas y los Aspectos Sociales de la Informática en Reino Unido, mostraba diferencias significativas entre los grupos. En concreto, descubrimos que los trabajos con al menos una coautora tienden a ser más prácticos y sensibilizados socialmente, y en ellos términos como “justicia”, “movilidad humana”, “mental”, “género” y “personalidad” desempeñan un papel clave. La diferencia entre los dos grupos es coherente con la idea de que la diversidad cognitiva tiene un impacto en la investigación producida e indica que da lugar a un mayor compromiso con las cuestiones sociales.

Cómo arreglarlo

Entonces, ¿cómo se explica esta persistente brecha de género en la IA y qué podemos hacer al respecto?

La investigación muestra que la falta de diversidad de género entre los trabajadores de la ciencia, la tecnología, la ingeniería y las matemáticas (STEM, según sus siglas en inglés) no es producto de un solo factor: los estereotipos y la discriminación de género, la falta de modelos y mentores, la atención insuficiente al equilibrio entre trabajo y vida privada y los ambientes de trabajo “tóxicos” de la industria tecnológica se juntan para crear una tormenta perfecta contra la inclusión de género.

Acabar con la brecha de género en la investigación sobre IA no tiene fácil solución. Cambios en todo el sistema para crear espacios seguros e inclusivos que apoyen e impulsen a investigadores pertenecientes a grupos con poca representación, un cambio en las actitudes y las culturas en los campos de la investigación y la industria y una mejor comunicación del potencial transformador de la IA en numerosas áreas podrían ser parte de la misma.

“Hay pruebas de que factores como los estereotipos generalizados de género y un entorno educativo que afecta más a la confianza de las chicas que a la de los chicos son parte del problema”

Las intervenciones políticas, como la inversión estatal de 13,5 millones de libras para fomentar la diversidad de papeles en la IA a través de nuevos cursos universitarios de transformación quizá mejorarán un poco la situación, pero se necesitan intervenciones a gran escala para crear mejores conexiones entre las artes, las humanidades y la IA, y cambiar la imagen de quién puede trabajar en IA.

Aunque no hay una sola razón para que las chicas dejen de manera desproporcionada de matricularse en asignaturas como Ciencias, Tecnología, Ingeniería y Matemáticas a medida que avanzan en sus estudios, hay pruebas de que factores como los estereótipos generalizados de género y um entorno educativo que afecta más a la confianza de las chicas que a la de los chicos son parte del problema. También debemos resaltar aquellos modelos que utilizan la IA para propiciar un cambio a mejor.

Una intervención tangible para abordar estos problemas es el Premio Longitude Explorer, que anima a los alumnos de educación secundaria a utilizar la IA para resolver retos sociales y trabajar con modelos de IA. Queremos que los jóvenes, especialmente las chicas, se den cuenta del potencial de la IA para el bien y de su papel a la hora de impulsar el cambio.

Reforzando la preparación y la confianza de las jóvenes podemos cambiar la proporción de personas que estudian y trabajan en IA y ayudar a abordar los posibles prejuicios de la inteligencia artificial.

Fonte: elpais.com

1008jia2001