- Desde el Centro Nacional en Inteligencia Artificial, las doctoras Claudia López y Gabriela Arriagada explican que la débil representatividad en los laboratorios es solo una parte del problema de fondo: la invisibilidad de las diversidades en la tecnología.
- Aseguran que, existe una falta de representatividad transversal en minorías y grupos sociales excluidos, y que el diseño de soluciones basadas en algoritmos no considera la perspectiva de género como parte fundamental de su proceso de desarrollo.
– La conmemoración del Día Internacional de la Mujer 2023 da cuenta de la necesidad de impulsar avances en materia de género; un 37% de las mujeres tiene acceso a dispositivos tecnológicos y las proyecciones de empleabilidad a 2050 son alarmantes, según la ONU.
Una de cada cinco personas que se desempeñan en el campo de la inteligencia artificial en el mundo es mujer. Sin embargo, estas brechas de representatividad de género y acceso no reflejan el problema de fondo: el sesgo que se genera por la falta de diversidad en el proceso de desarrollo de las soluciones basadas en las tecnologías que protagonizan la denominada revolución 4.0.
Así lo exponen las investigadoras del Centro Nacional de Inteligencia Artificial (Cenia) –entidad apoyada por la Agencia Nacional de Investigación y Desarrollo (ANID)–, las académicas Claudia López y Gabriela Arriagada, representantes de la Universidad Federico Santa María y la Pontificia Universidad Católica en el organismo.
Las especialistas chilenas, quienes lideran un grupo de trabajo en ética de IA dentro de Cenia, advierten que, actualmente, el desarrollo de soluciones de inteligencia artificial carece de la amplitud y calidad de datos en fenómenos que afectan a las mujeres, lo que ha motivado a redes de científicas a nivel global a impulsar un movimiento de “inteligencia artificial feminista”.
“La incorporación del feminismo a la inteligencia artificial presenta una mirada transformadora de cómo desarrollamos la inteligencia artificial, y de cómo hablamos sobre sesgos, prejuicios y estructuras sistemáticamente desiguales”, afirmó la profesora Arriagada, investigadora asociada de Cenia y profesora asistente del Instituto de Ética Aplicada y el Instituto de Ingeniería Matemática y Computacional de la PUC.
Los retos en materia de género en las tecnologías de la denominada cuarta revolución industrial, y que sin dudas marcarán el desarrollo del mundo en las próximas décadas, han motivado a las Naciones Unidas a que este 8 de marzo tenga como llamado: “Por un mundo digital inclusivo: Innovación y tecnología para la igualdad de género”.
Se espera que el avance de herramientas como la inteligencia artificial traigan enormes avances en la calidad y acceso a servicios y oportunidades en todo el mundo, pero a juicio de redes de científicas en todo el mundo, la cuestión de género –como resultado de la falta de datos y su impacto en el desarrollo de soluciones– es uno de los grandes dilemas éticos de la tecnología. Aunque, evidentemente, no es el único.
“Los desarrollos tecnológicos históricamente han avanzado solo considerando las preocupaciones de ciertos grupos específicos, pero no de todos. Y en ese contexto, la cuestión de género adquiere una relevancia mayor”, complementó la Dra. López, especialista en el desarrollo de tecnología centrada en las personas, y quien valora el trabajo de redes de investigadoras para modificar el curso del desarrollo y aplicaciones de la IA.
En el contexto del Día Internacional, la ONU confía en que la adopción de tecnologías disruptivas tenga un rol importante en la consecución de la denominada Agenda 2030 y los 17 Objetivos de Desarrollo Sostenible que incluye, entre ellos la igualdad de género. Para la entidad, las brechas de género reducen las posibilidades de innovación y de nuevas perspectivas para abordar los desafíos actuales y futuros del planeta.
En 2019, los 192 estados miembro de la Unesco firmaron el primer acuerdo sobre ética en IA, el cual define la urgencia de avanzar en criterios de inclusión, equidad y no-discriminación en el desarrollo de la tecnología. La cuestión de género es uno de los diez ejes que aborda el instrumento, que se define como de carácter normativo para los países.
Algoritmos y no-discriminación
La conmemoración del Día Internacional de la Mujer este año está fuertemente influenciada por la necesidad de promover un acceso igualitario de las mujeres a la tecnología. De acuerdo a ONU Mujeres, un 37% del género femenino no tiene acceso a dispositivos digitales, un panorama que es incluso más complejo en los países en vías al desarrollo y de ingresos medios y bajos.
La cifra de 22% de investigadoras en la comunidad científica en el campo de la inteligencia artificial es inferior a la cifra de mujeres en las denominadas áreas STEM (acrónimo de los términos en inglés para ciencia, tecnología, ingeniería y matemáticas) que es del 30%. A 2050 un 75% de los empleos, tres de cada cuatro, dependerán de tener conocimientos de los ámbitos STEM.
Para las investigadoras del Cenia, el déficit de científicas en su campo de estudio es solo la punta del iceberg, y tendrá consecuencias que no solo afectarán a las mujeres, sino también a grupos cuyos datos están pobremente representados en el proceso de investigación y desarrollo de las soluciones.
“Partimos desde una brecha sistemática donde la mujer no está representada en los datos. Está invisibilizada, pues los sesgos nacen a nivel metodológico”, apunta la investigadora Arriagada.
Un claro ejemplo de esto es la tipificación común de un infarto –una de las causas de mortalidad más importantes en la salud pública global– la cual es una tipificación masculina. Se esconden las diversidades porque son más difíciles de codificar y ese es un gran problema pues la mayoría de los estudios que usamos para entrenar algoritmos que apoyen en el diagnóstico usan estudios basados en la realidad y las necesidades masculinas”.
La cuestión es especialmente sensible porque el entrenamiento de los algoritmos en los que se basa la IA depende de la calidad y diversidad de estos datos. Y, si esos datos consideran a solo a parte de la población (típicamente blancos, de países desarrollados y de ingresos elevados) entonces se estará asumiendo que esas experiencias son representativas de la humanidad, lo que termina invisibilizando al resto de los grupos humanos y, posiblemente, generando resultados discriminatorios.
Esto, por ejemplo, ha derivado en enormes problemas relacionados con los derechos humanos a nivel del sistema judicial en Estados Unidos, donde herramientas de inteligencia artificial para predecir la reincidencia criminal han sido acusadas de no tener suficientes datos sobre las experiencias de las mujeres, y por lo tanto, funcionar peor para ellas. Eso además de estar sesgadas en contra de minorías raciales como afroamericanos, latinos, y asiáticos, y otras minorías de género.
Grupos de científicos de todo el mundo ya alertan sobre el dilema ético de los datos: un informe de investigadores de Princeton advirtió acerca de una crisis de reproducibilidad de los datos en inteligencia artificial, especialmente en el ámbito de la salud, en el contexto de la pandemia.
Actualmente, las redes de investigadores agrupadas en colectivos científicos feministas se están haciendo cargo de ciertas brechas en la existencia de datos que describan de mejor forma cómo problemas de distinta índole afectan a las mujeres. Para la Dra. Claudia López, no hay inteligencia artificial que pueda funcionar bien con datos de mala calidad en el desarrollo de las soluciones.
“No tenemos buenos datos de muchos comportamientos de las mujeres. Hay prácticas nuestras, por la forma en que somos socializadas y nos toca navegar en el mundo, que son diferentes a las de los hombres. Por ejemplo, nuestro comportamiento en el mundo financiero, o en la movilidad en la ciudad; también en el emprendimiento, donde las tecnologías asumen un enfoque masculino, competitivo y con dedicación exclusiva, muy distinto al que caracteriza a las mujeres, que emprenden por necesidad, con menos tiempo y que colabora en red”.
La falacia de la neutralidad
De acuerdo a la Unesco, las tecnologías emergentes han demostrado su inmensa capacidad “para hacer el bien”.
Sin embargo, la propia entidad advierte de la necesidad de controlar sus impactos negativos, que están exacerbando la realidad de un mundo que ya funciona desde la división y la desigualdad. El objetivo, plantea la agencia de Naciones Unidas, es contribuir a implementar mejores políticas y acciones, haciendo especial hincapié en la inclusión y la igualdad de género.
Las investigadoras del Cenia dan cuenta de la urgencia de problematizar la discusión sobre la IA, más allá de su novedad y la eficiencia que promete, a través de un trabajo multidisciplinario, entendiendo mejor los contextos en que se genera la data y aquellos en que se despliega la IA. Y, además, identificando las múltiples decisiones técnicas, éticas, y de negocio que influyen en sus resultados e impacto.
Desde ahí emanan múltiples movimientos internacionales como el A+ Alliance, y su propuesta de una red de IA feminista; o la iniciativa Data Género. A+ Alliance, por ejemplo, está promoviendo un enfoque feminista anclado en los Derechos Humanos, según explica la Dra. López, “porque ambos enfoques apuntan a la igualdad para todas las personas”.
La investigadora Arriagada coincide, reflexionando que “más que discursos bonitos, necesitamos herramientas que ayuden a diferentes desarrolladoras e investigadoras a hacerse partícipes de este proceso e incorporar estos principios y valores en sus metodologías de trabajo. Este es un proyecto que desde el CENIA estamos tomando bastante en serio. Apostamos por tener un rol importante en la educación de las comunidades científicas y que esto se transfiera a la sociedad”.
Para ambas académicas no es una sorpresa que la IA esté replicando patrones de desigualdad que históricamente han estado en la base del desarrollo tecnológico. Por eso, aseguran, que muchas investigadoras en Chile y América Latina se están uniendo para romper la tendencia. Se trata de lo que muchos denominan como “la falacia de la neutralidad” en las tecnologías.
“Mucha de la separación que ha habido en los últimos 30 o 40 años de las mujeres hacia las TICs ha sido porque se instaló la idea del computador y los videojuegos como algo masculino. Nos preocupa que creamos que el problema es que las mujeres no hemos querido ser parte de la ingeniería o la ciencia. No puede ser una carga solo en nuestros hombros hacerse espacio. Las instituciones y la disciplina deben cambiar también, e ir generando esos espacios. En eso, la IA feminista invita a cuestionar supuestos como que la tecnología es neutral y nos sirve igual a todas las personas. Históricamente no ha sido así”, sugirió la Dra. López.
Para la profesora Arriagada, no es un problema sencillo de reparar, porque, en el caso de la IA, la predicción de situaciones cotidianas tiende a ser reduccionista. “Las soluciones exigen la implicación también de los gobiernos, empresas y otras instituciones que tienen responsabilidades individuales y compartidas. Ya no podemos seguir guardando esto bajo la alfombra. Pero no debemos conformarnos con soluciones fáciles. El feminismo nos enseña que desde la complejidad se pueden lograr mejores cosas y poner la tecnología al servicio de las personas”.
En el plano académico, a nivel local, la ANID viene consolidando una radiografía de género en ciencia, tecnología conocimiento e innovación, demostrando que el número de mujeres matriculadas en educación superior es mayor que el de los hombre (54% y 46% respectivamente). Sin embargo, esta proporción va disminuyendo a medida que se avanza en el grado académico. La brecha se acentúa para las mujeres que van ascendiendo en las jerarquías académicas, un patrón se repite en todas las universidades (Por: Luis Francisco Sandoval. Agencia Inés Llambías Comunicaciones).
Equipo Prensa
Portal Educa