¿Es Google machista? Tendencias de búsqueda que dicen mucho sobre la desigualdad de género

¿Cómo funcionan los algoritmos de los buscadores? 

Las alarmas saltaron hace ya unos años cuando se notificó que los algoritmos matemáticos usados en buscadores como Google tomaban decisiones viciadas por prejuicios de género o raciales. 

Al igual que en los logaritmos de otros buscadores, Google toma sus decisiones basándose en la recopilación de un conjunto de datos que ha ido acumulando, y muestra el contenido que considera más relevante para cada usuario. 

Para entender por qué sucede esto,  es necesario comprender cómo funcionan estos algoritmos. Operan mediante el conocido machine learning o aprendizaje automático, que es un tipo de inteligencia artificial que analiza la información para alcanzar una conclusión y resolver los problemas que se planteen, emitiendo juicios o predicciones sobre la información que procesa en función de los patrones que observa. 

Por tanto, si los datos que procesa están viciados de origen, los resultados duplicarán esta tara. 

Al fin y al cabo, lo único que hacen los algoritmos es imitarnos. Es decir, estos no toman decisiones, sino que imitan patrones aprendidos. Por lo que si la sociedad actual es machista se va a reflejar en los datos de los que se nutren estos sistemas, y por consecuencia lo serán también.

Safiya Noble, pionera en la investigación 

Safiya Umoja Noble es una profesora asociada en la Universidad de California en Los Ángeles, y es altamente reconocida por sus investigaciones y publicaciones sobre el tema de los algoritmos como forma de opresión. 

Su investigación se centra en el género, la cultura y la tecnología, y en cómo influyen en el diseño y uso de Internet. Ha dedicado los últimos 10 años de su carrera a esta  investigación que le apasiona, y que culminó con la publicación de su primer libro, titulado “Los algoritmos de la opresión”. 

En este libro, Noble considera cómo el sesgo en contra de las personas de color está incrustado en motores de búsqueda supuestamente neutros. Principalmente estudia cómo Internet genera y mantiene el racismo, enfocándose en Google y en su algoritmo de “caja negra”. Este concepto hace referencia a cuando introduces algo en el buscador y obtienes un resultado, pero nunca sabes cómo se ha llegado a él.

Safiya ha recibido numerosos premios por sus contribuciones a este campo, dando varias charlas y entrevistas por todo el mundo e impulsando la investigación para conseguir algoritmos libres de prejuicios

El algoritmo de los traductores online

El traductor de Google sigue utilizando estereotipos machistas para traducir idiomas neutros como el húngaro o el euskera, atribuyendo las tareas domésticas o el cuidado de los hijos al sexo femenino y otras actividades o profesiones, a los hombres.

Chema Alonso es una de las grandes figuras reconocidas en España por la lucha contra el funcionamiento habitual de los traductores de Google y Microsoft. Experto en Inteligencia Artificial y “hacker”, lanzó una iniciativa en “Change.org” para pedir que este problema fuese corregido. 

Para explicar el problema pone un ejemplo muy claro: si se introduce “The judge told the nurse to take care of the engineer”, la traducción que realiza el buscador automáticamente es: “El juez le dijo a la enfermera que cuidara del ingeniero”.

En este ejemplo, vemos claramente cómo la herramienta de traducción deduce que es más probable que un juez sea un hombre, una enfermera una mujer y un ingeniero un hombre. 

Para el reconocido hacker el problema reside en el tratamiento y la configuración de los datos con los que se entrena esta inteligencia artificial. Declara que: “si el entrenamiento se hace con datos de Internet sin analizar, traemos lo que haya históricamente, no solo en estos años, en la sociedad. Es decir, nos “comemos” la evolución y volvemos a tener problemas superados hace décadas (como el racismo, sexismo, machismo, etc.) traídos por modelos de inteligencia artificial que no sabemos realmente qué y cómo han aprendido”.

Es aquí donde reside otro de los grandes problemas, y es que nadie sabe realmente cuál es el mecanismo que explica a largo plazo el aprendizaje automático de un modelo de inteligencia artificial, ni siquiera sus propios creadores. 

Algoritmos de reconocimiento de imágenes

En 2020, el laboratorio Bikolabs, de la consultora Biko, hizo un experimento con los principales algoritmos de reconocimiento de imágenes, como IA, de Amazon, o Google Imágenes.

El experimento consistió en mostrarle a las principales soluciones de inteligencia artificial del mercado dos fotografías con personas llevando objetos históricamente estereotipados. Una es la original, y la otra es la misma pero con el género del sujeto cambiado mediante la aplicación FaceApp. 

Tras analizar las imágenes, la inteligencia artificial aplicaba de nuevo un sesgo machista en la clasificación de las fotos, y es que no se utilizaban las mismas etiquetas para clasificar las imágenes de hombres y mujeres. 

Por un lado, para las imágenes con protagonista femenina se proponían etiquetas relacionadas con temas como la ropa o la apariencia, predominando la etiqueta única de “chica”. Por otro lado, cuando se trataba del sexo masculino, las etiquetas eran mucho más variadas, destacando algunas como “caballero”, “portavoz” o “pelo de surfero”. 

Parece surrealista, pero algunos algoritmos no eran capaces ni de reconocer un taladro en la mano de una mujer, llegándolo a confundir con un secador de pelo.

Este experimento visibilizó una vez más el problema del sexismo en la inteligencia artificial, y de los denominados “sesgos” dentro de la misma. Estos aparecen cuando los resultados que ofrece la tecnología reflejan los estereotipos discriminatorios propios del contexto social y político de la sociedad, que transmiten los datos y programan este tipo de inteligencia artificial para que replique las respuestas habituales. 

¿Existe una solución para todo esto?

La creación de algoritmos que sean imparciales y no discriminatorios está en la agenda de muchas empresas tecnológicas. Ya en 2016, y a raíz de varias polémicas, Google, Facebook y Apple formaron la Partnership on AI, con el objetivo final de estudiar y aplicar mejores prácticas en las tecnologías de inteligencia artificial. 

Una de las soluciones que se está dando y que lleva varios años implementándose es la de completar los datos con los que se alimentan estos algoritmos para que sean más igualitarios, duplicando toda la información para que aparezca reflejada en ambos géneros. El resultado de esto es un algoritmo imparcial en cuanto a género

También, se están bloqueando los datos que hacen que el algoritmo esté plagado de prejuicios. Lo hacen con un sistema muy sencillo, que consiste en mostrarle al algoritmo los peores escenarios para posteriormente bloquearlos. Gracias a este tipo de técnicas, buscadores como Google han empezado a responder a peticiones o preguntas machistas y racistas con páginas que tratan sobre la desigualdad de género y el racismo.

Otro de los problemas que se está tratando de solucionar es el hecho de que estos sistemas benefician a la población masculina en la mayoría de las ocasiones porque están creados por hombres. En la industria de la inteligencia artificial, la representación femenina es mínima, por lo que se está luchando para que haya una representación femenina mayor en este campo que influya en el proceso de aprendizaje automático.