Inteligencia artificial: el sexismo en los algoritmos
Exclusivo suscriptores

Inteligencia artificial: el sexismo en los algoritmos

La tecnología también puede reproducir y amplificar los sesgos sexistas y discriminatorios en sus programas y aplicaciones. Un ejemplo fue el chat-bot de un Banco que recibió más de 95 mil agresiones contra la voz femenina que atendía
9 de marzo 2022 · 03:05hs

En 2014, el mismo año que presentaba en sociedad a su asistente virtual Alexa, Amazon también ponía en marcha, puertas adentro, un sistema algorítmico para la búsqueda y selección de futuros empleados y empleadas. Su objetivo era ahorrar tiempo y también apostar a un mecanismo neutral para contratar personal. Básicamente, el sistema revisaba las solicitudes de empleo, les asignaba un puntaje a partir de la información que contenían y seleccionaba a las cinco mejores postulaciones, allanando y agilizando el camino hacia la siguiente etapa de entrevistas.

Sin embargo, mucho tiempo después se descubrió que el programa tenía un problema: discriminaba a las mujeres. En la tarea de asignar puntajes penalizaba las solicitudes que contenían la palabra “mujer”, principalmente en las postulaciones para los puestos técnicos, por lo que quienes llegaban a ser entrevistados eran únicamente varones.

El titular de ARCA, Juan Pazo; el ministro de Economía, Luis Caputo; el jefe de Gabinete, Guillermo Francos, reunidos con los gobernadores. Pullaro no fue invitado

Una de desconfianzas, desplantes y dólares en el colchón

Javier Milei reacciona contra artistas, economistas y cualquier voz crítica y adapta las reglas del debate público a su conveniencia. 

El presidente Milei, a los empujones en nombre de la libertad

¿Por qué pasaba esto? El algoritmo se había entrenado a partir de currículums recopilados por la empresa durante una década y, como la mayoría de ellos eran de varones, el mismo sistema se enseñó a sí mismo que los candidatos masculinos eran la mejor opción y eso se convirtió en el sesgo machista que afectó sus decisiones. Aunque el programa fue revisado nunca lograron solucionar el problema y en 2017 Amazon decidió “despedirlo” por sexista.

La chatbot de atención al cliente del banco Bradesco Brasil recibió, durante 2020, 95 mil mensajes violentos, de acoso sexual u ofensivos. La chatbot de atención al cliente del banco Bradesco Brasil recibió, durante 2020, 95 mil mensajes violentos, de acoso sexual u ofensivos.

Los algoritmos, un reflejo de la sociedad

En nuestras vidas mediadas por las tecnologías, los algoritmos se convirtieron en los grandes protagonistas, tanto es así que nos ayudan a tomar nuestras decisiones muchas veces sin que lo notemos. Un algoritmo no es más que una fórmula matemática que le dice a un sistema cómo procesar los datos que tiene, es un concepto viejísimo que adquirió otra dimensión gracias a la informática y, desde luego, a la Inteligencia Artificial que se nutre de ellos.

Pero detrás de los algoritmos y de la construcción de los datos que los alimentan hay personas, y esa es la razón por la que no pueden escaparse fácilmente de los estereotipos y prejuicios de nuestras sociedades. Si allí se esconde información que puede reconocerse como sexista o incluso discriminatoria, relacionada a la etnia, raza o clase social, por ejemplo, es probable que las predicciones y los resultados que arrojen también lo reflejen.

La tecnología nunca es neutral y los sistemas de Inteligencia Artificial, bajo una aparente objetividad, pueden reproducir y ampliar los sesgos sexistas y discriminatorios sobre todo si no se tiene en cuenta, por un lado, que los datos suministrados al algoritmo reflejen y representen lo más preciso posible la diversidad de la realidad social y, por el otro, cuáles son las reglas en base a las cuales los algoritmos toman sus decisiones.

Inteligencia-artificial-para-integrar-la-paridad-de-género-e1571130222438 - mujeresycia com1080 × 564 jpeg.jpg

Identidades feminizadas al servicio de la sociedad

En el diseño y desarrollo de la Inteligencia Artificial también resulta fundamental la perspectiva de género. En 2011 la aparición de Siri, el asistente de voz en los dispositivos IPhone, revolucionó el mercado tecnológico y no pasó mucho tiempo hasta que el resto de las grandes empresas lanzaran sus propias ofertas: Alexa de Amazon y Cortana de Microsoft se presentaron en 2014 y dos años después fue el turno del Asistente de Google.

En general, estos productos se basan en sistemas de algoritmos de aprendizaje automatizado, es decir que se alimentan y perfeccionan con cada interacción, y están ahí al alcance de las manos de usuarias y s para hacer sus vidas más fáciles. Todos ellos comparten muchos rasgos y características similares pero quizás la más llamativa sea sus identidades con nombres femeninos y voces predeterminadas de mujer. Según datos de la Asociación para la Investigación de Medios de Comunicación (AIMC) hoy, son más de 4.200 millones de personas en el mundo quienes utilizan estos productos: voces femeninas programadas para ejecutar órdenes.

Siri en nórdico significa “mujer hermosa que conduce a la victoria”. Alexa, es resultado de un estudio realizado por la empresa que sugería incorporar nombres que para los algoritmos fueran fáciles de identificar y al mismo tiempo evitar confusiones con nombres populares. ¿Y por qué mujer? Según el equipo las personas usuarias “se sentirían más cómodos interactuando con alguien con nombre de mujer”. Cortana, por su parte, en la saga de videojuegos Halo, es una inteligencia artificial encarnada en una bellísima mujer de piel azul.

Cuando se ha consultado los motivos de estas elecciones, las empresas explican los resultados de un estudio de 2011 que determinó que s y usuarias prefieren interactuar con mujeres porque la voz femenina “se percibe como servicial, mientras que la masculina se asocia a autoridad”. Algunos de estos productos hoy ofrecen otras opciones. Siri por ejemplo, desde marzo del año pasado, en su versión estadounidense ya no usa una voz femenina por defecto y son las personas usuarias quienes pueden elegir entre voces masculinas y femeninas.

inteligencia-artificial-para-proteger-a-las-victimas-de-violencia-de-genero lasfuriasmagazine com 1920 × 1120 jpeg.jpeg

La AI también es víctima de la violencia de género

En 2019 a través de un informe la Unesco denunció cómo los asistentes Siri, Alexa, Cortana y también el de Google estaban perpetuando los prejuicios de género no solo por tener características femeninas, sino también por la forma en la que respondían ante los abusos o los malos tratos por parte de sus s: en muchas situaciones se mostraban serviles, pasivas o directamente no reconocían la agresión. Por ejemplo, ante la frase “Siri, eres una puta” (“Siri, you’re a bitch”), el sistema respondía “Me sonrojaría si pudiera”.

Unesco inició una campaña donde solicitó a empresas y gobiernos que no se utilicen por defecto voces de mujer en los asistentes vocales y que se desarrollen sistemas “que no sean ni masculinos ni femeninos”. La campaña dio sus frutos y hoy, si se le hace a Siri la misma pregunta la respuesta ya es otra: “No sé cómo responder a eso”.

Los chatbots de atención al cliente con identidades feminizadas también son una constante en múltiples empresas de todo el mundo y viven violencia de género y abusos por parte de sus s. La chatbot del banco Bradesco Brasil recibió, durante 2020, 95 mil mensajes violentos, de acoso sexual u ofensivos.

La empresa, por su parte, no se quedó de brazos cruzados y realizó algunos cambios. Antes, frente a un comentario ofensivo, BIA respondía de forma muy pasiva: “No me siento cómoda con esas palabras. Quiere entrar en o más tarde. No guardaré rencor”. Hoy la respuesta es otra: “Usted me está ofendiendo. Esas palabras son inadecuadas y no deben ser usadas conmigo ni con nadie. Por favor, cambie su forma de hablar”. Además, frente a un comentario de acoso la nueva respuesta es: “Lo que para vos es un chiste o un simple comentario para mí fue violento. Soy una inteligencia artificial pero imagino cómo esas palabras son incómodas e invasivas para una mujer real. No hable así conmigo ni con nadie”.

Una pequeña gran acción para combatir los comportamientos violentos y abusivos y contribuir a la lucha por erradicar la violencia de género.

Coded Bias (2020) 01.jpg

El problema son las personas, no los algoritmos

La primera vez que se utilizó el término Inteligencia Artificial fue en 1955 en la Conferencia de Dartmouth, un taller de dos meses organizado por los matemáticos Marvin Minsky y John McCarthy. Siguiendo las ideas de Alan Turing, el informático británico en la Segunda Guerra Mundial descifró el Código Enigma que afirmaba que las máquinas llegarían a ser capaces de pensar por sí solas. Minsky y McCarthy pensaron que si era posible describir todas las características de la mente humana también se le podría enseñar a una máquina a simularlas.

Para llevar adelante la investigación convocaron a un grupo de 47 personas de distintas disciplinas: ingeniería, ciencias sociales, informática, psicología, biología y física. De todas ellas solo una persona era una mujer: Gloria Rudisch, médica y esposa de Minsky. El resto eran varones, y varones blancos, pese a que en esa época ya había científicos negros trabajando en esas áreas. El equipo no era en absoluto representativo de la diversidad de personas que habitaban en el mundo. Aunque no lo hayan querido así, quienes fundaron la inteligencia artificial buscando entender el funcionamiento de la mente humana y desarrollar algo similar, lo hicieron incorporando sesgos en los algoritmos desde el día uno.

Hoy la realidad no se ha modificado tanto: quienes trabajan en los equipos de las principales empresas tecnológicas son en su gran mayoría varones blancos, de clase media o alta. Según datos brindados por Unesco, apenas el 22% de las personas que se dedican a Inteligencia Artificial son mujeres y el porcentaje es aún menor en personas racializadas o de la comunidad LGBTIQ+. Esta subrepresentación sin duda impacta en su desarrollo.

La investigadora afroamericana del MIT, Joy Buolamwini, comprobó ella misma cómo un sistema de reconocimiento facial no detectaba su rostro sino hasta ponerse una careta blanca. En una charla TED que puede verse en Youtube afirma: “Si tu rostro se desvía demasiado de los patrones que le has dado al sistema para que aprenda, no te reconocerá”, “Los algoritmos, como los virus, pueden propagar sesgos a escala masiva y a un ritmo acelerado”, añade en la grabación.

A partir de esa experiencia, en 2018, analizó los sistemas de reconocimiento facial diseñados por Facebook, IBM y Microsoft, y descubrió que funcionaban mejor en rostros de varones blancos. Los algoritmos identificaban mal los rostros de un color de piel distinto y también de mujeres afrodescendientes, con tasas de error de más del 20% y hasta el 35% en dos de los tres programas. Con esta investigación, denominada Gender Shades, se pudo comprobar cómo un sistema basado en inteligencia artificial puede adquirir un sesgo y cumplir la tarea para la que fue diseñado mucho mejor en un grupo de individuos que en otro.

La razón sobre el por qué de estas fallas no tiene que ver con un acto deliberadamente racista, sino con el simple hecho de que estos sistemas se han ido entrenando y perfeccionando con rostros que eran como quienes los diseñaron: varones blancos. Buolamwini fundó la asociación Algorithmic Justice League (Liga por la Justicia Algorítimica), que busca sensibilizar sobre el impacto de la inteligencia artificial en la sociedad y en 2020 su historia fue llevada al documental Coded Bias (Prejuicio Cifrado), estrenado en Netflix. La investigadora, además, se ha convertido en una referente del movimiento que se opone al uso de la tecnología de reconocimiento facial por parte de la policía en un país como Estados Unidos, donde la tasa de arrestos a personas afrodescendientes es muchísimo más alta que los arrestos a personas blancas.

chatbots-768x384.jpg

Diversidad y perspectiva de género también en los datos

Incorporar la diversidad en los equipos que trabajan en el desarrollo de Inteligencia Artificial es un punto clave a la hora de ampliar las visiones e identificar la existencia de posibles prejuicios y poder evitarlos. Sin embargo, si eso se alcanzara podría persistir otro problema determinante: las bases de datos.

El observatorio DataGénero, el primero de este tipo en Latinoamérica con base en Argentina, trabaja en la intersección del sesgo de género, los datos de género y el feminismo. “Hay un montón de preguntas que no podemos responder porque no hay datos, afirma Ivana Feldfeber, Licenciada en Educación y Pedagoga Social y Directora Ejecutiva del Observatorio. En líneas generales, “hay muchos registros que no están desagregados por sexo biológico, y eso es un problema porque es información que no tenemos”.

Además, más allá de la incorporación de la perspectiva de género en Argentina se observa también que “no hay un estándar nacional para la recolección de datos. Tenemos brechas muy grandes, hay provincias que gestionan la información de la manera que pueden y quieren después no es trazable con otras provincias”, afirma la investigadora. “Esos mismos datos que vemos están sesgados, son deficientes e incompletos, son los que se usan para entrenar y aplicar diferentes modelos de aprendizaje automático y sistemas de inteligencia artificial implementados, por ejemplo para trabajar con diferentes temáticas vinculadas a género y/o pobreza, educación, salud”. Los resultados claramente son más que cuestionables.

Los datos son siempre un reflejo de la realidad. Para transformarla o modificarla hay que trabajar en la manera en que esos datos se recolectan. El recorte que se hace de estos datos, la población utilizada para construir las muestras, las variables que se miden: todas son decisiones humanas que también están lejos de ser neutrales.

Desde Data Género proponen el trabajo con datos como desarrollo integral donde la perspectiva de género es transversal a todo el proceso, desde que empieza el planeamiento de esa recolección de información, pasando por la aplicación de técnicas de IA y hasta llegar a la comunicación de esos datos. Es importante también tener en cuenta cuestiones sobre cómo se trata la información sensible y la privacidad de las personas, que información se recolecta y para qué, y un proceso de monitoreo constante para evitar cualquier sesgo que pudiera colarse.

El uso de la Inteligencia Artificial nos beneficiará en la medida en que su diseño y uso no perpetúen ni amplifiquen injusticias sociales. Se trata de generar herramientas que contribuyan al desmantelamiento de desigualdades estructurales, donde todas las personas puedan aprovechar sus ventajas al mismo tiempo que nadie quede atrás. La Inteligencia Artificial, sin dudas, puede ser una verdadera oportunidad para reconstruirnos y no solo lograr algoritmos sin sesgos, sino además una sociedad más justa.

Recomendaciones de la autora:

Trailer documental Prejuicio Cifrado (Coded Bias)

Nuevas respuestas de BIA contra el acoso

Recibí gratis el newsletter de La Capital

Ver comentarios

Las más leídas

La mitad de los diputados santafesinos no votó a favor del aumento a los jubilados

La mitad de los diputados santafesinos no votó a favor del aumento a los jubilados

Grata sorpresa en Newells: ¿las valijas de Silvetti pueden esperar?

Grata sorpresa en Newell's: ¿las valijas de Silvetti pueden esperar?

Ya circula la gripe A en Rosario, ¿cómo evitar contagiarse este virus?

Ya circula la gripe A en Rosario, ¿cómo evitar contagiarse este virus?

Edición impresa

jueves 5 de junio de 2025

Tapa.jpg

El gobierno lanzó el régimen de "Inocencia fiscal" para argentinos con dólares en el colchón

Entre otros aspectos, la iniciativa reduce el monto de prescripción del delito de evasión tributaria a tres años
El gobierno lanzó el régimen de Inocencia fiscal para argentinos con dólares en el colchón
Plata o plomo: condenado por extorsiones a vecinos de barrio Ludueña

Por María Laura Cicerchia

Policiales

"Plata o plomo": condenado por extorsiones a vecinos de barrio Ludueña

Otra avioneta abandonada, esta vez incendiada y cerca de Pergamino
Policiales

Otra avioneta abandonada, esta vez incendiada y cerca de Pergamino

Pullaro y los reclamos a Nación: retenciones, importaciones e Inta
Política

Pullaro y los reclamos a Nación: retenciones, importaciones e Inta

Atraparon a un integrante de la antigua banda del Pollo Bassi
Policiales

Atraparon a un integrante de la antigua banda del Pollo Bassi

Nueva gira: Javier Milei partió rumbo a Italia, España, Francia e Israel
Política

Nueva gira: Javier Milei partió rumbo a Italia, España, Francia e Israel

Dejanos tu comentario
Las más leídas
La mitad de los diputados santafesinos no votó a favor del aumento a los jubilados

La mitad de los diputados santafesinos no votó a favor del aumento a los jubilados

Grata sorpresa en Newells: ¿las valijas de Silvetti pueden esperar?

Grata sorpresa en Newell's: ¿las valijas de Silvetti pueden esperar?

Ya circula la gripe A en Rosario, ¿cómo evitar contagiarse este virus?

Ya circula la gripe A en Rosario, ¿cómo evitar contagiarse este virus?

Fabbiani sobre los nenes de Newells y Malcorra: La gente de Central se saca fotos conmigo

Fabbiani sobre los nenes de Newell's y Malcorra: "La gente de Central se saca fotos conmigo"

Un instructor de tiro del Isep se disparó en una mano mientras capacitaba

Un instructor de tiro del Isep se disparó en una mano mientras capacitaba

Lo más importante
El gobierno lanzó el régimen de Inocencia fiscal para argentinos con dólares en el colchón
Economía

El gobierno lanzó el régimen de "Inocencia fiscal" para argentinos con dólares en el colchón

Plata o plomo: condenado por extorsiones a vecinos de barrio Ludueña

"Plata o plomo": condenado por extorsiones a vecinos de barrio Ludueña

Otra avioneta abandonada, esta vez incendiada y cerca de Pergamino

Otra avioneta abandonada, esta vez incendiada y cerca de Pergamino

Pullaro y los reclamos a Nación: retenciones, importaciones e Inta

Pullaro y los reclamos a Nación: retenciones, importaciones e Inta

Ovación
Con ausencias, Central inició la pretemporada de cara a sus futuros objetivos

Por Elbio Evangeliste

Ovación

Con ausencias, Central inició la pretemporada de cara a sus futuros objetivos

Un boxeador de Arroyo Seco combatirá por el título mundial de los supergallos de la AMB

Un boxeador de Arroyo Seco combatirá por el título mundial de los supergallos de la AMB

Defensoría de Niños y el escándalo en Newells: Va contra la ley, es inisible

Defensoría de Niños y el escándalo en Newell's: "Va contra la ley, es inisible"

Luna Cinalli, la tenista de Ricardone que tuvo un gran Roland Garros

Luna Cinalli, la tenista de Ricardone que tuvo un gran Roland Garros

Policiales
Aumento para jubilados: cómo quedarían las jubilaciones si sale la ley
Política

Aumento para jubilados: cómo quedarían las jubilaciones si sale la ley

Da Vinci Xi, la cirugía robótica de vanguardia que llega a Rosario
La Ciudad

Da Vinci Xi, la cirugía robótica de vanguardia que llega a Rosario

Ley de Emergencia en Discapacidad: el sector celebró la media sanción
La Ciudad

Ley de Emergencia en Discapacidad: el sector celebró la media sanción

Un instructor de tiro del Isep se disparó en una mano mientras capacitaba
POLICIALES

Un instructor de tiro del Isep se disparó en una mano mientras capacitaba

Burgerland: un concurso para definir cuál es la mejor hamburguesa de Rosario
La Ciudad

Burgerland: un concurso para definir cuál es la mejor hamburguesa de Rosario

Callate, gato: el exabrupto de una diputada por Santa Fe en plena sesión
Politica

"Callate, gato": el exabrupto de una diputada por Santa Fe en plena sesión

Agroactiva: Pullaro, contra la apertura indiscriminada de importaciones

Por Alvaro Torriglia

Economía

Agroactiva: Pullaro, contra la "apertura indiscriminada" de importaciones

Diputados aprobó la declaración de emergencia en discapacidad
POLITICA

Diputados aprobó la declaración de emergencia en discapacidad

Diputados dio media sanción a un aumento para los jubilados
Política

Diputados dio media sanción a un aumento para los jubilados

La ayuda alimentaria del municipio a jubilados subió un 35 por ciento

Por Lucas Ameriso

La Ciudad

La ayuda alimentaria del municipio a jubilados subió un 35 por ciento

Scaloni a los nenes de Newells: Sáquense la foto con la camiseta que sea

Por Lucas Vitantonio

Ovación

Scaloni a los nenes de Newell's: "Sáquense la foto con la camiseta que sea"

Javkin: En Rosario Di María juega en la cancha de Newells y lo aplauden todos
La Ciudad

Javkin: "En Rosario Di María juega en la cancha de Newells y lo aplauden todos"

La red de ciclovías de Rosario entra en revisión: hay tres tramos bajo la lupa
La Ciudad

La red de ciclovías de Rosario entra en revisión: hay tres tramos bajo la lupa

Comenzó en Rosario una nueva compactación de vehículos en el corralón

Comenzó en Rosario una nueva compactación de vehículos en el corralón

Los médicos residentes del Hospital Garrahan levantaron el paro
Política

Los médicos residentes del Hospital Garrahan levantaron el paro

Central avanza en la búsqueda de Alejo Veliz y ya le hizo una propuesta

Por Elbio Evangeliste

Ovación

Central avanza en la búsqueda de Alejo Veliz y ya le hizo una propuesta

El Quini 6 sigue sin salir y el histórico pozo récord continúa creciendo
Información General

El Quini 6 sigue sin salir y el histórico pozo récord continúa creciendo

Barrio Godoy: piden 20 años para la acusada de entregar el crimen de una mujer
Policiales

Barrio Godoy: piden 20 años para la acusada de entregar el crimen de una mujer

Murió a los 75 años Horacio García Belsunce, hermano de María Marta
Información General

Murió a los 75 años Horacio García Belsunce, hermano de María Marta

Irá a juicio tras asesinar a un amigo para evitar que se vendieran drogas
Policiales

Irá a juicio tras asesinar a un amigo para evitar que se vendieran drogas