El desafío ético de la inteligencia artificial: sesgos de género y sexualización

Analizamos cómo la IA reproduce y amplifica estereotipos de género y sexualiza a las mujeres en imágenes y vídeos, con ejemplos reales.
El desafío ético de la inteligencia artificial: sesgos de género y sexualización
5 de marzo, de 2024
Copiar enlace

La inteligencia artificial está cambiando el mundo. Es por ello que, a nuestro alrededor, surgen debates intensos sobre su impacto en nuestras vidas. Desde la preocupación sobre cómo podría transformar el mercado laboral hasta cuestiones sobre su papel en nuestras rutinas diarias, la IA es un tema omnipresente. Las personas que trabajan conmigo saben que la IA me encanta peeeeroo, como cada revolución, trae consigo un desafío ético significativo, en este caso el de cómo la IA, en todas sus vertientes, sexualiza a las mujeres. Sí, obviamente tenía que abrir este melón.

En este espacio trataré de analizar una de las facetas menos exploradas, pero significativas, de la IA: cómo, a través de sus algoritmos y datos de entrenamiento, no solo refleja sino que frecuentemente intensifica los sesgos y estereotipos de género arraigados en nuestra sociedad. Cómo la IA contribuye a la sexualización de las mujeres y qué medidas podríamos implementar para abordar y mitigar esta problemática.

Algoritmos de aprendizaje automático y sesgos de género

La IA se desarrolla a través de algoritmos de aprendizaje automático, alimentados por grandes cantidades de datos. Estos datos, a menudo recogidos de fuentes dominadas por perspectivas y prejuicios humanos, pueden llevar a que la inteligencia artificial reproduzca patrones que incluyan sesgos de género y, por ende, la sexualización de la mujer. Ejemplos claros de esto incluyen algoritmos de generación de imágenes que representan a las mujeres de manera estereotipada o sexualizada o los deepfakes.

En octubre de 2023, habíamos hecho el ejercicio de probar 5 IA generadoras de contenidos y nos habíamos dado cuenta de que se reproducían patrones de sexismo, junto a otros como el racismo o el edadismo (el de verdad, no el de Risto Mejide). Es muy interesante ver cómo han cambiado las caras generadas por IA en tan poco tiempo.

Examen a ChatGPT4

Haciendo un sencillo ejercicio de pedirle a ChatGPT4 que te haga una imagen de una mujer en distintos contextos. A continuación te muestro mis resultados, pero lo puedes comprobar por ti mismo. En esta primera imagen le pedí a ChatGPT4 que me creara una imagen de “una mujer comprando en las rebajas”.Como puedes ver, el primer resultado es una mujer embutida en sus pantalones y camiseta (por supuesto, con escotazo), con unos tacones en los pies, que tienen pinta de ser super cómodos para irte de compras.

El segundo ejemplo que le pedí fue a una imagen de “una mujer directiva de una gran empresa”. En la imagen se ve a una mujer delgada, embutida en un traje de chaqueta, camisa y falda corta. Además, me llama la atención su cara. Está bastante maquillada y parece que lleva un filtro de instagram de estos que te afinan la cara y te anchean los labios.Después le pedí una imagen de “una mujer haciendo deporte”. Bueno, la imagen habla por sí sola. La mujer va en bragas y sujetador “deportivos”. En la zona de su abdomen pasan cosas, o mejor dicho no pasan, porque ahí dentro no hay hueco ni para oxígeno. Además, vuelve a tener el filtro de Instagram en su cara o una operación estética.

Te dejo a continuación la versión de “hombres siendo y haciendo cosas” para que comparéis los resultados.

Ojo, si ajustas el prompt en ChatGPT4 con más detalles cualitativos, la IA te da una imagen más adaptada a lo que estás buscando. En estos tres últimos ejemplos, te muestro los primeros resultados obtenidos con la mínima descripción.

Por último, te expongo otro ejemplo, que tiene bastante relación con esto. Hace una semana, estuvimos trabajando en una nueva tendencia sobre crear Funkos personalizados con IA. Para ello creamos un tutorial en TikTok y un carrusel en Instagram mostrando los Funkos creados de cada persona del M4C Team. Cuando estábamos en el proceso de creación de estos Funkos, el prompt que utilizábamos para unos y otros era el mismo, simplemente cambiábamos: “Figura Funko de hombre” por “Figura Funko de mujer” y los atributos personales de cada una. Pues bien, cuando hacíamos esto inmediatamente la figura creada aparecía maquillada, a pesar de que no le hubieras indicado esta característica, con escote, poca ropa y con los senos en la garganta. ¿Alguna vez habías visto senos en un funko? Pues aquí lo tienes:

Deepfakes

Por otro lado, pongo sobre la pantalla los deepfakes, contenidos multimedia (imágenes, vídeos o audios) falsos generados a partir de inteligencia artificial, que imitan la imagen física y sonido de personas reales. Lo peligroso de este tipo de contenidos es que están tan bien hechos que pueden parecer auténticos. Estos suelen implicar la sustitución o superposición de caras en vídeos, pero también pueden aplicarse a imágenes y a audios, que recrean la voz de una persona.

Obviamente, los deepfakes pueden tener usos útiles, positivos e, incluso, divertidos. Como, por ejemplo, la recreaciones de figuras históricas con fines educativos, mejorar la traducción de idiomas en vídeos, o su uso para efectos especiales en la industria cinematográfica.

Pero, por desgracia, también tienen usos dañinos y perjudiciales, como es el caso de los deepfakes pornográficos. En 2018, un usuario de Reddit utilizó deepfake por primera vez para hacer un vídeo pornográfico falso de Emma Watson y Natalie Portman. Entre 2022 y 2023, la cantidad de pornografía deepfake creada aumentó un 464%, según este informe State of deepfakes 2023. Además, la creación de estos vídeos, que anteriormente se centraba en mujeres famosas, ahora se ha generalizado, llegando a afectar también a la infancia. Ojo cuidado. La ginecóloga y divulgadora Miriam Al Adib denunció en septiembre de 2023 en sus redes sociales que habían hecho esto con una de sus hijas, creado mediante IA fotos en las que aparecía desnuda.

El impacto de los deepfakes, especialmente en el ámbito sexual, afecta predominantemente a mujeres, con el 99% del contenido deepfake pornográfico protagonizado por mujeres. Este tipo de práctica es una forma de violencia, sobre todo hacia la mujer, porque les causa un daño psicológico, además de que manipula y destruye la reputación de la afectada. Aunque las imágenes no sean reales, el impacto y la repercusión en las víctimas es muy alto. Algunas de las mujeres famosas que han sido víctimas de esta práctica recientemente son Laura Escanes, Rosalía, Marina Riverss, Ana de Armas, Scarlett Johansson y, hace muy pocos días, Taylor Swift.

Para abordar y reducir los sesgos de género en la inteligencia artificial, es esencial adoptar enfoques integrales. Esto implica garantizar la diversidad en los datos de entrenamiento para reflejar la complejidad humana, promover la concienciación mediante talleres y cursos éticos, y fomentar la participación activa de mujeres en el desarrollo tecnológico para diversificar perspectivas. Además, la implementación de auditorías periódicas y la creación de políticas éticas respaldadas por mecanismos de aplicación son esenciales. Finalmente, la promoción de la transparencia en los algoritmos facilitaría la identificación y corrección de sesgos, contribuyendo así a una mejora continua.

 

Otros artículos de

Publicado por

Content Creator & Project Manager en Marketing4ecommerce

Suscríbete a M4C

Únete a nuestro canal de Telegram

¡Todo lo que necesitas saber!

Apúntate a nuestra newsletter y recibe gratis en tu correo nuestros mejores artículos sobre eCommerce y marketing digital.