Personas creadas por IA: el impacto en México y cómo distinguir entre lo real y lo artificial

La mejor forma de diferenciar entre las imágenes con personas creadas por IA de las que no es aplicando el método SIFT. ¿De qué trata?
11 de septiembre, de 2024
Copiar enlace

La línea entre lo real y lo ficticio se vuelve cada vez más borrosa. Los días en los que podíamos confiar en nuestra intuición para detectar imágenes de personas creadas por herramientas de inteligencia artificial (IA) han quedado atrás. Ahora, para navegar en este nuevo mundo visual, necesitamos más que ojos críticos para evitar caer en la desinformación, un debate ético o hasta en un deepfake. ¡Te damos las claves!

Claves para distinguir a las imágenes de personas creadas por IA

Un estudio encabezado por Piktochart, una aplicación especializada en la creación de infografías, advierte que la mejor forma de diferenciar entre las imágenes con personas creadas por IA de las que no es aplicando el método SIFT, el cual consiste en las siguientes acciones:

  • Stop (Detente): antes de aceptar la imagen como real, debes tomar el tiempo necesario para evaluarla de manera crítica.
  • Investigate (Investiga): examina sus detalles y busca incoherencias o elementos inusuales dentro de ella, por ejemplo cuán proporcionales son los rostros que aparecen en ella, la apariencia de la piel, las arrugas y los rasgos faciales como los ojos.
  • Find (Encuentra): bien podrías adjuntar la imagen dentro de un buscador como Google para ver si te arroja resultados que aporten un contexto sobre su origen o autenticidad.
  • Trace (Rastrea): si te aparecen varias páginas con la misma imagen, rastrea su fuente original para verificar su legitimidad y evitar la difusión de información errónea.

Dos casos que pasaron por reales entre los internautas

  • 1. El Papa Francisco con una chaqueta Balenciaga

Las imágenes del Papa Francisco utilizando una chaqueta de la marca Balenciaga le dieron la vuelta al mundo durante el año pasado, pasando por verdaderas por una gran cantidad de internautas. Sin embargo, personas que ya habían utilizado Midjourney, la herramienta de inteligencia artificial con las que fueron creadas, se dieron cuenta de algunos errores; como que su oreja estaba manchada, que la mano con la que sostiene el café está deformada y que la textura de su piel era cerosa.

Midjourney, vía America Magazine
  • 2. La detención de Donald Trump

Eliot Higgins, fundador de la plataforma de periodistas Bellingcat, compartió en marzo de 2023 una serie de fotos del expresidente de Estados Unidos, Donald Trump, siendo arrestado. Muchas personas creyeron que eran reales porque justamente enfrentaba una acusación penal en Nueva York.

Su intención era mostrar la capacidad de herramientas como Midjourney para la creación de imágenes y la sugestión de la opinión pública.

Midjourney, vía ITP

 Los peligros potenciales de esta tecnología

  • Desinformación

Los ejemplos mencionados fueron casos de desinformación generalizada, que no solo puso en evidencia el poder de esta tecnología, sino también de sus peligros potenciales.

Por eso grandes empresas tecnológicas como Google y Adobe se han propuesto reducir el impacto negativo que éstas podrían generar. La primera planea añadir información a las imágenes creadas por IA; mientras que la segunda intenta rastrear las ediciones con esta tecnología, actuando como una etiqueta nutricional digital.

  • Debate ético

La IA también puede ser utilizada para mejorar el aspecto físico de las personas, contorneando rostros para que sean casi irreconocibles. Por ende, la comprensión de ellas mismas ha sido desafiada por esta tecnología.

  • Ciberdelincuencia

La inteligencia artificial puede servir para la creación de deepfakes, un método que agrupa datos sobre expresiones y movimientos físicos de personas que, posteriormente, son procesados a través de una red generativa antagónica (GAN) para crear un video “ultra falso”.

Entre los ejemplos más comunes de este tipo de fraude, destacan: videos falsos que muestran el rostro de sus víctimas para atentar contra su integridad y la manipulación de imágenes – sonidos para evitar contraseñas biométricas (de rostro o voz).

Imagen: Freepik

Publicado por

Redacto sobre marketing, eCommerce e IA para revistas digitales y portales web desde hace seis años. He tenido increíbles mentores que me dieron la oportunidad de escribir y hasta dirigir equipos de redacción y prensa en Latam desde muy joven.

Suscríbete a M4C

Únete a nuestro canal de Telegram

¡Todo lo que necesitas saber!

Apúntate a nuestra newsletter y recibe gratis en tu correo nuestros mejores artículos sobre eCommerce y marketing digital.