La inteligencia artificial ha democratizado la creación de imágenes hiperrealistas, poniendo al alcance de cualquiera la posibilidad de generar contenido falso. Esta capacidad, si bien puede ser utilizada para fines creativos, también representa una amenaza para la seguridad y la privacidad. Los deepfakes, por ejemplo, pueden ser utilizados para difamar a personas, manipular elecciones o incluso desencadenar conflictos. Ante este escenario, es imperativo aprender a identificar cuándo una cara es generada por IA o cuándo es real.
La inteligencia artificial permite crear una cara humana tan realista que es difícil distinguirla con la de una real. Y esto lo logra gracias a una red generativa antagónica (GAN), que básicamente es un tipo de algoritmo de aprendizaje automático.
Dicha red consiste en dos modelos: un generador y un discriminador. El primero crea imágenes de rostros o personas falsas, mientras que el segundo intenta determinar si son reales o no. A través de un proceso de competencia continuo, ambos se perfeccionan hasta que sean lo más convincentes posible.
Hay tres herramientas disponibles dentro del mercado de México que permiten trabajar de esa forma:
Es una plataforma en línea que despliega retratos aleatorios de personas creadas con IA cada vez que se abre o refresca. Para ello, emplea un código subyacente llamado StyleGAN, que fue escrito por desarrolladores de Nvidia.
Esta otra página va más allá de la simple generación de rostros. Ofrece una vasta biblioteca de imágenes generadas por inteligencia artificial, que representan a personas en diversas situaciones y contextos. Su función es servir de apoyo para proyectos creativos, comerciales y de diseño.
Art AI es un proyecto desarrollado por la Universidad de Cambridge que utiliza IA para crear obras de arte originales, inspiradas en los estilos de grandes movimientos artísticos a lo largo de la historia.
Un estudio encabezado por Piktochart, una aplicación especializada en la creación de infografías, advierte que la mejor forma de diferenciar entre las imágenes de caras o personas creadas por inteligencia artificial de las que no es aplicando el método SIFT, el cual consiste en las siguientes acciones:
La inteligencia artificial puede servir para la creación de deepfakes, un método que agrupa datos sobre expresiones y movimientos físicos de personas que, posteriormente, son procesados a través de una red GAN para crear un video “ultra falso”.
Para evitar ser víctima de este método de ciberdelincuencia, hay que considerar implementar las siguientes estrategias, sobre todo si se cuenta con un medio digital:
Aunque esta acción no evita los deepfakes, puede ayudar a verificar la autenticidad del contenido en cuestión.
Estos dos patrones pueden servir como prueba en caso de que se corran imágenes o vídeos fraudulentos, sobre el medio o alguno de sus trabajadores.
Dicha tecnología le permite a los propietarios legítimos del medio conservar la propiedad y autenticar su contenido.
Cuando se cuenta con una buena reputación en línea, se puede contrarrestar el impacto de posibles contenidos negativos. Incluso habrá lectores que defiendan al medio.
Es de suma importancia trabajar en actividades auténticas y significativas para ello.
Si se cuenta con muchos seguidores en redes sociales, se podría desarrollar y compartir contenido educativo sobre deepfakes y sus consecuencias.
Imagen: Freepik
Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *
Δ