Los “Deepfakes” son archivos manipulados mediante la Inteligencia Artificial (IA) para engañar a las personas. Estos pueden ser videos, imágenes o sonidos falsos que parecen ser reales u originales. Los ciberdelincuentes aprovechan la potencia de esta inteligencia para ejecutar ataques cada vez más sofisticados.
El término “deep” proviene de “aprendizaje profundo”, y se combina con “fake” que significa “falso”. Por lo tanto, “deepfakes” hace referencia al uso de la inteligencia artificial y el aprendizaje automático para crear archivos que parezcan auténticos, pero que en realidad son engañosos. La impresionante capacidad de estos programas informáticos para lograr una apariencia realista se basa en su capacidad para comprender y utilizar los patrones cognitivos del cerebro humano, lo que los hace sumamente engañosos.
Los ciberdelincuentes utilizan esta amenaza para secuestrar información y obtener acceso a datos confidenciales, o para generar ataques de desinformación e incluso manipulación en por ejemplo procesos electorales. Esto puede lograr la propagación de noticias falsas, influir en tomas de decisiones o desestabilización de relaciones, causando malestar e incertidumbre, entre otras.
Entre 2021 y 2022, las agencias gubernamentales de EE. UU. colaboraron para establecer un conjunto de mejores prácticas empleables para tomar en preparación y respuesta a los Deepfakes ya que son una constante amenaza no solo para la seguridad nacional, sino también para la sociedad, el sistema político o financiero.
¿Cuáles son algunos detalles se deben tener en cuenta para detectar un Deepfake?
- Video corto: casi todos los archivos falsos tienen una duración de pocos segundos ya que es un trabajo que lleva mucho tiempo.
- Fallos: existen pequeñas diferencias entre los archivos verdaderos y los falsos, como por ejemplos las expresiones faciales o movimientos cortados que nos dan una señal de que puede ser un video manipulado.
- Caras: el cuello, la cara, la boca y los ojos son una forma sencilla de darse cuenta de que es un deepfake, ya que los archivos falsos suelen ser primeros planos de las caras, por lo tanto, si se observa en detalle la forma de hablar, los dientes, y la rapidez con que se cierran los ojos, se aumentan las probabilidades de detectar esos fallos.
- Sonido: los vídeos no sincronizan al 100% de forma correcta el sonido y la imagen, por lo que no suele coincidir el movimiento de los labios con la voz.
- Sombras/iluminación: las fotos o videos falsos poseen una pequeña diferencia en la iluminación y las sombras comparado a las reales, con fallas como por ejemplo bordes borrosos o detalles antinaturales.
INSSIDE Ciberseguridad trabaja continuamente para la mejora de los sistemas de seguridad. Y cuenta con un equipo de expertos que se adapta a los cambios y desafíos que surgen en el mundo de la ciberseguridad y la inteligencia artificial.
Para más información contáctate con INSSIDE