DEEPFAKES: LA NUEVA FRONTERA DE LA DESINFORMACIÓN

0
38
Deep fake, AI and face swap in video edit. Deepfake and machine learning. Facial tracking, detection and recognition technology. Digital identity interchange. Computer software mockup. Fraud picture.
Deep fake, AI and face swap in video edit. Deepfake and machine learning. Facial tracking, detection and recognition technology. Digital identity interchange. Computer software mockup. Fraud picture.

Mantener una postura crítica, utilizar herramientas de chequeo de contenidos y buscar inconsistencias en el audio o vídeo, son algunas de las recomendaciones que brinda Trend Micro para identificar un ‘deepfake‘.

Colombia, noviembre de 2024.- Trend Micro Incorporated (TYO: 4704; TSE: 4704) líder global en ciberseguridad, resalta la importancia de estar alerta ante el incremento de esta tendencia de riesgo digital, los ‘deepfakes’. Según una encuesta reciente liderada por la compañía, el 71 % de los usuarios de internet perciben dichas amenazas de manera negativa y las asocian principalmente con el fraude.

Si bien los avances de la tecnología y la IA están trayendo consigo grandes avances, también están dando lugar a nuevas amenazas sobre todo a aquellos videos y audios generados por la IA que imitan personas y eventos con alta precisión, afectando la comprensión de la realidad.

La tecnología de los ‘deepfakes’ está avanzando rápidamente, lo que representa serios riesgos para la seguridad cibernética. A medida que esta amenaza progresa, las falsificaciones de video y audio se vuelven más realistas y, por ende, más convincentes.

De acuerdo con Ignacio Triana, director de estrategia de ciberseguridad para MCA en Trend Micro: “Nos enfrentamos a una situación en la que cualquier persona con conocimientos básicos puede crear un contenido falso muy convincente. Este fenómeno requiere una respuesta activa y coordinada para desarrollar herramientas de detección avanzadas y educar a la población en habilidades de verificación de información”.

Algunos de los riesgos a nivel de ciberseguridad son: 

  • Desinformación: los deepfakes pueden ser utilizados para crear contenido falso y engañoso que puede influir en la opinión pública, afectar procesos electorales y socavar la confianza en los medios de comunicación.

  • Fraude financiero y extorsión: los ciberdelincuentes pueden crear videos o audios falsos de ejecutivos de empresas para engañar a usuarios comunes y hacer que transfieran fondos a cuentas fraudulentas.

  • Suplantación de identidad y robo de datos: pueden ser utilizados para engañar a sistemas de reconocimiento facial o de voz, permitiendo el acceso no autorizado a cuentas y sistemas.

  • Daño a la reputación, crear videos o imágenes falsas de personas comunes o figuras públicas en situaciones comprometedoras puede dañar su reputación personal y profesional.

  • Ataques a la seguridad nacional: pueden ser utilizados para crear mensajes falsos de figuras clave en la seguridad nacional, creando confusión y potencialmente desestabilizando un país.

¿Cómo protegerse de un mundo rediseñado por la IA?

Si bien la tecnología juega un papel fundamental en la detección de estas falsificaciones, la educación y el pensamiento crítico son igualmente esenciales. Es crucial que los usuarios desarrollen habilidades para evaluar la veracidad de la información que consumen y adopten una postura escéptica ante contenidos que puedan ser manipulados.

En la actualidad, hay herramientas avanzadas para detectar contenidos generados por IA, mediante algoritmos que identifican inconsistencias en datos visuales y auditivos, como el Deepfake Inspector de Trend Micro, pero los usuarios también podrán identificar de manera intuitiva si están frente a una amenaza de este estilo.

Por ejemplo, cuando el sonido está clonado suele tener tonos inusuales, estáticos o presenta inconsistencias en los patrones del habla; en el caso de video se puede detectar posibles ruidos de fondo anormales, o cortos en la imagen.

También es clave verificar el origen del video o imagen y compararla con fuentes confiables mediante el uso de herramientas de chequeo de contenidos como: CrowdTangle, InVid y TweetDeck, para evaluar su autenticidad y asegurarse de que se trata de una oferta legítima contactando directamente con la persona u organización que la promociona.

“El desafío de separar lo real de lo artificial no solo es técnico, sino también cultural. La tecnología avanza rápido, pero necesitamos tiempo y conciencia para adaptarnos y proteger la confianza en la información”, puntualiza Triana.

La búsqueda de la verdad en la era de la IA está en sus inicios. La capacidad para distinguir entre lo real y lo falso será uno de los retos clave para la sociedad moderna. En un mundo donde la realidad puede construirse artificialmente, la sociedad deberá encontrar maneras de adaptarse a este entorno, en el cual la tecnología puede facilitar tanto la comprensión como el ocultamiento de la verdad.