Tecnología

DEEPFAKES: LA NUEVA FRONTERA DE LA DESINFORMACIÓN

Deep fake, AI and face swap in video edit. Deepfake and machine learning. Facial tracking, detection and recognition technology. Digital identity interchange. Computer software mockup. Fraud picture.

Mantener una postura crítica, utilizar herramientas de chequeo de contenidos y buscar inconsistencias en el audio o vídeo, son algunas de las recomendaciones que brinda Trend Micro para identificar un ‘deepfake‘.

Colombia, noviembre de 2024.- Trend Micro Incorporated (TYO: 4704; TSE: 4704) líder global en ciberseguridad, resalta la importancia de estar alerta ante el incremento de esta tendencia de riesgo digital, los ‘deepfakes’. Según una encuesta reciente liderada por la compañía, el 71 % de los usuarios de internet perciben dichas amenazas de manera negativa y las asocian principalmente con el fraude.

Si bien los avances de la tecnología y la IA están trayendo consigo grandes avances, también están dando lugar a nuevas amenazas sobre todo a aquellos videos y audios generados por la IA que imitan personas y eventos con alta precisión, afectando la comprensión de la realidad.

La tecnología de los ‘deepfakes’ está avanzando rápidamente, lo que representa serios riesgos para la seguridad cibernética. A medida que esta amenaza progresa, las falsificaciones de video y audio se vuelven más realistas y, por ende, más convincentes.

De acuerdo con Ignacio Triana, director de estrategia de ciberseguridad para MCA en Trend Micro: “Nos enfrentamos a una situación en la que cualquier persona con conocimientos básicos puede crear un contenido falso muy convincente. Este fenómeno requiere una respuesta activa y coordinada para desarrollar herramientas de detección avanzadas y educar a la población en habilidades de verificación de información”.

Algunos de los riesgos a nivel de ciberseguridad son:

  • Desinformación: los deepfakes pueden ser utilizados para crear contenido falso y engañoso que puede influir en la opinión pública, afectar procesos electorales y socavar la confianza en los medios de comunicación.

  • Fraude financiero y extorsión: los ciberdelincuentes pueden crear videos o audios falsos de ejecutivos de empresas para engañar a usuarios comunes y hacer que transfieran fondos a cuentas fraudulentas.

  • Suplantación de identidad y robo de datos: pueden ser utilizados para engañar a sistemas de reconocimiento facial o de voz, permitiendo el acceso no autorizado a cuentas y sistemas.

  • Daño a la reputación, crear videos o imágenes falsas de personas comunes o figuras públicas en situaciones comprometedoras puede dañar su reputación personal y profesional.

  • Ataques a la seguridad nacional: pueden ser utilizados para crear mensajes falsos de figuras clave en la seguridad nacional, creando confusión y potencialmente desestabilizando un país.

¿Cómo protegerse de un mundo rediseñado por la IA?

Si bien la tecnología juega un papel fundamental en la detección de estas falsificaciones, la educación y el pensamiento crítico son igualmente esenciales. Es crucial que los usuarios desarrollen habilidades para evaluar la veracidad de la información que consumen y adopten una postura escéptica ante contenidos que puedan ser manipulados.

En la actualidad, hay herramientas avanzadas para detectar contenidos generados por IA, mediante algoritmos que identifican inconsistencias en datos visuales y auditivos, como el Deepfake Inspector de Trend Micro, pero los usuarios también podrán identificar de manera intuitiva si están frente a una amenaza de este estilo.

Por ejemplo, cuando el sonido está clonado suele tener tonos inusuales, estáticos o presenta inconsistencias en los patrones del habla; en el caso de video se puede detectar posibles ruidos de fondo anormales, o cortos en la imagen.

También es clave verificar el origen del video o imagen y compararla con fuentes confiables mediante el uso de herramientas de chequeo de contenidos como: CrowdTangle, InVid y TweetDeck, para evaluar su autenticidad y asegurarse de que se trata de una oferta legítima contactando directamente con la persona u organización que la promociona.

“El desafío de separar lo real de lo artificial no solo es técnico, sino también cultural. La tecnología avanza rápido, pero necesitamos tiempo y conciencia para adaptarnos y proteger la confianza en la información”, puntualiza Triana.

La búsqueda de la verdad en la era de la IA está en sus inicios. La capacidad para distinguir entre lo real y lo falso será uno de los retos clave para la sociedad moderna. En un mundo donde la realidad puede construirse artificialmente, la sociedad deberá encontrar maneras de adaptarse a este entorno, en el cual la tecnología puede facilitar tanto la comprensión como el ocultamiento de la verdad.

Editor Banco de Noticias

Recent Posts

Kia premia la “jugadora de la vida” del Mundial Sub-20 con la entrega de un Kia Morning

Ámbar Figueroa, joven futbolista chilena de 18 años, fue reconocida como la ganadora del concurso…

13 hours ago

Balance ALTO Chile 2025: más de 33 mil delitos contra el comercio y 1.598 condenas efectivas gracias una persecución penal activa

La cifra representa un aumento de 7,5% respecto de 2024. El segundo semestre concentró el…

15 hours ago

Robos de vehículos, mercadería y volcamiento lideraron los siniestros en transporte en 2025

Los siniestros en transporte tuvieron un alza en 2025, según el análisis de una corredora…

15 hours ago

Plan Balnearios transforma la costanera de Punta de Tralca

Se inauguraron oficialmente las obras que aportan un nuevo y mejorado espacio público costero en…

16 hours ago

Blue Monday: 21% de los latinoamericanos habla con chatbots cuando se siente triste

Los expertos de Kaspersky advierten que este hábito puede comprometer la privacidad de los usuarios…

16 hours ago

¿Qué dicen los expertos? Estos son los 5 looks tendencia para 2026

Estilistas internacionales de Dyson proyectan las tendencias capilares que definirán este año, ​basándose en su…

17 hours ago