Tecnología

DEEPFAKES: LA NUEVA FRONTERA DE LA DESINFORMACIÓN

Deep fake, AI and face swap in video edit. Deepfake and machine learning. Facial tracking, detection and recognition technology. Digital identity interchange. Computer software mockup. Fraud picture.

Mantener una postura crítica, utilizar herramientas de chequeo de contenidos y buscar inconsistencias en el audio o vídeo, son algunas de las recomendaciones que brinda Trend Micro para identificar un ‘deepfake‘.

Colombia, noviembre de 2024.- Trend Micro Incorporated (TYO: 4704; TSE: 4704) líder global en ciberseguridad, resalta la importancia de estar alerta ante el incremento de esta tendencia de riesgo digital, los ‘deepfakes’. Según una encuesta reciente liderada por la compañía, el 71 % de los usuarios de internet perciben dichas amenazas de manera negativa y las asocian principalmente con el fraude.

Si bien los avances de la tecnología y la IA están trayendo consigo grandes avances, también están dando lugar a nuevas amenazas sobre todo a aquellos videos y audios generados por la IA que imitan personas y eventos con alta precisión, afectando la comprensión de la realidad.

La tecnología de los ‘deepfakes’ está avanzando rápidamente, lo que representa serios riesgos para la seguridad cibernética. A medida que esta amenaza progresa, las falsificaciones de video y audio se vuelven más realistas y, por ende, más convincentes.

De acuerdo con Ignacio Triana, director de estrategia de ciberseguridad para MCA en Trend Micro: “Nos enfrentamos a una situación en la que cualquier persona con conocimientos básicos puede crear un contenido falso muy convincente. Este fenómeno requiere una respuesta activa y coordinada para desarrollar herramientas de detección avanzadas y educar a la población en habilidades de verificación de información”.

Algunos de los riesgos a nivel de ciberseguridad son:

  • Desinformación: los deepfakes pueden ser utilizados para crear contenido falso y engañoso que puede influir en la opinión pública, afectar procesos electorales y socavar la confianza en los medios de comunicación.

  • Fraude financiero y extorsión: los ciberdelincuentes pueden crear videos o audios falsos de ejecutivos de empresas para engañar a usuarios comunes y hacer que transfieran fondos a cuentas fraudulentas.

  • Suplantación de identidad y robo de datos: pueden ser utilizados para engañar a sistemas de reconocimiento facial o de voz, permitiendo el acceso no autorizado a cuentas y sistemas.

  • Daño a la reputación, crear videos o imágenes falsas de personas comunes o figuras públicas en situaciones comprometedoras puede dañar su reputación personal y profesional.

  • Ataques a la seguridad nacional: pueden ser utilizados para crear mensajes falsos de figuras clave en la seguridad nacional, creando confusión y potencialmente desestabilizando un país.

¿Cómo protegerse de un mundo rediseñado por la IA?

Si bien la tecnología juega un papel fundamental en la detección de estas falsificaciones, la educación y el pensamiento crítico son igualmente esenciales. Es crucial que los usuarios desarrollen habilidades para evaluar la veracidad de la información que consumen y adopten una postura escéptica ante contenidos que puedan ser manipulados.

En la actualidad, hay herramientas avanzadas para detectar contenidos generados por IA, mediante algoritmos que identifican inconsistencias en datos visuales y auditivos, como el Deepfake Inspector de Trend Micro, pero los usuarios también podrán identificar de manera intuitiva si están frente a una amenaza de este estilo.

Por ejemplo, cuando el sonido está clonado suele tener tonos inusuales, estáticos o presenta inconsistencias en los patrones del habla; en el caso de video se puede detectar posibles ruidos de fondo anormales, o cortos en la imagen.

También es clave verificar el origen del video o imagen y compararla con fuentes confiables mediante el uso de herramientas de chequeo de contenidos como: CrowdTangle, InVid y TweetDeck, para evaluar su autenticidad y asegurarse de que se trata de una oferta legítima contactando directamente con la persona u organización que la promociona.

“El desafío de separar lo real de lo artificial no solo es técnico, sino también cultural. La tecnología avanza rápido, pero necesitamos tiempo y conciencia para adaptarnos y proteger la confianza en la información”, puntualiza Triana.

La búsqueda de la verdad en la era de la IA está en sus inicios. La capacidad para distinguir entre lo real y lo falso será uno de los retos clave para la sociedad moderna. En un mundo donde la realidad puede construirse artificialmente, la sociedad deberá encontrar maneras de adaptarse a este entorno, en el cual la tecnología puede facilitar tanto la comprensión como el ocultamiento de la verdad.

Editor Banco de Noticias

Recent Posts

SALA SCD SORPRENDE CON INÉDITA PROGRAMACIÓN PARA EL MES DE LA MUJER: CARTELERA SERÁ 100% FEMENINA DURANTE 30 DÍAS

El recinto ubicado en el Mall Plaza Egaña dedicará todo marzo a proyectos liderados por…

23 hours ago

EN VESPUCIO NORTE SE HABILITÓ NUEVA CONEXIÓN BAJO NIVEL A SANTIAGO CENTRO

La obra, que forma parte del nuevo enlace tipo “molino” que se construye en la…

1 day ago

ESPN TRAE A DISNEY+ EL AMISTOSO DE LA ROJA FEMENINA ANTE ARGENTINA

Las dirigidas por Luis Mena recibirán el sábado 22 de febrero al combinado albiceleste, como…

1 day ago

HELICÓPTERO SUPER PUMA VUELA DESDE CHILE PARA COMBATIR LOS INCENDIOS FORESTALES EN LA PATAGONIA ARGENTINA

Ecocopter+Helisul, a través de CONAF, está apoyando con su helicóptero Super Puma el combate de…

1 day ago

PAYO SÖCHTING, EL NUEVO EMBAJADOR DEL MAZDA CX-5: CREATIVIDAD Y DISEÑO EN MOVIMIENTO

El reconocido ilustrador y muralista se une a Mazda para representar el espíritu del CX-5,…

1 day ago

KIA PRESENTA EL NUEVO DISEÑO EXTERIOR DEL PV5, QUE REDEFINE EL ESPACIO Y LA MOVILIDAD DE LOS PBV ANTES DE SU ESTRENO MUNDIAL

Kia presenta el diseño exterior de los modelos PV5 para pasajeros y carga, los primeros…

1 day ago