Tecnología

DEEPFAKES: LA NUEVA FRONTERA DE LA DESINFORMACIÓN

Deep fake, AI and face swap in video edit. Deepfake and machine learning. Facial tracking, detection and recognition technology. Digital identity interchange. Computer software mockup. Fraud picture.

Mantener una postura crítica, utilizar herramientas de chequeo de contenidos y buscar inconsistencias en el audio o vídeo, son algunas de las recomendaciones que brinda Trend Micro para identificar un ‘deepfake‘.

Colombia, noviembre de 2024.- Trend Micro Incorporated (TYO: 4704; TSE: 4704) líder global en ciberseguridad, resalta la importancia de estar alerta ante el incremento de esta tendencia de riesgo digital, los ‘deepfakes’. Según una encuesta reciente liderada por la compañía, el 71 % de los usuarios de internet perciben dichas amenazas de manera negativa y las asocian principalmente con el fraude.

Si bien los avances de la tecnología y la IA están trayendo consigo grandes avances, también están dando lugar a nuevas amenazas sobre todo a aquellos videos y audios generados por la IA que imitan personas y eventos con alta precisión, afectando la comprensión de la realidad.

La tecnología de los ‘deepfakes’ está avanzando rápidamente, lo que representa serios riesgos para la seguridad cibernética. A medida que esta amenaza progresa, las falsificaciones de video y audio se vuelven más realistas y, por ende, más convincentes.

De acuerdo con Ignacio Triana, director de estrategia de ciberseguridad para MCA en Trend Micro: “Nos enfrentamos a una situación en la que cualquier persona con conocimientos básicos puede crear un contenido falso muy convincente. Este fenómeno requiere una respuesta activa y coordinada para desarrollar herramientas de detección avanzadas y educar a la población en habilidades de verificación de información”.

Algunos de los riesgos a nivel de ciberseguridad son:

  • Desinformación: los deepfakes pueden ser utilizados para crear contenido falso y engañoso que puede influir en la opinión pública, afectar procesos electorales y socavar la confianza en los medios de comunicación.

  • Fraude financiero y extorsión: los ciberdelincuentes pueden crear videos o audios falsos de ejecutivos de empresas para engañar a usuarios comunes y hacer que transfieran fondos a cuentas fraudulentas.

  • Suplantación de identidad y robo de datos: pueden ser utilizados para engañar a sistemas de reconocimiento facial o de voz, permitiendo el acceso no autorizado a cuentas y sistemas.

  • Daño a la reputación, crear videos o imágenes falsas de personas comunes o figuras públicas en situaciones comprometedoras puede dañar su reputación personal y profesional.

  • Ataques a la seguridad nacional: pueden ser utilizados para crear mensajes falsos de figuras clave en la seguridad nacional, creando confusión y potencialmente desestabilizando un país.

¿Cómo protegerse de un mundo rediseñado por la IA?

Si bien la tecnología juega un papel fundamental en la detección de estas falsificaciones, la educación y el pensamiento crítico son igualmente esenciales. Es crucial que los usuarios desarrollen habilidades para evaluar la veracidad de la información que consumen y adopten una postura escéptica ante contenidos que puedan ser manipulados.

En la actualidad, hay herramientas avanzadas para detectar contenidos generados por IA, mediante algoritmos que identifican inconsistencias en datos visuales y auditivos, como el Deepfake Inspector de Trend Micro, pero los usuarios también podrán identificar de manera intuitiva si están frente a una amenaza de este estilo.

Por ejemplo, cuando el sonido está clonado suele tener tonos inusuales, estáticos o presenta inconsistencias en los patrones del habla; en el caso de video se puede detectar posibles ruidos de fondo anormales, o cortos en la imagen.

También es clave verificar el origen del video o imagen y compararla con fuentes confiables mediante el uso de herramientas de chequeo de contenidos como: CrowdTangle, InVid y TweetDeck, para evaluar su autenticidad y asegurarse de que se trata de una oferta legítima contactando directamente con la persona u organización que la promociona.

“El desafío de separar lo real de lo artificial no solo es técnico, sino también cultural. La tecnología avanza rápido, pero necesitamos tiempo y conciencia para adaptarnos y proteger la confianza en la información”, puntualiza Triana.

La búsqueda de la verdad en la era de la IA está en sus inicios. La capacidad para distinguir entre lo real y lo falso será uno de los retos clave para la sociedad moderna. En un mundo donde la realidad puede construirse artificialmente, la sociedad deberá encontrar maneras de adaptarse a este entorno, en el cual la tecnología puede facilitar tanto la comprensión como el ocultamiento de la verdad.

Editor Banco de Noticias

Recent Posts

CRECEN LOS SALARIOS EN CHILE: IMPORTANTE ALZA AL 4.1% ¿RECUPERACIÓN ECONÓMICA?

Imagen: Unsplash Uno de los indicadores económicos más importantes a la hora de medir la…

1 day ago

FUNDACIÓN FAMILIAS PRIMERO Y EL SLEP LLANQUIHUE FIRMAN ALIANZA PARA FORTALECER LA EDUCACIÓN EN CINCO COMUNAS

En un esfuerzo conjunto por mejorar las oportunidades educativas en contextos vulnerables, la Fundación Familias…

1 day ago

YA LLEGA LA GRAN FERIA DE CRÉDITO “CREDI DAYS” EN MOVICENTER

La Ciudad del Automóvil sorprenderá a sus visitantes entre el 23 y el 26 de…

1 day ago

5 BENEFICIOS DE ELEGIR UN BUEN MOUSE GAMER PARA TU SETUP

iStock El mouse gamer es una herramienta esencial para cualquier entusiasta de los videojuegos que…

1 day ago

¿QUÉ ATRIBUTOS HACEN A LA RAM RAMPAGE SEA NOMINADA COMO UNA DE LAS CAMIONETAS DEL AÑO?

La RAM Rampage se destaca como una camioneta versátil y bien equipada, diseñada para satisfacer…

1 day ago

POLÍMATAS: LOS ARQUITECTOS DE UN FUTURO DISRUPTIVO

Fernando Benavides, académico Universidad Finis Terrae y director de agilidad e innovación de Nisum Chile…

1 day ago