Para hablar de inteligencia artificial y su impacto en la ciberseguridad es necesario hacer un recorrido de cómo ha venido cambiando la percepción de la humanidad sobre ella. A través del tiempo ha sido común asociar el término “inteligencia artificial” con obras notables de la ciencia ficción: tales como Blade Runner, película de culto inspirada en el libro: Sueñan las ovejas eléctricas con androides, y se nos plantea una sociedad futurista y distópica, donde robots conocidos como replicantes se rebelan para dejar de ser esclavos de los humanos y ser libres. Otro ejemplo es 2001: Odisea en el espacio, película que inspiró el título de este artículo, presentando una computadora llamada HAL 9000, con IA avanzada como villano, la cual tiene como misión controlar la nave y cumplir la misión de ir a Júpiter, pero termina atentando contra la vida de la tripulación cuando ésta pone en riesgo el objetivo de la misión.
El factor común en ambas obras de ciencia ficción es que la IA se vuelve en contra de la humanidad. Pero en la realidad, depende de la aplicación, concientización y ética con la que se encare la IA, si ésta puede causar un impacto positivo y/o negativo en el mundo. De hecho, en los últimos tiempos, la humanidad ha venido utilizando la IA en el procesamiento de datos, medicina, sistemas de recomendación, robótica, chatbots o asistentes virtuales y ciberseguridad.
Pero no fue hasta noviembre del 2022 que el mundo fue testigo de lo que personalmente considero un antes y un después en la historia de la IA y me estoy refiriendo al lanzamiento de ChatGPT, desarrollada por la organización OpenAI, la cual nos permite mantener conversaciones desde lo más simples, como pedir tips para mejorar tu marca al correr, hasta lo bastante complejas, como escribir comandos para configurar un firewall perimetral especificando la marca del equipo. En solo 5 días alcanzó más de 1 millón de usuarios, lo que se traduce a un modelo de IA al alcance de todos. Es tal el impacto, que se ha vuelto recurrente encontrar notas en los diarios y publicaciones en las diferentes redes sociales de cómo los usuarios resuelven situaciones de diferente índole, usando la herramienta. Es decir, pasamos de concebir la IA en obras de ciencia ficción y aplicaciones fuera del alcance de la persona promedio a convivir con ella.
¿Qué podemos esperar quienes trabajamos en ciberseguridad?
Ciertamente, este tipo de modelo de IA será integrada con el paso del tiempo en las diferentes soluciones de ciberseguridad, potenciando la detección de amenazas y de alguna forma subsanando parcialmente la falta de profesionales en el área, en vista de lo prometedor que resulta su evolución en términos de automatización. No obstante, este mismo comportamiento lo podemos esperar de los cibercriminales quienes conseguirán la forma de usar este tipo de herramientas para llevar adelante ciberataques más sofisticados. Un ataque de phishing será más complicado de detectar, entendiendo que a medida que este tipo de herramientas vayan mejorando su lenguaje, se irá mimetizando con mayor facilidad con la de los humanos. Un caso reciente es el engaño con noticias falsas, como la foto de Tom Cruise con sus dobles de acción, la cual terminó siendo una foto generada por IA. Esto en combinación de técnicas de ingeniería social podría potenciar ciberestafas.
Por esas razones es de gran importancia que los profesionales quienes trabajamos en el área, nos capacitemos para conocer el alcance y evolución de este tipo de modelo de IA y concientizarnos para estar preparados.
¿De qué manera GPT puede aportar valor a la industria de la ciberseguridad?
El abanico de posibilidades que abre este tipo de modelos es de amplio espectro. Hoy, su aporte está en:
A futuro, sin dida, el aporte de valor estará en:
¿Qué desafíos plantea el uso de GPT en ciberseguridad y la ética en lo que se refiere a la protección de datos sensibles?
Sin embargo, como se planteó anteriormente los cibercriminales también harán uso de este tipo de tecnologías desafiando constantemente el avance de la Ciberseguridad. Por lo cual hay importantes desafíos que superar.
Cada vez que los usuarios interactúan con este tipo de tecnologías, existe una cantidad importante de datos personales proporcionada y estos son almacenados en la infraestructura de GPT con fines de investigación y mejora, OpenIA limita esta cantidad de datos y no por esto deja de ser una buena práctica limitar la cantidad de información sensible que compartimos con esta IA.
Esto se traduce a que la potencialidad de GPT se puede ver limitada por el marco normativo. No obstante, es de gran importancia desarrollar en una etapa temprana prácticas éticas sobre este tipo de modelos de IA, ya que de madurar sin ningún tipo de control podría tener consecuencias negativas no solo en la ciberseguridad sino en el mundo. Asimismo, es importante recordar que ninguna organización está exenta a espionaje corporativo o ser víctima de un cibercrimen, es por tal razón que el desarrollo de estas potenciales tecnologías debe ir de la mano con la ciberseguridad.
HR Challenge by Talana es el nombre del evento que se celebrará este 5 de…
El Women's Worldwide Car of the Year se complace en anunciar la creación de dos…
El piloto CIDEF-Kawasaki dio a conocer los pormenores de la carrera que le permitió ganar…
¡Ha llegado el momento para los fanáticos de la comedia romántica! Aquellos que aman este…
Los amantes de la velocidad y los autos de altas prestaciones nuevamente se reunieron a…
Felipe Nouveau Strange, Ingeniero de Preventas, ITQ latam, comenta los principales riesgos y desafíos, así…