7 HÁBITOS DE SEGURIDAD Y PRIVACIDAD A LA HORA DE USAR INTELIGENCIA ARTIFICIAL

0
13
7 hábitos

7 hábitosESET advierte que el uso creciente y masivo de la inteligencia artificial abre la puerta a nuevos desafíos, como el de implementar acciones concretas que preserven la seguridad y privacidad cuando se emplea esta nueva tecnología.

Santiago, 13 de marzo de 2025.- La inteligencia artificial sigue en pleno auge y su crecimiento parecería no tener un techo definido. Pero en medio de esta vorágine desde ESET, compañía líder en detección proactiva de amenazas, también enfatizan que es necesario prestar atención y poner el foco en dos aspectos tan importantes como sensibles: la seguridad y la privacidad.

A continuación, ESET explora 7 hábitos de seguridad y privacidad para que poder disfrutar de la Inteligencia Artificial, sin exponer datos e información privada:

1 – Configurar correctamente la seguridad y privacidad: Antes de compartir información en cualquier herramienta de Inteligencia Artificial, se debe tomar conocimiento de todas las configuraciones de privacidad para entender qué tipo de datos se almacenan, si se comparten con terceros y cómo pueden ser utilizados en el futuro. Además, se recomienda revisar periódicamente términos y políticas de la aplicación, por cualquier cambio o nueva opción de seguridad y privacidad que esté disponible.

2 – Evitar compartir datos personales y sensibles: Una de las medidas más importantes que se pueden implementar es no ingresar proactivamente información personal, como por ejemplo contraseñas o datos bancarios, en cualquier chat de IA. Estas herramientas pueden procesar dicha información e incluso utilizarla para entrenar futuros modelos, por lo cual es necesario minimizar el riesgo de que esos datos sean almacenados y expuestos en el futuro.

3 – Proteger las cuentas: Para proteger una cuenta de ChatGPT o de cualquier otra herramienta de Inteligencia Artificial, es importante utilizar contraseñas robustas y, de ser posible, también agregar una capa de protección extra activando el doble factor de autenticación (2FA) cuando estuviera disponible.

El acceso a una cuenta de ChatGPT, por ejemplo, podría exponer al historial de conversaciones y la información almacenada en estos chats. Esta información podría luego utilizarse para realizar ataques de ingeniería social sofisticados basados en información de la cuenta o incluso para comercializar la información.

4 – Desactivar el historial de los chats: Si bien las herramientas de Inteligencia Artificial habitualmente mantienen almacenados los historiales de conversaciones, existen algunas que permiten elegir y desactivar esta opción. Entonces, si se busca tener mayor privacidad, se aconseja explorar esta alternativa. Además, de esta manera se estaría a salvo en caso de alguna posible filtración, como la ocurrida en 2023 con ChatGPT.

5 – No confiar completamente en las respuestas recibidas: Es importante remarcar que los modelos de IA pueden entregar información certera, pero también generar respuestas incorrectas o sesgadas. Para garantizar la seguridad (sobre todo en temas sensibles como los legales, financieros o médicos) siempre es aconsejable verificar y contrastar la información obtenida con fuentes oficiales. Por otra parte, los modelos de IA pueden ser vulnerables a ataques en los que un usuario malintencionado introduce comandos engañosos mediante técnicas como prompt injection para manipular las respuestas. De esta manera un atacante podría inducir a la IA a responder brindando instrucciones erróneas, proporcionar información falsa o extraer datos sensibles de una conversación.

6 – Prestar atención a los enlaces y archivos generados: Algunas herramientas de IA pueden ser manipuladas mediante la ya mencionada prompt injection o el envenenamiento de datos para generar enlaces, archivos o códigos con vulnerabilidades o contenido malicioso. Además, es posible que una IA incluya enlaces maliciosos que provienen de fuentes indexadas, que podrían no haber sido verificadas adecuadamente. En estos casos, un cibercriminal podría aprovechar estas vulnerabilidades para redirigir a un usuario a un sitio web falso o fraudulento con el fin de realizar ataques de phishing o distribuir malware. La solución, en primer término,  es verificar la dirección compartida por la IA antes de hacer clic, y también analizar los archivos generados con una solución de seguridad antes de descargarlos.

7 – Tener cuidado con la instalación de extensiones y Plugins: Existen una infinidad de extensiones y complementos para el navegador que ofrecen funcionalidades basadas en IA. También plugins para gestores de contenido y otras plataformas. La descarga de fuentes no confiables puede aumentar el riesgo de infección con programas maliciosos.

“Para disfrutar de todo el potencial de la inteligencia artificial, es importante contemplar el papel que juegan tanto la seguridad como la privacidad. Una correcta gestión de ambos permitirá utilizar esta nueva tecnología, pero sin poner en riesgo la información ni lo que cada persona elija mantener para su intimidad. Para las empresas, la adopción de herramientas de Inteligencia Artificial supone el desafío de integrarlas de manera segura para reducir los riesgos que representa como superficie de ataque. La creación de políticas o normas de control y uso se tornan cada vez más importantes y necesarias para prevenir riesgos, así como la capacitación continua para educar y concientizar sobre el uso y riesgos que conlleva el uso de herramientas de IA”, comenta Camilo Gutiérrez Amaya, Jefe del Laboratorio de investigación de ESET Latinoamérica.

Para saber más sobre seguridad informática visite el portal de noticias de ESET: https://www.welivesecurity.com/es/seguridad-digital/7-habitos-seguridad-privacidad-inteligencia-artificial/

Por otro lado, ESET invita a conocer Conexión Segura, su podcast para saber qué está ocurriendo en el mundo de la seguridad informática. Para escucharlo ingrese a: https://open.spotify.com/show/0Q32tisjNy7eCYwUNHphcw