Los expertos de Kaspersky advierten que este hábito puede comprometer la privacidad de los usuarios y recuerdan que proteger sus datos también es parte del autocuidado.
Hoy, desahogarse en momentos de tristeza no siempre implica recurrir a otra persona. Pues de acuerdo con una reciente investigación de Kaspersky. La inteligencia artificial está adoptando un nuevo papel en la vida digital de los humanos. El de apoyo emocional.
El estudio de la compañía revela que, el 21% de los latinoamericanos que utiliza herramientas de IA, afirma hablar con chatbots cuando se siente triste o decaído. Una práctica que puede intensificarse en fechas como el Blue Monday. Y que plantea riesgos para la privacidad de los usuarios.
En este escenario, las personas buscan hablar y sentirse escuchadas. Y en el mundo digital, cada vez son más quienes recurren a herramientas de inteligencia artificial para expresar cómo se sienten.
Percibiéndolas como un entorno “seguro” por su disponibilidad inmediata, la rapidez de sus respuestas y la ausencia de juicios o reacciones emocionales. Sin embargo, esto puede llevar a compartir información demasiado personal con mayor confianza de la que se tendría en otros espacios.
Esto refleja un cambio en la forma en que las nuevas generaciones gestionan sus emociones. En la que cada vez involucran más a las plataformas digitales. Sin dimensionar las posibles implicaciones y riesgos de privacidad.
Aunque la interacción con chatbots parece íntima y privada, la mayoría de estas herramientas pertenece a empresas comerciales. Con políticas de recopilación y tratamiento de datos. Esto implica que la información compartida. Incluidas conversaciones sobre estados de ánimo o situaciones personales. Puede almacenarse y analizarse para distintos fines. Como la mejora de servicios o la personalización de experiencias para los usuarios. A ello se suman los riesgos de ciberseguridad.
“Además, no toda la información que ofrecen es precisa ni reemplaza el acompañamiento profesional. Por eso, prestar atención a lo que compartimos y recurrir a fuentes confiables y apoyo especializado es clave. Especialmente en temas tan sensibles como nuestras emociones. La seguridad digital también es parte de cómo nos cuidamos“. Agrega.
Algunos servicios pueden utilizar las interacciones para analizar comportamientos, personalizar publicidad o entrenar modelos de IA. Verifica si puedes evitar que tus chats se usen con estos fines para reducir la cantidad de datos compartidos.
Por ejemplo, tu nombre completo, fecha de nacimiento, dirección, número de teléfono, cuentas de correo, contraseñas o datos de tarjetas bancarias. Las conversaciones con chatbots no deben considerarse confidenciales. Ya que la información puede almacenarse y ser accesible para terceros ante un incidente. Incluyendo cibercriminales.
Las respuestas generadas por IA pueden ser incompletas, imprecisas o sesgadas y no sustituyen la orientación de expertos en salud mental. Por ello, es importante contrastar la información y acudir a especialistas.
Los bots anónimos o desconocidos pueden estar diseñados para recolectar datos con fines maliciosos. Protege tu información con soluciones de seguridad. Como Kaspersky Premium, que bloqueen enlaces y sitios poco confiables.
Para más información sobre cómo proteger tu vida digital, visita nuestro blog.
El 19 de enero, te invita a disfrutar de este rico snack con una preparación…
En la transición hacia la movilidad con energías limpias dentro de un mercado automotriz en…
Se trata del primer modelo fabricado en china en ganar la elección. Realizada por la…
El exitoso y premiado SUV compacto de la marca sueca fue el vehículo 100% eléctrico…
Certificada por quinto año consecutivo como Top Employer 2026 La certificación Top Employer reconoce a…
La serie incluye los nuevos modelos N715, N817, N917 y N1221, e incorpora motor Cummins…