A medida que los niños recurren a los chatbots de inteligencia artificial en busca de respuestas, consejos y compañía. Surgen preguntas sobre su seguridad, privacidad y desarrollo emocional.
Los chatbots de inteligencia artificial transformaron la cotidianidad de muchas personas hace casi tres años. ChatGPT, por ejemplo, dice tener unos 700 millones de usuarios activos semanales. Muchos de los cuales son “jóvenes”.
Un estudio británico de julio de 2025 reveló que casi dos tercios (64%) de los niños utilizan este tipo de herramientas. A una proporción similar de adultos les preocupa que sus hijos piensen que los chatbots de IA son personas reales. En este contexto, ESET, compañía líder en detección proactiva de amenazas, acerca los riesgos principales a los que prestar atención cuando se habla de infancias y chatbots.
Niños y niñas utilizan la IA generativa (GenAI) de diversas maneras. Algunos valoran su ayuda para hacer los deberes. Otros pueden tratar al chatbot como a un compañero digital. Pidiéndole consejo y confiando en sus respuestas como lo harían con un amigo íntimo. Esto, según ESET, conlleva varios riesgos evidentes.
El primero es psicológico y social. Los niños atraviesan un periodo de desarrollo emocional y cognitivo. Lo que les hace vulnerables en varios sentidos. Pueden llegar a confiar en la IA como una compañía en detrimento de la formación de amistades genuinas con sus compañeros de clase. Lo que exacerba el aislamiento social.
Como los chatbots están preprogramados para complacer a sus usuarios, pueden producir resultados que amplifiquen las dificultades por las que puedan estar pasando los jóvenes. Como trastornos alimentarios, autolesiones o pensamientos intrusivos.
También hay riesgos en torno a lo que un chatbot GenAI puede permitir que un menor acceda en internet. Aunque los principales proveedores tienen barras de contención diseñadas para limitar los enlaces a contenidos inapropiados o peligrosos. No siempre son eficaces.
En algunos casos, pueden anular estas medidas de seguridad internas para compartir contenidos sexualmente explícitos o violentos, por ejemplo. Si tu hijo tiene más conocimientos de tecnología, puede incluso ser capaz de “jailbreak” el sistema a través de indicaciones específicas.
Por último, es importante recordar que los chatbots también suponen un riesgo potencial para la privacidad. Si un niño introduce información personal y financiera sensible en una consulta, el proveedor la almacenará.
Si eso ocurre, en teoría podría acceder a ella un tercero (por ejemplo, un proveedor/socio). O ser pirateada por un ciberdelincuente. Del mismo modo que no se querría que un niño compartiera demasiado en las redes sociales. Lo mejor es minimizar lo que comparte con un bot GenAI.
Dependiendo de dónde vivan y de qué chatbot estén utilizando. Puede que haya poca verificación de edad o moderación de contenidos. Por lo tanto, es responsabilidad de los adultos anticiparse a cualquier amenaza mediante una supervisión y educación proactivas.
Tanto si están en la escuela, en casa o en un club extraescolar, los menores tienen adultos que los guían en lo que tienen que hacer. Por eso, desde ESET recomiendan intentar que la comunicación sobre la IA sea un diálogo bidireccional. En el que se sientan cómodos compartiendo sus experiencias sin miedo a ser castigados.
Explicarles los peligros del uso excesivo, el intercambio de datos y la dependencia excesiva de la IA para resolver problemas graves. Ayudarles a entender que los robots de IA no son personas reales sino máquinas diseñadas para ser atractivas. Enseñarles a pensar de forma crítica y chequear siempre los resultados de la IA. Además de nunca sustituir una charla con sus padres por una sesión con una máquina.
Si es necesario, se aconseja combinar esa parte educativa con una política para limitar el uso de la IA (igual que se limitaría el uso de las redes sociales o el tiempo de pantalla en general) y restringir su uso a plataformas apropiadas para su edad.
Activar el control parental en las aplicaciones que utilicen para ayudarle supervisar su uso y minimizar los riesgos. Recordarles que nunca deben compartir información personal identificable (IPI) con la IA y ajustar su configuración de privacidad para reducir el riesgo de filtraciones involuntarias.
“Los más pequeños necesitan seres humanos en el centro de su mundo emocional. La IA puede ser una herramienta útil para muchas cosas. Pero hasta que los niños desarrollen una relación sana con ella, su uso debe supervisarse cuidadosamente. Y nunca debe sustituir al contacto humano”. Concluye Lopez de ESET.
La incorporación de chasis de nueva generación, mayores niveles de ahorro de combustible. Y sistemas…
El proceso contempla tres regiones —Arica y Parinacota, Tarapacá y Antofagasta—. Permitirá a los oferentes…
Por Gabriela Lizana, Directora de Carrera de Nutrición y Dietética de UDLA Sede Viña del…
La icónica marca californiana vuelve a sorprender con una innovación que promete transformar la forma…
Descanso total, presupuesto controlado y cero decisiones en destino son algunas características que hacen de…
Con el modelo de IA se pueden identificar individuos y sus comportamientos con alta precisión.…