Es vital fomentar un espíritu crítico en los niños, enseñándoles que, aunque el chatbot parece «inteligente», es solo un procesador de datos sin conciencia ni ética propia.
La integración de la Inteligencia Artificial en la vida diaria ha dejado de ser una novedad para convertirse en un estándar. Sin embargo, mientras herramientas como ChatGPT alcanzan los 700 millones de usuarios semanales, una gran parte de esta audiencia son menores que buscan en los chatbots no solo respuestas escolares, sino también consejos y compañía.
Un reciente estudio global reveló que el 64% de los niños ya interactúan con estas herramientas, despertando una alerta roja en los hogares: la creciente dificultad de los infantes para distinguir entre una máquina y una persona real.
Las sombras de la IA en la infancia
La compañía de ciberseguridad ESET ha identificado los pilares críticos donde la seguridad infantil podría verse comprometida:
Desarrollo Emocional: El riesgo de que los niños antropomorficen a la IA, atribuyéndole sentimientos o una autoridad moral que no posee, lo que podría afectar sus habilidades sociales reales.
Privacidad de Datos: La posibilidad de que los menores compartan información sensible (direcciones, nombres de colegios o problemas familiares) que queda grabada en las bases de datos de entrenamiento de las plataformas.
Contenido Inapropiado: A pesar de los filtros, la tecnología evoluciona más rápido que las políticas de seguridad, lo que puede exponer a los niños a respuestas sesgadas o no aptas para su edad.
La brecha entre la innovación y la protección
Martina López, Investigadora de Seguridad Informática de ESET Latinoamérica, advierte que la supervisión adulta es irreemplazable: «No podemos dar por sentado que los proveedores cuentan con medidas eficaces para infantes. La tecnología es veloz y las protecciones no siempre son coherentes».
Recomendación para padres: Es vital fomentar un espíritu crítico en los niños, enseñándoles que, aunque el chatbot parece «inteligente», es solo un procesador de datos sin conciencia ni ética propia.
Tres reglas de oro para el uso de Chatbots en casa:
Acompañamiento activo: Explorar las herramientas juntos en lugar de dejar el dispositivo a solas con el menor.
Configuración de privacidad: Revisar los ajustes de las cuentas para limitar la recopilación de datos de entrenamiento.
Diálogo abierto: Explicar que la IA puede cometer errores (alucinaciones) y que sus «consejos» deben ser validados siempre por un adulto.
Con Informacion de Nota de Prensa.














