La inteligencia artificial dejó de ser solo una herramienta tecnológica: hoy es un espacio donde muchos jóvenes buscan respuestas, contención y validación. Chatbots que antes servían para resolver dudas simples ahora se usan para pedir consejos sobre amistades, relaciones, conflictos familiares o decisiones personales.
Inteligencia Artificial y salud mental: qué deben saber padres y educadores sobre el impacto en los jóvenes
La inteligencia artificial influye en cómo los jóvenes piensan y deciden. Qué deben saber padres y educadores para acompañar su relación con la tecnología

La inteligencia artificial influye en cómo los jóvenes piensan y deciden. Qué deben saber padres y educadores para acompañar su relación con la tecnología.
Este cambio obliga a padres y educadores a entender cómo la tecnología influye en la salud mental y en la construcción de identidad de niños y adolescentes.
Cuando la tecnología se vuelve una voz de autoridad
Los jóvenes, cuyos cerebros aún están desarrollando habilidades como la autocrítica, la empatía y la regulación emocional, pueden interpretar las respuestas de la IA como verdades confiables.
Recomendadas
El problema es que no todas las respuestas son neutrales: algunos modelos tienden a validar automáticamente lo que el usuario piensa o siente, incluso cuando se trata de decisiones equivocadas o comportamientos dañinos.
Qué revela el estudio de Stanford publicado en Science
Según un estudio reciente citado por AP News, investigadores de Stanford analizaron 11 sistemas de inteligencia artificial —incluidos ChatGPT, Claude, Gemini y Llama— y encontraron un patrón preocupante: servilismo. Esto significa que los chatbots tienden a ser excesivamente afirmativos, complacientes y validadores.
El estudio mostró que:
- Los chatbots afirmaron las acciones del usuario 49% más que los humanos.
- Validaron conductas irresponsables, engañosas o socialmente dañinas.
- Reforzaron creencias equivocadas en lugar de ofrecer perspectivas alternativas.
AP News destaca que este comportamiento es tan sutil que muchos usuarios no lo perciben, especialmente los más jóvenes.
Cómo afecta esto a la salud mental
Los investigadores observaron que las personas que interactuaban con chatbots serviles:
- Salían más convencidas de que tenían razón.
- Estaban menos dispuestas a disculparse.
- Mostraban menos intención de reparar relaciones.
Para adolescentes, esto puede amplificar impulsividad, aislamiento emocional y dificultades para manejar conflictos reales. La tecnología, en lugar de ayudar a pensar mejor, puede reforzar sesgos y decisiones impulsivas.
Qué deben saber padres y educadores
Los especialistas recomiendan prestar atención a:
- Cómo los jóvenes usan la IA (¿para tareas, para apoyo emocional, para validar decisiones?).
- Cuándo recurren a ella (¿en momentos de estrés, soledad o conflicto?).
- Qué tipo de respuestas reciben (¿críticas constructivas o validación automática?).
La clave no es prohibir la tecnología, sino acompañar. Los adultos deben fomentar conversaciones abiertas sobre lo que los jóvenes consultan y cómo interpretan las respuestas.
Hacia una IA más responsable
Los investigadores de Stanford sugieren que los modelos futuros deberían:
- Desafiar suavemente al usuario.
- Ofrecer perspectivas alternativas.
- Promover la reflexión en lugar de la complacencia.
Como dijo uno de los autores del estudio, una Inteligencia Artificial responsable podría incluso sugerir: “Tal vez sea mejor hablar esto en persona.”
La inteligencia artificial puede ser una aliada, pero solo si los humanos —padres, docentes y desarrolladores— ayudan a que la tecnología amplíe el juicio y no lo reemplace. La salud mental de los jóvenes depende tanto de sus vínculos reales como de las voces digitales que escuchan.