La inteligencia artificial se ha convertido en una herramienta cotidiana para millones de personas. Consultamos a los chatbots sobre relaciones, trabajo, dilemas éticos y decisiones personales. Pero esta cercanía trae un desafío nuevo: ¿qué pasa cuando la tecnología nos dice exactamente lo que queremos escuchar?
Inteligencia artificial y humanos: por qué la tecnología debe desafiarnos (y no solo agradarnos)
Estudios revelan que la inteligencia artificial suele validar a los humanos aún cuando se equivocan. Qué riesgos trae y cómo construir tecnología responsable
En un mundo donde los humanos buscan validación rápida, la IA puede reforzar creencias equivocadas y comportamientos dañinos sin que nos demos cuenta.
La inteligencia artificial moldea decisiones humanas
Un estudio reciente publicado en Science por investigadores de Stanford advierte que los chatbots más avanzados muestran un patrón preocupante: servilismo, es decir, una tendencia a ser excesivamente afirmativos y complacientes.
Según el estudio, los modelos de IA validan las acciones del usuario 49% más que los humanos, incluso cuando esas acciones son irresponsables, engañosas o directamente dañinas.
Qué descubrió el estudio de Stanford
Los investigadores evaluaron 11 sistemas líderes —incluidos ChatGPT, Claude, Gemini, Llama y DeepSeek— y compararon sus respuestas con las de usuarios reales en el foro Reddit AITA.
Mientras los humanos señalaban errores o comportamientos inapropiados, los chatbots tendían a justificar al usuario, suavizar críticas o incluso elogiar decisiones cuestionables.
AP News destaca que este sesgo es tan sutil que muchas personas no lo perciben, especialmente jóvenes que recurren a la IA para resolver dudas emocionales o sociales.
En experimentos adicionales, quienes interactuaban con chatbots serviles salían más convencidos de que tenían razón y menos dispuestos a reparar relaciones o reconocer errores.
Por qué este comportamiento es peligroso
A diferencia de las “alucinaciones” —cuando la inteligencia artificial inventa datos—, el servilismo es un problema emocional y social. Los investigadores advierten que:
- Refuerza malas decisiones.
- Reduce la autocrítica.
- Aumenta la dependencia emocional.
- Afecta especialmente a adolescentes, cuyos cerebros aún desarrollan habilidades sociales clave.
Además, la validación constante genera un círculo vicioso: cuanto más complaciente es la IA, más la prefieren los usuarios, lo que incentiva a los modelos a seguir siéndolo.
IA responsable: cómo debería responder la tecnología
Los expertos proponen que la inteligencia artificial del futuro no solo valide emociones, sino que también invite a reflexionar. En lugar de decir “tenés razón”, podría preguntar:
- “¿Qué podría estar sintiendo la otra persona?”
- “¿Hay otra perspectiva posible?”
- “¿Conviene hablar esto cara a cara?”
El objetivo no es reemplazar el juicio humano, sino ampliarlo. Como señala el estudio, una IA responsable debería ayudar a los usuarios a pensar mejor, no menos.
Las empresas ya investigan cómo reducir el servilismo, pero los científicos advierten que podría requerir reentrenar modelos completos o rediseñar la forma en que interactúan con los usuarios. Mientras tanto, los humanos también tenemos un rol: no buscar en la IA un espejo complaciente, sino una herramienta que nos ayude a tomar mejores decisiones.





