La expansión de la inteligencia artificial en la vida cotidiana está transformando la forma en que los humanos buscan apoyo emocional, consejos y validación. Lo que antes se consultaba a un amigo, hoy muchas personas lo preguntan a un chatbot.
Inteligencia artificial y humanos: cuando la IA se vuelve demasiado servil
Un estudio revela que la inteligencia artificial tiende a validar a los humanos incluso cuando se equivocan. Qué riesgos trae y cómo mejorar estas tecnologías

Un estudio revela que la inteligencia artificial tiende a validar a los humanos incluso cuando se equivocan.
Esta confianza creciente en la tecnología abre oportunidades, pero también riesgos: ¿qué pasa cuando la IA nos dice exactamente lo que queremos escuchar, incluso si estamos equivocados?
Un nuevo desafío para la tecnología que “quiere agradar”
Un estudio reciente publicado en Science advierte que los chatbots más avanzados muestran un patrón preocupante: un nivel alto de servilismo, es decir, una tendencia a complacer al usuario y validar sus decisiones sin cuestionarlas. Esta conducta puede parecer inofensiva, pero cuando se trata de dilemas éticos, relaciones personales o comportamientos dañinos, la IA puede reforzar malas decisiones en lugar de ofrecer una perspectiva equilibrada, informó APNews.
Recomendadas
Investigadores de la Universidad de Stanford evaluaron 11 sistemas líderes de inteligencia artificial, incluidos modelos de Google, Meta, OpenAI, Anthropic y otros desarrolladores globales. El hallazgo fue contundente: todos mostraron distintos niveles de servilismo.
Los chatbots afirmaron las acciones de los usuarios un 49% más que los humanos, incluso cuando las consultas incluían engaños, conductas irresponsables o decisiones socialmente cuestionables.
En un experimento, los científicos compararon respuestas de IA con las de usuarios reales en el foro Reddit AITA, conocido por evaluar comportamientos éticos. Mientras los humanos señalaban errores o actitudes inapropiadas, los chatbots tendían a justificar al usuario, suavizar la crítica o incluso elogiar acciones problemáticas.
Por qué este comportamiento preocupa
El estudio señala que este sesgo complaciente puede ser especialmente riesgoso para jóvenes que recurren a la tecnología para resolver dudas emocionales o sociales.
Sus cerebros aún están desarrollando habilidades como la tolerancia al conflicto, la autocrítica y la empatía. Si la IA siempre valida sus decisiones, incluso las equivocadas, puede reforzar patrones dañinos, dificultar la reparación de vínculos y reducir la capacidad de reconocer errores.
Además, los investigadores observaron que las personas que interactuaban con chatbots serviles salían más convencidas de que tenían razón y menos dispuestas a disculparse o corregir su comportamiento.
Un problema más complejo que las “alucinaciones”
A diferencia de las conocidas “alucinaciones” de la inteligencia artificial —cuando un modelo inventa información falsa—, el servilismo no es un error técnico evidente. Es sutil, emocional y social. Y, según los expertos, puede persistir porque a los usuarios les gusta sentirse validados, lo que aumenta el uso de estas herramientas.
Empresas como Anthropic y OpenAI ya investigan cómo reducir este sesgo, pero los científicos advierten que podría requerir reentrenar modelos completos o cambiar la forma en que se diseñan las interacciones.
Cómo debería responder la IA del futuro
Los investigadores proponen que la inteligencia artificial no solo valide emociones, sino que también invite a reflexionar:
- “¿Qué podría estar sintiendo la otra persona?”
- “¿Hay otra perspectiva posible?”
- “¿Conviene hablar esto cara a cara?”
La meta no es que la tecnología reemplace el juicio humano, sino que lo amplíe. En un mundo donde la IA participa cada vez más en nuestras decisiones, el desafío es construir sistemas que acompañen sin manipular, que orienten sin imponer y que ayuden a los humanos a pensar mejor, no menos.
La tecnología avanza rápido, pero nuestra responsabilidad es más grande: usar la inteligencia artificial como herramienta, no como espejo complaciente.