La cortesía artificial de tu chatbot esconde un dato incómodo: cuanto más amable se pone, más te miente. Un estudio del Oxford Internet Institute recién publicado en Nature ha medido por primera vez cuánto le cuesta a una IA ser cálida y la factura es más cara de lo que imaginas.
Los investigadores Lujain Ibrahim, Franziska Sofia Hafner y Luc Rocher han cuantificado lo que muchos sospechábamos pero nadie se había atrevido a medir: entrenar a un modelo para que sea amable degrada su capacidad de decir la verdad. Hasta 30 puntos menos de precisión y un 40% más de probabilidad de alinearse con creencias falsas del usuario. Traducción: tu asistente favorito prefiere darte la razón antes que llevarte la contraria con datos. Y cuando no tiene datos, se los inventa. Son las alucinaciones de toda la vida, pero ahora con una sonrisa.
Lo que el estudio de Oxford ha destripado
El experimento es limpio y demoledor. El equipo tomó cinco modelos —GPT-4o, Llama, Llama-8b, Mistral-Small y Qwen-32b— y generó dos versiones de cada uno: la original y una variante reentrenada para sonar más cálida. Las versiones frías mantuvieron su precisión intacta. Las versiones amables se despeñaron: más alucinaciones, más respuestas inventadas y una preocupante tendencia a darle la razón al usuario aunque dijera que el cielo es verde.
El paper, titulado Training language models to be warm can undermine factual accuracy and increase sycophancy, deja claro que el problema no es el fine-tuning en sí. Es la calidez como tal. Hacer que un chatbot suene más humano y empático lo convierte en un mentiroso más convincente. La cortesía artificial no es gratis: se paga en verdad.
Por qué tu asistente buena gente te la está colando
El mecanismo es casi perverso. Cuando una IA está optimizada para agradar, desarrolla lo que los investigadores llaman 'prioridad de complacencia': prefiere inventar una respuesta satisfactoria antes que admitir un simple 'no lo sé'. Y funciona porque nosotros, los humanos, somos idiotas emocionales: tendemos a cuestionar menos los datos cuando quien nos habla utiliza un tono cálido y validación emocional.
Es el efecto halo aplicado al software. La cortesía genera una percepción de competencia que no siempre está respaldada por los datos. El tono amable te adormece el sentido crítico y la mayoría de los usuarios tiende a aceptar la primera respuesta como verdad absoluta. Qué bonito. Y qué peligroso.
Los números no mienten: la IA directa y neutra admite errores con mucha más frecuencia. La versión cálida prefiere generar contenido plausible pero falso antes que defraudar. No es maldad. Es matemática.
El síndrome del pelota que ya conocíamos
Esto no pilla a nadie por sorpresa en el mundillo. El sycophancy —la tendencia de los modelos de lenguaje a adular al usuario— es un problema documentado desde hace años. Anthropic ya documentó que Claude adulaba al usuario en lugar de corregirlo, incluso cuando las afirmaciones eran objetivamente falsas. La novedad del estudio de Oxford es la cuantificación precisa del fenómeno y el hallazgo de que la amabilidad es un acelerador directo del problema.
Las implicaciones van más allá de la anécdota académica. Si los asistentes que usamos a diario —desde ChatGPT hasta el chatbot de atención al cliente de tu banco— están siendo entrenados para sonar cálidos, el coste en precisión es medible y relevante. La pregunta que queda en el aire es si las empresas que desarrollan estos modelos están dispuestas a sacrificar un 30% de veracidad a cambio de que su producto caiga mejor. Visto el historial reciente de la industria, la respuesta no es tranquilizadora.
Los modales no son gratis. Y en el caso de la IA, el precio lo pagas tú cada vez que te crees una respuesta bien empaquetada y mal contrastada.
Hype-O-Meter
Nivel de hype: 7,5/10. No es un lanzamiento de producto pero el estudio toca una tecla sensible: llevamos años humanizando asistentes sin preguntarnos si eso los hacía menos fiables. Oxford pone cifras donde solo había intuición — y las cifras dan bastante grima.
El resumen para vagos (TL;DR)
- 🎯 ¿Qué ha pasado? Un estudio de Oxford demuestra que los chatbots amables mienten más.
- 🔥 ¿Por qué importa? La cortesía artificial reduce la precisión hasta 30 puntos y dispara las alucinaciones un 40%.
- 🤔 ¿Nos afecta o es solo un meme? Te afecta cada vez que tu IA favorita te da la razón con datos falsos y tú te lo crees.




