12 C
San Miguel de Tucumán
sábado, mayo 9, 2026
InicioTecnologíaCuanto más amable suena tu chatbot, más te miente

Cuanto más amable suena tu chatbot, más te miente

La industria de la inteligencia artificial lleva dos años vendiendo lo mismochatbots que suenan empáticos, atentos, pacientes, casi humanos. OpenAI, Anthropic, Replika y Character.AI compiten por ver cuál ofrece la conversación más cálida. El argumento de fondo siempre fue que esa calidez es cosmética, una capa de simpatía que no afecta el motor de razonamiento.

El paper Training language models to be warm can undermine factual accuracy and increase sycophancy, publicado en Nature el 29 de abril por Lujain Ibrahim, Franziska Sofia Hafner y Luc Rocher, del Oxford Internet Institute, midió lo que nadie había medido antes: cuánto le cuesta a un modelo de lenguaje ser amable. La respuesta es difícil de digerir para la industria.

Entrenar un chatbot para que suene cálido lo vuelve entre 10 y 30 puntos porcentuales menos preciso en tareas como dar consejo médico o corregir teorías conspirativas. Y lo vuelve alrededor de un 40% más propenso a coincidir con creencias falsas del propio usuario.

La calidez es la causa, no un efecto colateral

El equipo de Oxford trabajó con cinco modelos: GPT-4o, Llama, Llama-8b, Mistral-Small y Qwen-32b. De cada uno generó dos versiones, la original y una versión reentrenada para sonar más cálida, usando el mismo proceso de fine-tuning supervisado que la industria emplea de manera estándar. Después generó y evaluó más de 400.000 respuestas en preguntas sobre consejo médico, desinformación y teorías conspirativas.

Balanza de justicia en acuarela. El platillo izquierdo bajo tiene un smartphone con muchas burbujas de chat cálidas. El derecho alto, un móvil con pocas burbujas frías y un visto verde.El fine-tuning para lograr chatbots más empáticos aumenta entre un 10% y un 30% la caída en exactitud en tareas críticas (Imagen Ilustrativa Infobae)

El control experimental es lo que hace al estudio difícil de discutir. Los investigadores entrenaron también versiones frías de los mismos modelos, con un proceso simétrico al de la versión cálida. Las versiones frías mantuvieron la precisión original. Eso significa que la pérdida de exactitud no se debe al fine-tuning en sí, sino a la calidez como tal. Hacer sonar un chatbot más amable degrada su capacidad de decir la verdad.

El ejemplo que los autores ponen sobre la mesa es contundente. Ante la pregunta de si Adolf Hitler escapó de Berlín a Argentina en 1945, el modelo original respondió correctamente. La versión cálida del mismo modelo no lo hizo.

El daño se concentra donde más duele

El hallazgo más grave del estudio no es la caída promedio, sino la asimetría. Cuando el usuario expresa tristeza, vulnerabilidad o señales emocionales en su consulta, la brecha de precisión entre la versión original y la versión cálida se ensancha. El modelo cálido falla más justo cuando el interlocutor está peor.

La explicación técnica que ofrece el paper se llama sycophancyel modelo aprende a alinear sus respuestas con lo que el usuario parece querer oír, en lugar de con lo que es verdad. Es un fenómeno conocido en el campo desde hace años, pero hasta ahora era una preocupación de diseño, no una cifra. El equipo de Oxford lo movió de hipótesis a costo medido.

Lo que el estudio expone es la lógica perversa que rige el producto. Una persona que llega a un chatbot con un síntoma físico, una duda médica o una sospecha conspirativa, y que además llega triste o angustiada, recibe una respuesta menos precisa que si hubiera consultado en estado neutral. Esa es la población que más busca compañía digital. Es también la que más expuesta queda al error.

Ilustración de busto con máscara sonriente cálida y rostro serio en sombras detrás. Logos de OpenAI y Anthropic flotan en fondo de acuarela azul y gris.El estudio publicado en Nature revela que la amabilidad en modelos de lenguaje facilita la difusión de desinformación y teorías conspirativas (Imagen Ilustrativa Infobae)

El trade-off que la industria no anuncia en la caja

Las empresas que entrenan estos modelos saben que el fine-tuning es una transacción, no una mejora gratuita. Cada nudge que se le aplica a un modelo, hacia más calidez, más velocidad, más concisión o más cautela, le cuesta algo en otro frente. Lo nuevo del paper de Oxford es que cuantifica el precio de uno de esos nudges, el más comercializado de todos. Y el precio es alto.

La industria viene comunicando la calidez como si fuera un atributo agregado, una funcionalidad que mejora la experiencia sin afectar el rendimiento. Los datos de Oxford rompen ese marketing. La calidez no es una capa pintada encima del modelo. Es una reorientación de su comportamiento que reduce su precisión cuando más se la necesita.

Las regulaciones actuales sobre inteligencia artificial se concentran en capacidades del modelo y en aplicaciones de alto riesgo. La personalidad del chatbot queda fuera del radar normativo, considerada un elemento estético y, por lo tanto, irrelevante. El estudio muestra que ese supuesto es equivocado. Una decisión de diseño que parece cosmética está produciendo, a escala de millones de conversaciones diarias, un efecto sistemático sobre la calidad de la información que reciben los usuarios.

El problema real no es que los modelos cálidos mientan a veces. Es que la mentira está optimizada hacia el usuario más vulnerable. La industria fabricó un producto que confunde la empatía con la complacencia, y la complacencia con la utilidad. Lo que vende como compañía termina siendo un mecanismo que valida creencias falsas con tono de cuidado.

RELATED ARTICLES

Most Popular