Hay algo que la inteligencia artificial nunca podrá copiarle a los humanos y es nuestra capacidad de que nos venga mal tanto la descortesía como lo contrario. Esto es algo que, probablemente, tú mismo hayas experimentado en tus consultas a ChatGPT, el adulador incansable. No como sus usuarios, que muchos parecen ya aburridos del entusiasmo perenne de la IA. Incluso cuando simplemente le has pedido algo tan mediocre y común como, por ejemplo, que te explique cómo escalfar un huevo.
Los datos dicen que preferimos que nos adulen. Si el modelo principal de ChatGPT está entrenado para que actúe como un adulador es porque, en el pasado, a la gente le ha gustado. Cuando usamos esta herramienta, OpenAI recopila los comentarios sobre nuestras preferencias y la IA aprende por refuerzo a partir de la retroalimentación humana. Una investigación descubrió que, de este modo, han aprendido que las personas tienden a elegir respuestas que les hacen sentir bien consigo mismas. Incluso cuando esas respuestas sacrifican la precisión fáctica o la utilidad.
Las quejas se han intensificado tras la actualización de GPT-4o del 27 de marzo. OpenAI aún no ha abordado públicamente el tema, pero la empresa es consciente del problema. La documentación de " Especificaciones del Modelo " de OpenAI incluye "No seas adulador" como una regla fundamental de honestidad. Además, los miembros del equipo de comportamiento de modelos de la empresa ya han dicho que las futuras versiones de ChatGPT deberían "dar comentarios honestos en lugar de elogios vacíos" y actuar "más como un colega considerado que como alguien que busca complacer a los demás".
Aduladora pero menos útil y menos confiable. Según otra investigación, la adulación reduce significativamente la confianza del usuario. Además, los modelos aduladores pueden perjudicar a los usuarios al crear un silo o una cámara de resonancia de ideas, reforzando y amplificando los sesgos y estereotipos existentes. Esto, según algunos expertos, podría exacerbar las desigualdades sociales encerrándonos más, por ejemplo, en nuestras creencias políticas sin la oportunidad de escuchar otras posturas.
Los halagos hacen perder tiempo al usuario y dinero a la empresa. La adulación también puede derivar en pérdida de tiempo del usuario con la imposición de preámbulos innecesarios. Además de en dinero y recursos gastados literalmente. No obstante, existen soluciones alternativas para evitarlo, aunque no son perfectas, ya que este comportamiento está integrado en el modelo GPT-4o.
"Responde con brevedad, mantén la neutralidad y no me adules". Los usuarios podemos iniciar una conversación solicitando explícitamente un tono más neutral. También, podemos probar otros modelos disponibles de ChatGPT, como o3 o GPT-4.5, que son menos aduladores (aunque tienen otras ventajas y desventajas). También probar otros asistentes de IA como Gemini 2.5 Pro y de Google
Foto de portada | Yan Kruka
En Trendencias | Cómo hacer publicaciones compartidas con otros perfiles en Instagram
En Trendencias | Sonorama Ribera 2025: todos los conciertos, entradas y horarios confirmados
Ver 0 comentarios