Recientemente, un estudio revelaba que el 70% de los usuarios chatbots de IA mantiene un trato de cortesía con ellos. Aunque la gran mayoría dijo hacerlo por educación, alrededor del 18% reconoció que su amabilidad viene del miedo a lo que pueda pasar en un futuro. Es decir, a una posible insurrección de la inteligencia artificial. Ahora, además, hemos conocido que todos esos "por favor" y "gracias" le están costando millones de dólares a empresas como Open AI.
Dice el refranero español que es de bien nacidos ser agradecidos aunque, en 2025, lo que también le supone es un derroche de dinero en Silicon Valley. No es novedad que el uso de herramientas basadas en IA generan un importante gasto eléctrico debido al consumo que supone refrigerar enormes centros de datos. Sin embargo, ahora Sam Altman ha aportado un nuevo dato al respecto.
Cualquier interacción que como usuarios mantenemos con una IA genera un consumo energético. Desde pedirle a ChatGPT que te convierta en un teleñeco hasta pedirle un perfil psicológico de tus citas antes de conocerlas. Incluso las respuestas en las que incluyas unos simples, rutinarios e inocentes "por favor" y "gracias".
Sobre todo porque, cuando son unos cuantos millones de personas quienes dicen lo mismo, se acaba traduciendo en un gasto millonario. Esto es lo que ha confirmado Sam Altman, CEO de OpenAI, que le confesaba a un usuario de la red social de Elon Musk que tener buenos modales con ChatGPT le ocasiona a la empresa un gasto de "decenas de millones de dólares" en electricidad.
Lo peor es que es malo para el medioambiente
Los expertos de Xataka nos lo explican así: "Cuando enviamos una petición a una inteligencia artificial, los servidores de un centro de datos computan la respuesta. Hasta aquí, el proceso es similar a cualquier servicio en la nube, pero los modelos de IA generativa, que han sido entrenados para predecir las respuestas, utilizan 33 veces más energía que las máquinas que ejecutan un algoritmo tradicional".
Un estudio advierte del alto coste ambiental de tienen los grandes modelos de IA, tanto por la cantidad de energía que demandan como por las toneladas de carbono que emiten. Según estimaciones de la organización sin ánimo de lucro, una consulta promedio a ChatGPT consume unos 0,3 vatios-hora (Wh) de electricidad.
Mientras que la Agencia Internacional de la Energía (AIE) estimó este año que las emisiones de gases de efecto invernadero derivadas del consumo energético de la IA alcanzaron los 180 millones de toneladas, con proyecciones de aumentar a entre 300 y 500 millones de toneladas para 2035.
El o que respecta al consumo de agua de estos sistemas, el Instituto de Ingeniería (IIE) de España estima que entre 10 y 50 consultas pueden consumir aproximadamente 2 litros de agua potable, debido a la alta demanda de refrigeración.
Sam Altman no se opone
No obstante, en su intervención en X, Sam Altman no parecía oponerse a que los humanos mantengamos nuestro buenos modales con los robots. De hecho, bromeaba asegurando que "es dinero bien gastado porque nunca se sabe", en referencia a una posible revolución de las máquinas. De lo que no ha dicho nada es sobre el problema energético.
Foto de portada | Andy Kelly
En Trendencias | Cómo hacer publicaciones compartidas con otros perfiles en Instagram
Ver 0 comentarios