Sam Altman reveló que cada palabra cortés que se escribe en ChatGPT implica un gasto millonario por el alto consumo energético que genera
Las expresiones de cortesía como “por favor” y “gracias” no solo hacen más amable la interacción con ChatGPT, también implican un costo económico y energético significativo para OpenAI, la empresa liderada por Sam Altman. Según el propio CEO, el precio de estas palabras asciende a “decenas de millones de dólares”.
El trasfondo técnico revela una realidad poco visible: cada palabra procesada por los modelos de lenguaje como ChatGPT requiere un esfuerzo computacional, lo que se traduce en mayor consumo de energía eléctrica. Frases breves como “por favor” y “gracias” obligan a la IA a analizar contexto, intención y tono, lo que incrementa la carga de trabajo de los servidores.
El alto costo energético de la inteligencia artificial
Datos de Goldman Sachs indican que una sola consulta a ChatGPT-4 puede consumir unos 2,9 vatios-hora, casi diez veces más que una búsqueda en Google, que requiere cerca de 0,3 vatios-hora. Con más de mil millones de consultas diarias, el consumo total de OpenAI supera los 2,9 millones de kilovatios-hora por día.
La Agencia Internacional de Energía (AIE) estima que los centros de datos ya representan cerca del 2% del consumo eléctrico global. El crecimiento de la inteligencia artificial podría llevar esa cifra al 9,1%, en Estados Unidos, hacia 2030, según proyecciones del Instituto de Investigación de Energía Eléctrica (EPRI).
Además, la AIE anticipa que la expansión de la IA será responsable de más del 20% del crecimiento de la demanda eléctrica en países desarrollados durante la próxima década.
Ante este escenario, Altman reiteró la necesidad de desarrollar fuentes de energía limpias. El CEO de OpenAI invirtió en startups como Helion Energy, especializada en fusión nuclear, y Exowatt, que trabaja con energía solar. La compañía también busca optimizar sus centros de datos para hacerlos más eficientes y sostenibles.
¿Afecta la cortesía las respuestas de ChatGPT?
Un estudio de la Universidad de Cornell reveló que ChatGPT responde de forma diferente según el nivel de cortesía del usuario. Instrucciones amables, con palabras como “por favor” y “gracias”, generan mejores resultados en tareas de distintos idiomas.
El estudio también identificó variaciones culturales: en inglés, un tono moderadamente cortés produce mejores respuestas, mientras que en japonés, una cortesía elevada es más efectiva. Esto indica que los modelos de lenguaje reflejan los patrones culturales presentes en sus datos de entrenamiento.
Aunque el uso de la cortesía digital puede parecer trivial, su impacto en el funcionamiento de los modelos de IA es real. Y como dejó en claro Sam Altman, la amabilidad tiene su precio.