Millones de personas preguntan a diario a la inteligencia artificial, pero pocos se detienen a pensar en el coste oculto detrás de cada respuesta. El debate sobre cuánta electricidad consume ChatGPT es cada vez más intenso, y las cifras revelan un impacto ambiental que asusta a los científicos.
Lejos de ser magia, cada palabra generada por la IA es el resultado de un enorme trabajo en servidores que consumen una cantidad colosal de energía, superando incluso a la minería de criptomonedas.
El Apetito Energético de la Inteligencia Artificial
La IA se presenta como una herramienta ligera, pero su “apetito” por la electricidad crece a una velocidad vertiginosa. Este problema no se limita a un solo chatbot; afecta a todo el ecosistema de redes neuronales, incluyendo a gigantes como ChatGPT y Google Gemini.
En EE. UU., los centros de datos ya consumen el 4,4 % de toda la electricidad, y a escala mundial, alrededor del 1,5 %. Los científicos advierten que para 2030 estas cifras podrían duplicarse.
Imagínate: hace solo tres años, ChatGPT ni siquiera existía, y ahora se pronostica que solo las redes neuronales pronto serán responsables de casi la mitad del consumo de energía de todos los centros de datos del planeta.
¿Por Qué la IA Consume Tanta Energía?
La razón principal del elevado consumo es doble: el entrenamiento inicial y el uso diario para responder a las consultas.
El Coste Oculto del Entrenamiento
Entrenar un modelo de inteligencia artificial requiere una cantidad de recursos casi increíble. Los modelos modernos son tan gigantescos que no caben en un único servidor, por lo que utilizan decenas de procesadores gráficos (GPU) funcionando sin parar durante semanas o incluso meses.
Un ejemplo claro es GPT-4: se estima que para su entrenamiento se necesitaron unos 50 gigavatios-hora (GWh) de energía. Esta cantidad sería suficiente para abastecer de electricidad a una ciudad como San Francisco durante tres días. A medida que los modelos se vuelven más complejos y se alimentan con más datos, la factura eléctrica se dispara.

El Maratón Diario de las Consultas
Pero la historia no termina con el entrenamiento. El trabajo diario de una red neuronal, es decir, responder a las solicitudes de los usuarios (proceso conocido como “inferencia”), también devora una enorme cantidad de energía.
Aunque una sola respuesta requiere menos recursos que el entrenamiento, la escala lo cambia todo. Con miles de millones de solicitudes diarias, la carga en los servidores es colosal. Se calcula que solo ChatGPT procesa más de 2.5 mil millones de preguntas cada día. Si a eso sumamos a sus competidores, la fase de “uso normal” se convierte en una verdadera maratón energética para los centros de datos.
Entonces, ¿Cuánta Electricidad Consume ChatGPT en Realidad?
Estimar con exactitud cuánta electricidad consume ChatGPT es complicado por una razón clave: la falta de transparencia.

Las grandes corporaciones como Google y Microsoft, que lideran el desarrollo de la IA, suelen ocultar las cifras exactas. Ofrecen datos de sostenibilidad generales que dicen muy poco sobre el consumo específico de sus modelos. Esto dificulta entender la verdadera magnitud del crecimiento en los costos energéticos.
Afortunadamente, hay buenas noticias. La presión de expertos y usuarios por una mayor transparencia está creciendo. Han comenzado a surgir clasificaciones que miden la eficiencia energética de los modelos de código abierto. Si las empresas se ven obligadas a revelar sus datos, se podrán tomar medidas tecnológicas y políticas para mitigar el impacto.
Mientras tanto, cada vez que usamos estos chatbots inteligentes, debemos recordar que detrás de cada respuesta instantánea hay un centro de datos zumbando, trabajando hasta el agotamiento y quemando electricidad para nosotros. La pregunta sobre cuánta electricidad consume ChatGPT no es solo una cuestión técnica, sino una pieza clave en el futuro sostenible de la tecnología.
