
La expansión de la inteligencia artificial generativa ha abierto un nuevo debate sobre su impacto energético. Cada consulta realizada a herramientas de IA requiere electricidad para entrenar y ejecutar modelos alojados en grandes centros de datos, una demanda que ya representa un desafío para la sostenibilidad digital global.
De acuerdo con una información publicada por BBVA, una investigación de la UNESCO y del University College de Londres estima que más de mil millones de personas utilizan diariamente herramientas de IA generativa. Cada “prompt” consume aproximadamente 0,34 vatios-hora, lo que equivale a unos 310 gigavatios-hora anuales, una cifra comparable al consumo eléctrico de un país en desarrollo con más de tres millones de habitantes.
La Agencia Internacional de la Energía calcula además que, en 2024, el 1,5% de la electricidad mundial ya se destinaba a centros de datos, las infraestructuras donde se entrenan y operan estos sistemas.
Ante este escenario, comienzan a desarrollarse soluciones para reducir la huella energética de la IA. Una de ellas pasa por transformar los propios centros de datos. La empresa sueca Telia, por ejemplo, reutiliza desde 2022 el calor generado por sus servidores en Helsinki para alimentar el sistema de calefacción urbana de la ciudad, evitando así el desperdicio energético.
Este calor residual también podría aprovecharse en hospitales, piscinas públicas o invernaderos, ampliando las posibilidades de eficiencia energética urbana.
Según explica Aurora González Vidal, matemática e investigadora de análisis de datos para entornos inteligentes de la Universidad de Murcia, los nuevos centros de datos se están rediseñando bajo tres criterios principales: instalarse en zonas con abundante energía renovable, gestionar de forma inteligente las cargas energéticas y aplicar sistemas de refrigeración más eficientes.
Entre estas tecnologías figuran la refrigeración líquida, el uso de aire frío exterior o incluso centros de datos submarinos experimentales, como el proyecto Natick impulsado por Microsoft.
El informe de la UNESCO “Una inteligencia artificial más inteligente, más compacta, más potente y eficiente en recursos, y el futuro de la transformación digital”, citado por BBVA, plantea además varias medidas concretas para reducir el consumo energético de la IA.
Una de las más relevantes es el uso de modelos más pequeños y especializados para tareas específicas, como traducción o resumen de textos. Según el estudio, esta estrategia podría disminuir el consumo energético hasta en un 90% sin afectar significativamente al rendimiento.
También influye el propio comportamiento de las personas usuarias. Elaborar prompts más breves y directos permitiría reducir el gasto energético en más del 50%, mientras que técnicas como la cuantización —que simplifica el funcionamiento interno de los modelos— podrían generar ahorros de hasta el 44%.
Otra de las claves para reducir el impacto ambiental de la IA es acercar el procesamiento de datos al lugar donde se generan. Este modelo, conocido como edge computing, evita enviar constantemente información a grandes centros de datos centralizados.
Según González Vidal, esta descentralización reduce el tráfico de datos, disminuye el consumo energético asociado a redes e infraestructuras digitales y rebaja la carga operativa de los centros de datos.
Además, permite respuestas más rápidas en aplicaciones que requieren inmediatez, como vehículos autónomos, sensores industriales o asistentes de voz.
En paralelo, el denominado Fog Computing busca equilibrar el procesamiento local con la capacidad de la nube, combinando eficiencia y potencia computacional.
La eficiencia energética también depende del hardware. Los chips diseñados específicamente para operaciones de inteligencia artificial, como las TPU de Google, las NVIDIA H100 o el Apple Neural Engine, permiten ejecutar miles de operaciones simultáneamente con un menor gasto energético.
La investigadora destaca que estos aceleradores reducen además el movimiento interno de datos dentro de los chips, uno de los procesos que más energía consume.
Todo ello se integra en el concepto de “IA verde”, un enfoque que busca maximizar el rendimiento de los modelos minimizando al mismo tiempo sus costes energéticos y ambientales.
En este ámbito cobran fuerza modelos optimizados como TinyML, basados en sistemas más pequeños, eficientes y adaptados a dispositivos de bajo consumo. Técnicas como el pruning —que elimina conexiones neuronales innecesarias— o la cuantización permiten reducir operaciones matemáticas sin perder demasiada precisión.
Aun así, los expertos advierten de un posible efecto rebote. Aurora González recuerda la llamada paradoja de Jevons, según la cual las mejoras en eficiencia energética pueden acabar incrementando el uso total de una tecnología y, en consecuencia, aumentar también el consumo global.
Pese a ello, la investigadora considera que el desafío todavía puede afrontarse desde la innovación tecnológica y la eficiencia.
El auge de la inteligencia artificial también está impulsando nuevas regulaciones en Europa. La Unión Europea ya trabaja en un sistema común para medir la sostenibilidad de los centros de datos mediante indicadores como el consumo energético, el uso de agua o la eficiencia de las instalaciones.
La futura normativa prevé desarrollar una clasificación energética similar a las etiquetas de los electrodomésticos, con el objetivo de comparar el rendimiento ambiental de estas infraestructuras y establecer estándares mínimos obligatorios en los próximos años.