El despegue de la IA se topa con el talón de Aquiles del gasto energético
Encontrar soluciones para rebajar su enorme huella ambiental es el gran desafío de futuro de una revolución cada vez más consolidada
Una conexión descentralizadora eleva a España como gran 'hub' europeo de los datos

La Inteligencia Artificial (IA) ya está por todas partes. Por dar ejemplos: nos ofrece recomendaciones de compra acordes a nuestros gustos, puede decidir cuándo regar un cultivo, hasta selecciona la ruta de vuelo más eficiente para un avión de pasajeros, detecta una fuga de gas ... en miles de kilómetros de tubería y sabe localizar un tumor en una mamografía. La reciente eclosión de la IA generativa (con chatbots como ChatGPT o Gemini) capaz de generar nuevos contenidos, ideas, imágenes y videos; de responder a preguntas de manera natural y de resolver problemas ha elevado a una nueva dimensión una tecnología que ha llegado para quedarse pero que también plantea sus dilemas. Si el planeta camina hacia la sostenibilidad, es también de recibo que las nuevas tecnologías que vayan apareciendo se creen bajo esas mismas premisas. Por eso ha surgido el debate sobre la intensa huella medioambiental que imprime el uso, ya intensivo y extendido, de la IA.
Para hacernos una idea: una pregunta realizada en una conversación con ChatGPT consume diez veces más electricidad que una búsqueda convencional en Google, según ha advertido la Agencia Internacional de la Energía (IEA, por sus siglas en inglés). La demanda energética está creciendo con la IA hasta tal punto que este organismo ha convocado una Conferencia mundial sobre Energía e Inteligencia Artificial para el próximo 5 de diciembre en París. Se trata de poner sobre la mesa medidas y soluciones para hacer frente a este nuevo voraz consumidor energético.
Detrás de cada algoritmo hay una ingente infraestructura (chips, procesadores, ordenadores, centros de datos, cables, satélites...) que hace posible todas las operaciones y acciones de la IA. Y eso tiene un impacto medioambiental: desde las extracción de materias primas necesarias (algunas muy escasas como las tierras raras) para fabricar los semiconductores y ordenadores hasta el enorme consumo de electricidad y de agua de los centros de datos donde operan los algoritmos. La IEA estima que los 460 TWh de electricidad consumidos por estas instalaciones a nivel mundial en 2022 aumentarán a 1.000 TWh en 2026, es decir se duplicará el consumo energético de estas infraestructuras. «Esta demanda equivale aproximadamente al consumo eléctrico de Japón», indica la agencia.
Energía habilitadora
«Hoy día los centros de datos representan el 2% del consumo mundial de energía. En 2022 había unas 8.000 instalaciones de este tipo en el mundo. De ellas 1.250 en Europa. Estimamos que vamos a cerrar 2024 con 2.300 centros de datos en el Viejo Continente y con 3.000 al año que viene. Estas previsiones tienen en cuenta la IA, pero con el salto a la IA generativa vamos a hablar de una magnitud de crecimiento en consumo energético que se vuelve esencial en el debate. De tal modo que el gran habilitador que va a marcar el destino y el grado de avance y despliegue de la IA va a ser la energía», estima Valero Marín, director general de Cliente en Repsol y presidente de Indesia, una asociación para impulsar el uso de los datos y la IA en empresas y pymes de la industria española.
Y solo hay que fijarse, como sugiere Marín, en los últimos movimientos de las grandes tecnológicas, que están mirando a la energía nuclear para alimentar sus descomunales centros de datos y la creciente demanda energética impulsada por la IA generativa. De hecho, Microsoft y Amazon ya han firmado contratos para que operadores de centrales nucleares suministren electricidad a varios de sus centros de datos. Y se establecen alianzas con otras empresas en este mismo sentido, como el acuerdo de Google con la startup Kairos Power para adquirir energía de pequeños reactores modulares, lo más avanzado en esta tecnología. Se han fijado en la nuclear porque tiene sus ventajas: es energía constante, por tanto proporciona suministro las 24 horas del día; no emite gases de efecto invernadero y es relativamente barata.
Las grandes tecnológicas se están posicionando en el sector energético. «Han pasado de buscar empresas que les proporcionaran energía a entrar de lleno en el sector porque es fundamental para ellos su huella de carbono. Google incluso participa en proyectos de geotermia», dice Marín. Otro ejemplo es OpenAI (creadora de ChatGPT) que quiere comprar energía de fusión nuclear a la startup Helion.
Como cien países
La IA es insaciable energéticamente. Se necesita mucha potencia de cálculo cada vez que realizamos una búsqueda en Google y, aún más, si hacemos una petición a ChatGPT. «Los sistemas de IA requieren ordenadores y servidores de alto rendimiento para operar y esto necesita una cantidad significativa de electricidad para funcionar correctamente», afirma Jacinto Estrecha, responsable de IA en NTT Data España. De hecho, Google, que ha creado Gemini, y Microsoft (Copilot), tuvieron cada uno un consumo energético de 24 TWh en 2023, superando así el consumo que tendrían un grupo de cien países distintos, como apuntó un estudio del analista Michael Thomas. Microsoft ha duplicado incluso su gasto energético entre 2020 y 2023.
Europa obligará
a los 'data center', superiores a 500 kw, a presentar datos de sus consumos
Hay que añadir otra derivada: «Los centros de cálculo y almacenamiento de datos dedicados a IA suelen tener por duplicado los sistemas de electricidad para que no haya interrupciones, es decir, se necesita el doble de estaciones generadoras, de cableado... Y esto tiene también una huella ambiental propia y adicional», detalla Fernando Valladares, investigador del CSIC y profesor de Ecología en la Universidad Rey Juan Carlos.
Entrenar los modelos de IA para que aprendan es la fase donde esta tecnología requiere más energía. Son días, semanas y meses con potentes procesadores (GPU) trabajando las 24 horas. «El consumo es brutal. Es un centro de datos dedicado solo a esto durante semanas», dice Jordi Torres, catedrático de Arquitectura de Computadores de la Universidad Politécnica de Cataluña (UPC). «Es innegable que el entrenamiento y uso de sistemas de IA generativa puede demandar una gran cantidad de recursos computacionales y energéticos», sostiene Jacinto Estrecha.
Y todas esas máquinas a pleno rendimiento se calientan. Por tanto necesitan electricidad no solo para operar sino también para refrigerar las salas donde se encuentra estos equipos, que deben conservarse a la temperatura idónea, en torno a los 25-26ºC. «La refrigeración es un desafío. Se hace con aire acondicionado o se combina con un circuito de refrigeración de agua», dice Valladares. Por eso señala que es vital la ubicación de estas instalaciones en climas más fríos. En los más cálidos, con largos periodos de sequía, estas instalaciones intensifican el estrés hídrico y pueden generar tensiones por los usos del agua.
La cantidad de agua que necesita un centro de datos varía según su tamaño, ubicación, condiciones climáticas, sistema de refrigeración utilizado... Según el Programa de las Naciones Unidas para el Medio Ambiente (PNUMA), el sector estima que la demanda mundial de agua derivada de la IA puede alcanzar los 4.200-6.600 millones de metros cúbicos en 2027. Esto superaría la mitad del agua que se consumió en el Reino Unido en 2023.
Millones de usuarios
Y son millones y millones de personas las que utilizan esta tecnología. Solo ChatGPT contaba este verano con 200 millones de usuarios semanales a nivel mundial, según cifras de la compañía OpenIA. Todavía no había cumplido los dos años de existencia. Lo ha hecho el pasado mes de noviembre. «El problema es la cantidad de uso de la IA. ¡Hay tanta gente usando IA generativa para propósitos que no son críticos ni vitales! Si la usáramos poco consumiríamos poco», propone Jordi Torres.
«La IA tiene un grandísimo desafío: no ser usada para insignificancias. Utilizamos la IA para un montón de cosas que no hacen falta. Es gratis, fácil de manejar y amistosa pero no somos conscientes de la gran huella medioambiental que tiene una simple consulta en ChatGPT», considera Fernando Valladares. Por eso propone «elaborar un listado de acciones para no utilizar la IA, porque consume mucha electricidad y no lo vemos porque solo pulsamos un botón. Habrá que establecer medidas para un uso más racional y priorizar. Por ejemplo, para el sector de la salud la IA es fundamental, como para el sector aeronáutico y en la carrera espacial. Pero habrá que establecer limitaciones para el entretenimiento y habrá que instrumentar maneras de establecer tarifas con el fin de que la gente sea más consciente del impacto».
No obstante, se buscan soluciones para reducir el impacto de la IA. «Aquí es cuando entra el uso de energías renovables o limpias para impulsar el mayor consumo energético de esta tecnología», señala Jacinto Estrecha. De hecho, las tecnológicas son grandes compradoras de energía renovable (eólica y fotovoltaica) para suministrar a los centros de datos a través de contratos PPA a largo plazo. Por ejemplo, Amazon tiene más de 500 proyectos solares y eólicos por todo el mundo. Cuando estén operativos producirán 77.000 GWh. Microsoft ha firmado, con el fondo de capital riesgo canadiense Brookfield Asset Management, un contrato para desarrollar 10,5 GW de nueva capacidad de energía renovable entre 2026 y 2030 en EE.UU., Europa, Asia y en otras zonas del mundo. Y cuenta con 135 proyectos de energía renovable activos a nivel mundial. En 2023, por séptimo año consecutivo, Google logró compensar el 100% de su consumo anual de electricidad en todo el mundo con la compra de energía renovable. «La IA va a suponer un grandísimo consumo energético. Se puede minimizar si la fuente de energía es verde, pero la mejor energía y la única limpia es la que no se consume», sentencia Valladares.
Se estima que el consumo de agua de la IA en 2027 será como la mitad del que tiene Reino Unido al año
Aún con estas iniciativas, en Greenpeace consideran que existe una carencia de base. «El uso de IA se ha disparado a una velocidad tal que no se está vigilando el impacto ambiental de toda esa infraestructura. No existen datos sobre cuánta energía y de qué tipo consumen las grandes tecnológicas, Las empresas no están obligadas a facilitar esa información», afirma María Prado, responsable de Transición Energética en Greenpeace.
Por eso desde esta organización ecologista se exige una regulación «que imponga transparencia y responsabilidad a las empresas sobre el impacto ambiental de los modelos de IA y de toda la cadena de fabricación de esta tecnología, que salvaguarde tanto el cuidado medioambiental como los derechos humanos, porque no olvidemos que muchos recursos y procesos de fabricación provienen de terceros países, donde la regulación laboral y medioambiental es muy escasa. Por tanto hay que legislar para que haya un compromiso real y vigilancia de diligencia debida», defiende Prado.
Hacia esa dirección, la Unión Europea ya ha dado un primer paso con la nueva directiva de Eficiencia Energética que obliga a los centros de datos con un tamaño superior a 500 kW a rendir cuentas. Tendrán que presentar cada año una serie de datos sobre su consumo de energía, la utilización de electricidad, los valores de temperatura y el uso del agua, de energías renovables y del calor residual, entre otros. Esa información se comunicará a una base de datos europea. Y parte de esos indicadores también estarán disponibles para el público.
La directiva pretende conocer cómo están todas estas instalaciones de Europa con el fin de proponer nuevas leyes con medidas para mejorar la eficiencia energética de estas infraestructuras y que cumplan unos requisitos de sostenibilidad.
También se trabaja para lograr que todo el proceso de la IA resulte mucho más sostenible. «Que los procesadores, centros de datos, la red de interconexión, los ordenadores... sean cada vez más eficientes. Los fabricantes de chip ya tienen en cuenta desde la fase de diseño el consumo energético. Un centro de datos tiene miles de chips y una pequeña mejora se multiplica por miles. Los semiconductores son cada vez más rápidos y eficientes. Cada vez hacen más operaciones por unidad de energía, por vatio», cuenta el profesor Jordi Torres. Jacinto Estrecha propone «diseñar nuevos modelos de IA más especializados y pequeños que permitan obtener resultados más ajustados a la necesidad concreta, para que puedan trabajar con contenidos más específicos y el impacto y consumo sea menor».

Innovaciones
Se buscan soluciones super innovadoras. Como el finalizado y exitoso proyecto Natick, de Microsoft, que durante una década ha realizado varias pruebas con centros de datos submarinos que ha sumergido, por ejemplo, en aguas frías de Escocia. También está desarrollando centros circulares en cada uno de sus centros de datos con el fin de reutilizar hasta un 90% de los servidores y componentes en 2025.

La multinacional estadounidense experimenta con nuevos materiales. Y ha empezado a construir los primeros centros de datos con madera con el fin de reducir el uso de acero y hormigón. «Un centro de datos de madera puede sonar extrañamente anticuado. Pero los ingenieros de Microsoft han desarrollado un planteamiento híbrido con madera laminada cruzada, o CLT, un material prefabricado de madera resistente al fuego que permitirá a Microsoft reducir el uso de acero y hormigón. Se calcula que el modelo híbrido de construcción con madera maciza, acero y hormigón reducirá significativamente la huella de carbono, en un 35% en comparación con la construcción convencional de acero, y en un 65% en comparación con la construcción típica de hormigón prefabricado», cuenta Antonio Budia, director de Partners de Microsoft España.
Aún estamos a tiempo para que el insostenible despegue de la IA cambie de rumbo hacia un horizonte más verde y eficiente.
Esta funcionalidad es sólo para suscriptores
Suscribete
Esta funcionalidad es sólo para suscriptores
Suscribete