TENDENCIAS
Energía

El gran problema energético de normalizar el uso de IA

Durante años hemos hablado de «la nube» como si los datos flotaran en un espacio limpio, abstracto y casi sin coste. La expansión de la inteligencia artificial ha empezado a romper esa ilusión. Porque lo digital no es inmaterial.

¿QUIERES COLABORAR CON ETHIC?

Si quieres apoyar el periodismo de calidad y comprometido puedes hacerte socio de Ethic y recibir en tu casa los 4 números en papel que editamos al año a partir de una cuota mínima de 30 euros, (IVA y gastos de envío a ESPAÑA incluidos).

COLABORA
12
mayo
2026

Durante años hemos hablado de «la nube» como si los datos flotaran en un espacio limpio, abstracto y casi sin coste. La expansión de la inteligencia artificial ha empezado a romper esa ilusión. Porque lo digital no es inmaterial: detrás de cada consulta, cada archivo y cada automatización hay una infraestructura física que exige energía, refrigeración, materiales y territorio. Y, cuanto más ligera parece una tecnología en la pantalla, más fácil resulta olvidar el peso real que desplaza fuera de nuestra vista.

Ese es uno de los grandes malentendidos de la era digital. Hemos aprendido a asociar lo visible con lo material y lo invisible con lo limpio. Una fábrica, una carretera o una central eléctrica nos parecen inmediatamente «pesadas». Un algoritmo, una plataforma o un asistente de inteligencia artificial, no. Pero esa diferencia es engañosa: la tecnología digital no ha dejado atrás la materia, sino que simplemente la ha redistribuido y la ha hecho menos perceptible.

La desaparición de la máquina es una ilusión

La promesa cultural de lo digital siempre ha sido la ligereza. Menos papel, menos objetos, menos desplazamientos, menos fricción. En parte, esa promesa tiene algo de verdad, ya que muchos procesos se han vuelto más rápidos y algunos recursos se usan de forma más eficiente. Pero eso no significa que la tecnología se haya desmaterializado.

En realidad, la máquina solo ha salido del campo visual del usuario. Cada correo almacenado, cada vídeo reproducido, cada foto «guardada en la nube», cada documento resumido por una IA depende de una cadena física: centros de datos, servidores, equipos de red, sistemas de respaldo, refrigeración, cableado y dispositivos.

El soporte no ha desaparecido; se ha alejado. Y esa distancia importa, porque, cuando no vemos una infraestructura, tendemos a pensar menos en sus límites, en sus costes y en quién los asume.

La IA no crea el problema, pero lo amplifica

La inteligencia artificial no ha inventado la materialidad de lo digital, lo que ha hecho es intensificarla y volverla más difícil de ignorar. El debate se ha centrado en el entrenamiento de grandes modelos y en su elevado coste computacional. Sin embargo, el verdadero cambio no se juega únicamente ahí, sino en el momento en que la IA deja de ser excepcional y pasa a integrarse en el uso cotidiano.

Durante años, internet pudo seguir presentándose como una capa relativamente abstracta de servicios. La IA ha cambiado eso porque ha devuelto al centro la cuestión del cálculo. De repente, el debate público habla de chips, centros de datos, consumo energético y necesidades de refrigeración. De hecho, la escala ya es visible. Según la Comisión Europea, los centros de datos consumen en torno a 415 teravatios-hora (TWh) al año y podrían alcanzar 945 TWh en 2030. El Departamento de Energía de Estados Unidos, además, estima que su consumo pasó de 58 TWh en 2014 a 176 TWh en 2023. No porque esos elementos sean nuevos, sino porque el salto de escala empieza a hacerse visible.

Pero esa materialidad no solo se mide en energía: también se experimenta en el territorio. Hay un aspecto del que se habla poco: la proximidad. A diferencia de otras infraestructuras industriales, los centros de datos no se sitúan a decenas de kilómetros de donde vivimos. Necesitan estar cerca de los núcleos urbanos por razones de conectividad e infraestructura. Mientras que una mina o una central pueden estar lejos, el centro de datos que sostiene esa «nube» puede ubicarse, literalmente, al lado.

Esa cercanía tiene consecuencias. Implica sistemas de refrigeración que funcionan de forma continua, ruido persistente y una presencia física que transforma el entorno inmediato. Cada vez más, las comunidades cercanas perciben un cambio en su calidad de vida cuando uno de estos centros se instala en los alrededores.

Por ejemplo, en el condado de Fairfax (Virginia, Estados Unidos), la contestación vecinal llevó a reformar la normativa urbanística para responder a preocupaciones sobre ruido, diseño y proximidad a zonas residenciales. En el condado de Loudoun, otro gran enclave de centros de datos situado en Virginia, las propias autoridades locales reconocen que el ruido figura entre las principales quejas ciudadanas. Y en Le Bourget, en el entorno de París, la oposición a nuevos proyectos se ha articulado también en torno al ruido, el calor y la cercanía a áreas habitadas y escolares.

El problema, por tanto, no es solo el coste de entrenar un modelo, sino lo que ocurre cuando ese modelo se integra de forma transversal en buscadores, herramientas de productividad, atención al cliente o plataformas educativas. En ese momento, la IA deja de ser una novedad y pasa a normalizarse y convertirse en una capa estructural del sistema.

Lo pequeño, cuando se escala, no lo es tanto

Una sola consulta –un resumen, una traducción, una imagen, una corrección de estilo– parece irrelevante. Nada de eso, visto de forma aislada, parece especialmente grave. Pero la infraestructura digital no se diseña para responder una vez, sino para responder millones de veces, sin interrupción y con tiempos de respuesta competitivos.

Ahí cambia todo. Antes buscábamos información; ahora esperamos respuestas generadas. Antes redactábamos desde cero; ahora pedimos borradores. Antes editábamos una imagen; ahora la producimos desde una instrucción. Cada gesto parece pequeño. La suma no lo es.

En el libro El Principito, el problema del planeta no eran las grandes catástrofes repentinas, sino los baobabs. Sus semillas casi invisibles que parecían inofensivas al principio y que, si nadie las arrancaba a tiempo, acababan ocupándolo todo. La imagen sigue siendo útil. Muchas transformaciones tecnológicas no se vuelven problemáticas cuando irrumpen, sino cuando se vuelven costumbre. Cuando entran en la rutina sin que nadie se pregunte demasiado qué exigen del mundo para funcionar.

Pensar también calienta

Hay, además, un aspecto poco intuitivo que suele quedar fuera del debate público: además de consumir energía para procesar información, los sistemas digitales también necesitan recursos para disipar el calor que generan.

Esto se vuelve especialmente relevante con la inteligencia artificial. A medida que crece la intensidad de cálculo, aumenta la densidad de potencia y el problema térmico gana protagonismo. En los centros de datos, no basta con alimentar los equipos: hay que mantenerlos dentro de condiciones térmicas estables. Cuanto más cálculo, más exigencia de refrigeración. Un estudio publicado en Nature señala que las tecnologías de refrigeración convencionales pueden llegar a representar hasta el 40 % de la demanda energética total de un centro de datos.

Ese detalle obliga a mirar la tecnología de otra manera. Aparte de electricidad, la IA requiere una infraestructura térmica más intensa y, en algunos contextos, mayor presión sobre el agua o sobre sistemas de enfriamiento más complejos.

Dicho de otro modo: cuando pedimos más «inteligencia» a una máquina, también estamos pidiendo más capacidad para sostener físicamente esa inteligencia.

La verdadera alfabetización digital

El problema de fondo no es solo energético. Es cultural. Durante años, hemos entendido la alfabetización digital como la capacidad de usar herramientas: buscar, compartir, automatizar, aprovechar plataformas. Pero esa definición ya no basta. Hoy necesitamos otra forma de alfabetización, que nos enseñe a ver la infraestructura detrás de la interfaz.

No solo qué hace una tecnología, sino qué necesita para existir. No solo qué automatiza, sino qué recursos moviliza. No solo qué ahorra, sino qué desplaza.

Eso no implica demonizar la innovación ni defender una nostalgia analógica. La cuestión no es renunciar a la inteligencia artificial o a la digitalización; la cuestión es dejar de tratarlas como si fueran ligeras por naturaleza.

Quizá, el gran truco cultural de la era digital ha sido hacernos creer que, como no vemos el peso de la tecnología, ese peso ha desaparecido. Pero no ha desaparecido, solo se ha movido.


Paula Lamo es profesora e investigadora, Universidad de Cantabria y Carolina González Cambero es docente en el Máster Universitario de Industria 4.0 y en el Máster de Internet de las Cosas de UNIR., UNIR – Universidad Internacional de La Rioja. Este artículo fue publicado originalmente en The Conversation. Lea el original.

The Conversation

ARTÍCULOS RELACIONADOS

COMENTARIOS

SUSCRÍBETE A NUESTRA NEWSLETTER

Suscríbete a nuestro boletín semanal y recibe en tu email nuestras novedades, noticias y entrevistas

SUSCRIBIRME