Se está empezando a hablar del consumo energético de la inteligencia artificial como si fuera un problema técnico que se puede optimizar con mejores modelos o infraestructuras más eficientes. Yo no lo veo así. El problema real no es cómo consume la IA, sino cuánto está creciendo.
Cuando se dice que la IA podría consumir tanta electricidad como un país entero, mucha gente lo interpreta como una alerta futura. En mi opinión, es una consecuencia lógica del modelo actual. Más adopción, más uso, más modelos, más consumo. No hay misterio. Lo preocupante no es el dato, es que el sistema está diseñado para escalar sin límite.
Optimizar no soluciona un crecimiento descontrolado
Hay un discurso muy repetido ahora mismo: hacer la IA más eficiente, más ligera, más sostenible. Todo eso está bien, pero es insuficiente si no se cuestiona el volumen de uso. Puedes optimizar modelos, reducir parámetros o mejorar hardware, pero si al mismo tiempo multiplicas por diez el número de aplicaciones, el consumo total va a seguir subiendo.
Esto ya lo hemos visto en otros sectores. La eficiencia no reduce el consumo cuando la demanda crece más rápido que la optimización. En IA está pasando exactamente lo mismo, solo que a una velocidad mucho mayor.
El problema no son los modelos grandes, es el uso innecesario
Se habla mucho de los grandes modelos como los principales responsables del consumo, pero eso es una parte del problema, no el todo. El verdadero desperdicio está en cómo se está usando la IA.
Se están metiendo capas de IA donde no aportan valor real, simplemente porque “se puede”. Procesos que antes eran simples ahora pasan por modelos innecesarios, generando consumo constante sin mejorar realmente el resultado. Ese uso inflado es lo que dispara la demanda, no solo el tamaño de los modelos.
La especialización sí tiene sentido, pero no por marketing
Tiene lógica moverse hacia modelos más específicos y optimizados para tareas concretas. No porque sea una tendencia, sino porque reduce procesamiento innecesario. Un modelo entrenado para una función concreta consume menos recursos que uno generalista intentando hacer de todo.
Pero aquí también hay trampa. Muchas empresas están vendiendo “IA especializada” como un argumento de marketing, cuando en realidad siguen operando sobre infraestructuras sobredimensionadas. Si no reduces el problema desde la base, la especialización se queda en una capa superficial.
El discurso de la sostenibilidad está mal planteado
Se está enfocando todo en emisiones, eficiencia energética y uso de energías limpias. Y sí, eso importa. Pero es solo una parte de la ecuación.
En mi opinión, el debate está mal planteado porque evita la pregunta incómoda: ¿cuánta IA necesitamos realmente? Nadie quiere entrar ahí porque va contra el modelo de negocio. Pero sin esa conversación, todo lo demás son ajustes marginales.
Puedes alimentar centros de datos con energía limpia, pero si la demanda no deja de crecer, el problema se desplaza, no desaparece.
La IA puede ayudar a la sostenibilidad, pero no por sí sola
Hay casos reales donde la IA aporta valor en sostenibilidad: optimización de procesos, reducción de desperdicios, mejora en la toma de decisiones. Eso es indiscutible.
Pero pensar que la IA va a compensar su propio impacto energético es optimismo sin base. No hay evidencia de que ese equilibrio se esté dando a gran escala. Más bien lo contrario: el crecimiento del consumo está por delante de los beneficios.
Qué implica esto realmente
En mi opinión, el foco debería cambiar. No es solo hacer la IA más eficiente, es usarla mejor. Menos ruido, menos implementaciones innecesarias y más criterio en dónde aporta valor real.
Si no se pone límite al uso, la eficiencia no va a salvar nada. Solo va a retrasar el problema.
La IA no es insostenible por cómo funciona. Es insostenible por cómo la estamos utilizando.
