Cada día nos despertamos con nuevos datos que alertan del coste ambiental de la IA generativa. Una sola consulta en ChatGPT puede consumir hasta 10 veces más energía y agua que una búsqueda en Google. El debate, antes técnico, empieza a ser también social y económico. La IA, como toda tecnología disruptiva, también requiere criterio ambiental.
Para entender esta huella invisible, hay que diferenciar dos etapas. Primero, el entrenamiento. Los modelos de lenguaje masivos ( LLM) se entrenan con billones de parámetros. Esta fase requiere una capacidad de cálculo enorme y, por tanto, grandes consumos de electricidad y agua para refrigerar las GPU. Después viene la fase de inferencia: cada interacción que tenemos con la IA. Aunque es menos intensiva, su uso masivo y cotidiano obliga a mantener una infraestructura tecnológica de grandes dimensiones y con consumos significativos. Ante este escenario, el sector opta por un modelo híbrido: entrenar en la nube ( cloud ) y ejecutar en el extremo ( edge computing ). Las grandes plataformas utilizan el cloud para entrenar, aprovechando la capacidad de cálculo y la eficiencia de escala. Pero, para las respuestas en tiempo real, la tendencia es acercar el proceso a los dispositivos o a nodos locales, reduciendo latencia, ahorrando energía y haciendo más eficiente la experiencia. Este binomio –nube para aprender, edge para responder– ya se ha consolidado como arquitectura dominante de la IA distribuida.
Աپó
En Europa, varios proyectos ya trabajan para reducir el consumo energético hasta un 50% en aplicaciones de inferencia
Como toda tecnología joven, la IA generativa todavía no ha sido optimizada. A medida que crece su uso y se vuelve casi universal, también crece la exigencia de eficiencia. A veces no tanto por sensibilidad ambiental como por sostenibilidad económica: más consumo implica más coste. Comparar las interacciones con la IA generativa con las de Google es engañoso. Google lleva más de 20 años afinando sus algoritmos y su infraestructura para ofrecer búsquedas ultrarrápidas con un coste energético minimizado. La IA justo empieza. Es como comparar el metro de una gran ciudad con un servicio de taxi autónomo que justo arranca. Los dos te llevan a tu destino, pero el primero lo hace con un sistema rodado y eficiente; el segundo todavía está aprendiendo la ruta.
Hay motivos para el optimismo. Las últimas GPU de entrenamiento de Nvidia multiplican por tres el rendimiento por vatio con respecto a las anteriores generaciones. Los chips de 5 y 3 nanómetros permiten aumentar la densidad de transistores y reducir el calor generado, disminuyendo la dependencia de sistemas de refrigeración intensivos en agua. El coste de las inferencias disminuye por diez cada año.
Al mismo tiempo, arquitecturas como RISC-V, abiertas y modulares, abren la puerta a procesadores más eficientes y adaptados a aplicaciones específicas. En Europa, varios proyectos ya trabajan para reducir el consumo energético hasta un 50% en aplicaciones de inferencia. Es una oportunidad doble: para reducir la huella ambiental y reforzar la soberanía tecnológica de Europa, especialmente en ciudades como Barcelona, que puede ser pulso de innovación en este nuevo paradigma.