22 de diciembre de 2024

El alto precio de la inteligencia artificial: gasta tanta energía como 100 hogares en un año.

Más allá del entrenamiento, estas IA necesitan una continua demanda de energía para mantenerse actualizadas y responder a los usuarios.

La inteligencia artificial, como cualquier proceso informático a gran escala, tiene detrás un consumo energético desorbitado de millones de procesadores, tarjetas gráficas, discos duros y memorias RAM trabajando al unísono. En ocasiones, esta energía proviene de tecnologías que distan mucho de ser renovables e incrementan las emisiones de forma notable. Son modelos de IA como ChatGPT que, con su popularidad en países como España, esconden toneladas de gases contaminantes fruto de consumos estratosféricos.

Y es que, para entrenar a estos modelos se emplean grandes dosis de cloud computing (computación en la nube) que se pasan días, meses e incluso años recopilando información en Internet y analizando datos para alimentar a los algoritmos. Todo esto se lleva a cabo en los centros de datos que las grandes corporaciones —como Microsoft, Google o Amazon— tienen repartidos por todo el mundo.

Estos programas de inteligencia artificial, según indican en Bloomberg, consumen más energía que cualquier otro sistema de computación. Entrenar un solo modelo de IA tiene un consumo equivalente a 100 hogares de EEUU en un año. Aunque la gran parte de las compañías no publican datos al respecto y podría haber grandes variaciones dependiendo de qué fuentes de energía estén empleando.

Cuánto consume la IA

Un grupo de investigadores, entre ellos algunos científicos de la Universidad de California en Berkeley, publicaron en 2021 algunas estimaciones sobre el consumo energético de ChatGPT-3. Este modelo de IA, especialmente diseñado para dar respuestas a preguntas de todo tipo hechas con lenguaje natural, necesitó 1.287 GW/h.

Lo que equivale al consumo de 120 hogares medios estadounidenses —muy similar al europeo— durante un año. Y esto solo en el entrenamiento y hasta 2021. Por propio diseño, los modelos de IA necesitan actualizarse con información y analizar datos nuevos continuamente con el fin de proporcionar la mejor respuesta posible.

Los investigadores también descubrieron que este consumo energético para entrenar el modelo inicial es tan solo un 40% de la energía que se emplea en el uso real del día a día una vez lanzado al gran público. Que en ocasiones envía millones de solicitudes de funcionamiento todos los días.

Además, estas inteligencias artificiales son cada vez más grandes con un crecimiento incluso exponencial. La primera versión de ChatGPT, que tiene detrás a OpenAI, contaba con 1.500 millones de parámetros y variables que aprendió, mientras que la tercera versión —ChatGPT-3— cuenta con 175.000 millones. La compañía acaba de publicar ChatGPT-4 y, según Wired, podría haber sido entrenada con 120 billones de parámetros.

La tercera versión, por ejemplo, realizó su entrenamiento antes de la pandemia por COVID-19 y no puede ofrecer respuestas a partir de 2020 por lo que el modelo ha tenido que mejorarse. Algo que supone continuar consumiendo energía y que tendrá que hacerlo durante el tiempo que permanezca activo el servicio si quiere seguir proporcionando respuestas actualizadas.

Esos mismos investigadores también encontraron datos sobre Google. La inteligencia artificial de los californianos representa entre el 10 y el 15% de la energía consumida por toda la compañía.

En 2021, el consumo total de Google fue de 18,3 teravatios, por lo que la IA de la compañía se lleva aproximadamente 2,3. Esto supone el equivalente a una población de unos 6 millones de habitantes, como podría ser la Comunidad de Madrid, durante un año.

Rebajar la factura

Si bien las grandes compañías —Microsodt, Google y Amazon— se encuentran inmersas en grandes proyectos para emplear únicamente energía renovable e incluso generar más de lo que consumen. De hecho, Google emplea inteligencia artificial para controlar la eficiencia energética de sus centros de datos con especial enfoque en la refrigeración.

Por su parte OpenAI, compañía fundada por Elon Musk y Sam Altman, y que desarrolla ChatGPT ha estado trabajando en la eficiencia de su interfaz de programación. Lo que se ha traducido en una rebaja tanto en el consumo energético como en la factura final para los clientes. «Nos tomamos muy en serio nuestra responsabilidad de detener y revertir el cambio climático, y pensamos mucho en cómo hacer el mejor uso de nuestra potencia informática», recalcan desde la compañía.

OpenAI trabaja dentro de Azure, la nube de Microsoft que tanto ha impulsado su CEO Satya Nadella en los últimos años y que ya supone la principal fuente de ingresos. Los de Redmond, según comentan, actualmente compran energía renovable y están trabajando para ser negativos en carbono en el 2030.

Otro de los puntos esenciales, según el consultor energético de Wood Mackenzie Bern Hertz-Shargel, es que los grandes centros de datos donde corren los modelos de inteligencia artificial aprovechen las zonas valle del consumo para realizar sus grandes gastos energéticos. Ya que el entrenamiento de las IA puede realizarse a cualquier hora del día, las compañías pueden trasladar su carga de trabajo más pesada en los momentos donde la energía es más barata o incluso cuando hay excedente.

No sólo la IA

El minado de Bitcoin es otra de las actividades informáticas más demandantes de energía eléctrica. Tanto que China prohibió hace algún tiempo las granjas de cientos —incluso miles— de dispositivos trabajando de forma sincronizada por el desorbitado impacto que tenía en su infraestructura.

Pero las actividades diarias que realizar cualquier usuario doméstico también tienen su reflejo en las emisiones. Unos investigadores de la Universidad Oberta de Cataluña consiguieron estimar en 2021 que las 47.000 búsquedas que Google recibe cada segundo corresponden a 500 kg de dióxido de carbono o que el consumo de YouTube durante un año alcanza las 10 millones de toneladas.

Ver una hora Netflix en España, por ejemplo, supone emitir 55 gramos de dióxido de carbono, el equivalente a hacer 4 bolsas de palomitas en el microondas. «La construcción y el mantenimiento de los centros de datos donde se procesan todas nuestras transacciones digitales son las razones de este gasto de energía elevado». A escala global, se estima que consumen la misma electricidad que un país de tamaño medio como España.

Fuente: https://www.elespanol.com/omicrono/tecnologia/20230319/alto-precio-inteligencia-artificial-gasta-energia-hogares/748175210_0.html