Home Tech La red eléctrica de EE. UU. no puede soportar el drenaje del...

La red eléctrica de EE. UU. no puede soportar el drenaje del creciente uso de energía de la IA

32
0
La red eléctrica de EE. UU. no puede soportar el drenaje del creciente uso de energía de la IA
ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab

El crecimiento de la IA generativa requiere enormes cantidades de agua y energía y la red eléctrica estadounidense está teniendo dificultades para hacerles frente.

A medida que la IA ha despegado en los últimos años, están apareciendo nuevos centros de datos en todo el país para respaldar la aceleración paga de la IA. Los modelos de aprendizaje necesitan que dichos centros de datos proporcionen la gran cantidad de recursos informáticos necesarios para entrenar e implementar modelos y algoritmos complejos de aprendizaje automático.

Sin embargo, los centros de datos también requieren una enorme cantidad de energía para su funcionamiento y mantenimiento, así como agua para refrigerar los servidores que se encuentran en su interior. Existe una creciente preocupación acerca de si la red eléctrica estadounidense puede generar suficiente electricidad para el creciente número de centros de datos necesarios. Si bien la IA ha ayudado a mejorar la sostenibilidad en algunos campos, si no es una tecnología sostenible en sí misma, no será beneficiosa para el planeta.

¿Qué se puede hacer para ahorrar energía en el espacio de la IA?

Quienes trabajan en la producción de IA, tanto a nivel de hardware como de software, están trabajando para mitigar estos drenajes de energía y recursos, además de invertir en fuentes de energía sostenibles.

“Si no empezamos a pensar en este problema energético de forma diferente ahora, nunca vamos a ver este sueño que tenemos”, dijo Dipti Vachani, directora de automoción en Arm. CNBCLos procesadores de bajo consumo de la compañía de chips son cada vez más utilizados por grandes empresas como Google, Microsoft, Oracle y Amazon porque pueden ayudar a reducir el consumo de energía hasta en un 15% en los centros de datos.

También se está trabajando para reducir la cantidad de energía que necesitan los modelos de IA en primer lugar. Por ejemplo, el último chip de IA de Nvidia, Grace Blackwell, incorpora CPU basadas en Arm que supuestamente pueden ejecutar modelos de IA generativos con 25 veces menos energía que la generación anterior.

“Ahorrar hasta el último bit de energía requerirá un diseño fundamentalmente diferente a cuando se intenta maximizar el rendimiento”, dijo Vachani.

Sin embargo, persiste la preocupación de que estas medidas no sean suficientes. Después de todo, una consulta en ChatGPT consume casi diez veces más energía que una búsqueda típica en Google, mientras que generar una imagen con IA puede consumir tanta energía como cargar por completo un teléfono inteligente.

Los efectos se están viendo más claramente en las empresas más grandes: el último informe medioambiental de Google muestra que las emisiones de gases de efecto invernadero aumentaron casi un 50% entre 2019 y 2023, en parte debido al consumo de energía de los centros de datos. Esto a pesar de las afirmaciones de Google de que los centros de datos son 1,8 veces más eficientes energéticamente que un centro de datos típico. De manera similar, las emisiones de Microsoft aumentaron casi un 30% entre 2020 y 2024, también debido en parte a los centros de datos.

Imagen destacada: Unsplash

Fuente