Google propone a las empresas de IA para consumir mil veces menos electricidad

Hay una creciente preocupación por la demanda energética, el consumo de agua y la huella de carbono de la inteligencia artificial. No es catastrofismo de sofá, sino una realidad que ejerce cada vez más presión sobre la red eléctrica y que ha obligado a la Agencia Internacional de la Energía a convocar una cumbre mundial. Google propone una estrategia de cuatro frentes para atacar el problema.

Hay una creciente preocupación por la demanda energética, el consumo de agua y la huella de carbono de la inteligencia artificial. No es catastrofismo de sofá, sino una realidad que ejerce cada vez más presión sobre la red eléctrica y que ha obligado a la Agencia Internacional de la Energía a convocar una cumbre mundial. Google propone una estrategia de cuatro frentes para atacar el problema.

  1. Modelo: usar arquitecturas de aprendizaje automático más eficientes para reducir la necesidad de cómputo entre 3 y 10 veces
  2. M√°quina: usar hardware especializado en inteligencia artificial para mejorar su eficiencia de 2 y 5 veces
  3. Mecanización: preferir computación en la nube a computación local para reducir la demanda de energía entre 1,4 y 2 veces
  4. Mapeo: optimizar la ubicaci√≥n de los centros de datos seg√ļn la energ√≠a limpia disponible para reducir las emisiones de 5 a 10 veces

David Patterson, investigador de Google Research y autor principal del estudio, dice que la huella de carbono asociada al entrenamiento de la IA se reduciría en vez de ir en aumento siguiendo esta cuatro prácticas.

M de Modelo.¬†A nivel de arquitectura, los nuevos modelos de IA incorporan cada vez m√°s avances orientados a mejorar su eficiencia.¬†Google,¬†Microsoft, OpenAI o Meta usan la t√©cnica de ¬ędestilaci√≥n de conocimiento¬Ľ para entrenar modelos m√°s peque√Īos que imitan a un modelo grande, el ¬ęmaestro¬Ľ, demandando menos energ√≠a.

Se siguen entrenando modelos cada vez m√°s grandes, muchos de los cuales no est√°n disponibles para los usuarios, pero en el caso de Google, el entrenamiento de estos modelos representa un 40% de la demanda energ√©tica, mientras que la ¬ęinferencia¬Ľ de los modelos disponibles para los usuarios (el procesamiento de las respuestas) representa un 60%.

Aunque suene contraintuitivo, los √ļltimos¬†modelos multimodales¬†lanzados al p√ļblico, como Gemini 1.5 Pro y GPT-4o, tambi√©n son m√°s eficientes que sus predecesores gracias a su capacidad de aprovechar diferentes modalidades de entrada, como im√°genes y c√≥digo: aprenden con menos datos y ejemplos que los modelos basados ‚Äč‚Äčen solo texto.

M de M√°quina.¬†La enorme mayor√≠a de empresas que desarrollan IA compran su hardware a Nvidia, que tiene chips especializados. Pero cada vez m√°s compa√Ī√≠as optan por el ¬ęmodelo Google¬Ľ de desarrollar su propio hardware, como¬†Microsoft,¬†OpenAI¬†y¬†en China, Huawei.

Google lleva a√Īos utilizando sus propias ¬ęTPU¬Ľ (unidades de procesamiento tensorial, especializadas en IA). La √ļltima generaci√≥n se llama Trillium,¬†fue anunciada en mayo¬†y es un 67% m√°s eficiente energ√©ticamente que la anterior, lo que significa que puede realizar m√°s c√°lculos con menos energ√≠a, tanto en el entrenamiento y la afinaci√≥n como en la inferencia de IA en los centros de datos de Google.

M de Mecanizaci√≥n.¬†Otra idea contraintuitiva. La computaci√≥n en la nube consume menos energ√≠a que la computaci√≥n en un centro de datos local. Los centros de datos de la nube, especialmente los dedicados a la IA, contienen decenas de miles de servidores m√°s que los centros de datos de una organizaci√≥n espec√≠fica, y est√°n dise√Īados con¬†mejores sistemas de distribuci√≥n de energ√≠a y refrigeraci√≥n, ya que pueden amortizarlos.

Con el inconveniente de confiar los datos a las grandes empresas de la nube, como Amazon, Microsoft o Google, los centros de datos de la nube tienen otra ventaja clara: son m√°s modernos, lo que significa que tienen m√°quinas m√°s especializadas en el entrenamiento y la inferencia de IA.

M de Mapeo. Otra razón por la que Google pide más computación en la nube y menos computación local es el compromiso de estas empresas con las energías renovables. Algunos de estos grandes centros de datos ya operan con un 90% de energía libre de carbono.

Las grandes tecnológicas ubican sus nuevos centros de datos en lugares donde los recursos renovables son abundantes, incluida el agua empleada en la refrigeración de los servidores, y gracias a esto empresas como Google, Microsoft y Apple están igualado el 100% de la electricidad de sus operaciones con energías renovables, y aspiran a cero emisiones netas para finales de esta década.

Por otro parte, empresas como Microsoft y OpenAI no tienen claro que la oferta de renovables pueda igualar a la demanda creciente de energ√≠a y ya apuestan por expandir la capacidad nuclear, ya sea¬†con peque√Īos reactores modulares¬†o invirtiendo en investigaci√≥n de fusi√≥n.