Elon Musk y xAI desean ganar la guerra de la IA

Hace algo m√°s de un a√Īo Elon Musk anunciaba la¬†creaci√≥n de xAI, una nueva empresa centrada en la inteligencia artificial. Sus avances por ahora han sido discretos, pero la ambici√≥n del magnate en este √°mbito es clara, como acaba de demostrar una nueva ronda de inversi√≥n.

Inversi√≥n colosal. La startup de Musk ha recibido una inyecci√≥n de capital asombrosa: 6.000 millones de d√≥lares que sit√ļan la valoraci√≥n de la compa√Ī√≠a en¬†18.000 millones de d√≥lares. En la ronda han participado Andreessen Howorwitz o Sequoia Capital entre otros. Es una cifra espectacular e ins√≥lita, sobre todo teniendo en cuenta que de momento xAI no ha demostrado demasiado.

Grok es una incógnita. La gran apuesta actual de xAI es el (sarcástico) chatbot Grok, que al menos de momento ocupa un segundo plano frente a alternativas mucho más populares. La firma, no obstante, publicó su código fuente para atraer a desarrolladores siguiendo la línea de lo que Meta ha hecho con Llama, y queda por ver si este desarrollo logra coger tracción.

Una misi√≥n grandilocuente. En el¬†anuncio oficial¬†de la ronda de inversi√≥n los responsables de la empresa indican que ¬ęxAI se centra principalmente en el desarrollo de sistemas avanzados de IA que sean veraces, competentes y de m√°ximo beneficio para toda la humanidad. La misi√≥n de la empresa es comprender la verdadera naturaleza del universo¬Ľ.

La ¬ęGigafactor√≠a de la Computaci√≥n¬Ľ. Seg√ļn datos de¬†The Information¬†citados¬†en Reuters, Musk est√° preparando la construcci√≥n de una supercomputadora gigantesca con el nombre de ¬ęGigafactor√≠a de la Computaci√≥n¬Ľ. Una que pueda ofrecer la capacidad de c√°lculo que necesitar√°n futuras versiones de Grok, su chatbot.

100.000 GPUs NVIDIA H100. Esa supercomputadora ser√° sencillamente espectacular si se cumplen los planes de Musk. En una reuni√≥n con inversi√≥nres indic√≥ que el objetivo era utilizar hasta 100.000¬†GPUs NVIDIA H100, lo que la convertir√≠a en el cluster m√°s grande del mundo en este √°mbito, siendo cuatro veces superior al siguiente en magnitud. Grok 2, la segunda revisi√≥n de su modelo de IA, necesit√≥ cerca de 20.000 GPUs H100 para ser entrenado, y puede que futuras versiones requieran precisamente esa enorme capacidad que plantea la ¬ęGigafactor√≠a de la Computaci√≥n¬Ľ.

Tardarán en ponerlo en marcha. La alta demanda de esos chips provocará que la empresa tarde en cumplir su objetivo: se espera que esa supercomputadora esté preparada en 2025. Para entonces, eso sí, los H100 habrán sido ya superados por las GPUs B100 y B200 de NVIDIA con arquitectura Blackwell.