sábado, 25 de mayo de 2024

Elon Musk planea una supercomputadora xAI, informa The Information

 

Elon Musk planea una supercomputadora xAI, informa The Information

Reuters
COMPARTIR
BEVERLY HILLS, CALIFORNIA - MAY 6: Elon Musk, co-founder of Tesla and SpaceX and owner of X Holdings Corp., speaks at the Milken Institute's Global Conference at the Beverly Hilton Hotel,on May 6, 2024 in Beverly Hills, California. The 27th annual global conference explores various topics, from the rise of generative AI to electric vehicle trends and features participants, soccer star David Beckham and actor Ashton Kutcher. (Photo by Apu Gomes/Getty Images)
Elon Musk, cofundador de Tesla y SpaceX y propietario de X Holdings Corp., habla en la Conferencia Global del Instituto Milken en el Hotel Beverly Hilton, el 6 de mayo de 2024 en Beverly Hills, California. 
Apu Gómez | imágenes falsas

El empresario estadounidense Elon Musk dijo recientemente a los inversores que su startup de inteligencia artificial xAI está planeando construir una supercomputadora para impulsar la próxima versión de su chatbot de inteligencia artificial Grok, informó The Information el sábado citando una presentación a los inversores.

Musk dijo que quiere que la supercomputadora propuesta esté funcionando para el otoño de 2025, según el informe, y agregó que xAI podría asociarse con Oracle. para desarrollar la computadora masiva.

No se pudo contactar inmediatamente a xAI para hacer comentarios. Oracle no respondió a una solicitud de comentarios de Reuters.

Cuando esté completo, los grupos de chips conectados ( los de Nvidia) Las unidades de procesamiento de gráficos (GPU) H100 emblemáticas tendrían al menos cuatro veces el tamaño de los grupos de GPU más grandes que existen en la actualidad, informó The Information citando a Musk en una presentación realizada a los inversores en mayo.

La familia H100 de potentes GPU de Nvidia domina el mercado de chips de centros de datos para IA, pero puede ser difícil de obtener debido a la gran demanda.

Musk fundó xAI el año pasado como un  desafío para OpenAI y Alphabet, respaldados por Microsoft. Google. Musk también cofundó OpenAI.

A principios de este año, Musk dijo que entrenar el modelo Grok 2 requería alrededor de 20.000 GPU Nvidia H100, y agregó que el modelo Grok 3 y posteriores requerirán  100.000  chips Nvidia H100 .

No hay comentarios:

Publicar un comentario