Em Memphis, Tennessee, a xAI construiu algo sem precedentes: o Colossus, o maior supercomputador de inteligência artificial do planeta. Com quase 2 gigawatts de potência e mais de 230 mil GPUs, é a máquina que treina o Grok e define o ritmo da corrida global pela IA.
De 0 a 100 Mil GPUs em 122 Dias
A primeira fase do Colossus — 100 mil GPUs Nvidia H100 — foi construída em apenas 122 dias. Para efeito de comparação, data centers desse porte normalmente levam de 18 a 24 meses. Musk aplicou a mesma mentalidade de "ritmo SpaceX" à construção de infraestrutura de IA.
Três meses depois, o sistema já tinha 200 mil GPUs. Atualmente, o cluster Colossus 1 conta com mais de 230 mil GPUs, incluindo 30 mil chips Nvidia GB200 Blackwell de última geração.
Expansão para 1 Milhão de GPUs
A xAI comprou um terceiro prédio próximo ao Colossus 2 em Memphis, elevando a capacidade total do site para quase 2 gigawatts. O plano é chegar a 1 milhão de GPUs — um número que parecia absurdo há dois anos, mas que Musk está transformando em realidade.
122 dias para construir o maior data center de IA do mundo. Esse é o ritmo que Musk impõe. Enquanto outros planejam, ele executa.
Para Que Serve Tanto Poder
O Colossus é o motor por trás de tudo que a xAI faz:
- Treinamento do Grok 5 — 6 trilhões de parâmetros
- Grok Imagine — 1,2 bilhão de vídeos gerados por mês
- Contratos militares — processamento para sistemas classificados
- Digital Optimus — agentes de IA para administrar empresas
Investimento de US$ 18 Bilhões
O investimento total no complexo Colossus já ultrapassa US$ 18 bilhões. É a maior aposta individual em infraestrutura de IA da história — e Musk está dobrando a aposta, não recuando.
O Colossus não é apenas um supercomputador. É a prova de que, na corrida pela inteligência artificial, quem tem mais poder computacional tem vantagem. E ninguém tem mais do que a xAI.