De acordo com pt.wedoany.com-A provedora americana de serviços de infraestrutura em nuvem Akamai Technologies e o laboratório de IA Anthropic assinaram um contrato de serviços de infraestrutura de computação em nuvem com duração de sete anos e valor de US$ 1,8 bilhão, o maior pedido único nos 28 anos de história da Akamai. O CEO da Akamai, Tom Leighton, confirmou na teleconferência de resultados do primeiro trimestre de 2026 que a empresa havia fechado o acordo com um "provedor líder de modelos de fronteira", e a Bloomberg, citando fontes familiarizadas com o assunto, confirmou posteriormente que o cliente é a Anthropic.
Espera-se que a receita do contrato comece a ser contabilizada no quarto trimestre de 2026, contribuindo com cerca de US$ 20 a 25 milhões naquele período. O contrato é baseado em um modelo de precificação por consumo. O Vice-Presidente Executivo e Diretor Financeiro da Akamai, Ed McGowan, revelou que a empresa planeja concluir todas as aquisições de hardware necessárias para o cumprimento do contrato nos próximos 12 meses e já garantiu a prontidão da cadeia de suprimentos. McGowan também destacou que o contrato inclui um mecanismo de ajuste de preços para lidar com possíveis flutuações nos preços de hardware em um período de seis meses.
A Anthropic alugará os recursos de nuvem distribuída global da Akamai por sete anos, com foco principal em inferência de modelos de IA na borda, interação de baixa latência e implantação em larga escala. A Akamai possui mais de 4.300 pontos de presença em 700 cidades e 130 países, com sua rede mais próxima dos usuários finais, capaz de comprimir a resposta de inferência para milissegundos, adequando-se a agentes de IA, conversas em tempo real e cenários de aplicação de baixa latência. Leighton afirmou que esses líderes no campo da IA escolheram a Akamai porque suas cargas de trabalho de IA exigem a escala, o desempenho e a confiabilidade da plataforma de nuvem da Akamai. A Akamai saiu vitoriosa na competição com provedores de nuvem em hiperescala e novos provedores de nuvem, sendo sua capacidade de gerenciar sistemas distribuídos complexos e suas características de baixa latência as vantagens-chave.
Antes desta assinatura, a Anthropic já havia fechado vários contratos de grande escala em capacidade computacional com empresas como Google Cloud e SpaceX. A colaboração com a SpaceX envolve a capacidade total do data center Colossus 1, adicionando mais de 300 megawatts de capacidade computacional e mais de 220 mil GPUs NVIDIA. O CEO da Anthropic, Dario Amodei, afirmou recentemente em uma conferência que a receita anualizada e o uso de produtos da empresa no primeiro trimestre de 2026 cresceram 80 vezes em relação ao período anterior, e que estão adquirindo mais recursos computacionais "o mais rápido possível" para atender à demanda crescente por inferência do modelo Claude.
Para a Akamai, o contrato valida a rota de transformação da empresa de uma rede tradicional de distribuição de conteúdo para uma provedora de serviços de nuvem de IA distribuída. No primeiro trimestre de 2026, a receita de serviços de infraestrutura em nuvem da Akamai atingiu US$ 95 milhões, um aumento anual de 40%, tornando-se o segmento de crescimento mais rápido entre os três principais negócios; os negócios tradicionais de segurança e distribuição de conteúdo passam por um ajuste estrutural. Se o pedido de US$ 1,8 bilhão for cumprido sem problemas ao longo de sete anos, poderá contribuir com uma média anual de aproximadamente US$ 257 milhões em receita de serviços de infraestrutura em nuvem.
A Akamai foi fundada em 1998 pelo professor de matemática aplicada do MIT, Tom Leighton, e seu aluno Danny Lewin. Começou com base em redes distribuídas e algoritmos de entrega de conteúdo, passou por uma expansão no negócio de segurança cibernética e, a partir de 2022, com a aquisição da Linode por US$ 900 milhões, obteve uma pilha completa de nuvem pública, formando uma rede de computação distribuída com 26 data centers centrais e mais de 4.300 pontos de borda. Após a integração da Linode, a Akamai passou a contar com uma arquitetura única que coordena nuvem central e pontos de borda, estabelecendo a base de infraestrutura para suportar cargas de trabalho de inferência de IA em larga escala.
Este artigo foi compilado pela Wedoany. Citações de IA devem indicar a fonte "Wedoany". Em caso de violação ou outros problemas, por favor, informe-nos prontamente, e este site procederá à modificação ou remoção. E-mail: news@wedoany.com










