Com espaço territorial disponível e potencial para geração de energia limpa e renovável, o Brasil tem os requisitos básicos para aproveitar as oportunidades que a IA - Inteligência Artificial está proporcionando ao mercado de data centers. “Estamos abertos, tentando mostrar para o mundo que temos essa energia disponível para alimentar, principalmente, os grandes data centers que estão chegando para sustentar o serviço de IA. Esperamos atrair esse investimento para o Brasil”, disse Luis Tossi, vice-presidente da ABDC - Associação Brasileira de Data Center e coordenador da 15ª edição do Congresso RTI Data Centers, realizado no dia 6 de agosto, durante o Netcom, em São Paulo.

O mercado de data centers está em plena expansão, com uma expectativa de crescimento global de 6% a 7% ao ano nos próximos cinco anos. Na América Latina, essa expansão é ainda mais impressionante, projetada entre 20% e 25% ao ano.

Durante o painel “Aplicações, hardware e soluções para o mercado de IA – Inteligência Artificial”, Marcel Saraiva, gerente regional de vendas da NVIDIA Enterprise, reiterou as oportunidades geradas pela IA não só no segmento de data centers, mas em todos os setores de mercado. “Vivemos um momento único de tecnologia que vai impactar indústrias de todas as áreas. Aquele que se capacita e aprende primeiro sai na frente. Os ciclos são mais acelerados, o que acaba mudando todo o nosso ecossistema”, disse.

Segundo o executivo da NVIDIA, a nova revolução industrial vai movimentar cerca de US$ 100 trilhões nos próximos anos, gerando grande demanda para os data centers. A NVIDIA é fabricante de chips e semicondutores usados para treinar modelos de inteligência artificial, que exigem muita capacidade computacional. Em junho, tornou-se a empresa listada em bolsa de valores mais valiosa do mundo, ultrapassando a Microsoft.

As soluções da NVIDIA incluem GPUs - Unidades de Processamento Gráfico, CPUs - Unidades Centrais de Processamento para data centers, DPUs – Unidades de Processamento de Dados, NIC cards inteligentes, switches e supercomputadores especializados em IA, como o SuperPOD, capazes de lidar com cargas de trabalho extremamente complexas e exigentes para o treinamento de modelos de IA com trilhões de parâmetros. “A grande diferença da NVIDIA em relação ao mercado é sua abordagem de desenvolvimento de tecnologia, que começa pelo software para depois criar o hardware necessário. Isso permite que a empresa ofereça soluções de computação acelerada, otimizando desde a aplicação do cliente até o núcleo do processador”, afirmou Saraiva.

O grande impulso aos negócios foi a chegada da IA Generativa, um ramo da inteligência artificial que cria conteúdos a partir de dados existentes. “A IA Generativa é o que está transformando o nosso mercado. As fábricas de inteligência artificial estão sendo construídas hoje para receber esse tipo de demanda”, explicou Saraiva. Fazendo uma analogia com a Revolução Industrial, onde a máquina a vapor permitia linhas de produção em massa, a IA Generativa está transformando o data center em uma “fábrica de dinheiro” com a venda de dados, informação, insight e inteligência.

 

Treinamento e inferência

No processo de IA, há duas fases principais: treinamento e inferência. O treinamento é a fase em que os modelos e algoritmos, como o ChatGPT, são criados. Destina-se a ensinar os modelos a fazerem tarefas específicas e se baseia em um data center hyperscale, que vai armazenar um grande volume de dados. Pode estar localizado em qualquer lugar do mundo e não precisa necessariamente de baixa latência. Já a inferência ocorre quando o modelo entra em produção e começa a responder a perguntas, necessitando de baixa latência para interação. Neste caso, é necessário estar próximo do ponto de consumo do serviço. Por isso, a IA está cada vez mais utilizando conceitos semelhantes aos das CDNs - Content Delivery Networks para expandir para a borda (edge), reduzir o tráfego de rede e melhorar a performance. “Isso é uma tendência crescente e os profissionais que trabalham com edge devem se preparar para essa mudança”, disse Saraiva.

A IA Generativa utiliza modelos computacionais conhecidos como LLMs - Large Language Models. Para criar um LLM básico com 100 bilhões de parâmetros em um data center tradicional sem GPUs, seriam necessários 960 servidores com duas CPUs cada, consumindo 11 GWh e custando US$ 10 milhões. Com as GPUs da NVIDIA, o mesmo valor pode ser usado para adquirir 48 servidores com 8 GPUs cada, consumindo 3,2 GWh e criando 44 modelos de linguagem, ou seja, aumentam a capacidade em 44 vezes com um terço do consumo energético. Para clientes com limitação energética mas sem restrições de orçamento, a NVIDIA oferece uma solução com 172 servidores com 8 GPUs cada, consumo de 11 GWh e custo de US$ 34 milhões, permitindo o treinamento de 150 modelos de linguagem. Para empresas de menor porte, uma versão compacta da plataforma inclui dois servidores, consumo de 0,13 GWh e custo de US$ 400 mil, com capacidade de criar o mesmo LLM.

De acordo com Emerson Felipe, diretor comercial da Seal Sistemas de Tecnologia, integradora de soluções e parceira da NVIDIA, atualmente, é possível montar qualquer projeto, seja para inteligência artificial, segurança ou homologação. O trabalho de consultoria e implementação inclui análise e prova de conceito para verificar a viabilidade dos projetos. Com o uso de modelos pré-treinados e semiprontos em microsserviços, as empresas otimizam o ciclo de desenvolvimento de aplicações de IA. “Hoje em dia, soluções relevantes como um SOC - Security Operations Center podem ser implementadas em apenas 48 horas, utilizando inteligência artificial em qualquer lugar do Brasil e América do Sul”, afirmou.

Na foto, da esquerda para a direita, Luis Tossi, da ABDC - Associação Brasileira de Data Center e coordenador do Congresso RTI Data Centers; Emerson Felipe, da Seal Sistemas de Tecnologia; e Marcel Saraiva, da NVIDIA Enterprise, no painel “Aplicações, hardware e soluções para o mercado de IA – Inteligência Artificial”



Mais Notícias RTI



Vertiv divulga tendências em data centers para 2025

Especialistas antecipam aumento na inovação e integração da indústria para dar suporte à computação de alta densidade.

10/12/2024


Sonda Brasil investe US$ 2 milhões em novo Centro de Operações Integradas

Inovação faz parte da evolução de sua área de Digital Communications, criada a partir da Infovia Digital no Mato Grosso do Sul.

09/12/2024


14ª Semana de Infraestrutura da Internet no Brasil debate transformações em tempos de IA e conectividade

Realizado por NIC.br e CGI.br, evento acontece nesta semana em São Paulo.

10/12/2024