Intel traz IA para PCs e data centers! Entenda o que isso muda na sua vida

A Intel acaba de lançar algumas novidades que podem beneficiar grandes empresas no mercado de tecnologia, principalmente as que estão aderindo à inteligência artificial (IA).

Atualmente, quase todas as empresas do segmento tech já estão implementando soluções de inteligência artificial e aprendizado de máquina em seus produtos ou no ambiente de trabalho pra deixar os processos mais rápidos e fáceis.

Alguns exemplos do mercado são: a LG, que vai trazer sua linha de TVs de 2024 focada em IA; a Qualcomm com novos chips Snapdragon para notebooks mais rápidos; a Samsung, que quer que o Galaxy S24 seja um celular de inteligência artificial avançada; e até nas soluções de Edge Computing para deixar serviços como o Chat GPT mais rápidos.

Tudo isso também está relacionado às demandas cotidianas e o volume de processamento de dados que nós geramos, já que, basicamente, tudo o que consumimos hoje está ligado aos servidores. Desde pedir uma carona ou comida por aplicativo, até usar a IA no Photoshop pra editar uma imagem.

Todas essas operações dependem de data centers, e são essas estruturas que vão começar a receber soluções da Intel com inteligência artificial de ponta para tornar os processos mais rápidos e, o mais importante, mais econômicos.

Infraestrutura da Microsoft na Alemanha que pretende expandir a capacidade do Azure, na nuvem, até 2024. Imagem: Reprodução/Microsoft

O papel dos Data Centers

Os data centers são instalações físicas que abrigam servidores e outros dispositivos de Tecnologia da Informação (TI). Todos esses equipamentos são responsáveis por armazenar, processar e distribuir dados e informações essenciais para o funcionamento das empresas e, é claro, da nossa comunicação global.

  • Eles funcionam de maneira bem prática, basicamente em três etapas:
  • O data center recebe dados da internet, de redes privadas ou de dispositivos externos;
  • Os dados são processados nos servidores;
  • As informações processadas são guardaras ou distribuídas como respostas aos usuários finais.

Por exemplo, quando você pede uma comida pelo iFood, os dados do seu pedido e do seu cartão de crédito vão para a nuvem, se conectam com o servidor do aplicativo, que por sua vez manda os dados para o restaurante e para o banco — podendo aprovar ou recusar sua sua compra.

Depois disso, o servidor processa esses dados de “resposta” e retorna as informações ao seu celular pelo mesmo caminho, com as informações do pedido e transação financeira. O tempo total de operação depende da conexão e da velocidade com que os servidores conseguem executar esse trabalho.

Desafios e soluções

Um dos principais desafios para os data centers funcionarem é a estrutura física e a capacidade de armazenamento deles, já que a produção e consumo de dados da humanidade está crescendo em um ritmo muito acelerado.

Todos os dias geramos uma quantidade imensa de dados online que precisam ser armazenados e processados em algum lugar, e muitos deles contam com várias camadas de segurança e criptografia.

Quanto maior a demanda de estruturas físicas e softwares, maiores são os custos para manter esses dados. É por isso que uma solução recente de manutenção de data centers é o uso de liquid cooling pra resfriar os servidores, porque assim como desktops domésticos, data centers também esquentam bastante — e principalmente porque eles nunca desligam.

O resfriamento líquido é uma opção mais eficaz e mais econômica em relação aos uso de fans (ventiladores), por exemplo. Algumas empresas, inclusive, já manifestaram interesse em construir data centers no fundo do oceano, como a IBM, Google e Microsoft. A vantagem, nesse caso, é que a água do mar é um excelente condutor de calor, mas o problema é o preço e a manutenção desse tipo de estrutura.

Inteligência Artificial e Machine Learning

É nesse ponto que entra a inteligência artificial e o aprendizado de máquina, que estão sendo utilizadas para automatizar tarefas, melhorar a eficiência energética de servidores e otimizar o uso dos recursos de data centers.

Algumas das principais aplicações da IA nos data centers são:

  • Automatizar tarefas repetitivas e operacionais, como monitoramento de desempenho, gerenciamento de energia e gerenciamento de segurança;
  • Melhoria da eficiência, já que a IA pode delegar uma otimização no uso de recursos, como energia, espaço e refrigeração — o que ajuda a reduzir os custos operacionais e melhora o desempenho dessas estruturas;
  • Otimização de recursos, como distribuir cargas de trabalho de forma eficiente;
  • Uso da computação em nuvem, que também está ligado à IA para que empresas consigam acessar informações e recursos de TI sob demanda, sem a necessidade de investir em uma infraestrutura local própria.

Na prática, tudo isso já acontece. O Google usa IA para automatizar o gerenciamento de energia nos seus data centers — o que ajudou a reduzir o consumo de energia em 30%.

Já a Microsoft está usando IA para otimizar o uso de espaço, aumentando a densidade de armazenamento de dados em 25%.

A Amazon Web Services usa IA para melhorar a segurança — e reduziu o número de ataques cibernéticos em 50%.

A IA está revolucionando muito a forma como os data centers são operados e, conforme essa tecnologia evolui, ela vai executando um papel cada vez mais importante nessas infraestruturas.

E é pensando nisso que a Intel sediou o evento “Bringing AI everywhere”, ou algo como “trazendo a IA para todo o lugar” em português. A empresa está apresentando produtos com IA para todos os segmentos, todo o espectro do mercado de tecnologia.

Sandra Rivera, Vice-Presidente Executiva da Intel e Gerente Geral do Data Center e da Equipe de IA, explicou que a empresa está focada agora em oferecer essas soluções de hardware e software de IA.

A Intel já conta com as linhas Xeon, Intel Core e ARC voltadas com seus usos específicos, como CPUs, GPUs e aceleradores. Esse portfólio serve tanto para empresas, quanto para desenvolvedores ou para usuários finais.

E claro que não podemos deixar de mencionar os processadores de codenome Meteor Lake, já que a Intel considera a 14ª geração a maior evolução da empresa nos últimos 40 anos.

Esses são os primeiros processadores com uma engine de IA dedicada. E se antes tínhamos CPU para a parte lógica e a GPU para a parte gráfica, agora a NPU chega para oferecer desempenho aprimorado, com boa eficiência energética para inferências de longa duração.

O que é NPU?

Pra quem não sabe, uma NPU é uma unidade de processamento neural, um tipo de algoritmo de inteligência artificial inspirada no cérebro humano. Isso permite que as NPUs executem tarefas de IA de forma mais rápida e com menor consumo de energia do que os processadores tradicionais.

Mas que tipo de tarefas que a NPU consegue executar mais rápido? Tarefas de processamento de imagem, como reconhecimento de objetos, detecção de faces e classificação de imagens. Ou reconhecimento de voz e tradução de idiomas. Ou até mesmo para análise de dados e detecção de fraudes.

IA em todo lugar

Mas voltando para o evento, o mais interessante são os produtos que a Intel apresentou para clusters e data centers, o acelerador de IA chamado Gaudi que já está chegando em sua 3ª geração e que chega na litografia de 5nm em 2024. Ele é basicamente uma arquitetura focada em treinar a IA e LLM (que são grandes modelos de linguagem como o ChatGPT.

Eles melhoram a performance de deep learning da máquina, dão flexibilidade e escalabilidade para essa IA e também facilitam o uso para desenvolvedores.

Para comparação, a segunda geração Gaudi que já está no mercado já traz um benefício bem significativo de preço e desempenho. Ela é até mais barata que a GPU H100 da Nvidia, e com um desempenho melhor que sua concorrente.

Em outras palavras, custo benefício — pode até ser uma tecnologia um pouco cara pra implementar agora, mas que em um curto período de tempo ela já se paga e traz esses benefícios pras empresas.

Acelerador Intel Gaudi 2. Imagem: Reprodução/Intel

O Gaudi 3 que chega em 2024 promete ser um dos maiores produtos da Intel para essa indústria, com 4X mais poder de computação, até 2X mais largura de banda de network e 1.5X mais largura de banda de memória HBM.

E é claro que essa arquitetura também traz uma opção Liquid Cooling pra melhorar a eficiência energética, pra economizar em manutenção e aumentar a vida útil do data center, e também colaborar com a ideia de sustentabilidade.

A Intel destacou que a solução de resfriamento foi feita em parceria com a Vertiv, que é uma empresa especialista nesse tipo de estrutura para computadores.

Já na parte de software, a Intel está focando em ferramentas que os desenvolvedores podem usar para escalar a IA em todos os lugares. Eles citam muito a OpenVino, que é um kit de ferramentas gratuito que facilita a otimização de um modelo de deep learning usando um mecanismo de inferência no hardware Intel.

Eles dizem que até 2026, pelo menos 50% da implantação da computação de borda (ou edge computing) vai usar deep learning. E que a demanda de inferência de IA vai aumentar 1.4X para ser usada na borda do que nos data center.

Computação de borda

O que significa edge computing, ou computação de borda? A nomenclatura faz referência literal à “borda” da nuvem. Ao invés de você ter que percorrer as informações da nuvem inteira até o meio dela pra acessar uma informação, é possível acessar esses dados logo na borda, que é bem mais rápido.

Usando a IA, esse procedimento fica muito mais ágil e fácil, porque além de não “percorrer todo o caminho”, a IA já vai ter as respostas frequentes ou mais básicas na “ponta da língua”. Ou melhor, na borda da nuvem.

É um procedimento que vai evitar latência, melhorar a qualidade de serviço, custar menos e ainda priorizar a hierarquia dos dados, deixando “no meio” da nuvem informações mais importantes e que precisam ser protegidas, enquanto o acesso rápido da borda fica para essas informações mais simples.

A Intel chama essa integração de “Hybrid AI”, e vai acontecer de maneira seamless. Ou seja, algo que não percebemos que está sendo implementado em nosso cotidiano.

Todas essas soluções juntas vão melhorar o cotidiano do usuário final, no uso de aplicativos de serviços, da nuvem para guardar fotos, do Chat GPT pra fazer pesquisa, etc.

Mas que também vai impulsionar mais setores como o de finanças, na detecção de fraudes, no gerenciamento de risco, no atendimento ao consumidor… Na saúde com o descobrimento de remédios, análises, tratamento personalizado… No varejo com gerenciamento de inventário, prevenção de fraudes, otimização da cadeia de produção…

Intel Xeon de 5ª geração diretamente do evento “AI Everywhere”. Imagem: Reprodução/Jacson Boeing

Intel Xeon de 5ª geração

E pra finalizar, há ainda outra solução em hardware que a Intel está trazendo, como a 5ª geração dos processadores Xeon, que está priorizando inteligência artificial generativa — 10 anos atrás a prioridade era a nuvem, ou nas palavras da Intel: “Cloud first”.

A empresa diz que a 5ª geração Xeon é a melhor CPU para IA do mercado, com muita performance e eficiência. Não é à toa que uma combinação de Xeon + Gaudí 2 compõe um super computador de inteligência artificial no TOP 15 do mundo.

O Intel Xeon de 5ª geração traz 42% a mais de performance de inferência em IA, performance geral computacional 21% maior, 36% de mais performance por watt e um TCO (custo total de compra) 77% mais barato quando comparado com a primeira geração.

É um salto bem grande para a Intel, mas é claro que precisamos abrir um parêntesis aqui e falar sobre algo polêmico:

O Xeon é um produto que supera seus competidores, mas a 5ª geração tem 64 núcleos. Por que as empresas estariam comprando esse processador agora se daqui a 6 meses a Intel vai lançar o Sierra Forest, o primeiro chip do mundo com 288 núcleos?

A questão é que a Intel quer voltar à liderança, e essa “recuperação” tem que ser rápida. Por isso a empresa está com um roadmap com vários lançamentos ao longo dos próximos anos.

Algumas fabricantes precisam se atualizar agora e não têm tempo para esperar até o ano que vem, então esse roadmap faz parte da estratégia da Intel.

Reflexões da empresa

Em um evento prévio, os executivos da Intel chegaram a mencionar como eles “mereceram a desconfiança” do mercado, já que eles perderam o timing pra se atualizar e acabaram lançando produtos aquém da concorrência, além de terem empacado no processo de fabricação de sus chips.

Mas hoje eles dizem que fizeram um trabalho intenso pra reverter isso, agora focando em sustentabilidade e custo benefício.

Além disso, a Intel também mencionou que está frustrada com o governo dos Estados Unidos pelas diversas mudanças, fazendo com que eles tivessem que projetar novamente seus chips pra se adaptarem às restrições governamentais em relação à China.

A maioria dos clientes da Intel é da China, então seus clientes ficam frustrados com todas essas questões políticas e econômicas entre os dois países. Pat Gelsinger, CEO da Intel, disse que gostaria de ter políticas claras de como lidar com exportação pra China.

Compartilhe