• Comprar Agora
  • Suporte
  • Escolha um idioma US CA
    Selecione o pais:

    Estados Unidos - Inglês

    • Todos os países / regiões
    • América do Norte
    • América Latina
    • Ásia-Pacífico
    • Europa
    • Maior China

Avanços rápidos em inteligência artificial (IA) estão sendo habilitados pelas unidades de processamento gráfico (GPUs) da Nvidia originalmente projetadas para o mercado de videogames. As organizações que buscam capitalizar os recursos das GPUs Nvidia devem preparar seus data centers para densidade de energia extrema e o calor que vem com ela.

A Nvidia revolucionou os jogos de computador com sua GPU. Esses circuitos especializados são capazes de produzir movimentos mais limpos, rápidos e suaves em videogames, executando vários cálculos matemáticos simultaneamente.

Então, em 2007, a Nvidia foi além do mercado de jogos ao ser pioneira no conceito de “computação acelerada por GPU”. As GPUs são combinadas com unidades de processamento de computador (CPUs) tradicionais em ambientes de processamento massivamente paralelos que tornam os programas de computação intensiva executados mais rapidamente. Esse desenvolvimento forneceu o "oomph" de processamento necessário para habilitar funções essenciais de IA, como aprendizado profundo.

O aprendizado profundo é um modelo de computação projetado para imitar vagamente a maneira como o cérebro humano funciona com neurônios e sinapses. As GPUs da Nvidia são usadas para criar as chamadas “redes neurais artificiais” que usam um grande número de nós altamente interconectados trabalhando em uníssono para analisar grandes conjuntos de dados. Isso dá à máquina a capacidade de descobrir padrões ou tendências e aprender com essas descobertas. Essa é a essência da inteligência artificial.

As principais diferenças arquitetônicas entre a CPU e a GPU da Nvidia tornam isso possível. Uma CPU tem alguns núcleos com muita memória cache que pode lidar com alguns threads de software por vez. As CPUs também são otimizadas para processamento sequencial - a execução de processos na ordem em que são recebidos. As GPUs têm centenas de núcleos que podem lidar com milhares de threads e executar vários processos simultaneamente.

A computação acelerada por GPU pode executar alguns softwares 100 vezes mais rápido do que apenas com uma CPU. Isso o torna perfeito para o tipo de algoritmos de aprendizado profundo que alimentam uma variedade de aplicativos de IA.

As GPUs também trazem desafios significativos para o ambiente do data center. Embora as CPUs tenham se tornado cada vez mais eficientes em termos de energia, as GPUs consomem muita energia. A adoção da computação acelerada por GPU leva a uma densidade de energia mais alta no data center - da ordem de 30kW a 40kW por rack, segundo algumas estimativas. Muitos data centers em hiperescala consomem apenas cerca de 10 kW por rack.

Densidades de energia dessa magnitude significam cargas de calor significativamente maiores, que poucos ambientes estão preparados para lidar. A contenção de corredor quente é essencial, junto com sistemas de resfriamento em linha que concentram sua capacidade em equipamentos próximos. O resfriamento em linha captura e neutraliza o ar quente de exaustão antes que ele escape para o data center.

Os sistemas de resfriamento com água gelada costumam ser recomendados para computação acelerada por GPU porque a água tem cerca de quatro vezes a capacidade térmica do ar. No entanto, o resfriamento em linha oferece maior eficiência ao encurtar o caminho do fluxo de ar e reduzir o volume do espaço a ser resfriado.

Resfriamento em linha Enconnex as unidades oferecem a flexibilidade de escolher o refrigerante de sua escolha. Disponível em água condensada, água gelada e configurações DX refrigeradas a ar e água, Resfriamento em linha Enconnex as unidades fornecem mais de 100 kW de capacidade de resfriamento, mas se adaptam confortavelmente a qualquer ambiente de data center.

As GPUs Nvidia estão sendo usadas para acelerar centenas de aplicativos baseados em IA para usos como química quântica, dinâmica de fluidos, edição de vídeo e imagens médicas. As organizações que buscam aproveitar as vantagens da IA ​​devem garantir que suas infraestruturas de data center possam lidar com o calor gerado por esses chips poderosos.

Rahi Systems estará expondo na Nvidia Conferência de tecnologia GPU, De 26 a 29 de março em San Jose, Califórnia. Dê uma passada no estande nº 1225 para saber mais sobre nossa solução de resfriamento em linha e receba seu brinde grátis!

 

X