Nowość

AIME A4000 - Serwer AI Multi GPU HPC - RACK

  • AIME A4000 serwer Deep Learining z maks. 4x GPU w obudowie RACK 2U z procesorem EPYC, oraz siecią do 100GBit.
  • AIME A4000 - Serwer AI Multi GPU HPC - RACK
  • AIME A4000 - Serwer AI Multi GPU HPC - RACK
  • AIME A4000 - Serwer AI Multi GPU HPC - RACK

AIME A4000 to serwer do głębokiego uczenia na poziomie przedsiębiorstwa, oparty na ASUS ESC4000A-E11, konfigurowalny z maksymalnie 4 najnowocześniejszymi akceleratorami i GPU do głębokiego uczenia, osiągający wydajność ponad 4 Peta TensorOps w obszarze Peta FLOPS HPC. Zapakowany w gęstą formę o wysokości 2 jednostek, z procesorem EPYC, najszybszymi prędkościami magistrali PCI 4.0 oraz łącznością sieciową do 100 GBit.

Zaprojektowany do pracy 24/7 dla najbardziej niezawodnego wysokowydajnego przetwarzania. Może być używany w lokalnym centrum danych, w współlokacji lub jako rozwiązanie hostowane.

AIME A4000 - Serwer do Głębokiego Uczenia

Jeśli szukasz serwera specjalizującego się w maksymalnej wydajności szkolenia i wnioskowania w głębokim uczeniu z najwyższymi wymaganiami w obszarze HPC, serwer AIME A4000 z wieloma GPU w obudowie 2U jest idealnym rozwiązaniem.

AIME A4000 oparty jest na barebone ASUS ESC4000A-E11, który jest napędzany przez procesor AMD EPYC™ 7003 z maksymalnie 64 rdzeniami i 128 wątkami.

Jego zoptymalizowany pod kątem GPU design z wysokim przepływem powietrza umożliwia użycie czterech dwuslotowych GPU najwyższej klasy, takich jak modele NVIDIA A100, Tesla lub Quadro.

Konfigurowalna Konfiguracja GPU

Wybierz pożądaną konfigurację spośród najpotężniejszych GPU NVIDIA do głębokiego uczenia:


Do 4x NVIDIA A100

NVIDIA A100 to flagowy procesor generacji NVIDIA Ampere i obecny następca legendarnych kart akceleratorów NVIDIA Tesla. NVIDIA A100 oparty jest na procesorze GA-100 w technologii 7nm z 6912 rdzeniami CUDA, 432 rdzeniami Tensor trzeciej generacji oraz 40 lub 80 GB pamięci HBM2 z najwyższymi szybkościami transferu danych. Pojedynczy GPU NVIDIA A100 przekracza już barierę wydajności peta-TOPS. Cztery akceleratory tego typu osiągają łącznie ponad 1000 teraFLOPS wydajności fp32. NVIDIA A100 jest obecnie najwydajniejszą i najszybszą kartą akceleratorów do głębokiego uczenia dostępną na rynku.

 

Do 4x NVIDIA RTX 6000 Ada

RTX™ 6000 Ada opiera się na najnowszej architekturze GPU NVIDIA: Ada Lovelace. Jest bezpośrednim następcą RTX A6000 i Quadro RTX 6000. RTX 6000 Ada łączy 568 rdzeni Tensor czwartej generacji i 18 176 rdzeni CUDA® nowej generacji z 48 GB pamięci graficznej, zapewniając niespotykaną wydajność renderowania, AI, grafiki i obliczeń.

 

Do 4x NVIDIA RTX 3090 Turbo

Zbudowany na drugiej generacji architektury NVIDIA Ampere RTX, GeForce RTX™ 3090 podwaja wydajność AI z 10 496 rdzeniami CUDA i 328 rdzeniami Tensor. Oferuje wydajność wcześniej dostępną tylko w klasie GPU NVIDIA Titan. RTX 3090 wyposażony jest w 24 GB pamięci GDDR6X. AIME A4000 korzysta z wersji Turbo RTX 3090 przystosowanych do serwerów.

 

Do 4x NVIDIA RTX A6000

NVIDIA RTX A6000 to następca serii NVIDIA Quadro oparty na architekturze Ampere. Wyposażony jest w ten sam procesor GPU (GA-102) co RTX 3090, ale z włączonymi wszystkimi rdzeniami procesora GA-102. Przewyższa RTX 3090 z 10 752 rdzeniami CUDA i 336 rdzeniami Tensor trzeciej generacji. Wyposażony w 48 GB pamięci GDDR6 ECC, dwa razy więcej pamięci GPU w porównaniu do poprzednika Quadro RTX 6000 i RTX 3090. NVIDIA RTX A6000 jest obecnie drugim najszybszym GPU NVIDIA, ustępując jedynie NVIDIA A100. Jest najlepiej przystosowany do zadań wymagających dużej ilości pamięci.

 

Do 4x NVIDIA RTX A5000

Dzięki 8 192 rdzeniom CUDA i 256 rdzeniom Tensor trzeciej generacji, NVIDIA RTX A5000 jest mniej wydajny niż RTX 3090. Jednak przy zużyciu mocy wynoszącym 230 watów i 24 GB pamięci jest bardzo wydajną kartą akceleratora i szczególnie interesującą opcją do zadań związanych z wnioskowaniem.

Wszystkie GPU NVIDIA są wspierane przez pakiet CUDA-X AI SDK firmy NVIDIA, w tym cuDNN i TensorRT, które zasilają prawie wszystkie popularne frameworki do głębokiego uczenia.

 

Wydajność CPU EPYC

Wysokiej klasy procesor AMD EPYC zaprojektowany dla serwerów dostarcza do 64 rdzeni z łączną liczbą 128 wątków na CPU, oferując bezkonkurencyjny stosunek ceny do wydajności.

Dostępne 128 linii PCI 4.0 procesora AMD EPYC pozwala na najwyższe prędkości połączeń i transferu danych między CPU a GPU, zapewniając pełną przepustowość x16 PCI 4.0 dla wszystkich GPU.

Duża liczba dostępnych rdzeni CPU może znacznie poprawić wydajność w przypadku używania CPU do wstępnego przetwarzania i dostarczania danych w celu optymalnego zasilania GPU obciążeniami.

 

Do 32 TB szybkiej pamięci SSD

Głębokie uczenie jest często związane z przetwarzaniem i przechowywaniem dużych ilości danych. Wysoka przepustowość i szybki dostęp do danych są kluczowe dla szybkiego czasu realizacji.

AIME A4000 można skonfigurować z maksymalnie czterema wymiennymi dyskami SSD U.2 NVMe z pamięcią TLC o pojemności do 8 TB każdy, co daje łączną pojemność 32 TB najszybszej pamięci SSD.

Ponieważ każdy z dysków SSD jest bezpośrednio podłączony do CPU i głównej pamięci za pośrednictwem linii PCI 4.0, osiągają one stale wysokie prędkości odczytu i zapisu na poziomie 3000 MB/s.

Jak to zwykle bywa w sektorze serwerowym, dyski SSD mają MTBF wynoszący 2 000 000 godzin oraz 5-letnią gwarancję producenta. Wysoka łączność i interfejs zarządzania

Dzięki dostępnej opcji QSFP28 100 Gbit/s możliwe są najszybsze połączenia z zasobami NAS i dużymi zbiorami danych. Również do wymiany danych w rozproszonym klastrze obliczeniowym najwyższa dostępna łączność LAN jest niezbędna.

AIME A4000 jest całkowicie zarządzalny za pomocą ASMB9 (out-of-band) i ASUS Control Center (in-band), co umożliwia pomyślną integrację AIME A4000 z większymi klastrami serwerowymi. Optymalizowany do aplikacji serwerowych z wieloma GPU

AIME A4000 oferuje efektywność energetyczną dzięki redundantnym zasilaczom platynowym, które umożliwiają długotrwałą, niezawodną pracę.

Jego technologia kontroli termicznej zapewnia bardziej efektywne zużycie energii w dużych środowiskach.

Wszystko jest skonfigurowane i dostrojone do perfekcyjnej wydajności wieloGPU przez AIME.

A4000 dostarczany jest z preinstalowanym systemem Linux, skonfigurowanym z najnowszymi sterownikami i frameworkami, takimi jak Tensorflow, Keras, PyTorch i Mxnet. Gotowy do użycia zaraz po uruchomieniu, aby przyspieszyć Twoje aplikacje do głębokiego uczenia.

Jeśli potrzebujesz dodatkowych informacji zadzwoń do nas (22 831 10 42) lub napisz wiadomość. 

Gwarancja 36 miesięcy - Gwarancja udzielana przez sprzedawcę na okres 12 miesięcy.

Gwarancja 36 miesięcy
Opinie użytkowników
Zapytaj o produkt:

Jeżeli powyższy opis jest dla Ciebie niewystarczający, prześlij nam swoje pytanie odnośnie tego produktu. Postaramy się odpowiedzieć tak szybko jak tylko będzie to możliwe.

E-mail:
To pole jest wymagane do złożenia zamówienia.
Pytanie:
To pole jest wymagane do złożenia zamówienia.
pola oznaczone - To pole jest wymagane do złożenia zamówienia. - są wymagane
pixel