Składniki

Inside Tsubame - superkomputer Nvidia GPU

Which NVIDIA GPU Should you get for Deep Learning as of October 2020

Which NVIDIA GPU Should you get for Deep Learning as of October 2020
Anonim

Kiedy wchodzisz do sali komputerowej na drugim piętrze budynku komputerowego Tokyo Institute of Technology, nie uderza Cię natychmiast wielkość drugiego japońskiego superkomputera. Nie możesz zobaczyć komputera Tsubame dla przemysłowych urządzeń klimatyzacyjnych, które stoją ci na drodze, ale to samo w sobie jest oczywiste. Z ponad 30 000 rdzeni przetwarzających brzęczenie, maszyna zużywa megawat mocy i musi być chłodna.

Tsubame zajęła 29. najszybszy superkomputer na świecie w najnowszym rankingu Top 500 z prędkością 77,48T Flops (operacje zmiennoprzecinkowe na sekundę) na standardowym benchmarku Linpack.

Chociaż jego pozycja jest stosunkowo dobra, nie jest to tym, co czyni go tak wyjątkowym. Ciekawą rzeczą w Tsubame jest to, że nie jest uzależnione od mocy przetwarzania procesorów (jednostek centralnych), aby wykonać swoją pracę. Tsubame zawiera setki procesorów graficznych tego samego typu używanych w komputerach konsumenckich, pracujących razem z procesorami w mieszanym środowisku, które, jak twierdzą niektórzy, jest modelem dla przyszłych superkomputerów obsługujących takie dyscypliny, jak chemia materiałów.

[Czytaj dalej: Najlepsze pudełka NAS do strumieniowego przesyłania multimediów i tworzenie kopii zapasowych]

Procesory graficzne (GPU) bardzo dobrze radzą sobie z szybkim wykonywaniem tych samych obliczeń na dużych ilościach danych, dzięki czemu mogą szybko rozwiązać pewne problemy w takich dziedzinach, jak dynamika molekularna, symulacje fizyki i przetwarzanie obrazu.

"Wydaje mi się, że w ogromnej większości interesujących problemów w przyszłości problemy, które wpływają na ludzkość, gdy wpływ ma naturę … wymagają umiejętności manipulowania i obliczania na bardzo dużym zbiorze danych" - powiedział Jen-Hsun Huang, CEO Nvidii, która przemawiała na uniwersytecie w tym tygodniu. Tsubame używa 680 kart graficznych Nvidii Tesli.

Jak dużo różnicy robią układy GPU? Takayuki Aoki, profesor chemii materiałowej na uniwersytecie, powiedział, że symulacje, które trwały trzy miesiące, zabierają teraz 10 godzin na Tsubame.

Sam Tsubame - kiedy miniemy klimatyzatory - jest podzielony na kilka pokoi w dwóch podłogi budynku i składa się głównie z systemów Sun x 4600 montowanych w stojaku. W sumie jest ich 655, z których każdy zawiera 16 rdzeni procesorów AMD Opteron i ClearScrip CSX600.

Układy graficzne są zawarte w 170 jednostkach do montażu w szafie Nvidia Tesla S1070, które zostały umieszczone pomiędzy Systemy słoneczne. Każdy z systemów 1U Nvidia ma cztery procesory graficzne, z których każdy ma 240 rdzeni przetwarzających, co daje łącznie 960 rdzeni na system.

Systemy Tesla zostały dodane do Tsubame w ciągu około tygodnia, podczas gdy komputer działał.

"Ludzie myśleli, że oszaleliśmy", powiedział Satoshi Matsuoka, dyrektor Globalnego Centrum Informacji Naukowej i Informatycznej na uniwersytecie. "To jest 1 miliard (11 milionów USD) superkomputera zużywającego megawat mocy, ale udowodniliśmy technicznie, że jest to możliwe."

Rezultatem jest to, co pracownicy uniwersytetu nazywają wersją 1.2 superkomputera Tsubame.

" Myślę, że powinniśmy byli być w stanie osiągnąć 85 [T Flops], ale zabrakło nam czasu, więc było 77 [T Flops] ", powiedział Matsuoka o benchmarkach wykonanych w systemie. Na 85T Flops wzrósłby o kilka miejsc w rankingu Top 500 i był najszybszy w Japonii.

Zawsze jest następny czas: nowa lista Top 500 zostanie wydana w czerwcu 2009 r., A także Tokyo Institute of Technology dalej.

"To nie koniec Tsubame, to dopiero początek akceleracji GPU staje się głównym nurtem" - powiedział Matsuoka. "Wierzymy, że na świecie pojawią się superkomputery rejestrujące kilka petaflopów w nadchodzących latach i chcielibyśmy pójść w ich ślady."

Tsubame 2.0, jak nazwał następną aktualizację, powinien tu być w ciągu najbliższych dwóch lat i będzie się pochwalić trwałym osiągnięciem przynajmniej petaflopa (petaflop ma 1000 teraflopów), powiedział. Podstawowy projekt maszyny nadal nie jest sfinalizowany, ale będzie kontynuował heterogeniczną bazę obliczeniową miksowania procesorów i procesorów graficznych, powiedział.