Car-tech

Następne: eksaskalowe komputery, które mają przybyć do 2020 r.

Kwantowy komputer Google pokonał tradycyjny superkomputer? - Technologie Przyszłości

Kwantowy komputer Google pokonał tradycyjny superkomputer? - Technologie Przyszłości

Spisu treści:

Anonim

Jeśli wzrost prędkości superkomputerów będzie kontynuowany w ich obecnym tempie, zobaczymy pierwszą maszynę exascale do roku 2020, oszacowali opiekunowie Top500 kompilacja najszybszych systemów na świecie.

Architekci systemów takich dużych komputerów będą jednak musieli stawić czoła wielu krytycznym problemom, ostrzega strażnik listy.

"Wyzwania będą znaczące dla dostarczania maszyny," powiedział Jack Dongarra, University of Tennessee, Knoxville, badacz, który jest jednym z głównych założycieli Top500. Dongarra zabrał głos na konferencji SC2012, która odbyła się w tym tygodniu w Salt Lake City, podczas prezentacji na temat najnowszej edycji listy, opublikowanej w zeszłym tygodniu.

Nadal mamy sposób, aby wyjść przed osiągnięciem exascale. Maszyna eksaskalowa byłaby zdolna do wykonania jednego kwintillion FLOPS (operacje zmiennoprzecinkowe na sekundę) lub 10 do 18 FLOPS. Nawet dzisiejsze najszybsze superkomputery oferują mniej niż 20% możliwości maszyny eksaskalowej.

Top500

Nowe wysokości

W najnowszej edycji listy superkomputerów Top500, opublikowanej w poniedziałek, najszybszy komputer na liście był to system Oak Ridge National Laboratory Titan, maszyna zdolna do wykonania 17,59 petaflopów. Petaflop to biliardowe obliczenia zmiennoprzecinkowe na sekundę lub 10 do piętnastu FLOPS.

Ale każda nowa Top500 - lista, która jest kompilowana dwa razy w roku - pokazuje, jak szybko rosną prędkości superkomputerów. Sądząc z listy, superkomputery wydają się zyskiwać dziesięciokrotnie w mocy co dziesięć lat. W 1996 roku na komputerze Top500 pojawił się pierwszy komputer z teraflopą, aw 2008 roku na liście pojawił się pierwszy komputer petaflopowy. Ekstrapolując z tego tempa rozwoju, Dongarra szacuje, że eksaskalowe komputery powinny dotrzeć około roku 2020.

Społeczność High Performance Computing (HPC) podjęła obliczenia exascale jako ważny kamień milowy. Intel stworzył linię masowo wielordzeniowych procesorów, zwanych Phi, które firma ma nadzieję, może posłużyć jako podstawa eksaskalowych komputerów, które mogą być uruchomione do 2018 r.

W swoim przemówieniu Dongarra naszkicował charakterystykę maszyny eksaskalowej. Taka maszyna będzie prawdopodobnie zawierać od 100 000 do 1 000 000 węzłów i będzie w stanie wykonać do miliarda wątków w dowolnym momencie. Wydajność poszczególnych węzłów powinna wynosić od 1,5 do 15 teraflopsów, a interkonekty będą musiały mieć przepustowość od 200 do 400 gigabajtów na sekundę.

Producenci superkomputerów będą musieli skonstruować swoje maszyny, aby ich koszt i zużycie energii nie wzrosły w liniowy sposób wraz z wydajnością, aby nie były zbyt drogie w zakupie i uruchomieniu, powiedział Dongarra. Maszyna eksaskalowa powinna kosztować około 200 milionów dolarów i używać tylko około 20 megawatów, czyli około 50 gigaflopów na wat.

Dongarra spodziewa się, że połowa kosztów budowy takiego komputera zostanie przeznaczona na zakup pamięci dla systemu. Sądząc po planach producentów pamięci, Dongarra szacuje, że 100 milionów USD kupi od 32 petabajtów do 64 petabajtów pamięci do 2020 roku.

Top500

Wyzwanie dla oprogramowania

Oprócz wyzwań w sprzęcie, projektanci superkomputerów exascale muszą również borykać się z problemami z oprogramowaniem. Jednym z problemów będzie synchronizacja - powiedział Dongarra. Dzisiejsze maszyny przekazują zadania między wiele różnych węzłów, ale to podejście musi zostać usprawnione w miarę wzrostu liczby węzłów.

"Dzisiaj naszym modelem do przetwarzania równoległego jest model fork / join, ale nie można tego zrobić w [poziom exascale] równoległości, musimy zmienić nasz model, musimy być bardziej synchroniczni "- powiedział Dongarra. W tym samym kierunku należy opracować algorytmy, które zmniejszają całkowitą komunikację między węzłami.

Trzeba również wziąć pod uwagę inne czynniki. Oprogramowanie musi zawierać wbudowane procedury do optymalizacji. "Nie możemy polegać na tym, że użytkownik ustawia odpowiednie pokrętła i pokrętła, aby oprogramowanie mogło działać w dowolnym miejscu w pobliżu szczytowej wydajności" - powiedział Dongarra. Odporność na awarie będzie kolejną ważną cechą, podobnie jak odtwarzalność wyników lub gwarancja, że ​​złożone obliczenia dadzą dokładnie taką samą odpowiedź, gdy są uruchamiane więcej niż raz.

Odtwarzalność może wydawać się oczywistą cechą komputera. W rzeczywistości może być wyzwaniem dla wielkich obliczeń na superkomputerach wielopoziomowych.

"Z punktu widzenia metod numerycznych, trudno jest zagwarantować powtarzalność bitów," powiedział Dongarra. "Podstawowym problemem jest dokonanie redukcji - równoległe zliczanie liczb Jeśli nie mogę zagwarantować porządku, w którym te liczby się łączą, będę miał różne błędy zaokrąglania, a ta niewielka różnica może być powiększona w sposób, który może spowodować katastroficzne rozbieżności w odpowiedziach, "powiedział.

" Musimy wymyślić scenariusz, w którym możemy zagwarantować kolejność wykonywania tych operacji, więc możemy zagwarantować, że mamy te same wyniki - powiedział Dongarra.

Joab Jackson omawia oprogramowanie dla przedsiębiorstw i wiadomości dotyczące przełomowych technologii dla Serwisu IDG News. Śledź Joaba na Twitterze na @Joab_Jackson. Adres e-mail Joaba to [email protected]