Tesla

POWER NEW LEVELS OF USER ENGAGEMENT
Boost throughput and responsive experiences in deep learning inference workloads.
Boost throughput and responsive experiences in deep learning inference workloads

AKCELERUJ WNIOSKOWANIE W GŁĘBOKIM UCZENIU

W nowej erze sztucznej inteligencji (SI) głębokie uczenie zapewnia nadludzką dokładność w złożonych zadaniach, aby zwiększyć komfort codziennych czynności. Interaktywna mowa, komputerowe widzenie i analityka predykcyjna to tylko niektóre z obszarów, w których modele głębokiego uczenia szkolone na układach GPU zaprezentowały niezwykłe wyniki, jakie wcześniej uznawano za niemożliwe do uzyskania.

Gdy wnioskowanie nowoczesnych sieci neuronowych przeprowadzane jest na jednostkach CPU to usługi oparte na SI nie mogą zapewnić poziomu responsywności potrzebnego do zaangażowania użytkownika. Akceleratory GPU NVIDIA® Tesla® P40 i P4 to idealne rozwiązanie – stworzono je w celu zapewnienia najwyższej przepustowości i najbardziej responsywnych wrażeń w zadaniach związanych z wnioskowaniem w głębokim uczeniu. Napędzane są architekturą NVIDIA Pascal™, aby zapewnić wydajność wnioskowania ponad 60-krotnie wyższą od jednostek CPU oferując responsywność w czasie rzeczywistym w nawet najbardziej złożonych modelach głębokiego uczenia.

 

AKCELERATORY WNIOSKOWANIA NVIDIA TESLA

Deep Learning Inference Latency

Deep Learning Inference Throughput

 
NVIDIA Tesla P40

MAKSYMALNA PRZEPUSTOWOŚĆ WNIOSKOWANIA W GŁĘBOKIM UCZENIU

Rozwiązanie Tesla P40 zbudowano pod kątem zapewnienia maksymalnej przepustowości we wnioskowaniu w głębokim uczeniu. Dzięki wydajności wnioskowania rzędu 47 TOPS (bilionów operacji na sekundę) na układ GPU, pojedynczy serwer wyposażony w osiem kart Tesla P40 może zastąpić ponad sto serwerów opartych na jednostkach CPU.

 

ULTRAEFEKTYWNE GŁĘBOKIE UCZENIE NA SERWERACH SKALOWANYCH POZIOMO

Rozwiązanie Tesla P4 akceleruje dowolny skalowany poziomo serwer i zapewnia niezwykłą, czterdziestokrotnie wyższą wydajność energetyczną niż rozwiązania CPU.

Pdf
Tesla P4
 

CECHY I ZALETY AKCELERATORA GŁĘBOKIEGO UCZENIA

Te jednostki GPU napędzają szybsze przewidywanie, które umożliwia zapewnienie użytkownikowi niezwykłych wrażeń przez aplikacje SI.

 
Stukrotnie wyższa przepustowość, aby nadążyć za stale rosnącą ilością danych

Stukrotnie wyższa przepustowość, aby nadążyć za stale rosnącą ilością danych

Ze względu na ilość danych generowanych codziennie w formie logów czujników, obrazów, materiału wideo i nagrań ich przetwarzanie na jednostkach CPU jest ekonomicznie niepraktyczne. Jednostki GPU oparte na architekturze Pascal dają centrom danych ogromny wzrost przepustowości do zadań związanych z uruchamianiem głębokiego uczenia i ekstrakcji istotnych danych z tego tsunami danych. Serwer z ośmioma kartami Tesla P40 może zastąpić ponad sto serwerów opartych wyłącznie na jednostkach CPU w zadaniach związanych z głębokim uczeniem, dzięki czemu zyskujesz wyższą przepustowość za niższą cenę.

 
Dedykowany silnik dekodujący dla nowych usług wideo opartych na SI

Dedykowany silnik dekodujący dla nowych usług wideo opartych na SI

Jednostki GPU Tesla P4 i P40 potrafią analizować do 39 strumieni wideo w czasie rzeczywistym, wyposażono je w dedykowany, akcelerowany sprzętowo silnik dekodowania, który działa równolegle z rdzeniami NVIDIA CUDA® odpowiedzialnymi za wnioskowanie. Dzięki zintegrowaniu w potok wideo głębokiego uczenia klienci mogą zaoferować użytkownikom nowe poziomy inteligentnych, innowacyjnych usługi wideo.

Bezprecedensowa wydajność dla energooszczędnych serwerów skalowanych poziomo

Bezprecedensowa wydajność dla energooszczędnych serwerów skalowanych poziomo

Ultraefektywna jednostka GPU Tesla P4 o niewielkich rozmiarach i poborze mocy 50/75 W akceleruje serwery skalowane poziomo zoptymalizowane pod kątem zagęszczenia. Zapewnia niezwykłą, czterdziestokrotnie wyższą efektywność energetyczną od jednostek CPU w zadaniach związanych z wnioskowaniem w głębokim uczeniu. Pozwala to klientom rozwiązań hiperskalowych skalować je w ramach istniejącej infrastruktury i zapewnić obsługę ogromnego wzrostu zapotrzebowania na aplikacje oparte na SI.



 
Szybsze wdrożenia dzięki silnikowi NVIDIA TensorRT™ i pakietowi SDK DeepStream

Szybsze wdrożenia dzięki silnikowi NVIDIA TensorRT™ i pakietowi SDK DeepStream

NVIDIA TensorRT to wysoce wydajny silnik wnioskowania sieci neuronowych do wdrożeń produkcyjnych aplikacji z dziedziny głębokiego uczenia. W jego skład wchodzi biblioteka stworzona do optymalizacji modeli głębokiego uczenia na potrzeby wdrożeń produkcyjnych, zbierająca przeszkolone sieci neuronowe (zazwyczaj na 32- lub 16-bitowych danych) i optymalizująca je pod kątem operacji INT8 o obniżonej precyzji. Pakiet NVIDIA DeepStream SDK korzysta z mocy jednostek GPU Pascal do jednoczesnego dekodowania i analizowania strumieni wideo.

 

SPECYFIKACJA WYDAJNOŚCIOWA AKCELERATORÓW NVIDIA TESLA P40 I P4

 
  Tesla P4 do ultraefektywnych serwerów skalowanych poziomo Tesla P40 do serwerów o maksymalnej przepustowości we wnioskowaniu
Wydajność obliczeń o pojedynczej precyzji 5.5 TeraFLOPS 12 TeraFLOPS
Operacje na liczbach całkowitych (INT8) 22 TOPS* 47 TOPS*
Pamięć układu GPU 8 GB 24 GB
Przepustowość pamięci 192 GB/s 346 GB/s
Interfejs systemowy Niskoprofilowa konstrukcja PCI Express Dwuslotowa karta PCI Express o pełnej wysokości
Pobór mocy 50 W/75 W 250 W
Sprzętowo akcelerowany silnik wideo 1 silnik dekodujący, 2 silniki kodujące 1 silnik dekodujący, 2 silniki kodujące

*Biliony operacji na sekundę z włączoną opcją Boost Clock

ARKUSZE DANYCH ROZWIĄZAŃ NVIDIA TESLA P40 I P4

Pdf
 
 

ZDOBĄDŹ ROZWIĄZANIA NVIDIA TESLA P40 I P4 JUŻ DZIŚ

Karty Tesla P40 i P4 są teraz dostępne do zadań wnioskowania w głębokim uczeniu

GDZIE KUPIĆ

 
CUDA i obliczenia na GPU

Czym są obliczenia na GPU?
Fakty związane z obliczeniami
na układach GPU

Programowanie układów GPU
Architektura GPU Kepler
Obliczenia w chmurze
z użyciem GPU

Skontaktuj się z name

Czym jest CUDA?
Witryna CUDA
Szkolenia CUDA
Szkolenia CUDA
Centra szkoleniowe CUDA

Aplikacje wykorzystujące GPU

Aplikacje wykorzystujące GPU Tesla
Dyrektywy GPU OpenACC
Studia przypadku dotyczące
rozwiązań Tesla

Jednostki GPU Tesla dla
serwerów i stacji roboczych

Dlaczego warto wybrać
rozwiązania Tesla

Rozwiązania serwerowe Tesla
Rozwiązania Tesla dla
stacji roboczych

Kup jednostki GPU Tesla

Wiadomości i informacje
dotyczące jednostek Tesla

Materiały informacyjne o
produktach Tesla

Cechy oprogramowania Tesla
Narzędzia programistyczne Tesla
Badania NVIDIA
Powiadomienia Tesla

Znajdź nas Online

NVIDIA Blog Blog NVIDIA

Facebook Facebook

Twitter Twitter

Twitch Twitch

YouTube YouTube