Vad är det bästa grafikkortet för djupinlärning?

What Is Best Graphics Card



Om en CPU är hjärnan på en PC, då är en GPU själen. Medan de flesta datorer kan fungera utan en bra GPU, är djupinlärning inte möjlig utan en. Detta beror på att djupinlärning kräver komplexa operationer som matrismanipulation, exceptionella beräkningskrav och betydande datorkraft.

Erfarenhet är avgörande för att utveckla de färdigheter som krävs för att tillämpa djupinlärning på nya frågor. En snabb GPU innebär en snabb ökning av praktisk erfarenhet genom omedelbar feedback. GPU: er innehåller flera kärnor för att hantera parallella beräkningar. De har också omfattande minnesbandbredd för att enkelt hantera denna information.







Vårt rekommenderade val för bästa grafikkort för djupinlärning är Nvidia Geforce RTX 2080 Founders Edition. Köp den nu för $ 1, 940 USD på Amazon

Med detta i åtanke försöker vi svara på frågan, Vad är det bästa grafikkortet för AI, maskininlärning och djupinlärning? genom att granska flera grafikkort som för närvarande finns tillgängliga 2021. Kort granskade:





  1. AMD RX Vega 64
  2. NVIDIA Tesla V100
  3. Nvidia Quadro RTX 8000
  4. GeForce RTX 2080 Ti
  5. NVIDIA Titan RTX

Nedan följer resultaten:






AMD RX Vega 64

Radeon RX Vega 64

Funktioner

  • Utgivningsdatum: 14 augusti 2017
  • Vega Arkitektur
  • PCI Express -gränssnitt
  • Klockhastighet: 1247 MHz
  • Strömprocessorer: 4096
  • VRAM: 8 GB
  • Minnesbandbredd: 484 GB/s

Recension

Om du inte gillar NVIDIA -GPU: erna, eller om din budget inte tillåter dig att spendera upp till $ 500 på ett grafikkort, har AMD ett smart alternativ. AMDs RS Vega 64 är mycket svår att ignorera med en anständig mängd RAM, en snabb minnesbandbredd och mer än tillräckligt med strömprocessorer.



Vega -arkitekturen är en uppgradering från tidigare RX -kort. När det gäller prestanda ligger den här modellen nära GeForce RTX 1080 Ti, eftersom båda dessa modeller har en liknande VRAM. Dessutom stöder Vega inbyggd halvprecision (FP16). ROCm och TensorFlow fungerar, men programvaran är inte lika mogen som i NVIDIA -grafikkort.

Sammantaget är Vega 64 en anständig GPU för djupinlärning och AI. Denna modell kostar långt under $ 500 USD och får jobbet gjort för nybörjare. Men för professionella applikationer rekommenderar vi att du väljer ett NVIDIA -kort.

AMD RX Vega 64 Detaljer: Amazon


NVIDIA Tesla V100

Tesla V100

Funktioner:

  • Utgivningsdatum: 7 december 2017
  • NVIDIA Volta -arkitektur
  • PCI-E-gränssnitt
  • 112 TFLOPS Tensorprestanda
  • 640 Tensorfärger
  • 5120 NVIDIA CUDA® -färger
  • VRAM: 16 GB
  • Minnesbandbredd: 900 GB/s
  • Beräknings -API: er CUDA, DirectCompute, OpenCL ™, OpenACC®

Recension:

NVIDIA Tesla V100 är en tjusning och ett av de bästa grafikkorten för AI, maskininlärning och djupinlärning. Detta kort är helt optimerat och levereras med alla godsaker man kan behöva för detta ändamål.

Tesla V100 finns i 16 GB och 32 GB minneskonfigurationer. Med gott om VRAM, AI -acceleration, hög minnesbandbredd och specialiserade tensorkärnor för djupinlärning kan du vara säker på att varje träningsmodell kommer att fungera smidigt - och på kortare tid. Specifikt kan Tesla V100 leverera 125TFLOPS djupinlärningsprestanda för både träning och slutsatser [3], vilket möjliggörs av NVIDIAs Volta -arkitektur.

NVIDIA Tesla V100 Detaljer: Amazon , ( 1 )


Nvidia Quadro RTX 8000

Nvidia Quadro Rtx 8000

Funktioner:

  • Utgivningsdatum: augusti 2018
  • Turing Arkitektur
  • 576 Tensorfärger
  • CUDA -färger: 4 608
  • VRAM: 48 GB
  • Minnesbandbredd: 672 GB/s
  • 16.3 TFLOPS
  • Systemgränssnitt: PCI-Express

Recension:

Quadro RTX 8000 är speciellt byggd för matematisk matrix-aritmetik och beräkningar och är ett grafikkort i toppklass. Eftersom detta kort har stor VRAM-kapacitet (48 GB), rekommenderas den här modellen för att undersöka extra stora beräkningsmodeller. När den används i par med NVLink kan kapaciteten ökas till upp till 96 GB VRAM. Vilket är mycket!

En kombination av 72 RT och 576 Tensor -kärnor för förbättrade arbetsflöden resulterar i över 130 TFLOPS prestanda. Jämfört med det dyraste grafikkortet på vår lista - Tesla V100 - erbjuder denna modell potentiellt 50 procent mer minne och klarar fortfarande att kosta mindre. Även på installerat minne har denna modell exceptionell prestanda när den arbetar med större batchstorlekar på en enda GPU.

Återigen, precis som Tesla V100, är ​​denna modell endast begränsad av ditt tak. Som sagt, om du vill investera i framtiden och i högkvalitativ dator, skaffa en RTX 8000. Vem vet, du kan leda forskningen om AI. Tesla V100 är baserad på Turing -arkitektur där V100 är baserad på Volta -arkitektur, så Nvidia Quadro RTX 8000 kan betraktas som något mer modern och något kraftfullare än V100.

Nvidia Quadro RTX 8000 Detaljer: Amazon


GeForce RTX 2080 Ti

Geforce RTX 2080 Founders Edition

Funktioner:

  • Utgivningsdatum: 20 september 2018
  • Turing GPU -arkitektur och RTX -plattformen
  • Klockhastighet: 1350 MHz
  • CUDA -färger: 4352
  • 11 GB nästa generations, ultrasnabbt GDDR6-minne
  • Minnesbandbredd: 616 GB/s
  • Effekt: 260W

Recension:

GeForce RTX 2080 Ti är ett budgetalternativ som är idealiskt för småskaliga modelleringsarbeten, snarare än storskalig utbildning. Detta beror på att det har ett mindre GPU -minne per kort (endast 11 GB). Den här modellens begränsningar blir tydligare när man tränar några moderna NLP -modeller. Det betyder dock inte att detta kort inte kan tävla. Fläktdesignen på RTX 2080 möjliggör mycket tätare systemkonfigurationer - upp till fyra grafikkort inom en enda arbetsstation. Dessutom tränar denna modell neurala nätverk med 80 procent hastigheterna på Tesla V100. Enligt LambdaLabs riktmärken för djupinlärning, jämfört med Tesla V100, är ​​RTX 2080 73% snabbare på FP2 och 55% hastigheten på FP16.

Samtidigt kostar denna modell nästan 7 gånger mindre än en Tesla V100. Både ur pris- och prestationssynpunkt är GeForce RTX 2080 Ti en utmärkt GPU för djupinlärning och AI -utveckling.

GeForce RTX 2080 Ti Detaljer: Amazon


NVIDIA Titan RTX

NVIDIA Titan RTX -grafik

Funktioner:

  • Utgivningsdatum: 18 december 2018
  • Drivs av NVIDIA Turing ™ -arkitektur designad för AI
  • 576 Tensorkärnor för AI -acceleration
  • 130 teraFLOPS (TFLOPS) för djupinlärningsträning
  • CUDA -färger: 4608
  • VRAM: 24 GB
  • Minnesbandbredd: 672 GB/s
  • Rekommenderad strömförsörjning 650 watt

Recension:

NVIDIA Titan RTX är en annan mellanstor GPU som används för komplexa djupinlärningsoperationer. Den här modellens 24 GB VRAM räcker för att fungera med de flesta batchstorlekar. Om du vill träna större modeller parar du dock detta kort med NVLink -bron för att effektivt få 48 GB VRAM. Detta belopp skulle räcka även för NLP -modeller med stora transformatorer. Dessutom tillåter Titan RTX utbildning i full hastighet med blandad precision för modeller (dvs FP 16 tillsammans med FP32-ackumulering). Som ett resultat utför den här modellen cirka 15 till 20 procent snabbare i operationer där Tensor Cores används.

En begränsning av NVIDIA Titan RTX är designen med två fläktar. Detta hämmar mer komplexa systemkonfigurationer eftersom den inte kan packas in i en arbetsstation utan väsentliga ändringar av kylmekanismen, vilket inte rekommenderas.

Sammantaget är Titan en utmärkt GPU för alla ändamål för nästan alla djupa inlärningsuppgifter. Jämfört med andra grafikkort för allmänna ändamål är det verkligen dyrt. Det är därför denna modell inte rekommenderas för spelare. Ändå skulle extra VRAM och prestandahöjning sannolikt uppskattas av forskare som använder komplexa djupinlärningsmodeller. Priset på Titan RTX är meningsfullt lägre än V100 som visas ovan och skulle vara ett bra val om din budget inte tillåter V100 -prissättning att göra djup inlärning eller om din arbetsbelastning inte behöver mer än Titan RTX ( se intressanta riktmärken )

NVIDIA Titan RTX Detaljer: Amazon


Att välja det bästa grafikkortet för AI, maskininlärning och djupinlärning

AI, maskininlärning och djupa inlärningsuppgifter behandlar massor av data. Dessa uppgifter kan vara mycket krävande för din hårdvara. Nedan följer de funktioner du bör tänka på innan du köper en GPU.

Färger

Som en enkel tumregel, ju större antal kärnor, desto högre blir systemets prestanda. Antalet kärnor bör också beaktas, särskilt om du har att göra med en stor mängd data. NVIDIA har döpt sina kärnor till CUDA, medan AMD kallar sina kärnor för strömprocessorer. Välj det högsta antalet bearbetningskärnor som din budget tillåter.

Process kraft

Processorkraften hos en GPU beror på antalet kärnor i systemet multiplicerat med de klockhastigheter som du kör kärnorna med. Ju högre hastighet och högre antal kärnor, desto högre blir processorkraften med vilken din GPU kan beräkna data. Detta avgör också hur snabbt ditt system kommer att utföra en uppgift.

VRAM

Video RAM, eller VRAM, är en mätning av mängden data ditt system kan hantera på en gång. Högre VRAM är avgörande om du arbetar med olika Computer Vision -modeller eller utför någon CV Kaggle -tävling. VRAM är inte lika viktigt för NLP eller för att arbeta med andra kategoriska data.

minnesbandbredd

Minnesbandbredden är den hastighet med vilken data läses eller lagras i minnet. Enkelt uttryckt är det hastigheten på VRAM. Mätt i GB/s betyder mer minnesbandbredd att kortet kan dra mer data på kortare tid, vilket leder till snabbare drift.

Kyl

GPU -temperaturen kan vara en betydande flaskhals när det gäller prestanda. Moderna grafikkort ökar sin hastighet till ett maximum när en algoritm körs. Men så snart en viss temperaturgräns uppnås minskar GPU: n bearbetningshastigheten för att skydda mot överhettning.

Fläktkonstruktionen för luftkylare driver luft utanför systemet medan fläktarna som inte är fläkt suger in luft. I arkitektur där flera GPU: er placeras bredvid varandra, kommer fläktar utan fläkt att värmas upp mer. Om du använder luftkylning i en installation med 3 till 4 GPU: er, undvik fläktar som inte blåser.

Vattenkylning är ett annat alternativ. Även om den är dyr, är den här metoden mycket tystare och säkerställer att även de biffigaste GPU -inställningarna förblir svala under hela driften.

Slutsats

För de flesta användare som strävar efter djupinlärning kommer RTX 2080 Ti eller Titan RTX att ge störst valuta för pengarna. Den enda nackdelen med RTX 2080 Ti är en begränsad VRAM -storlek på 11 GB. Träning med större satsstorlekar gör att modellerna kan träna snabbare och mycket mer exakt, vilket sparar mycket av användarens tid. Detta är endast möjligt när du har Quadro -GPU: er eller en TITAN RTX. Med halv precision (FP16) kan modeller passa in i GPU: erna med otillräcklig VRAM-storlek [2]. För mer avancerade användare är Tesla V100 där du bör investera. Det är vårt bästa val för det bästa grafikkortet för AI, maskininlärning och djupinlärning. Det är allt för den här artikeln. Vi hoppas att du gillade det. Tills nästa gång!

Referenser

  1. Bästa GPU: er för AI, maskininlärning och djupinlärning 2020
  2. Bästa GPU för djupinlärning 2020
  3. NVIDIA AI INFERENCE PLATFORM: Stora språng i prestanda och effektivitet för AI -tjänster, från datacenteret till nätverkets kant
  4. NVIDIA V100 TENSOR CORE GPU
  5. Titan RTX Deep Learning Benchmarks