Hva er det beste grafikkortet for dyp læring?

What Is Best Graphics Card



Hvis en CPU er hjernen til en PC, er en GPU sjelen. Selv om de fleste PCer kan fungere uten en god GPU, er dyp læring ikke mulig uten en. Dette er fordi dyp læring krever komplekse operasjoner som matrisemanipulering, eksepsjonelle beregningskrav og betydelig datakraft.

Erfaring er avgjørende for å utvikle ferdighetene som er nødvendige for å anvende dyp læring på nye spørsmål. En rask GPU betyr en rask gevinst i praktisk erfaring gjennom umiddelbar tilbakemelding. GPUer inneholder flere kjerner for å håndtere parallelle beregninger. De har også omfattende minnebåndbredde for å administrere denne informasjonen enkelt.







Vårt beste anbefalte valg for beste grafikkort for dyp læring er Nvidia Geforce RTX 2080 Founders Edition. Kjøp den for $ 1,940 USD på Amazon

Med dette i tankene søker vi å svare på spørsmålet: Hva er det beste grafikkortet for AI, maskinlæring og dyp læring? ved å gå gjennom flere grafikkort som er tilgjengelige i 2021. Kort anmeldt:





  1. AMD RX Vega 64
  2. NVIDIA Tesla V100
  3. Nvidia Quadro RTX 8000
  4. GeForce RTX 2080 Ti
  5. NVIDIA Titan RTX

Nedenfor er resultatene:






AMD RX Vega 64

Radeon RX Vega 64

Funksjoner

  • Utgivelsesdato: 14. august 2017
  • Vega Arkitektur
  • PCI Express -grensesnitt
  • Klokkehastighet: 1247 MHz
  • Stream -prosessorer: 4096
  • VRAM: 8 GB
  • Minnebåndbredde: 484 GB/s

Anmeldelse

Hvis du ikke liker NVIDIA GPU -er, eller budsjettet ditt ikke lar deg bruke opp til $ 500 på et grafikkort, så har AMD et smart alternativ. AMDs RS Vega 64 er veldig vanskelig å ignorere, og har en anstendig mengde RAM, en rask minnebåndbredde og mer enn nok strømprosessorer.



Vega -arkitekturen er en oppgradering fra de tidligere RX -kortene. Når det gjelder ytelse, er denne modellen i nærheten av GeForce RTX 1080 Ti, ettersom begge disse modellene har en lignende VRAM. Videre støtter Vega innfødt halv presisjon (FP16). ROCm og TensorFlow fungerer, men programvaren er ikke like moden som på NVIDIA -grafikkort.

Alt i alt er Vega 64 en anstendig GPU for dyp læring og AI. Denne modellen koster godt under $ 500 USD og får jobben gjort for nybegynnere. For profesjonelle applikasjoner anbefaler vi imidlertid å velge et NVIDIA -kort.

AMD RX Vega 64 Detaljer: Amazon


NVIDIA Tesla V100

Tesla V100

Funksjoner:

  • Utgivelsesdato: 7. desember 2017
  • NVIDIA Volta -arkitektur
  • PCI-E-grensesnitt
  • 112 TFLOPS Tensorytelse
  • 640 Tensor farger
  • 5120 NVIDIA CUDA® -farger
  • VRAM: 16 GB
  • Minnebåndbredde: 900 GB/s
  • Beregn APIer: CUDA, DirectCompute, OpenCL ™, OpenACC®

Anmeldelse:

NVIDIA Tesla V100 er en behemoth og et av de beste grafikkortene for AI, maskinlæring og dyp læring. Dette kortet er fullstendig optimalisert og leveres med alt det gode man måtte trenge for dette formålet.

Tesla V100 kommer i 16 GB og 32 GB minnekonfigurasjoner. Med rikelig med VRAM, AI -akselerasjon, høy hukommelsesbåndbredde og spesialiserte tensorkjerner for dyp læring, kan du være trygg på at hver treningsmodell vil kjøre jevnt - og på kortere tid. Spesielt kan Tesla V100 levere 125TFLOPS dyp læringsytelse for både trening og slutning [3], muliggjort av NVIDIAs Volta -arkitektur.

NVIDIA Tesla V100 Detaljer: Amazon , ( 1 )


Nvidia Quadro RTX 8000

Nvidia Quadro Rtx 8000

Funksjoner:

  • Utgivelsesdato: august 2018
  • Turing -arkitektur
  • 576 Tensor farger
  • CUDA Farger: 4.608
  • VRAM: 48 GB
  • Minnebåndbredde: 672 GB/s
  • 16.3 TFLOPS
  • Systemgrensesnitt: PCI-Express

Anmeldelse:

Quadro RTX 8000 er spesielt utviklet for matrisearitmetikk og beregninger med dyp læring, og er et grafikkort i toppklasse. Siden dette kortet har stor VRAM-kapasitet (48 GB), anbefales denne modellen for forskning på ekstra store beregningsmodeller. Når den brukes i par med NVLink, kan kapasiteten økes til opptil 96 GB VRAM. Som er mye!

En kombinasjon av 72 RT og 576 Tensor -kjerner for forbedrede arbeidsflyter resulterer i over 130 TFLOPS ytelse. Sammenlignet med det dyreste grafikkortet på listen vår - Tesla V100 - tilbyr denne modellen potensielt 50 prosent mer minne og klarer fortsatt å koste mindre. Selv på installert minne har denne modellen eksepsjonell ytelse mens den arbeider med større batchstørrelser på en enkelt GPU.

Igjen, som Tesla V100, er denne modellen bare begrenset av taket ditt. Når det er sagt, hvis du vil investere i fremtiden og i databehandling av høy kvalitet, få en RTX 8000. Hvem vet, du kan lede forskningen på AI. Tesla V100 er basert på Turing -arkitektur der V100 er basert på Volta -arkitektur, så Nvidia Quadro RTX 8000 kan betraktes som litt mer moderne og litt kraftigere enn V100.

Nvidia Quadro RTX 8000 Detaljer: Amazon


GeForce RTX 2080 Ti

Geforce RTX 2080 Founders Edition

Funksjoner:

  • Utgivelsesdato: 20. september 2018
  • Turing GPU -arkitektur og RTX -plattformen
  • Klokkehastighet: 1350 MHz
  • CUDA Farger: 4352
  • 11 GB med neste generasjons, ultra-raske GDDR6-minne
  • Minnebåndbredde: 616 GB/s
  • Strøm: 260W

Anmeldelse:

GeForce RTX 2080 Ti er et budsjettalternativ som er ideelt for modelleringsarbeidsbelastninger i liten skala, i stedet for omfattende opplæringsutvikling. Dette er fordi det har et mindre GPU -minne per kort (bare 11 GB). Denne modellens begrensninger blir mer åpenbare når du trener noen moderne NLP -modeller. Det betyr imidlertid ikke at dette kortet ikke kan konkurrere. Blåserdesignet på RTX 2080 gir mulighet for langt tettere systemkonfigurasjoner - opptil fire GPUer i en enkelt arbeidsstasjon. I tillegg trener denne modellen nevrale nettverk med 80 prosent hastighetene til Tesla V100. I følge LambdaLabs 'benchmarks for dyp læring, er RTX 2080 73% hurtigheten til FP2 og 55% hastigheten på FP16 sammenlignet med Tesla V100.

I mellomtiden koster denne modellen nesten 7 ganger mindre enn en Tesla V100. Både fra pris og ytelse, er GeForce RTX 2080 Ti en flott GPU for dyp læring og AI -utvikling.

GeForce RTX 2080 Ti Detaljer: Amazon


NVIDIA Titan RTX

NVIDIA Titan RTX -grafikk

Funksjoner:

  • Utgivelsesdato: 18. desember 2018
  • Drevet av NVIDIA Turing ™ -arkitektur designet for AI
  • 576 Tensor -kjerner for AI -akselerasjon
  • 130 teraFLOPS (TFLOPS) for dyp læring
  • CUDA Farger: 4608
  • VRAM: 24 GB
  • Minnebåndbredde: 672 GB/s
  • Anbefalt strømforsyning 650 watt

Anmeldelse:

NVIDIA Titan RTX er en annen mellomstor GPU som brukes til komplekse dype læringsoperasjoner. Denne modellens 24 GB VRAM er nok til å fungere med de fleste batchstørrelser. Hvis du ønsker å trene større modeller, kan du imidlertid koble dette kortet til NVLink -broen for effektivt å ha 48 GB VRAM. Dette beløpet vil være nok, selv for NLP -modeller med store transformatorer. Videre åpner Titan RTX for full hastighet med blandet presisjonstrening for modeller (dvs. FP 16 sammen med FP32-akkumulering). Som et resultat utfører denne modellen omtrent 15 til 20 prosent raskere i operasjoner der Tensor Cores brukes.

En begrensning av NVIDIA Titan RTX er designen med to vifter. Dette hemmer mer komplekse systemkonfigurasjoner fordi den ikke kan pakkes inn i en arbeidsstasjon uten vesentlige endringer i kjølemekanismen, noe som ikke anbefales.

Totalt sett er Titan en utmerket, allsidig GPU for omtrent alle dype læringsoppgaver. Sammenlignet med andre generelle grafikkort, er det absolutt dyrt. Derfor er denne modellen ikke anbefalt for spillere. Likevel vil ekstra VRAM og ytelsesøkning sannsynligvis bli verdsatt av forskere som bruker komplekse dype læringsmodeller. Prisen på Titan RTX er meningsfullt mindre enn V100 som ble vist ovenfor, og ville være et godt valg hvis budsjettet ditt ikke tillater V100 -prising å gjøre dyp læring eller arbeidsbelastningen din ikke trenger mer enn Titan RTX ( se interessante referanser )

NVIDIA Titan RTX Detaljer: Amazon


Velge det beste grafikkortet for AI, maskinlæring og dyp læring

AI, maskinlæring og dype læringsoppgaver behandler massevis av data. Disse oppgavene kan være svært krevende for maskinvaren din. Nedenfor er funksjonene du må huske på før du kjøper en GPU.

Farger

Som en enkel tommelfingerregel, jo større antall kjerner, desto høyere blir ytelsen til systemet ditt. Antall kjerner bør også tas i betraktning, spesielt hvis du har å gjøre med en stor mengde data. NVIDIA har navngitt kjernene sine CUDA, mens AMD kaller kjernene for strømprosessorer. Velg det høyeste antallet behandlingskjerner budsjettet ditt vil tillate.

Prosessorkraft

Prosessorkraften til en GPU avhenger av antall kjerner inne i systemet multiplisert med klokkehastighetene du kjører kjernene med. Jo høyere hastighet og høyere antall kjerner, desto høyere blir prosessorkraften der GPU -en din kan beregne data. Dette bestemmer også hvor raskt systemet ditt vil utføre en oppgave.

VRAM

Video RAM, eller VRAM, er en måling av datamengden systemet kan håndtere samtidig. Høyere VRAM er avgjørende hvis du jobber med forskjellige Computer Vision -modeller eller utfører noen CV Kaggle -konkurranser. VRAM er ikke like viktig for NLP, eller for arbeid med andre kategoriske data.

Minnebåndbredde

Minnebåndbredden er hastigheten som data leses eller lagres i minnet. Enkelt sagt er det hastigheten på VRAM. Målt i GB/s betyr mer minnebåndbredde at kortet kan trekke flere data på kortere tid, noe som gir raskere bruk.

Kjøling

GPU -temperaturen kan være en betydelig flaskehals når det gjelder ytelse. Moderne GPUer øker hastigheten til et maksimum mens du kjører en algoritme. Men så snart en viss temperaturgrense er nådd, reduserer GPU'en prosesshastigheten for å beskytte mot overoppheting.

Blåserviftedesignet for luftkjølere skyver luft utenfor systemet mens viftene som ikke blåser suger luft inn. I arkitektur der flere GPUer er plassert ved siden av hverandre, vil ikke-blåsere vifter varme opp mer. Hvis du bruker luftkjøling i et oppsett med 3 til 4 GPUer, må du unngå vifter som ikke blåser.

Vannkjøling er et annet alternativ. Selv om den er dyr, er denne metoden mye mer stille og sørger for at selv de sterkeste GPU -oppsettene forblir kule under hele driften.

Konklusjon

For de fleste brukere som strever etter dyp læring, vil RTX 2080 Ti eller Titan RTX gi størst mulig valuta for pengene. Den eneste ulempen med RTX 2080 Ti er en begrenset VRAM -størrelse på 11 GB. Trening med større batchstørrelser tillater modeller å trene raskere og mye mer nøyaktig, noe som sparer mye av brukerens tid. Dette er bare mulig når du har Quadro GPUer eller en TITAN RTX. Ved å bruke halv presisjon (FP16) kan modeller passe inn i GPU-ene med utilstrekkelig VRAM-størrelse [2]. For mer avanserte brukere er Tesla V100 der du bør investere. Det er vårt beste valg for det beste grafikkortet for AI, maskinlæring og dyp læring. Det er alt for denne artikkelen. Vi håper du likte det. Til neste gang!

Referanser

  1. Beste GPUer for AI, maskinlæring og dyp læring i 2020
  2. Beste GPU for dyp læring i 2020
  3. NVIDIA AI INFERENCE PLATFORM: Store sprang i ytelse og effektivitet for AI -tjenester, fra datasenteret til nettverkets kant
  4. NVIDIA V100 TENSOR CORE GPU
  5. Titan RTX Deep Learning Benchmarks