Gå til innhold

Nvidia Volta & Turing - Arkitektur og produkter


HKS

Anbefalte innlegg

Da er det på tide med en ny arkitektur fra Nvidia snart.

 

Etter Pascal kommer Volta.

 

Pascal ble opprinnelig puttet inn som et mellomledd mellom Maxwell og Volta. De store nyvinningene i Pascal har ikke de fleste her på forumet hatt noe særlig erfaringer med. De har primært vært på GP100 som er compute-brikken i Pascal-familien.

 

De nyvinningene har vært NVLink som er en rask bus mellom GPUer og utvalgte CPUer (IBM Power8+) samt "Mixed-Precision" (dette har også vært på Tegra-produkter i noen år) og ikke minst "Unified Memory". Unified Memory er i alle Pascal-produkter, men det brukes primært i CUDA. Det er i bunn og grunn støtte for preemtion på GPU, samt muligheten for en GPU til å gjøre paging i hardware.

 

Disse funksjonene er ting som Volta kommer til å bygge videre på.

 

Volta er allerede valgt som akselerator i to av tre store supermaskiner i USA som driftes av DoE (Department of Energy). Disse maskinene er kjent som "Summit" og "Sierra" og kommer til å ha opp mot 300 petaflops teoretisk ytelse og bruke en kombinasjon av IBM Power9 på CPU-siden og Nvidia Volta på GPU siden.

 

Volta kommer i likhet med Pascal i første omgang til å bli annonsert som en compute arkitektur, grafikkprodukter vil komme etter hvert.

 

Forhåpentligvis kan vi ha denne tråden som en arkitekturdiskusjon gjennom hele levetiden til Volta. Jeg håper vi kan ha en egen tråd for produkter, overklokking og benchmarking etc.

Vi hadde også en egen Pascal-tråd frem til en eller annen moderator klarte å rote alt sammen (Titan X Maxwell og Pascal). Jeg håper vi kan holde det separat nå.

 

 

Mer informasjon om Volta og Turing kommer etterhvert i denne tråden!

Endret av HKS
  • Liker 2
Lenke til kommentar
Videoannonse
Annonse

Produkter med Volta har strengt talt allerede blitt annonsert.

 

Tilbake på GTC Europa 2016 annonserte Nvidia neste generasjons Tegra-brikke.

Den har kodenavn "Xavier" og kommer til å inneholde 8 custom ARM-kjerner (Nvidia Carmel) og en GPU med 512 kjerner basert på Volta.

 

https://blogs.nvidia.com/blog/2016/09/28/xavier/

http://www.anandtech.com/show/10714/nvidia-teases-xavier-a-highperformance-arm-soc

 

Brikken kommer til å være fokusert mot selvkjørende biler og andre kjøretøy, ha en TPD på 20W, bygd på 16nm FinFET. Xavier kommer til å være tilgjengelig for OEM og bilprodusenter fra Q4 2017.

 

Det er da realistisk at den er tilgjengelig for sluttbrukere i form av Jetson-produkter i 2018.

Endret av HKS
Lenke til kommentar

Blir ganske så heftig =) Hvordan ser du for deg GV104 eventuelt blir? Kan vi forvente høyere clocks enn på dagens 1080ti? Størrelse på die? 

 

GV100 (Tesla V100) som ble vist frem på GTC er klokket til 1455 MHz, det er nesten samme som GP100.

Ikke verst for en 815 mm² brikke med over 21 milliarder transistorer.

 

Så ja, GV102, GV104, GV106 kan man forvente høyere klokke på en dagens 1080 Ti... Resten får man nok se etterhvert... ;)

Lenke til kommentar

“It has a completely different instruction set than Pascal,” remarked Bryan Catanzaro, vice president, Applied Deep Learning Research at Nvidia. “It’s fundamentally extremely different. Volta is not Pascal with Tensor Core thrown onto it – it’s a completely different processor.”

 

Catanzaro, who returned to Nvidia from Baidu six months ago, emphasized how the architectural changes wrought greater flexibility and power efficiency.

 

“It’s worth noting that Volta has the biggest change to the GPU threading model basically since I can remember and I’ve been programming GPUs for a while,” he said. “With Volta we can actually have forward progress guarantees for threads inside the same warp even if they need to synchronize, which we have never been able to do before. This is going to enable a lot more interesting algorithms to be written using the GPU, so a lot of code that you just couldn’t write before because it potentially would hang the GPU based on that thread scheduling model is now possible. I’m pretty excited about that, especially for some sparser kinds of data analytics workloads there’s a lot of use cases where we want to be collaborating between threads in more complicated ways and Volta has a thread scheduler can accommodate that.

 

“It’s actually pretty remarkable to me that we were able to get more flexibility and better performance-per-watt. Because I was really concerned when I heard that they were going to change the Volta thread scheduler that it was going to give up performance-per-watt, because the reason that the old one wasn’t as flexible is you get a lot of energy efficiency by ganging up threads together and having the capability to let the threads be more independent then makes me worried that performance-per-watt is going to be worse, but actually it got better, so that’s pretty exciting.”

 

Added Alben: “This was done through a combination of process and architectural changes but primarily architecture. This was a very significant rewrite of the processor architecture. The Tensor Core part is obviously very [significant] but even if you look at FP32 and FP64, we’re talking about 50 percent more performance in the same power budget as where we’re at with Pascal. Every few years, we say, hey we discovered something really cool. We basically discovered a new architectural approach we could pursue that unlocks even more power efficiency than we had previously. The Volta SM is a really ambitious design; there’s a lot of different elements in there, obviously Tensor Core is one part, but the architectural power efficiency is a big part of this design.”

 

https://www.hpcwire.com/2017/05/10/nvidias-mammoth-volta-gpu-aims-high-ai-hpc/

  • Liker 1
Lenke til kommentar
  • 2 måneder senere...

Blir nok mere "gaming" Volta nyheter utover høsten... :)

Uansett. Kan nå bekrefte at Nvidia har begynt å shippe Tesla V100 kort basert på GV100.

Det stemmer bra med Q3-estimatet som ble lovet i mai.

De første kortene ble delt ut til utvalgte forskere som driver med AI-forskning under CVPR-konferansen som pågår nå i Hawaii.

https://blogs.nvidia.com/blog/2017/07/22/tesla-v100-cvpr-nvail/
 

Lenke til kommentar
  • 2 uker senere...

Blir nok mere "gaming" Volta nyheter utover høsten... :)

 

Uansett. Kan nå bekrefte at Nvidia har begynt å shippe Tesla V100 kort basert på GV100.

Det stemmer bra med Q3-estimatet som ble lovet i mai.

 

De første kortene ble delt ut til utvalgte forskere som driver med AI-forskning under CVPR-konferansen som pågår nå i Hawaii.

 

https://blogs.nvidia.com/blog/2017/07/22/tesla-v100-cvpr-nvail/

 

Har du noen anelse om når gaming korta deres kommer? 

Lenke til kommentar
  • 2 uker senere...
  • 2 uker senere...

Snakker vi godt ut i 2018 for Volta i konsum-gpu?

Lanseringsvinduet er Q4 2017 - Q1 2018.

 

Men, ingenting haster. Pascal konkurrerer uten problemer med Vega. Mitt stalltips er GV104/GV106 rett over nyttår, så GV102 mot slutten. Lansert på GTC i slutten av mars.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...