Gå til innhold

Nvidia tar i bruk neste generasjon teknologi i sin autobil-PC


Anbefalte innlegg

Videoannonse
Annonse

Will it run Crysis?

Nei, det kommer ikke til å kjøre Crysis. For det første bruker prosessorene ARM-instruksjonsettet, og det er ikke en god ide å kjøre Crysis i en virtuell maskin. For det andre har heller ikke Drive PX skjermutgang, men kanskje ASCI-versjon av Crysis over terminal... :p

 

 

Men dette er vel bare målt i prosessorkraft og ikke overall ytelse med GPU inkludert?

Når det gjelder regnekraft så er det total kraft. Drive PX 2 har to Tegra prosessorer (neste generasjon CPU kodenavn Parker) hver Tegra har seks kjerner. To custom ARMv8 2. generasjon Denver og fire ARM Cortex-A57. Systemet har i tillegg fire GPUer. Hver Tegra har en Pascal GPU (kodenavn GP20A), også er det to eksterne Pascal-GPUer.

 

Total TDP på hele systemet er 250W. Rundt 100W per GPU og 15W per Tegra. 20W til andre komponenter på hovedkortet.I embedded systemer som dette settes TDP meget konservativt sammenlignet for eksempel med et GeForce-kort for spill.

 

En "ca. 100W" Pascal GPU leverer her mer ytelse enn et GTX 970 kort.

Grunnet arkitekturtelle forbedringer i Pascal er ytelsen i nevrale nettverk tre ganger så rask som et Titan X-kort som kun har 1 TFLOPS per sekund lavere teoretisk regnekraft (7 vs. 8 TFLOPS).

Endret av HKS
Lenke til kommentar

Hvis det høres ut som overkill, så er det mest sannsynligvis overkill. Det er tross alt trafikk det er snakk om og ikke fortløpende protein-folding av 1000 forskjellige typer.

Greit nok å bruke NN for å forutse/analysere situasjoner, men man har klart seg med *mye mindre* før, og det er ingen grunn å automatisk anta at mer komplisert er automatisk bedre. Selvfølgelig er dette feil, hvis Nvidia eller evt softwareprodusent kan faktisk gå god for dette kvantespranget, noe jeg tviler på at de kan.

Lenke til kommentar

Hvis det høres ut som overkill, så er det mest sannsynligvis overkill. Det er tross alt trafikk det er snakk om og ikke fortløpende protein-folding av 1000 forskjellige typer.

Greit nok å bruke NN for å forutse/analysere situasjoner, men man har klart seg med *mye mindre* før, og det er ingen grunn å automatisk anta at mer komplisert er automatisk bedre. Selvfølgelig er dette feil, hvis Nvidia eller evt softwareprodusent kan faktisk gå god for dette kvantespranget, noe jeg tviler på at de kan.

 

Så greit at en bedreviter som deg kom på banen å avklarte dette.

  • Liker 1
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...