Gå til innhold

RYKTE: Nvidia skal lansere sitt kraftigste grafikkort noensinne


Anbefalte innlegg

 

 

 

 

Problemet er at prisene på disse kortene er altfor høye. Min max pris for et skjermkort ligger på 3000,-

Da regner jeg med du ikke spiller på en høy oppløst high-refresh skjerm? Eller er kresen på fps? 
Man må ikke alltid spille på max instillinger vettu :), nei har en vanlig 60Hz LCD. Men mitt 960 GTX yter helt fint det.
hvaaaa? Hvordan kan man akseptere 60fps i 2015? You are krazy :)

Jeg har ikke noe problemer med 60fps i de spillene jeg spiller :) Hva er poenget med 144fps, når 60fps ikke er et hinder? Noen foretrekker 4k i et spillbart fps, mens noen foretrekker 144fps i mye lavere oppløsning^^ Smaken er som baken :)

ikke helt sant, kommer veldig an på hvilken spill det er snakk om. som meg, spiller League og legends på et profft nivå, men mer en 60fps gjør ikke mye forskjell, vis det i heletat gjør noe forskjell. noen spill har til og med max fps på 60 uansett. så på lol ville jeg heller hat 4k en 144hz skjerm og mye fps, men omvendt på fps spell som cs go

Lenke til kommentar
Videoannonse
Annonse

Såklart er støtten der. Men den er mangelfull i stor grad, sammenlignet med det det du finner i GCN-arkitekturen.

Nvidia har ikke kommet med driver som aktiverer hardwarestøtte for dette på Maxwell Gen2 enda. For øyeblikket er det ikke planlagt at dette kommer før med CUDA 8 og GPUdirect Async, men det er uansett før det kommer noen DX12 spill på markedet...

 

Når AMD og Nvidia snakke om støtte async compute, er det ikke snakk om de samme maskinvareevnene.

Det er i bunn og grunn snakk om å overlappe eksekvering fra en grafikkkø og en eller flere computekøer.

 

Hvis du jobber med dette, så burde du selv vite dette veldig godt. Asynchronous Command Engines i AMD GPUer (mellom 2-8 avhengig av hvilket kort du eier) er i stand til å utføre nye arbeidsbelastninger på ventetider så lite som en enkelt syklus. En high-end AMD kort har åtte ACEer og hver ACE har åtte køer. Maxwell, derimot, har to "pipelines", hvorav den ene er et høyt grafikkprioritert.  Den andre kan ikke bytte oppgaver på langt nær så raskt som det AMD kan.

Stemmer ikke. Maxwell har en grafikkkø og opp til 31 computekøer. I ren compute mode har brikken 32 computekøer. Disse køene styret av hva som kalles en "grid management unit". Denne vil fordele arbeidslast videre til SMX/SMM enheter.
  • Liker 3
Lenke til kommentar

 

 

 

 

 

Problemet er at prisene på disse kortene er altfor høye. Min max pris for et skjermkort ligger på 3000,-

Da regner jeg med du ikke spiller på en høy oppløst high-refresh skjerm? Eller er kresen på fps? 
Man må ikke alltid spille på max instillinger vettu :), nei har en vanlig 60Hz LCD. Men mitt 960 GTX yter helt fint det.
hvaaaa? Hvordan kan man akseptere 60fps i 2015? You are krazy :)

Jeg har ikke noe problemer med 60fps i de spillene jeg spiller :) Hva er poenget med 144fps, når 60fps ikke er et hinder? Noen foretrekker 4k i et spillbart fps, mens noen foretrekker 144fps i mye lavere oppløsning^^ Smaken er som baken :)

ikke helt sant, kommer veldig an på hvilken spill det er snakk om. som meg, spiller League og legends på et profft nivå, men mer en 60fps gjør ikke mye forskjell, vis det i heletat gjør noe forskjell. noen spill har til og med max fps på 60 uansett. så på lol ville jeg heller hat 4k en 144hz skjerm og mye fps, men omvendt på fps spell som cs go

 

 

Les det han skriver en gang til er du snill:

Jeg har ikke noe problemer med 60fps i de spillene jeg spiller :)Hva er poenget med 144fps, når 60fps ikke er et hinder? Noen foretrekker 4k i et spillbart fps, mens noen foretrekker 144fps i mye lavere oppløsning^^ Smaken er som baken :)

 

Du skriver IKKE HELT SANT, og så kommer du med en tirade som bekrefter og sier seg enig i akkuratt det han påstår.

Lenke til kommentar

 

Såklart er støtten der. Men den er mangelfull i stor grad, sammenlignet med det det du finner i GCN-arkitekturen.

Nvidia har ikke kommet med driver som aktiverer hardwarestøtte for dette på Maxwell Gen2 enda. For øyeblikket er det ikke planlagt at dette kommer før med CUDA 8 og GPUdirect Async, men det er uansett før det kommer noen DX12 spill på markedet...

 

Når AMD og Nvidia snakke om støtte async compute, er det ikke snakk om de samme maskinvareevnene.

Det er i bunn og grunn snakk om å overlappe eksekvering fra en grafikkkø og en eller flere computekøer.

 

Hvis du jobber med dette, så burde du selv vite dette veldig godt. Asynchronous Command Engines i AMD GPUer (mellom 2-8 avhengig av hvilket kort du eier) er i stand til å utføre nye arbeidsbelastninger på ventetider så lite som en enkelt syklus. En high-end AMD kort har åtte ACEer og hver ACE har åtte køer. Maxwell, derimot, har to "pipelines", hvorav den ene er et høyt grafikkprioritert.  Den andre kan ikke bytte oppgaver på langt nær så raskt som det AMD kan.

Stemmer ikke. Maxwell har en grafikkkø og opp til 31 computekøer. I ren compute mode har brikken 32 computekøer. Disse køene styret av hva som kalles en "grid management unit". Denne vil fordele arbeidslast videre til SMX/SMM enheter.

 

 

Trodde du sa du jobbet med dette? Du sier "det stemmer ikke", for så å skrive om hvor mange computekøer nVidia har -- som har null relevanse med med jeg skrev.

 

Jeg ser nå at det blir lite vits å diskutere med deg, og henviser meg derfor til rene kilder for å bygge opp argumentet mitt:

 

"Maxwell...has two pipelines, one of which is a high-priority graphics pipeline. The other has a a queue depth of 31 — but Nvidia can’t switch contexts anywhere near as quickly as AMD can".

 

http://www.extremetech.com/extreme/213519-asynchronous-shading-amd-nvidia-and-dx12-what-we-know-so-far

 

Derav testen jeg refererte til. Dette er noe nVidia selv har innrømmet offentlig, så sent som GDC 2015: "On future GPUs, we’re working to enable finer-grained preemption, but that’s still a long way off."
 
 
Tech Report David Kanter sa i en videopodcast at folk som jobber på Oculus har nevnt hvordan Preemption Context Switching, en svært viktig funksjon, spesielt i VR scenarier, er katastrofisk på NVIDIA-kort. 
I’ve been told by folks at Oculus that the preemption context switching is, and this is prior to the Skylake gen 8 architecture which has better preemption, but the best preemption context switching was with AMD by far. Intel was pretty good, and NVIDIA was possibly catastrophic.
The real issue is, if you have a shader running, a graphics shader, you need to let it finish. And it could take you a long time, it could take you over 16ms.
NVIDIA is very, to their credit they’re open and honest about this and how you tune for Oculus Rift. You have to be super careful because you can miss a frame boundary because the preemption is not particularly well latency. And again, it’s not like this is a bad decision on the part of NVIDIA, it’s you know, that’s just what made sense. Preemption isn’t something that was super important when the chip was designed and the API support was, there wasn’t much bang for your buck. Now, I’m sure they will improve it for Pascal, NVIDIA is full of good, sharp architects and they’ll probably fix it in Pascal.
 

 

 

Dette er et maskinvareproblem, og nVidia kan ikke gjøre noe med det gjennom API -- i hvertfall ikke noe som Intel og AMD ikke kan gjøre bedre. Per dags dato har det asynch-compute støtte i hardwaren på linje med AMD-kort fra 2011 -- altså for 4-5 år siden.

 

I en artikkel fra WCCFTech,  går Khaled Moammar mer inn i dybden på dette.

 

AMD has clearly been a far more vocal proponent of Async Compute than its rival. The company put this hardware feature under the limelight for the first time last year and attention has been directed towards it more so this year as the imminent launch of the DirectX 12 API was looming ever closer. Prior to that the technology remained, for the most part, out of sight
….
 
However to enable this feature the GPU must be built from the ground up to support it. In AMD’s Graphics Core Next based GPUs this feature is enabled through the Asynchronous Compute Engines integrated into each GPU. These are structures which are built inside the chip itself and they serve as the multi-lane highway by which tasks are delivered to the stream processors.
 
…..
 
Each ACE is capable of handling eight queues and every GCN 1.2 based GPU has a minimum of eight ACEs, for a total of 64 queues. ACEs debuted with AMD’s first GCN (GCN 1.0 ) based GPU code named Tahiti in late 2011 which had two Asynchronous Compute Engines. They were originally added to GPUs mainly to handle compute tasks because they could not be leveraged with graphics APIs of the time. Today however ACEs can take on a more prominent role in gaming through modern APIs such as DirectX 12, Vulkan and Mantle. 

 

 

Har du forstått det nå? Eller må jeg legger på enda flere kilder?
Endret av La Menthe
  • Liker 2
Lenke til kommentar

Forskjellen her virker på meg som om HKS vet, mens La Menthe bare linker til hva andre skribenter har skrevet.

 

Ser ut som om den som lever, får se hva som egentlig er riktig. Siden DX 12 ikkje akkurat er veldig utbredt nå, så er det jo samma f per dags dato. Det er ikkje tvil om at det er mye som blir sagt og lovet, som ikkje blir slik oss forbrukere håper og tror.

 

Peace and love :D

  • Liker 1
Lenke til kommentar

Forskjellen her virker på meg som om HKS vet, mens La Menthe bare linker til hva andre skribenter har skrevet.

 

Ser ut som om den som lever, får se hva som egentlig er riktig. Siden DX 12 ikkje akkurat er veldig utbredt nå, så er det jo samma f per dags dato. Det er ikkje tvil om at det er mye som blir sagt og lovet, som ikkje blir slik oss forbrukere håper og tror.

 

Peace and love :D

Vel La Menthe har nå i det minste sitert kilder på sine påstander. ikke bare kommet med annekdotiske påstander som for eksempel :På jobben forsker vi på funksjonalitet som kommer i neste CUDA versjon som heter "GPUDirect Async".

 

Nå tviler jeg ikke på kunskapen til HKS om Nvidia og Cuda, men kansje han er litt farget av at mesteparten av erfaringsgrunnlaget ligger i den leiren, og dermed ikke helt annerkjenner forskjellen?

 

 

Men ja fremtiden vil gi oss svar. 

  • Liker 2
Lenke til kommentar

Forskjellen her virker på meg som om HKS vet, mens La Menthe bare linker til hva andre skribenter har skrevet.

 

Ser ut som om den som lever, får se hva som egentlig er riktig. Siden DX 12 ikkje akkurat er veldig utbredt nå, så er det jo samma f per dags dato. Det er ikkje tvil om at det er mye som blir sagt og lovet, som ikkje blir slik oss forbrukere håper og tror.

 

Peace and love :D

 

Nå skal jeg ikke avsverge deg dine meninger om hva du finner mest autoritativt. Men jeg er sterkt overbevist om at å forholde seg kritisk til alle og enhver, og at konklusjoner i diskusjoner og i forståelse av situasjoner basert på empiriske fakta, bør være regel nummer 1. HKS jobber med dette og er en større autoritet enn meg i dette feltet: riktig. Han brukte også dette som et ledd i sitt argument, og bidro selv indirekte til at jeg videre besvarte han med referanser som hadde større tyngde enn "jeg jobber med dette". 
 
David Kanter, for eks., er sjefsredaktør for Real World Tech, et nettsted som fokuserer på mikroprosessorer, servere, grafikk, datamaskiner og halvledere. Jeg anser han som en større autoritet. Videre er de resterende kildene mine hentet fra anerkjente hardware-nettsted.
 
Det kan være veldig tørt og kjedelig å presentere argumenter slik jeg gjør. Men jeg ser virkelig ikke at jeg har så mye annet valg, da jeg i flere anledninger i mine deltakelser i diskusjoner på Maskinvare-forumet blir møtt med mennesker som nekter å akseptere at de tar feil. Radeon R9-tråden på skjermkort-forumet er et fantastisk eksempel på dette, da det er er en eneste lang tirade av himmelvide diskusjoner som har ingen ende.
Endret av La Menthe
  • Liker 2
Lenke til kommentar

 

2. generasjon Maxwell (GM20x) vil støtte async compute når vi begynner å nærme oss det tidspunktet at det kommer spill som bruker dette.

Foreløpig finnes det kun et par techdemoer som i det hele tatt bruker DX12.

Du tar utgangspunkt i at alle og enhver kjøper seg nye grafikkort hvert eneste år -- noe du vet absolutt ikke er tilfelle.

 

Det er vel lov til å oppdatere drivere etter lansering av GPUer?

 

Async compute er støttet i maskinvaren til Maxwell, så hvorfor er det et problem at Nvidia finpusser og holder tilbake støtten så lenge det ikke er lansert produkter som trenger det? Lider du som sluttbruker av det?

 

For å ta en parallell; jeg sitter ikke akkurat hjemme og gråter hver kveld fordi mitt GCN 1.1-kort ikke lar meg spille Vulkan-spill ennå selv om det står eksplisitt på AMDs nettsider.

  • Liker 1
Lenke til kommentar

Sjarmen med å diskutere med informasjon underlagt NDA... :)

Jeg har ingen planer å diskutere videre med La Menthe, fordi jeg ikke kan poste mine kilder.

 

Jeg holder allikevel fast på at siste ord ikke er sagt angående DX12 ytelse på Maxwell Gen2.

Brikkene har hardware og funksjonalitet som per dags dato ikke er eksponert av API og firmware. Det er så vidt jeg vet også Hva Nvidia har uttalt til utviklerene av "Ashes of Singularity".

 

Hvor bra/dårlig dette blir sammenlignet med AMD sin implementasjon vet jeg ikke.

Endret av HKS
  • Liker 1
Lenke til kommentar

Sjarmen med å diskutere med informasjon underlagt NDA... :)

Jeg har ingen planer å diskutere videre med La Menthe, fordi jeg ikke kan poste mine kilder.

 

Jeg holder allikevel fast på at siste ord ikke er sagt angående DX12 ytelse på Maxwell Gen2.

Brikkene har hardware og funksjonalitet som per dags dato ikke er eksponert av API og firmware. Det er så vidt jeg vet også Hva Nvidia har uttalt til utviklerene av "Ashes of Singularity".

 

Hvor bra/dårlig dette blir sammenlignet med AMD sin implementasjon vet jeg ikke.

 

Så da har vi det i hvert fall på det rene, fordi som jeg skjønner så har diskusjonen ikke gått ut på om Maxwell har DX12 støtte, men om Maxwell har full hw. async.

 

Men, kan du si noe om, siden du nevner FW, om det er slik nVidia skal "fikse" async? (Få brukere til å måtte flashe sine kort).

Lenke til kommentar

 

 

2. generasjon Maxwell (GM20x) vil støtte async compute når vi begynner å nærme oss det tidspunktet at det kommer spill som bruker dette.

Foreløpig finnes det kun et par techdemoer som i det hele tatt bruker DX12.

Du tar utgangspunkt i at alle og enhver kjøper seg nye grafikkort hvert eneste år -- noe du vet absolutt ikke er tilfelle.

 

Det er vel lov til å oppdatere drivere etter lansering av GPUer?

 

 

Det var ikke poenget. Det som ble tatt opp var at hvis Maxwell allerede har en så elendig funksjonalitet for preemption context switching (herunder asynch compute), så kan man anta at det er enda verre for Kepler-kort som er så nye som bare 2-3 år gamle, som et større antall brukere sitter på enn Maxwell. I motsetning har man denne støtten i GCN-kortet like langt tilbake i tid.

 

Alt dette er selvsagt basert på det villmansteorien om at nVidia gjør det dårlig i asynch compute på grunn av "dårlig optimaliserte drivere", og ikke på grunn av åpenbare og opplagte hardware-begrensninger i arkitekturen. Må si jeg finner det underlig hvor mange problemer nVidia møter på med DX12, spesielt hvis vi skal tro pølsevevet om at de har utviklet kortene sine i samsvar med Direct3D12 4 år i forveien...

 

 

 

Brikkene har hardware og funksjonalitet som per dags dato ikke er eksponert av API og firmware. Det er så vidt jeg vet også Hva Nvidia har uttalt til utviklerene av "Ashes of Singularity".

 

Dette argumentet kan man bruke om alle brikker i alle tilfeller. Nvidia burde vite dette bedre enn noen andre, når de regelrett presset Oxides Games til å ikke aktivere/utnytte funksjonaliteter som AMD (og sansynligvis også Intel) var bedre enn nVidia i. Vi er allerede kjent med måten nVidia kastet GameWorks på en rekke spill, som de deretter nektet produsentene å gi ut koden til konkurrenter som Intel og AMD.

  • Liker 1
Lenke til kommentar

Men, kan du si noe om, siden du nevner FW, om det er slik nVidia skal "fikse" async? (Få brukere til å måtte flashe sine kort).

Nei,

Firmware er en del av en binærblob som lastes inn i GPU når driveren starter.

Moderne GPUer kjører et eget operativsystem, som kontrollerer alt fra strømforbruk og klokkefrekvenser til hvordan GPUen skal kommunisere med host prosessoren og eventuelt andre PCIe enheter.

  • Liker 1
Lenke til kommentar

Alt dette er selvsagt basert på det villmansteorien om at nVidia gjør det dårlig i asynch compute på grunn av "dårlig optimaliserte drivere", og ikke på grunn av åpenbare og opplagte hardware-begrensninger i arkitekturen.

Siden spillene ikke er klare ennå så er det helt naturlig at Nvidia prioriterer å få ferdig neste versjon av CUDA, og det er ikke utenkelig at de kommer til å samordne dette siden det er to sider av akkurat samme maskinvarefunksjonalitet (det kan HKS si mer om). Vi vet ennå ikke om Nvidias løsning er dårligere enn AMDs, det må vi avvente og se.

 

Må si jeg finner det underlig hvor mange problemer nVidia møter på med DX12

Vennligst forfrisk minnet mitt, hvor mange problemer har Nvidia støtt på?

 

spesielt hvis vi skal tro pølsevevet om at de har utviklet kortene sine i samsvar med Direct3D12 4 år i forveien...

Jeg tror ikke du bør snakke om pølsevev når du tror at Direct3D 12 har oppstått i løpet av måneder. Du vet utmerket godt at det tar mange år fra tegnebrett til en ferdig GPU, og at Direct3D-versjoner også starter med en grov skisse og blir gradvis en mer konsis spesifikasjon. Om én funksjon i spesifikasjonen skulle vise seg å favorisere én produsent mer enn en annen så er dette nok en konsekvens av designvalg som ble gjort tidlig i GPU-designet. Et godt eksempel på dette er tessellation som skulle være en del av Direct3D 10, men hvor AMD og Nvidia endte opp med litt forskjellig implementasjon av "samme funksjonalitet" (de var ikke programmeringsmessig kompatible for å si det sånn).
  • Liker 2
Lenke til kommentar
 Vi vet ennå ikke om Nvidias løsning er dårligere enn AMDs, det må vi avvente og se.

 

 

Per dags dato vet vi det: nVidas løsning er katastrofal i forhold til AMD og Intels -- om vi skal tro analytikere fra anerkjente hardware-nettsted. Hvordan nVidia gjør det om 6 måneder eller om 2 år tar vi når den tid kommer.

 

Jeg tror ikke du bør snakke om pølsevev når du tror at Direct3D 12 har oppstått i løpet av måneder. 

 

Vi har allerede vært gjennom dette, og kom fram til at du hadde absolutt ingen grunnlag, ingen kilder og ingen referanser til absolutt alle antakelsene du kom med -- alt du sa var mao. rene spekulasjoner. At du fortsetter de motstridende antagelsene din er ikke akkurat overraskende...

Endret av La Menthe
  • Liker 2
Lenke til kommentar

Vi har allerede vært gjennom dette, og kom fram til at du hadde absolutt ingen grunnlag, ingen kilder og ingen referanser til absolutt alle antakelsene du kom med -- alt du sa var mao. rene spekulasjoner. At du fortsetter de motstridende antagelsene din er ikke akkurat overraskende...

Vel, vi har vært gjennom mange ganger at du og et par andre sitter og blånekter på fakta som jeg og HKS blar opp. Det er ikke vondt ment når jeg påpeker det, men både i denne diskusjonen(1)(2) og tidligere har du blitt tatt på fersken i åpenbare logiske brister og mangel på elementær kunnskap om GPUer.

 

Mantle ble først demonstrert på høsten 2013, og den som tror at Microsoft, Nvidia og AMD klarte i løpet av få uker å spesifisere en spesifikasjon og implementere drivere (som helt tilfeldigvis passet supert med Nvidias GPU-funksjonalitet) fantaserer åpenbart. Direct3D 12 var demonstrert fungerende kort tid etter.

Our work with Microsoft on DirectX 12 began more than four years ago

link

Som stemmer med det jeg har sagt hele tiden, at arbeidet var i gang i 2011.

Dette burde sette en strek for dette vrøvlet som flere har kommet med.

  • Liker 3
Lenke til kommentar

Når det gjelder Windows 10 drivere...

Så er det flere ganger påpekt at Nvidia sine drivere ikke er så stabile som burde ha vært. Når Nvidia og andre store selskaper med flere hundre programmerere utvikler drivere så planlegges ofte "major features" og "major optimizations" flere år i forveien. Det jobbes også med flere versjoner av driveren parallelt.

Når Windows 10 ble lansert offisielt for litt over et år siden så var planen at Windows 10 ikke skulle komme ut før slutten av 2015. Dette ble pushet frem av Microsoft siden Windows 8 var en katastrofe når det gjelder salg, og de ville pushe nytt OS til "back to school". Konsekvensen av dette for Nvidia ble at de måtte prioritere funksjonalitet i driveren ikke så mye optimering enda. Det er også grunnen til at Fermi-driveren for DX12 ikke er klar før i månedskifte november desember. DX12 er ikke helt mitt bord, jeg er mer involvert i CUDA, men tipper vi begynner å se en optimert driver mot mot slutten av året, også blir det nok lagt ned mye resurser mot februar 2016 hvor det er planlagt et par større DX12 titler.

 

Hvorfor ikke prioritere DX12 høyere? Vel... Som kjent støtter ingen spill DX12 enda, kommer heller ikke noe særlig før i 2016.

AMD har prioritert annerledes, dette har har gått ut over DX11 driver, men de har fått til noen gode PR-stunt nå, spesielt med techdemoen "Ashes of Singularity" hvor forhåpentligvis spillet kommer ut første halvdel av 2016.

 

Så i retrospektiv burde kanskje Nvidia også ha prioritert annerledes, men det hadde gått ut over noe annet. Mye resurser pushes i CUDA 8 som forhåpentligvis kommer i "developer beta" under Supercomputing-konferansen. Vulkan-driver er prioritert ganske høyt, Nvidia har mål om å være første produsent med Vulkan drivere når endelig versjon av API legges frem mot slutten av året.

  • Liker 3
Lenke til kommentar

 

Men, kan du si noe om, siden du nevner FW, om det er slik nVidia skal "fikse" async? (Få brukere til å måtte flashe sine kort).

Nei,

Firmware er en del av en binærblob som lastes inn i GPU når driveren starter.

Moderne GPUer kjører et eget operativsystem, som kontrollerer alt fra strømforbruk og klokkefrekvenser til hvordan GPUen skal kommunisere med host prosessoren og eventuelt andre PCIe enheter.

 

En FW flash kan også aktivere/re-aktivere enkelte "områder" i silisiumet som ikke er aktivt (re. aktivere f.eks "avskrudde" klustere med shaders osv.), men da fikk jeg svaret at full hw. async ikke er mulig i Maxwell.

Lenke til kommentar

 

 

 

 

Problemet er at prisene på disse kortene er altfor høye. Min max pris for et skjermkort ligger på 3000,-

Da regner jeg med du ikke spiller på en høy oppløst high-refresh skjerm? Eller er kresen på fps? 
Man må ikke alltid spille på max instillinger vettu :), nei har en vanlig 60Hz LCD. Men mitt 960 GTX yter helt fint det.
hvaaaa? Hvordan kan man akseptere 60fps i 2015? You are krazy :)

Hvordan kan du akseptere å spille spill som Witcher 3 i drittgrafikk, for å tilfredsstille mindre vesentlig 120 FPS?

 

Spilte Witcher 3 på nærmest maks og fikk godt over 100 gjennomsnittlig :)

Lenke til kommentar

Når det gjelder Windows 10 drivere...

 

Så er det flere ganger påpekt at Nvidia sine drivere ikke er så stabile som burde ha vært. Når Nvidia og andre store selskaper med flere hundre programmerere utvikler drivere så planlegges ofte "major features" og "major optimizations" flere år i forveien. Det jobbes også med flere versjoner av driveren parallelt.

 

Når Windows 10 ble lansert offisielt for litt over et år siden så var planen at Windows 10 ikke skulle komme ut før slutten av 2015. Dette ble pushet frem av Microsoft siden Windows 8 var en katastrofe når det gjelder salg, og de ville pushe nytt OS til "back to school". Konsekvensen av dette for Nvidia ble at de måtte prioritere funksjonalitet i driveren ikke så mye optimering enda. Det er også grunnen til at Fermi-driveren for DX12 ikke er klar før i månedskifte november desember. DX12 er ikke helt mitt bord, jeg er mer involvert i CUDA, men tipper vi begynner å se en optimert driver mot mot slutten av året, også blir det nok lagt ned mye resurser mot februar 2016 hvor det er planlagt et par større DX12 titler.

 

1 Hvorfor ikke prioritere DX12 høyere? Vel... Som kjent støtter ingen spill DX12 enda, kommer heller ikke noe særlig før i 2016.

2 AMD har prioritert annerledes, dette har har gått ut over DX11 driver, men de har fått til noen gode PR-stunt nå, spesielt med techdemoen "Ashes of Singularity" hvor forhåpentligvis spillet kommer ut første halvdel av 2016.

 

Så i retrospektiv burde kanskje Nvidia også ha prioritert annerledes, men det hadde gått ut over noe annet. Mye resurser pushes i CUDA 8 som forhåpentligvis kommer i "developer beta" under Supercomputing-konferansen. Vulkan-driver er prioritert ganske høyt, Nvidia har mål om å være første produsent med Vulkan drivere når endelig versjon av API legges frem mot slutten av året.

 

Grei post , men føler at det er et par ting som ikke stemmer helt :

 

1 : Når det gjelder hva Nvidia prioriterer så mener jeg at det blir litt feil å skylde på at det ikke finnes spill med DX12 tilgjengelig enda , hva med alle de som sitter og beta tester disse spillene per dags dato? De må jo ha tilgang til en driver som i det minste kan gi grunnleggende funksjonalitet så jeg kan ikke påstå at dette henger på greip...

 

Personlig antar jeg at problematikken ligger i arkitekturen som drar lite nytte av DX12 , dermed så må man finne løsninger som gjør at DX12 kan utnytte arkitekturen på en helt annen måte enn det som gjøres nå . Det kan også være at Nvidia ikke innså at funksjonaliteten som Microsoft implementerte i DX12 og som flere påpeker kan være en blåkopi av Amd sin Mantle , gagner Amd sine skjermkort langt mer enn det Nvidia kan få til med sin arkitektur per dags dato.

 

2 : Nå vil jeg ikke påstå at Amd nedprioriterer DX11 , saken er at for å få økt ytelse i mange spill så må man nesten lage egen kode som tar hånd om eventuelle problemer som spillet har for å utnytte skjermkortene til Amd. Man kan jo ikke si at Amd har et så enormt budsjett lenger og de kan derfor trolig kun optimalisere et fåtall av spilltitler , det er derimot noe som er enklere for Nvidia og de kan derfor komme ut med drivere som gjør at spillene får utnyttet bedre skjermkortene deres.

 

Jeg kan ikke akkurat si at Nvidia er noe bedre i forhold til å prøve å hele tiden utnytte PR , det har jo vært flere episoder der Nvidia har spredd uriktigheter nettopp for å bagatellisere konkurrenten...

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...