Gå til innhold

Geforce GTX 9xx Tråden


Anbefalte innlegg

Videoannonse
Annonse

Det er noe som lukter over denne "benchmarken". Bare betrakt følgende fra min GTX 680 4GB:

post-63307-0-28448300-1422116233_thumb.png

Det ser ut som verktøyet allokerer så mange blokker som den kan og deretter måler ytelsen på hver av de. GPUene består av flere minnekontrollere som hver har sine minnebrikker, som betyr at for å utnytte teoretisk maksimum må alle kontrollerne belastes maksimalt. Det betyr også at hver blokk må være fordelt på alle minnebrikkene, og at alle minnekontrollerne må være i bruk for å lese ut denne for å nå teoretisk maksimum.

 

Hvis det er slik at GTX 970 har én eller tre lemlestede kontrollere så gir det ingen mening at minnehastigheten skal plutselig falle over 3 GB eller 3.5 GB. For hvis det var slik at programmet testet hver minnekontroller for seg så hadde en blokk aldri fått høyere ytelse enn en 64-bits buss, dvs. 56 GB/s. Siden programmet derimot påstår at ytelsen er 150 GB/s per blokk helt opp til de siste som er 1/10 av ytelsen så er det åpenbart noe som er feil.

 

Dette programmet bruker CUDA som flere har fått med seg. Normal allokering av blokker der gir ikke kontroll over hvor i GPU-minnet de skal fysisk lagres.

 

Det er definitivt noe som ikke stemmer i regnestykket…

Lenke til kommentar

Fra overclock.net:

 

GTX 970s can only use 3.5GB of 4GB VRAM issue

"Going beyond 3.5GB vram usage ... severely degrades the performance, as if the last 512mb is actually being swapped from the RAM."

980 works fine in comparison.

Example:
In Far Cry 4 @ 1440p
No AA: 3320MB Max Vram, locked at 60 fps
2x MSAA: 3405MB Max Vram, locked at 60fps
4x MSAA: 3500MB Max Vram, 45-60fps
8x MSAA, starts around 3700-3800MB @ 4-5fps, stabilizes at 3500MB @ 30-40fps.

 

http://www.overclock.net/t/1535502/gtx-970s-can-only-use-3-5gb-of-4gb-vram-issue

Lenke til kommentar

Det som beskrives her er typiske symptomer på at GPU-minnet blir fullt og swappes. Men jeg er interessert i å vite om dette minneforbruket er estimert forbruk for spillet eller om det er hentet ut fra NVAPI. Saken er nemlig at operativsystemet og andre programmer kan gjerne bruke noen hundre MB fra før, bare se her. Det fine med Linux-versjonen er at den viser mye mer informasjon om hva som skjer, i Windows trengs nok tredjepartsverktøy.

Lenke til kommentar

 

I følge rapportene i fra den linken som er postet over, så har ikke GTX980 samme problemet, noe som får meg til å lure litt. Har nVidia tatt en liten snarvei her tro? :huh:

 

Det er bare brukerene som har kjøpt gtx970 som har tatt en liten snarvei. Betaler man lite, så får man lite :tease:

 

 

Men det har jo absolutt ingenting å si hvor mye man betaler, hvis noe ikke fungerer slik som det skal eller slik det har blitt oppgitt at det skal fungere skal de ikke være fordi at "betaler man lite, får man lite".

 

Spesifikasjoner er spesifikasjoner, og om vi har "betalt for lite" er dette NVIDIA sitt problem og ikke forbrukeren. Da får de begynne å operere med en praktisk minnestørrelse på 3,5GB i stedet, og spesifisere at ytelsen går i dass dersom det brukes mer.

Da er det ikke snakk om at man får hva man betaler for, da har man holdt tilbake sannheten.

 

Det er selvfølgelig ikke naturlig å velge GTX 980 når dette produktet ikke yter godt nok til å rettferdiggjøre prisen sin sammenliknet med GTX 970 (i områdene hvor vi faktisk kan sammenlikne disse).

Endret av Raxzer
Lenke til kommentar

 

 

I følge rapportene i fra den linken som er postet over, så har ikke GTX980 samme problemet, noe som får meg til å lure litt. Har nVidia tatt en liten snarvei her tro? :huh:

 

Det er bare brukerene som har kjøpt gtx970 som har tatt en liten snarvei. Betaler man lite, så får man lite :tease:

 

 

Men det har jo absolutt ingenting å si hvor mye man betaler, hvis noe ikke fungerer slik som det skal eller slik det har blitt oppgitt at det skal fungere skal de ikke være fordi at "betaler man lite, får man lite".

 

Spesifikasjoner er spesifikasjoner, og om vi har "betalt for lite" er dette NVIDIA sitt problem og ikke forbrukeren. Da får de begynne å operere med en praktisk minnestørrelse på 3,5GB i stedet, og spesifisere at ytelsen går i dass dersom det brukes mer.

Da er det ikke snakk om at man får hva man betaler for, da har man holdt tilbake sannheten.

 

Det er selvfølgelig ikke naturlig å velge GTX 980 når dette produktet ikke yter godt nok til å rettferdiggjøre prisen sin sammenliknet med GTX 970 (i områdene hvor vi faktisk kan sammenlikne disse).

 

 

Ikkje vær så seriøs da... :mellow::p

Lenke til kommentar

Måkke trolle sånn vettu :tease:

Anyways, NVIDIA har svart:

http://www.pcper.com/news/Graphics-Cards/NVIDIA-Responds-GTX-970-35GB-Memory-Issue?utm_source=twitterfeed&utm_medium=twitter

http://techreport.com/news/27721/nvidia-admits-explains-geforce-gtx-970-memory-allocation-issue

De hevder at det er riktig, og at kortene skal være sånn. Så ser ikke så bra ut dette her..

Det betyr jo egentlig at 970 har 3,5GB og 980 har 4GB. Det skjønner jeg at folk klikker litt på..

Endret av bshagen
Lenke til kommentar

Måkke trolle sånn vettu :tease:

 

Anyways, NVIDIA har svart:

 

http://www.pcper.com/news/Graphics-Cards/NVIDIA-Responds-GTX-970-35GB-Memory-Issue?utm_source=twitterfeed&utm_medium=twitter

 

http://techreport.com/news/27721/nvidia-admits-explains-geforce-gtx-970-memory-allocation-issue

 

De hevder at det er riktig, og at kortene skal være sånn. Så ser ikke så bra ut dette her..

 

Det betyr jo egentlig at 970 har 3,5GB og 980 har 4GB. Det skjønner jeg at folk klikker litt på..

 

men ser det egentlig så ille ut? Har det noe å si fpsmessig i noen spill? Da mener jeg ikkje fps under 60, fordi det er uspillbart uanZ

Lenke til kommentar

Nei nei, men folk har jo faktisk sett på spec og forventet at de fikk et kort som var 4GB 256bit, og ikke 3.5GB 208bit.

Om det har så alvolig mye å si er en ting, (kliner man opp alt av filtere, så forsvinner jo VRAM fort) men når man ikke får det man betaler for så blir folk litt gæærne.

Om verden hadde vært fyllt opp med kun Nordmenn, så hadde de alle sagt "ok" med lua i handa, men andre steder så har de en liten tendens til å kan si ifra "litt mer". :wee:

For min del så bryr jeg meg ikke så veldig mye skal jeg innrømme, det er heller det at jeg syns det er synd at Nvidia bruker en uke på dette og finner ut av "det er sånn det var designet".
Artig å følge med på i allefall. :)

Endret av bshagen
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...