Gå til innhold

GeForce RTX 20** tråden


Anbefalte innlegg

Videoannonse
Annonse

Grunnen for jeg vil bytte, er at 2060 bruker mindre strøm enn 1080

PS: Har 8st, og 4 ti.

Bruker du de til folding? Med afterburner og modda voltkurve kan du fort spare nærmere 50% strøm med 10% lavere ytelse :) Vinninga går nok opp i spinninga med 2060-kort. Å vente på Navi-kortene til AND kan og være lurt om strøm er viktig, de kan potensielt bli veldig bra.
  • Liker 1
Lenke til kommentar

Bruker du de til folding? Med afterburner og modda voltkurve kan du fort spare nærmere 50% strøm med 10% lavere ytelse :) Vinninga går nok opp i spinninga med 2060-kort. Å vente på Navi-kortene til AND kan og være lurt om strøm er viktig, de kan potensielt bli veldig bra.

He he he.

Noen ganger må jeg flire av forventningene til AMD sine skjermkort, er vi forbrukerne heldige greier de å komme med noe som er konkurransedyktig, men det mest trolige er at vi får noe som er kanskje like eller litt bedre enn 2080...

Krysser fingrene for vi trenger noe som knuser NVIDIA i ytelse / pris / strømforbruk.

  • Liker 1
Lenke til kommentar

He he he.

Noen ganger må jeg flire av forventningene til AMD sine skjermkort, er vi forbrukerne heldige greier de å komme med noe som er konkurransedyktig, men det mest trolige er at vi får noe som er kanskje like eller litt bedre enn 2080...

Krysser fingrene for vi trenger noe som knuser NVIDIA i ytelse / pris / strømforbruk.

 

Nei, det vi trenger er åpent marked med god konkurranse, og at folk begynner å tenke på en annen måte angående ytelse. Og det skipet har dessverre seilt...

 

AMD har "knust" Nvidia på ytelse / pris / strømforbruk før, og det hjalp ikke markedsandelen demmes nevneverdig, hvorfor skulle neste gang være annerledes?

 

Det vi "får" nå, er et skjermkort som mest sannsynlig legger seg litt bak 2080, og dets arvtaker er heller ikke forventet før til neste år. Navi blir sikkert konkurranse dyktige i sitt/sine segmenter, men det er nok alt vi får i år. 1160/1660/Ti konkurrenter med andre ord...

Endret av Gabri3L
Lenke til kommentar

Hei

Etter 3 måneders bruk ser det ut til at mitt MSI GeForce RTX 2070 Gaming Z tok kvelden. Ser på andre forum at det er flere som har hatt slike problemer.

Noen som vet hvordan komplett håndterer det? Sender de nytt med en gang eller bruker de evigheter på feilsøking?

Ta kontakt med komplett så får du fortgang, men vet at det kan ta tiiiiiiiid.

Lenke til kommentar

Nei, det vi trenger er åpent marked med god konkurranse, og at folk begynner å tenke på en annen måte angående ytelse. Og det skipet har dessverre seilt...

Mulig jeg misforstår, men hvordan mener du folk bør tenke ift. ytelse? Om man prioriterer ytelse/krone, ytelse/watt, ytelse/watt/krone eller kun er opptatt av ytelse, koste hva det koste vil, bør vel være opp til hver enkelt? Folk er forskjellige, har ulike budsjett og grad av interesse. Det er vel ikke en tankegang som passer for alle, hver enkelt må vel kunne gå for det som gir de mest glede?

  • Liker 8
Lenke til kommentar

Mulig jeg misforstår, men hvordan mener du folk bør tenke ift. ytelse? Om man prioriterer ytelse/krone, ytelse/watt, ytelse/watt/krone eller kun er opptatt av ytelse, koste hva det koste vil, bør vel være opp til hver enkelt? Folk er forskjellige, har ulike budsjett og grad av interesse. Det er vel ikke en tankegang som passer for alle, hver enkelt må vel kunne gå for det som gir de mest glede?

Godt sagt!

Lenke til kommentar

Mulig jeg misforstår, men hvordan mener du folk bør tenke ift. ytelse? Om man prioriterer ytelse/krone, ytelse/watt, ytelse/watt/krone eller kun er opptatt av ytelse, koste hva det koste vil, bør vel være opp til hver enkelt? Folk er forskjellige, har ulike budsjett og grad av interesse. Det er vel ikke en tankegang som passer for alle, hver enkelt må vel kunne gå for det som gir de mest glede?

 

Ja, du missforstår. Jeg svarte Malvado som mente at vi "trenger" et AMD skjermkort som "knuser" Nvidias. Jeg påpekte så at AMD har hatt det tidligere, men det hjalp dem knapt i det hele tatt når det gjaldt å ta markedsandeler den gang. Så hva ville vært forskjellen ?

 

Og forøvrig, om ikke jeg også mente at folk skal få "gå for det som gir de mest glede", så hadde jeg jo vært bra hyklersk. Mange av mine venner himler med øynene og rister på hodet når de hører hvor mye jeg bruker på skjermkort. At andre har mer penger/andre prioriteringer enn meg er helt greit. Alt jeg tåpelig nok forventet meg før denne tråden, var at folk forholdt seg til pris og ytelse på en litt mer "naturlig" måte for det som tross alt bare er datamaskin komponenter.

 

Ellers, det jeg mente med at: "vi trenger er åpent marked med god konkurranse, og at folk begynner å tenke på en annen måte angående ytelse", er et ganske stort tema. Og jeg har på ingen måte løsningene. Men noe av det jeg snakker om, er at folk rett og slett ikke forstår hva "ytelse" er en gang. Nå forventer ikke jeg at alle skal forstå det heller, for det er ikke det review sidene serverer dem. Og det er altså en av tingene jeg mener trenger å endres. Gamers Nexus har såvidt begynt å ta tak i problematikken igjen, men frametime kurver blir nok dessverre litt for komplisert for mange. Så vi trenger en ny, bedre måte å få presentert dataene på. 0,1% og 1% low frametimes presentert som fps kan få med seg ekstreme tilfeller av problematisk atferd med skjermkort, men som regel maskeres det for godt også her.

 

Problemet her er altså at man kan ha for eksempel to konkurrerende skjermkort, der det skjermkortet som gir høyest gjennomsnittlig fps, likevel gir dårligst spillopplevelse. For eksempel; dersom man får 120 fps i gjennomsnitt, så har man tegnet 12 000 frames i løpet av bare 100 sekunder. La oss så si 5 av de frame'ene spredt jevnt over de 100 sekunder tok 20 ms å tegne, i motsetning til de gjennomsnittlige 8,33 ms de resterende 11 195 frame'ene tok. Da ville man opplevd spillet som irriterende hakkete ~hvert 20'ende sekund, til tross for høyere gjennomsnittlig fps enn vi normalt trenger for å oppleve bilde-flyten som silky smooth. Hvordan ville så det slått ut på 1% low frametimes? Vel om de andre 115 framene tok 8,33 ms, så ville 1% frametime falt heeelt ned til 8,82 ms. Eller sagt på en annen måte; på en review side ville resultatet bli presentert som 120 fps average, og 113,4 fps min. Men de fleste av oss vil jo lese det som bra, ikke sant?

 

Ta så det "svakere" skjermkortet, og forestill deg at det kun klarer 110 fps i gjennomsnitt. Men at ikke en eneste frame tok mer enn 10 ms å rendre. Altså at kortet aldri var nede i under 100 fps, ikke engang i en eneste frame. I en blindtest ville da de aller fleste utpekt det kortet med lavest gjennomsnittlig fps som å ha best "ytelse", og jeg ville vært enig. Fordi jeg mener god ytelse, vil være å oppnå målsetningen; å kunne spille uten å oppleve forstyrrende hakking.

 

I dette litt overdrevne eksempelet vil altså skjermkortet som til og med har lavere gjennomsnittlig ytelse enn det andre kortets 1% low, likevel være det beste skjermkortet å spille på.

 

Ellers har vi også ytelse / Watt. Og, jeg mener folk gjerne kan bruke det som argument for valg av skjermkort. Problemet er at svært få vet nok her, til å faktisk ta den vurderingen, for igjen; test sidene gir oss sjeldent den informasjonen vi trenger i brukendes format. Og jeg skulle nok også ønske folk ikke var fullt så glade i dobbelt moral. Nvidia fans brydde seg aldri om at Kepler kortene demmes holdt på å smelte. Mens når Maxwell kom, så var det plutselig det viktigste i verden; ytelse per Watt. Og selv om AMD's Radeon R9 390 hadde 4GB mer VRAM, så fikk det ikke "lov" til å bruke en eneste Watt mer enn sin nærmeste konkurrent i pris og ytelse; GTX970.

 

De kortene var faktisk det som fikk meg til å åpne øynene for feilene på review sider. Jeg la merke til i en testvideo, at AMD skjermkortet virket på meg å ha vesentlig bedre ytelse. Så hvorfor utropte "alle" GTX970 som vinner? Vel, grunnen til at jeg syntes AMD kortet virket å ha bedre ytelse, viste seg jo på sett og vis å være min egen bias: Jeg la rett og slett ikke merke til ytelsen i spill som jeg ikke brydde meg om. Så av nysgjerrighet sjekket jeg på TPU, og så at 390 kortet kun lå et par prosent foran 970. Men også at det var en haug av uoverensstemmelser mellom konklusjoner, og hva målingene faktisk sa. Tar vi ytelse per Watt som vi nå snakket om, så ser vi at i 1080p, så er GTX970 visstnok 46% bedre!  :omg:  Men hvordan kom de frem til det? Jo, det står over kurvene; de har tatt gjennomsnitts ytelsen av alle spillene, og brukt fordelings nøkkelen de kom frem til i selve effekt målings delen av testen. Men her er det en del å stusse på. Med 231W trekker altså 390 kortet ~42% mer effekt enn GTX970's 163W. Men ser vi på ytelsen i spillet de målet strøm trekket i, så ser vi at 390 kortet også er nesten 14% raskere. Så i spillet de faktisk målte strømforbruket, så er 390 kortet med sine 4,77W per frame, "kun" 24,2% mer glad i strøm, enn GTX970 med 3,84W per frame. Og vi vet faktisk ikke hvor mye strøm 390 kortet brukte i de andre spillene.

 

Men vi kunne jo også normalisert videre, ved å overklokke GTX970, slik at det yter 14% bedre. Skjønt, hvor mye strøm bruker GTX970 når det er overklokket? Nei, det var visst ikke så viktig å finne ut av i denne testen. Så faktum er, at for alt vi visste, så ville GTX970 brukt mer strøm på å gi nøyaktig samme ytelse i Crysis 3. Hvordan ville ytelse per Watt kurven sett ut om man brukte disse tallene i stedet? Nei, det fikk vi jo da ikke vite. Men det var nok av folk som likevel skråsikkert utropte GTX970 som "vinner" på grunn av bedre effektivitet.

 

Senere tok Techspot's Steven Walton en oppdatert titt på disse. Men han oppga strømforbruket som et gjennomsnitt av faktisk bruk over flere spill. Jeg tror han pleide å måle i 6 spill eller deromkring. Og da danner det seg et litt annerledes bilde: kun 37W mer, brukte R9 390 i gjennomsnitt, eller i dette tilfellet; datamaskinen brukte totalt 13% mer strøm enn med GTX970 kortet i. Men, 390 kortet var jo da også 7-8% raskere. Man kunne overklokke 970 kortet til å overta ledelsen riktignok, men da var også forskjellen i strømforbruk på kun 11W... Og som jeg var inne på tidligere; 390 kortet har faktisk 4GB mer VRAM, som utrolig nok ikke er magisk, slik at det kan klare seg uten strøm. Disse 4 GB'ene ekstra er nok i dag grunnen til at R9 390 gir 54% høyere 0,1% fps, enn GTX970 klarer i RE2. Altså i det området der de "stutter" induserende frametimes'ene gjemmer seg.

 

GTX970 var nok Nvidias mestselgende Maxwell skjermkort, og Nvidia har sikkert solgt minst 4 av det, for hvert R9 390 AMD solgte. Og det gjentok seg med RX480/580 vs GTX1060, og Vega 56 vs GTX1070. AMD solgte svært gode skjermkort, i RX480/580's tilfelle, med mer VRAM enn konkurrentens, og med mulighet for vesentlig billigere adaptive sync skjermer. Likevel stikker Nvidia av med mer og mer av markeds andelene.

 

Som jeg prøver å si; da er det ikke AMD det er noe galt med, det må nesten være oss kunder som har gått glipp av ett og annet. Og det er jo det som er det litt morsomme/tragiske: De fleste som handlet GTX970 følte sikkert at de var godt informert før kjøp; "alle" viste jo at GTX970 var best. Og i dag vet "alle" at Nvidia's GTX1060 er "best". Så som sagt: Folk må begynne å tenke på en annen måte angående ytelse. Ellers er skjermkort markedet dømt til å fortsette i sin nåværende form; ikke-fungerende...

  • Liker 3
Lenke til kommentar

Vel, en ting er sikkert og det er at salgstallene til NVIDIA sin nye serie ikke innfrir, en god del problemer med kort som tar kvelden i løpet av 1 - 4 nåneder og priser som gjør at mange, selv de som sverger til NVIDIA venter med å kjøpe.

 

De nye effektene er selvsagt kule, men jeg tror at mange spillere rett og slett forventet mer og noe mer merkbart i dagens spill. Det blir som de som argumenterte for at dx 12 ble så kult osv og fikk høre at det ikke var noen spill klare med dx 12.

I dag er situasjonen sånn at dx 12 og OpenGL med bedre grafikk er en realitet ( men fortsatt langt ifra topp) , men jeg vil påstå at de kule effektene som NVIDIA har laget skjermkortene for vil ta et år eller flere før det blir "mainstream".

Endret av Malvado
  • Liker 1
Lenke til kommentar

970 kom høsten 2014 og r390 kom sommeren 2015. Derfor kjøpte de fleste 970 ville jeg tro.

 

Folk er ikkje alltid dummere enn deg Gabri3L(e)

Samme greia med Vegs 56 og, kom over et år etter 1070. Det var vell egentl7g bare Rx480 og 1060 6gb som var sammenlignbare mtp pånår de kom ut. Ytelsa til 480 var dog litt lavere enn 1060, strømforbruket høyere og referansedesignet til AMD var ikke særlig bra mtp på støy/varme. AMD hadde egentl7g bare freesync og vulkan/dx12 (som knapt nok brukes 2.5 år senere) som fordel.
Lenke til kommentar

Et annet moment er og var at Nvidia takket være strømforbruk kunne tilby gode skjermkort til bærbare. Det siste bra skjermkortet AMD hadde til bærbare var 7970M, alle kort etter det har vært aldri for strømkrevende/varme, AMD greide heller aldri å få til en god løsning ala optimus. Bærbarsalget har stått for svært mye av gsmingsegmentet i flere år nå og der regjerer Nvidia alene. AMD har heller ikke vært i stand til å yte tredjepart-support til bærbarprodusenter. Det har ført til at f.eks Clevo som lager enormt mye maskiner har gått for Intel/Nvidia pga svært godt supportteam.

Lenke til kommentar

Nvidia og Intel har alltid vært mest safe med tanke på kompatibilitet for mainstream generelt sett. AMD er en utfordrer. De har gjort en del tiltak som gjør at fleksibiliteten til grunnarkitekturen er mer fleksibel enn Nvidia sin. Dette koster sannsynligvis noen watt i praksis. Nvidia har bygget opp et sterkere brand enn AMD og får derfor mer drahjelp av journalister og jungeltelegrafen.

 

Har ikke hatt AMD/ATI siden 9700 PRO All-in-wonder, men det kortet tok Nvidia på senga så det sang etter. Tviler på at Nvidia lar noe slikt skje igjen.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...