Gå til innhold

TEST: Nvidia RTX 2080 Founders Edition


Anbefalte innlegg

I mitt kabinett passer Founders edition men ingen planer om at dette MSI kortet passer inn. Prøvde å få inn et 1080 Gaming X og det var 2 cm for høyt til å passe inn og dybden kan vel være 1 cm lenger en Founders edition men Med 3 vifter konkurer dette med Strix kort som er for lange for kabinettet så det er ikke bare bare å kjøpe dette i stedenfor founders edition.

Lenke til kommentar
Videoannonse
Annonse

Jeg har tatt en benchmark med Shadow of Tom Raider med Nivida 2080 ti og 1080 ti, jeg fikk:


 


1080 ti - Frames rendered: 6323 Average FPS: 41


2080 ti - Frames rendered: 8181 Average FPS: 53


Alt var på maks, men Anti-Aliasing var "Off"


 


Testen var utført i 4K. 


 


Jeg synes dette var for dårlig til et skjermkort til 13500 kr som jeg betalte for 2080 ti. Jeg benyttet meg av angrefrist, og sendte det tilbake. Beholder 1080 ti mitt.


Endret av jendor1
  • Liker 3
Lenke til kommentar

 

Jeg har tatt en benchmark med Shadow of Tom Raider med Nivida 2080 ti og 1080 ti, jeg fikk:

 

1080 ti - Frames rendered: 6323 Average FFP: 41

2080 ti - Frames rendered: 8181 Average FPS: 53

Alt var på maks, men Anti-Aliasing var "Off"

 

Jeg synes dette var for dårlig til et skjermkort til 13500 kr som jeg betalte for 2080 ti, jeg benyttet meg av angrefrist. Og sendte det tilbake. Beholder 1080 ti mitt.

 

 

 

Hvilke oppløsning var det?

  • Liker 1
Lenke til kommentar

 

Var i 4K. Skrev teksten til 4K nu.

Under 30% økning er litt lite ja for pengene

 

53 - 41 = 12

( 12 / 41 ) * 100 = 29.27 %

Ja alt for lite. Jeg klarer meg fint med 1080 ti kortet mitt, og i tillegg til en pris av 13.500 kr så koster det mer enn det smaker ?

100 FPS i 4K på helt nye krevende spill skal man se lenge etter. Kanskje om om 4-6 år? ?

Endret av jendor1
Lenke til kommentar

Virker som folk ikke er klar over eller har glemt PhysicsX...

 

Nvidia snakket stort om det den gangen også og det har nå floppet noe så inni de grader.

Hva tilsier at RayTracing og DLSS ikke vil gjøre det samme?

Det er jo der problemet ligger. INGEN vet om dette blir topp eller totalt flopp.

 

Så å hoste opp - + 10k for et kort som er "meeh" kontra et 1080ti kort er for meg total mangel på is i magen.

Blir det en teknologi som blir tatt varmt imot av spill industrien og samtlige spill vil ha dette i seg. Vel er vel ikke noe som er bedre en det. Men da velger jeg også å vente for å se + da kan jeg heller legge pengene i neste generasjon RTX kort med enda bedre ytelse for da vet jeg i alle fall hva jeg får for pengene.

 

Nå legger man jo en del kroner i et meget tomt løfte fra Nvidia. De styrer jo ikke spill industrien som velger om de vil bruke det eller ikke.

 

Galskapen lenge leve sier nå jeg :/

  • Liker 1
Lenke til kommentar

Floppen til PhysX kan jo være av flere grunner : 
1 : Den ble begrenset til Nvidia sine skjermkort.
2 : De som eide et AMD kort fikk den isteden over på CPU, noe som førte til utrolig til FPS fall..

Når spillutviklere da ser at om de legger til PhysX så får de en slik effekt hos begge leirene så blir det jo litt sånn at man må vurdere om de skal legge det til i det hele tatt, spesielt når en implementering betyr at alle som har Amd kort kan få en helt udugelig opplevelse. Joda, man kan sikkert legge til mye kult i spillene, men problemet er jo at opp til 20-30 % av kundene kan sitte igjen med en opplevelse som tilsier at de enten ber om å få pengene tilbake eller blir svært skuffet.

I dag er det jo slik at flere spill har begynt å implementere Nvidia sine løsninger men på en slik måte at det er ikke behøvelig å ha de aktivert for å spille dem, eksempelvis håret og nå de nye kule effektene av siste teknologi til Nvidia. Men så kan man spørre seg hvor mye av dette vil egentlig bli brukt i det hele tatt? I verste fall så vil Nvidia eierene sitte igjen med svært dyre skjermkort som ikke yter så veldig bedre enn forrige generasjon og hvor den virkelig kule og annonserte "super duper effekten" nesten aldri blir brukt. Eller den blir brukt langt langt frem i fremtiden ( 1 - 2 - 3 ??? ) år.

Personlig har jeg fortsatt ikke noe problem med å anbefale 2080 og ti kortene, de er jo tross alt det beste man har om man har penger nok, men har man ikke det finnes det bedre alternativ avhengig av hvor mye du skal bruke.

Lenke til kommentar
Gjest Slettet+5132

Floppen til PhysX kan jo være av flere grunner : 

1 : Den ble begrenset til Nvidia sine skjermkort.

2 : De som eide et AMD kort fikk den isteden over på CPU, noe som førte til utrolig til FPS fall..

 

Når spillutviklere da ser at om de legger til PhysX så får de en slik effekt hos begge leirene så blir det jo litt sånn at man må vurdere om de skal legge det til i det hele tatt, spesielt når en implementering betyr at alle som har Amd kort kan få en helt udugelig opplevelse. Joda, man kan sikkert legge til mye kult i spillene, men problemet er jo at opp til 20-30 % av kundene kan sitte igjen med en opplevelse som tilsier at de enten ber om å få pengene tilbake eller blir svært skuffet.

 

I dag er det jo slik at flere spill har begynt å implementere Nvidia sine løsninger men på en slik måte at det er ikke behøvelig å ha de aktivert for å spille dem, eksempelvis håret og nå de nye kule effektene av siste teknologi til Nvidia. Men så kan man spørre seg hvor mye av dette vil egentlig bli brukt i det hele tatt? I verste fall så vil Nvidia eierene sitte igjen med svært dyre skjermkort som ikke yter så veldig bedre enn forrige generasjon og hvor den virkelig kule og annonserte "super duper effekten" nesten aldri blir brukt. Eller den blir brukt langt langt frem i fremtiden ( 1 - 2 - 3 ??? ) år.

 

Personlig har jeg fortsatt ikke noe problem med å anbefale 2080 og ti kortene, de er jo tross alt det beste man har om man har penger nok, men har man ikke det finnes det bedre alternativ avhengig av hvor mye du skal bruke.

Nå ble vel, og blir, PhysX skyvet ut til fordel for fysikkmotorer skrevet for compute shadere. Problemet med PhysX var at det aldri var i et standard API som OpenGL eller Direct3D (som du også nevner), så hvis man ville ha kompabilitet med AMD, måtte man skrive koden to ganger, en gang i PhysX, og så implementere fysikken selv i OpenCL etterpå for AMD.

 

Nå begynner derimot flere og flere spillmoterer å ha fysikkberegninger i OpenGL/Direct3D sine compute shadere, og da blir sluttresultatet det samme som å bruke PhysX, bare uten plattformavhengigheten.

 

Såvidt jeg vet er derimot Ray tracing støttet i Direct3d (og so extension i Vulkan?), så situasjonen er annerledes der (vel, vi får se hva AMD gjør, men regner med de også kommer med noe liknende neste år)

Lenke til kommentar

Jeg har tatt en benchmark med Shadow of Tom Raider med Nivida 2080 ti og 1080 ti, jeg fikk:

 

1080 ti - Frames rendered: 6323 Average FPS: 41

2080 ti - Frames rendered: 8181 Average FPS: 53

Alt var på maks, men Anti-Aliasing var "Off"

 

Testen var utført i 4K. 

 

Jeg synes dette var for dårlig til et skjermkort til 13500 kr som jeg betalte for 2080 ti. Jeg benyttet meg av angrefrist, og sendte det tilbake. Beholder 1080 ti mitt.

 

Disse tallene er mer i tråd med ytelsestrenden til Nvidia de siste årene. Jeg er faktisk overrasket over at du fikk så mye som 29% ytelses-forbedring. Jeg vet ikke hvordan ray-traycingen er organisert på selve kortet men kan virke som om kraften tiltenkt denne teknologien ikke er delt med resten av kortet. I en utvidet og bredere test kan det henne ytelsen havner enda lenger ned.

Lenke til kommentar

Disse tallene er mer i tråd med ytelsestrenden til Nvidia de siste årene. Jeg er faktisk overrasket over at du fikk så mye som 29% ytelses-forbedring. Jeg vet ikke hvordan ray-traycingen er organisert på selve kortet men kan virke som om kraften tiltenkt denne teknologien ikke er delt med resten av kortet. I en utvidet og bredere test kan det henne ytelsen havner enda lenger ned.

Raytracing og dlss er det tensor cores som tar seg av. 544 tensorcores har 2080ti. Egen del på gpu.

Lenke til kommentar

"Dette massive RTX 2080-kortet er overlegent Nvidias eget"

 

Synes ikke det var så veldig overlegent ett RTX 2080 Founders Edition egentlig,

eller er det bare jeg som misforstår overskriften her?

 

Ser nå ut for meg som at MSI kortet yter ca. det samme som Founders Edition.

 

 

Edit:

 

Tenkte vist først at hele testen dreide seg om kortet på bildet (MSI RTX 2080 Gaming X Trio) hehe.

Endret av Nvidia
Lenke til kommentar

"Dette massive RTX 2080-kortet er overlegent Nvidias eget"

 

Synes ikke det var så veldig overlegent ett RTX 2080 Founders Edition egentlig,

eller er det bare jeg som misforstår overskriften her?

 

Ser nå ut for meg som at MSI kortet yter ca. det samme som Founders Edition.

 

 

Edit:

 

Tenkte vist først at hele testen dreide seg om kortet på bildet (MSI RTX 2080 Gaming X Trio) hehe.

Ytelsesmessig er det 2-3% kjappere, men er vesentlig stillere under last 35 vs 40 dB, og kjører 5C lavere under last. Spesielt støyforskjellen kan være viktig for mange. Overlegen på støy\temp, ikke ytelse m.a.o :)

 

Raytracing og dlss er det tensor cores som tar seg av. 544 tensorcores har 2080ti. Egen del på gpu.

Nvidia skal ha kred for å ha prioritert å legge til nye funksjoner fremfor å peise på med mest mulig ytelse. Dog har jeg langt mer tro på DLSS enn RT siden sistnevnte gir noen katastrofale ytelsesfall i alt som er testa så langt. Det kommer sikkert ytelsesforbedringer via drivere, patcher etc, men pr nå har du i praksis valget mellom å kjøre SOTR på 4K ultra uten RT eller FullHD medium\high med RT om ytelsa vi så i demoen ikke bedrer dramatisk.

 

 

Endret av Omnia vincit amor
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...