Gå til innhold

Så kraftige er Nvidias nye RTX 20-kort


Anbefalte innlegg

OK. Ikke noe definitivt svar på hva det faktisk gjør ennå altså. 

Vanlig AA betyr at man trekker ressurser fra prosesser som ellers hadde jobbet med rastoriseringen av spillet, mens nå foregår det altså separat samt samtidig. Det i seg selv betyr jo økt ytelse. Så er det i tillegg snakk om mer gjenkjennelse enn sammenligning av nabo-pixler for å komme med AA, igjen økt ytelse. 

Lenke til kommentar
Videoannonse
Annonse

Vanlig AA betyr at man trekker ressurser fra prosesser som ellers hadde jobbet med rastoriseringen av spillet, mens nå foregår det altså separat samt samtidig. Det i seg selv betyr jo økt ytelse. Så er det i tillegg snakk om mer gjenkjennelse enn sammenligning av nabo-pixler for å komme med AA, igjen økt ytelse. 

 

Ja, det er vel mer eller mindre det jeg sa. Men om man da velger å spille spill i 4K uten AA, så blir jo ikke ytelsesøkningen så stor. Spesielt ikke om man har et 1080Ti. Klart, men kan jo heller ikke bruke RTX features på 1080Tien. 

Lenke til kommentar

Ja, det er vel mer eller mindre det jeg sa. Men om man da velger å spille spill i 4K uten AA, så blir jo ikke ytelsesøkningen så stor. Spesielt ikke om man har et 1080Ti. Klart, men kan jo heller ikke bruke RTX features på 1080Tien. 

Deep Learning algoritmene er på forhånd funnet ut av. Det er AI i en supercomputer som har prosessert milliarder på milliarder av bilder, hvor den har skrevet bilder med feil, på feil, på feil, før den plutselig "skjønner" det og klarer å oppskalere et bilde til å bli et bedre bilde i høyere oppløsning. Denne algoritmen har altså RTX 2070-80 TI fått, og det vil ikke være mulig å bruke samme algoritme i 1080 TI i sanntid. 

 

Det som skjer her er rett og slett "consumer grade" hardware som drar nytte av supercomputere ved å prosessere algoritmer som er ferdig skrevet og selv-laget av en Deep Learning AI innenfor en prosessor kjerne som er rask nok til å utføre den slik at vi kan bruke det som en super sampler til spill i sanntid. 

 

Når du velger å spille i 4K, kan kan det i realiteten kun være i 1440p, men pga DLSS så outputter den 4K bilder. 

Lenke til kommentar

Ja, det er vel mer eller mindre det jeg sa. Men om man da velger å spille spill i 4K uten AA, så blir jo ikke ytelsesøkningen så stor. Spesielt ikke om man har et 1080Ti. Klart, men kan jo heller ikke bruke RTX features på 1080Tien. 

Det jeg er skeptisk til, er at ytelsen øker jo ikke i så måte. Du må i tilfelle skru på en eller annen form for krevende AA, f.eks. SS, for at ytelsesdeltaet skal bli så stort som nvidia sier at det er. Men, virker som flere her også er usikker på hva det er den nye AA-modusen gjør. Det forutsetter jo også at spill får støtte for det. Godt mulig at mange spill vil komme med støtte for det, men, hvor mange spill er ikke allerede på markedet som ikke har støtte for det? Vil de noen gang få støtte for det? De aller aller fleste vil jo ikke det, siden det krever en patch for å få det fikset.

 

Ergo blir det feil å bruke 2x tallene til nvidia som referanse, men heller som unntak i spill som støtter det. Jeg klarer heller ikke å se at ytelsen øker, da det krever at man ville brukt en sykt krevende AA på et 1080 kort i 4K. Noe ingen ville gjort.

Lenke til kommentar

Deep Learning algoritmene er på forhånd funnet ut av. Det er AI i en supercomputer som har prosessert milliarder på milliarder av bilder, hvor den har skrevet bilder med feil, på feil, på feil, før den plutselig "skjønner" det og klarer å oppskalere et bilde til å bli et bedre bilde i høyere oppløsning. Denne algoritmen har altså RTX 2070-80 TI fått, og det vil ikke være mulig å bruke samme algoritme i 1080 TI i sanntid. 

 

Det som skjer her er rett og slett "consumer grade" hardware som drar nytte av supercomputere ved å prosessere algoritmer som er ferdig skrevet og selv-laget av en Deep Learning AI innenfor en prosessor kjerne som er rask nok til å utføre den slik at vi kan bruke det som en super sampler til spill i sanntid. 

 

Når du velger å spille i 4K, kan kan det i realiteten kun være i 1440p, men pga DLSS så outputter den 4K bilder. 

Ok. Da gjenstår det å se om det ser såpass bra ut at man opplever det som ekte 4K eller ikke.

Lenke til kommentar

Ok. Da gjenstår det å se om det ser såpass bra ut at man opplever det som ekte 4K eller ikke.

Man vil uansett få en "performence boost" siden dette ikke foregår på kjernene som sørger for rastoriseringen av spillet for rendring. 

Det foregår samtidig. 

 

Problemet med AA/SS har jo alltid vært at man må ofre ressurser for å få det. Det må man ikke nå. 

Lenke til kommentar

Man vil uansett få en "performence boost" siden dette ikke foregår på kjernene som sørger for rastoriseringen av spillet for rendring. 

Det foregår samtidig. 

 

Problemet med AA/SS har jo alltid vært at man må ofre ressurser for å få det. Det må man ikke nå. 

 

Men om man sammenligner et 1080-kort som kjører i 4K, uten noen form for AA og kjører også RTX 2080 i 4K, så vil jo ikke forskjellen være så stor. Støtter spillet DLSS, så kan man jo skru på det. Men kan man da spille i 4K på 2080 og da få det supersampled opp til en enda høyere res enn 4K, gratis?

 

Mange spørsmål fra min side. Synes tallene fra nvidia er vel optimistiske, når det er veldig få spill som vil støtte DLSS nå i starten. Ergo må man sammenligne uten DLSS dersom det skal være rettferdig.

Lenke til kommentar

Men om man sammenligner et 1080-kort som kjører i 4K, uten noen form for AA og kjører også RTX 2080 i 4K, så vil jo ikke forskjellen være så stor. Støtter spillet DLSS, så kan man jo skru på det. Men kan man da spille i 4K på 2080 og da få det supersampled opp til en enda høyere res enn 4K, gratis?

 

Mange spørsmål fra min side. Synes tallene fra nvidia er vel optimistiske, når det er veldig få spill som vil støtte DLSS nå i starten. Ergo må man sammenligne uten DLSS dersom det skal være rettferdig.

I praksis ja. VR vil nok kjøre god nytte av DLSS f.eks. 

  • Liker 2
Lenke til kommentar

 

 

 

 

 

 

Ja, det er vel mer eller mindre det jeg sa.

Men om man da velger å spille spill i 4K uten AA, så blir jo ikke ytelsesøkningen så stor.

Spesielt ikke om man har et 1080Ti.

Klart, men kan jo heller ikke bruke RTX features på 1080Ti'en.

 

 

 

 

Det jeg er skeptisk til, er at ytelsen øker jo ikke i så måte.

Du må i tilfelle skru på en eller annen form for krevende AA.

Som f.eks. SS, for at ytelsesdeltaet skal bli så stort som nvidia sier at det er.

Men, virker som flere her også er usikker på hva det er den nye AA-modusen gjør.

Det forutsetter jo også at spill får støtte for det.

Godt mulig at mange spill vil komme med støtte for det.

Men hvor mange spill er ikke allerede på markedet som ikke har støtte for det?

Vil de noen gang få støtte for det?

De aller aller fleste vil jo ikke det, siden det krever en patch for å få det fikset.

 

Ergo blir det feil å bruke 2x tallene til nvidia som referanse, men heller som unntak i spill som støtter det.

Jeg klarer heller ikke å se at ytelsen øker, da det krever at man ville brukt en sykt krevende AA på et 1080 kort i 4K.

Noe ingen ville gjort.

 

 

 

- I definitely would...

Ikke det at jeg har hatt anledningen til å teste det ut med UHD ennå.

Men jeg har for vane å Max'e ut settningene i både spill og i windows.

 

Min egne lille "Dial it up to eleven"-test, so to speak.

Som jeg på sett og vis etterlyste i et annet innlegg lengre oppe i tråden.

 

Ytelses resultatene blir mer enn ofte avskrekkende for folk flest.

Men alikevel interesant å se forskjellen ved bytte av f.eks. skjermkort.

 

For meg er "Min-FPS" veldig vesentlig.

Det er for så vidt "Max-FPS" også, siden disse danner grunnlaget for "Mean-Average-FPS".

Og det viser et slags bilde av potensiell "Stuttering" og "Micro-Stuttering".

 

Noe som er vesentlig for folk uten "G-Sync" eller "Free-Sync".

Da er kraften i maskinen desto mer avgjørende i så måte.

Lenke til kommentar

Forhåndsbestilt! Jesus, gleder meg! Blir en bra oppgradering fra 780 ti til 2080ti.

Tipper du kommer til å merke en VISS ytelsesforbedring. :-) Men jeezez for en prislapp. Er jo helt latterlig. Synes det er drøyt å betale mer enn 3k for skjermkort jeg, men det holder ikke til xx70 engang lengre. Har 970 selv og storfornøyd. Må nesten være det. Blir skilsmisse om jeg hadde bestilt 2080ti hehe

Lenke til kommentar

Det er en merkelig måte å tenke på. Det er helt naturlig at ytelsen utvikler seg over tid, og tradisjonelt sett så får vi bedre ytelse til tilsvarende prislapp. Skulle vi fulgt din logikk så burde jo alt av hardware kostet langt mer enn det gjør i dag ettersom det har bedre ytelse enn det hadde for X-antall år siden osv..

  • Liker 3
Lenke til kommentar

Det er ikke dyrt, se første genrasjon titan kostet 7000-8000 kr, den hadde under halvparten av ytelsen.

Da hadde man ikke mye valg. Men det som er dyrt er prisen faller halv pris på brukt om 1-2 år.

Så er nok smartest å kjøpe brukt gtx 1080 nå.

2X ASUS GeForce GTX 1080 ROG Strix Gaming

 

Er et veldig bra kjøp.

 

 

Det er en merkelig måte å tenke på. Det er helt naturlig at ytelsen utvikler seg over tid, og tradisjonelt sett så får vi bedre ytelse til tilsvarende prislapp. Skulle vi fulgt din logikk så burde jo alt av hardware kostet langt mer enn det gjør i dag ettersom det har bedre ytelse enn det hadde for X-antall år siden osv..

Dette. Ser nevnte resonnement ofte. Går man tilbake en god stubb i tid, gjør en grov ekstrapolering av ytelse og pris, samt justerer for inflasjon, så må en nok velge mellom en bil eller et skjermkort! Når det er sagt, synes jeg heller ikke at det er relevant å trekke paralleller mellom Titan og Geforce som burde representere nokså ulike prisklasser.

 

I mine øyne er det største problemet i nyere tid prisøkningen i mellomsjikt. Går vi tilbake omtrent 10 år, da markedet var langt unna de tilstandene vi har i dag, var bildet nokså annerledes. Selv da Nvidia hadde et overtak med lanseringen av Geforce 8000 serien, var det mulig å få entusiast/kort i øvre sjikt til en OK pris. Man kunne punge ut det som ble betraktet som en formue for 8800 Ultra, en betraktelig, men overkommelig sum for GTX (mer eller mindre likt, med lavere frekvens), eller en noe mindre for GTS versjonen. Disse var derimot alle basert på samme store brikke (G80 - 484mm2). Bare litt senere ble det lansert et mellomklassekort 8800GT som ytet temmelig nært, i klassen rundt 2000 kr.

 

Segmenteringen mellom RTX og GTX tar denne trenden til et nytt nivå. Det er synd at et skjermkort fra relativt høyt sjikt gjerne kan utgjøre en kostnad ca lik summen av de andre komponentene i en ny maskin i dag.

  • Liker 2
Lenke til kommentar

Dollarkursen hjelper jo ikke til - jeg var i USA da amd 7970 kortene kom, og plukket opp et par av disse med kurs under 6. Hadde vært vesentlig mindre støy nå om 2080 ti var under 10.000 tror jeg.

 

Bare å kjøpe 1080/ti brukt nå for en god deal

Det er ikke bare dollarkursen. 1000-1200 dollar for et Ti-kort er mye penger, og det er en heftig økning fra forrige gen.

  • Liker 1
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...