Gå til innhold

RYKTE: Nvidia GTX 1050 og GTX 1050 Ti kommer 25. oktober


Anbefalte innlegg

Videoannonse
Annonse

Akkurat det spørsmålet er veldig interessant å få vite noe mere om. Regner med det kommer ordentlige sammenlikningstabeller etterhvert.

 

Det som er spesiellt interessant, er å få vite mer om noen av de gamle generasjonene kort holder stand i mot noen i den nye Pascal-familien. Jeg synes testene er litt spredt. Kanskje dere etterhvert kan få i stand en komplett tabell som plasserer kortene i riktig ytelsesrekkefølge i fra venstre mot høyre? Gamle som nye versjoner selvsagt. Men kortene må fremdeles være i salg, for ellers er det ikke vits å ta de med i sammenlikningen.

 

Påpek også de bonusene man får med et nytt kort.

Endret av G
Lenke til kommentar

1050ti blir jo spennende kort, men spørs om ikke 3GB 1060 uansett blir det beste kjøpet.

 

Regner man med skjerm (med freesync støtte) så er RX480 4GB det beste kjøpet. Ingen kommer i nærheten.

 

GTX1060 3GB er en "cut chip" fra 6GB versjonen. Det er ingen forskjell i ytelse mellom RX480 4GB og 8GB versjonen, kun der minne-mengden/bredden ikke rekker, som er i ytterst få spill.

 

På Komplett kan man nå få en 24" 1080p 75Hz Freesync skjerm til 1590kr (fra AOC). En RX480 4GB fra en RESPEKTABEL produsent (Sapphire) kan fås fra 1990kr på NetonNet nå. Det er en uslåelig kombinasjon i forhold til ytelse og "perceived performance" fordi Freesync skaper et mye mer flytende bildet, som gjør det deiligere å spille (i tillegg til at et slikt oppsett er mer future-proof for den dagen man skulle dyppe under 60fps for eksempel).

Det er viktig å understreke at dette er produkter til en god pris fra RESPEKTABLE produsenter (som Sapphire, MSI, ASUS, AOC osv.), fordi dersom man ser på mange av GTX1060 3GB og 6GB versjonene på Prisguide, vil man legge merke til at de billigste produktene, og det er disse som blir sammenlignet på pris med AMD sine skjermkort (som igjen er de billigste i Prisguide), så vil man se at det er langt mer kjente og respektable produsenter som nå tilbyr både RX 470 og 480 skjermkort til en god pris, mens på Nvidias side er det mindre kjente og mer tvilsomme produsenter som tilbyr de billigste GTX 1060 skjermkortene.

 

Basert på dette er min soleklare anbefaling at dersom man er i markedet for et skjermkort og en ny skjerm, så gå for AMD, og gjerne de eksemplene jeg ga ovenfor, ettersom begge disse produktene er fra respektable produsenter.

Og husk, det hjelper ikke å kjøpe et lekkert skjermkort som pumper ut herlig grafikk, dersom skjermen man spiller på ikke er istand til å vise frem grafikken på den beste måten. Samme gjelder forsåvidt for lyd, men det kan tas siden. :)

  • Liker 1
Lenke til kommentar

 

1050ti blir jo spennende kort, men spørs om ikke 3GB 1060 uansett blir det beste kjøpet.

Regner man med skjerm (med freesync støtte) så er RX480 4GB det beste kjøpet. Ingen kommer i nærheten.

 

GTX1060 3GB er en "cut chip" fra 6GB versjonen. Det er ingen forskjell i ytelse mellom RX480 4GB og 8GB versjonen, kun der minne-mengden/bredden ikke rekker, som er i ytterst få spill.

 

På Komplett kan man nå få en 24" 1080p 75Hz Freesync skjerm til 1590kr (fra AOC). En RX480 4GB fra en RESPEKTABEL produsent (Sapphire) kan fås fra 1990kr på NetonNet nå. Det er en uslåelig kombinasjon i forhold til ytelse og "perceived performance" fordi Freesync skaper et mye mer flytende bildet, som gjør det deiligere å spille 

 

Det er ikke nødvendigvis bare "perceived performance" som gjør seg gjeldende. Det kan rett og slett bli reellt bedre performance med AMD. selv om Nvidia kortet er raskere på "papiret".

 

Adaptive sync (som f.eks. Freesync) er egentlig veldig enkelt å både forstå og forklare. Det er faktisk de gamle sync metodene som trenger utdypning for å formidle hvor mye bedre adaptive sync er.

 

La oss ta et tenkt eksempel: Et Nvidia skjermkort klarer å lage f.eks. 55fps i et spill. Mens et AMD skjermkort klarer "bare" 50fps med samme grafikk nivå innstillinger (Nvidia kortet i eksempelet er altså 10% raskere).

 

Med AMD skjermkortet og en Freesync skjerm, så får man faktisk alle 50fps frem på skjermen. Men med Nvidia skjermkortet må man (uten G-Sync skjerm, altså gjerne en vanlig 60Hz skjerm) skru av VSync for å få frem på skjermen de 55fps som den kan produsere. Men det gir jo som kjent "screen tearing", og man kan jo diskutere om noe som ødelegger bildet i slik grad kan sies å være samme grafikk nivå som AMD kortet med Freesync.

 

Skrur man på VSync på Nvidia kortet for å få bort "screen tearing". Så vil skjermkortet forsøke å sende et nytt bilde til skjermen hver gang den oppdaterer seg. Og begynne å lage et nytt bilde. Problemet er at 55fps gir (1000ms/55fps) 18,2ms per frame. Mens en 60Hz skjerm oppdaterer seg hvert 16,7ms. Altså vil som regel ikke en frame rekke å bli tegnet ferdig før neste oppdatering. Plutselig sitter man altså med 30fps fremvist med det "raskeste" skjermkortet. Mot 50fps fremvist med det "tregeste" kortet.

 

Med Nvidia må man altså i dette eksempelet gå ned på grafikk kvaliteten for å komme seg under 16,7ms i gjennomsnitt per frame, slik at man får over 60fps. Men med AMD kortet kan man nyte bedre grafikk, og jevn framerate.

 

Nvidia har andre innstillings muligheter som for eksempel den nye "fast sync". Som vil bedre antall frames fremvist (skjønt noen frames vil da bare kastes i søpla uten å bli fremvist). Men da kommer virkelig "perceived performance" inn i bildet. For man vil innimellom få frames som ble tegnet ferdig "nylig" på skjermen, etterfulgt av "gamle" frames. Noe som vil gi "jittering" i bildet, selv om fps fremvist nå kanskje er identisk i antall med AMDs alternativ. Så selv med identisk "ytelse" vil da AMD skjermkortet gi den beste spill opplevelsen.

 

Det virker som mange enda ikke har fått med seg at "slagmarken" har flyttet seg over på skjermvalg også. Og at i budsjett segmentet er det AMD som eier "alt". Om ikke Nvidia snart kommer med en G-Sync skjerm for "massene", så risikerer de å miste hele budsjett markedet takket være Freesync. Ellers er det bare merkenavnet deres som kan redde dem, så det blir spennende å se hvor sterkt det egentlig er..

  • Liker 1
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...