Gå til innhold

Vi ga testbenken noen 4K-spill å tygge på...


Anbefalte innlegg

 

 

Igjen er det nVidia som er kortet å gå for.

 

Ati/AMD er akterutseilt atter en gang.

 

Hvordan det? 290x koster halvparten av GTX 980 men er nesten like god på 4k

 

GTX 980 er riktig nok overpriset, men GTX 970 er jevnt over et bedre valg enn R9 290X.

Og om to dager kommer GTX 980Ti, og da ser du hvorfor AMD har seilt akterut.

 

 

Et kort som kom ut i 2013 vs et helt nytt kort... Ta heller 390x og sammenlign det med 980TI

 

Edit: om ikke 390x bare er en rebrand, da er det jo ikke like spennende.

Endret av FrihetensRegn
  • Liker 1
Lenke til kommentar
Videoannonse
Annonse

Kva gjer eit spill til eitt "4K spill"?

4K er fire ganger Full HD,

4 ganger HD er 2560x1440

 

Full HD blir noen ganger referert som som 2K, pga horisontal 1920px (som er ganske nærme 2k), men faller akuratt utenfor. UHD blir noen ganger referert som 4k pga oppløsningen 3840 × 2160.

 

De rette oppløsningene er egentlig 2048 × 1080 for 2k (DCI 2K) og 4096 × 2160 for 4K (DCI 4K).

  • Liker 1
Lenke til kommentar

--snip--

 

AA er minst like viktig med høyere oppløsning. Flere pikseler eliminerer ikke aliasing. Uten AA får bildet en plagsom "flimreeffekt" ved bevegelser.

 

Flere piksler eliminerer ikke aliasing, men økt pikseltetthet hjelper i stor grad. Aliasing oppstår pga linjer/streker/mønstre som går på skrå av "linjene" av piksler i en skjerm -- altså en rett linje blir som en "trapp". Denne "trapp-effekten" vil oppleves som flimring når bildet beveges. Når pikslene blir små nok, og pikseltettheten blir høy nok, er ikke dette lenger merkbart - og aliasing er ikke lenger et tema.

 

Min egen erfaring etter 6mnd med 4k skjerm, er at den _eneste_ merkbare effekten av AA er lavere fps.. (28" 4k - asus pb287q) :)

Lenke til kommentar

 

 

Kva gjer eit spill til eitt "4K spill"?

4K er fire ganger Full HD,

4 ganger HD er 2560x1440

 

 

'4K' refererer til at enheten eller innholdet har en horisontal oppløsning i 4000-piksel klassen. Helt spesifikt er 4K oppløsning definert som 4096 x 2160 piksler.

 

Rent teknisk så er 4k alt med horisontal oppløsning mellom 3840 og 4799 piksler for TV, mellom 4096 og 5119 piksler for Kino,og mellom 4000 og 5000 piksler for Matte.

 

Dette med forbindelsen mellom k-verdi og oppløsning har blitt diskutert opp i mente...,og der finnes mange synspunkter om akkurat dette.

 

Opp gjennom årene så har jeg sett mange eksempler på bruken av både TV-standarden og Kino-Standarden ved valg av opp løsning innen spill og programmer.

 

Har til dags dato ikke sett horisontale oppløsninger som har 1000,2000,3000,4000,eller 5000 piksler.

 

Oppløsningen 4096 x 2160 piksler er kalt DCI-4k.

Lenke til kommentar

 

 

 

 

Igjen er det nVidia som er kortet å gå for.

 

Ati/AMD er akterutseilt atter en gang.

 

Hvordan det? 290x koster halvparten av GTX 980 men er nesten like god på 4k

 

GTX 980 er riktig nok overpriset, men GTX 970 er jevnt over et bedre valg enn R9 290X.

Og om to dager kommer GTX 980Ti, og da ser du hvorfor AMD har seilt akterut.

 

 

Et kort som kom ut i 2013 vs et helt nytt kort... Ta heller 390x og sammenlign det med 980TI

 

Edit: om ikke 390x bare er en rebrand, da er det jo ikke like spennende.

Det er veldig høy fanboy faktor på tek.no :)

  • Liker 1
Lenke til kommentar

 

 

Igjen er det nVidia som er kortet å gå for.

 

Ati/AMD er akterutseilt atter en gang.

 

Hvordan det? 290x koster halvparten av GTX 980 men er nesten like god på 4k

GTX 980 er riktig nok overpriset, men GTX 970 er jevnt over et bedre valg enn R9 290X.

Og om to dager kommer GTX 980Ti, og da ser du hvorfor AMD har seilt akterut.

Men 300 serien til AMD kommer om ca 2 uker. Da får vi svar på om AMD henger etter nvidia.

  • Liker 1
Lenke til kommentar

Nå er det flere her som bør ta seg en bolle :

 

R9 290X yter litt bedre enn 970 i 2 Tester.

R9 290X yter bedre enn 980 i 1 test.

 

Forskjellene er ganske marginale , omtrent 3-4 fps , men nok til at noen av kortene greier å holde seg under 30 fps mens de andre ligger over.

 

Dette er da et skjermkort som ble introdusert i September 2013 kontra Nvidia sine skjermkort som ble lansert i September 2014 og selv om sistenevnte har en bedre ytelse / TDP så er ikke akkurat denne spesielt mye bedre når vi går opp i oppløsning. På lavere oppløsning ser man jo selvsagt at Nvidia yter bedre , men kortene er ikke "jevnt" bedre på absolutt alt og noe av dette kan også skyldes bedre spillstøtte for nettopp Nvidia kortene. 

Om noe burde man egentlig være litt imponert over at Amd sine kort fortsatt greier å henge med , selv om de ikke er på topp , tar man med spillpakken som man kan få med på kjøpet, ( er litt begrenset desverre her i Norge og avhengig av hvem som selger dem) er et kjøp til 2642kr + 3 spill absolutt ikke så dårlig kjøp som mange her på død og liv ønsker å få oss til å tro, når dette kortet tross alt blir utkonkurrert av et kort som koster over 4k og som yter marginalt bedre i noen spill i 4k og en del bedre på lavere oppløsning.

 

Tar man med støtte for åpne standarer som Freesync , at Amd med Mantle fikk litt fart i Microsoft sin utvikling av DX12 og at man derfor nå kanskje slipper en del av begrensningene til Dx10 /11 osv så kan man ikke fortsette å påstå at Amd sitt bidrag på skjermkortmarkedet er så dårlig som noen vil ha oss til å tro.

Endret av Malvado
  • Liker 7
Lenke til kommentar

 

skal gå over til 4k når : prisen på skjermkort som kan produsere 120 fps er lav nok.

skjermene som er bra koster lavt nok.

 

intil da koser jeg meg med HD oppløsning og 120 fps på min benq 24 tommer......

 

Koser meg med 250fps jeg.

Hva for en dataskjerm er det du har som oppdaterer i 250hz ? Forsåvidt også kabel og oppløsning du bruker.

 

TVer pleier å skryte på seg høyere oppdateringsfrekvens, uten at du i realiteten får utnyttet dette.

  • Liker 2
Lenke til kommentar

Tragiske ytelser. Er det noen PC spillere som virkelig er interessert i å ofre brukbar FPS til fordel for tvilsom 4k? Jeg sier tvilsom fordi at en god skjerm pluss AA skrudd på veldig høy eller max vil gi en veldig god opplevelse uten å drepe frameraten.

Og alt dette på en rigg med flaggskip-skjermkort...

For de som har kjøpt 120Hz+ skjerm for å kunne spille slik at man unngår å spy pga hakkingen etter bare noen timer, så blir dette en skikkelig letdown.

Nokså i samme kategorien som å bruke flere skjermer som om det finnes noen som kan fokusere på mer en en skjerm samtidig.

Og hva er kuren med dagens teknologi? Kjøpe 2 eller flere skjermkort, PSU med 1500+ watts ytelse etc for å kunne drive dette?

 

For tidlig med 4k spill, alt for tidlig.

  • Liker 1
Lenke til kommentar

Tragiske ytelser. Er det noen PC spillere som virkelig er interessert i å ofre brukbar FPS til fordel for tvilsom 4k? Jeg sier tvilsom fordi at en god skjerm pluss AA skrudd på veldig høy eller max vil gi en veldig god opplevelse uten å drepe frameraten.

Og alt dette på en rigg med flaggskip-skjermkort...

For de som har kjøpt 120Hz+ skjerm for å kunne spille slik at man unngår å spy pga hakkingen etter bare noen timer, så blir dette en skikkelig letdown.

Nokså i samme kategorien som å bruke flere skjermer som om det finnes noen som kan fokusere på mer en en skjerm samtidig.

Og hva er kuren med dagens teknologi? Kjøpe 2 eller flere skjermkort, PSU med 1500+ watts ytelse etc for å kunne drive dette?

 

For tidlig med 4k spill, alt for tidlig.

 

Jeg antar at vi trenger 2 generasjoner til før ytelsen blir merkbart bedre med 4k , DX12 og bedre utnyttelse av skjermkort og minne må på plass for at dette skal skje.

Den nye HBM minnetypen og fremtidlige arkitekturendringer blir nok med på å øke ytelsen betraktelig , blir spennende å se og med W10 så vil trolig også DX oppdateringene komme uten at man behøver å bytte Os.

Lenke til kommentar

Foretrekker heller 3 stk skjermer med 1200p enn 1 stk i 4k. Det er litt mindre antall piksler totalt (6,9 MP vs. 8,3 MP), men til gjengjeld får man et mye større horistontalt synsfelt. Mine 2x R9 290 i crossfire har forøvrig ingen krasjproblemer i de spillene som 295x2 hadde i testen, så er egentlig noe forundret over resultatet der. Legitreviews hadde ingen problemer med 295x2 i de samme spillene i 4K, så her er det noe som ikke stemmer (drivere, patcher, innstillinger e.l kanskje rett og slett et dårlig kort - fiks og kjør testen på nytt). Mikrostutter er forøvrig heller ikke noe stort problem med AMD etter at de kuttet ut crossfire-broen for å bruke PCIe i stedet.

  • Liker 1
Lenke til kommentar

Et kort som kom ut i 2013 vs et helt nytt kort... Ta heller 390x og sammenlign det med 980TI

 

Edit: om ikke 390x bare er en rebrand, da er det jo ikke like spennende.

Nvidia har allerede rullet ut Maxwell fra low-end opptil Titan X (med unntak av ultra low-end), alle disse utklasserer AMD.

 

Det hevdes at nesten hele kommende "generasjon" fra AMD blir rebrands/re-bins, med en arkitektur som er tre år gammel, og de få brikkene som er nyere er ikke store forbedringer arkitekturmessig.

 

At R9 290X er et eldre kort enn GTX 970 er ingen unnskyldning, vi må sammenligne det som finnes på markedet. Slik det er nå er GTX 970 jevnt over et bedre kjøp, med unntak av spesifikke krav.

 

 

--snip--

 

AA er minst like viktig med høyere oppløsning. Flere pikseler eliminerer ikke aliasing. Uten AA får bildet en plagsom "flimreeffekt" ved bevegelser.

Flere piksler eliminerer ikke aliasing, men økt pikseltetthet hjelper i stor grad. Aliasing oppstår pga linjer/streker/mønstre som går på skrå av "linjene" av piksler i en skjerm -- altså en rett linje blir som en "trapp". Denne "trapp-effekten" vil oppleves som flimring når bildet beveges. Når pikslene blir små nok, og pikseltettheten blir høy nok, er ikke dette lenger merkbart - og aliasing er ikke lenger et tema.

 

Aliasing skjer pga. sampling til en raster-matrise. Mange tenker at "kantutjevning" primert omhandler kanter på objekter, men det er bare det minste problemet. Aliasing langs en tynn linje er ingenting i forhold til aliasing i store flater pga. høyoppløste teksturer. Slik det er i dag må teksturer gjerne samples ned og interpoleres for å unngå flimmer. Hverken 4K, 5K, 8K eller 10K reduserer behovet for AA, tvert imot, hvis høyre oppløsning betyr høyere oppløste teksturer så vil AA bli mer viktig. Hvis oppløsning skal "eliminere" aliasing må oppløsningen være mange ganger høyere enn teksturen slik at det oppnås mange samples per texel, og da snakker vi om ~256K-skjerm, som neppe kommer med det første...

 

Dette er da et skjermkort som ble introdusert i September 2013 kontra Nvidia sine skjermkort som ble lansert i September 2014 og selv om sistenevnte har en bedre ytelse / TDP så er ikke akkurat denne spesielt mye bedre når vi går opp i oppløsning. På lavere oppløsning ser man jo selvsagt at Nvidia yter bedre , men kortene er ikke "jevnt" bedre på absolutt alt og noe av dette kan også skyldes bedre spillstøtte for nettopp Nvidia kortene. 

Om noe burde man egentlig være litt imponert over at Amd sine kort fortsatt greier å henge med , selv om de ikke er på topp , tar man med spillpakken som man kan få med på kjøpet, ( er litt begrenset desverre her i Norge og avhengig av hvem som selger dem) er et kjøp til 2642kr + 3 spill absolutt ikke så dårlig kjøp som mange her på død og liv ønsker å få oss til å tro, når dette kortet tross alt blir utkonkurrert av et kort som koster over 4k og som yter marginalt bedre i noen spill i 4k og en del bedre på lavere oppløsning.

R9 290X var et kort som skulle konkurrere mot Nvidias toppmodeller som GTX 780/780Ti. Det er fremdeles AMDs toppmodell(singel-GPU) og klarer å henge med Nvidias øvre middelklassekort og det er imponerende? Gjennom tidene har det ofte vært slik at forrige toppmodell ligger på nivå med neste middelklassekort, men forskjellen denne gangen er at AMD fremdeles ikke har noe nytt toppkort, og at alle kortene under er opptil tre år gamle. I mellomtiden har Nvidia byttet arkitektur, og det er under et år til de gjør det igjen.

 

Tar man med støtte for åpne standarer som Freesync , at Amd med Mantle fikk litt fart i Microsoft sin utvikling av DX12 og at man derfor nå kanskje slipper en del av begrensningene til Dx10 /11 osv så kan man ikke fortsette å påstå at Amd sitt bidrag på skjermkortmarkedet er så dårlig som noen vil ha oss til å tro.

Nå var Mantle basert på planer om Direct3D 12, ikke motsatt. Mantle har heller ikke gjort det store for spill, det er hovedsaklig svake (AMD-)CPUer som har fått litt gevinst av spillene som har vært spesialdesignet med Mantle. Hurra for åpne standarder. Mantle er ikke mer enn et PR-stunt fra AMD og en fotnote i historien.

 

Jeg antar at vi trenger 2 generasjoner til før ytelsen blir merkbart bedre med 4k , DX12 og bedre utnyttelse av skjermkort og minne må på plass for at dette skal skje.

Den nye HBM minnetypen og fremtidlige arkitekturendringer blir nok med på å øke ytelsen betraktelig , blir spennende å se og med W10 så vil trolig også DX oppdateringene komme uten at man behøver å bytte Os.

Det som må til for 4K er nær fire ganger så høy regnekraft, eventuelt mer effektive rendering-teknikker. Hverken Direct3D 12 eller HBM vil gjøre stort med det. Direct3D 12 reduserer litt API-overhead som hovedsaklig reduserer CPUen som flaskehals, men det gjør lite med regnekraften til GPUen eller hvor smart GPUen utnyttes.

 

HBM og høyere minnebåndbredde vil ikke gi bedre ytelse til noe vi har, det handler derimot om at GPUen kan bruke minnet annerledes og mer komplekse oppgaver kan løses, det hjelper fint lite om GPUen er flaskehalsen.

Lenke til kommentar

Nå er det flere her som bør ta seg en bolle :

 

R9 290X yter litt bedre enn 970 i 2 Tester.

R9 290X yter bedre enn 980 i 1 test.

 

Forskjellene er ganske marginale , omtrent 3-4 fps , men nok til at noen av kortene greier å holde seg under 30 fps mens de andre ligger over.

 

Dette er da et skjermkort som ble introdusert i September 2013 kontra Nvidia sine skjermkort som ble lansert i September 2014 og selv om sistenevnte har en bedre ytelse / TDP så er ikke akkurat denne spesielt mye bedre når vi går opp i oppløsning. På lavere oppløsning ser man jo selvsagt at Nvidia yter bedre , men kortene er ikke "jevnt" bedre på absolutt alt og noe av dette kan også skyldes bedre spillstøtte for nettopp Nvidia kortene. 

Om noe burde man egentlig være litt imponert over at Amd sine kort fortsatt greier å henge med , selv om de ikke er på topp , tar man med spillpakken som man kan få med på kjøpet, ( er litt begrenset desverre her i Norge og avhengig av hvem som selger dem) er et kjøp til 2642kr + 3 spill absolutt ikke så dårlig kjøp som mange her på død og liv ønsker å få oss til å tro, når dette kortet tross alt blir utkonkurrert av et kort som koster over 4k og som yter marginalt bedre i noen spill i 4k og en del bedre på lavere oppløsning.

 

Tar man med støtte for åpne standarer som Freesync , at Amd med Mantle fikk litt fart i Microsoft sin utvikling av DX12 og at man derfor nå kanskje slipper en del av begrensningene til Dx10 /11 osv så kan man ikke fortsette å påstå at Amd sitt bidrag på skjermkortmarkedet er så dårlig som noen vil ha oss til å tro.

Artig å se at gammel teknologi er gjevnbyrdes med en ny generasjon av nvidia^^ 300 serien til AMD vil nok spille 4k uten problemer :) AMD viser styrke i høye oppløsninger nok en gang! At dem er pådriver for HBM og DX12, viser at dem gir oss mer enn det nvidia horden vil innrømme :) Dem klagde over at R9 200 serien var en rebrand når den kom ut, men de var nok ikke klar over at 700 serien til nvidia var også en rebrand^^

Endret av Koven
Lenke til kommentar

 

Et kort som kom ut i 2013 vs et helt nytt kort... Ta heller 390x og sammenlign det med 980TI

 

Edit: om ikke 390x bare er en rebrand, da er det jo ikke like spennende.

Nvidia har allerede rullet ut Maxwell fra low-end opptil Titan X (med unntak av ultra low-end), alle disse utklasserer AMD.

 

Det hevdes at nesten hele kommende "generasjon" fra AMD blir rebrands/re-bins, med en arkitektur som er tre år gammel, og de få brikkene som er nyere er ikke store forbedringer arkitekturmessig.

Blir ikke det litt flaut for nvidia, når en flere år gammel teknologi fra AMD ikke har noe problem med ytelsen til nvidia sin nye arkitektur?

  • Liker 2
Lenke til kommentar

Blir ikke det litt flaut for nvidia, når en flere år gammel teknologi fra AMD ikke har noe problem med ytelsen til nvidia sin nye arkitektur?

Det er da ingen tvil om at GCN sliter mot Maxwell, og AMD sliter mot Nvidias mid-range-kort. Jeg kan ikke fatte hvordan du bygger et resonnement hvor dette skal være flaut for Nvidia, det er da en kjempeflause for AMD.

Lenke til kommentar

 

Blir ikke det litt flaut for nvidia, når en flere år gammel teknologi fra AMD ikke har noe problem med ytelsen til nvidia sin nye arkitektur?

Det er da ingen tvil om at GCN sliter mot Maxwell, og AMD sliter mot Nvidias mid-range-kort. Jeg kan ikke fatte hvordan du bygger et resonnement hvor dette skal være flaut for Nvidia, det er da en kjempeflause for AMD.

 

Så du vet hva 300 serien til AMD vil yte? Som ifølge deg er basert på en 3 års gammel teknologi! Du kan gjerne dele oss hva disse 300 kortene til AMD vil yte :) Om du ikke vil, så vente jeg gjerne til hva offentlige tester viser :) Som i følge deg vil være en stor flopp i ytelse, sammenligne med 900 serien til Nvidia!

Endret av Koven
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...