Gå til innhold

Test: Nvidia GeForce RTX 4090


Anbefalte innlegg

Videoannonse
Annonse
Strym85 skrev (5 minutter siden):

Nå blir det RTX 4090 og Asus PG42UQ 42" 4K OLED.

Det jeg lurer på er om CPU er gammel? bruker i7-8700k overclocket til 5ghz

Du vil nok oppleve at du ikke får utnyttet 4090 i spill som er CPU krevende. Skal man først ha det beste av det beste så er det litt rart å kombinere det med en 5 år gammel CPU.

Lenke til kommentar
TheKims skrev (10 minutter siden):

Du vil nok oppleve at du ikke får utnyttet 4090 i spill som er CPU krevende. Skal man først ha det beste av det beste så er det litt rart å kombinere det med en 5 år gammel CPU.

Det har holdt seg overraskende godt! Men har hørt at det kommer ny CPU fra Intel snart? Så kanskje greit å vente litt.

Lenke til kommentar
LarZen skrev (1 time siden):

Er veldig glad i å spille på min OLED med konsollene mine. Men jeg skjønner jo hva jeg har gått glipp av etter jeg fikk en 21:9 PC monitor og med 1000R "krumning". Det er jo en gamechanger....en får en helt annen opplevelse. Selv har jeg en på 3440*1440 og savner på ingen måte høyere oppløsning. Derimot savner jeg OLED panel...VA er noe skikkelig dritt rett og slett...

Jeg har aldri prøvd VA-panel. På hvilken måte er det dritt? Selv sitter jeg med IPS, men er alt annet enn fornøyd. Sortnivået er ræva, og det plager meg skikkelig siden jeg liker å slå av lyset og spille mørke og skumle spill. Dessuten blir jo også HDR ganske meningsløst. Jeg trenger ny skjerm uansett siden min gamle begynner å dø på seg, og har faktisk vurdert et par VA-skjermer på grunn av bedre sortnivå, men blir naturlig nok litt skeptisk hvis det bare er dritt. :p

Hvis VA-panel ikke passer til mitt bruk, har jeg vel ikke annet valg enn å kjøpe denne: Asus ROG Swift PG42UQ :dribble:
 

Lenke til kommentar
Strym85 skrev (1 time siden):

Nå blir det RTX 4090 og Asus PG42UQ 42" 4K OLED.

Det jeg lurer på er om for CPU er gammel? bruker i7-8700k overclocket til 5ghz

Hehe, det er faktisk en av de skjermene jeg vurderer å kjøpe også. :)

Uansett ville jeg nok fraråde å bruke så mye penger på skjerm og skjermkort for så å sette det sammen med en såpass gammel CPU. Det begynner jo å bli noen generasjoner siden 8XXX serien.

Lenke til kommentar
Splitter skrev (22 minutter siden):

Jeg har aldri prøvd VA-panel. På hvilken måte er det dritt? Selv sitter jeg med IPS, men er alt annet enn fornøyd. Sortnivået er ræva, og det plager meg skikkelig siden jeg liker å slå av lyset og spille mørke og skumle spill. Dessuten blir jo også HDR ganske meningsløst. Jeg trenger ny skjerm uansett siden min gamle begynner å dø på seg, og har faktisk vurdert et par VA-skjermer på grunn av bedre sortnivå, men blir naturlig nok litt skeptisk hvis det bare er dritt. :p

Hvis VA-panel ikke passer til mitt bruk, har jeg vel ikke annet valg enn å kjøpe denne: Asus ROG Swift PG42UQ :dribble:
 

VA paneler kan slite med Smearing. https://www.displayninja.com/what-is-va-smearing/

Jeg kan ikke si at jeg har vært veldig plaget av det på monitoren jeg har nå, men på min forrige var det veldig synlig og spesielt i spill hvor jeg hadde lav fps. Så jeg hadde nok gjort litt research før jeg hadde trykket kjøp knappen for å se om modellen du vil ha kan slite med det.

  • Innsiktsfullt 1
Lenke til kommentar
TheKims skrev (39 minutter siden):

VA paneler kan slite med Smearing. https://www.displayninja.com/what-is-va-smearing/

Jeg kan ikke si at jeg har vært veldig plaget av det på monitoren jeg har nå, men på min forrige var det veldig synlig og spesielt i spill hvor jeg hadde lav fps. Så jeg hadde nok gjort litt research før jeg hadde trykket kjøp knappen for å se om modellen du vil ha kan slite med det.

Den modellen jeg er mest interessert i er Samsung Odyssey NEO G7. Så da ser det ut til at jeg burde være trygg: :)

 

Sitat

Most VA monitors are affected by this, with the exclusion of Samsung’s Odyssey G9, Neo G9 and G7 curved gaming displays.
 


 

Lenke til kommentar
MrL skrev (3 timer siden):

Du synes det holder med 2K på en 27 tommer?? Da tror jeg faktisk du trenger briller.

4K synes jo best når man sitter nærme, en TV man sitter flere meter unna kan man også slite å se forskjell på 2K og 4K. Man ser fint denne forskjellen på 27 tommer og opp, dog er 27 veldig lite i dag. 

 

 

Det fungerer motsatt av det du skriver, jo større skjerm jo større oppløsning trenger man. Allmenn kunnskap om man har peiling på piksler og størrelser. Google kan også hjelpe deg. PS! 27" er fortsatt standarden og det gjennomsnittet bruker av pcgamere. Du har misforstått totalt.

Endret av Guybrush 3pwood
Lenke til kommentar
Guybrush 3pwood skrev (44 minutter siden):

Det fungerer motsatt av det du skriver, jo større skjerm jo større oppløsning trenger man. Allmenn kunnskap om man har peiling på piksler og størrelser. Google kan også hjelpe deg. PS! 27" er fortsatt standarden og det gjennomsnittet bruker av pcgamere. Du har misforstått totalt.

Avstand spiller selvfølgelig også en rolle på hvor godt man ser pikslene. TV sitter man gjerne 2-3 meter unna, mens en monitor så sitter man som regel 30-50cm unna. Jeg klarer ikke å se pikslene på min TV når jeg er 2 meter unna, men går jeg helt nært så kan jeg se hver enkelt piksel.

Lenke til kommentar
Guybrush 3pwood skrev (9 timer siden):

Det fungerer motsatt av det du skriver, jo større skjerm jo større oppløsning trenger man. Allmenn kunnskap om man har peiling på piksler og størrelser. Google kan også hjelpe deg. PS! 27" er fortsatt standarden og det gjennomsnittet bruker av pcgamere. Du har misforstått totalt.

Ja la oss se på Google da!

Avstand trumfer størrelse på skjerm:

"It is traditionally agreed that a person with perfect eyesight of 20/20 can read 720 ppi at a distance of 1 ft"

"Humans can see a maximum of 300 ppi (60% less) from a distance of 2.5 ft"

Dette er ca 0,3-0,7M, ganske innenfor PC skjerm avstand. 

Ergo, 4K på 27 tommer gir knapt 156 PPI og er derfor godt innenfor hva øye kan se forskjell på.

Beyond a distance of 3 to 4 feet from the display, the human eye cannot see the individual pixels."
TV avstand altså, som gjerne er lenger.

That is why a 24” television with a low pixel density from 6 feet away may look as good as a much higher pixel density 7” display viewed from 2 ft.

MAO, jo nærmere du sitter jo høyere pikseltettethet trenger du. 

Of course a 24” monitor looked at by the Director from 2 ft away needs a high pixel density to look sharp."

Så fortell meg, hva har jeg misforstått?

 

Endret av MrL
  • Liker 3
Lenke til kommentar
RamGuy skrev:

Nå har man jo gode muligheter for bra skjermkvalitet på PC også. Ser på meg selv om entusiast, har en temmelig bunnsolid gaming-PC, har PS5, har Xbox Series X, har Nintendo Switch, og drasser fremdeles på Nintendo Wii:U da den fremdeles har en del solide partyspill som Nintendo Switch ikke har.

I stua er det en LG OLED77G1 så det er ingenting å utsette på det å spille på spillkonsollene i stua. Men på PC-en så har jeg nå en AW3423DW. Er vel strengtatt hakket bedre bildekvalitet på PC-skjermen nå med QD-OLED, fremfor WOLED i stua. PC-skjermen er riktignok "bare" 3440x1440 og ikke 3840x2160 som i stua. Men her blir det mye flisespikkeri, kan ikke si jeg merker nevneverdig forskjell på gaming i 1440P kontra 2160P fra en visuelt perspektiv. TV-en kan kjøre 120Hz, PC-skjermen kan kjøre 175Hz, uten at det gir meg nevneverdige forskjeller i praksis det heller. Begge deler gir meg støtte for gaming i HDR og med VRR/G-Sync.

Mye 120 FPS gaming blir det dog ikke i stua, det meste av spill til PS5 og Xbox Series X, om man skal spille i 2160P med gode innstillinger er 60 FPS uansett. Nå føler jeg heller ikke noe voldsomt stort behov for 120 FPS når jeg sitter med en spillkontroll og sitter i sofaen et stykke fra TV-en. På PC hvor jeg sitter med 34-tommer tett opptil ansiktet så blir det noe annet, kan fint ta til takke med 60 FPS der også, men alt lavere enn 60 FPS er jeg ikke stor fan av og jeg foretrekker at jeg holder meg på 120 FPS noenlunde stabilt. Alt over føler jeg blir mye smør på flesk igjen.

 

Dette handler vel mye om hva man er vant til. Men for meg så er det alltid PC-en som er å foretrekke, med mindre jeg skal spille et spill sammen med frua, eller et spill hun ønsker å være delaktig på i form av at vi bytter litt på, eller at hun ser på meg spille. Alle andre spillopplevelser (utenom partyspill med venner i samme rom selvsagt) er å foretrekke på PC.

Jeg synes det å sitte i en god, ergonomisk PC-stol med ansiktet godt planta i en 34-tommer ultrawide er langt mer altoppslukende og gir bedre innlevelse sammenlignet med å sitte henslengt i sofaen. Selv om vi har liten stua og sitter relativt nærme TV-en som nå er på hele 75-tommer, så er dekker det fremdeles mindre av synsfeltet og gir mindre innlevelse sammenlignet med å sitte på PC-en. PC-en har jo selvsagt også fordelen av fleksibeliteten den gir hva gjelder maskinvare og muligheter. Selv om du normalt må betale langt mer penger per FPS på PC om du skal ha god bildekvalitet sammenlignet med konsoller som PS5 og Xbox Series X, så har det uansett et langt høyere tak for hva du kan oppnå om du er villig til å betale for det.

Men for min del så handler det mye om at kroppen begynner å skrante, så skal det først games i timevis så setter kroppen mer pris på en at jeg sitter godt plantet i en ergonomisk kontorstol, fremfor at jeg sitter henslengt i sofaen. Og når selve opplevelsen ikke blir noe mindre oppslukende heller så faller jeg som oftest på det. Men det er jo vanskelig å argumentere for at med dagens markedet så vil du jo komme mye bedre ut av å bruke 6-7k på en PS5 eller Xbox Series X, enn du gjør ved å spytte tilsvarende i en PC. Kunne nok kjøpt 4-5 PS5 for prisen av min gaming-PC og det før du regner inn kostnaden av skjermen osv. Hvorvidt det er verdt det blir jo høyst subjektivt.

Nå som jeg skal få seg unge nr.1 så blir det nok helt andre prioriteringer fremover og da vil nok simplisiteten og kostnadsnivået på konsoll veie mye mer for meg enn hva det har gjort fremt til nå i livet.

Med tanken på hvilken vei privatøkonomien er på vei også, så blir det nok vanskeligere for mange å argumentere for PC-gaming om det ikke skjer noe voldsomt med kostnaden for hva det koster å få en god løsning som kan konkurrere med PS5 og Xbox Series X. RTX 4090 er jo et godt eksempel på dette, virker jo som et helt fantastisk skjermkort og noe jeg virkelig kunne tenkt meg å få inn i PC-kassa da det virker som det første skjermkortet på markedet som nærmest vil garantere meg spilling i 3440x1440 med det meste av eye-candy aktivert i spill, samtidig som jeg er nærmest garantert en stabil 120 FPS. Og det kan vel argumenteres at ytelsen per krone, og ytelsen per watt heller ikke er så hinsides tatt i betraktning hvilken vanvittig ytelse som skjermkortet gir.

 

Men prisnivået er jo fremdeles helt absurd. Og jeg synes det er noe merkelig at NVIDIA argumenterer for at prisnivået kan forsvares av ytelsen. Det har jo aldri vært sånn at nye skjermkort prises basert på ytelsen. Du har jo alltid fått markant bedre ytelse per krone ved en ny generasjon med skjermkort. Det er liksom hele poenget bak teknologisk utvikling, også har vi gjerne forskjellige prissegmenter hvor verdien du får igjen for pengene blir gradvis dårligere jo høyere på stigen du går.

Men med RTX 3000 serien så føltes det som NVIDIA nærmest rev opp hele prisstigen med rota og nærmest doblet prisene. Og nå gjør de mye av det samme med RTX 4000 serie. Det er ikke like ille denne gangen riktignok, men det kan jo ikke være sånn at prisnivået for det som XX90 ytelse, og det som er XX80 ytelse innenfor sin generasjon skal øke med flere tusenlapper per generasjon. Hvor skal dette stoppe?

Nå blir det liksom sånn at vi får en ny generasjon, og se hvor flott ytelsen er, øker den med 50%, strømeffektiviten er bedre i form av at du bruker mindre strøm relativt sett opp mot ytelsen kortet har, men du skal samtidig betale 50% høyere pris for det som er "tilsvarende" nivå av skjermkort i den nye generasjonen.

Virker som NVIDIA har møtt på veggen her, så de klarer ikke å gi oss noe 4080 som koster det samme som 3080, de klarer ikke gi oss et 4090 som koster det samme som 3090 uten at ytelsen blir skuffende dårlig fra en generasjon til en annen, så istedenfor så kaster de masse fordyrende maskinvare på problemstillingen så det ser ut som utviklingen fra en generasjon til en annen er solid, men samtidig så går det såpass ut over prislappen at det har relativ lite å si i praksis. Her forsøker de jo attpåtil å finte uvitende kjøpere med å komme med en nedkutta variant av 4080 som strengtatt er mer som et 4070, bare at de kaller det 4080 selv om det ikke vil yte tilsvarende som det andre 4080 kortet de også har.

Skal du gå fra "tilsvarende" kort fra forrige generasjon her så vil det jo være mer naturlig å si at en 3090 bruker går til 4080 16GB, en 3080 bruker går til 4080 12GB og en 3070 bruker må egentlig bare avvente å se hva som dukker opp for ingenting av dette her operer jo i noe 3070 prisklasse i det hele tatt. "Normalen" ville jo vært at en XX90 bruker ser mot 4090 som ville kostet noenlunde det samme og sett hvor mye bedre ytelse de nå får i sin prisklasse, likeså med en XX80 bruker osv. Men sånn er det jo ikke her, og det setter jo den ellers veldig gode ytelsen og strømeffektivteten i et veldig merkelig lys.

Tar en 3090 bruker og ser på ytelsen til 3080 16GB som jo blir tilsvarende prisklasse med tanke på hva 3090 kostet når det kom, så er jo ikke forbedringen i nærheten av å være så imponerende lenger.

Er HDR-standarden i 4K monitor blitt bra nok ? Jeg synes ikke det .
Lenke til kommentar
ZingFreelancer skrev (7 timer siden):

Kanskje jeg oppgraderer til 3080/90 TI hvis de faller under 10k.

Hva med 6900xt eller 6800xt? De går for under 10 000 nå.

har hatt både 3090 og 6900 xt og det er så å si identisk ytelse, forskjellen er at 6900xt bruker mye mindre strøm for å oppnå det. ca 100-150w har jeg erfart. Dette pga tscm har som produserer gpuen, kontra samsung på 30 serien. 40 serien bruker dog også tscm.

Så 40 serien er den beste av to verdener, både tscm og rask ddr6x minne, kontra ddr6 på 6900xt

 

Lenke til kommentar

Smertegrensen min gikk på 7K for et High end kort, denne grensa ble til de grader sprengt når Covid startet, ser Nvidia prøver å stabilisere prisen der?, muligens mest for ikke å ødlegge for seg selv og 30xx serien. Håper Amd slår tilbake med kort bruker mye mindre strøm, koster mye mindre å har en ok ytelse, slik at nVidia må dempe seg litt

Lenke til kommentar
Gjest Slettet-QB4VTZbn
simalarion skrev (2 timer siden):

Smertegrensen min gikk på 7K for et High end kort, denne grensa ble til de grader sprengt når Covid startet, ser Nvidia prøver å stabilisere prisen der?, muligens mest for ikke å ødlegge for seg selv og 30xx serien. Håper Amd slår tilbake med kort bruker mye mindre strøm, koster mye mindre å har en ok ytelse, slik at nVidia må dempe seg litt

Hele 4090-kortet blir noe absurd i mine øyne. 4090 rettes åpenbart mot spillermarkedet, som står for en stor andel av kjøperne av disse kortene. Man blir tvunget til å kjøpe 24gb videominne, hvis man ønsker den beste ytelsen, som er bortkastede penger for spillere. 

Hvis dere også sjekker ut derBauer på youtube, så ser man at power limit kan reduseres til 60%. Da mister man kun ca. 10% ytelse, men får 33% mindre strømforbruk. Da går 4090 FE effektivt fra å være et 450w kort til 300w. Mulig at derBauer fikk et "golden sample", men dette fungerte visstnok bedre enn undervolting på 4090.

Man kan spørre seg hvor mye rimelige og mer kompakte de nye grafikkortene fra Nvidia kunne ha vært, hvis de ikke hadde kommet ferdig "overklokket" og "over-konstruert" fra fabrikken, og Nvidia hadde valgt en mer fornuftig watt vs. effektivitet-balanse for GPUen. Med det store ytelseshoppet fra 3000-generasjonen, så kunne Nvidia fint kjørt 30-40% mindre strømbruk, og allikevel hatt et mye kjappere kort enn forrige generasjon.

Endret av Slettet-QB4VTZbn
Lenke til kommentar
TheKims skrev (På 12.10.2022 den 20.49):

Du sitter mye nærmere skjermen på en PC enn hva du ville gjort foran en TV. Jo nærmere du sitter jo viktigere er oppløsning. Så det blir litt feil å påstå at man MÅ ha en stor skjerm for å utnytte 4K. 

Man er heller ikke tvungen til å sitte med en 27". Det finnes monitorer som er 55" og man kan også bruke en TV som monitor visst man ønsker det. Selv har jeg 34" Ultrawide monitor som jeg synes er perfekt størrelse.

Jeg har en Imac på 5K, 27". Tror du jeg ville sett forskell om den var 8K? neppe. Ser neppe forskell på 4K og 5K heller

Lenke til kommentar
MrL skrev (12 timer siden):

Ja la oss se på Google da!

Avstand trumfer størrelse på skjerm:

"It is traditionally agreed that a person with perfect eyesight of 20/20 can read 720 ppi at a distance of 1 ft"

"Humans can see a maximum of 300 ppi (60% less) from a distance of 2.5 ft"

Dette er ca 0,3-0,7M, ganske innenfor PC skjerm avstand. 

Ergo, 4K på 27 tommer gir knapt 156 PPI og er derfor godt innenfor hva øye kan se forskjell på.

Beyond a distance of 3 to 4 feet from the display, the human eye cannot see the individual pixels."
TV avstand altså, som gjerne er lenger.

That is why a 24” television with a low pixel density from 6 feet away may look as good as a much higher pixel density 7” display viewed from 2 ft.

MAO, jo nærmere du sitter jo høyere pikseltettethet trenger du. 

Of course a 24” monitor looked at by the Director from 2 ft away needs a high pixel density to look sharp."

Så fortell meg, hva har jeg misforstått?

 

Nå tok jeg ikke avstand med i betraktingen da, så der har du helt rett. Håper Iphone kommer med 8K skjerm snart, gleder meg,  det er liten skjerm det så den må jo bli kjempe.... kremt

Endret av Guybrush 3pwood
Lenke til kommentar

Bli med i samtalen

Du kan publisere innhold nå og registrere deg senere. Hvis du har en konto, logg inn nå for å poste med kontoen din.

Gjest
Skriv svar til emnet...

×   Du har limt inn tekst med formatering.   Lim inn uten formatering i stedet

  Du kan kun bruke opp til 75 smilefjes.

×   Lenken din har blitt bygget inn på siden automatisk.   Vis som en ordinær lenke i stedet

×   Tidligere tekst har blitt gjenopprettet.   Tøm tekstverktøy

×   Du kan ikke lime inn bilder direkte. Last opp eller legg inn bilder fra URL.

Laster...
×
×
  • Opprett ny...