Gå til innhold

Nvidia RTX 4090: Et flaggskip med 76 milliarder transistorer


Anbefalte innlegg

Videoannonse
Annonse

Med disse høye prisene, høye strømforbruket, selskapets mangel på respekt og ydmykhet overfor forbrukere og industrien, så håper jeg at både AMD og Intel gjør det bedre, samt at de satser mer på kort som ikke skal prøve å konkurrere med nvidias toppkort. Snart må man ha 1600W eller mer strømforsyning for gaming PCer når et 4090 ti trekker 800W og en 13900KS CPU trekker 300W.

  • Liker 1
Lenke til kommentar
Vel med tanke på den relativt robuste inflasjonen siden 30-serien ble lansert ( spesielt det seneste året) er det vel ikke så rart at prisen er dyrere grunnet kapasitets mangel hos chip fabrikkene er det vel ikke utenkelig at Nvidia må punge ut med mer for å sikre seg den kapasiteten de ønsker, som føre til høyere kosnader, og vi vet alle hva wall street ener om reduksjon i overskudd så det blir som alktid vi forbtukere som må betale. Hvor de høye prisene er respekt løse eller ikke kan sikker diskuteres, jeg synes ikke det, landpserings priser på top of the range kort med nyeste tech er alltid litt skrudde. Når det gjelder strømforbtuket er der jo sikker rom for optimalusering, men har man råd til 12k til er skjermkort har an sikker råd til det ekstea strømforbruket ift forrige gen også.
Lenke til kommentar
FrihetensRegn skrev (På 21.9.2022 den 12.42):

Med disse høye prisene, høye strømforbruket, selskapets mangel på respekt og ydmykhet overfor forbrukere og industrien, så håper jeg at både AMD og Intel gjør det bedre, samt at de satser mer på kort som ikke skal prøve å konkurrere med nvidias toppkort. Snart må man ha 1600W eller mer strømforsyning for gaming PCer når et 4090 ti trekker 800W og en 13900KS CPU trekker 300W.

Hvor mye strøm bruker egentlig CPU og GPU til vanlig bruk? Er det noen tommelfingerregel på hvor mange prosent av makseffekten som benyttes når PC idler, man bruker lett office-programvare etc?

Om den bruker 1,6kW bare når du spiller, så utgjør tross alt ikke det så mye. Men hvis den bruker 1,4kW bare av å stå på, så merkes det på strømregningen dersom du lar maskinen stå på hele tiden.

Lenke til kommentar

Spørsmålet er vel egentlig hvilken priser butikkene legger seg på.


RTX 4090 er vel knapp 100 dollar dyrere enn 3090 i sin tid.

RTX 4080 har fått saftig hopp men samtidig var startprisen på $699 omtrent helt umulig tak i. Prisen var jo så og si "fiktiv" for alle brukere som ikke var heldig, og prisen på 8000 NOK gikk vel fort opp i 12-16000 NOK etter lansering hvis jeg ikke husker riktig, med bruktpriser på ebay opptill 2000 dollar. 

Så har det også skjedd mye med priser i verden og Norge siden den gang, det gjelder ikke bare grafikkort. 

Endret av MrL
Lenke til kommentar

$1199 for 4080 er omtrent prisen som etter en tid ble for 3080. Disse gikk for 15k NOK etter hvert, ikke langt unna dobbel pris av lokketilbudene i starten. Ikke umulig at de relativt fornuftige prisene i starten var for gimmicken "Nå kan du få bedre ytelse enn 2080 Ti til lavere pris." NVIDIA fikk i alle fall solgt inn 30-serien på presentasjonen og resten er historie.

  • Liker 1
Lenke til kommentar
(not the real) Dr. Bombay skrev (57 minutter siden):

Hvor mye strøm bruker egentlig CPU og GPU til vanlig bruk? Er det noen tommelfingerregel på hvor mange prosent av makseffekten som benyttes når PC idler, man bruker lett office-programvare etc?

Om den bruker 1,6kW bare når du spiller, så utgjør tross alt ikke det så mye. Men hvis den bruker 1,4kW bare av å stå på, så merkes det på strømregningen dersom du lar maskinen stå på hele tiden.

Det varierer jo alt ettersom hvilket spill det er og hva slags PC man har. Noen spill er veldig gode på å bruke mye av PCens ressurser, mens de aller fleste spill jeg ser ligger på veldig høyt forbruk av GPU men veldig lite forbruk av CPU. Dette kan endre seg med den nye spillmotoroen fra Epic, som heter Unreal Engine 5 som ser ut til å bruke mye av CPU også. Om man har en gammel og/eller svak CPU, kan forbruket av CPU også være høyt i spill.

I idle bruker PCen veldig lite strøm. Omtrent 1/10 av forbruket når man spiller.

  • Liker 1
Lenke til kommentar

Det er ca 10 år siden grafikkbrikker fikk low power på idle. Før det var det bortimot umulig under 50W på litt større brikker. Et kraftigere kort kan fremdeles bruke mer energi ved idle og til oppgaver som krever lite kraft enn et mindre kort, men det er bedre enn hva det en gang var.

Endret av BadCat
  • Liker 2
Lenke til kommentar

4090 gir ikke mening om en ikke vil inn i dyr høyoppløslig VR eller har behov for det til AI. Det er med andre ord en GPU for bedrifter som det foreløpig ikke finnes så mange av, og for enkelte VR-entusiaster med spesille spillønsker (Microsoft Flightsimmere f.eks.) som det heller ikke er så mange av. Men om ca. et par år når flere VR hodesett med høy oppløsning finnes og prisene på disse har sunket, og innen noen år når personlig AI blir mer vanlig å ha i hjemmet så har så mange CUDA cores noe for seg for flere. Men da har også Nvidia lansert 5000-serien. Inntil videre holder det med f.eks. en 3080 til spilling. Folk lar seg lure av hz ratioer på monitorer, FPS målinger etc. når det reelle antallet FPS/Hz som er synlig for øyet til mennesker er langt lavere. Det skal eksepsjonell fintrening i stor mengde for spesifikke spill for å utnytte seg av noen mer enn 60FPS, når øyet set et sted mellom 30-60Hz. Om det er kvalme fra spilling, utenom VR, så skyldes det som regel andre faktorer i grafikken som vises enn akkurat FPS. Med andre ord en markedsføringsillusjon med høy Hz/FPS.

Lenke til kommentar
mepy skrev (41 minutter siden):

4090 gir ikke mening om en ikke vil inn i dyr høyoppløslig VR eller har behov for det til AI. Det er med andre ord en GPU for bedrifter som det foreløpig ikke finnes så mange av, og for enkelte VR-entusiaster med spesille spillønsker (Microsoft Flightsimmere f.eks.) som det heller ikke er så mange av. Men om ca. et par år når flere VR hodesett med høy oppløsning finnes og prisene på disse har sunket, og innen noen år når personlig AI blir mer vanlig å ha i hjemmet så har så mange CUDA cores noe for seg for flere. Men da har også Nvidia lansert 5000-serien. Inntil videre holder det med f.eks. en 3080 til spilling. Folk lar seg lure av hz ratioer på monitorer, FPS målinger etc. når det reelle antallet FPS/Hz som er synlig for øyet til mennesker er langt lavere. Det skal eksepsjonell fintrening i stor mengde for spesifikke spill for å utnytte seg av noen mer enn 60FPS, når øyet set et sted mellom 30-60Hz. Om det er kvalme fra spilling, utenom VR, så skyldes det som regel andre faktorer i grafikken som vises enn akkurat FPS. Med andre ord en markedsføringsillusjon med høy Hz/FPS.

Fra 120 hz og opp er det ikke så stor forskjell. Fra 60Hz til 120 hz er det gigantisk forskjell i opplevelse, det er på ingen måte noe "lureri".

Det er fortsatt en god del spill som ikke klarer 120 fps med 3090 TI på 4K som er ideelt for 120 hz. Kommer det noen nye titler med RT får man helt klart bruk for den ekstra kraften og.

Holder derimot 3090/3080 for de fleste? Helt klart. 

 

Endret av MrL
Lenke til kommentar
1 hour ago, MrL said:

Fra 120 hz og opp er det ikke så stor forskjell. Fra 60Hz til 120 hz er det gigantisk forskjell i opplevelse, det er på ingen måte noe "lureri".

Det er fortsatt en god del spill som ikke klarer 120 fps med 3090 TI på 4K som er ideelt for 120 hz. Kommer det noen nye titler med RT får man helt klart bruk for den ekstra kraften og.

Holder derimot 3090/3080 for de fleste? Helt klart. 

 

Er ikke enig i at det er noen "gigantisk" forskjell mellom 60Hz og 120Hz. Kan virkelig ikke si at jeg ser noen forskjell mellom 60-90-120 Hz til og med i VR. Det er en svak følelse av at det er noe klarere syn, det kan dreie som at det er en annen skjerm med andre kvaliteter generelt og placebo. Poenget er vel at en 120Hz monitor ser bedre ut, men at det ikke spiller noen rolle om spillet kjører 60FPS på den 120Hz monitoren. Behovet for 60-120Hz i VR dreier seg om kvalme, det er en følelse og spesielt frame drops i enkelte krevende sekvenser under en viss Hz som er problemet, dvs. behovet for å konsistent ha over 60Hz. Men selve evnen til tracking av objekter skjer ved overraskende lav Hz/FPS.

"He explains to me that when we’re searching for and categorising elements as targets in a first person shooter, we’re tracking multiple targets, and detecting motion of small objects. “For example, if you take the motion detection of small object, what is the optimal temporal frequency of an object that you can detect?” And studies have found that the answer is between 7 and 13 Hz. After that, our sensitivity to movement drops significantly. “When you want to do visual search, or multiple visual tracking or just interpret motion direction, your brain will take only 13 images out of a second of continuous flow, so you will average the other images that are in between into one image.

Discovered by researcher Rufin vanRullen in 2010, this literally happens in our brains: you can see a steady 13 Hz pulse of activity in an EEG, and it’s further supported by the observation that we can also experience the ‘wagon wheel effect’ you get when you photograph footage of a spinning spoked object. Played back, footage can appear to show the object rotating in the opposite direction. “The brain does the same thing,” says Chopin. “You can see this without a camera. Given all the studies, we’re seeing no difference between 20hz and above. Let’s go to 24hz, which is movie industry standard. But I don’t see any point going above that.

[...]

He’s not saying that we can’t notice a difference between 20 Hz and 60 Hz footage. “Just because you can see the difference, it doesn’t mean you can be better in the game,” he says. “After 24 Hz you won’t get better, but you may have some phenomenological experience that is different.” There’s a difference, therefore, between effectiveness and experience."

  • Some people can perceive the flicker in a 50 or 60 Hz light source. Higher refresh rates reduce perceptible flicker.
  • We detect motion better at the periphery of our vision.
  • The way we perceive the flash of an image is different than how we perceive constant motion.
  • Gamers are more likely to have some of the most sensitive, trained eyes when it comes to perceiving changes in imagery."
  • Just because we can perceive the difference between framerates doesn't necessarily mean that perception impacts our reaction time."

https://www.pcgamer.com/how-many-frames-per-second-can-the-human-eye-really-see/

Lenke til kommentar

Kjør opp desktop med musepeker på 360 Hz skjerm så ser du  og føler at det er jevnere og mer presist enn på skjerm med 60 eller 120 Hz oppdatering. Man har langt høyere grad av kontroll og nøyaktighet enten det er arbeid eller spill. I dag må man sample musa minst 1000 ganger i sekundet for at det skal regnes som innenfor. Det fremste i dag er 4000 Hz for trådløs og 8000 Hz for kablet mus. Skjermene er ikke helt der ennå så det er hva det er. Jeg kvier meg for å bruke 2160P 144 Hz til produktivitet siden jeg er så godt vant med 1080P 360 Hz.

Amiga hadde 60 Hz hardware cursor mens PC på samme tid hadde 30 Hz software cursor. Jeg skal love deg at du merker stor forskjell hvis du fyrer opp Lemmings på to autentiske systemer.

Når du arbeider eller spiller på en PC-skjerm så styrer du handlingene, du er ikke en passiv tilskuer. Jevnere flyt med lav forsinkelse er best.

Endret av BadCat
Lenke til kommentar

Bra nok til hva? De fleste virkemåter som har vært opp gjennom årene skyldes maskinvarbegrensninger og ikke at det ble sett på som bra nok. NVIDIA kommer aldri til greie å lage et skjermkort som er bra nok. Imens kommer de til å fortsette å lokke oss med gimmicker slik at vi bruker våre penger på å kjøpe det de har å selge. Fra de viser frem ray traycing in sanntid går det flere generasjoner før ytelsen blir akseptabel. Alt går i små skritt og kommer aldri helt i mål.

Man kan når som helst gå ut i naturen å ha en ekte opplevelse uten visuelle begrensniger. I stedet velger man å bruke tid og penger på mikroforbedringer av en virtuell opplevelse på skjerm.

For mennesker som bryr seg om teknologi kunne det ha hatt sine fordeler hvis det gikk an å bli fryst ned i noen hundre eller tusen år og få et hopp i utviklinga.

Endret av BadCat
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...