Gå til innhold

Her er verdas kraftigaste skjermkort


Anbefalte innlegg

13 hours ago, BadCat said:

Prisen er ikke hinsides. Det er ikke meningen at hvermansen skal kjøpe 4090. RTX 4050, 4060 og 4070 er for mannen i gata. Gå tilbake noen år så ser dere at hvermansen ikke kjøpte GTX-kort. De kjøpte GT/GTS.

Går man 15 år tilbake var det ikke allverden man fikk for 6k.image.png.bc5b9671a786046b3af65aea4762bbbf.png

Markedsføringen var tydeligere før. Det er likevel ikke noe som tilsier at folk flest skal tro at det er 4090 som er kortet for dem.

 

Jeg har pleid å kjøpe **80-kort. Om jeg skulle hatt et 4080 måtte jeg jobba minst tre ganger lenger enn jeg måtte for å kjøpe GTX 580 i 2011. For meg er en tredobling av et produkt som gjør samme nytten etter dagens standard hinsides dyrt. 4080 (da regner jeg ikke med det som burde hett 4070) er ikke så langt unna dobbelt så dyrt som 3080 totalt sett her i Norge.

  • Liker 1
Lenke til kommentar
Videoannonse
Annonse

4080 er ikke i samme tier som 580.  Kortene gjør ikke det samme. NVENC hadde ikke engang kommet på den tiden. Første generasjon NVENC kom året etter. Skjermkort er mer enn modellnavn og at det blir bilde på skjermen. Når kompleksiteten og materialekostnaden øker for hver generasjon vil ikke prisen forbli den samme. Effektbudjettet (W) er hinsides større i dag. GTX 580 er 6+8 pin og <=244W, da snakker man under 4070, nærmere 4060.

Endret av BadCat
Lenke til kommentar
BadCat skrev (16 minutter siden):

4080 er ikke i samme tier som 580.  Kortene gjør ikke det samme. NVENC hadde ikke engang kommet på den tiden. Første generasjon NVENC kom året etter.

De er/var i samme segment, det er bare 12 år med teknologi og utvikling som skiller de. 
Om Nvidia om ett år slipper 5080 som er 50% bedre enn 4080 men også 50% dyrere så er ikke det et fremskritt. 

Lenke til kommentar

Stigen og modellene er utvidet siden da. En toppmodell er noe helt annet i dag. Når man krymper en prosess, i alle fall i de stegene som var vanlig, får man enten dobbelt så mange transistorer med lik effektbruk eller like mange med halv effektbruk.  Når man begynner å snakke om modeller på 600W er det noe helt annet annet en en toppmodell fra 2007 på 171W. Skjermkort er ikke størrelser som kan sammenlignes 1:1. "Jeg greide å kjøpe den øverste modellen den gangen, da burde jeg greie det nå." Det er ikke slik dette markedet og produktutviklingen funker. Materialkost, utviklingskost og features i kortne har økt hele veien. Da blir produktene dyrere i hylla fordi de er og gjør mer. Et skjermkort på nesten 3 kg koster og bør koste mer enn et som veier under 1 kg, selv om begge var toppmodeller i sin tid.

Jeg har kjøpt 3D-kort lenge nok til at det var verken kjøleribbe på GPU, minne og ikke vifte. Jeg står ikke 26 år senere og inbiller meg at det bør koste det samme justert for inflasjon) for et kort som er mange ganger større fysisk og har kjøleribbe på flere kg, vapor-chamber, varmerør og tre store vifter som det gjorde for et simpelt kort i 1996, selv om det den gangen var i toppsjiktet.

KL_Diamond_Monster3D_Voodoo_1.thumb.jpg.2727f735984250d8b9e6595322d663ec.jpg

vs

strix.thumb.png.2248c171d3317b628ed0d56d8cbe4fa9.png

Det har vært ei viss utvikling og kortene kan gjøre langt mer i dag. Det øverste kortet kan knapt kjøre et spill, frameraten er nesten i mål men du er så imponert at du smiler likevel selv om det lugger litt i forhold til software render i lavere oppløsning. Det nedederste kan gjøre  fra spill, compute, innholdsskaping, lyd- og kamera filter og effekter, videoenkoding for TV-sending i sanntid samt mye mer.

Endret av BadCat
Lenke til kommentar

Det som skjer, er at vi begynner å se begynnelsen på slutten for Moore's lov. Den har gjort at elektronikkbransjen har kunne tilby mer og mer avanserte produkter for lavere og lavere priser, da antall transistorer man kan skvise inn på en mm2 har økt mye raskere enn kostnadene for å produsere en mm2 med silisum. 

Dette har snudd relativt nylig, fordi kostnadene med nye prosesser (både produksjon og utvikling) øker eksponensielt. Allerede er det kun produkter med veldig høyt volum og høy verdi som kan bruke disse cutting-edge prosessene.

Akkurat i dette tilfellet, så er TSMC-prosessen som 40xx GPUene lages i, mye dyrere en Samsung prosessen som 30xx GPUene lages i. I tillegg kommer større aluminiumsribber og kraftigere power-supply, som BadCat nevner. Så det er ikke bare grådighet fra Nvidia (selv om det sikkert også er en faktor), men Nvidia har også høyere kostnader. Dilemmaet deres er at de må selge et solid volum av disse GPUene for å forsvare utviklingskostnadene, som rimelig sikkert også er vesentlig høyere enn de var for 30xx. 

  • Liker 1
  • Innsiktsfullt 1
Lenke til kommentar

Beste måten å sammenligne må vel være hvilken ytelse man fikk i datidens spill, sammenlignet med ytelsen man får nå i dagens spill.

Spill har blitt mer detaljerte og man spiller på langt høyere oppløsning.

Om man fikk 60fps i 1200p med et 580 så blir dagens sammenligning et kort som klarer 60fps i 4k.

580 klarte for eksempel 44 fps i metro 2033, som var noe av det beste man fikk grafikkmessig på den tiden.

Om vi sier vi skal ha 44fps i metro exodus, med raytracing og 4k oppløsning, så sitter vi på et rtx 3080.

4.000,- for 580 på den tiden, altså ca 5.000,- nå.

Et 3080 er litt dyrere, på sine 9.000,-

80% dyrere.

Litt over 44fps da, men.

 

Så skal jo 30 serien selges fortsatt fremover med 40 serien, altså blir det mer korrekt å si at foreløpig er 30 serien de billigere kortene i samme serie.

 

Lenke til kommentar
20 hours ago, Dellers said:

Brått 17-18000 for 4080 da? Det er så langt fra aktuelt som det er mulig å komme. Ikke at jeg har noe behov med et 3080 i hus, men det er åpenbart at spilling på PC ikke er noe jeg kommer til å fortsette med. Alt har ei grense, og dette er langt, langt over for min del.

Så man kan ikkje spille på pc med skjermkort til 3-5000kr?  3080 er jo nedi 5000kr brukt, og som du vet så er det fullt mulig å spille spill med det enda :p
Man MÅ heller ikke kjøpe nytt skjermkort hver sesong. 

"If you don't like it, don't buy it" :D

  • Liker 2
Lenke til kommentar

Du får ikke de samme og nye kundene på nytt hvis man ikke selger noe større og flottere for hver generasjon. NVIDIA skal selge nye kort til de som allerede har og i tillegg imponere de som stod over sist. NVIDIAs oppgave er å være så overbevisende at de som sa "meh og for dyrt sist"  faller over terskelen til "Dette skal jeg ha."

Da jeg var ung år pleiede jeg å lukke øynene og drømme om at jeg drev min egen TV-kanal. Noen tiår senere kan jeg gjøre dette ved hjelp av et skjermkort til noen tusenlapper. Hvilke muligheter tenker jeg, mens andre greier ikke å tenke lenger enn at prisen er for høy.
 

Quote

Live streamers and video producers are getting a massive boost, too. New dual encoders cut video export times in half. And the eighth-generation NVIDIA Encoder adds support for AV1, boosting livestream quality.

Når jeg leser om doble enkodere og halvert tidsbruk foreksportering sam høy kvalitets livestream tenker jeg på alt jeg skal gjøre med kortet, ikke på at kostaden er for høy. Det der tror jeg er tankesettet til noen som ikke har tenkt å bruke kortet til noe spesielt. Ikke bare tenker jeg på det nå, jeg har ventet på denne encode siden før 30-serien ble nevnt for første gang. Denne lanseringen gir meg den følelsen man får når det som i mange år kun har vært en drøm blir til noe man tar for en selvfølge.

Endret av BadCat
Lenke til kommentar
38 minutes ago, Tobeass said:

De er/var i samme segment, det er bare 12 år med teknologi og utvikling som skiller de. 
Om Nvidia om ett år slipper 5080 som er 50% bedre enn 4080 men også 50% dyrere så er ikke det et fremskritt. 

Sammenlikne priser i dag med 12 år siden er meningsløst. 10 000kr for 12 år siden er ikkje sammenliknbart med 10 000kr nå i forhold til hva andre ting koster/lønn/kronekurs VS Dollar etc....

  • Innsiktsfullt 1
Lenke til kommentar
Kalle Klo skrev (36 minutter siden):

Så det er ikke bare grådighet fra Nvidia (selv om det sikkert også er en faktor), men Nvidia har også høyere kostnader.

Problemet er at når man vet hvor drittsekk Nvidia kan være i industrien så er det vanskelig å tro at det er mye mer enn grådighet. Et 4090 burde kostet 12 000. Ikke over 20 000.  Men de skal vel selge unna 30-serien og sikkert noen som har nok penger til at de kan rettferdiggjøre 20k+ for et 4090.

Jeg har mer enn god nok råd til å kjøpe et 4090, men jeg må nesten si nei av prinsippsak..

Endret av Comma Chameleon
Lenke til kommentar

Jeg bruker nå et GTX 1080 ti kort som jeg kjøpte i 2017 og en ny 32" 144 Hz 4K skjerm, har hatt 4K 60Hz siden 2016 og nå er det på tide med et grafikkort som kan levere bra ytelse i 4K så det blir nok et 4080 eller 4080 ti.

Var på nippet til å kjøpe 3080 ti ved lansering til MSRP men sånn som det ser ut nå så er jeg glad for at jeg sparte de pengene.

Lenke til kommentar
20 minutes ago, Comma Chameleon said:

Problemet er at når man vet hvor drittsekk Nvidia kan være i industrien så er det vanskelig å tro at det er mye mer enn grådighet. Et 4090 burde kostet 12 000. Ikke over 20 000.  Men de skal vel selge unna 30-serien og sikkert noen som har nok penger til at de kan rettferdiggjøre 20k+ for et 4090.

Jeg har mer enn god nok råd til å kjøpe et 4090, men jeg må nesten si nei av prinsippsak..

NVIDIA driver ikke med veldedighet og bruker man ikke kortet til aktivitet som bringer inn penger er det forbruk og en luksusartikkel som ikke er nødvendig eller kan finnes et alternativ til. I ytterste konsekvens må man velge å spille på en Nintendo Switch til 3k og ikke en PC hvor skjermkortet alene koster 15-25k.

Lenke til kommentar

Selv om jeg kjøper et 4090ti/oc/ultra/super duper ville jeg ikke få noe bedre ytelse i DCS da det fremdeles kjører på Dx11 og bare bruker 1 kjerne på cpu, og nekter å bruke fsr/dlss. Så frem til de oppgraderer motoren som de har lovet, kan jeg ikke kjøpe meg bedre ytelse i det spillet.

Og i alle andre spill jeg prøver holder systemet mitt til maks grafikk og 1440p.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...