Gå til innhold

GeForce RTX 20** tråden


Anbefalte innlegg

Videoannonse
Annonse

Jeg ventet faktisk at Nvidia skulle komme med en 7nm verson av Turing korta til høsten i år, og litt derfor hoppet jeg over 2080Ti i fjor (samt prisen), men det skjer jo ikke.

Det kommer alltid noe bedre litt senere. Hvis man drar den langt nok blir man jo aldri å kjøpe noe. Andre enden av den skalaen er jo å kaste bort penger konstant på små oppgraderinger.

Lenke til kommentar

Det er ikke fullt så enkelt. Jeg vet jeg har nevnt det her før, men la meg si det en gang til da. Ytelsesøkningen fra 980Ti til 1080Ti var for meg verdt det, spessielt når forskjellen var oppe i 70% ofte. No brainer angående den oppgraderingen. Fra 1080Ti til 2080Ti, så var ikke forskjellen i ytelse like stor, kanskje +30%...? Det gidder ikke jeg betale 13-15000 kroner for altså. SÅÅÅÅ moro er ikke hardware og gaming :p

 

Nizzen, du har mulighet til å kjøpe all hardware du måtte ha lyst på virker det ut som, og du er heldig som tjener såpass med penger at du kan gjøre det. Nyt livet mens man kan og alt det der. Men ikke alle av oss har den økonomien, så vi må da velge mer hva som er verdt det og ikke :)

Lenke til kommentar

Tror ikke du helt skjønner hvor komplisert path tracing (ikke ray tracing) teknikken som ligger bak Quake II RTX faktisk er. Det er skrittet videre fra hybrid ray tracing som vi ser i spill som Tomb Raider, Battlefield V, etc.

 

https://www.dusterwald.com/2016/07/path-tracing-vs-ray-tracing/

Det har du helt rett i. Jeg hadde ikke lest mer enn at Quake2 var kommet i nyoppusset utgave med en RTX-option i setup. Derfor skuffelsen. Har lest meg opp på det nå, og skjønner ihvertfall litt mer... :)
  • Liker 1
Lenke til kommentar

Når det gjelder GPU så er det alltid lurt å kjøpe når det er helt ferskt, selv om de skulle ha designfeil som lett byttes på RMA. Til nøds vente til tredjepartkortet du vil ha lanseres.

 

Grafikkort er som ferskt brød, hvor  lenger du venter jo mindre "godsmak" får du igjen per krone. Kjøpte 1070 uka det kom og samme med 1080Ti (først founders og så tredjepart).

 

Unntaket er når du bare må ha noe nytt pga. et spill el. som når jeg kjøpte 970 kortet for å bytte ut gamle HD6950.

Endret av Theo343
Lenke til kommentar

Personlig vil jeg anta at de nye kortene til Nvidia vil øke i Wattage, noen som har en anelse på hvor mye? HKS kan være sitter med et kort og har måleutstyr som forteller oss hvor mye det trekker under maks last.

 

Om f.eks. 2070 flyttes over på TU104 for å bli "Super", så vil det nok heller gå litt ned i TBP ved samme ytelse. Legg til modnere prosess, så ser jeg ikke på det som umulig at de kan øke ytelsen, men beholde TBP på samme nivå. Spesielt om de klokker det lavere, og heller kompenserer med flere CUDA cores.

 

The samme egentlig med 2060 som også nå er er på TU106 som RTX2070 for øyeblikket er. La 2060 "Super" få 50% av kjernene som skiller det fra 2070 i dag, og vi vil se et kort som lett gjør 10% mer på samme TBP...

Lenke til kommentar

Personlig vil jeg anta at de nye kortene til Nvidia vil øke i Wattage, noen som har en anelse på hvor mye? HKS kan være sitter med et kort og har måleutstyr som forteller oss hvor mye det trekker under maks last.

NVIDIA kan bare begrense seg til en litt mindre aggressiv spenning/frekvens-kurve, så vil effekten være lik eller lavere.
Lenke til kommentar

Jeg ventet faktisk at Nvidia skulle komme med en 7nm verson av Turing korta til høsten i år, og litt derfor hoppet jeg over 2080Ti i fjor (samt prisen), men det skjer jo ikke.

Effekten av "7nm" er nok foreløpig ikke stor nok til at Nvidia ser verdien i å bytte. De har allerede sin "custom" versjon av 12nm (TSMC 12nm FFN) som de har tweaket siden GV100 gikk inn i produksjon for to år siden.

 

Vil tro at de venter på 2. revisjon av "7nm", også kjent som "7nm EUV", og for en stor GPU snakker vi fort første halvdel av 2020.

 

HKS : Vet du ca når 7nm Ampere gamer korta kommer ut neste år?

Skal ikke nevne navn på arkitekturer, men man kan nok vente seg at en arkitektur for compute/maskinlæring kan bli annonsert i andre halvdel av 2019, og neste generasjon for gaming blir da 2020.

 

Personlig vil jeg anta at de nye kortene til Nvidia vil øke i Wattage, noen som har en anelse på hvor mye? HKS kan være sitter med et kort og har måleutstyr som forteller oss hvor mye det trekker under maks last.

Det er egentlig vanskelig å si. Det spørs hvordan Nvidia har gjort "binning" på Turing-brikkene så langt. Det hender også ofte at man etter å ha kjørt produksjonen et halvt års tid gjør noen revideringer på brikkene (ny stepping).

 

I mellomtiden har det også kommet GDDR6 minne som er både raskere og mer energieffektivt, så der kan det også strømforbruket reduseres.

Lenke til kommentar

Dårlig tid for å kjøpe 1080ti er det hvertfall, prøver få tak i et; men prisene på finn er hentet fra disneyland. Får se om det heller blir et 2080super.

Jepp så lenge prisene på RTX er som den er så vil bruktprisene på Pascal styres deretter.

Endret av Theo343
  • Liker 2
Lenke til kommentar

Dårlig tid for å kjøpe 1080ti er det hvertfall, prøver få tak i et; men prisene på finn er hentet fra disneyland. Får se om det heller blir et 2080super.

 

Det dukker opp greit prisede 1080Ti hele tiden, men du må da nesten legge inn et søk du får varsler på, så du kan hive deg rundt. For de blir solgt fort.. I motsetning til kortene som ligger ute til "disneyland" priser. :p

Endret av Gabri3L
Lenke til kommentar

Effekten av "7nm" er nok foreløpig ikke stor nok til at Nvidia ser verdien i å bytte. 

 

Vil tro at de venter på 2. revisjon av "7nm", også kjent som "7nm EUV", og for en stor GPU snakker vi fort første halvdel av 2020.

 

Nvidia får vel plass til flere CUDA cores (og annet) på en 7nm EUV basert GPU enn en på 12nm vel? 6000+ CUDA cores og flere RT-cores vil jo hjelpe på ytelsen ville jeg tro.

Lenke til kommentar

Nvidia får vel plass til flere CUDA cores (og annet) på en 7nm EUV basert GPU enn en på 12nm vel? 6000+ CUDA cores og flere RT-cores vil jo hjelpe på ytelsen ville jeg tro.

Du glemmer at standard produksjon ikke muliggjør mer enn ca 550-600 mm^2 (12nm FFN er såvidt jeg husker fortsatt 16nm FF med spesialoptikk).

Ut fra at AMD fikk en reduksjon på knappe 30% fra 14nm GF til 7nm TSMC tviler jeg på at NVIDIA vil vinne stort mer, altså ville TU102 på 7nm endt opp rundt 550 mm^2

Lenke til kommentar

Hei. Har et problem hvor oppdateringsfrekvensen blir tvunget tilbake til 60 hz etter å ha valgt 144 hz.

 

Relevant hardware: Benq xl2420z monitor (DP 1.2) + DisplayPort 1.4-kabel + Gigabyte RTX 2060 (3 * DP 1.4-utganger)

 

Stegene jeg går:

Display settings -> Advanced display settings -> Display adaptor properties -> Monitor -> Refresh rate 144 hz og apply. Alt virker som det fungerer, men oppdateringsfrekvensen er likevel 60 hz. Dvs. at når jeg går samme rute igjen, er det 60hz som står som valgt frekvens.

 

post-480479-0-63154900-1560607968_thumb.jpg

I Nvidia kontrollpanel er ikke 144hz tilgjengelig av default:

post-480479-0-78131500-1560607985_thumb.png

Men det er tilgjengelig når jeg går litt lengre ned til "PC":

post-480479-0-95007100-1560607998_thumb.png

Men det som skjer når jeg prøve legge 1920x1080@144hz som oppløsning, er at den hopper tilbake til Ultra HD/HD/SD: 1080p,1920x1080(native)@60hz..

 

Jeg får til å kløne meg til at CS:GO kjøres i 144hz, men ikke desktop/global innstilling. Er det noen form for adaptiv frekvens som overstyrer valgenene mine?

 

edit: den klassike avinstaller GPU-driver og installer på nytt var trolig løsningen. Får i alle fall valgt 144hz uten å bli kastet tilbake til 60hz. :-)

 

edit2: fortsatt noe bugget med "Out of range"-feilmeldinger og optimal foreslått oppløsning: 1920x1080@60hz, men levelig.

Endret av rakneslol
Lenke til kommentar

Det gikk 18 måneder mellom Volta og Turing, er det noen grunn til å forvente mindre denne gang?

Spørs selvsagt på konkurransen fra Intel og AMD. Det er ventet at begge kommer med high-end GPU'er i 2020.

AMD med "2. generasjon Navi" og Intel med Xe.

Turing hadde nok kommer et halv år før hvis ikke det hadde vært for forsinkelser med GDDR6 minne, samt at det er ventet mindre "arkitekturelle" endringer fra Turing til neste GPU enn hva det var fra Pascal til Turing.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...