Gå til innhold

GeForce RTX 20** tråden


Anbefalte innlegg

Hardware Unboxed/TechPowerUp: Med noen få unntak, så legger ytelsen seg midt i mellom 2070 og 2080 på 2070 Super. Da tenker jeg på FPS, og spesielt 1% min.

Min fps har ofte med cpu å gjøre, så å se mest på den  kan gi et feil bilde av selve ytelsen på skjermkortet :)

Lenke til kommentar
Videoannonse
Annonse

Det er bra at AMD ikke appellerer til andre enn sine egne fanatikere? :blink:

Om jeg forstår deg riktig nå, så refererte jeg til de Nvidia fanboys'ene som gledet seg til AMD kort lansering, fordi da ville Nvidia skjermkort bli billigere. Det er en holdning jeg ikke kan forstå. Om Nvidia kunne solgt skjermkortene til en fair pris, men velger å la kundene sine betale i blod og førstefødte. Da skjønner jeg ikke hvorfor man skal belønne Nvidia med nye kjøp, når det er en konkurrent som kommer inn og "redder" dagen... (Vel, ikke denne gangen da...)

 

Altså, ytelsen til RX 5700 og 5700 XT vil nok (som vanlig) legge seg rett rundt RTX 2060 Super, mens 2070 Super vil selge seg selv uforstyrret ved å levere 90% av ytelsen til et 2080. Da blir det vanskelig for den jevne forbruker å kjøpe de kortene når Nvidia er et bedre kjent merke, og generelt også vil være mindre støyende.

Du vet da bedre enn som så? "Støy" er det så og si kun kjøleren som avgjør. Du har kanskje heller ikke fått med deg at 2070S spratt opp i TDP fra 175W på "referanse" 2070 til 215W på 2070S?

 

Ellers tenker jeg først og fremst at "Anti-Lag" (om det fungerer som avertert) er såpass revolusjonerende for Twitch gamere, at det kan bli en grafikkort selger. Selv om jeg realistisk sett ikke tror at noe man må forklare til potensielle kjøpere at er bra, er noe som kommer til å ta av over natten. Det måtte i så fall være om så og si alle anmeldere hadde rapportert om en drastisk forbedring i kill:death ratio med 5700/XT. Og det kommer jo ikke til å skje, ettersom mesteparten av dem bare kjører "canned" benchmarks...

 

Videre tenker jeg at AMD vet at Nvidia fremdeles har så mye mindshare, at AMD nå som Nvidias "Supre" svar er "lansert", bare kommer til å prise seg gradvis nedover med de nye kortene sine, til de treffer punktet der de får salgene de vil ha. Nvidia kommer ikke til å tørre å følge etter av frykt for å sette igang en priskrig.

 

 

Det ser ikke ut som folk har forstått enkelte ting helt enda: Nvidias atferd er den av et skremt selskap, mens AMDs adferd best kan sammenliknes med en katt som leker med sitt bytte. Ray Tracing patentet til AMD viser ytelse som overgår Nvidias med så mye, at det ikke er en konkurranse lenger en gang. Dette er grunnen til at jeg trodde at det kun blir 5700/XT som kommer til å være basert på "Navi/RDNA". Jeg skjønner nemlig ikke hvorfor de skulle gidde å lage en full lineup av "Navi" kort, når de alle sammen vil være utdatert til neste år.

 

Folk har visst glemt at "Navi" skulle vært på markedet for lenge siden, og skulle vært 100% GCN. Dette skulle bli de siste GCN baserte skjermkortene. Så kom David Wang ombord, og Navi ble plutselig "forsinket"?... Nei, i virkeligheten er "Navi" mer kansellert enn forsinket, de har bare beholdt navnet. "Navi" som vi har fått presentert er jo ikke 100% GCN, det er en hybrid av GCN og RDNA. AMD har tilsynelatende ved å "leapfrogge" Navi, "fast tracket" sin GPU satsning, og Nvidia har business kontakter nok til å vite hvor de er på vei.

 

Som sagt trodde jeg 5700/XT blir eneste RDNA skjermkort. Men Sapphire har nylig registrert modell nummer helt opp til 5950XT, og det har gjort meg litt usikker. Før dette så jeg strengt tatt på 5700/XT som en "ventepølse" til den virkelige RDNA, sannsynligvis den eneste "ventepølsen" vi ville se. Jeg vet ikke om det er offisielt, men på "folkemunne" heter den RDNA2 (kjempeoriginalt), og er 100% GCN fri. Jeg regnet med det var den som har fått Nvidia til å skjelve i buksene. Og om det kommer RDNA2 skjermkort på markedet allerede på nyåret, ja, da blir det rett og slett slakt.

 

Men som sagt altså; egentlig tror jeg AMD tar seg den tiden de trenger. Med milliarder av dollar på vei inn på kontoen fra Vega til cloud, Epyc, og Ryzen, og garanterte millioner av salg til konsoll, så har AMD nå råd til å vente så lenge de vil. Og de har jo helt frem til slutten av neste år på seg før de trenger å være klare for PC gaming. For det er da RTRT kommer til å ta av; med konsoll spillene til "Next Box" og "Playstation 5". Først da kommer det som Nvidia manglet for sin RTX lansering: Innhold!

 

Så, akkurat som når Nvidia var først med adaptive sync i form av G-Sync, vil det igjen være opp til AMD på samme måte som de gjorde med Freesync; å vise Nvidia hvordan det skal gjøres. Bare i denne omgang vil Nvidia få en lekse i hvordan man utfører RTRT... ;)

 

Men, som du skriver, så er det vel bra at Nvidia-fanatikerne ikke får lavere priser, Jensen forby at vi får mer ytelse for penga :thumbup:

 

Mer ytelse for penga får vi når folk slutter å kjøpe dyr søppel, da faller prisene automatisk... Men det er klart, å ikke kjøpe dyr søppel, hvordan skulle det gå til liksom?... :p

  • Liker 1
Lenke til kommentar

Sikkert en brukbar 25% i snitt, men:

2080 Super kommer nok i praksis til å kjøre på godt over 1900 MHz, ut fra at boost clock er satt til 1850 MHz.

Et vanlig 2080 Ti ligger stort sett rundt 1750-1800 MHz om jeg husker riktig.

Boost til 1815, men ja. Mye høyere boost en hva Nvidia satte til 2080ti.

 

Men er det noen grunn til å tro at disse nye kortene kommer til å holde en høyere boost enn de gamle? Har det skjedd så mye på et lite år?

Lenke til kommentar

Boost til 1815, men ja. Mye høyere boost en hva Nvidia satte til 2080ti.

 

Men er det noen grunn til å tro at disse nye kortene kommer til å holde en høyere boost enn de gamle? Har det skjedd så mye på et lite år?

Mitt 2080ti FE på luft boosta til 1900mhz eller.no stock :p

  • Liker 1
Lenke til kommentar

Boost til 1815, men ja. Mye høyere boost en hva Nvidia satte til 2080ti.

 

Men er det noen grunn til å tro at disse nye kortene kommer til å holde en høyere boost enn de gamle? Har det skjedd så mye på et lite år?

 

Boost frekvensen som oppgis har nesten ingen betydning. Det er Power target som bestemmer så og si alt. Gigabyte sitt Aorus 2080 Xtreme har 90MHz høyere oppgitt boost frekvens enn 2080FE (altså 180MHz høyere enn "referansen"), men yter identisk som FE. Gigabyte glemte visst å endre power target på de. :p

 

Med 4,3% flere CUDA kjerner bør det være en enkel sak å få ~10% mer ut av 2080S enn 2080FE. 4,3% fra det økte antallet kjerner, og så bare gi det nok strøm til at det booster ~6% høyere enn FE...

Lenke til kommentar

Hvis en 9900K @ 5 Ghz kan i noen spill være en flaskehals opp til og med 1440p med et RTX 2080Ti i dag, hvor mye av ytelsen til et fremtidig "3080Ti" kan vi få da tro? (jeg vet ingen her vet det svaret) Tankegangen er at hvorfor skulle Nvidia lansere enda raskere saker enn 2080Ti når dem vet at de CPU'ene folk har ikke klarer å henge med uansett.

 

Ryzen 3000 vil sannsynligvis nå 9900K ytelse jevnt over, men da betyr det jo at den har samme "problem" og vil bli en flaskehals til neste års toppmodell fra Nvidia...

 

Klart at snakker man om 4K gaming, så blir det noe annet. Da vil dagens CPU'er holde fint følge en stund til med raskere GPU'er.

Lenke til kommentar

Hvis en 9900K @ 5 Ghz kan i noen spill være en flaskehals opp til og med 1440p med et RTX 2080Ti i dag, hvor mye av ytelsen til et fremtidig "3080Ti" kan vi få da tro? (jeg vet ingen her vet det svaret) Tankegangen er at hvorfor skulle Nvidia lansere enda raskere saker enn 2080Ti når dem vet at de CPU'ene folk har ikke klarer å henge med uansett.

 

Ryzen 3000 vil sannsynligvis nå 9900K ytelse jevnt over, men da betyr det jo at den har samme "problem" og vil bli en flaskehals til neste års toppmodell fra Nvidia...

 

Klart at snakker man om 4K gaming, så blir det noe annet. Da vil dagens CPU'er holde fint følge en stund til med raskere GPU'er.

Prøv å spille noen PS360-porter i dag, på 4K selvfølgelig, selv et GTX 1660 vil være mer enn nok til at en 9900K vil være flaskehalsen.

Lenke til kommentar

Boost frekvensen som oppgis har nesten ingen betydning. Det er Power target som bestemmer så og si alt. Gigabyte sitt Aorus 2080 Xtreme har 90MHz høyere oppgitt boost frekvens enn 2080FE (altså 180MHz høyere enn "referansen"), men yter identisk som FE. Gigabyte glemte visst å endre power target på de. :p

 

Ja, det var egentlig det jeg mente. Jeg missforstod kanskje den opprinnelige setningen din. 

 

"2080 Super kommer nok i praksis til å kjøre på godt over 1900 MHz, ut fra at boost clock er satt til 1850 MHz.

Et vanlig 2080 Ti ligger stort sett rundt 1750-1800 MHz om jeg husker riktig."

 

Men alle disse kortene kjører ofte boost på 1900+ Så det betyr ikke annet enn at Nvidia er mer selvsikre på boost klokk?

Lenke til kommentar

Ja, det var egentlig det jeg mente. Jeg missforstod kanskje den opprinnelige setningen din. 

 

"2080 Super kommer nok i praksis til å kjøre på godt over 1900 MHz, ut fra at boost clock er satt til 1850 MHz.

Et vanlig 2080 Ti ligger stort sett rundt 1750-1800 MHz om jeg husker riktig."

 

Men alle disse kortene kjører ofte boost på 1900+ Så det betyr ikke annet enn at Nvidia er mer selvsikre på boost klokk?

Stock-kortene hos anmelderne kjører ikke på 1900+ MHz

Tom's Hardware sitt 2080 Founder's Editon endte opp på rett over 1800 MHz når det hadde kjørt en stund: https://www.tomshardware.com/reviews/nvidia-geforce-rtx-2080-founders-edition,5809-11.html

Merk også at 2080 Ti endte opp under 1700 MHz

 

Med 35W ekstra, noen flere "CUDA-kjerner", og en litt mer aggressiv klokkefrekvens/spenning-profil, vil Nvidia lett kunne hente ut 10% mer ytelse fra 2080 Super.

Lenke til kommentar

Stock-kortene hos anmelderne kjører ikke på 1900+ MHz

Tom's Hardware sitt 2080 Founder's Editon endte opp på rett over 1800 MHz når det hadde kjørt en stund: https://www.tomshardware.com/reviews/nvidia-geforce-rtx-2080-founders-edition,5809-11.html

Merk også at 2080 Ti endte opp under 1700 MHz

 

Med 35W ekstra, noen flere "CUDA-kjerner", og en litt mer aggressiv klokkefrekvens/spenning-profil, vil Nvidia lett kunne hente ut 10% mer ytelse fra 2080 Super.

 

40grader på gpu og åpnet powerlimit, så blir FE korta helt konge :D Disse korta er ofte de best binnede også. Det har vist seg med 2080ti iallefall.

Lenke til kommentar

40grader på gpu og åpnet powerlimit, så blir FE korta helt konge :D Disse korta er ofte de best binnede også. Det har vist seg med 2080ti iallefall.

 

Hvorfor bytta du til MSI Trio da? Orka ikke legge GPU til i loopen din?

 

Forresten Nizzen, var er dine tanker om det jeg skrev noen poster tilbake angående CPU flaskehals og kommende GPU'er?

Lenke til kommentar

Hvorfor bytta du til MSI Trio da? Orka ikke legge GPU til i loopen din?

 

Forresten Nizzen, var er dine tanker om det jeg skrev noen poster tilbake angående CPU flaskehals og kommende GPU'er?

 

Har 2080ti FE med 9900k og 2x 2080ti trio med 7980xe. Derfor :p

 

Selv i 3440x1440 er cpu flaskehals i noen spill. Det vi virkelig trenger er VELDIG mye raskere cpuer, da spesielt med singlecoreytelse, og ultra lav latency. Kraftigere gpuer er fint når man kjører opp oppløsninga godt over 1440p. Dog noen spill krever sinnsykt med gpu selv i lavere oppløsninger, spesielt med raytracing :p.

 

Cpu er viktigere nå enn noen sinne innen gaming. Det er helt sikkert.

  • Liker 1
Lenke til kommentar

Selv i 3440x1440 er cpu flaskehals i noen spill. Det vi virkelig trenger er VELDIG mye raskere cpuer, da spesielt med singlecoreytelse, og ultra lav latency. 

 

Takk for svar. Derfor er jo ikke Ryzen 3000 noe spessielt egentlig, siden vi trenger noe mer enn at AMD tar igjen Intel. Men 12 core for 499 dollar er jo bra i seg selv, så 3900X vil nok selge bra fordet. Dessuten moro med noe nytt :)

Lenke til kommentar

Spillutviklere bør også utnytte flere kjerner nå som 6-8 kjerner er mere mainstream. Håper at 2 og 4 kjerner snart fases ut av desktop markedet

 

Det er det mange spill som allerede gjør. Selv om spilla utnytter 12 tråder veldig bra, så ER det fortsatt latency i systemet som er særdeles viktig. Ikkje så rart når ting helst skal skje i "realtime" 

 

Nytter jo ikkje å ha god utnyttelse av 32 tråder i et spill, om det som skulle ha skjedd "nå" skjer om "1" sekund :p

 

4 core er jo dødt i nye spill da, dermed er 4core døende ;)

Endret av Nizzen
Lenke til kommentar

40grader på gpu og åpnet powerlimit, så blir FE korta helt konge :D Disse korta er ofte de best binnede også. Det har vist seg med 2080ti iallefall.

Det er jo ikke så veldig unikt for FE tror jeg?

Mitt Gigabyte 2080 Ti Gaming OC legger seg rundt 1920-1980 MHz i Time Spy når jeg kjører "stresstesten" på stock innstillinger med fullcover, og jeg ser temperaturen går opp til nærmere 50C når alt har blitt skikkelig varmt.

 

Med standard kjøler måtte jeg overklokke om jeg skulle over 1850 MHz mener jeg å huske.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...