Gå til innhold

GeForce RTX 20** tråden


Anbefalte innlegg

Disse skeptikerne går igjen hver gang det kommer noe nytt som baner vei for videre utvikling.

 

 

- Når man fikk CPUer med integrert FPU.

- Når man fikk 64bit x86 CPuer

- Når man fikk Dualcore CPUer

- Når man fikk Tesselation i GPU.

- Når man fikk PhysX i GPU

- Når Cuda og OpenCL implementasjonen kom

- Når man fikk integrert lydkort på hovedkort og mente gode lydkort ikke var verdt pengene

- Når bil med forbrenningsmotor kom for å ta over for hesten

 

Denne listen kan gjøres så lang man bare vil. Men de samme skeptikerne vil alltid komme med dommedagsprofetier.

Har du lyst på en liste med ting som ikke er i bruk lenger? Eksempelvis så har både AMD/NVIDIA/INTEL kommet med teknologi som i dag ikke brukes, eksempelvis kode for CPU slik at den kunne ta gfx oppgaver, forskjellige kodeverk for å avlaste gpu, fysiske formler for å gjøre kroppene til 3d figurer mer naturlige ( men feilet grovt ) lyskilder osv... Listen er lang.

Ser man litt på ting som physx så er det kjipe at det er fastlåst enten til NVIDIA gpu eller via CPU. Hadde det kunnet vært implementert på AMD / Intel gpuer hadde jeg gitt en god thumbs up, desverre er dette noe som gjentar seg på alle leire.

  • Liker 2
Lenke til kommentar
Videoannonse
Annonse
Gjest Slettet+5132
Ser at de endelig har normalisert aksene på bunnen. De første plottene ga inntrykket av en stor ytelsesøkning før en så på aksene.

 

Nå burde man kanskje ane ugler i mosen når noen synes det gir mening å tegne en kontinuerlig kurve mellom Adaptive off og Adaptive quality men :p

 

Ytelsesøkningen er vel nesten innenfor feilmarginen her?

Endret av Slettet+5132
Lenke til kommentar

RTX er knall, og en stilig utvikling. Men ytelsen i dag, og til den prisen som foreligger..det er der det må skje ting. Gimmick og show denne generasjonen, kanskje det blir en ting neste generasjon.

 

En plass må det jo starte, men kanskje nvidia kunne spart seg én generasjon til sånn at det hele kunne ja modnet litt? ;)

Endret av Mala
Lenke til kommentar

Update med nvidia.no?

 

Fikk du pengene igjen?

Fikk omsider et RMA-nummer og en adresse å sende tilbake til. Måtte ordne alt selv med tollpapirer, og måtte i tillegg betale 362,- for å sende. Siste oppdatering fra postens sporing er fra 2. november og at den er ferdig fortollet og klar til sending. Fikk beskjed da jeg ringte posten at jeg ikke vil se noe videre sporing, så aner ikke status nå. Har uansett sendt Mastercard all dokumentasjon og info i saken, og de virker veldig villige til å hjelpe hvis det ikke skjer noe ganske snart.
Lenke til kommentar

Har du lyst på en liste med ting som ikke er i bruk lenger? Eksempelvis så har både AMD/NVIDIA/INTEL kommet med teknologi som i dag ikke brukes, eksempelvis kode for CPU slik at den kunne ta gfx oppgaver, forskjellige kodeverk for å avlaste gpu, fysiske formler for å gjøre kroppene til 3d figurer mer naturlige ( men feilet grovt ) lyskilder osv... Listen er lang.

Ser man litt på ting som physx så er det kjipe at det er fastlåst enten til NVIDIA gpu eller via CPU. Hadde det kunnet vært implementert på AMD / Intel gpuer hadde jeg gitt en god thumbs up, desverre er dette noe som gjentar seg på alle leire.

Få som bruker PhysX nettopp p.g.a at det er propreitær teknologi bundet til nVidia. De aller fleste går for noe som virker for alle. Å bruke f.eks Havoc medfører en enklere kodebase å vedlikeholde i tillegg til et ensartet resultat.

Det som trengs er mer likhet i hardware for å forenkle utvikling. Det er dette som løfter baseline slik at utviklere har et bedre fundament som igjen gir bedre potensiale for høyere ytelse/kvalitet, men dette krever samarbeid og at en legger fra seg ren egeninteresse til felles beste.

 

Kjører selv Intel + nVidia så måten de driver markedet på fungerer forsåvidt i bedrift -> salg -> kunde perspektiv, men utvikler -> massemarked barberer ned baseline p.g.a teknologi lock-in som er så gjemt i kulissene at få utenom industrifolk og andre spesielt interesserte er klar over det.

Lenke til kommentar

Jeg er med på det, men har du sett reviews som viser at dyrere kort har dyrere komponenter (skip det ang selve chipen, A eller ikke)?

Feks sammenlign billigste Pallit 2070 korte som nå er 5000 kr vs dyreste 2070 kort som er ca 7700 kr. Se reviews, Pallit kortet er både stille og kjøler bra. Da gjenstår bare chipen som er A versjon på dyreste kort. Er det da bare det som er forskjellen er det 50% prisforskjell for bare bittelitt mer klokking, som er galskap.

 

Jeg lurer fortsatt på dette. Sliter med å skjønne denne prisforskjellen dersom det da ikke er store forskjeller i komponentene...

Lenke til kommentar

Når en fabrikk produserer wafere som er utgangspunktet til chipene så får en ulike kvalitetsgrader. Som regel prøver man å få et så godt resultat som mulig på alle, men dette er ikke mulig. En får da en kvalitetsforskjell som en igjen sorterer produksjonen til ulike produktgrupper. Sånn sett kan en si at kjernen på 2070 mest sannsynlig er en lavere kvalitet ut av hovedsaklig samme produksjonsprosess, mens de waferene som gir best ytelse og som er helt feilfrie går til toppkortene.

 

PS3 hadde f.eks som mål at 7 av 8 PPEer skulle fungere, siden det ville blitt veldig mye dyrere å skrape alle med små defekter. Da unngår man heller å bruke den kjernen som ikke fungerer, på samme måte som det sikkert ligger begrensninger lagt til av nVidia slik at chipene skal fungere til den spesifikasjonen de er solgt med.

Lenke til kommentar

Jeg lurer fortsatt på dette. Sliter med å skjønne denne prisforskjellen dersom det da ikke er store forskjeller i komponentene...

 

Det er en god del reviews som tar av og studerer PCBen, selve kortet. Men de sier ikke om de og de komponentene er bedre enn normalt etc.
 
Gjorde noen raske sjekk til, og det jeg klarer å konkludere med er følgende:
De dyre modellene av de forskjellige kortene, feks 2070 har disse forskjellene:
- for 2070 så er de 400A modell, ikke bare 400 så de skal kunne klokke bedre/være av bedre kvalitet
- de har bedre kjøler, er rundt 5 grader bere enn de billige
- de har bedre kjøler, vanligvis er litt stillere
- har noen tillegg, feks fan headers, bling-lys, dual bios etc
- kan ha noen forskjeller i komponenter, men dette klarer jeg ikke å finne god info på
 
Er det jeg har klart å finne. Feks da for 2070 så er det for meg galskap å betale nesten 8000 for de dyre modelle mot ca 5000 for de billige, da er det heller å slenge på noen få hundre til og så har du en 2080. Men når man får de dyre modellen for ca 6200 kr er det noe jeg vurderer å kjøpe...
Lenke til kommentar
Gjest Slettet+5132

Kjører selv Intel + nVidia så måten de driver markedet på fungerer forsåvidt i bedrift -> salg -> kunde perspektiv, men utvikler -> massemarked barberer ned baseline p.g.a teknologi lock-in som er så gjemt i kulissene at få utenom industrifolk og andre spesielt interesserte er klar over det.

 

Veldig sant. I GPGPU gjør Nvidia sitt for at CUDA skal holde fotfeste over OpenCL, slik at AMD-kort ikke blir aktuelle for store regneklynger.

 

Det tok Nvidia 4 år for å få inn OpenCL 1.2 (AMD fikk det samme året standarden var ute).  I tillegg er det et mareritt å debugge og ytelsesteste OpenCL-kode på Nvidia-skjermkort. AMD fikk støtte for OpenCL 2.0 i 2014, mens Nvidia fikk testversjon i 2017. 

 

Som programmeringsspråk har absolutt CUDA fordeler, men OpenCL har tross alt fordelen av at det er støttet på begge platformer. Det er vel ingen som skriver spillmoterer i Cg lenger?

 

Forhåpentligvis blir Nvidia presset til å støtte nyeste OpenCL når det kommer inn i Vulkan-standarden (men de kommer nok til å lure seg unna en god stund), og OpenCL-bruken blir nok høyere når C++-kjernene blir støttet, men akkurat nå har Nvidia defacto monopol på GPGPU.

Lenke til kommentar

Da har 2080 Duke blitt montert, virka som et trivelig kort, kjøleren var relativt stillegående, men blir vann etterhvert uansett.

 

Er det evga sin bios som er poppis?

Trenger høyere power limit  :dremel:

 

Så langt bare +60hz og +600hz (1200hz) minne. Tar det gradvis

 

og 2070 diskusjonen. En ting til som kan skille.

De dyrere kortene er ofte 2080 PCB, men med 2070 chip og generelt færre chips. Gir deg tilgang til mer strøm enn reference 2070pcb design. Det at kortet også får samme layout som 2080 bidrar nok på kjølefronten.

Endret av Kuldesjokk
Lenke til kommentar

At ytelse på ny teknologier som RTX er svak i starten er heller inget unntak fra den generelle oppsummeringen. Om en teknologi eller implementasjon av en teknologi er propritær eller ikke er en helt annen diskusjon og har selvfølgelig også negative innvirker man ikke trenger å være "bransjefolk" for å forstå.

Men det positive med det er at det kan tvinge eller lokke frem åpne alternativer selv om den første implementasjonen er propritær.

Endret av Theo343
Lenke til kommentar
Gjest Slettet+5132

At ytelse på ny teknologier som RTX er svak i starten er heller inget unntak fra den generelle oppsummeringen. Om en teknologi eller implementasjon av en teknologi er propritær eller ikke er en helt annen diskusjon og har selvfølgelig også negative innvirker man ikke trenger å være "bransjefolk" for å forstå.

Men det positive med det er at det kan tvinge eller lokke frem åpne alternativer selv om den første implementasjonen er propritær.

 

nei, men jeg spør igjen: Hvem er det som ikke tror RTX kommer til å bli viktig eller bra i fremtiden? Hvis du ikke har eksempler på det i denne tråden, fremstår hele innlegget som en stråmann.

Lenke til kommentar

Ray-Tracing ender vel neppe opp sånn som PhysX i all den tid det blir bakt inn som endel av DirectX osv..? Er vel da åpnet opp for alle, men foreløpig så er det kun NVIDIA som har spesialiserte kort iform av RTX-serien som tilbyr spesialisert maskinvare som har mulighet til å kjøre Ray-Tracing med halvveis fornuftig ytelse per dags dato. Er vel da ingenting som forhindrer Vulkan osv å implementere støtte for dette også?

Lenke til kommentar

Ray-Tracing ender vel neppe opp sånn som PhysX i all den tid det blir bakt inn som endel av DirectX osv..? Er vel da åpnet opp for alle, men foreløpig så er det kun NVIDIA som har spesialiserte kort iform av RTX-serien som tilbyr spesialisert maskinvare som har mulighet til å kjøre Ray-Tracing med halvveis fornuftig ytelse per dags dato. Er vel da ingenting som forhindrer Vulkan osv å implementere støtte for dette også?

https://devblogs.nvidia.com/vulkan-raytracing/

 

Error 404

 

 

Endret av Countryman
Lenke til kommentar
Gjest Slettet+5132

Ray-Tracing ender vel neppe opp sånn som PhysX i all den tid det blir bakt inn som endel av DirectX osv..? Er vel da åpnet opp for alle, men foreløpig så er det kun NVIDIA som har spesialiserte kort iform av RTX-serien som tilbyr spesialisert maskinvare som har mulighet til å kjøre Ray-Tracing med halvveis fornuftig ytelse per dags dato. Er vel da ingenting som forhindrer Vulkan osv å implementere støtte for dette også?

 

Som nevnt, RTX kommer til Vulkan-standarden, sålangt er det kun som en NVX-extension (altså kun for Nvidia-kort), men det ser ut som om de jobber med å få det inn i standarden.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...