Gå til innhold

TEST: Nvidia RTX 2080 Ti Founders Edition


Anbefalte innlegg

Videoannonse
Annonse

nvidia følger apple og skyter prisene til værs for ingen grunn, og gjør det fordi folk er idioter og kjøper det nyeste og "beste" uansett.

 

Høres ut som om du har lyst på 2080ti  :tease:

 

Du burde kanskje ikkje ha kjøpt pengeslukeren 1996 model Audi A8 Quattro'en din ....

Endret av Nizzen
  • Liker 2
Lenke til kommentar

nvidia følger apple og skyter prisene til værs for ingen grunn, og gjør det fordi folk er idioter og kjøper det nyeste og "beste" uansett.

Ikke sant.

 

RTX 2080 Ti er en veldig stor brikke fysisk. Brikker i den størrelsesorden blir for latterlig dyre. Det skalerer ikke med ytelsen derimot. Du får altså litt mer ytelse, men den blir mye dyrere å produsere. Og dermed sluttpris mye høyere. Så lenge folk er villig til å kjøpe så lager Nvidia.

 

Når Nvidia får høyere regning fra TSCM per brikke så må de jo øke prisen til sluttforbruker. Nvidia tjener nok bra per brikke, men å si prisen er grunnløs er ikke riktig.

Lenke til kommentar

Ikke sant.

 

RTX 2080 Ti er en veldig stor brikke fysisk. Brikker i den størrelsesorden blir for latterlig dyre. Det skalerer ikke med ytelsen derimot. Du får altså litt mer ytelse, men den blir mye dyrere å produsere. Og dermed sluttpris mye høyere. Så lenge folk er villig til å kjøpe så lager Nvidia.

 

Når Nvidia får høyere regning fra TSCM per brikke så må de jo øke prisen til sluttforbruker. Nvidia tjener nok bra per brikke, men å si prisen er grunnløs er ikke riktig.

Det som har vært mest kostbart her er nok krympingen og det at Nvidia skal ha så latterlig gode inntekter per brikke, men Nvidia har da uansett i tradisjon tro kjørt på med ekstremt store brikker, vi kan jo gå tilbake til 2007/2008 der denne artikkelen viser fint litt forskjellen på Amd og Nvidia sine størrelser : https://www.anandtech.com/show/2556/2

 

 

Her er noen bilder av 2080 brikken og størrelsen : 2080 uten kjøler

 

Lenke til kommentar

Det som har vært mest kostbart her er nok krympingen og det at Nvidia skal ha så latterlig gode inntekter per brikke, men Nvidia har da uansett i tradisjon tro kjørt på med ekstremt store brikker, vi kan jo gå tilbake til 2007/2008 der denne artikkelen viser fint litt forskjellen på Amd og Nvidia sine størrelser : https://www.anandtech.com/show/2556/2

 

 

Her er noen bilder av 2080 brikken og størrelsen : 2080 uten kjøler

 

http://www.techinsights.com/about-techinsights/overview/blog/apple-iphone-xs-teardown/

https://www.anandtech.com/show/13393/techinsights-publishes-apple-a12-die-shot-our-take

 

Krymping hos TSCM førte til 9% høyere kostnad for Apple estimert. Flere faktorer som spiller inn her og selvfølgelig, så det er en del usikkerhet rundt tallet, men bedre estimat tror jeg ikke vi kan få.

 

Størrelse derimot vil ALLTID gjør det dyrere. Du vil alltid ha feil på en wafer. RTX 2080 Ti er faktisk 60& større enn GTX 1080 Ti.

https://hexus.net/tech/reviews/graphics/122270-nvidia-geforce-rtx-2080-ti-rtx-2080/

 

Si at du fra en wafer får 100 GTX 1080 Ti. Det er 10 feil per wafer i gjennomsnitt. Da sitter du igjen med 90 GPUer.

 

Med samme størrelse wafer sitter du igjen med kun 62 RTX 2080 Ti. Gitt at alle feil havner på separate GPUer for begge så sitter du igjen med 52 GPUer.

 

Så her ser vi 73% flere GTX 1080 Ti. Dette tallet bør være litt lavere da du også har større sjanse for at et kort får to feil. Samtidig burde det og være høyere. TSCM 12 FFN er en helt ny avansert prosess, så i begynnelsen har de høy feilrate. Høyere feilrate påvirker større brikker mye mer enn mindre brikker.

 

 

Nå ser du på MSRP for 1080 Ti er den 600 USD, og 2080 Ti er 10000 USD. Altså en 66% økning. Basert på den høyere størrelsen derimot så er faktisk prisen til 2080 Ti rimelig.

 

 

Er det rimelig i forhold til ytelse/USD? Nei, ikke i det hele tatt. Tar Nvidia høy avanse? Helt klart, men jeg ser ingen årsak til at 2080 sine marginer i prosent er så veldig ulike 1080 Ti. Altså 2080 Ti er ikke blitt så dyrt fordi Nvidia øket marginene sine.

 

Jeg ser artikkelen din om die-size, men tror du Nvidia prøver å gå for effektivitet? Disse kortene er 100% "vi bryr oss ikke om noenting, skal bare lage det beste" Er størrelsen latterlig? Ja. Er det effektivt og smart? Nei, ikke sånn egentlig. Er det det klart beste kortet på markedet? Uten tvil.

 

NVidia har solgt slik galskap med HBM2 for å gjøre det enda verre til bedrifter en stund allerede. Og vet du hva? De står i kø for å kjøpe. Tross at de kan få mer ytelse/USD med et AMD kort, så er det viktige for disse bedriftene at folk ikke må vente på beregninger. Kanskje er kortene latterlige, men når selskapene ser på alle lønningene de betaler til folk som sitter og venter så er regnskapet lett. 

 

Så i senere tid har de oppdaget at det er marked blant privatpersoner for å kjøpe  de beste kortene. Og at det finnes folk som er villig til å betale 13K for å ha det absolutt beste kortet. Du betaler rimelig mye for å få minimalt bedre utseende spill, så du kan argumentere at det ikke er verdt det i forhold til spill. Likevel så har det seg slik at selv om fabrikken produserer for fult, så sitter ikke Nvidia med store lager av brikker de ikke får solgt.

 

 

Ellers er det alltid sånn at den beste modellen koster utrolig mye ekstra i elektronikk. Om du går en modell ned eller to får du alltid mye bedre verdi.

Lenke til kommentar

Hadde det bære vært så enkelt lunaris...

Du må også huske at en del av de som er "defekte" fungerer fint som 2080 og 2070 kort, så helt defekte er de ikke, faktisk så er det trolig enten lavere hastighet, lekasje eller i noen tilfeller defekte elektroner der som gjør at ved å deaktivere noen områder av brikken så kan den fortsatt fungere fint som et noe lavere rangert produkt.

Så har man jo det med at selve fabrikken også greier å øke effektiviteten av sin produksjon over tid, jo flere 2080 / ti som fabrikkeres jo bedre blir de til å lage mer funksjonelle brikker,  dagens 12nm er jo heller ikke akkurat det aller siste som TSMC styrer med, de har jo jobbet med 7nm siden 2017 og 12nm skal per dags dato ha en veldig høy og god effektivitets ratio i forhold til i starten.

Kanskje er jeg litt en gledesdreper nå, men TSCM sin 12nm er ikke en "reel" 12nm, det er mer en variant av en forbedret 16 nm med noen fordeler til 12 nm. Så noe krymping men trolig mer en del forbedringer enn noe annet.

For å avslutte så får man her et langt bedre innsyn i hvordan ting nå stiller seg med Intel sin 10nm og konkurrentene sin 7nm og hva som blir best av dette

 

Lenke til kommentar

Hadde det bære vært så enkelt lunaris...

 

Du må også huske at en del av de som er "defekte" fungerer fint som 2080 og 2070 kort, så helt defekte er de ikke, faktisk så er det trolig enten lavere hastighet, lekasje eller i noen tilfeller defekte elektroner der som gjør at ved å deaktivere noen områder av brikken så kan den fortsatt fungere fint som et noe lavere rangert produkt.

 

Så har man jo det med at selve fabrikken også greier å øke effektiviteten av sin produksjon over tid, jo flere 2080 / ti som fabrikkeres jo bedre blir de til å lage mer funksjonelle brikker,  dagens 12nm er jo heller ikke akkurat det aller siste som TSMC styrer med, de har jo jobbet med 7nm siden 2017 og 12nm skal per dags dato ha en veldig høy og god effektivitets ratio i forhold til i starten.

 

Kanskje er jeg litt en gledesdreper nå, men TSCM sin 12nm er ikke en "reel" 12nm, det er mer en variant av en forbedret 16 nm med noen fordeler til 12 nm. Så noe krymping men trolig mer en del forbedringer enn noe annet.

 

For å avslutte så får man her et langt bedre innsyn i hvordan ting nå stiller seg med Intel sin 10nm og konkurrentene sin 7nm og hva som blir best av dette

 

 

? RTX 2080 Ti er TP102, mens 2080 er TP104. Og TP104 har langt lavere die-size også (545 mm^2). De kan ha feil på en brikke og deaktivere deler av den og selge som lavere versjon, men de kan da ikke sage av deler av brikken. Så nei de defekte selges ikke som 2080 og 2070. Jeg vet at det er vanlig å gjøre slikt, men da må jo fortsatt brikken og størrelsen være den samme. Bare færre kjerner/lavere frekvens/mindre cache, ting som det. 

 

12 nm FFN er det beste TSCM kan lage for 750 mm^2 300W brikker jo. Det er mye enklere å lage 85 m^2 5W brikker til Apple/Huawei på 7nm, men det betyr ikke TSCM kan lage GPUer med det. Linken din sier ellers ingenting om feilrater og snakker om FFC ikke FFN som brukes for Nvidia GPUer. Igjen du kan ikke lage små 5W brikker med helt lik teknologi som du lager 300W 750 mm^2 brikker. Det brukes ulik X nm teknologi for GPUer og SoCer til mobiler.

 

16 nm var i seg selv heller ikke "skikkelig" 16 nm. Alle produsenter regner nm på siden egen måte, fordi alle måler forskjellige deler. Det er naturlig at TSCM ikke klarer å krympe så raskt her, fordi kravene til transistorene er langt høyere. Det er derfor Apple kunne lansere ok SoC på 20 nm, mens Nvidia og AMD aldri gjorde. Elektronlekkasjen hadde vært umulig for Nvidia/AMD å håndtere.

 

 

Igjen noe den artikkelen du linker ikke tar hensyn til. For mobiler brukes vanligvis beskrivelsene LPE og LPP. Samsung var vel ute før TSCM med 14 nm LPE, men TSCM kom ikke så lenge etter med 14 nm LPP. LPE = Low Power Early, og LPP = Low Power Plus. For TSCM og Samsung handler alt om timing. Samsung har vårlansering sammen med Qualcomm. TSCM har på høsten med Apple/Huawei. TSCM har en 7nm FF, en 7 nm FF+ og en 7 nm HPC. Og det er vel essensielt early de har nå. TSCM har ikke 7nm HPC.

 

Og for Intel så vil de jo produsere alle nye CPUer på den nye prosessen. Dvs at når de har fått til type LPE og LPP kan de kun lansere Core-M ol. Derfor må de vente til senere når de kan lage sine 100-150W CPUer på prosessen sin. De lanserte 14 nm utover noe slik som 8 mnd? De begynte med laveste strømforbruk først og høy-ytelse CPU kom ikke før lenge etter. TSCM derimot lager så mye ulikt. Og så går folk rundt og tror at siden TSCM lager 7nm SoCer til Apple så kan de lage 7nm GPUer til Nvidia. Eller kunne lagd en Intel CPU. Det vil de komme til å kunne, men ikke enda! Det er helt klart at Intel ikke lengre har noen videre ledelse å snakke om.  Derimot å snakke kun om størrelse, og tetthet blir bare tull. Det er langt mer med en transistor enn det.

 

Jeg mener Samsung kommer med nye prosesser og GF har dem ikke før gjerne 1 år senere. Og de samarbeider og bruker SAMME prosess. Så hva er problemet? Jo GF lager AMD CPUer og GPUer. Så igjen selv om de har teknologi til å lage en Snapdragon kan de bruke samme teknologi til å lage en Zen CPU.

 

Så nei, ting er ikke enkelt en plass, men 2080 Ti er MYE større enn 1080 Ti. Og 2080 ti, 2080 og 2070 er alle 3 ulike brikker av ulik størrelse. Så selv om estimatene er og forblir estimater så er prisen til 2080 Ti rimelig basert på offentlig tilgjengelig informasjon i forhold til 1080 Ti. Du kan si Nvidia har for høye marginer på 1080 Ti. Kortet er for dyrt. Det skal jeg ikke blande meg opp i. Kun 2080 Ti i forhold til 1080 Ti. Og det er helt klart at prisen er rimelig utifra produktets kostnad. Får og minne på at V100 som sitter på litt over 800 mm^2 med 16 GB stacked HBM 2 ligger på 90.000 kroner. Og det er ikke 12 nm FFN engang.

 

Hva spesifikt yield er for 12 nm FFN for 2080 Ti blir ren gjetning. Det kan være alt mellom 50-90% Og jeg brukte 90% i mitt eksempel, som veldig bra. Du må og huske at når noen sier "bra yield" så er det ikke et absolutt tall mellom 0-100 der 80+ er "bra". Det er relativt. Om slike prosesser typisk ser 60% for den størrelsen og de har 70% så har de da veldig bra yield eksempelvis. Uansett selv med 90% yield så ser vi at prisen for 2080 definitivt gir mening. Enda en ting jeg ikke tok med var jo at wafere er runde. Og du kutter ut firkanter. Mindre firkanter = mer areal brukt. Større firkanter = mindre. Så du mister en del prosent i yield allerede der av totalt flateareal for wafer.

 

https://caly-technologies.com/die-yield-calculator/

 

Basert på denne kalkulatoren der jeg tar målene (31, 25) med en 450 mm wafer så  får jeg ca 10% tap pga at du kutter firkanter ut av en sirkel alene. Så bare dette alene garanterer jo en del tap over standard 100 mm^2. Du kan teste selv med å sette defect density og se hvor utrolig hardt tapene ved feil skalerer på slike enorme brikker. Jeg mener  det er enkelt og greit matte, du kan regne deg til det. Jeg ser ikke hvordan det er noe å diskutere. Du mister langt mer mm^2 wafer med større brikker enn små. En 8x så stor brikke gir nok ikke helt 8 så mye areal tapt selv når du regner tap på kanter, men det er nok i nærheten. NVidia betaler essensielt per 450 mm wafer ut av TSCM, ikke per brikke. Og når du får noe sånn som 70% flere 1080 Ti fra samme wafer som RTX 2080, er det merkelig prisen er 70% høyere?

Lenke til kommentar
  • 3 måneder senere...

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...