Gå til innhold

ATI og Nvidia fortsetter på 90 nm?


Anbefalte innlegg

Videoannonse
Annonse

har ikke helt skjønnt dette med overgangene, hvis de først skal gå over til mindre produksjons teknikk hvorfår gjøres det ikke skikkelig da? si fra 110-65 nm uten og stoppe innom 90 og 80nm? spesiellt siden det er så mye pes med hele prosessen og siden det lønner seg økonomisk..... samme gjelder jo cpu folka

Lenke til kommentar

leifeinar: Det er nok fordi markedet krever nye produkter hele tiden. Det hadde sikkert vært en fordel for oss om det bare kom ut nye brikker når det var vesentlige forbedringer fra forrige generasjon. F.eks en overgang fra 110 til 65nm. Men for produsentene er ikke dette økonomisk av flere grunner. Hvis f.eks nvidia eller ATI bestemmer seg for å hoppe over en generasjon (90 og 80nm) så vil markedet bli lei av å vente og utrope produsenten til taper i kampen om bedre brikker allerede halvveis i ventinga. Folk ville ikke akseptert at det går 2 år mellom to generasjoner skjermkort. Produksjonsprosessen har også stor innvirkning på produksjonskostnadene. F.eks om en produsent skulle holdt seg på 110nm og hoppet over 90 og 80nm så ville den også gått glipp av de lavere produksjonskostnadene det vil medføre å få ut flere brikker per wafer. Hvorfor produsere bare 100 brikker per wafer på 110nm når man i stedet kunne fått 150 brikker per wafer på 90nm, eller 190 brikker per waver på 80nm? Poenget er at peset med å endre produksjonen i små steg koster mindre enn det man vinner i produksjonskostnader, PR og markedsandeler på grunn av stadig nyere brikker som gir bedre pris/ytelse.

Endret av Simen1
Lenke til kommentar
Vil dette si at både G80 og R620 blir på 80nm?  (R620 skulle jovære 65nm)    I så fall gode nyheter for oss som ikke gidder å vente på R620 :)

5781372[/snapback]

Det kan hende det er mye vanskeligere å skalere CPU'er i små hakk enn GPU'er. Altså at det lønner seg mer å vente på litt større forskjell før man skalerer.

 

Kanskje CPU produsentene ikke konkurerer hardt nok. Intle og AMD går jo 110-90-65 nm. Er det bedre konkurranse hos GPU produsentene?

5782238[/snapback]

-130-90-65- faktisk. Mens GPU-produsentene gjør -130-110-90-80-65-.

Endret av Simen1
Lenke til kommentar
Det er IKKE gode nyheter at en produsent ikke klarer å få til et best mulig produkt Zuckron!

 

Unntatt hvis det sinnsykt gode produktet kan ødelegge fremtidig konkurranse, da

 

Hadde ikke datamaskiner hatt en så stor utvikling hadde de nok ikke vært så nyttige som de er i dag.

5782258[/snapback]

 

 

Poenget var at da vil jo de kommende kortene til både ATI være like i både specs og størrelse :yes: Som er bra syntes jeg. Så vil prisen og tester bestemme om ATI eller Nvidia er best (i år :p)

Lenke til kommentar
Vi bør ta med i betraktning at GPU-er og VPU-er har flere transistorer enn CPU-er, og sånn sett er mer avanserte og mer utfordrende å produsere. Eller har det ingen betydning?

5782318[/snapback]

CPU'er er nok ganske mye mer komplekse. Det eneste som kan brukes "kopier og lim inn"-teknikken på er cache og store deler av doble kjerner. GPU'er derimot er mer massivt parallelle i natur og designet av svært mye mer "kopier og lim inn". En pipeline kan sees på som en spesialprosessor for grafikk. Nå vet vi at skjermkort kommer med inntil 48 "shader processors", 24 "pixel pipelines", 16 "vertex pipelines" osv så er det altså snakk om at store deler av brikken designes ved hjelp av "kopier og lim inn".

 

GPU'er kan godt designes med flere transistorer og dermed større areal enn CPUer, siden det ikke er noen krise om en kjerne skulle inneholde en defekt eller to. Da slåes bare av de delene, og brikken selges som et billigere produkt. Dette er litt vanskeligere på CPU'er. Hvis man først skal gjøre noe der må man enten halvere antall kjerner fra 2 til 1, eller halvere L2 cachen. GPU'er kan f.eks reduseres fra 24 til 20 pipelines og dermed fremstå ikke halvert men bare redusert med 17%.

Lenke til kommentar
Poenget var at da vil jo de kommende kortene til både ATI være like i både specs og størrelse  :yes:     Som er bra syntes jeg.  Så vil prisen og tester bestemme om ATI eller Nvidia er best (i år :p)

5782330[/snapback]

Du leser virkelig for mye inn i rykter.

5783035[/snapback]

 

 

Ok hvordan tror dere det vil bli da? Kan være sannt som du sier :p

Lenke til kommentar

Bli med i samtalen

Du kan publisere innhold nå og registrere deg senere. Hvis du har en konto, logg inn nå for å poste med kontoen din.

Gjest
Skriv svar til emnet...

×   Du har limt inn tekst med formatering.   Lim inn uten formatering i stedet

  Du kan kun bruke opp til 75 smilefjes.

×   Lenken din har blitt bygget inn på siden automatisk.   Vis som en ordinær lenke i stedet

×   Tidligere tekst har blitt gjenopprettet.   Tøm tekstverktøy

×   Du kan ikke lime inn bilder direkte. Last opp eller legg inn bilder fra URL.

Laster...
×
×
  • Opprett ny...