Gå til innhold

DDR3-standarden klar


Anbefalte innlegg

Videoannonse
Annonse
Jeg må jo bare spørre, og beklager om det er et dumt spørsmål..

 

Det finnes allerede skjermkort med DDR4-minne, hva er sammenhengen her? DDR3 er jo da "ferdig", men har vært i bruk en god stund i skjermkort. Er det snakk om to forskjellige standarder?

8961637[/snapback]

Skjermkort benytter GDDR1/2/3/4 mens hovedkort og CPU/NB støtter DDR1/2/3. Hovedforskjellen er at DDR1/2/3 standardene spesifiserer DIMM modulene og sokklene de står i samt kravene til signalering. For GDDR er minnebrikkene loddet direkte på samme PCB som minnekontrolleren og det medfører langt enklere signalering både fordi en står friere til plassering og dermed kan tilpasse signaleringen enklere, men også fordi en ikke har degradering i de mekaniske overgangene mellom forskjellige PCB. f.eks mellom HK og DIMM og mellom CPU og HK hvis en har IMC.

Lenke til kommentar
Det finnes allerede skjermkort med DDR4-minne, hva er sammenhengen her? DDR3 er jo da "ferdig", men har vært i bruk en god stund i skjermkort. Er det snakk om to forskjellige standarder?

8961637[/snapback]

Det er vel snakk om to forskjellige standarder, selv om mye i prinsippet er det samme.

 

Tallene i betegnelsene er ikke sammenlignbare mellom GDDRx og vanlig DDRx. Når det gjelder intern bussbredden og prefetch så kan DDR2 sammenlignes med GDDR3, og DDR3 med GDDR4.

 

Anders Jensen forklarer fordelene ved mer direkte kontakt og forenklet design av symmetriske kretser. Det å legge chipene i en hestesko rundt GPU gjør det lettere å oppnå mest mulig lik avstand mellom minnechiper og kontroller, noe som hjelper på klokkeskaleringen. En annen ting er at grensesnittet er point-to-point, som gir bedre signalkvalitet kontra parallelle grensesnitt hvor flere enheter (moduler) kan dele samme buss. Derfor vil hver minnechip på et grafikkort alltid ha tilgang til databussen.

 

Når det gjelder selve chipene: De ytre miljøfaktorene som øker skalerbarheten mtp datarate, hjelper lite på utførelsen av interne operasjoner, som f.eks. rad-aktivering, lesing og skriving. Samtidig er forholdet mellom datarate og frekvens det samme som på alle andre (G)DDR-generasjoner. Derfor har GDDR-minne tilsynelatende høye forsinkelser, dvs høye latency-verdier, uten at det nødvendigvis går mer tid.

 

En forskjell er kolonnebredde, altså hvor mange bits som kan sendes eller mottas pr data timeslot. I motsetning til vanlige DDR-chiper med 8-bits kolonnebredde, har GDDR som regel 32 bits kolonnebredde. Det er enklere å oppnå bred databuss når man har en stor vinkel ("vifte") å spre pinnene utover, og høy kolonnebredde kan også redusere behovet for antallet adresse-pinner. Bussens bredde henger direkte sammen med antallet chiper og deres bredde. 8800 GTX har 12 chiper, og dermed 384 bits databuss. GTS har 10 chiper, og 320 bits. Vanlig Dual channel gir som kjent 128 bits, og det ved mye lavere datarate.

Endret av Quintero
Lenke til kommentar
hastigheten på minnet er vel trenkt tatt ikke det som holder igjen ytelsen lenger, med ddr2 800 minne kan man jo klokke en amd porsessor 100% eller eller intel med 50%, mye haøyere enn dette og man må ha veldig eksotisk kjøling.

8962476[/snapback]

Her må man skille mellom GPU og CPU. På high-end grafikkort er båndbredden en viktig faktor, derfor er den også mange ganger høyere..
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...