Gå til innhold

Ny toppgrafikk fra AMD


Anbefalte innlegg

Radeon HD 4870 har 480 Stream-prosessorer i motsetning til Nvidia's 9800 GTX som kun har 128, så det nye toppkortet fra AMD/ATI må jo ha mye høyere ytelse på noen områder?

:hmm:

Enig, fikk rett og slett sjokk da jeg så det tallet! Det snakkes jo om at GT200 skal få 240, og at dette er et helt vilt tall. Dette er spennende! :)

 

skjer med 256-bit minnebus. det holder ikke på høye oppløsninger.

 

vi må ha mer...

Som MistaPi sier veies dette opp av svært raskt minne. Til sammenligning med tallet han nevner har 8800 Ultra en minnebåndbredde på 103.7 GB/s, så dette er meget bra.

 

Er det ikke dessuten slik at bredere bus tar mer plass på kortet? Ved å holde seg til 256 bit og heller bruke raskere minne kan man dermed få plass til mer annet snop, slik som 480 Stream-prosessorer.

 

Det er forøvrig interessant å se at ATi har gått i nVidia sine fotspor og tatt i bruk separate shadere. Det tyder på at dette ikke bare er en liten filleoppdatering av 3xxx-serien.

Endret av tåa
Lenke til kommentar
Videoannonse
Annonse

For å få litt bedre oversikt for min egen del så setter jeg opp en liste over forbedring av spesifikasjoner mellom 4870 og 3870:

 

Minnebåndbredde: +72% (kraftig økt frekvens grunnet GDDR5)

Fillrate: +65% (kombinasjon av 50% flere shadere og økt frekvens)

ROP: +10% (økt frekvens)

TMU: +120% (kombinasjon av doblet bredde og økt frekvens)

 

Ut i fra tallene kan det virke som 4800-serien blir en ganske kraftig oppgradering fra 3800-serien. Det forundrer meg ikke om ytelsen øker med 70% og ett enkelt 4870 blir konkurransedyktig mot 3870 X2. Også regner jeg med det kommer en 4870 X2 om ca 3-5 måneder.

 

Jeg regner med at brikken bygger på de samme basisenhetene men er utvidet med antall og klokkefrekvenser. Med andre ord en arkitekturmessig oppgradering. Nvidia velger en annen vri: De krymper G92 fra 65nm til 55nm uten å gjøre noen synlige arkitekturmessige endringer. Det gir kun økte klokkefrekvenser og/eller lavere effektutvikling, ikke flere shadere eller noe sånt.

 

Nå hadde AMD et dårligere utganspunkt enn det Nvidia hadde (3870 vs 8800 GTS) men ser ut til å forbedre brikken betydelig mer enn det Nvidia gjør.

Lenke til kommentar
Radeon HD 4870 har 480 Stream-prosessorer i motsetning til Nvidia's 9800 GTX som kun har 128, så det nye toppkortet fra AMD/ATI må jo ha mye høyere ytelse på noen områder?

:hmm:

Enig, fikk rett og slett sjokk da jeg så det tallet! Det snakkes jo om at GT200 skal få 240, og at dette er et helt vilt tall. Dette er spennende! :)

Det trenger ikke ha noe å si. nVIDIA sine 128 enheter på G80/G82 har klart seg meget godt mot AMD sine 320 enheter på RV670

 

Edit: Desuten teller AMD og nVIDIA shadere på forskjellig måte... Skal nVIDIA telle på samme måte som AMD så hadde G80 hatt 256 ALU'er, ikke 128.

 

Det er veldig mange andre momenter som er viktige, hvis AMD får lagt til flere TMU'er og fikser opp AA-resolve så vil dette kunne gjøre veldig mye.

 

Når det gjelder grunnleggende arkitektur så vil nok RV770 ha veldig mye til felles med RV670, på samme måte som GT200 har mye til felles med G92.

 

Nvidia velger en annen vri: De krymper G92 fra 65nm til 55nm uten å gjøre noen synlige arkitekturmessige endringer.

Nå er nok den krympingen beregnet for prissegmentet under der hvor de nye RV770 kortene vil ligge... Forskjellige versjoner av brikken med kodenavn GT200 skal opp mot RV770...

Endret av [GDI]Raptor
Lenke til kommentar

Det trenger ikke ha noe å si. nVIDIA sine 128 enheter på G80/G82 har klart seg meget godt mot AMD sine 320 enheter på RV670.

 

Edit: Desuten teller AMD og nVIDIA shadere på forskjellig måte... Skal nVIDIA telle på samme måte som AMD så hadde G80 hatt 256 ALU'er, ikke 128.

Ok, dette var jeg ikke klar over. Det er ikke så greit å følge med på alle detaljene for oss vanlige drepbare. :)

Lenke til kommentar

Jeg ser det er flere som reagerer på 256bit minnebuss. Husk at minnebåndbredden (hastigheten målt i gigabyte per sekund) er et produkt av både bussbredden og klokkehastigheten på den.

 

F.eks:

8800 Ultra: 384 bit/8 * 2,16 GHz (effektiv) = 103,7 GB/s

4870: 256 bit/8 * 3,870 GHz (effektiv) = 123,8 GB/s

 

Er det ikke dessuten slik at bredere bus tar mer plass på kortet? Ved å holde seg til 256 bit og heller bruke raskere minne kan man dermed få plass til mer annet snop, slik som 480 Stream-prosessorer.

Jepp, det tar mer plass på kortet i form av flere minnebrikker, samt flere lag kretskort og større plass på kretskortet. Begge de to førstnevnte øker produksjonsprisen merkbart.

 

Men det er ikke noe kompromiss mellom antall shadere og minnebussen. GPUen blir ikke så stor at det går nevneverdig ut over plassen på kretskortet.

Lenke til kommentar
Nå er nok den krympingen beregnet for prissegmentet under der hvor de nye RV770 kortene vil ligge... Forskjellige versjoner av brikken med kodenavn GT200 skal opp mot RV770...

Skal ikke GT200 ligge enda høyere i pris, da? Vil vel si at den i alle fall må ned mot ca. 3000 kr for å konkurrere med 4870. 2500 kr er jo bare veiledende pris. Reell utsalgspris vil ligge noe lavere.

 

F.eks:

8800 Ultra: 384 bit * 2,16 GHz (effektiv) = 103,7 GB/s

4870: 256bit * 3,870 GHz (effektiv)= 123,8 GB/s

:D

 

Jepp, det tar mer plass på kortet i form av flere minnebrikker, samt flere lag kretskort og større plass på kretskortet. Begge de to førstnevnte øker produksjonsprisen merkbart.

 

Men det er ikke noe kompromiss mellom antall shadere og minnebussen. GPUen blir ikke så stor at det går nevneverdig ut over plassen på kretskortet.

Ok. Hva kan man få mer plass til, da?

Lenke til kommentar
F.eks:

8800 Ultra: 384 bit * 2,16 GHz (effektiv) = 103,7 GB/s

4870: 256bit * 3,870 GHz (effektiv)= 123,8 GB/s

:D

1935 MHz reell klokkefrekvens * 2 på grunn av DDR-teknikken = 3870 MHz effektivt.

Akkurat som 8800 Ultra har 1080 MHz reell klokkefrekvens * 2 = 2160 MHz effektivt.

Akkurat som DDR2-800 har 400 MHz reell klokkefrekvens * 2 = 800 MHz effektivt.

 

GDDR5 er heftige saker ;)

 

Ok. Hva kan man få mer plass til, da?

Det er ikke om å gjøre å stappe inn mest mulig for å fylle plass. Det er om å gjøre å fylle smart sånn at man holder varmeutviklingen på et fornuftig nivå samtidig som man har et godt kompromiss mellom ytelse på GPU og ytelse på minnesystemet. Samt best mulig ytelse i forhold til produksjonskostnadene. Varmeutvikling begrenser hovedsaklig GPU fra høyere hastigheter og flere shadere. Minnesystemet begrenses mer av produksjonskostnad.

Lenke til kommentar
1935 MHz reell klokkefrekvens * 2 på grunn av DDR-teknikken = 3870 MHz effektivt.

Akkurat som 8800 Ultra har 1080 MHz reell klokkefrekvens * 2 = 2160 MHz effektivt.

Akkurat som DDR2-800 har 400 MHz reell klokkefrekvens * 2 = 800 MHz effektivt.

 

GDDR5 er heftige saker ;)

Nå var det helst selve tallet jeg reagerte på. Liten morsomhet fra ATi sin side, kanskje? ;)

 

Det er ikke om å gjøre å stappe inn mest mulig for å fylle plass. Det er om å gjøre å fylle smart sånn at man holder varmeutviklingen på et fornuftig nivå samtidig som man har et godt kompromiss mellom ytelse på GPU og ytelse på minnesystemet. Samt best mulig ytelse i forhold til produksjonskostnadene. Varmeutvikling begrenser hovedsaklig GPU fra høyere hastigheter og flere shadere. Minnesystemet begrenses mer av produksjonskostnad.

Joda, men så var det også derfor jeg la vekt på kan.

 

Endring: Kikket på ordboken til Hardware.no, og så dette:

 

Dersom en grafikkbrikke har "32 pixel pipelines", men bare 16 ROP-er, vil brikken uansett ikke klare å pumpe ut mer enn 16 piksler per klokke.

Ifølge den samme ordboken er "pixel pipeline" et foreldet begrep for TMU, noe dette nye kortet altså har nettopp 32 av. Hvordan henger dette sammen?

Endret av tåa
Lenke til kommentar
gleder meg til å se dette kortet i crysis :D

Den vil sikkert gjøre seg bra i høye oppløsninger fra ca 1600x1200 med High og oppover siden Crysis er GPU-begrenset i de oppløsningene og vi rimelig sikkert kan anta at 4870 blir raskere enn 3870. På lavere oppløsninger er Crysis hovedsaklig begrenset av klokkefrekvensen på prosessoren. kilde. Crysis ser også ut til å kjøre noe kjappere på XP enn Vista.

Lenke til kommentar
Endring: Kikket på ordboken til Hardware.no, og så dette:

 

Dersom en grafikkbrikke har "32 pixel pipelines", men bare 16 ROP-er, vil brikken uansett ikke klare å pumpe ut mer enn 16 piksler per klokke.

Ifølge den samme ordboken er "pixel pipeline" et foreldet begrep for TMU, noe dette nye kortet altså har nettopp 32 av. Hvordan henger dette sammen?

Dagens GPU'er bruker mye mer tid på å bearbeide pixler enn å skrive dem ut, men likevel kan nok 48x0 fort bli ROP begrenset i en del situasjoner med bare 16 av dem, ihvertfall oftere enn HD38x0.

 

"pixel pipeline" er vel nærmere et foreldet begrep for ROP.

Lenke til kommentar

Jeg har tenkt til og kjøpe meg 3870X2, men er det noe vits og kjøpe det hvis det er sånn at 4870 er nesten like bra? Har tenkt meg Crossfire X en gang i fremtiden, så det blir vel bra med 4 stk 4870 da? Men åssen er kjøle løsningen på dette kortet? er det sånn at det tar 2 slots eller bare 1?

Lenke til kommentar

Det der er jo latterlig egentlig, 1024*768 på medium...

 

VHIGH/DX10 i normale oppløsninger, så vil man vel sjelden være CPU-begrenset. Spesielt i og med at de fleste egentlig kan bare smelle C2Q/D-prosessorene sine til 3GHz uten problemer. Hadde da aldri noen problemer med en Q6600@3GHz med to GTX (@Ultra+) f.eks. enda jeg gikk aldri så langt ned på oppløsningen (fikk fortsatt mye igjen for det).

 

Kan likevel ikke påstå at det gikk helt fantastisk. Skulle gjerne sett et kort som virkelig takler Crysis i VHIGH i en grei oppløsning.

Lenke til kommentar
Jeg har tenkt til og kjøpe meg 3870X2, men er det noe vits og kjøpe det hvis det er sånn at 4870 er nesten like bra? Har tenkt meg Crossfire X en gang i fremtiden, så det blir vel bra med 4 stk 4870 da? Men åssen er kjøle løsningen på dette kortet? er det sånn at det tar 2 slots eller bare 1?

Det er så vidt jeg vet ingen bilder av kort basert på 4800-serien ennå og dermed heller ikke noe svar på det med kjøleløsning.

Det er ingen ytelsetester av 4800-serien på nett ennå så vi vet strengt tatt ingenting om ytelsen ennå. Det blir bare spekulasjoner basert på den lille og usikre informasjonen som har lekket hittil.

Vi vet heller ikke om det det støtter Crossfire X.

 

Med andre ord: Tiden vil vise.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...