Gå til innhold

Spolerer moroa for R600?


Anbefalte innlegg

Etter det jeg kan se, så er 8950GX satt sammen av to skjermkort med ytelsen til et 8800GTS pr GPU. (har lavere minnebuss, men har GDDR4 med langt høyere frekvens)

7953329[/snapback]

 

Ja stemmer det. Blandet det med 8900GTX. Men er uansett ikke 8950GX som det er snakk om når det gjelder spolere for R600. Jeg fant ikke noe info på når 8950GX skulle ankomme markedet annet en planlagt 2007.

7954271[/snapback]

Kommer det ikke et dobbelt "R600" XTX2-kort fra ATI også?

Lenke til kommentar
Videoannonse
Annonse
et skjermkort er mer enn ram ;)

7939676[/snapback]

 

Men her er det snakk om 1GB 512 bit GDDR 4 RAM @ 2200MHz på toppmodellen av R600.

 

Edit:

http://www.ocworkbench.com/2007/newsphotos...R600%20info.jpg

7939859[/snapback]

 

ja da svarer nvidia mer enda raskere minne da. ikke så vanskelig det.

7939922[/snapback]

 

Da må nvidia oppgradere minnebus fra 320 bit til litt mer...

7939950[/snapback]

 

ja tror du det er vanskelig for nvidia å øke biten ? hehe

7939965[/snapback]

Slike utsagn synes jeg bare blir teit.

Lenke til kommentar
nVIDIA har nå alltid dominert over ATi samme som Intel over AMD. Synes det var hysterisk morsomt at ATi og AMD slo seg sammen. Tror ikke det var sjakktrekk akkurat.

7939838[/snapback]

 

Venligst ikke utal deg om noe du ikke vet, Hvem som har produsert best skjermkort og cpuer har forandret seg opp gjennom tiden i fra alle de 4 produsentene du nevner, å ver en fanboy uten hjerne er ingen unskylding for å utale seg.

7939973[/snapback]

 

Da jeg jobber med dette har jeg bedre erfaring enn de fleste ;) Men alltid morro å terge AMD/ATi folk synes jeg. Intel og nVIDIA har alltid vært bedre, det står jeg fast på. Intel mer stabilt, bedre kjøling. nVIDIA bedre bilde, høyere ytelse og støtte for drivere.

 

Men som sagt, forskjellige meninger :)

7940265[/snapback]

Vi er flere som "jobber med dette", og mye av det du sier er en myte.

Lenke til kommentar
et skjermkort er mer enn ram ;)

7939676[/snapback]

 

Men her er det snakk om 1GB 512 bit GDDR 4 RAM @ 2200MHz på toppmodellen av R600.

 

Edit:

http://www.ocworkbench.com/2007/newsphotos...R600%20info.jpg

7939859[/snapback]

 

ja da svarer nvidia mer enda raskere minne da. ikke så vanskelig det.

7939922[/snapback]

 

Da må nvidia oppgradere minnebus fra 320 bit til litt mer...

7939950[/snapback]

 

ja tror du det er vanskelig for nvidia å øke biten ? hehe

7939965[/snapback]

Slike utsagn synes jeg bare blir teit.

7961920[/snapback]

 

teit ? begrunn hva du mener er teit ? det er jo ikke noe problem for nvidia å øke biten på minnet hvis dem ønsker det. skjønner ikke problemet ditt.

Lenke til kommentar
Blazer:

Øke biten? Vet du hva det innebærer å øke denne biten som du kaller det?

 

Simalarion:

Jeg svarte litt kjapt før jeg leste andre svar i tråden, så ja... merkelig utsagn. :)

7964318[/snapback]

 

Dvs lage en 512 bit minnekontroller f.eks. ati gjør jo det. da klarer nok nvidia det og. om dem gjør det er en annen sak, jeg bare sa at de kunne det hvis de ville.

Endret av Blaz3r
Lenke til kommentar
Dvs lage en 512 bit minnekontroller f.eks. ati gjør jo det. da klarer nok nvidia det og. om dem gjør det er en annen sak, jeg bare sa at de kunne det hvis de ville.

7965108[/snapback]

Det er dog ikke en smal sak og det spørs hvor stor utbytte det ville ha gitt når G80 ikke er designet mot en så høy minnebåndbredde.

Lenke til kommentar
Dvs lage en 512 bit minnekontroller f.eks. ati gjør jo det. da klarer nok nvidia det og. om dem gjør det er en annen sak, jeg bare sa at de kunne det hvis de ville.

7965108[/snapback]

Det er dog ikke en smal sak og det spørs hvor stor utbytte det ville ha gitt når G80 ikke er designet mot en så høy minnebåndbredde.

7965413[/snapback]

 

ikke designet ? er jo ikke umulig at nvidia kommer med en kraftigere versjon av g80. har hørt rykter om 160 shadere osv..så er mye mulig høyere båndbredde vil lønne seg.

Lenke til kommentar
Blazer:

Hvorfor skal de redesigne og lage en helt ny implementasjon, da får vi ikke 8900 på denne siden av sommeren. Det virker som du tror det er en "flip of a switch", det er nok mer komplisert enn som så.

7967821[/snapback]

Ja, minnebåndbredden er vel kanskje en av de mest drastiske tiltakene på et skjermkort. (alt må re-designes)

Om jeg ikke tar feil, så er det vel slik at det er flere tråder som går fra minnebrikkene til GPUen, noe som betyr at de må plasseres annderledes, GPUen å omdesignes, og PCB kortet må forandres for å få plass. Og gjør de det så ville vi vel nesten kunne kalt det 9800GTX. (altså en ny serie)

 

En krymping av kjernen, og bytte ut minnebrikkene høres langt mer overkommelig med tanke på pris og på tidspekteret. :)

Endret av andrull
Lenke til kommentar

Flere shader ALU'er koster ikke båndredde. Hva som vil koste båndbredde er høyere klokkehastighet på TMU og ROP enhetene og det er nok noe raskere minne (GDDR4) kan ta seg av. Indirekte kan også flere shader ALU'er gi en båndbredde kostnad da det gir mulighet for å kunne kjøre høyere oppløsning, men kostnad vs utbytte for 512bit minnebuss er nok for høy.

Jeg sier dog ikke noe for sikkert. nVidia dobblet jo bredden på minnebussen fra Geforce 5800 til 5900 som på tross ikke ga det helt store resultatet.

 

Edit: Når jeg tenker etter: for D3D10 har vi jo også streamout som tar båndbredde (skrive ut data til minne for å leses tilbake igjen med vertex fetch). Så for vertex data båndbredde kan dette øke ganske merkant i fremtiden.

Hvis det er dette ATi har i tankene kan man begynne å lure på om den høye båndbredden til R600 vil ha noe særlig umiddelbar fordel (overshooting again eh..).

Endret av MistaPi
Lenke til kommentar

Bredden på minnebussen i antall bit er det antall pinner som brukes til datatransport. Allerede ved 256 bit (256 "ledninger") mellom GPU og minnebrikkene krevdes det avanserte kretskort (PCB) med svært mange ledere. Hver minnebrikke har 32bit tilkobling så 256bit betyr 8 brikker.

 

Hver minnebrikke har 144 pinner selv om det bare 32 brukes til datatransport. Mange av pinnene er spenningsforsyning og gir dermed ikke noe særlig mer avanserte kretskort, men 32 pinner og dermed 32 ledere fra hver eneste minnebrikker blir fort mye å holde styr på.

 

Skjermkort med 8 minnebrikker har som regel 8 lag med ledninger. Altså ganske mye mer avansert og dyrere å produsere enn simple 1-lags eller 2-lags kretskort man designer på GK elektro. Å øke til 12 minnebrikker slik som på G80 er alene ganske krevende. Å øke opp til 16 minnebrikker er selvfølgelig ennå mer krevende. Kretskortet må kanskje være 12-14 lag, takle en GPU med over 1000 pinner, takle 16 minnebrikker med totalt over 2300 pinner til sammen og det skal være skjerming (jord) rundt hver leder og lag for å dempe signalstøyen.

 

I tillegg må selvfølgelig minnekontrolleren på skjermkortet utvides. Man kan sikkert tenke at det er bare å klippe og lime i designet, men så enkelt er det ikke. Crossbaren skal også utvides og det krever mye ingeniørarbeid. I tillegg bør den interne bussen økes for å være god nok for minnebåndbredden. Trolig til 1024 bit. Det er også ganske krevende.

 

De nye minnebrikkene skal også få plass på kortet og ha plass til ledninger og skjerming rundt seg. Det betyr et betydelig plasskrav.

 

I tillegg hadde det vært fint om GPUen hadde fått tilsvarende flere pipelines og shadere slik at minnebåndbredden hadde blitt utnyttet bra.

 

Ikke rart at kort med brede minnebusser krever mye av utviklingsteamet og ikke minst av produksjonsapparatet.

 

Kort sagt: Jeg tror ikke nvidia kommer med 512bit minnebuss før neste generasjon skjermkort (9000-serien?) fordi det er et for mye å bite over på for kort tid.

Lenke til kommentar
Kort sagt: Jeg tror ikke nvidia kommer med 512bit minnebuss før neste generasjon skjermkort (9000-serien?) fordi det er et for mye å bite over på for kort tid.

7971352[/snapback]

Tja... nVidia gikk fra 128bit på NV30 (FX 5800) til 256bit på NV35 (FX 5900) på relativt få månder.

 

nVidia har allerede 368bit på 8800GTX, og kan hente allerede hente mye med GDDR4 minne og høyere minnefrekvens.

 

Endel av nVidia sine utforsringer med G80 er blandt annet at den foreløpig er på 90nm for å få tilgjenglighet i november.

Lenke til kommentar

<offtopic>

 

Han Avean nekter å svare Theo, på feks hva det er han jobber med.

 

Før han kommer med konkrete eksempler som kan gi mat på alt han slenger ut med tar jeg ham for et ordinært forum Troll.

7964300[/snapback]

Tror han er litt feig jeg :) Og har komplekser for noe, siden det hele tiden er "jeg vet best", "i min jobb som er så kul og viktig så bla bla..". Han kommer også med mye uttalelser som er slik som "jeg har prøvd det selv og kan derfor si at ...", uten noen gang å poste et eneste screenshot eller benchmarkresultater. Eller belegge sine utsagn med troverdige kilder (annet enn hva han gjør på denne mystiske jobben sin). Hvor har jeg sett disse metodene før, jo ... hmmm ... hos relgiøse fanatikere ja!!11 :evil:

 

Han er vel et slags fanboyninjaforumstroll som elsker Sony, Nvidia og Intel :eek:

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...