Gå til innhold

Fortsatt håp for nye GX2-kort


Anbefalte innlegg

Videoannonse
Annonse

Det har allerede vært flere løse rykter om 280 GX2 på 55 nm for å synke varme/effektbrukk. Men slike rykter har aldri kommet fra Nvidia's topp folk før. Det er spennende å se hva de pønsker ut og når de slipper ut noe nytt. De må nok føler seg nødt til å overta ytelses tronen, ville jeg tro.

 

Jeg personlige har veldig lyst til å kjøpe Hd4870X2, men kommer nok til å vente minst frem til 27.agu i håpe om at de vil annonsere noe mer håndfast på "nvidsion 08"- konferansen.

Lenke til kommentar

Det blir stadig satt nye rekorder i hvor mye effekt et skjermkort skal bruke. Resten av industrien ser ut til å gå i retning av energigjerrighet. Men så er det ikke mange som kjøper slike skjermkort.

 

Multi-GPU blir alt for lite utnyttet av programvare. Her må nok både programvare og drivere bli bedre.

Lenke til kommentar
Det har allerede vært flere løse rykter om 280 GX2 på 55 nm for å synke varme/effektbrukk. Men slike rykter har aldri kommet fra Nvidia's topp folk før.

Iløpet av året kommer alle nVIDIA sine brikker til å bruke 55nm.

 

Jeg personlige har veldig lyst til å kjøpe Hd4870X2, men kommer nok til å vente minst frem til 27.agu i håpe om at de vil annonsere noe mer håndfast på "nvidsion 08"- konferansen.

Er skeptisk til om de annonserer noe der... Mulig de viser frem samples til utvalgte, kanskje de annonserer, vi får se...

 

Personlig håper jeg at de holder seg unna multi-GPU til arkitekturen er bedre. Det sa jeg også før 9800GX2 kom. Dette gjelder også AMD...

Lenke til kommentar

280gtx yter ca 20% bedre enn 4870, 4870x2 yter da 80% bedre på grunn av to kort men vi sier hundre for var det ikke noen spesiell crossfire løsning?

 

Da vil fortsatt 280gx2 eller 280gtx x2 yte 20% bedre en det nåværende toppkortet noe som teknisk sett kan forsvare en pris forskjell på ca 700kr. Men vis dette blir det absolutte toppkortet atm og nvidia kan ha litt høy pris så kan man faktisk godta et 280x2 på 5000,-

 

Dette er da basert på gjetninger og vil også være forskjellig i spill til spill, men jeg personlig kan ikke huske og sett noen tester som tilsir at 4870x2 er dobbelt så bra som 4870 i Crossfire + 20% hybrid crossfire. Da vil nvidia ytelsemessig kunne forklare ca 1400,- i prisforskjell + de andre faktorene som spiller inn. Men ett toppkort somslår det nåværende i ytelse med 20-40% er ganske kraftig økning.

 

 

Tilslutt: Alt er basert på gjetninger så ikke skyt meg vis alt er feil, er mest spekulering fra min side.

Lenke til kommentar
280gtx yter ca 20% bedre enn 4870, 4870x2 yter da 80% bedre på grunn av to kort men vi sier hundre for var det ikke noen spesiell crossfire løsning?

Dessverre kokte den "spesielle" Crossfire løsningen bort til ingenting... :(

 

Hverken nVIDIA eller AMD har per nå noen elegante måter koble sammen flere GPU'er. Frem til de får det så vil fremdeles ytelsen i multi-GPU variere ut i fra flere parametere.

Lenke til kommentar

Synes de burde sette nye standarder, som f.eks. å gå ned til 32nm og skaffe seg teknologien, de trenger også et lavere effektforbruk.. Lag også spill og 3D modelleringskort i samme kort. De kan også kutte sånt som 500, 300, 200 og 700 og heller satse på 600 og 800 for å få prisen på disse to ned.

Lenke til kommentar

Blir feil å kalle de kjerner. Da skulle man også ha kalt f.eks. hver FPU og integer-enhet i en CPU en kjerne.

 

Jeg lurer på hvor mye det hadde kostet å planlegge for enkel og dobbel kjerne per arkitektur for f.eks. AMD. Er sikkert enklere å implementere gode samarbeidsløsninger mellom to kjerner i samme die enn to separate kjerner på samme PCB.

Lenke til kommentar

Tja, hva man kan kalle en kjerne er ganske diffust.

 

For GPU er det ikke logisk å lage doble kjerner av det du kaller kjerner. Det er mye som er unødvendig å kopiere. Det eneste logiske jeg ser er å utvide den parallelle regnekapasiteten ved å legge til flere shadere og støtte det med mer minnebåndbredde.

Lenke til kommentar

Ser man bort ifra at et 280 gx2 er tilnermet galskap. så er det greit mulig med et sånnt kort.

 

synest de lager rimelig pinglete kjølere om dagen, ser man på tower kjølere så er de glatt 16cm høye. det betyr igjenn at det er plass til store radialvifter på 12-14cm på et skjermkort uten at et kommer i konflikt med noe, mens det egentlig virker som om at det er obligatorisk med 7-8cm vifter på et skjermkort som må ha stor hastighet for og flytte luft. og klarer nvida for en gangs skyld og bygge kort hvor ALL luft slipper fritt ut bak kabinettet, sitter man der kun med et skjemkort som bruker for allt for mye strøm

 

og gjerne 3 slots kort med skikkelige heatpipes for tilstrekkelig overflate.

 

jeg har ihvertfall god plass til et slikt kort

Lenke til kommentar
Tja, hva man kan kalle en kjerne er ganske diffust.

 

For GPU er det ikke logisk å lage doble kjerner av det du kaller kjerner. Det er mye som er unødvendig å kopiere. Det eneste logiske jeg ser er å utvide den parallelle regnekapasiteten ved å legge til flere shadere og støtte det med mer minnebåndbredde.

 

La meg gjøre det litt enklere. AMD og nVIDIA kniver om å ligge i toppen ytelsesmessig, men det er tydelig at det er lite hensiktsmessig å lage en helt egen arkitektur med en teoretisk shader-ytelse på størrelse med f.eks. dobbel RV770 eller GT200 siden denne ikke vil skalere realistisk i henhold til effektbruk (arkitekturen skal tross alt brukes fra topp til bunn). I tillegg ville den ha hatt en stor die som ikke kunne gjøres noe med. Dette er grunnen til at man ikke bare durer på og lager en mega-GPU med en gang.

 

Spørsmålet er om det hadde vært hensiktsmessig å i fremtiden legge disse to kjernene på samme die istedenfor å ha to på samme PCB (som det gjøres i dag -- for å være best på absolutt high-end). I og med at det antageligvis åpner opp for muligheter for å gjøre et slikt «dobbeltkort» langt mer effektivt, og kanskje til og med åpner opp for en enda større dynamikk basert på samme arkitektur enn det som er mulig i dag (med en chip som potensielt kan være veldig billig ultra-low-end på en god produksjonsteknikk samtidig som en virkelig high-end om man kunne kjøre flere på samme die effektivt).

Lenke til kommentar
Spørsmålet er om det hadde vært hensiktsmessig å i fremtiden legge disse to kjernene på samme die istedenfor å ha to på samme PCB (som det gjøres i dag -- for å være best på absolutt high-end). I og med at det antageligvis åpner opp for muligheter for å gjøre et slikt «dobbeltkort» langt mer effektivt, og kanskje til og med åpner opp for en enda større dynamikk basert på samme arkitektur enn det som er mulig i dag (med en chip som potensielt kan være veldig billig ultra-low-end på en god produksjonsteknikk samtidig som en virkelig high-end om man kunne kjøre flere på samme die effektivt).

 

Tror ikke det hjelper noe mer enn slik det er i dag. Det vil fremdeles være to adskilte GPU-er selv om dem er på samme DIE. Interconnecten kan gjøres mer "intim" om dere skjønner hva jeg mener, men noe utover det tror jeg ikke noe på. ATI har forbedret PCI-Express interconnect i sitt nye 4870 X2 (Ny chip fra PLX med PCI-e 2.0 støtte), og de har satt av en direkte interconnect mellom GPU-ene også, men denne er deaktivert foreløpig.

 

Slik som Crossfire og SLI teknologien er i dag spiller det ingen rolle om det gjøres i software eller hardware. Det kan rett og slett ikke gjøres i hardware fordi man må kunne ha mulighet til å oppdatere software (legge til støtte for fler spill, profiler). Noen spill støtter multi-GPU direkte også (Call of Duty 4 f.eks).

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...