anordne Skrevet 23. juli 2008 Skrevet 23. juli 2008 Så disse FP64 Aluene blir ikke brukt på noen måte når det står geforce på kortet? Hørtes jo fornuftig ut at 65nm chipene blir brukt mot bedriftets marked
Theo343 Skrevet 23. juli 2008 Skrevet 23. juli 2008 (endret) De blir ikke brukt i de tilfeller en gamer bruker kortet og heller ikke i flere CUDA situasjoner. Endret 23. juli 2008 av Theo343
Theo343 Skrevet 24. juli 2008 Skrevet 24. juli 2008 Nå er jeg den lykkelige eier av et GTX 280 til 2500,- inkl. frakt og alt fra USA, god damn jeg gleder meg. The Devil has gotten its way with me
WheelMan Skrevet 24. juli 2008 Forfatter Skrevet 24. juli 2008 /the devil speeking Ble en dyr affære det her ja Theo
hamtidamti Skrevet 24. juli 2008 Skrevet 24. juli 2008 Nå er jeg den lykkelige eier av et GTX 280 til 2500,- inkl. frakt og alt fra USA, god damn jeg gleder meg. The Devil has gotten its way with me hvor?!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!! must have gtx
Theo343 Skrevet 24. juli 2008 Skrevet 24. juli 2008 Haha wheelman, ikke si sånt i etterkant, blir helt skjelven Jupp det ble noen disker og litt sånn slags Hamti: Kjøpte via bekjent i USA.
WheelMan Skrevet 24. juli 2008 Forfatter Skrevet 24. juli 2008 (endret) Jeg vil ha GX2 280 : / Endret 24. juli 2008 av WheelMan
Andrull Skrevet 24. juli 2008 Skrevet 24. juli 2008 ja, men de må fortsatt lage en 4870x2 for og slå gtx280. alltid en x2, ikke noe topp skjermkort med en gpu på, nei det klarer de ikke!!! RV770 har en nokså bedre transistor til ytelseforhold kontra GT200, så hva hadde dem fått til hvis dem hadde gått samme rute som nVidia og hadde hatt samme transistor budsjett? Det er ikke som at ATi ikke har vært foran nVidia før med en enkel GPU. Tja, si det. Nå kan det jo kanskje være det enoerme antallet transistorer som gjorde GTX 280 til det kortet det ble. For jo flere transistorer jo vanskeligere blir det å utnytte dem effektivt. Kanskje Nvidia tok litt vann over hode denne gangen? Rett og slett FOR mange. Er vel bla. derfor man kjører på med multikjerne design på CPU-siden, og delvis på GPU-siden?
MistaPi Skrevet 24. juli 2008 Skrevet 24. juli 2008 Tja, si det. Nå kan det jo kanskje være det enoerme antallet transistorer som gjorde GTX 280 til det kortet det ble. For jo flere transistorer jo vanskeligere blir det å utnytte dem effektivt. Kanskje Nvidia tok litt vann over hode denne gangen? Rett og slett FOR mange. En del transistorere har også gått med til GPGPU formål som FP64 ALU'ene. Jeg har dog liten tvil om en like stor hypotetisk R720 med kanskje 1200 SP's, 60 TMU's, 24 ROP's og 768MB GDDR5 minne på en 384bit minnebuss hadde slått GTX280 ganske greit. Er vel bla. derfor man kjører på med multikjerne design på CPU-siden, og delvis på GPU-siden? Ja og denne ruta skal som nevnt visnok også nVidia gå fra og med neste generasjon. Kanskje til en større grad (også for AMD) der samme brikka blir brukt lengre nedover i segmentene og kanskje 2 brikker/kjerner for mid til high-end og 4 for topp modellen. Det avhenger også av at multi-GPU løsningene blir mer effektive. På software siden ser det ut som at D3D11 vil ha en løsning for dette med Multithreaded Rendering (kanskje er det hovedgrunnen til DX11 ikke er så langt unna?).
anordne Skrevet 24. juli 2008 Skrevet 24. juli 2008 Noe spennende som skjer i slutten av Q3? http://www.techpowerup.com/66660/Spy-shot_..._September.html
Sam_Oslo Skrevet 24. juli 2008 Skrevet 24. juli 2008 Noe spennende som skjer i slutten av Q3? http://www.techpowerup.com/66660/Spy-shot_..._September.html Dette var litt for mystisk for min smak. Jeg skjønte ikke hva de prøver å "big bang"-e i hele tatt.
anordne Skrevet 24. juli 2008 Skrevet 24. juli 2008 Mulig bare det er en utvidelse av SLI. Snakkes om at "big bang(1)" var da sli kom. Kanskje noe så kjedelig at det blir normalt at intel chipset får SLI støtte. Noe vi vet fra før uansett med X58.
Sam_Oslo Skrevet 24. juli 2008 Skrevet 24. juli 2008 Da blir det ikke noe "big bang"-2, de blir heller "big defeat"-2. Fordi Nvidia har alltid prøvd å ha monopol på SLI på sine egne brikker, men nå har da ingen valg og må bare finne seg i det.
MistaPi Skrevet 24. juli 2008 Skrevet 24. juli 2008 Noe spennende som skjer i slutten av Q3? http://www.techpowerup.com/66660/Spy-shot_..._September.html Dette var litt for mystisk for min smak. Jeg skjønte ikke hva de prøver å "big bang"-e i hele tatt. Fra det som kan tydes på det bildet: SLI connectivity features Display connectivity Quality improvements Performance improvements OpenGL 3.0
Theo343 Skrevet 24. juli 2008 Skrevet 24. juli 2008 (endret) En spennende tid vi går i møte, helt klart. Det er ikke lenger bare "større er bedre" Endret 24. juli 2008 av Theo343
Onyx Skrevet 24. juli 2008 Skrevet 24. juli 2008 Nå er jeg den lykkelige eier av et GTX 280 til 2500,- inkl. frakt og alt fra USA, god damn jeg gleder meg. The Devil has gotten its way with me Så du klarte ikke å motstå fristelsen? Trodde du skulle ha 4870X2!? Uansett, med den prisen der, er ytelse per krone på sitt beste.
HKS Skrevet 24. juli 2008 Skrevet 24. juli 2008 Noe spennende som skjer i slutten av Q3? http://www.techpowerup.com/66660/Spy-shot_..._September.html Det er driver-veikartet... Bedre ytelse, bedre kvalitet, SLI og mye mer... Dette har ikke noe med PhysX å gjøre, da det kommer på alle kort i august Denne større oppdateringen kommer i september. Kan ikke si så mye enda...
WheelMan Skrevet 25. juli 2008 Forfatter Skrevet 25. juli 2008 (endret) Snakker vi GX2 (eller fler chiper) kort med mulighet for tri/quad-SLi? EDIT: Eller et kort med dual- eller quad-core chip *ønske seg* EDIT2: Siden de sier Big Bang II - kanskje vi snakker om enten et GX2 - eller et dual-core (singel-chip) kort? *spekulere* Endret 25. juli 2008 av WheelMan
Sam_Oslo Skrevet 25. juli 2008 Skrevet 25. juli 2008 (endret) Skal spekulere litt også. Jeg tror de har planer å slippe ut et GX2 (singel-chip) kort, og relasjoner mellom 2 kjerner kommer til å være på samme måte som feks. Intel's E8500. Dette ligger i lufta og før eller senere kommer vil til å se Gx2 single-chip. Hvis Nvidia klarer å få det til, da vil det bli stor skritt i GPU-evolusjonen, og da vil det passer bra å kalle det for Big Bang II. Endret 25. juli 2008 av Sam_Oslo
Onyx Skrevet 25. juli 2008 Skrevet 25. juli 2008 Det er alltid stas å leke med tanken. Det er bare synd at Intel og Nvidia skal være så hårsår når det kommer til hovedkort og lisensiering - tenker da på støtte mellom Intel-chipset og SLI.
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå