Gå til innhold

Spolerer moroa for R600?


Anbefalte innlegg

Uansett om ati tar ytelses tronen, så er det pris@ytelse / støy(/strømforbruk) forhold som betyr mye

 

Rykter rundt utsettelser (som har vært) og benchmarks peker litt i retning av en delvis nvidia 5800 flop?

7943690[/snapback]

 

Hæ ?

 

1) Kortet er flere måneder senere enn G80, ingen tvil om det, men det er jo ikke sikkert at planen var å lansere i september eller så, men kanskje planen var å lansere i januar til Vista launch ? (Ja, jeg er klar over all postingen på diverse fora om utsettelser etc)

 

2) Hvilke benchmarks ? Det har vel til dags dato ennå ikke biltt postet noen benchmarks fra folk som faktisk har endelig produkt. Det har vært endel "fake" benchmarks ala level 505, men thats it. Og kun frames-pr-second sier egentlig lite. Hva vis bildekvaliteten er 50% bedre enn G80, men framerate er 1% dårligere.... jeg ville da uten tvil valgt R600 og ikke G80, selv om G80 er 1% raskere.

 

Så det å sammenligne R600 med NV30 er jo helt latterlig. (Det utelukker dog ikke muligheten for at du faktisk får rett, men jeg tror ikke det)

Lenke til kommentar
Videoannonse
Annonse
Uansett om ati tar ytelses tronen, så er det pris@ytelse / støy(/strømforbruk) forhold som betyr mye

 

Rykter rundt utsettelser (som har vært) og benchmarks peker litt i retning av en delvis nvidia 5800 flop?

7943690[/snapback]

 

Hæ ?

 

1) Kortet er flere måneder senere enn G80, ingen tvil om det, men det er jo ikke sikkert at planen var å lansere i september eller så, men kanskje planen var å lansere i januar til Vista launch ? (Ja, jeg er klar over all postingen på diverse fora om utsettelser etc)

 

2) Hvilke benchmarks ? Det har vel til dags dato ennå ikke biltt postet noen benchmarks fra folk som faktisk har endelig produkt. Det har vært endel "fake" benchmarks ala level 505, men thats it. Og kun frames-pr-second sier egentlig lite. Hva vis bildekvaliteten er 50% bedre enn G80, men framerate er 1% dårligere.... jeg ville da uten tvil valgt R600 og ikke G80, selv om G80 er 1% raskere.

 

Så det å sammenligne R600 med NV30 er jo helt latterlig. (Det utelukker dog ikke muligheten for at du faktisk får rett, men jeg tror ikke det)

7947273[/snapback]

Nå har vel g80 nærmest "perfekt" bildekvalitet, så de fleste burde være fornøyde uansett med bildekvaliteten. Og etterosm forvrengningenn er minimal, så blir det vel ikke særlig forskjell. (ivhertfall ikke mot den positive siden)

 

 

Høres ut som det er litt diskusjon om hva som skjer med 8900GTX. Da andre nettsteder mener 8900GTX er bygget på 80nm prosess og GDDR4...

imageviewon6.jpg

Lenke til kommentar
Høres ut som det er litt diskusjon om hva som skjer med 8900GTX. Da andre nettsteder mener 8900GTX er bygget på 80nm prosess og GDDR4...

 

høres flott ut det, men ifølge den tabellen er det ikke 25% flere shaders..... :hmm:

 

men uansett er det en flott oppgradering

 

 

nå har jo INQ gjort en liten forandring på historien sin, og den bekrefter tabell over

 

The second in Nvidia's spring line-up is the Geforce 8900 GTX clocked at 700MHz GPU and 2200MHz memory. The chip still has a 384-bit memory interface and comes with 768MB of memory. The card uses a new 80 nanometre chip and has 128 Shaders.
Endret av leifeinar
Lenke til kommentar

Hmm.. hvis litt økte klokkehastigheter er alt nvidia har å by på så ser det ennå sikrere ut for at de ikke vil klare å gjenerobre ytelsetronen.

 

22% raskere GPU og 22% raskere minne er egentlig ikke så veldig mye. Hvis nvidia hadde gått grundigere til verks hadde de samtidig økt minnebussen til 512bit og lagt til de nevnte shaderene. Det kunne i teorien ført til 63% raskere minne og 52% raskere GPU dersom vi antar samme klokkehastigheter som her (700/2200)

Lenke til kommentar
Hmm.. hvis litt økte klokkehastigheter er alt nvidia har å by på så ser det ennå sikrere ut for at de ikke vil klare å gjenerobre ytelsetronen.

 

22% raskere GPU og 22% raskere minne er egentlig ikke så veldig mye. Hvis nvidia hadde gått grundigere til verks hadde de samtidig økt minnebussen til 512bit og lagt til de nevnte shaderene. Det kunne i teorien ført til 63% raskere minne og 52% raskere GPU dersom vi antar samme klokkehastigheter som her (700/2200)

7949314[/snapback]

Hadde de forandret minnebussen så hadde vel dette krevd veldig mye forandring på skjermkortet, og dette hadde vel ført til at skjermkortet hadde kommet til en langt senere annledning, og ATI kunne hatt ytelsetronen for seg selv.... Noe som ikke er altfor positivt for oss sluttbrukere. (mer konkurranse er alltids bedre)

 

Men flere shadere hadde nok vært en fordel. Med 80nm så er de kanskje enda bedre overklokkere. (med 700MHz blir det nok tøft å overklokke mer, men hvem vet...) :innocent:

 

Om 8900GTX kommer ret før og blir litt dårligere , og ettersom det ikke har ytelsetronen så vil kanskje også prisen være lav, noe som høres ut som en bestselger for meg. :w00t:

(svært høy ytelse, uten å trenge å rane en bank passer meg fint)

 

Så hvem blir best av 8950GX og 8900gtx tru?

8950GX ville jeg absolutt tippet blir best. (ser vi på 7900GTX VS 7950GX2, så så vi jo bla at sistnevnte ble en god del bedre i de fleste spill)

Endret av andrull
Lenke til kommentar

Skal jeg være ærlige med dere, gidder jeg ikke trekke noe konklusjoner før begge kortene er ute og godt testet! Fanboy nykkene hos enkelte her er nok til å få meg til å le så det griner etter, særlig avean må jeg si! Det virker som karen er kjøpt og betalt av nVidia.. Å si at et selskap har vært konkret bedre enn ett annet er ren galskap. I hardware bransjen går ting fort opp og ned, selskapene finner på helt nye løsninger osv. Dessuten, til sist vil det alltid være et spørsmål om forbrukeren selv! Vil du ha det desidert beste på markedet, så velger du det som er best! Vil du ha det som gir mest for pengene, ja da kjøper du det! Det er holdningen jeg lever etter, og om det er ATI eller nVidia det bryr meg midt i kneet!

Lenke til kommentar
8950GX ville jeg absolutt tippet blir best. (ser vi på 7900GTX VS 7950GX2, så så vi jo bla at sistnevnte ble en god del bedre i de fleste spill)

7950062[/snapback]

 

Nå er jo 7950 GX2 et dual GPU kort som benytter seg av SLI teknologien og ikke en forbedret 7900 Versjon slik som 8950 GX er over 8900 GTX. Du får mer eller mindre samme ytelse ved å kjøre 2stk 7900GT i SLI

 

ATI kan Dual GPU skjermkort de og lærte seg dette lenge før Nvidia som måtte kjøpe opp 3Dfx for å få orden på det.

 

ATi har vel droppet å satse på det da de ligger såpass etter generasjons messig men Sapphire har vist frem prototyper med dual GPU fra ATI tidligere så det er ingen umulighet at dette dukker opp i nær fremtid.

Endret av Revox
Lenke til kommentar
Etter det jeg kan se, så er 8950GX satt sammen av to skjermkort med ytelsen til et 8800GTS pr GPU. (har lavere minnebuss, men har GDDR4 med langt høyere frekvens)

7953329[/snapback]

 

Ja stemmer det. Blandet det med 8900GTX. Men er uansett ikke 8950GX som det er snakk om når det gjelder spolere for R600. Jeg fant ikke noe info på når 8950GX skulle ankomme markedet annet en planlagt 2007.

Endret av Revox
Lenke til kommentar

Neste vårens high-end oppdatering kommer til å få 80nm. De nåværende 90nm G80 kortene ble kun produsert i 90nm for å få ut et produkt i november. Hadde nVidia ventet på 80nm hadde de ikke hatt 8800-serien klar før tidligst medio-januar.

 

G80 støtter GDDR4, men det ble aldri brukt på grunn av dårlig tilgjenglighet i oktober/november, samt høye priser.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...