Gå til innhold

Nvidia Geforce-lanseringsdato lekket?


Anbefalte innlegg

Hvis den tabellen stemmer så tipper jeg 570 vil yte omtrent likt med 480. Dvs. bedre i de fleste spill/programmer på 1920x1200 og nedover og litt dårligere på høyere oppløsninger. Men den blir kanskje en del billigere enn 480?

 

Igjen, hvis tabellen stemmer, så tipper jeg 580 vil yte omtrent 10-12% bedre enn 480.

Hvis GTX 580 er rundt 15-17% bedre, blir ikke GTX 570 litt for nærme da? Med tanke på at minnebussen har gått fra 384-bit til 320bit og minnetstørrelsen har gått fra 1536MB til 1280MB så tror jeg at den vil få et ytelseshopp på 10% som peak, mens i andre funksjoner yte ikke fullt så mye mer.

 

Så lenge GTX 570 blir litt bedre enn GTX 480 så blir jeg fornøyd. Synes effektforbruk, støy og temperaturer er det som er viktig med disse kortene. Ytelsen var tross alt ganske bra fra før, men nå får du mye mer ytelse per watt.

Husker du tilbake da GTX 280 ble erstattet av GTX 285 og GTX 275? GTX 275 lå ytelsemessig veldig nær GTX 285 på tross av en vesentlig lavere pris. Like mange kjerner, like mange TMU, litt ferre ROP, litt lavere frekvens og litt smalere minnebuss gjorde kortet til et veldig godt kjøp sammenlignet med storebroren. Avstanden mellom GTX 570 og GTX 580 ser ut til å bli større, så jeg ser ingen problemer her.
Lenke til kommentar
Videoannonse
Annonse

Hmm, okei da. Men det vil gjøre GTX 580 til et betydelig dårligere kjøp, men det er jo "entusiast kort" så det er vel ikke det verste. Regner med at GTX 570 blir veldig billig med tanke på mindre minne. 1280MB er vel egentlig nok, så jeg ser på GTX 580 som et entusiast kort for de litt mer interesserte. GTX 275 var jo det et av det beste kortet i serien pga du fikk veldig mye for pengene, GTX 570 blir vel "det nye GTX 275".

Lenke til kommentar

Minnmengde har sammenheng med bussbredde og er ikke noe man helt fritt justerer opp og ned men må da oftest enten halveres eller dobles i en multiplikator av bussbredde.

Ja det er nettopp derfor de ulike skjermkortene har ulik minnemengde, men brikkene som GTX 460+ og GTX 580 bruker finnes i tilsvarende variant med dobbel kapasitet, så det er fullstendig mulig å doble minnemengden, det var da det blant annet Palit, Gigabyte og EVGA gjorde med GTX 285 og blant annet Gigabyte, Zotac og Gainward har gjort med GTX 460. Det som forundrer meg er at ingen gjorde det med GTX 480, jeg håper GTX 580 får dette snart.
Lenke til kommentar

Som sagt er det som regel nok, og det var det som var poenget mitt. Jeg gidder ikke ta stilling til hva det er i ditt enkelttilfelle, det kan være andre flaskehalser i systemet, men det er ingen poeng å dvele med det. Men generelt sett så kommer gjerne mer minne på skjermkortet godt med om du kjører 2560x1600 med 16x MSAA, men det er likevel godt at vi ikke bruker gammeldags supersampling lenger.

Lenke til kommentar

Minnmengde har sammenheng med bussbredde og er ikke noe man helt fritt justerer opp og ned men må da oftest enten halveres eller dobles i en multiplikator av bussbredde.

Ja det er nettopp derfor de ulike skjermkortene har ulik minnemengde, men brikkene som GTX 460+ og GTX 580 bruker finnes i tilsvarende variant med dobbel kapasitet, så det er fullstendig mulig å doble minnemengden, det var da det blant annet Palit, Gigabyte og EVGA gjorde med GTX 285 og blant annet Gigabyte, Zotac og Gainward har gjort med GTX 460. Det som forundrer meg er at ingen gjorde det med GTX 480, jeg håper GTX 580 får dette snart.

Det er jo akkurat det jeg sier ;)

Lenke til kommentar

Som sagt er det som regel nok, og det var det som var poenget mitt. Jeg gidder ikke ta stilling til hva det er i ditt enkelttilfelle, det kan være andre flaskehalser i systemet, men det er ingen poeng å dvele med det. Men generelt sett så kommer gjerne mer minne på skjermkortet godt med om du kjører 2560x1600 med 16x MSAA, men det er likevel godt at vi ikke bruker gammeldags supersampling lenger.

 

skjønner jo at på høyere oppløsninger så må man ha mer minne. men tipper at nvidia har tenkt at de som har skjermer som støtter 2560x1600 kjøper 580, siden sånne skjermer jo er svindyre. de som kjøper 570 har nok mest sansynlig maks 1900x1200 skjermer. så da sparer nvidia litt i produksjonskostnader kontra å ha 384bit og 1536 mb minne.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...