Gå til innhold

Neste gen Nvidia skjermkort Kepler (GTX - 6xx ?)


_ziggy_

Anbefalte innlegg

dette med PSU og dimensjonering er KRAFTIG overddrevet som noen meddeler her..

 

min maskin med 3820 og GTX680SLI drar ikke mer enn rundt 550w under BF3 spilling. da er cpuen klokket til 5Ghz med 1.42v. til sammenligning dro GTX480SLI med 920 på 4.3Ghz oppimot og noen ganger over 1000w under BF2 BC med gpuene blodklokket... hihi... (950)

  • Liker 2
Lenke til kommentar
Videoannonse
Annonse

dette med PSU og dimensjonering er KRAFTIG overddrevet som noen meddeler her..

 

min maskin med 3820 og GTX680SLI drar ikke mer enn rundt 550w under BF3 spilling. da er cpuen klokket til 5Ghz med 1.42v. til sammenligning dro GTX480SLI med 920 på 4.3Ghz oppimot og noen ganger over 1000w under BF2 BC med gpuene blodklokket... hihi... (950)

 

Ja, jeg vet hvordan det er å ha GTX 480 i SLI noe som er grunnen til at jeg har en Corsair 1200W. Dette føles litt overdrevet når jeg nå sitter med bare en GTX 580 - og det blir enda mer overdrevent når jeg har installert i5-3570K og en GTX 680. Men jeg trenger ikke å bekymre meg for at jeg har for lite..

Lenke til kommentar

Lurer på GTX 790 hvordan den vil bli?

 

http://wn.com/Nvidia_GTX_790

 

Er det kun antagelser her?

 

er Maxwell GM110 noe impornerende i crysis? Altså ved alt på Entualist/ultra så burde vel den klare en rundt 120 FPS?

 

Så jeg lurer på hvordan utviklingen der blir, at det ikke finnes spill som klarer å belaste det skjermkortet noe særlig før man har 3x quad HD skjermer.

Endret av LMH1
Lenke til kommentar

Ja, det er fint at de satser på mer ytelse per watt men jeg håper virkelig at de ikke fortsetter å holde tilbake ytelsen i favør for lavere strømbruk. Jeg hadde ikke hatt noe imot at de økte strømforbruket på GTX 780 med 50% kanskje 100% over GTX 680 dersom det hadde ført til enda bedre ytelse. Er det ikke kun ytelsen som kun skal være i fokus med tanke på toppkort fra både Nvidia og AMD? Begge sidene produserer en haug med forskjellige varianter av skjermkort så hvorfor fokusere på å redusere strømforbruket på toppkortene?

Endret av Symmetrical
Lenke til kommentar

Fordi tilslutt vil vi sitte med GPUer som bruker 1000W om det fortsetter. Dette er ikke fordelaktig for noen. Men enig at på et toppkort, burde heller ytelsen være i fokuset, vil man ha et strømgjerrig skjermkort, fins det uendelig mange alternativer..

 

De kan blant annet separert toppkortene inn i to ulike 'klasser' hvorav den ene fokuserer på strømforbruk og den andre på ren ytelse. Se for deg et kort som kun er laget for de som har vannkjølingssystemer (ekstra mange cuda cores / streaming prosessors . .etc). Dette er selvfølgelig ønsketenking men det hadde vært fantastisk.

Lenke til kommentar

Bare en antagelse, men flytting av varme fra 1000 watt fra en så liten overflate høres ekstremt ut.

 

Hva hvis man splitter GPU-overflaten utover PCBen? .. En meter lang PCB? :eek:

Går ikke an å splitte overflaten på en GPU.

 

 

Techreport har lagt ut en kort artikkel om GK110: http://techreport.com/articles.x/22989/3

The Nvidia executives we talked with raised the possibility of a GK110-based GeForce being released this year only if necessary to counter some move by rival AMD. That almost certainly means that any GK110-based GeForce to hit the market in 2012 would come in extremely limited quantities.

 

Det store spørsmålet blir vel om AMD har planer om å lansere en stor brikke selv.

Lenke til kommentar

Går ikke an å splitte overflaten på en GPU.

 

Det er jo mulig å plassere to GPUer på en PCB så hvorfor kan man ikke splitte GPUen inn i mindre deler utover PCBen? Burde ikke dette øke ytelsen dramatisk slik som å implementere mange mindre GPUer på en PCB? Det er mye som kanskje er umulig nå men om noen år så er det nok mulig. :)

Lenke til kommentar

Går ikke an å splitte overflaten på en GPU.

 

Det er jo mulig å plassere to GPUer på en PCB så hvorfor kan man ikke splitte GPUen inn i mindre deler utover PCBen? Burde ikke dette øke ytelsen dramatisk slik som å implementere mange mindre GPUer på en PCB? Det er mye som kanskje er umulig nå men om noen år så er det nok mulig. :)

Latency

Lenke til kommentar

Techreport har lagt ut en kort artikkel om GK110: http://techreport.co...icles.x/22989/3

The Nvidia executives we talked with raised the possibility of a GK110-based GeForce being released this year only if necessary to counter some move by rival AMD. That almost certainly means that any GK110-based GeForce to hit the market in 2012 would come in extremely limited quantities.

 

Det store spørsmålet blir vel om AMD har planer om å lansere en stor brikke selv.

 

Dersom dette stemmer så er jeg veldig glad for at jeg ikke har kjøpt GTX 680 eller HD 7970.

 

Latency

 

Ja, det er logisk og gir mening.

Endret av Symmetrical
Lenke til kommentar

Dersom dette stemmer så er jeg veldig glad for at jeg ikke har kjøpt GTX 680 eller HD 7970.

 

Ja, det er logisk og gir mening.

Å kjøpe et High-end skjermkort har aldri vært en god idé for "fremtidssikring" :wee:

 

Forresten, å splitte en stor GPU opp i flere små GPUer har allerede vært forsøkt av 3DFX i form av Voodoo 5, det gikk rimelig dårlig for 3DFX. Så det er nok også en grunn til at Nvidia/AMD ikke prøver på det samme.

  • Liker 1
Lenke til kommentar

Dersom dette stemmer så er jeg veldig glad for at jeg ikke har kjøpt GTX 680 eller HD 7970.

 

Ja, det er logisk og gir mening.

Å kjøpe et High-end skjermkort har aldri vært en god idé for "fremtidssikring" :wee:

 

Forresten, å splitte en stor GPU opp i flere små GPUer har allerede vært forsøkt av 3DFX i form av Voodoo 5, det gikk rimelig dårlig for 3DFX. Så det er nok også en grunn til at Nvidia/AMD ikke prøver på det samme.

 

Hehe, du har helt rett i det. Men jeg har fått inntrykket av at både AMD og Nvidia har en lignende tick-tock utvikling etter GTX 4xx og HD 4xxx slik som Intel. For eksempel GTX 480 -> GTX 580, HD 5870 -> HD 6870.

 

Jeg ser for meg noe lignende nå.

 

GTX 680 -> GTX 780, HD 7970 -> HD 8970.

 

Med tanke på dette så venter jeg på alltid på 'tock' - selv om jeg har kjøpt i5-3570K (eneste unntaket). Med tanke på dette tror du ikke at for eksempel GTX 780 er 'litt' mer fremtidssikret enn GTX 680?

 

Hvis det fortsetter slik så kan et oppgraderingsmønster se slik ut:

 

GTX 780 -> (Hopp over GTX 880) -> GTX 980, HD 8970 -> (hopp over HD 9970) -> HD 10970.

Lenke til kommentar

Hvis man kjøper skjermkort for "fremtidssikring" kan man likesågodt kjøpe seg playstation 3.

 

Det er jo fremtidssikring å kjøpe et high-end kort, så sant en fremtid er 2år :p

 

Sitter for tiden og spiller max payne på ps3 og jeg vil tro du må ha steingammel hardware for å kjøre det spillet på noe dårligere settings enn det ps3 gjør!

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...