Gå til innhold

Neste gen Nvidia skjermkort Kepler (GTX - 6xx ?)


_ziggy_

Anbefalte innlegg

Går ikke an å splitte overflaten på en GPU.

 

Selvfølgelig er det mulig å splitte opp en GPU i seperate deler. Ufordelaktig med lang signalvei, men ikke noe problem så lenge frekvensen er god under 3 GHz. 3 GHz og oppover så blir det kostbart å lage signalbanene.

Lenke til kommentar
Videoannonse
Annonse

Forresten, å splitte en stor GPU opp i flere små GPUer har allerede vært forsøkt av 3DFX i form av Voodoo 5, det gikk rimelig dårlig for 3DFX. Så det er nok også en grunn til at Nvidia/AMD ikke prøver på det samme.

 

Det var ikke derfor det gikk dårlig for 3dfx og det var ikke splitting av GPU men paralell skalering av GPU ved hjelp av Scan Line Interleave. Voodoo 5 4500 hadde én VSA-100 prosessor, så det var en selvstendig GPU som riktig nok lå 1 generasjon bak med tanke på ytelse. Det du skriver er selvmotsigende fordi prinsippet ikke er så veldig forskjellig fra dagens GTX 690 med mindre man skal drive med flisespikkeri og Scalabe Link Interface har minst like mange ulemper som Scan Line Interleave om ikke fler. Kvaliteten på antialiasingen ved bruk av flere VSA-100 prosessorer var bedre enn hos andre produsenter på den tiden og ytelsen ved bruk av 4 VSA-100 prosessorer var raskere enn GeForce 2 Ultra og kunne også konkurrere mot GeForce 3. VSA-100 var skalerbart opp til 32 prosessorer. Kretskortene ble komplekse jo flere prosessorer man la til.

 

3dfx hadde også neste generasjon GPU klar men problemet var at de konk før den tid kom fordi de lå bak ytelsesmessig over en lengre periode. Det er sannsynlig at 3dfx kunne ha tatt ytelsestronen med god margin dersom selskapet hadde overlevd 1-2 år lenger.

 

Edit:

GTX 690 er såppas populært at det blir utsolgt kort tid etter kortene kommer inn på lager. Skalering ved bruk av flere GPUer ikke en dårllig idé, men metodene som benyttes kan og bør bli bedre.

Endret av BadCat
Lenke til kommentar

Med tanke på dette tror du ikke at for eksempel GTX 780 er 'litt' mer fremtidssikret enn GTX 680?

Teit å si. Gtx680 er mer "fremtidsikret" enn GTX580. 580 er mer fremtidsikret enn 480, and so on.

Trenger man nytt kort for å spille de spillene man spiller i den kvaliteten man vil ha, ja da kjøper man det kortet som best gagner.

  • Liker 1
Lenke til kommentar

Med tanke på dette tror du ikke at for eksempel GTX 780 er 'litt' mer fremtidssikret enn GTX 680?

Teit å si. Gtx680 er mer "fremtidsikret" enn GTX580. 580 er mer fremtidsikret enn 480, and so on.

Trenger man nytt kort for å spille de spillene man spiller i den kvaliteten man vil ha, ja da kjøper man det kortet som best gagner.

 

Teit å si? Virkelig? Hvorfor er det teit å si at en forbedret versjon av kepler er mer fremtidssikret enn en tidligere versjon? Det tar som regel lenger tid fra en arkitektur til en annen - og da er det bedre med en 'perfeksjonert' GPU i serien. Nei, det er ikke teit for de som ikke kan bruke mye penger konsistent konsekvent. Jeg hater ordet teit da det er nedlatende og irriterende. Jeg forsøket kun å holde en diskusjon om noe som interesserer meg mye. Jeg prøver også å lære noe. Med andre ord så trenger jeg et oppgraderingsmønster som er smart i forhold til en 'kort' fremtidssikring.

Endret av Symmetrical
Lenke til kommentar

Med mindre man kjører eldre spill som er makset på hva som helst av siste generasjon grafikkort er det et must å ha high-end-kort i PCen. Effektbruken minimeres ved bruk av FPS-cap eller vsync samtidig som man har nok juice i bakhånd til å hovde minFPS over VSYNC / FPS-cap i de områdene av spillet som er tyngre å kjøre.

 

High-end-kort er mer fretidsrettet med mindre man vil bytte kort hvert halvår. Fremtidsrettet i den betyning at man kan ha kortet 2-4 år før ytelsen ikke strekker til. Mellomklassekort kan ofte ha utilstrekkelig på kjøptidspunktet og da betaler man likevel noen tusenlapper for å aldri komme i mål ytelsesmessig selv om man bytter kort etter kort etter kort.

Endret av BadCat
  • Liker 1
Lenke til kommentar

Med mindre man kjører eldre spill som er makset på hva som helst av siste generasjon grafikkorter det et must å ha high end kort i PCen. Effektrbuken minimeres ved bruk av FPS-cap eller vsync samtidig som man har nok juice i bakhånd til å hovde minFPS over VSYNC / FPS-cap i de områdene av spillet som er tyngre å kjøre.

 

Skal ikke Lucid Virtue med Virtue Vsync og HyperFormance kjøre en lignende Vsync men uten noen som helst form for ytelsestap eller delay hvorav skjermkortet yter som om Vsync var avslått? Altså at man får for eksempel 500fps med at det ikke er noen tearing og input lag til tross for dette?

Endret av Symmetrical
Lenke til kommentar

High-end-kort er mer fretidsrettet med mindre man vil bytte kort hvert halvår. Fremtidsrettet i den betyning at man kan ha kortet 2-4 år før ytelsen ikke strekker til. Mellomklassekort kan ofte ha utilstrekkelig på kjøptidspunktet og da betaler man likevel noen tusenlapper for å aldri komme i mål ytelsesmessig selv om man bytter kort etter kort etter kort.

 

Er så forbanna enig i det her. +1

Er for meg en gåte hvorfor folk blir anbefalt midrange kort i "alle" kjøpstråder

Lenke til kommentar

Forresten, å splitte en stor GPU opp i flere små GPUer har allerede vært forsøkt av 3DFX i form av Voodoo 5, det gikk rimelig dårlig for 3DFX. Så det er nok også en grunn til at Nvidia/AMD ikke prøver på det samme.

 

Det var ikke derfor det gikk dårlig for 3dfx og det var ikke splitting av GPU men paralell skalering av GPU ved hjelp av Scan Line Interleave. Voodoo 5 4500 hadde én VSA-100 prosessor, så det var en selvstendig GPU som riktig nok lå 1 generasjon bak med tanke på ytelse. Det du skriver er selvmotsigende fordi prinsippet ikke er så veldig forskjellig fra dagens GTX 690 med mindre man skal drive med flisespikkeri og Scalabe Link Interface har minst like mange ulemper som Scan Line Interleave om ikke fler. Kvaliteten på antialiasingen ved bruk av flere VSA-100 prosessorer var bedre enn hos andre produsenter på den tiden og ytelsen ved bruk av 4 VSA-100 prosessorer var raskere enn GeForce 2 Ultra og kunne også konkurrere mot GeForce 3. VSA-100 var skalerbart opp til 32 prosessorer. Kretskortene ble komplekse jo flere prosessorer man la til.

 

3dfx hadde også neste generasjon GPU klar men problemet var at de konk før den tid kom fordi de lå bak ytelsesmessig over en lengre periode. Det er sannsynlig at 3dfx kunne ha tatt ytelsestronen med god margin dersom selskapet hadde overlevd 1-2 år lenger.

 

Edit:

GTX 690 er såppas populært at det blir utsolgt kort tid etter kortene kommer inn på lager. Skalering ved bruk av flere GPUer ikke en dårllig idé, men metodene som benyttes kan og bør bli bedre.

Problemet er at et dobbelGPU-kort er dyrere å produsere enn et singleGPU-kort. 3DFX prøvde å bygge et betydelig dyrere kort for å konkurrere mot Nvidias billigere kort, du ser ikke AMD og Nvidia prøver å konkurrere mot hverandres beste enkeltGPU-kort med dobbelGPU-kort. Grunnen for at man lager dualGPU-kort er fordi det er upraktisk å bygge en større GPU. Vi fikk ikke et GK110-type kort nå fordi det ikke var praktisk, om det er TSMCs 28nm-prosess, Nvidia som trengte mer tid til å gjøre GK110 praktisk på 28nm, kostnader, eller noe annet vet jeg ikke, men det er mulig å forenkle til: "GK110 er upraktisk å masseprodusere nå derfor lager vi GK104 og lar GF110 ta seg av Tesla-kortene."

 

Jeg kan ikke påstå jeg har stor innsikt i hvorfor 3DFX gikk ned siden jeg var 12 år da. Eneste jeg kan henvise til er Wikipedia: http://en.wikipedia....ause_of_decline

For meg virker det som om det var en stor grunn til at 3DFX gikk konkurs: dårlig ledelse og dumme valg. Selv om de hadde hatt ytelsestoppen hadde ikke dette nødvendigvis reddet 3DFX, det viktige er å tjene mer enn man bruker.

Endret av arni90
Lenke til kommentar

Med mindre man kjører eldre spill som er makset på hva som helst av siste generasjon grafikkorter det et must å ha high end kort i PCen. Effektrbuken minimeres ved bruk av FPS-cap eller vsync samtidig som man har nok juice i bakhånd til å hovde minFPS over VSYNC / FPS-cap i de områdene av spillet som er tyngre å kjøre.

Skal ikke Lucid Virtue med Virtue Vsync og HyperFormance kjøre en lignende Vsync men uten noen som helst form for ytelsestap eller delay hvorav skjermkortet yter som om Vsync var avslått? Altså at man får for eksempel 500fps med at det ikke er noen tearing og input lag til tross for dette?

Høres nå litt for godt til å være sant men....

 

Uansett så var vel dette ikke essensen. Det var at skjermkortet ikke trenger å jobbe unødvendig mye, som man får til med V-sync (for eksempel). :)

Endret av Andrull
Lenke til kommentar

Problemet er at et dobbelGPU-kort er dyrere å produsere enn et singleGPU-kort. 3DFX prøvde å bygge et betydelig dyrere kort for å konkurrere mot Nvidias billigere kort, du ser ikke AMD og Nvidia prøver å konkurrere mot hverandres beste enkeltGPU-kort med dobbelGPU-kort. Grunnen for at man lager dualGPU-kort er fordi det er upraktisk å bygge en større GPU. Vi fikk ikke et GK110-type kort nå fordi det ikke var praktisk, om det er TSMCs 28nm-prosess, Nvidia som trengte mer tid til å gjøre GK110 praktisk på 28nm, kostnader, eller noe annet vet jeg ikke, men det er mulig å forenkle til: "GK110 er upraktisk å masseprodusere nå derfor lager vi GK104 og lar GF110 ta seg av Tesla-kortene."

 

Jeg kan ikke påstå jeg har stor innsikt i hvorfor 3DFX gikk ned siden jeg var 12 år da. Eneste jeg kan henvise til er Wikipedia: http://en.wikipedia....ause_of_decline

For meg virker det som om det var en stor grunn til at 3DFX gikk konkurs: dårlig ledelse og dumme valg. Selv om de hadde hatt ytelsestoppen hadde ikke dette nødvendigvis reddet 3DFX, det viktige er å tjene mer enn man bruker.

Jau. Utvikling av nye kjerner er dyrt, kjempedyrt. Selv om det ikke alltid er så altfor store forandringer, så vil det bli en del forskjeller for å effektivisere designet.

 

Å produsere et dobbelkjernekort er derfor enkelt i forhold til å lage noe nytt, da de tar i bruk den identisk samme kjernen, og i visse tilfeller laserkutter ned litt eller nedklokekr for å få temperaturene under kontroll. Designkostnadene blir derfor ganske lave.

På den andre siden så vil kortet bli større og mer komplisert, og dermed er produksjonskostnadene en god del høyere. (men sammenligner man mot to fysiske enkelkjernekort av samme kjerne, så vil et større PCB-kort være billigere enn to litt mindre...)

 

I tillegg så gir det god PR å ha det beste skjermkortet.

 

Og som du sier så er det lettere å slenge på flere kjerner enn det er å lage en effektiv kjerne med en haug av transistorer.

 

dette med PSU og dimensjonering er KRAFTIG overddrevet som noen meddeler her..

 

min maskin med 3820 og GTX680SLI drar ikke mer enn rundt 550w under BF3 spilling. da er cpuen klokket til 5Ghz med 1.42v. til sammenligning dro GTX480SLI med 920 på 4.3Ghz oppimot og noen ganger over 1000w under BF2 BC med gpuene blodklokket... hihi... (950)

Min i7 920 rigg med to vannkjølte GTX 480 bruker faktisk over 1200W. XD :p

Lenke til kommentar

Høres nå litt for godt til å være sant men....

 

Uansett så var vel dette ikke essensen. Det var at skjermkortet ikke trenger å jobbe unødvendig mye, som man får til med V-sync (for eksempel). :)

 

Det er mange som kun ønsker å bruke Vsync for å fjerne tearing og problematikken med Vsync og triple buffering er hovedsakelig den store input laggen. Jeg fant en gigantisk artikkel om dette fra AnanTech som beskriver teknologien:

 

http://www.anandtech...s-and-biostar/2

 

I følge diverse tester fra artikkelen som nevnt ovenfor så fikk de dette resultatet:

 

-----------------------FPS ----- Refresh Rate -- Tearing --- On-Screen -- FPS Responsiveness

Normal ------------ 100 ----------- 60 -------------- Yes --------------- 60 ------------ 100

In Game V-Sync 100 ----------- 60 -------------- No ---------------- 60 ------------- 60

Virtual V-Sync --- 100 ------------ 60 -------------- No ---------------- 60 ----------- 100

Virtual V-Sync +

HyperFormance 100 -------------- 60 -------------- No ---------------- 60 ----------130

 

Dette resultatet viser faktisk en bedre responstid med virtual v-sync + HyperFormance enn uten noen som helst Vsync og/eller tripple buffering. I tillegg så fant jeg en video som demonstrerer denne teknologien:

 

http://www.youtube.com/watch?v=hvoMWXPzTlg

 

En annen test fra tomshardware viser en massiv økning av resultatet i 3DMark11 med Virtu Vsync og HyperFormance aktivert:

 

http://www.tomshardw...ark,3174-8.html

 

image029.png

Lenke til kommentar

Nåja, Hyperformance fungerer ved at man dropper frames som ikke vil vises på skjermen. Virtus virtual vsync og hyperformance ser kanskje bra ut når man ligger over 60 fps, men ellers er det kjedelige greier.

Da er det like greit å aktivere trippel buffer + 59/119 fps framerate-cap + vsync så man ender med normal inputlag, ingen artifakter fra spillmotoren og ingen tearing.

Lenke til kommentar

Nåja, Hyperformance fungerer ved at man dropper frames som ikke vil vises på skjermen. Virtus virtual vsync og hyperformance ser kanskje bra ut når man ligger over 60 fps, men ellers er det kjedelige greier.

Da er det like greit å aktivere trippel buffer + 59/119 fps framerate-cap + vsync så man ender med normal inputlag, ingen artifakter fra spillmotoren og ingen tearing.

 

Jeg orker ikke å finne det fram nå men det er også slik at de opplevde cirka en 3% økning av FPSen til tross for at FPSen var under 60. Men selv om man skrur på FPS cap med Vsync og triple buffering så er det fortsatt en merkbar input lag. Når Virtual Vsync og HyperFormance kan forbedre responstiden over ingen vsync og/eller triple buffering så er dette ganske imponerende. I tillegg så får man en ytelsesøkning på alt fra 3%+ i normal gaming og enormt mye i 3Dmark11.

 

Det er dermed fordeler slik som:

 

- Bedre ytelse

- Lavere responstider enn selv uten Vsync og/eller triple buffering

- Mulig å koble til det integrerte skjermkortet (via hovedkortet) hvorav den dedikerte GPUen kan 'deaktiveres' for å spare strøm

- osv..

 

Jeg har fått Asus Z77 - deluxe hovedkortet og i5-3570K (osv) av posten så jeg kan teste dette etter at jeg er helt ferdig ned skolen om cirka to uker.. Har tenkt å lage en 'arbeidslogg' når jeg bygger PCen senere...

Endret av Symmetrical
Lenke til kommentar

Du opplever ikke en 3% forbedring, det er sjeldent noe mindre enn 20% vil være merkbart faktisk.

 

Hovedpoenget er at dette ikke øker ytelsen i det hele tatt, men det øker antall frames en spillmotor kjører gjennom hvert sekund som igjen øker CPU-load. Responsiviteten kan kanskje bedres noe, men du har fortsatt USB og særlig skjermen du ser på som bidrar minst like mye som ren framerate.

Endret av arni90
Lenke til kommentar

Du opplever ikke en 3% forbedring, det er sjeldent noe mindre enn 20% vil være merkbart faktisk.

 

Hovedpoenget er at dette ikke øker ytelsen i det hele tatt, men det øker antall frames en spillmotor kjører gjennom hvert sekund som igjen øker CPU-load. Responsiviteten kan kanskje bedres noe, men du har fortsatt USB og særlig skjermen du ser på som bidrar minst like mye som ren framerate.

 

Dette kan stemme men jeg vil teste det i praksis. Kanskje jeg merker en stor forskjell eller kanskje ikke. Men forskjellen i 3Dmark11 scoren er imponerende og ikke helt tilfeldig. Man kan vel også kombinere FPS cap (for å redusere skyhøy load) med virtual Vsync og HyperFormance. Kanskje det er en gimmick? Det blir interessant å se når jeg har bygget PCen.

Lenke til kommentar

Dette kan stemme men jeg vil teste det i praksis. Kanskje jeg merker en stor forskjell eller kanskje ikke. Men forskjellen i 3Dmark11 scoren er imponerende og ikke helt tilfeldig. Man kan vel også kombinere FPS cap (for å redusere skyhøy load) med virtual Vsync og HyperFormance. Kanskje det er en gimmick? Det blir interessant å se når jeg har bygget PCen.

Setter du fps-cap fungerer ikke Hyperformance slik jeg har forstått det. Du ser uansett ikke på store forskjellene med 160 fps vs 60 fps i inputlag: Du kan potensielt kutte 10 ms inputlag da, og det er ikke der du kommer til å merke ting.

Lenke til kommentar

Dette kan stemme men jeg vil teste det i praksis. Kanskje jeg merker en stor forskjell eller kanskje ikke. Men forskjellen i 3Dmark11 scoren er imponerende og ikke helt tilfeldig. Man kan vel også kombinere FPS cap (for å redusere skyhøy load) med virtual Vsync og HyperFormance. Kanskje det er en gimmick? Det blir interessant å se når jeg har bygget PCen.

Setter du fps-cap fungerer ikke Hyperformance slik jeg har forstått det. Du ser uansett ikke på store forskjellene med 160 fps vs 60 fps i inputlag: Du kan potensielt kutte 10 ms inputlag da, og det er ikke der du kommer til å merke ting.

 

Er det forresten mulig å overklokke den interne GPUen?

 

Men ettersom at jeg spiller på en TV så kan kanskje de 10ms være god nok til at jeg merker en forskjell. Men når jeg først leste om denne teknologien så var det ikke responstiden som overrasket meg men heller ytelsesforbedringene - jeg fant for eksempel denne men det er lignende resultater i alle spillene som blir testet:

 

http://www.tweaktown...dge/index7.html

 

Edit: Jeg kan ikke poste grafen her men du kan se på linken.

Endret av Symmetrical
Lenke til kommentar

Er det forresten mulig å overklokke den interne GPUen?

 

Men ettersom at jeg spiller på en TV så kan kanskje de 10ms være god nok til at jeg merker en forskjell. Men når jeg først leste om denne teknologien så var det ikke responstiden som overrasket meg men heller ytelsesforbedringene - jeg fant for eksempel denne men det er lignende resultater i alle spillene som blir testet:

 

http://www.tweaktown...dge/index7.html

 

Edit: Jeg kan ikke poste grafen her men du kan se på linken.

Ja, det er mulig å overklokke den integrerte GPUen. Men hvorfor du skal gjøre det for Virtual Vsync skjønner jeg ikke, det eneste den integrerte GPUen gjør er å bufre bildene som sendes til skjermen.

 

Se nøyere på resultatene: hyperformance gir høyere tall når framerate er høyere enn oppdateringsfrekvensen, altså gir den mest når du trenger det minst. Dette kommer av at Hyperformance dropper bilder (som i driveren regner ikke draw calls på disse framesene, og GPUen tegner ikke et bilde.) Om man ikke hadde fått bedre resultater i benchmarks når man dropper bilder som ikke vises hadde det vært noe veldig galt, det betyr ikke at du vil merke noe til de ekstra bildene utenom input lag som i praksis ikke vil være særlig merkbart.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...