Gå til innhold

Hybrid-SLI fra Nvidia


Anbefalte innlegg

Videoannonse
Annonse

Hørtes ut so men dårlig løsning spør du meg. Det kan jo heller ikke kalles SLI strengt tatt. Et integrert skjermkort er så dårlig at det ikke vil gi noen boost overhode å få assistanse ifra et slikt kort.

Vi snakker faktisk om integrerte løsninger som er over 50 ganger mindre kraftige enn dedikerte løsninger. Så om integrerte løsninger ikke får en skikkelig ytelseboost, så snakker vi om en lusne 2-3% økning i ytelse......

 

At man kan veksle mellom integrert grafikk og dedikert hørtes ut som et bra alternativ, men at GPUen skal assisteres med et integrert skjermkort hørtes ut som en dårlig ide uten særlig hensikt.

Endret av andrull
Lenke til kommentar

Under maks last vil dette forbruke akkurat like mye strøm som på dagens SLI-arkitektur, så jeg ser heller ikke helt vitsen. Fint med et gjennomsnittlig lavere forbruk, men når man tyter til med full pupp i FEAR eller lignende har gjennomsnittlig forbruk ytterst lite å si for om f.eks. strømforsyningen klarer å henge med i svingene.

 

Synes heller NVidia og AMD/ATI burde fokusere på å få mindre energiforbruk på GPU-ene sine, slik at de ikke trenger egne strømforsyninger for å snurre. GPU-er har generelt ganske mye høyere nanometer produksjonsteknikk enn CPU; ville det ikke vært mye å hente på å nærme seg CPU-produksjonsteknikken i nanometer? :ermm:

Lenke til kommentar
Opplegget bruker da like mye strøm under last uansett? Hva er vitsen da?

8946863[/snapback]

De få timene som PCer gjerne er under last vil da spare inn mange kroner i strøm ivhertfall. Så slipper du overoppheting selv om PCen bare står på å surrer/nedlaster.

Hvor mye en PC bruker under last synes jeg ikke gjør noe som helst. Den ka ngjerne bruke 1KW for min del. Bare den holder seg på et akseptabelt nivå på "IDLE". :)

 

Har ivhertfall ikke noen problemer med å legge i en 100kr ekstra for en litt kraftigere PSU, og heller litt mindre i skjermkort. Eventuelt bare koble på en ekstra PSU.

Lenke til kommentar
Kommer sikkert til å bli grisedyrt!  :!:

8946755[/snapback]

Ikke noe dyrere enn idag. Ergo så spørs det hvilke kort du velger å bruke i SLI

 

Under maks last vil dette forbruke akkurat like mye strøm som på dagens SLI-arkitektur, så jeg ser heller ikke helt vitsen. Fint med et gjennomsnittlig lavere forbruk, men når man tyter til med full pupp i FEAR eller lignende har gjennomsnittlig forbruk ytterst lite å si for om f.eks. strømforsyningen klarer å henge med i svingene.

 

Synes heller NVidia og AMD/ATI burde fokusere på å få mindre energiforbruk på GPU-ene sine, slik at de ikke trenger egne strømforsyninger for å snurre. GPU-er har generelt ganske mye høyere nanometer produksjonsteknikk enn CPU; ville det ikke vært mye å hente på å nærme seg CPU-produksjonsteknikken i nanometer?  :ermm:

8946932[/snapback]

1. Mange slår aldri av maskinene sine, så hvis da det andre skjermkortet er dekativert så er det mye strøm å spare. Vanligvis så vil nok tiden SLI-kortet kan deaktiveres være mye større en tiden det er aktivt.

 

2. For nVidia sin del så har de høy fokus på lavt energiforbruk. Grunnen til at de ligger bak i produksjonsteknikk er at både ATI og nVidia ikke har egne fab-er, men de bruker 3. parter til det. AMD har sine egne, men de har sagt at de ikke skal lage grafikk der.

 

Når det gjelder fokus på effektforbruk, så har faktisk nVidia fokusert rimelig mye på det. Bare se på det råeste kortet i 8800-serien (8800 Ultra), det bruker endel mindre strøm enn ATi/AMD sitt toppkort som også har endel lavere ytelse.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...