Gå til innhold

DX10-skjermkort bruker opptil 300 watt!


Anbefalte innlegg

http://www.anandtech.com/tradeshows/showdoc.aspx?i=2770

 

"ATI and NVIDIA have been briefing power supply manufacturers in Taiwan recently about what to expect for next year’s R600 and G80 GPUs. Both GPUs will be introduced in late 2006 or early 2007, and while we don’t know the specifications of the new cores we do know that they will be extremely power hungry. The new GPUs will range in power consumption from 130W up to 300W per card."

 

130-300 Watt er jo et helt sinnsykt, denne utviklingen må stoppe, det er jo mye mer enn resten av systemet tilsammen.

 

AtW

Lenke til kommentar
Videoannonse
Annonse

'Høsten 2006' er iallefall tidspunktet nVidia planlegger å ha G80 klart. Dette kan selvsagt justeres etterhvert.

 

Kan ikke si så mye om strømforbruket, har heller ikke så mange detaljer om den,men sammenlignet med den ytelse/strømforbruk vi ser på nVidia kort idag så blir ikke de nye så ille (ytelsen vil jo være mye bedre enn dagens kort... :) )

Lenke til kommentar
Det kommer vel forhåpentligvis noen utgaver som ikke topper 300W, men fortsetter utviklingen med fire GPU'er på toppkortene så har vi det gående.

Jeg må i alle fall ha ny PSU til høsten skjønner jeg..

6251472[/snapback]

Da tallene som AndTech har fått hintet er vel tall for maks strømforbruk i worst-case for high-end produktet regner jeg med.... 300W er ikke et tall fra nVidia, ATi vet jeg derrimot ikke noe om.

Lenke til kommentar
'Høsten 2006' er iallefall tidspunktet nVidia planlegger å ha G80 klart. Dette kan selvsagt justeres etterhvert.

 

Kan ikke si så mye om strømforbruket, har heller ikke så mange detaljer om den,men sammenlignet med den ytelse/strømforbruk vi ser på nVidia kort idag så blir ikke de nye så ille (ytelsen vil jo være mye bedre enn dagens kort...  :) )

6251459[/snapback]

 

At ytelsen per strømforbruk "ikke er så ille" i forhold til forrige genrasjon hjelper jo fint lite når de bruker så enormt mye strøm, både nvidia og ATI må skjerpe seg her, og det gjelder på alle fronter, nye hovedkort bruker jo monstermye effekt, de nyeste nvidia-chipsettene bruker flere titalls watt mer enn ATi sine om de indikasjonene jeg har sett er riktige.

 

AtW

Lenke til kommentar
At ytelsen per strømforbruk "ikke er så ille" i forhold til forrige genrasjon hjelper jo fint lite når de bruker så enormt mye strøm, både nvidia og ATI må skjerpe seg her, og det gjelder på alle fronter, nye hovedkort bruker jo monstermye effekt, de nyeste nvidia-chipsettene bruker flere titalls watt mer enn ATi sine om de indikasjonene jeg har sett er riktige.

 

AtW

6251510[/snapback]

Blir litt off-topic, men det spørs hva og hvordan du sammenligner. nVidia chipsetene i high-end er klokket høyere enn ATi sine (LinkBoost) og har to Ethernet kontrollere integrert...

 

Så ser man bort fra LAN og LinkBoost, så har de ganske likt strømforbruk.

 

Strømforbruken på grafikkort kommer til å øke, du får ikke i pose og sekk, og når grafikkortene også skal kjøre fysikk blandt annet så bruker du ressursene mer enn hva du tradisjonelt har gjort opp til nå. Dynamisk last mellom grafikk og fysikk blir en ting vi kommer til å se mer av på neste generasjon.

Lenke til kommentar
At ytelsen per strømforbruk "ikke er så ille" i forhold til forrige genrasjon hjelper jo fint lite når de bruker så enormt mye strøm, både nvidia og ATI må skjerpe seg her, og det gjelder på alle fronter, nye hovedkort bruker jo monstermye effekt, de nyeste nvidia-chipsettene bruker flere titalls watt mer enn ATi sine om de indikasjonene jeg har sett er riktige.

 

AtW

6251510[/snapback]

Blir litt off-topic, men det spørs hva og hvordan du sammenligner. nVidia chipsetene i high-end er klokket høyere enn ATi sine (LinkBoost) og har to Ethernet kontrollere integrert...

 

Så ser man bort fra LAN og LinkBoost, så har de ganske likt strømforbruk.

 

Strømforbruken på grafikkort kommer til å øke, du får ikke i pose og sekk, og når grafikkortene også skal kjøre fysikk blandt annet så bruker du ressursene mer enn hva du tradisjonelt har gjort opp til nå. Dynamisk last mellom grafikk og fysikk blir en ting vi kommer til å se mer av på neste generasjon.

6251629[/snapback]

 

Selv uten linkboost bruker de jo mer? Og jeg tror neppe en gigabit-kontroller ekstra er nok til å veie opp. Uansett er essensen at disse chipsettene i mine øyne bruker for mye effekt, kan godt si ATi sin er på samme nivå, begge to har store rom for forbedringer.

 

Du kan jo få både i pose og sekk, core duo bruker jo mindre strøm enn p4, og har bedre ytelse. Jeg tror et sterkere fokus på effektforbruk hadde hjulpet mye.

 

AtW

Lenke til kommentar
KOS!  :) Blir enklere å holde rommet mitt varmt til vinteren med et slikt :p

6251412[/snapback]

Evt. holde badstutemperatur i en hel hybelleilighet fra tidlig i april til oktober.

 

vil de ikke bruke mindre strøm om de går ned i nm produksjonsprosess? hvilken nm størrelse er det som brukes nå da? 65?

6251910[/snapback]

Forutsatt at alle andre faktorer holdes like vil effektforbruket synke når produksjonsprosessen krymper ja. Problemet er at produsentene fristes for mye til legge til egenskaper og presse opp klokkehastighetene og heller "løse" problemet med å lage ennå mer voldsomme kjøleløsninger. Til slutt ser PCen ut som en diger byggtørker.

 

Jeg håper virkelig skrekkscenarioet om 130-300W bare gjelder quad SLI og evt. Oct SLI (4 dobbeldekkerkort). Redigert: Ups, det var vist per kort det sto i artikkelen til Anandtech. :scared:

 

Jeg håpte at geforce 7600GS og 7900GT var en ny trend om å snu effektforbruket nedover og lage mer stillegående kjøleløsninger. Jeg hadde også et håp om at den nye toppserien ville få tilskudd av en stillegående modell "8800GS" eller noe sånt med passiv kjøling, lave klokkehastigheter og mange pipelines/hadere og god minnebåndbredde.

Lenke til kommentar
vil de ikke bruke mindre strøm om de går ned i nm produksjonsprosess? hvilken nm størrelse er det som brukes nå da? 65?

6251910[/snapback]

Forutsatt at alle andre faktorer holdes like vil effektforbruket synke når produksjonsprosessen krymper ja. Problemet er at produsentene fristes for mye til legge til egenskaper og presse opp klokkehastighetene og heller "løse" problemet med å lage ennå mer voldsomme kjøleløsninger. Til slutt ser PCen ut som en diger byggtørker.

 

 

 

Da må du ha 3 fase stikkkontakt for å koble til dataen. :p

Lenke til kommentar
Da må du ha 3 fase stikkkontakt for å koble til dataen.  :p

6252120[/snapback]

Jeg leste i et Hi-Fi blad for et par år siden om en forsterket som krevde en egen 20ampere kurs per trinn (altså 2x20Amp for stereo). Hvilken pc-leverandør blir den første til å kreve egen 10amp? ;)

Kanskje satt litt på spissen, men jeg sytnes utviklingnen er litt snål. På den ene siden skryter de av ultra high-tec produskjonsmetoder som kan få ned strømforbruk og varme, på den annen side lanseres det ene mer kraftkrevende produktet etter det andre..

Lenke til kommentar

Ja, det er blitt ganske sprøtt. På nittallet hadde ikke de fleste skjermkort kjøling i det hele tatt. Først på slutten av nittitallet begynte det å komme små kjøleribber og en liten vifte på noen. Se på dagens skjermkort. 7900GTX. En diger klump som dekker hele kortet. Ser jo nesten ut som et digert romskip. Helt villt.

Lenke til kommentar

Holder på å sende søknad til Plan og Byggningsetaten om bygging av et lite kjernekraftverk.

 

Dette begynner å bli ganske villt... Kan ikke kjøre SLI / Crossfire med disse uten dedikert 600W strøm. Tror man vil se løsninger for å tjuvkoble 2 PSU'er, som er litt bedre en de moddene man har i dag.

 

Med de strømprisene vi har i dag, begynner PC'ene faktisk å koste en del å ha gående (24/7) :hmm:

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...