Gå til innhold

Folding@Home: GPU-ene kommer


Anbefalte innlegg

Videoannonse
Annonse
F@H på full last på GPU...

 

Da slipper man iallefall ekstra oppvarming i rommet hvor datamaskinen står.  :D

6959487[/snapback]

Hvis man likevel fyrer med elektrisistet så spiller det jo ingen rolle, men hvis man ikke trenger varmen, eller fyrer med billigere ting enn strøm så blir det selvfølgelig en unødvendig ekstrautgift og unødvendig støy. Håper skjermkortprodusentene får ned effektforbruket på skjermkortene sine etter hvert. (i alle prisklasser)

Lenke til kommentar
Men 3D kort er jo ikke beregnet til å kjøre konstant på max så lenge da?

Jo, de er laget for å brukes.

 

Vil ikke kort som er klokka slite litt med oppbrenning++?

6958306[/snapback]

Det kan hende, men det er i så fall folks egen feil om trimmer opp skjermkortene sine til de ryker etter kort tids bruk. Akkurat som hvis man trimmer mopeder eller biler så er det den som trimmer som velger å bryte garantivilkårene og bryte med det produktet er ment å tåle.

6958348[/snapback]

 

3D kort er laget for å brukes ja, men har produsentene tatt i betraktning at en hardcore gamer sitter flere døgn i strekk og kjører spill som krever mye av grafikk kortet? De blir jo ganske varme. Mitt nVidia 7800GT kan gå opp i 90C hvis jeg spiller lenge og har det litt varmt på rommet. Spørsmålet blir om GPU'en er bygd for å tåle slike ekstreme temperaturer 24timer/døgnet, 365dager i året. Løsningen hadde nå blitt å kjøle kortet ekstra, og det koster flesk hvis man skal vannkjøle. Ellers høres mitt grafikk-kort (merke; Club3D) ut som en hårføner når jeg spiller... og det er helt greit under spillinga, men ikke til daglig når jeg holder på å f.eks. programmere. For ikke å snakke om når jeg skal sove.

 

Man må regne med at det blir kortere levetid på komponenter som hele tiden kjører på full last. Dette har med varme og interne spenninger å gjøre. Men så blir jo pc'ene sannsynligvis klar for skraphauen lenge før de dør ut. Det som derimot bekymrer meg litt, er at når de små komponentene inni CPU/GPU blir "presset" mer sammen (ny teknologi = flere komponenter pr mm eller no), at det da er mer følsomt for varm og spenninger. Ergo kortere levetid på dagens pc'er enn eldre pc'er (etter det jeg har hørt da).

Og når det gjelder overklokking, så vil dette presse CPU/GPU ytterligere, slik at det er naturlig å forvente en kortere levetid på komponentene.

Lenke til kommentar
Softwareimplementering av GPU i CPU kan man si.... :ohmy:

6958626[/snapback]

Hva mener du? Dette skal jo kjøre på selve GPU'en.

6958691[/snapback]

Vanligvis kjører man distributed computing på en eller flere CPU..... Nå kan man også (evt. i tillegg) utnytte kapasiteten som ligger i GPU.

Så har det i den senere tid vært snakk om å bygge GPU inn i CPU. Så laget jeg denne vansklige setningen som skulle bety at allerede nå var GPU bygget sammen CPU ved hjelp av software. :cry:

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...