Gå til innhold

GeForce 8800 GT i billigversjon


Anbefalte innlegg

Ang. støynivå, hvilke nyere (og gode) kort er det som anbefaler om man missliker viftestøy?

 

Om man missliker viftestøy bør man ikke gå for 8800GT, den bråker endel, men har god ytelse.

Det kommende hd38xx skal visst være billig, stillegående og ha bra ytelse :thumbup:

Takk. Da venter jeg og ser på hva fremtiden vil bringe ...

Lenke til kommentar
Videoannonse
Annonse
Ang. støynivå, hvilke nyere (og gode) kort er det som anbefaler om man missliker viftestøy?

 

Om man missliker viftestøy bør man ikke gå for 8800GT, den bråker endel, men har god ytelse.

Det kommende hd38xx skal visst være billig, stillegående og ha bra ytelse :thumbup:

 

Viftestøy har da ingenting med grafikkbrikken å gjøre, ikke direkte i såfall.

GeForce 8800 GT-brikkene er utviklet med 65 nm-prosessen som medfører lavere effektforbruk og dermed mindre varmeutvikling.

støy-nazi? Kjøp passiv kjøler :)

Endret av crys
Lenke til kommentar
Viftestøy har da ingenting med grafikkbrikken å gjøre, ikke direkte i såfall. GeForce 8800 GT-brikkene er utviklet med 65 nm-prosessen som medfører lavere effektforbruk og dermed mindre varmeutvikling.

Viftestøy har veldig mye å gjøre med hvilken kjøler man velger. Hvilken kjøler man kan velge avhenger veldig av varmeutviklingen (TDP) til grafikkbrikken. 8800GT har 105W TDP. Det er mer enn Core 2 Quad Q6600 sine 95W (de som selges nå med G0-stepping). Antall nm produksjonsteknikk spiller ingen rolle for effektforbruket. Produsenten velger selv hvilken TDP prosessoren skal ha. Det er et kompromiss mellom ytelse og kjølebehov og ender som regel med at de kun fokuserer på ytelse og driter i om man må ha luftbåt for å kjøle den. (Ok, så satt jeg det ørlite på spissen :p )

Lenke til kommentar
Viftestøy har da ingenting med grafikkbrikken å gjøre, ikke direkte i såfall. GeForce 8800 GT-brikkene er utviklet med 65 nm-prosessen som medfører lavere effektforbruk og dermed mindre varmeutvikling.

Viftestøy har veldig mye å gjøre med hvilken kjøler man velger. Hvilken kjøler man kan velge avhenger veldig av varmeutviklingen (TDP) til grafikkbrikken. 8800GT har 105W TDP. Det er mer enn Core 2 Quad Q6600 sine 95W (de som selges nå med G0-stepping). Antall nm produksjonsteknikk spiller ingen rolle for effektforbruket. Produsenten velger selv hvilken TDP prosessoren skal ha. Det er et kompromiss mellom ytelse og kjølebehov og ender som regel med at de kun fokuserer på ytelse og driter i om man må ha luftbåt for å kjøle den. (Ok, så satt jeg det ørlite på spissen :p )

 

om ikke antall nm produksjonsteknikk spiller noen rolle for effektforbruket så må i såfall hw.no endre den artikkelen jeg leste det av. Det medfører i alle fall varmeutvikling, noe som gjør at du KAN velge å bruke passiv vifte, eller værsting-vifte.

Det jeg prøvde å komme fram til var at det blir feil å si at at 8800 GT bråker mye

Endret av crys
Lenke til kommentar
Viftestøy har da ingenting med grafikkbrikken å gjøre, ikke direkte i såfall. GeForce 8800 GT-brikkene er utviklet med 65 nm-prosessen som medfører lavere effektforbruk og dermed mindre varmeutvikling.

Viftestøy har veldig mye å gjøre med hvilken kjøler man velger. Hvilken kjøler man kan velge avhenger veldig av varmeutviklingen (TDP) til grafikkbrikken. 8800GT har 105W TDP. Det er mer enn Core 2 Quad Q6600 sine 95W (de som selges nå med G0-stepping). Antall nm produksjonsteknikk spiller ingen rolle for effektforbruket. Produsenten velger selv hvilken TDP prosessoren skal ha. Det er et kompromiss mellom ytelse og kjølebehov og ender som regel med at de kun fokuserer på ytelse og driter i om man må ha luftbåt for å kjøle den. (Ok, så satt jeg det ørlite på spissen :p )

 

om ikke antall nm produksjonsteknikk spiller noen rolle for effektforbruket så må i såfall hw.no endre den artikkelen jeg leste det av. Det medfører i alle fall varmeutvikling, noe som gjør at du KAN velge å bruke passiv vifte, eller værsting-vifte.

Det jeg prøvde å komme fram til var at det blir feil å si at at 8800 GT bråker mye

 

Hvordan kan du si at det blir feil å si at 8800GT bråker? hvis du benytter den ORGINALE kjøleløsningen som kortet er LEVERT med er det blandt de kortene som bråker mest. Har du prøvd det?? sammenlignet det med andre? :innocent:

Lenke til kommentar
Antall nm produksjonsteknikk spiller ingen rolle for effektforbruket.
Sjeldent jeg stusser på inleggene dine, Simen1, men her er jeg skeptisk. Sier ikke at det er feil (selv om jeg tror det :green:), men synes du her bør "bevise" din påstand :)

Jeg vet det er en litt drøy påstand og regnet egentlig med å måtte forsvare den. Det er en sammenheng mellom antall nm og effektforbruk, men det drunker som regel i andre kompromisser. Sammenhengen mellom antall nm og effektforbruk gjelder nemlig kun under forutsetningene:

 

- nøyaktig samme arkitektur og

- nøyaktig samme klokkefrekvens

 

Disse to faktorene er omtrent aldri gyldige og dermed blir heller ikke sammenhengen mellom nm og effektforbruk heller gyldig. Bare for å illustrere med prosessorer:

 

386 16MHz hadde en TDP på ca 2 W med sine 1000 nm

486 33MHz hadde en TDP på ca 4 W med sine 800 nm

Pentium 100MHz hadde en TDP på 10,1 W med sine 500 nm

Pentium MMX 200MHz hadde en TDP på 15,7 W med sine 280 nm

Pentium II 300MHz hadde en TDP på 18,7 W med sine 250 nm

Pentium III 500MHz hadde en TDP på 28 W med sine 250 nm

Pentium III 1000MHz hadde en TDP på 33 W med sine 180 nm

Pentium 4 1500MHz hadde en TDP på 75 W med sine 180 nm

Pentium 4 2000MHz hadde en TDP på 100 W med sine 180 nm

Pentium 4 3066MHz hadde en TDP på 104 W med sine 130 nm

Pentium 4 3600MHz hadde en TDP på 125 W med sine 90 nm

Pentium EE 3733MHz hadde en TDP på 130 W med sine 65 nm

Pentium Xeon X5482 3200MHz har en TDP på 150 W med sine 45 nm

 

Som dere ser så øker effektforbruket til tross for finere produksjonsteknikk. Grunnen er som sagt at både arkitektur og klokkefrekvens endrer seg. Krympingen koker altså bort i kålen effektmessig. Det samme gjelder grafikkbrikker.

Lenke til kommentar

IMG0018925.gif

Despite the higher voltage, the 65 nm version does indeed need less energy whether in stand by or in use. Here, advanced stand by corresponds to power consumption when the SpeedStep or Cool’n’Quiet is activated. Compared to the E6400, we noted that if the A64 X2 needs less energy in stand by, as soon as the processor is needed, the Core 2 Duo clearly takes over. It is important to point out that for AMD, the memory controller is integrated to the CPU. This isn't the case for Intel, which means that at least a dozen watts are deported from the CPU to the chipset.

 

What about temperature? Indeed, if the power consumption and dissipation is less significant in 65 nm, the die size is much smaller and this doesn't facilitate the cooling process. After 15 minutes and two sessions of Prime95, the temperature of the 90nm is 52°C according to CoreTemp and the ASUS Probe, whereas with the 65nm it is of 40°C with CoreTemp and 53°C with the ASUS Probe. Because of the contradiction between these two results we can't draw any conclusions.

Kilde: http://www.behardware.com/art/imprimer/649/

Lenke til kommentar

Spørsmålet var ikke hva som betydde mest, men hvorvidt nm betyr noe (re. Simen1's utsagn).

 

En 200 MHz/130 nm CPU med samme arkitektur som en 4 GHz/45nm vil nok bruke mindre strøm - men det betyr ikke at nm ikke påvirker effektforbruket.

 

EDIT: Og hvor ble det av bildet?

 

jaja...

img0018925gifqr7.jpg

 

post-16098-1195053009_thumb.jpg

Endret av Spragleknas
Lenke til kommentar
marginal forskjell så lenge man holder seg til oppløsninger under 19XX uten AA.. kan bli noe overspill ved høye settings dog, men i den prisrangen der, så er det vel ikke et problem, siden gamere uansett vil holde seg til kort i høyere prisrange

 

Det vil jeg på det aller sterkeste bestride. Nyere spill, selv på lavere oppløsninger (det er for øvrig ikke oppløsning som bruker mest videominne) bruker langt mer enn 256MiB RAM. Jeg vil si at ved innkjøp av nyere kort i dag beregnet til bruk i nyere spill så er 512MiB et minimum. Spesielt om man ser på ytelsen man får i et GT-kort. 256MiB er helt nytteløst i en slik situasjon, om man ikke vil sitte og spille med særdeles middelmådige innstillinger på f.eks. teksturoppløsning.

 

Så, for meg er dette kortet utelukkende fjas. Det gir ingen mening, rett og slett. Det man kan gjøre med dette kortet er å kjøre litt eldre spill (som ikke krever mye minne for å spilles på full peis) veldig fort. Uinteressant.

Endret av CAT-scan
Lenke til kommentar

Veldig spennende produkt. Jeg er enig i at RAM mengden er alt for lite for de som spiller i høye oppløsninger med AA og AF i nye "killer" spill som Crysis f.eks. , men dette kortet er vel uten tvil ment hovedsakeig for dem som er prisbevisste og ikke har så fryktelig høye krav ellers.

 

Dette kortet kan jeg fint se vil gjøre det ekstremt bra på de aller fleste spill på f.eks. 1280x960 på medium grafikkinstillinger. Så lenge du ikke går over RAM-kvoten din så vil jo dette kortet være et RAMSTERKT mid-end kort.

 

Jeg syens det virker som om ATI sliter mer og mer for tiden. 8800-serien, spesiellt med 8800GT'ene nå er utrolig verdi for pengene. Det må til et skikkelig skippertak fra ATI nå for å få skikkelig forfeste inn på markedet igjen, ellers frykter jeg Nvidia vil ta helt over i det segmentet som 8800GT'ene dekker.

 

-Stigma

Lenke til kommentar
Veldig spennende produkt. Jeg er enig i at RAM mengden er alt for lite for de som spiller i høye oppløsninger med AA og AF i nye "killer" spill som Crysis f.eks. , men dette kortet er vel uten tvil ment hovedsakeig for dem som er prisbevisste og ikke har så fryktelig høye krav ellers.

 

Dette kortet kan jeg fint se vil gjøre det ekstremt bra på de aller fleste spill på f.eks. 1280x960 på medium grafikkinstillinger. Så lenge du ikke går over RAM-kvoten din så vil jo dette kortet være et RAMSTERKT mid-end kort.

 

Jeg syens det virker som om ATI sliter mer og mer for tiden. 8800-serien, spesiellt med 8800GT'ene nå er utrolig verdi for pengene. Det må til et skikkelig skippertak fra ATI nå for å få skikkelig forfeste inn på markedet igjen, ellers frykter jeg Nvidia vil ta helt over i det segmentet som 8800GT'ene dekker.

 

-Stigma

 

det får vi jo svaret på i morgen da... forhåpentligvis :roll:

Lenke til kommentar
Det vil jeg på det aller sterkeste bestride. Nyere spill, selv på lavere oppløsninger (det er for øvrig ikke oppløsning som bruker mest videominne) bruker langt mer enn 256MiB RAM. Jeg vil si at ved innkjøp av nyere kort i dag beregnet til bruk i nyere spill så er 512MiB et minimum. Spesielt om man ser på ytelsen man får i et GT-kort. 256MiB er helt nytteløst i en slik situasjon, om man ikke vil sitte og spille med særdeles middelmådige innstillinger på f.eks. teksturoppløsning.

 

Så, for meg er dette kortet utelukkende fjas. Det gir ingen mening, rett og slett. Det man kan gjøre med dette kortet er å kjøre litt eldre spill (som ikke krever mye minne for å spilles på full peis) veldig fort. Uinteressant.

 

om du skal spille nye spill (type crysis) med dette kortet så vil RAM-en være bare en av mange problemer. Om spillet kjøres dårlig med 256mb-modellen vil sannssynligvis 512mb-modellen kjøre omtrent like dårlig.

 

Kortet er absolutt ikke fjas, dette er et mid/low-end kort som vil gjøre billigpc-ene veldig kapabel til spill av nyere sort. greit, det kjører ikke brand-spanking-nye spill på full details bra, men til den prisen der, så vil jeg absolutt si det gir mening

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...