Gå til innhold

Test: Asus Radeon HD 6870


Anbefalte innlegg

Videoannonse
Annonse
Du har tydeligvis ikke forstått dette her. For det første vil ikke 60W til eller fra utgjøre noen forskjell i et oppvarmet rom (som de aller fleste i Skandinavia har, og ellers store deler av Europa), varmen fra skjermkortet blir en del av oppvarmingen til rommet og trekker i praksis derfor ikke mer effekt.

Bare for å flisespikke litt gjelder det kun hvis man har termostatstyrt oppvarming med panelovner eller elektriske varmekabler, i den sesongen man trenger oppvarming. Om sommeren er regnestykket et annet. Særlig hvis man må bruke strøm for å kjøle huset med air condition (varmepumpe i revers). Ved bruk av varmepumpe om vinteren koster strømmen til skjermkortet ca 3 ganger mer enn til oppvarming via varmepumpe. Dersom man panelovner uten termostat så bruker man mer strøm med skjermkortet fordi det bidrar til en høyere temperatur enn man ville hatt ellers.

 

I tillegg kjører ytterst få skjermkortene sine under load døgnet rundt. Faktisk vil du spare mer på totalforbruket om du bytter én utelampe til en LED-sparepære (ikke vanlige sparepærer fordi de inneholder kvikksølv), eller en rekke andre tiltak som faktisk utgjør noen reell forskjell.

Vanlige lysrør-baserte sparepærer sparer omtrent like mye strøm som de LED-baserte med samme lysstyrke. Hovedforskjellen ligger i at en skikkelig LED utelampe koster tusenlapper, mens en vanlig sparepære koster noen tiere og kan bruke eksisterende armatur. Vanlige sparepærer inneholder ikke kvikksølv. Det er enkelte av billigprodusentene som har ørsmå mengder kvikksølv, men dette bør ikke skade omdømmet til de som lager skikkelige lysrørbaserte sparepærer. Forøvrig blander du miljø, energi og økonomi i en salig røre her.

Lenke til kommentar
Du har tydeligvis ikke forstått dette her. For det første vil ikke 60W til eller fra utgjøre noen forskjell i et oppvarmet rom (som de aller fleste i Skandinavia har, og ellers store deler av Europa), varmen fra skjermkortet blir en del av oppvarmingen til rommet og trekker i praksis derfor ikke mer effekt.

Bare for å flisespikke litt gjelder det kun hvis man har termostatstyrt oppvarming med panelovner eller elektriske varmekabler, i den sesongen man trenger oppvarming. Om sommeren er regnestykket et annet. Særlig hvis man må bruke strøm for å kjøle huset med air condition (varmepumpe i revers). Ved bruk av varmepumpe om vinteren koster strømmen til skjermkortet ca 3 ganger mer enn til oppvarming via varmepumpe. Dersom man panelovner uten termostat så bruker man mer strøm med skjermkortet fordi det bidrar til en høyere temperatur enn man ville hatt ellers.

 

I tillegg kjører ytterst få skjermkortene sine under load døgnet rundt. Faktisk vil du spare mer på totalforbruket om du bytter én utelampe til en LED-sparepære (ikke vanlige sparepærer fordi de inneholder kvikksølv), eller en rekke andre tiltak som faktisk utgjør noen reell forskjell.

Vanlige lysrør-baserte sparepærer sparer omtrent like mye strøm som de LED-baserte med samme lysstyrke. Hovedforskjellen ligger i at en skikkelig LED utelampe koster tusenlapper, mens en vanlig sparepære koster noen tiere og kan bruke eksisterende armatur. Vanlige sparepærer inneholder ikke kvikksølv. Det er enkelte av billigprodusentene som har ørsmå mengder kvikksølv, men dette bør ikke skade omdømmet til de som lager skikkelige lysrørbaserte sparepærer. Forøvrig blander du miljø, energi og økonomi i en salig røre her.

Ærlig talt da mann, må jeg virkelig si absolutt alt med teskje? Jeg tror du vet like godt som meg hva jeg mener her. Her til lands trengs det oppvarming det meste av året, og den delen av året det er veldig varmt er det vanlig å være mye mer utendørs, derfor blir dette neglisjerbart i den store sammenhengen. F.eks. på store deler av vestlandet er det oppvarming av hus året rundt, med unntak av de få dagene det er varmt.

 

Effektforbruket til lysrør-baserte sparepærer er grei den, og det har jeg heller ikke sagt noe imot. Problemet med disse er kvikksølvet som de inneholder som gjør disse til ganske så miljøfarlige, spesielt om noen skulle knuse en slik pære. LED-pærer koster ikke tusenlapper, det er ikke mange dagene siden jeg så en for <150 kr i butikk. Men dette er en helt annen diskusjon uansett, poenget mitt her var bare å trekke frem hvor tåpelig det er å henge seg opp 60W i PCen. Hvis strømregningen virkelig betyr så mye så finnes det en rekke tiltak som bør gjøres før et skjermkort slaktes for 60W!!

Lenke til kommentar

I Belive in a MiraCL (Ramones)

 

Flere ting som spiller inn her.

 

1.Om man sitter på gutterommet og ikke bryr seg om pris er det greit, ikke vits å bry sseg om hva det koster da. 2.Men det viktiste for meg er at varme er en PC værste fiendet, et pr grader mer kan være forskjellen fra stabilt til regnefeil i gpu(eksempelvis), jo mindre strømsultent kortet er jo kaldere blir det som videre fører til at det blir lettere å klokke også (som igjen fører til at varmen stiger, men det blir en annen historie. som du ser spiller inn på mye).

 

Kunne fortsatt og fortsatt på dette, jepp mye\for mye efektbruk er dumt på flere måter.

 

edit:

Og ikke minst bråk da gitt ).

Endret av simalarion
Lenke til kommentar

Er det noen som faktisk bryr seg om hvor mange Watt en skjermkort drar?

Og hvorfor skal man det?

For noen kan det bety at de slipper bytte psu feks. ;)

Hvis du har en PSU som er slik at HD 6870 akkurat går mens GTX 470 blir for effektkrevende så har du allerede såpass stor belastning på den PSUen at du burde vurdere en ny, både på grunn av støynivå og på grunn av du bør ha en god margin, for strømforsyningen taper seg over tid og mange av oss har strømnett som kan være noe ustabilt til tider (svingende spenning).

 

 

For meg er watt veldig viktig hvertfall. Trekker kortet mindre strøm kan jeg få en mer stillegående kjøleløsning.

Da ser du på støynivået og luftsirkulasjonen og ikke på selve effektforbruket. Som jeg har sagt flere ganger har utformingen av kjøleløsningen veldig stor betyning.
Lenke til kommentar

Efikkan:du vrir og vender på ting så man blir svimmel og fokus helt borte.hvis du ikke liker kortet i denne testen så eller klarer se det positive det bringer til markedet så ser jeg liten vits i å poste i denne tråden lengre.Du virker som seriøs og kunnskapsrik kar men det betyr ikke at man alltid har rett,og det ligger intet personlig fra min side i dette :)

Lenke til kommentar

Efikkan:du vrir og vender på ting så man blir svimmel og fokus helt borte.hvis du ikke liker kortet i denne testen så eller klarer se det positive det bringer til markedet så ser jeg liten vits i å poste i denne tråden lengre.Du virker som seriøs og kunnskapsrik kar men det betyr ikke at man alltid har rett,og det ligger intet personlig fra min side i dette :)

Sier personen som har vendt og vritt på mine ord til de har fått en helt annen mening. For n. gang sier jeg at kortet er bra, det er testen og konklusjonen som er misvisende.

 

For å fortsette fra forrige innlegg, hvis du f.eks. sammenligner vesentlig mer effektkrevende skjermkort så begynner det selvsagt å ha noe betydning for valg av strømforsyning. Men 60W er såpass lite at du bør uansett har dimmensjonert for det, dette er absolutt ikke å vri på dine ord, det er fornuft.

Lenke til kommentar

Egentlig er bare dB måling av støy også lite tilfredsstillende, da det er 1-dimensjonalt. dB som funskjon av bølgelengde sier mye mer, da det er >1KHz som er det mest plagsomme, og jo høyere frekvens jo mer "hvine"-lyd.

Helt enig og som er en årsak til at jeg liker viftestøyen til GTX 480 bedre enn HD5870. Derfor er jeg spent på hvordan viften på HD6870 vil oppleves når den beveger seg i 50% området, som det fort kan gjøre under spilling, eller under litt tyngre bruk i en allround HTPC kasse eller SFF (som jeg vurderer).

 

Jeg savner gode lydopptak av viftestøyen på forskjellige hastigheter. Eks. 25%, 40%, 50%, 65%, 80% og 100%.

Dette er bare å styre med eks. MSI Afterburner, ta opp lyden i stille omgivelser og publisere sammen med testene. Da ville man også fått et godt referansebibliotek ift. støyen forskjellige kort gir under forskjellige forhold.

 

Det var en testside jeg leste mye på før som alltid hadde med slike lydopptak av viftene, jeg husker desverre ikke hvem det var. Jeg husker også at Microplex hadde slike lydopptak av mange av viftene sine, da på div. rpm. Det er meget praktisk å kunne ta på seg øretelefonene og vurdere dette før et kjøp.

Endret av Theo343
Lenke til kommentar

For meg er watt veldig viktig hvertfall. Trekker kortet mindre strøm kan jeg få en mer stillegående kjøleløsning.

Da ser du på støynivået og luftsirkulasjonen og ikke på selve effektforbruket. Som jeg har sagt flere ganger har utformingen av kjøleløsningen veldig stor betyning.

Og det betviler jeg ikke et sekund. Men det er lettere å lage en stillegående og billig løsning når det blir mindre varme å transportere. Det sier seg selv.
Lenke til kommentar

For meg er watt veldig viktig hvertfall. Trekker kortet mindre strøm kan jeg få en mer stillegående kjøleløsning.

Da ser du på støynivået og luftsirkulasjonen og ikke på selve effektforbruket. Som jeg har sagt flere ganger har utformingen av kjøleløsningen veldig stor betyning.

Og det betviler jeg ikke et sekund. Men det er lettere å lage en stillegående og billig løsning når det blir mindre varme å transportere. Det sier seg selv.

Men du er enig i at et skjermkort som trekker større effekt ikke nødvendigvis støyer mer enn et annet kort? Det er den helhetlige løsningen du må se på.
Lenke til kommentar
Hvor mye bedre vil dette være en 4870 :p ? Ca. i %...

Grovt ca 30-40%, om du regner med ekstra features og lavere TDP vil jeg si ca 50% høyere value.

Jeg skal bytte ut mitt 4870x2 med et slik når de kommer med custom kjølere som ikke er radial-basert.

 

 

#1

Du har tydeligvis ikke forstått dette her. For det første vil ikke 60W til eller fra utgjøre noen forskjell i et oppvarmet rom (som de aller fleste i Skandinavia har, og ellers store deler av Europa), varmen fra skjermkortet blir en del av oppvarmingen til rommet og trekker i praksis derfor ikke mer effekt.

#2

Bare for å flisespikke litt gjelder det kun hvis man har termostatstyrt oppvarming med panelovner eller elektriske varmekabler, i den sesongen man trenger oppvarming. Om sommeren er regnestykket et annet. Særlig hvis man må bruke strøm for å kjøle huset med air condition (varmepumpe i revers). Ved bruk av varmepumpe om vinteren koster strømmen til skjermkortet ca 3 ganger mer enn til oppvarming via varmepumpe. Dersom man panelovner uten termostat så bruker man mer strøm med skjermkortet fordi det bidrar til en høyere temperatur enn man ville hatt ellers.

#3

I tillegg kjører ytterst få skjermkortene sine under load døgnet rundt. Faktisk vil du spare mer på totalforbruket om du bytter én utelampe til en LED-sparepære (ikke vanlige sparepærer fordi de inneholder kvikksølv), eller en rekke andre tiltak som faktisk utgjør noen reell forskjell.

#4

Vanlige lysrør-baserte sparepærer sparer omtrent like mye strøm som de LED-baserte med samme lysstyrke. Hovedforskjellen ligger i at en skikkelig LED utelampe koster tusenlapper, mens en vanlig sparepære koster noen tiere og kan bruke eksisterende armatur. Vanlige sparepærer inneholder ikke kvikksølv. Det er enkelte av billigprodusentene som har ørsmå mengder kvikksølv, men dette bør ikke skade omdømmet til de som lager skikkelige lysrørbaserte sparepærer. Forøvrig blander du miljø, energi og økonomi i en salig røre her.

#1: Dette er situasjonsavhengig. Jeg er enig i at et delta på 60W til oppvarming av rom er neglisjerbart, og ikke er et argument med mye vekt til eller fra kjøp av kortet. Det har derimot noe å si for dimensjonering av kjøleløsninger for kortet og kabinettet, og dimensjonering av strømforsyning.

 

#2: Helt enig, i alle punkt, men dette er som du sier i starten av argumentet flisespikking.

 

#3: Enig i argumentet at om strømsparing er fokus er bytte til sparepærer et mye mer relevant spørsmål, men dette betyr ikke at skjermkortet ikke også kan sees på, spesielt om man allerede har byttet alle pærer til LED. Poenget med kvikksølv i sparepærer er irrelevant til strømforbruk. Andre punkter for strømsparing, som isolasjon av vegger og vinduer, og varmepumpe, vedovn, og termostater, er også mye mer relevante enn GPU.

 

#4: Lysrør baserte sparepærer bruker ca dobbelt så mye strøm som LED for en gitt mengde lys, for nåværende generasjoner. Du får LED sparepærer for alle vanlige sokler, og så lenge du ikke skal over 300-400lm koster de ikke mer enn opp til ca 200-250kr. TCO er lavere enn både glødepærer og lysrør. 100-250lm LED pærer ligger rundt 75-150kr (ca tilsvarende lysmengde 25-45W lyspærer til 1,5-3,5W)

 

*snip*

#5

Ærlig talt da mann, må jeg virkelig si absolutt alt med teskje? Jeg tror du vet like godt som meg hva jeg mener her. Her til lands trengs det oppvarming det meste av året, og den delen av året det er veldig varmt er det vanlig å være mye mer utendørs, derfor blir dette neglisjerbart i den store sammenhengen. F.eks. på store deler av vestlandet er det oppvarming av hus året rundt, med unntak av de få dagene det er varmt.

 

Effektforbruket til lysrør-baserte sparepærer er grei den, og det har jeg heller ikke sagt noe imot. Problemet med disse er kvikksølvet som de inneholder som gjør disse til ganske så miljøfarlige, spesielt om noen skulle knuse en slik pære. LED-pærer koster ikke tusenlapper, det er ikke mange dagene siden jeg så en for <150 kr i butikk. Men dette er en helt annen diskusjon uansett,

#6. poenget mitt her var bare å trekke frem hvor tåpelig det er å henge seg opp 60W i PCen. Hvis strømregningen virkelig betyr så mye så finnes det en rekke tiltak som bør gjøres før et skjermkort slaktes for 60W!!

#5: unødvendig del av innlegg som diskuterer et poeng du sier var unødvendig i #6.

 

#6: Det var du som trakk frem dette, men jeg er enig, som jeg sa i #1 og #3.

 

 

For meg er watt veldig viktig hvertfall. Trekker kortet mindre strøm kan jeg få en mer stillegående kjøleløsning.

Enig, dette er den relevante delen ved effektbruken til skjermkort for privatpersjoner.

 

 

Egentlig er bare dB måling av støy også lite tilfredsstillende, da det er 1-dimensjonalt. dB som funskjon av bølgelengde sier mye mer, da det er >1KHz som er det mest plagsomme, og jo høyere frekvens jo mer "hvine"-lyd.

Helt enig og som er en årsak til at jeg liker viftestøyen til GTX 480 bedre enn HD5870. Derfor er jeg spent på hvordan viften på HD6870 vil oppleves når den beveger seg i 50% området, som det fort kan gjøre under spilling, eller under litt tyngre bruk i en allround HTPC kasse eller SFF (som jeg vurderer).

 

Jeg savner gode lydopptak av viftestøyen på forskjellige hastigheter. Eks. 25%, 40%, 50%, 65%, 80% og 100%.

Dette er bare å styre med eks. MSI Afterburner, ta opp lyden i stille omgivelser og publisere sammen med testene. Da ville man også fått et godt referansebibliotek ift. støyen forskjellige kort gir under forskjellige forhold.

Jeg er helt enig her, det er ikke spesielt mye ekstra jobb om man allerede har utstyret som kan ta opp lyd med god sensitivitet. Dette kan representeres som grafer ved diskrete vifte% eller som et 3D diagram der dB er Y, frekvens eller viftehastighet er X, og den siste er Z. Jeg ville foretrukket et 3D diagram, men det kan bli forvirrende for en del, så begge alternativene er gode i min bok.

Lenke til kommentar

Lydopptak vil kunne være et greit tillegg til ellers gode støymålinger, med det formålet å høre hvilke frekvenser som eventuelt kan være plagsomme. Men dette må isåfall gjøres med profesjonelt utstyr og det samme oppsettet for alle skjermkortene for at det skal bli sammenlignbart. I tillegg vil det være veldig viktig å studere databladene til mikrofonen for den som skal tolke lydopptaket (dvs. kjøperen).

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...