Gå til innhold

Test: AMD Radeon HD 6990


Anbefalte innlegg

Videoannonse
Annonse

Nilsen:

Dette blir en glede å lese, allerede i siste halvdel av første side får jeg et stort glis. :thumbup:

 

EDIT:

For første gang på lenge måtte jeg ta meg selv i motstå lysten til å bare lese på, avbryte etter første side, gå opp og trakte meg fersk kaffe og legge en nybakt kanelsnurre på en tallerken og ta med begge deler for en real kosestund med suveren artikkel.

 

NÅ skal det leses.

 

Moro å høre, det er akkurat slikt vi streber etter - selv om vi ikke akkurat alltid er der :-)

 

Blant kortene vi hittil har ettertestet havner begge HD 6990-konfigurasjonene på bunn av grafen, naturlig nok. Det er helt klart av den relativt lille overklokkingen, på bare 50 MHz, gjør store utslag her. Forskjellen er på hele 80 W under full belastning. Totalt sett et meget høyt strømforbruk, men slik er og forblir det med slike monsterkort
.

Dette har nok minst årsak i 50MHz klokk men hovedsaklig fordi Powertune deaktiveres i tillegg til den lille klokken. Powertune deaktivert tillater kortet å trekke 20% mer strøm.

 

Rask hoderegning sier at powertune deaktivert tillater kortet å trekke 75W mer enn orginale 375W under eks. Furmark som helt klart begrenses kraftig med Powertune aktivert. Det som hadde vært interessant var om dere kunne målt strømtrekket i 880Mhz og 830Mhz med Powertune aktivert i begge tilfeller, som desverre ikke ser ut til å være mulig med HD6990. Dette kan man dog gjøre med 2xHD6970.

 

 

EDIT:

Det som også kan legges til som en faktor er at Cayman kortene er veldig varmesensitive, jo bedre man kjøler dem jo bedre yter de i omtrent det uendelige og selv med 1.35v (med 0.05 voltunlock) på 6950 så var det hovedsaklig utilstrekkelig kjøling av VRM og annet som begrenset meg. Man sitter helt klart igjen med inntrykket at hadde man hatt mer volt å pøse på med og bedre kjøling hadde kortet bare fortsatt opp i klokk med veldig god skalering i bencher. Virkelig morsomme kort å leke seg med disse Caymans. Sjelden har jeg sett kort klokke og skalere så bra.

 

Derfor er jeg veldig spent på HD6990 med vannkjøling samt om det kommer en DCII utgave. AMD har virkelig lagt forholdene til rette for mye morro med Caymans.

 

EDIT2:

Etter mine første klokkeresultater rundt 13. februar med 6950 biosmod-unlocked fra 1408 til 1536 shadere nådde jeg 1037/[email protected] bench og spillstabilt uten problem med kun grovklokking og referansekjøler (dog lav delta).

 

Ved senere forsøk på kun 1025/1510 registrerte jeg rundt 6823 i 3DM11 (eneste bildet og link jeg fant i farten). At jeg lett skulle klart over 7000 er det ingen tvil om, men hadde desverre ikke mer tid den dagen.

post-38451-0-38084000-1300555767_thumb.png

 

At man kommer en del høyere enn mine 1037/1522 på første forsøk er helt klart og det er i Cayman tråden rapportert vesentlig bedre resultater med aftermarket kjølere.

Har ikke hatt tid til å leke meg mer, men det skal helt klart gjøres.

 

Takk for et god innlegg! Det er riktig som du selv sier at Powertune kveler kortet ved 375 W i standard-BIOS, og at man på den "fire" BIOS-en lar dette løpe løpsk. Det er dermed litt synd at det på ingen måte er mulig å fjerne effektsperren ved standardspesifikasjonene. Akkurat nå innså jeg at det faktisk burde være mulig å klokke kortet ned fra 880 MHz til 830 MHz., og da sitte uten PowerTune. Det må prøves!

 

Som et par andre også har påpekt her, så skal det bli moro å se hva de forskjellige produsentene gjør med kjøleløsningen - det kan endre mye! :-)

 

en veldig liten bryter som ligger ved CrossFire-tilkoblingen [...] AMD opplyser at HD 6990-kortene som kommer i salg vil ha et klistremerke over denne bryteren, som informerer om at om du rører på den, bryter du garantien.

Noen som har kilde til dette? Har litt problemer med å tro på at en av tingene de skryter av selv bryter garantien om den blir brukt. Har også ikke sett noen andre som har testet det si noe om det, selv om de har sagt ifra om at andre ting bryter garantien (som å skru det opp for å bytte kjøler).

 

Jeg er ikke helt sikker, men jeg tror både Anandtech og Guru3D tok med dette. Uansett, det kom ganske klart frem i pressematriellet til AMD –som alle test-sider har fått – at klistremerket var på plass. Overklokking generelt er noe som får advokater til å steile, så at de lar en "fri" BIOS falle utenfor garantien kan jeg skjønne.

 

 

 

Jag har svårt att förstå en del av konklusjonen ja...är det negativt, en (partybrems) att kortet verkar klara av allt som finns av spel? Ska kortet få en dåligare konklusjon med det som en del av grunden? Kanske bara jag som reagerar på det och att det inte är med i begrundelsen alls. Jag är helt enig i att ett kort med strömförbruk som detta är galskap, men om man är intresserad av ett sådant kort tror jag man ger totalt fan i strömförbruk. På den andra sidan borde det ju vara ett stort plus att kortet bara drar 105W idle. Hos många är nog 95% av tiden idle skulle jag tro. I alla fall de som har maskinen på dygnet runt.

 

Ja og nei, du oppsumerere egentlig konklusjonen ganske greit selv :-) Det er et gromt kort, men det har sine naturlig ulemper – noe alle slike kort har. Rundt 100 W ved Idle er helt normalt uansett skjermkort. Skjermkortene i seg selv står bare for 10-30 W av dette.

 

når sluttet dere å ta av kjølerene på kortene dere tester? :whistle:

 

Moro å høre at leserne våre faktisk legger merke til slikt!

 

Vi har ikke sluttet å ta av kjølerne, men vi gjør det ikke på kort med vapor-kjølerne (GTX 580, GTX 570 og HD 6990 for å nevne noe). Den termiske pastaen som er benyttet her skal visknok være en skikkelig cocktail som vi ikke kan erstatte. Jeg har også notert meg at flere av de andre store test-sidene der ute også har valgt å droppe dette - og benyttet bilder levert av AMD. Tar vi av kjøleren og setter den tilbake med ny termisk pasta vil dette påvirke både temperaturen og mulig ytelsen.

Endret av Nilsen
Lenke til kommentar

Nilsen:

Dette blir en glede å lese, allerede i siste halvdel av første side får jeg et stort glis. :thumbup:

 

EDIT:

For første gang på lenge måtte jeg ta meg selv i motstå lysten til å bare lese på, avbryte etter første side, gå opp og trakte meg fersk kaffe og legge en nybakt kanelsnurre på en tallerken og ta med begge deler for en real kosestund med suveren artikkel.

 

NÅ skal det leses.

 

Moro å høre, det er akkurat slikt vi streber etter - selv om vi ikke akkurat alltid er der :-)

 

Blant kortene vi hittil har ettertestet havner begge HD 6990-konfigurasjonene på bunn av grafen, naturlig nok. Det er helt klart av den relativt lille overklokkingen, på bare 50 MHz, gjør store utslag her. Forskjellen er på hele 80 W under full belastning. Totalt sett et meget høyt strømforbruk, men slik er og forblir det med slike monsterkort
.

Dette har nok minst årsak i 50MHz klokk men hovedsaklig fordi Powertune deaktiveres i tillegg til den lille klokken. Powertune deaktivert tillater kortet å trekke 20% mer strøm.

 

Rask hoderegning sier at powertune deaktivert tillater kortet å trekke 75W mer enn orginale 375W under eks. Furmark som helt klart begrenses kraftig med Powertune aktivert. Det som hadde vært interessant var om dere kunne målt strømtrekket i 880Mhz og 830Mhz med Powertune aktivert i begge tilfeller, som desverre ikke ser ut til å være mulig med HD6990. Dette kan man dog gjøre med 2xHD6970.

 

 

EDIT:

Det som også kan legges til som en faktor er at Cayman kortene er veldig varmesensitive, jo bedre man kjøler dem jo bedre yter de i omtrent det uendelige og selv med 1.35v (med 0.05 voltunlock) på 6950 så var det hovedsaklig utilstrekkelig kjøling av VRM og annet som begrenset meg. Man sitter helt klart igjen med inntrykket at hadde man hatt mer volt å pøse på med og bedre kjøling hadde kortet bare fortsatt opp i klokk med veldig god skalering i bencher. Virkelig morsomme kort å leke seg med disse Caymans. Sjelden har jeg sett kort klokke og skalere så bra.

 

Derfor er jeg veldig spent på HD6990 med vannkjøling samt om det kommer en DCII utgave. AMD har virkelig lagt forholdene til rette for mye morro med Caymans.

 

EDIT2:

Etter mine første klokkeresultater rundt 13. februar med 6950 biosmod-unlocked fra 1408 til 1536 shadere nådde jeg 1037/[email protected] bench og spillstabilt uten problem med kun grovklokking og referansekjøler (dog lav delta).

 

Ved senere forsøk på kun 1025/1510 registrerte jeg rundt 6823 i 3DM11 (eneste bildet og link jeg fant i farten). At jeg lett skulle klart over 7000 er det ingen tvil om, men hadde desverre ikke mer tid den dagen.

post-38451-0-38084000-1300555767_thumb.png

 

At man kommer en del høyere enn mine 1037/1522 på første forsøk er helt klart og det er i Cayman tråden rapportert vesentlig bedre resultater med aftermarket kjølere.

Har ikke hatt tid til å leke meg mer, men det skal helt klart gjøres.

 

Takk for et god innlegg! Det er riktig som du selv sier at Powertune kveler kortet ved 375 W i standard-BIOS, og at man på den "fire" BIOS-en lar dette løpe løpsk. Det er dermed litt synd at det på ingen måte er mulig å fjerne effektsperren ved standardspesifikasjonene. Akkurat nå innså jeg at det faktisk burde være mulig å klokke kortet ned fra 880 MHz til 830 MHz., og da sitte uten PowerTune. Det må prøves!

 

Som et par andre også har påpekt her, så skal det bli moro å se hva de forskjellige produsentene gjør med kjøleløsningen - det kan endre mye! :-)

 

en veldig liten bryter som ligger ved CrossFire-tilkoblingen [...] AMD opplyser at HD 6990-kortene som kommer i salg vil ha et klistremerke over denne bryteren, som informerer om at om du rører på den, bryter du garantien.

Noen som har kilde til dette? Har litt problemer med å tro på at en av tingene de skryter av selv bryter garantien om den blir brukt. Har også ikke sett noen andre som har testet det si noe om det, selv om de har sagt ifra om at andre ting bryter garantien (som å skru det opp for å bytte kjøler).

 

Jeg er ikke helt sikker, men jeg tror både Anandtech og Guru3D tok med dette. Uansett, det kom ganske klart frem i pressematriellet til AMD –som alle test-sider har fått – at klistremerket var på plass. Overklokking generelt er noe som får advokater til å steile, så at de lar en "fri" BIOS falle utenfor garantien kan jeg skjønne.

 

 

 

Jag har svårt att förstå en del av konklusjonen ja...är det negativt, en (partybrems) att kortet verkar klara av allt som finns av spel? Ska kortet få en dåligare konklusjon med det som en del av grunden? Kanske bara jag som reagerar på det och att det inte är med i begrundelsen alls. Jag är helt enig i att ett kort med strömförbruk som detta är galskap, men om man är intresserad av ett sådant kort tror jag man ger totalt fan i strömförbruk. På den andra sidan borde det ju vara ett stort plus att kortet bara drar 105W idle. Hos många är nog 95% av tiden idle skulle jag tro. I alla fall de som har maskinen på dygnet runt.

 

Ja og nei, du oppsumerere egentlig konklusjonen ganske greit selv :-) Det er et gromt kort, men det har sine naturlig ulemper – noe alle slike kort har. Rundt 100 W ved Idle er helt normalt uansett skjermkort. Skjermkortene i seg selv står bare for 10-30 W av dette.

 

når sluttet dere å ta av kjølerene på kortene dere tester? :whistle:

 

Moro å høre at leserne våre faktisk legger merke til slikt!

 

Vi har ikke sluttet å ta av kjølerne, men vi gjør det ikke på kort med vapor-kjølerne (GTX 580, GTX 570 og HD 6990 for å nevne noe). Den termiske pastaen som er benyttet her skal visknok være en skikkelig cocktail som vi ikke kan erstatte. Jeg har også notert meg at flere av de andre store test-sidene der ute også har valgt å droppe dette - og benyttet bilder levert av AMD. Tar vi av kjøleren og setter den tilbake med ny termisk pasta vil dette påvirke både temperaturen og mulig ytelsen.

 

Vell, standard kjølepastaen er drit bra, men den stivner, det vil si, du må sette på din egen som er dårligere enn den som allerede er der.

det her begynner å bli trend, er ikke som 9800pro og x850xt pe jeg hadde en gang i tia, artic silver stappa på.

 

Er ikke sånn drit som følger med på cpu'r heller, de bruker det ypperste av kjølepasta.

 

Hvis dere skal ta den av, gjør det til slutt! hvis ikke blir lydmålingene helt feil iallefall.

Lenke til kommentar

Hvor er AMDfanboys hyklerene som whinet om Nvidias støynivå nå ? Hvor er dere ? Og watt-ridderene ? Tyst som i graven,,,, Nok om det ; Som en sa ovenfor , Nivida venter nok litt for å justere 590gtx ja.Konkurransen er såppas jevn og selv om det er budsjett korta som drar inn pengene , er det stor prestisje å ha det beste kortet ytelsemessig.Jeg har et gammalt 295 gtx og kommer snart til å kjøpe et nytt kort , det blir enten 6990 eller 590gtx- kortet med best ytelse får min oppmerksomhet.

Endret av Bulletus
Lenke til kommentar
Hvor er AMDfanboys hyklerene som whinet om Nvidias støynivå nå ? Hvor er dere ? Og watt-ridderene ? Tyst som i graven,,,,

Haha Bulletus, du er underholdning til tusen. Det slår aldri feil. Ikke at du skal satse på stien mot stand-up komiker men en god latter på vegne av usaklig trolling spanderer du på stadig vekk.

 

Hvis vi ser bort fra påstander om fanboys fra en av de få fanboys som fortsatt har et visst aktivitetsnivå i den grenen i forumet så kan vi jo se på sakens kjerne.

 

 

1. Dual-gpu kort i aller øverste sjikt dreier seg om rå ytelse, så mye ytelse man klarer å pakke sammen i en slot og samtidig ha en salgbar pris. Å kvele slike kort med for lite strøm blir bare meningsløst så den argumentasjonen din faller i grus ganske så raskt.

 

2. Støy vil du få massevis av på alle dualgpu kort i dette sjiket og de som kjøper disse er ikke akkurat allergisk mot støy eller strømbruk. Noen kan sikkert finne på å kjøpe det og klokke det ned og kvele strømtilførselen med eks. -20% powertune men de tilhører nok unntaket selv om det er tilrettelagt også for disse.

 

3. Støy og strøm er man derimot ofte opptatt av om man vil ha et kort som drar spill greit og til en viss grad av topp singlegpu kortene. Der var eks. GTX480 rimelig dårlig og jeg synes heller ikke HD5850, HD5870, HD6950, HD6970 er spesielt rosverdig i så måte men støyen er absolutt tolererbar under gunstige forhold. 480 var heller ikke for plagsom ift. støy og strømbruk. GTX580 referanse er tom. en forbedring og meget bra i så måte.

 

4. Aftermarket kjølere.

 

Når det gjelder alle kortene i øverste klasse er aftermarket kjølere meget populært og det vil nok være mange som vurderer det ift. både GTX590 og HD6990.

 

Når dette er sagt er det dog komisk at Nvidia begrenser GTX590 så hardt som de gjør med tanke på hvilken målgruppe og hva disse kortene egentlig har som misjon. Å være det råeste av det råeste! Der har virkelig AMD gitt råtassene gode muligheter i HD6990. Jeg avventer dog flere reviews av GTX590 før jeg trekker noen konklusjoner, ikke minst erfaringer og tilbakemeldinger fra kompetente brukere i forumet.

 

 

Lykke til videre med fanboy trollingen Bulletus, du svikter aldri.

 

:rofl:

 

 

EDIT:

Du overasker forøvrig kraftig positivt med denne setningen.

det blir enten 6990 eller 590gtx- kortet med best ytelse får min oppmerksomhet.

Men jeg tror det ikke helt før jeg ser at du faktisk kjøper et AMD kort og klarer å se de gode egenskapene med det. Men noen overaskelser får man her i verden.

Endret av Theo343
Lenke til kommentar
Hvor er AMDfanboys hyklerene som whinet om Nvidias støynivå nå ? Hvor er dere ? Og watt-ridderene ? Tyst som i graven,,,,

Haha Bulletus, du er underholdning til tusen. Det slår aldri feil. Ikke at du skal satse på stien mot stand-up komiker men en god latter på vegne av usaklig trolling spanderer du på stadig vekk.

 

Hvis vi ser bort fra påstander om fanboys fra en av de få fanboys som fortsatt har et visst aktivitetsnivå i den grenen i forumet så kan vi jo se på sakens kjerne.

 

 

1. Dual-gpu kort i aller øverste sjikt dreier seg om rå ytelse, så mye ytelse man klarer å pakke sammen i en slot og samtidig ha en salgbar pris. Å kvele slike kort med for lite strøm blir bare meningsløst så den argumentasjonen din faller i grus ganske så raskt.

 

2. Støy vil du få massevis av på alle dualgpu kort i dette sjiket og de som kjøper disse er ikke akkurat allergisk mot støy eller strømbruk. Noen kan sikkert finne på å kjøpe det og klokke det ned og kvele strømtilførselen med eks. -20% powertune men de tilhører nok unntaket selv om det er tilrettelagt også for disse.

 

3. Støy og strøm er man derimot ofte opptatt av om man vil ha et kort som drar spill greit og til en viss grad av topp singlegpu kortene. Der var eks. GTX480 rimelig dårlig og jeg synes heller ikke HD5850, HD5870, HD6950, HD6970 er spesielt rosverdig i så måte men støyen er absolutt tolererbar under gunstige forhold. 480 var heller ikke for plagsom ift. støy og strømbruk. GTX580 referanse er tom. en forbedring og meget bra i så måte.

 

4. Aftermarket kjølere.

 

Når det gjelder alle kortene i øverste klasse er aftermarket kjølere meget populært og det vil nok være mange som vurderer det ift. både GTX590 og HD6990.

 

Når dette er sagt er det dog komisk at Nvidia begrenser GTX590 så hardt som de gjør med tanke på hvilken målgruppe og hva disse kortene egentlig har som misjon. Å være det råeste av det råeste! Der har virkelig AMD gitt råtassene gode muligheter i HD6990. Jeg avventer dog flere reviews av GTX590 før jeg trekker noen konklusjoner, ikke minst erfaringer og tilbakemeldinger fra kompetente brukere i forumet.

 

 

Lykke til videre med fanboy trollingen Bulletus, du svikter aldri.

 

:rofl:

 

 

EDIT:

Du overasker forøvrig kraftig positivt med denne setningen.

det blir enten 6990 eller 590gtx- kortet med best ytelse får min oppmerksomhet.

Men jeg tror det ikke helt før jeg ser at du faktisk kjøper et AMD kort og klarer å se de gode egenskapene med det. Men noen overaskelser får man her i verden.

 

Jeg har alltid kjøpt det beste når jeg først kjøper kort , så hvis AMD har det råeste kortet etter at Nvidia slipper sitt , så kjøper jeg selvfølgelig det. Men hvis vi tar kjerne for kjerne , så gruser 580gtx amd sitt råeste.Så det blir vel neppe noen gedigen overasskelse skulle 590gtx bli ytelsekongen.

Kudos til deg for alle kaloriene du har brukt på posten min ;)

Endret av Bulletus
Lenke til kommentar

I et vanlig scenario så er det nærliggende å tro at Nvidia sitt dobbel-GPU kort blir det kraftigste, ettersom de har det desidert kraftigste enkelkjerne skjermkortet i sin besittelse.

 

MEN, det virker som både Nvidia og AMD har nådd et punkt der dagens kjøleløsninger ikke er kraftige nok til at skaleringen kan fortsette i samme grad, og at det rett og slett er ytelse per watt som bestemmer utfallet av den totale ytelsen de klarer å presse ut. Skjermkortene blir litt større, (som betyr større kjøleareal) men LANGT fra like stor økning som effektforbruket.

 

Med det mener jeg at kjøleløsningen som vi finner på GTX 590 begrenser klokkefrekvensen veldig, og Nvidia blir nødt å nedklokke de to GTX 580 kjernene kraftig for at ikke kortet skal "blåse opp i flammer".

 

 

Problemet for Nvidia er vel at HD 6970 gir noe mer ytelse pr watt enn GTX 580, og av denne grunn så trenger ikke AMD nedklokke noe særlig når de smeller to kort sammen. Og av denne grunn så har jeg litt bange anelser når det kommer til Nvidia sitt GTX 590. For av hva jeg har sett av lekkede spesifikasjoner så ser det litt dårlig ut for Nvidia og ytelsestronen.

 

Selvsagt, jeg ser jo for meg at om Nvidia som stock hadde solgt skjermkortet med vannblokk, eller i det minste brukt en langt større kjøleløsning så ville de uten tvil tatt ytelsestronen. Og jeg tipper vel på at vi får se slike kort etterhvert. For to uklokkede GTX 580 kjerner ville vært betydelig kraftigere enn HD 6990.

Endret av Andrull
Lenke til kommentar

Stemmer. Så lenge ytelsen står i stil med hvor mye effekt kortet trekker så kan de bruke "så mye strøm de vil" i denne klassen.

 

Om de lagde et kort som trakk 700 Watt, og som ga over dobbelt så høy ytelse, så hadde det fortsatt satt vært et "lavt strømforbruk". Et sånt kort ville jo selvsagt ha siktet seg inn på de som uansett har både et eller to skjermkort i maskinen uansett.

 

 

Lenke til kommentar

I et vanlig scenario så er det nærliggende å tro at Nvidia sitt dobbel-GPU kort blir det kraftigste, ettersom de har det desidert kraftigste enkelkjerne skjermkortet i sin besittelse.

 

MEN, det virker som både Nvidia og AMD har nådd et punkt der dagens kjøleløsninger ikke er kraftige nok til at skaleringen kan fortsette i samme grad, og at det rett og slett er ytelse per watt som bestemmer utfallet av den totale ytelsen de klarer å presse ut. Skjermkortene blir litt større, (som betyr større kjøleareal) men LANGT fra like stor økning som effektforbruket.

 

Med det mener jeg at kjøleløsningen som vi finner på GTX 590 begrenser klokkefrekvensen veldig, og Nvidia blir nødt å nedklokke de to GTX 580 kjernene kraftig for at ikke kortet skal "blåse opp i flammer".

 

 

Problemet for Nvidia er vel at HD 6970 gir noe mer ytelse pr watt enn GTX 580, og av denne grunn så trenger ikke AMD nedklokke noe særlig når de smeller to kort sammen. Og av denne grunn så har jeg litt bange anelser når det kommer til Nvidia sitt GTX 590. For av hva jeg har sett av lekkede spesifikasjoner så ser det litt dårlig ut for Nvidia og ytelsestronen.

 

Selvsagt, jeg ser jo for meg at om Nvidia som stock hadde solgt skjermkortet med vannblokk, eller i det minste brukt en langt større kjøleløsning så ville de uten tvil tatt ytelsestronen. Og jeg tipper vel på at vi får se slike kort etterhvert. For to uklokkede GTX 580 kjerner ville vært betydelig kraftigere enn HD 6990.

 

Men Nvidia har mye å gå på når det gjelder ytelse , så om de klokker ned kjernene endel bør ikke nødvendigvis ha så mye å si.

blir spennende å se hva skaleringen mellom de 2 kjernene hos Nvidia ender på denne gang ,kan ha stor betydning angående ytelsetronen.

Lenke til kommentar

Skaleringen er allerede svært god på SLI, og jeg tror ikke det er mye mer å hente. Tipper på at forskjellen i ytelse ved to GTX 580 mot et GTX 590 som kjører identiske frekvenser vil ligge på under 1 %. Dette på spill der det kun er GPU som begrenser.

 

Selv om Nvidia ligger et greit skritt forran AMD, så ligger jo ryktene på at de har måtte senke frekvensen til 600 MHz på kjernen, og til 3500 MHz på minnet. Dette tilsvarer 28 % lavere frekvens på kjernen og shaderene, samt 15 % lavere minnefrekvenser. Hvis dette er sant så VIL dette svi på pungen. Og skal jeg tippe så tipper jeg noe rundt 20 % lavere ytelse totalt om dette stemmer. (+/- 5 %)

 

 

 

 

Nå er jo HD 6990 veldig varmt, stort og støyete, og om GTX 590 vil ha høyere ytelse så vil det bli ENDA varmere og mer støyete, og jeg tror de allerede ligger noe i grensesonen på hva kundene i segmentet aksepterer. . (fordi Nvidia sin GPU er noe dårligere pr watt så må du også forvente høyere TDP om ytelsen skal bli tilsvarende)

 

Noe varmere og det går ut over stabiliteten, og lyd vil ikke akkurat bli tatt godt i mot.

 

Selvsagt, det er lov å håpe, men jeg har mine tvil på at Nvidia kan "pull it off" denne gangen.

 

På den andre siden ser jeg et enormt potensiale til overklokking om man bytter kjøleren til f. eks en vannblokk. :w00t:

 

 

Lenke til kommentar

Så hvilket kort er egentlig best? Er vel ikke tvil i høy oppløsning med aa aktivert. Spørs vel også hvilke spill en kjører.

Konklusjonen er vel foreløpig denne:

Hvis du har en 2560*1600-skjerm eller et flerskjermoppsett, kjøp HD 6990.

Hvis du bare har 1920*1200 eller tilsvarende, og vil ha alt på max og alltid ha skyhøy FPS, kjøp GTX 590.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...