Gå til innhold

Test: AMD Radeon R9 290X


Anbefalte innlegg

Videoannonse
Annonse

Var nå egentlig ment litt spøkete, men tenkte hovedsakelig på en GPU-kobberblokk bare.

Selv om det har eksistert hybrider med både tilkobling for vannkjøling OG viftekjøling på samme kortet.

 

En lukket loop kunne jo også vært en ide, men blir raskt håpløst når man skal kjøre flere.

 

 

 

Er vell på tide med noen kort som matcher både temps og strømforbruk til 480ene dine :evil: :evil: :evil:

 

290x incomin?

Lenke til kommentar

 

Er vell på tide med noen kort som matcher både temps og strømforbruk til 480ene dine :evil: :evil: :evil:

 

290x incomin?

Hadde 290x vært lett tilgjengelig, og det samme med vannblokk så hadde det nok vært det.

Nå venter det et 780 Classified på meg på postkontoret, men er ikke sikkert det fysisk passer, så spørs om jeg ikke må skaffe meg 290x eller 780Ti, eller noe i den duren som ikke er så jækla høyt. :p

 

Men tror nok to blodklokka GTX 780 Classified utvikler nok varme til at jeg blir fornøyd. :p

 

Med 3930K på 1,6V @5,2 GHz og godt klokket GTX 480 + nedkjøling av resten av resten av kabinettet, så økte vanntempen med hele 10 grader etter en lengre stressperiode!! (var oppe i hele 8 grader celsius). Så har revet opp halve kabinettet og bygger nå om selve varmeveksleren. :ph34r:

Lenke til kommentar

Nei, ikke noe spesielt bra. 864 MHz / 1970 Mhz (andre kortet husker jeg ikke). Trenger mer spenning til det. Så litt kjapt på nettet for ny BIOS i forrigårs, men fant ikke noe sånn umiddelbart, så dreit i det.

 

Har jo som sagt et classified å konsentrere meg om, og så lenge PCen bare ligger i deler, så får jeg ikke lekt meg med det. XD Skjitvanskelig å bygge et vanntett reservoar rundt en svær radiator med rør og koblinger jeg bare må bygge rundt (kan ikke flytte på den) :omg:

Lenke til kommentar

Jeg sier det igjen, det er ikke noe i veien med å kjøpe kortet med denne kjøleren. 100C er som nevnt tidligere ikke farlig, og det er visstnok sant at varme komponenter holder lengre enn kaldere.

 

Jeg må rett og slett si at kjøleren er helt okei, og kjøler vesentlig bedre enn min GTX 480 kjøler som har heatpipes & slikt. Eneste negative med denne kjøleren er at den ser aboslutt jævelig jalla ut og støynivået kan bli litt høyt.

Lenke til kommentar

Ser fagpressen har begynt å forstå hvorfor 290/X serien ved launch er ubrukelig. Velkommen etter men bedre sent en aldri.

 

http://www.tomshardware.com/reviews/radeon-r9-290-review-benchmark,3659.html

 

 

On the R9 290X we received from AMD, and in the seven games we tested, a 40% fan speed is good enough to average about 874 MHz. But when you’re actually gaming on a hot card (and not just benchmarking a cold one), our two-minute Metro: Last Light test suggests you’ll be spending more of your time in the upper-700 MHz range. In fact, in some titles, you’ll dip under 1000 MHz before even getting out of the menu system and into the action (Arma and BioShock).

You could call that questionable marketing. After all, the only way you’ll actually see a sustained 1000 MHz is if you either let the R9 290X’s fan howl like a tomcat looking for action or play platform-bound games. Then again, if you’re still seeing better performance from 290X than competing cards, what does it matter how Hawaii gets there, right?

-------------------------------------------------------------------

http://www.tomshardware.com/reviews/radeon-r9-290-review-benchmark,3659-20.html


I have two issues with this. First, at 47% duty cycle, the fan is too loud. It’s obviously not as bad as the 290X’s Uber mode, but I don’t see any compelling reason to compromise acoustics when quieter solutions exist. AMD points out that you can turn the fan down if you want, and that's true, but you'd watch 290's performance erode at the same time. Second, I simply don’t trust the numbers I’m getting from the 290 we have on-hand to review. Even if it’s a total fluke that the R9 290X cards we have are so diametrically opposed, the mere existence of this much variance means Radeon R9 290 is either as fast as a GeForce GTX Titan and priced phenomenally or somewhere behind a retail R9 290X, just ahead of GeForce GTX 770, and priced to slot into the market (unspectacularly). I’m not comfortable making a recommendation one way or the other on 290 until we see some retail hardware.

If that sounds like an about-face after my Radeon R9 290X review, well, in some ways it is. There was simply no way to anticipate so much variation from one card to another at launch. AMD insists what we're seeing isn't right, but we can only determine that with greater retail availability. Moreover, AMD came to market with a fantastic price on 290X compared to its competition. That situation has since changed. And now, the decision to let the 290's fan hit 47% duty cycle feels like a knee-jerk reaction, sacrificing experience for higher sustained clock rates. Less consistency, tighter pricing, more noise...let's just say I'm more wary this time around.

-----------------------------------------------------------------

http://www.tomshardware.com/reviews/radeon-r9-290-review-benchmark,3659-19.html

Bottom Line

If anything deserves an award, it’s the Arctic Accelero Xtreme III third-party cooler that lets AMD's Hawaii-based boards realize their potential. This is how the card could, and should, perform. Why AMD persists with its sub-par cooling solution is really anyone’s guess, especially since these problems have been going on for years. Dumping the issue on its partners can’t really be the solution either, since a graphics card’s reputation is made, or lost, on launch day.

Endret av inmo
  • Liker 1
Lenke til kommentar

Dette er da ingen nyhet? Har vært slik en stund nå, gammelt nytt. Er bare å sette det i Uber mode før du begynner å spille, that's it.

 

AMD sin boost er milevis forran Nvidia sin, og kan ikke se at dette er en direkte ulempe ei.

 

MEn hva er det som er så mye bedre med AMD sin boost? Det har ikkje jeg skjønt enda. :hmm:

 

Selv har jeg tatt av boost på Titankorta og 780 korta. Strømsparing trenger jeg ikkje når jeg kan varme huset med spillvarmen.

Lenke til kommentar

 

MEn hva er det som er så mye bedre med AMD sin boost? Det har ikkje jeg skjønt enda. :hmm:

 

Selv har jeg tatt av boost på Titankorta og 780 korta. Strømsparing trenger jeg ikkje når jeg kan varme huset med spillvarmen.

 

Hva er det som er bedre? Du vet hva du får, kontra Nvidia. På mine 780er var det ikke slik at du automatisk fikk +100MHz, var faktisk nede på +30MHz ved flere anledninger. Jeg får nesten en slik AMD Enduro 7970M følelse med Nvidia boost, sorry.

 

Men Enuro er praktisk talt det du får med 290x og, uten Uber mode.

 

En ting jeg hater så jævelig med disse kortene er at dem klokker helt horribelt dass og det er så mange mangler, at det er ingen vits for en forbruker å velge R290x ovenfor GTX 780.

 

Skal liksom man stille inn på Uber mode hver helvetes gang man skal spille? Ikke nok med det, den

 

JÆVLA STØYEN ALTSÅ HELVETEEEEEEEEEEEEEEEEEEEEEEEEEEE

 

Jeg har Air 540 og det høres ut som en jævla turbin fra første-etasjen.

 

Idk rly, blir nok skifte til 780Ti her.

Endret av Kurio
Lenke til kommentar

 

Hva er det som er bedre? Du vet hva du får, kontra Nvidia. På mine 780er var det ikke slik at du automatisk fikk +100MHz, var faktisk nede på +30MHz ved flere anledninger. Jeg får nesten en slik AMD Enduro 7970M følelse med Nvidia boost, sorry.

 

Men Enuro er praktisk talt det du får med 290x og, uten Uber mode.

 

En ting jeg hater så jævelig med disse kortene er at dem klokker helt horribelt dass og det er så mange mangler, at det er ingen vits for en forbruker å velge R290x ovenfor GTX 780.

 

Skal liksom man stille inn på Uber mode hver helvetes gang man skal spille? Ikke nok med det, den

 

JÆVLA STØYEN ALTSÅ HELVETEEEEEEEEEEEEEEEEEEEEEEEEEEE

 

Jeg har Air 540 og det høres ut som en jævla turbin fra første-etasjen.

 

Idk rly, blir nok skifte til 780Ti her.

 

Men du gadd ikkje å låse boost med evga precision x :p

Lenke til kommentar

Hvis man låser boost, så forsvinner jo hele meningen med det?! :p
Å klage på "ujevn boost" blir jo også helt rart. Det er jo nettopp det boost er. :omg:

 

Altså at frekvensen kan øke om belastningen er lav. Hvis man er garantert å få et gitt boost-frekvens, så kan man jo like godt droppe hele boost-prinsippet og heller bare satt frekvensen høyere.

  • Liker 1
Lenke til kommentar

Hvis man låser boost, så forsvinner jo hele meningen med det?! :p

Å klage på "ujevn boost" blir jo også helt rart. Det er jo nettopp det boost er. :omg:

 

Altså at frekvensen kan øke om belastningen er lav. Hvis man er garantert å få et gitt boost-frekvens, så kan man jo like godt droppe hele boost-prinsippet og heller bare satt frekvensen høyere.

 

Boost på nVidia er jo for å spare strøm. Altså den bruker ikkje mere krefter enn det den må.

Lenke til kommentar

Vel, var nå ikke slik de markedsførte det. Hvor de altså beskrev boost som at kortet økte frekvensen når lasten ble lavere (altså når ikke hele kjernen ble belastet fullt). Som igjen fører til at gjennomsnitt strømforbruket høyere, som da blir det motsatte av strømsparer. Da strømmen oftere vil ligge opp mot maks, og du får så god ytelse som lar seg gjøre.

 

Eller har jeg missforstått ALT!? :p

Strømsparer har de jo hatt i årevis når den ikke blir belastet, så klokker den seg ganske godt ned, så i såfall ville boost-funksjonen vært noe bortkastet-

Endret av Andrull
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...