Gå til innhold

Spesifikasjonene til AMDs monsterkort har lekket


Anbefalte innlegg

Videoannonse
Annonse

Slagordet bør være "Too HOT to handle!"

 

Det kommer forhåpentligvis med påklistrede varselmerker om fare for 2. grads forbrenninger ved hudkontakt under drift.

 

Det var det i alle fall på det forrige tokjerne-kortet jeg hadde fra ATI i sin tid, 4870X2. Revurderte hvor viktig det var med et stille/kjølig/strømgjerrig kort etter å ha levd med det som tilsvarer en hårføner montert i kabinettet i 5 år. Er per i dag fornøyd eier av et GTX680. Og nei, jeg er ikke fanboy, bare en bevisst bruker.

  • Liker 7
Lenke til kommentar

Slagordet bør være "Too HOT to handle!"

 

Det kommer forhåpentligvis med påklistrede varselmerker om fare for 2. grads forbrenninger ved hudkontakt under drift.

 

Det var det i alle fall på det forrige tokjerne-kortet jeg hadde fra ATI i sin tid, 4870X2. Revurderte hvor viktig det var med et stille/kjølig/strømgjerrig kort etter å ha levd med det som tilsvarer en hårføner montert i kabinettet i 5 år. Er per i dag fornøyd eier av et GTX680. Og nei, jeg er ikke fanboy, bare en bevisst bruker.

 

Du virker overhodet ikke som en fanboy når du bare MÅTTE dra inn nVidia og hvor flott du synes det er :)

  • Liker 1
Lenke til kommentar

Vel spørs om dette skjermkortet blir billig, kanskje like dyrt som GTX Titan Z.

 

Men uansett, uten HDMI v2 og kun DVI og mini displayport tviler jeg på denne kommer skrikende frem i favorittlisten.

Hvorfor i alle dager er HDMI 2.0 interessant for et PC-skjermkort? HDMI er, tro det eller ei, en tilkoblingsmetode tiltenkt TVer, og det er ingen grunn til å tro at DVI-porten ikke kan omgjøres til HDMI 2.0 ved hjelp av en enkel adapter.

 

noen som husker de videoene AMD la ut på Youtube når de mobbed Nvidia for varme chipper, som vel da var "Fermi" :D

 

Ikke bra husker jeg det, men jeg husker også hvor mye varme og støy det faktisk var med Fermi, GTX 480 og 470 produserte like mye varme som AMDs dual-GPU-kort HD 5970 mot at de leverte 10-15% ekstra ytelse over singel-GPU-variantene HD 5870 og 5850, i tillegg bråkte de også mer enn 5970...

Å sammenligne 290X og 290 mot Fermi viser bare at man ikke har fulgt med i det hele tatt.

 

EDIT:

En ting som er litt interessant er 500W TDP, ikke bare bryter AMD PCIe-spesifikasjonene ved å sette en såpass høy TDP, men det er jo helt sinnsvakt å tenke på at en liten 120mm radiator skal kjøle ned dette kortet.

Endret av N o r e n g
  • Liker 1
Lenke til kommentar

 

noen som husker de videoene AMD la ut på Youtube når de mobbed Nvidia for varme chipper, som vel da var "Fermi" :D

 

Snakk om å møte seg selv i døra der AMD :)

Ja, jeg husker godt at testene av 290X kom ut der anmelderne påpekte at kortet slukte 350W under spilling, og hvordan det var en papirlansering med treskruer i kortet og spesialbygde vifter som taklet de nødvendige 15 000 RPM for at kortet ikke skulle falle tilbake til 2D-klokker. For ikke å glemme den synlige kjøleribba på kortet med utstikkende varmerør som om designerne anså høyden av kunst for å være American Chopper

 

Det eneste 290X har til felles med GTX 480 er driftstemperatur, varmeproduksjon og støy var betydelig verre på 480.

Endret av N o r e n g
  • Liker 1
Lenke til kommentar

 

Vel spørs om dette skjermkortet blir billig, kanskje like dyrt som GTX Titan Z.

 

Men uansett, uten HDMI v2 og kun DVI og mini displayport tviler jeg på denne kommer skrikende frem i favorittlisten.

Hvorfor i alle dager er HDMI 2.0 interessant for et PC-skjermkort? HDMI er, tro det eller ei, en tilkoblingsmetode tiltenkt TVer, og det er ingen grunn til å tro at DVI-porten ikke kan omgjøres til HDMI 2.0 ved hjelp av en enkel adapter.

 

Hadde vært gøy om du kunne konvertere DVI duallink til HDMI v2 og også få med lyd?

Er enig i HDMI er mest til TVer, men det finnes jo pcskjermer som fremdeles har dette.

DVI er en utgående standard, finnes det DVI kabler som kan måles mot displayport 1.3?

Lenke til kommentar

 

 

noen som husker de videoene AMD la ut på Youtube når de mobbed Nvidia for varme chipper, som vel da var "Fermi" :D

 

Snakk om å møte seg selv i døra der AMD :)

Ja, jeg husker godt at testene av 290X kom ut der anmelderne påpekte at kortet slukte 350W under spilling, og hvordan det var en papirlansering med treskruer i kortet og spesialbygde vifter som taklet de nødvendige 15 000 RPM for at kortet ikke skulle falle tilbake til 2D-klokker. For ikke å glemme den synlige kjøleribba på kortet med utstikkende varmerør som om designerne anså høyden av kunst for å være American Chopper

 

Det eneste 290X har til felles med GTX 480 er driftstemperatur, varmeproduksjon og støy var betydelig verre på 480.

 

 

Hvorfor sammenligner du Nvidia kort fra 3 generasjoner tilbake med dagens AMD kort? Dette viser jo bare at Nvidia har gjort noe riktig med dagens kort mens AMD er på feil vei.

Lenke til kommentar

Vannkjøling generelt sett har blitt forbundet med lavere temperaturer, og da ville en enkel 120mm rad vært alt for lite. Men om de lager vannsystem som tåler litt høyere vanntemp, så burde det gå å fjerne 500W med en så liten radiator, og fortsatt ha litt til overs. I hvert fall om det er med push/pull og noe tykkere, samt kanskje en liten kjøleribbe på selve kortet også. (disse ferdig-løsningene er jo gjerne 20-25mm og øker de til 40-50mm så har du samme kjøleareal)

Og med tanke på at du har så stort kjøleareal som går rett ut av kabinettet så er det nok rimelig grei løsning.

Edit:

Alle mine GTX 480-kort har kjørt seg opp til 95-100 grader (noen ganger mer), men effektforbruket er noe lavere enn 290x i spill. (ca 9,1 % i følge guru3d: http://www.guru3d.com/articles_pages/msi_radeon_r9_290x_lightning_review,11.html). Støymessig tipper jeg den ligger på omtrent samme nivå.

Lenke til kommentar

"TDP for kortet alene er oppgitt til 500 watt, og strømmen hentes foruten fra PCIe-kontakten også via to åttepins strømtilkoblinger."

 

Så (75 + 150 + 150) watt? Det er noe som ikke stemmer her. Det burde være 3 åttepins kontakter for at dette kortet går igjennom kravene.

Lenke til kommentar

Alle mine GTX 480-kort har kjørt seg opp til 95-100 grader (noen ganger mer), men effektforbruket er noe lavere enn 290x i spill. (ca 9,1 % i følge guru3d: http://www.guru3d.com/articles_pages/msi_radeon_r9_290x_lightning_review,11.html). Støymessig tipper jeg den ligger på omtrent samme nivå.

Flott, da fikk vi iallefall noen tall. 290X bruker litt over 20W mer en GTX 480 i load, selv om det er ganske meningsløst å sammenligne strømforbruket på kort det er tre generasjoner mellom.

 

Det som derimot er interesant er å sammenligne ytelsen mellom GTX 480 og GTX 750 Ti (Maxwell). Disse kortene er ikke så langt fra hverandre i ytelse, hvis oppløsningen ikke er for høy. Der snakker vi 263 W versus 92 W. Det sier litt om effektiviteten til Maxwell... :)

Lenke til kommentar

Slagordet bør være "Too HOT to handle!"

 

Det kommer forhåpentligvis med påklistrede varselmerker om fare for 2. grads forbrenninger ved hudkontakt under drift.

 

Det var det i alle fall på det forrige tokjerne-kortet jeg hadde fra ATI i sin tid, 4870X2. Revurderte hvor viktig det var med et stille/kjølig/strømgjerrig kort etter å ha levd med det som tilsvarer en hårføner montert i kabinettet i 5 år. Er per i dag fornøyd eier av et GTX680. Og nei, jeg er ikke fanboy, bare en bevisst bruker.

 

Hadde 4870x2 selv, og det var så varmt på utluftingen at kabelene som lå forbi ble mykere. Skal si kabinettet gikk fra å være varme ovn til å bli normalt kabinett når jeg fikk på vannkjøling.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...