Gå til innhold

TEST: Radeon HD 2900 XT


Anbefalte innlegg

Videoannonse
Annonse
Gjest Slettet-XHLacM

Husker godt da det gikk rykter om at R600 kom til å bli helt villt. Bilder av halvmeterlange kort som sirkulerte på internett gjorde ikke forventningene noe mindre. Og hva får vi? - Jo, et helt normalt kort som ikke akkurat er noen "killer". Dette er heller ikke første gang ATi henger etter.

Lenke til kommentar
Det jeg er bekymret for er effektbruket da.. over 300 w ? Er jo hinsides.. Kanskje man snart får bruk for 1 kw PSU`ene som er begynt å komme på markedet.

8610262[/snapback]

Det var hvor mye som går inn til PSU. Hvis vi antar ca. 80% virkningsgrad, finner vi at maskinen trekker noe over 250 W.

 

Så nei, 1 kW virker fortsatt helt tullete.

Lenke til kommentar

Ser nå ut som det er en del mere potensiale i dette enn 8800GTS 640 (som det prismessig kan sammenlignes med), og burde dra endel ifra på ytelse når drivere modnes.

 

Men er skuffet over effektforbruk, blir nok ikke aktuelt før GPU krympes.

Lenke til kommentar

Synes kortet gjorde det bra på enkelte punkter, men er enig: Det er skuffende resultater. Men det banket jo gørra ut av 8800GTS i de fleste tester og med tanke på at de fleste her i dag kjører skjermer med stor oppløsning, vil også behovet for et kraftig skjermkort som 2900XT melde seg.

 

Det jeg lurer på som jeg ikke fikk helt essensen av, støtte Nvidia sin 8. serie HW avspilling av all filmmateriale? Det at kortet sender lyd over HDMI m/HDCP og 5.1 standard er svært bra. For meg som spiller noe, men er mer fokusert på mediadelen og hvilke nyvinninger dette kortet kan gi mitt oppsett så er det svært intr. I allefall hvis 2600XT dukker opp med 256bits minnebus.

 

alt i alt synes jeg HW akslerasjonen er en svært spennende nyhet. Om Nvidia har det samme så er det jo greit, men jeg har ikke hørt noe. Stemmer det?

Lenke til kommentar
Så hva har du brukt DirectX 10-funksjonene i ditt GeForce 8800-kort til de siste månedene?

Meget godt spørsmål. :hmm: Gledet seg til Crysis vel vitende om at du er klar til å kjøre det på full grafikk? Og vite at du kunne kjøpt skjermkort når det kommer ut og betalt mindre for nye og mye bedre kort? Jaja, det å være ute i god tid er et mål i seg selv. Personlig skal jeg ikke ha nytt skjermkort (ny PC, faktisk) før neste år. Da har nok DirectX 10 fått modnet seg i alle fall litt.

 

Som en fotnote synes vi forresten AMD kunne spart seg for å hoppe på "HD-hypen" og droppet "HD" i navnet. Forklaringen er at "fra et PR-messig synspunkt...bla bla bla". Vi får bare leve med det.

Er dette sømmelig å ha i en artikkel? Det skal ikke være mye subjektivt, med mindre det er helt relevant for artikkelens synspunkt og faktisk er utelukkende subjektivt (som hvorvidt den kunstneriske (og ikke tekniske) grafikken i et spill ser bra ut).

Lenke til kommentar
Som en fotnote synes vi forresten AMD kunne spart seg for å hoppe på "HD-hypen" og droppet "HD" i navnet. Forklaringen er at "fra et PR-messig synspunkt...bla bla bla". Vi får bare leve med det.

Er dette sømmelig å ha i en artikkel? Det skal ikke være mye subjektivt, med mindre det er helt relevant for artikkelens synspunkt og faktisk er utelukkende subjektivt (som hvorvidt den kunstneriske (og ikke tekniske) grafikken i et spill ser bra ut).

8610577[/snapback]

 

Det er jeg helt enig i. Tenkte jeg faktisk ikke over noe særlig, annet enn at jeg skjønner hvorfor ATI har tatt med "HD" i navnet. 2900XT kan jo HW kode all film, også H.264. Er jo naturlig å ta med "HD" i navnet, selv om dette er litt hype som det påstås i testen.

Lenke til kommentar
Synes kortet gjorde det bra på enkelte punkter, men er enig: Det er skuffende resultater. Men det banket jo gørra ut av 8800GTS i de fleste tester og med tanke på at de fleste her i dag kjører skjermer med stor oppløsning, vil også behovet for et kraftig skjermkort som 2900XT melde seg.

8610549[/snapback]

 

Det var vell å ta i én smule? ;)

 

Testen er jo også av GeForce 8800GTS 320MB.. Skulle heller likt å se en test opp imot 640MB versjonen.. 2900XT er jo en god del dyrere enn 8800GTS 320MB.. Derfor er det mye bedre å teste opp imot 640MB versjonen som ligger i samme prisklasse..

 

2900XT banke uansett ikke gørra ut av 320MB versjonen heller, og 640MB versjonen er jo mye kvassere enn 320MB versjonen i nettopp tunge applikasjoner.. Når AA / AF blir skrudd på max, og høye oppløsninger blir benyttet..

Lenke til kommentar

Mitt inntrykk av R600 utifra diverse tester og overklokkingsresultater, er at det er veldig liten ytelsesforskjell mellom 8800GTX og HD2900XT, 8800GTX er litt raskere@stock, men klokker veldig bra.

 

I tillegg vil nye drivere gi kortet bedre ytelse. Prisen er ca. 1500,- under 8800GTX så jeg synes dette virker som et meget fint kort i forhold til prisen.

 

Kinc med HD2900XT under cascade tok nettop singlecard 3DMark05 rekorden fra kingpin med 8800 Ultra under LN2 forresten ;)

 

Edit: Her er testen hos NordicHardware :) Litt andre resultater der. Kortet eide 8800 Ultra i 3DMark05.

Endret av Økonom
Lenke til kommentar
Synes kortet gjorde det bra på enkelte punkter, men er enig: Det er skuffende resultater. Men det banket jo gørra ut av 8800GTS i de fleste tester og med tanke på at de fleste her i dag kjører skjermer med stor oppløsning, vil også behovet for et kraftig skjermkort som 2900XT melde seg.

 

alt i alt synes jeg HW akslerasjonen er en svært spennende nyhet. Om Nvidia har det samme så er det jo greit, men jeg har ikke hørt noe. Stemmer det?

8610549[/snapback]

Det er et 320MB 8800GTS kort den "banker gørra ut av", og det i høye oppløsninger (1600x1200++) Nå er tross alt 320MB utgavene av 8800GTS 600-700 kroner billigere enn HD2900XT da... ;)

 

Sammenlinget med GTS 640MB så er det mye jevnere, er faktisk tester 8800GTS banker gørra ut av HD2900XT, og det med et betraktlig lavere effektbruk, og mer stillegående kjøler.

 

 

Hvilken HW akselerasjon er det du tenker på? Av H.264 mener du? Der har vel nVidia kun full akselerasjon i 8600/8500/8400-serien. high-end kortene har kun delivis akselerasjon.

Lenke til kommentar
Synes kortet gjorde det bra på enkelte punkter, men er enig: Det er skuffende resultater. Men det banket jo gørra ut av 8800GTS i de fleste tester og med tanke på at de fleste her i dag kjører skjermer med stor oppløsning, vil også behovet for et kraftig skjermkort som 2900XT melde seg.

8610549[/snapback]

 

Det var vell å ta i én smule? ;)

 

Testen er jo også av GeForce 8800GTS 320MB.. Skulle heller likt å se en test opp imot 640MB versjonen.. 2900XT er jo en god del dyrere enn 8800GTS 320MB.. Derfor er det mye bedre å teste opp imot 640MB versjonen som ligger i samme prisklasse..

 

2900XT banke uansett ikke gørra ut av 320MB versjonen heller, og 640MB versjonen er jo mye kvassere enn 320MB versjonen i nettopp tunge applikasjoner.. Når AA / AF blir skrudd på max, og høye oppløsninger blir benyttet..

8610667[/snapback]

 

Mulig at "banker gørra" er litt hardt å ta i ja ;), men jeg synes kortet gjorde det bra opp mot 8800GTS, selv om prisen er en del forskjellig.

 

Det jeg mener er svært intr å trekke frem, er egenskapene til 2900XT som HW dekoding av filmmateriale. Så vidt jeg har skjønt må man ha PureVideo (som koster penger) fra Nvidia i tillegg. ATI støtter dette "out-of-box".

 

rett meg om jeg tar feil ;)

Endret av andylove
Lenke til kommentar
Gjest Slettet+6132
Edit: Her er testen hos NordicHardware :) Litt andre resultater der. Kortet eide 8800 Ultra i 3DMark05.

8610672[/snapback]

 

For de av oss som bencher/overklokker ser 2900-serien fra ATI som ett meget godt alternativ, ja.

De som dømmer kortet "nord og ned" utifra spilltestene med drivere på litt over "beta-stadiet" er kanskje litt for raske med dommen.

Det som er mer betenkelig er vel det høye effekt-forbruket, men det har vi jo etterhvert blitt vant til med toppkort fra ATI. :)

Lenke til kommentar
Edit: Her er testen hos NordicHardware :) Litt andre resultater der. Kortet eide 8800 Ultra i 3DMark05.

8610672[/snapback]

En av de dårligeste testene jeg har sett!

 

Spiller du mye 3DMark?

 

3DMarks er faktisk noen av de applikasjonene R600 gjør det best på. Noe som er synd. Anbefaler deg å lese tester hvor de faktisk fokuserer på spill (her er noen):

http://enthusiast.hardocp.com/article.html...W50aHVzaWFzdA==

http://www.driverheaven.net/reviews/r600re.../conclusion.php

http://www.hothardware.com/articles/ATI_Ra...rrived/?page=21

http://www.techreport.com/reviews/2007q2/r...t/index.x?pg=16

Lenke til kommentar
Det jeg mener er svært intr å trekke frem, er egenskapene til 2900XT som HW dekoding av filmmateriale. Så vidt jeg har skjønt må man ha PureVideo (som koster penger) fra Nvidia i tillegg. ATI støtter dette "out-of-box".

 

rett meg om jeg tar feil ;)

8610719[/snapback]

Det er nok litt feil.

 

Begge kortene så må du kjøpe en H.264 dekoder som støtter hardware-akselerasjon (PowerDVD, WinDVD, Nero, osv.)

 

Disse dekorderene bruker hardware på både nVidia og ATi-kortene.

 

nVidia solgte/selger demmes egen DVD-dekoder (ala PowerDVD), denne støttter kun DVD, og ikke H.264, og bruker også hardware fra nVidia kortet, men er ikke noe must, men kun et alternativ.

Lenke til kommentar
Raptor,14/05-2007 : 16:47]
Synes kortet gjorde det bra på enkelte punkter, men er enig: Det er skuffende resultater. Men det banket jo gørra ut av 8800GTS i de fleste tester og med tanke på at de fleste her i dag kjører skjermer med stor oppløsning, vil også behovet for et kraftig skjermkort som 2900XT melde seg.

 

alt i alt synes jeg HW akslerasjonen er en svært spennende nyhet. Om Nvidia har det samme så er det jo greit, men jeg har ikke hørt noe. Stemmer det?

8610549[/snapback]

Det er et 320MB 8800GTS kort den "banker gørra ut av", og det i høye oppløsninger (1600x1200++) Nå er tross alt 320MB utgavene av 8800GTS 600-700 kroner billigere enn HD2900XT da... ;)

 

Sammenlinget med GTS 640MB så er det mye jevnere, er faktisk tester 8800GTS banker gørra ut av HD2900XT, og det med et betraktlig lavere effektbruk, og mer stillegående kjøler.

 

 

Hvilken HW akselerasjon er det du tenker på? Av H.264 mener du? Der har vel nVidia kun full akselerasjon i 8600/8500/8400-serien. high-end kortene har kun delivis akselerasjon.

8610718[/snapback]

 

Det sier jo i allefall sitt! om 8800 serien ikke har full HW akslerasjon, så blir det ikke Nvidia på meg. Det er mer enn spill som betyr noe i dagens PC, og jeg som bruker min maskin i stua og gjerne kjører HD film kan dra fin nytte av ATI sitt nye "vidunder". Svært skuffende å få vite at Nvidia sine toppkort ikke støtter HW koding av film på samme måte.

 

Raptor,14/05-2007 : 16:56]
Det jeg mener er svært intr å trekke frem, er egenskapene til 2900XT som HW dekoding av filmmateriale. Så vidt jeg har skjønt må man ha PureVideo (som koster penger) fra Nvidia i tillegg. ATI støtter dette "out-of-box".

 

rett meg om jeg tar feil ;)

8610719[/snapback]

Det er nok litt feil.

 

Begge kortene så må du kjøpe en H.264 dekoder som støtter hardware-akselerasjon (PowerDVD, WinDVD, Nero, osv.)

 

Disse dekorderene bruker hardware på både nVidia og ATi-kortene.

 

nVidia solgte/selger demmes egen DVD-dekoder (ala PowerDVD), denne støttter kun DVD, og ikke H.264, og bruker også hardware fra nVidia kortet, men er ikke noe must, men kun et alternativ.

8610816[/snapback]

 

Sånn sett er jeg enig med deg. Jeg har erfart at man faktisk får med en versjon av et filmavspillingsprogram når man kjøper skjermkort. Poenget mitt var at ATI har støtte for maskinvarekoding av filmmateriale som ikke Nvidia har. Nå fikk jeg påpekt lengre opp her av en eller annen at kun Nvidia sin "kjipe" serie støtter HW koding av HD materiale. Det er svakt.

Endret av andylove
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...