Gå til innhold

Leadtek A380 Ultra


Anbefalte innlegg

Videoannonse
Annonse
Jeg er nå ikke så sikker jeg liker støv filtret på det kortet jeg da.. så litt "tett" ut, og for de som har hund & katt og ikke alltid har det like rent på PC rommet ( jeg har det rent! men har dyr.. :) ) så kan dette by på problemer etter noen mnd'er. Spesielt om maskinen står på gulvet..

Nå er jo jobben til et støvfilter nettopp å stoppe slike ting, slik at du selv kan rengjøre filteret en gang iblandt isteden for å slite denne "pelsen" løs fra selve vifta.

Uansett er det vel ingen som bryr seg om hvordan det ser ut etter noen måneder? :wow:

Jeg åpner da PCn en gang i uka cirka og ser om den har det bra :p

Vel tenkte ikke helt på meg eller deg. Pratet litt mer generellt om den vanlige mann i gata. Vet det var litt dumt å ta opp akkurat dette her, når det sitter for det meste meget data kyndige menesker på dette forumet.

 

Men det jeg mente var, jeg jobber daglig med maskiner som ikke har blitt åpnet på et år før de plutselig en dag henger helt pga varme problemer.

Kundene mine blir alltid like overrasket når jeg sier at det er pga støv i vifter som gjør at maskinen overoppheter og henger.

Enda mer når jeg sier at det ikke dekkes på garantien til maskinen ;) Så personling ville jeg sett på filtret som en negativ ting på dette skjermkortet. Jo mer støv og dritt som kommer jo mer varme blir det. Uten filteret ville mest sannsynlig stort støv satt seg fast som på vanlige vifter, mindre støv ville bare gått gjennom viften om finnen i ribben var store nok, dermed ikke blitt noe problem.

 

For all del, jeg har ikke sett ribben selv, så det kan hende at filteret er et bortimot "krav" på denne viften siden støv ville heller satt seg fast i ribben kanalene.

 

Jeg har selv rimelig rene maskiner stående hjemme, og for meg hadde ikke dette vært noe problem skal sies.. :)

Endret av Pritorian
Lenke til kommentar

jeg syns testen er litt lite kritisk til softwaren den kjører. Ikke det at jeg sier nvidia suger for da blir det flaming i stor stil... men her er jo det meste utenom aquamark "sjekket" av nvidia. Var det forresten noe forskjell i billedkvalitet? syns dette er interessange tema når man tenker på at man bruker 4-5000 på ett kort som skal kunne kjøre spill som kommer ut i ei god stund framover ;)

Lenke til kommentar

Det visst på tide med en liten oppsummering her:

 

Orak: Loddebolt og Vapo hadde vært tingen, ja... Hadde vi bare hatt et kort å bruke det på :-/

 

jOsh: Dette er ingen head-to-head sammenligning, men en test av Leadtek A380. Derfor har jeg ikke fokusert på overklokking av Radeon, men har dem bare med som referanse. En skikkelig test av de to, også med overklokking, vil komme om ikke lenge.

 

Jeg har nå oppdatert testen med laveste pris, og som dere ser er den absolutt konkurransedyktig. Det dere må tenke på når dere nevner priser hos EET er at de er distributør, ikke detaljist. Med andre ord må man ha forhandleravtale med EET for å få handle der, og prisene varierer veldig med hvilke avtaler den enkelte butikk eller butikkjede har forhandlet fram.

Lenke til kommentar
Det visst på tide med en liten oppsummering her:

 

Orak: Loddebolt og Vapo hadde vært tingen, ja... Hadde vi bare hatt et kort å bruke det på :-/

 

jOsh: Dette er ingen head-to-head sammenligning, men en test av Leadtek A380. Derfor har jeg ikke fokusert på overklokking av Radeon, men har dem bare med som referanse. En skikkelig test av de to, også med overklokking, vil komme om ikke lenge.

 

Jeg har nå oppdatert testen med laveste pris, og som dere ser er den absolutt konkurransedyktig. Det dere må tenke på når dere nevner priser hos EET er at de er distributør, ikke detaljist. Med andre ord må man ha forhandleravtale med EET for å få handle der, og prisene varierer veldig med hvilke avtaler den enkelte butikk eller butikkjede har forhandlet fram.

Hva med FX kortet eller 9800XT ?.. koster hvis det går feil men, det skal jo koste å være mann sies det :dontgetit:

Lenke til kommentar
Hvem sier at GF har dårlig støtte for DX9.. Her ligger kortet likt med ati sitt råeste kort, XT. Og har til og med en klar ledelse i høye oppløsninger. GO NVIDIA :thumbs:

Det er her brukt en driver som ikke er godkjent av Futuremark.

 

Gunmetal bruker PS1.1 (DX8)

 

Jeg kan ikke se at det er noen tester med AA+AF. Med slike dyre kort er det etter mening kun AA+AF tester som er interesante, ihvertfall i rene spill tester.

Lenke til kommentar
Det er her brukt en driver som ikke er godkjent av Futuremark.

Nå skal det legges til at Futuremark ikke har oppdatert sin driveroversikt etter at 53.03 ble lagt ut på nVIDIAs hjemmesider. Det er likefullt interessant å bruke de nyeste driverne, da dette gir optimal ytelse i spillsammenheng.

Gunmetal bruker PS1.1 (DX8)

Dette spillet bruker nok enkelte DX8-instruksjoner også, men er likefullt avhengig av DX9 for å fungere skikkelig. Tro meg - det er stor forskjell med og uten DX9 installert :-)

Jeg kan ikke se at det er noen tester med AA+AF. Med slike dyre kort er det etter mening kun AA+AF tester som er interesante, ihvertfall i rene spill tester.

Bortsett fra Gun Metal, som automatisk kjører på 2x AA, har du dessverre rett. Dette er noe jeg tar selvkritikk på, men da jeg ikke har kortene tilgjengelig lenger får jeg ikke dessverre ikke gjort noe med det.

 

Takk for kommentarene

Lenke til kommentar

Nå skal det legges til at Futuremark ikke har oppdatert sin driveroversikt etter at 53.03 ble lagt ut på nVIDIAs hjemmesider.

Spørsmålet er da, hva er grunnen til det? Ytelsen Nvidia mistet med 340 patchen har dem nå fått tilbake med 53.03 driveren, det tyder da på at den skreddersydde shader koden til nvidia er tilbake igjen.

 

Det er likefullt interessant å bruke de nyeste driverne, da dette gir optimal ytelse i spillsammenheng.

Ja, men det er også interessant å bruke en driver i 3dmark03 som faktisk er godkjent av futuremark.

 

Dette spillet bruker nok enkelte DX8-instruksjoner også, men er likefullt avhengig av DX9 for å fungere skikkelig. Tro meg - det er stor forskjell med og uten DX9 installert :-)

Jeg er klar over at Gunmetal bruker enkelte DX9 funksjoner, men jeg trodde det var kun for å få bedre ytelse med å flytte workload fra CPU til GPU. Uansett er det like misledene å si at Gunmetal er et dx9-spill som det er å si at Parhelia er et dx9-kort.

 

Fra Gunmetal benchmark FAQ:

Q: What Vertex Shader version does the benchmark use?

Vertex Shader 2.0

 

Q: What Pixel Shader version does it use?

Pixel Shader 1.1

Lenke til kommentar

Som nevnt blir det vanskelig å kjøre nye tester med grafikkort vi ikke lenger har, men dette blir selvfølgelig ikke siste gang vi tester grafikkort. Da vil vi gjøre som både du, nVIDIA og ATI anbefaler, kjøre med 4xAA og 8xAF.

 

Ettersom du misliker testpakken vår - hvilke spill og/eller programmer syns du mangler? Målet mitt er å lage best mulige tester framover, ikke å sitte her og være sta :-)

Lenke til kommentar

Jeg syns dere skal forsette med å bruke en blanding av syntetiske tester og spill tester som nå. Men istedet for å basere omtalen på noen få populære programmer og spill som er naturlige mål for applikasjons spesifikk optimalisering så kunne dere ha brukt et mer variert utvalg av syntetiske tester og ikke-typiske benchmark spill.

Dere kunne ha lagt fram resultatene i de individuelle testene i 3DMark03 i stedet for å kun vise den sammenlagte poeng summen. Men Shadermark 2.0 er nok et bedre syntetisk test for DX9 bl.a pga det bruker ren MS HLSL kode istedet for en "håndskrevet" kode som 3DMark03 bruker.

Når det gjelder spill tester så kunne dere ha brukt andre maps i UT2003 som inferno og face3 som er ganske stressene. Andre spill som er stressene for skjermkortet er f.eks Splinter Cell, X2-The Threat og TR:AoD med og uten DOF. Spill som ikke er typisk brukt til benchmarking så kan jeg nevne noen, BF1942, Raven Shield, Warcraft3, Need for speed, CM3, Tron 2.0 og Chaser. Det er mye å ta av :)

Endret av MistaPi
Lenke til kommentar
Ettersom du misliker testpakken vår - hvilke spill og/eller programmer syns du mangler? Målet mitt er å lage best mulige tester framover, ikke å sitte her og være sta :-)

Ganske enkelt, fjern 3Dmark03 fra alle testene, er ingen som stoler på dem uansett, eller?

kanskje hvis ati går av med en knekkende ledelse så :ermm:

 

edit: hehe, tøff postcount :p

Endret av LoS
Lenke til kommentar
Jeg skjønnte ikke helt den der posten, var det litt ironi inni bildet?

 

"Kansje visst ATI går av med knekkende seier?" :blush:

Kan helt trygt si at det var en del ironi i bildet her ja.

Helt personlig har jeg ikke noe imot ATI, sitter her med ti4200 så jeg veit ikke om jeg burde si noe ;)

Men, 3Dmark03 er optimalisert fra "fabrikk" for ATI med en type shader som jeg ikke husker navnet på, hva om de hadde fjernet den da?

Lurer på hva som hadde skjedd da :roll:

 

Uansett, jeg syns man bør være åpne for nye ting, og når nvidia legger seg på høyde i både pris og ytelse som ati så burde man ikke komme å anklage nvidia for alle mulige optimaliseringer bare fordi at da vil nvidia faktisk få tilbake de andelene de trenger. Og en monopol virksomhet er endelig vekk fra tankene mine :)

Så mange som har radeon kort for tiden må gi nvidia "smått" med penger i kassa.

 

Jeg hadde tenkt å kjøpe meg et radeon kort faktisk, dette har nå delvis snudd pga ca omtrent samme pris for en god ytelse :)

Mao, jeg veit ikke hva jeg skal velge :p

 

Og jeg personlig bryr meg svært lite om 3dmark03 da jeg syns den ikke gjenngir noen som helst god gjenngivelse av ytelsen på systemet, men fokuserer kun på skjermkortet. Hvem er det som spiller med kun skjermkort da?

 

Kanskje de burde begynne å bruke pcmark04, det blir jo som 3dmark01 i en ny revisjon :)

Lenke til kommentar
Jeg skjønnte ikke helt den der posten, var det litt ironi inni bildet?

 

"Kansje visst ATI går av med knekkende seier?"  :blush:

Kan helt trygt si at det var en del ironi i bildet her ja.

Helt personlig har jeg ikke noe imot ATI, sitter her med ti4200 så jeg veit ikke om jeg burde si noe ;)

Men, 3Dmark03 er optimalisert fra "fabrikk" for ATI med en type shader som jeg ikke husker navnet på, hva om de hadde fjernet den da?

Lurer på hva som hadde skjedd da :roll:

Tenker du på PS1.4, som gjør at R200 har en fordel over NV2x? Det er ikke Futuremark sin skyld at nVidia ikke har støtte for dette.

 

Uansett, jeg syns man bør være åpne for nye ting, og når nvidia legger seg på høyde i både pris og ytelse som ati så burde man ikke komme å anklage nvidia for alle mulige optimaliseringer bare fordi at da vil nvidia faktisk få tilbake de andelene de trenger.

Andelene dem trenger til å overleve? Dem har ganske store andeler slik det er nå. Jeg påpekte bare at 52.03 driver ikke var godkjent av Futuremark, noe som dem ennå ikke er. Enda en ting som er verdt å merke seg:

The 52.16 drivers have 3DMark03 specific optimization for the Pixel Shader 2.0 test and that score is solely comparable between nvidia cards.

 

Og jeg personlig bryr meg svært lite om 3dmark03 da jeg syns den ikke gjenngir noen som helst god gjenngivelse av ytelsen på systemet, men fokuserer kun på skjermkortet. Hvem er det som spiller med kun skjermkort da?

Er det ikke greit med en test som fokuserer kun på skjermkortet, er det ikke et skjermkort test det er snakk om her? Spill som kommer som Doom3 og HL2 vil bli veldig skjermkort begrenset med dagens skjermkort.

Lenke til kommentar
Jeg skjønnte ikke helt den der posten, var det litt ironi inni bildet?

 

"Kansje visst ATI går av med knekkende seier?"  :blush:

Kan helt trygt si at det var en del ironi i bildet her ja.

Helt personlig har jeg ikke noe imot ATI, sitter her med ti4200 så jeg veit ikke om jeg burde si noe ;)

Men, 3Dmark03 er optimalisert fra "fabrikk" for ATI med en type shader som jeg ikke husker navnet på, hva om de hadde fjernet den da?

Lurer på hva som hadde skjedd da :roll:

Tenker du på PS1.4, som gjør at R200 har en fordel over NV2x? Det er ikke Futuremark sin skyld at nVidia ikke har støtte for dette.

Nei, men gir dette da en korrekt gjenngivelse av ytelses forskjellen da?

 

Uansett, jeg syns man bør være åpne for nye ting, og når nvidia legger seg på høyde i både pris og ytelse som ati så burde man ikke komme å anklage nvidia for alle mulige optimaliseringer bare fordi at da vil nvidia faktisk få tilbake de andelene de trenger.

Andelene dem trenger til å overleve? Dem har ganske store andeler slik det er nå. Jeg påpekte bare at 52.03 driver ikke var godkjent av Futuremark, noe som dem ennå ikke er. Enda en ting som er verdt å merke seg:

The 52.16 drivers have 3DMark03 specific optimization for the Pixel Shader 2.0 test and that score is solely comparable between nvidia cards.

Kan fortsatt ikke fatte hvorfor alle skal henge seg opp i det der!?

3Dmark03 er desidert en av de mest elendige benchmarks programmene jeg har vært borti.

Og jeg personlig bryr meg svært lite om 3dmark03 da jeg syns den ikke gjenngir noen som helst god gjenngivelse av ytelsen på systemet, men fokuserer kun på skjermkortet. Hvem er det som spiller med kun skjermkort da?

Er det ikke greit med en test som fokuserer kun på skjermkortet, er det ikke et skjermkort test det er snakk om her? Spill som kommer som Doom3 og HL2 vil bli veldig skjermkort begrenset med dagens skjermkort.

så du mener da at en celeron 700mhz skal klare å drive disse spillene hvis den har et radeon 9800Pro bedre enn en 3Ghz/3000+ på f.eks 5700U ?

En skjermkort test er ikke en skjermkort test hvis det fokuserer _kun_ på skjermkortet!

Jeg er sikker på at hvis det hadde vært agp spor i de gamle 486 66mhz maskinene så hadde de scoret ganske bra selv om det ikke finnes et spill som kan kjøres på de som kom etter 1997.

Gir dette noen korrekt spill gjenngivelse?

Lenke til kommentar

Hva slags test er en skjermkort test som kun fokuserer på skjermkortet da? Det er snakk om en syntetisk benchmark som kun skal teste ytelsen til nettopp skjermkortet og features som mange spill idag ikke bruker. Det er forskjell på syntetisk applikasjons benchmark og spill benchmark, men begge er nyttig for testing av skjermkorts egenskaper og ytelse.

Nyere spill er ofte mer skjermkort begrenset enn eldre spill, det sier vel seg selv og Doom3 er veldig skjermkort begrenset. Hva ville være bedre test for hvordan f.eks FX5600Ultra vil yte i Doom3 iforhold til FX5700Ultra, et veldig CPU begrenset spill som JK2 eller 3DMark03 GT2 som benytter ganske lik rendering metode som Doom3 (stencil volumes, normal maps) og som er veldig fillrate begrenset i likhet med Doom3?

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...