havfal Skrevet 27. juni 2004 Skrevet 27. juni 2004 Tror jeg og, men sa bare at ingenting er sikkert før det kommer m2, men har endelig fått XP
Globe Skrevet 27. juni 2004 Skrevet 27. juni 2004 Og hvor mange gidder å gi over 4000,- for et skjermkort månn tro? Alle disse ATI kortene er skjermkort som bør passe fint til Half-Life 2: Radeon 9600 128MB Radeon 9600 Pro 128 MB Radeon 9600 XT 128MB Radeon 9800 Pro 128MB (256bit) Ellers passer disse Nvidia kortene også fint til Half-Life 2 om jeg skal spå: FX5600 Ultra FX 5700 FX 5800 Osv... Ultra/XT/None så burde det fungere utmerket. Radeon X800 eller Geforce 6800 serien vil seffølgelig funke best OM du er villig til å gi såpass for kun et skjermkort. Tror du virkelig 9600 128MB holder til og kjøre HL2? Muligens ved laveste kvalitet, men langt fra på fullt. lol! kameraten min hadde jo full grafikk på med gf3 titanium kortet sitt. han hadde 30 fps lrnoe (den beta hacka versionen) Tror du tar ALVORLIG feil.. Kjørte 1024x768, hadde da 60-80fps med 5600 Ultra
genesis Skrevet 27. juni 2004 Skrevet 27. juni 2004 Th0mas^ Skrevet: 27/06/2004 : 02:09 QUOTE (*Magnus* @ 27/06/2004 : 02:08) Tviler på at 6800 slår X800xt i HL2.. jeg mener.. HL2 er jo et ATI basert spill, å trur nåkk ATI kommer til å sparke i fra litt der ja Tror jeg og, men sa bare at ingenting er sikkert før det kommer 1. HL2 er vel ikke noe ATI basert spill. Tenk dere kraftig om. Utviklerne/utgiverne vil jo at spillet skal selge mest mulig, såklart vil de at det i størst mulig grad skal passe(yte bra) med alle grafikk korta som er på markedet, og som potensielle kunder/kjøpere sitter med. Faktisk så har store deler av grafikkmotoren blitt SKREVET OM etter publiseringen av benchmarksene vi har sett tidligere. Dette for å VIRKE BEDRE med nVidia kortene, enn hva den gjorde. (har ikke kilder på dette her, men google litt om dere ikke tror) 2. Hva er å slå konkurrenten? fps? kvalitet? Noe vi kan slå fast er at Nvidia stiller med s.m.3. det gjør ikke ATI. Brukes det sm3 i hl2? dette er noe vi ikke vet om vil føre til noe bedre ytelse. Derimot stiller ATI med 3Dc, som hl2 støtter, og som vi derfor VET vil føre til bedre kvalitet på bildet.
Merlin Skrevet 27. juni 2004 Skrevet 27. juni 2004 . Hva er å slå konkurrenten? fps? kvalitet? Noe vi kan slå fast er at Nvidia stiller med s.m.3. det gjør ikke ATI. Brukes det sm3 i hl2? dette er noe vi ikke vet om vil føre til noe bedre ytelse. Derimot stiller ATI med 3Dc, som hl2 støtter, og som vi derfor VET vil føre til bedre kvalitet på bildet. Det brukes ikke SM3.0 i Half Life 2 som Nvidia støtter, men 3Dc som ATI støtter er derimot i Half Life 2. Dette skal blant annet gi bedre texturer.
igy Skrevet 27. juni 2004 Skrevet 27. juni 2004 Her er noen tidlige HL2 benchmarks med 9800 og 5900 og noen andre kort. http://www.beyond3d.com/forum/viewtopic.php?t=7826 http://www.gamespot.com/pc/action/halflife...ws_6075080.html
Shaper Skrevet 27. juni 2004 Skrevet 27. juni 2004 GLEDER MEG MAXXXX TIL HALFLIFE2 KOMMERUT! :D:D Da skal det faen meg gajmes!
NextoN Skrevet 27. juni 2004 Forfatter Skrevet 27. juni 2004 Men krever CS2 mindre ytelse en HL2?, eller kjører det på samme kjerne? Virker som cs2 er ikke krever like god hardware som hl2 gjør?
Kilko Skrevet 27. juni 2004 Skrevet 27. juni 2004 (endret) De benchmarkene igy har postet var 45.23 driverne brukt til nvidia, og nvidia sier selv at de vil lage mye bedre optimaliserte drivere for hl2. De sier at 50 beta driverne skal bli mye bedre til hl2. Vi er nå oppi 61.21 whql drivere. Og de benchmarkene er ifra 12 September 2003 ( noen uker før hl2 egentlig skulle komme ut.) Men nå er nok alt klart før hl2 kommer ut ja. Nvidia må jo få ut noen ny drivere før Doom 3 kommer ut ihvertfall Endret 27. juni 2004 av Kilko
ChainDoG Skrevet 27. juni 2004 Skrevet 27. juni 2004 drivere er som er optimaliserte for half life 2... jaja, det er ogsaa en maate aa gjoere det paa.. men hva med andre fete spill som skulle dukke opp i horisonten da? er jo taapelig hvis de maa legge inn optimaliseringer spesifikt for spill etterhvert.. men dette var jo den forige nvidia generasjonen, er vel ikke like paa trynet med 6 serien vel?
Hardfredd Skrevet 27. juni 2004 Skrevet 27. juni 2004 Jeg for min del tror at HL2 kommer til å gå i 1024*768 med medium detaljer med mit 9600 pro med oc. Mulig jeg er helt på jordet, men tror ikke HL2 kommer til å kjøre over Farcry, hva minimum requirements angår. La oss håpe det krever minst mulig. On topic: Skulle jeg hatt skjermkort nå, hadde det nok vært 6800 GT fra albatron, eller en annen produsen med to strømmplugger
igy Skrevet 27. juni 2004 Skrevet 27. juni 2004 Litt om hardware til half-life 2 http://www.halflife2.net/index.php?page=article_vs_hardware
GoldlaXiE Skrevet 27. juni 2004 Skrevet 27. juni 2004 Jeg for min del tror at HL2 kommer til å gå i 1024*768 med medium detaljer med mit 9600 pro med oc. Mulig jeg er helt på jordet, men tror ikke HL2 kommer til å kjøre over Farcry, hva minimum requirements angår. La oss håpe det krever minst mulig. On topic: Skulle jeg hatt skjermkort nå, hadde det nok vært 6800 GT fra albatron, eller en annen produsen med to strømmplugger Eg trur det krever veldig lite..! Eg køyrer det greitt med Geforce MX440 SE no.. 20-30 fps!
genesis Skrevet 27. juni 2004 Skrevet 27. juni 2004 ChainDoG Skrevet: 27/06/2004 : 17:08 drivere er som er optimaliserte for half life 2... jaja, det er ogsaa en maate aa gjoere det paa.. men hva med andre fete spill som skulle dukke opp i horisonten da? er jo taapelig hvis de maa legge inn optimaliseringer spesifikt for spill etterhvert.. men dette var jo den forige nvidia generasjonen, er vel ikke like paa trynet med 6 serien vel? !? Det er jo slikt det "alltid" har fungert. Såklart optimaliserer man i driverne for at skjermkortet skal virke best mulig. Dette gjøres som regel med de fleste av mainstream spillene. At kort yter bra uten "å vite hva som kjøres" er bra, men det er også spesifikk optimalisering. btw! det er såklart noe ATi også gjør.
MrLeftfield Skrevet 27. juni 2004 Skrevet 27. juni 2004 Og hvor mange gidder å gi over 4000,- for et skjermkort månn tro? Alle disse ATI kortene er skjermkort som bør passe fint til Half-Life 2: Radeon 9600 128MB Radeon 9600 Pro 128 MB Radeon 9600 XT 128MB Radeon 9800 Pro 128MB (256bit) Ellers passer disse Nvidia kortene også fint til Half-Life 2 om jeg skal spå: FX5600 Ultra FX 5700 FX 5800 Osv... Ultra/XT/None så burde det fungere utmerket. Radeon X800 eller Geforce 6800 serien vil seffølgelig funke best OM du er villig til å gi såpass for kun et skjermkort. altså, 9600? NON PRO?....O...K Jeg har kjøpt kort for 3600 og det var Hercules 9800pro når det kom ut. det var bra kjøp, så jeg syns ikke at 4k for X800XT er så dårlig... Dessuten, kjøper han dette kortet, slipper han å bekymre seg for fps problemer (evt hakking i spill)...
MistaPi Skrevet 27. juni 2004 Skrevet 27. juni 2004 Faktisk så har store deler av grafikkmotoren blitt SKREVET OM etter publiseringen av benchmarksene vi har sett tidligere. Dette for å VIRKE BEDRE med nVidia kortene, enn hva den gjorde.(har ikke kilder på dette her, men google litt om dere ikke tror) Kan du heller bidra med en link? Det Valve har sagt er at dem har brukt veldig mye tid på å lage en optimalisert code path for FX kortene.
genesis Skrevet 27. juni 2004 Skrevet 27. juni 2004 (endret) Det var ikke bare bare å finne kilde. Derfor valgte jeg også tidligere å lufte det, jeg mener å ha lest som sagt av en representant for valve, og så får de som er 100% sikker på at de har all informasjon om hl2 (la meg tippe, ingen) avbekrefte/bekrefte dette med link til en kilde. Du kan gjerne (heller!?) komme med link til kilde hvor det "bare" er en optimalisert code path for FX kortene det er snakk om. edit_ Optimaliseringen du viser til, og omskrivingen jeg mener å ha lest, understreker begge poenget mitt med posten min, som du quoter. Endret 27. juni 2004 av genesis
MistaPi Skrevet 27. juni 2004 Skrevet 27. juni 2004 Denne optimaliserte code pathen for NV3x eksisterte da benchmark resultatene ble publisert. Gabe states that they have spent up to five times as much time optimising specifically for NVIDIA’s FX series as they have the generic DX9 path, under which ATI’s hardware required no optimisation at all.- http://www.beyond3d.com/misc/hl2/
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå