Dux ducis Skrevet 6. juli 2004 Skrevet 6. juli 2004 Du kan lese noen av de øverste trådene i "skjermkort, skjermer"... "Skjermkortguiden" jeg lagde f.eks
Føss Skrevet 6. juli 2004 Forfatter Skrevet 6. juli 2004 det jeg lurte på var om man kan gjøre et gfx5900 til et gfx 5950 ultra ved å overklokke litt... kan man?? Hvis den eneste forskjell er at Ultra har større klokkehastighet så er det vel oppnåelig med riktig kjøling. jeg lurte på om noen viste om den eneste forskjellen er klokkehastigheten...
px Skrevet 6. juli 2004 Skrevet 6. juli 2004 (endret) FX5950 koster da ikke så mye? Du får spørre Nvidia hvorfor de prissatt kortet så "mye" da, eller de enkelte webshoppene. Var ikke vi som gjore det vettu "what eva"... er det noen forskjell på gfx5900 og gfx5950 ultra uten om hastigheten??? Det ene er basert på NV35, den andre NV38, hvis jeg husker riktig... Det går jo an gidde å lese produktsidene... Og please, dropp fjortissfaktene.... Endret 6. juli 2004 av petter;
Føss Skrevet 6. juli 2004 Forfatter Skrevet 6. juli 2004 (endret) FX5950 koster da ikke så mye? Du får spørre Nvidia hvorfor de prissatt kortet så "mye" da, eller de enkelte webshoppene. Var ikke vi som gjore det vettu "what eva"... er det noen forskjell på gfx5900 og gfx5950 ultra uten om hastigheten??? Det ene er basert på NV35, den andre NV38, hvis jeg husker riktig... Det går jo an gidde å lese produktsidene... Og please, dropp fjortissfaktene.... jeg er fjortiss!!! :) btv. hva er fjortissfakta?? Endret 6. juli 2004 av 3D-player
Føss Skrevet 6. juli 2004 Forfatter Skrevet 6. juli 2004 Les klokkehastighetene på nettet da mann det har jeg gjort...
Windoge Skrevet 6. juli 2004 Skrevet 6. juli 2004 Kjøp deg et billig Radeon 9800 Pro og få det til XT så blir du lykkelig.
Føss Skrevet 6. juli 2004 Forfatter Skrevet 6. juli 2004 Kjøp deg et billig Radeon 9800 Pro og få det til XT så blir du lykkelig. du ser bildet mitt ikke sant??
Dux ducis Skrevet 6. juli 2004 Skrevet 6. juli 2004 (endret) "fjortissfakter", ikke "fjortissfakta"... Det er jo ikke bare hastigheten som er forskjellig.. Minnekvalitet, design og strømbruk er vel noen ting.. #EDIT# du ser bildet mitt ikke sant Slutt med det tullet og ta til fonuften! Radeon 9800 Pro er det beste kjøpet man kan gjøre nå! Du kan slutte med det nVidia-fanboy tullet! Ha et åpent sinn.. Kjøp av den produsenten som er best når du skal kjøpe... Endret 6. juli 2004 av Zythius
Føss Skrevet 6. juli 2004 Forfatter Skrevet 6. juli 2004 (endret) "fjortissfakter", ikke "fjortissfakta"... Det er jo ikke bare hastigheten som er forskjellig.. Minnekvalitet, design og strømbruk er vel noen ting.. ja... men hvis brikkesettet er HELT likt på begge, ABSOLUTT BARE klokkehastigheten som er forskjellig så ville jeg aldri kjøpt gfx5950 utra!!! Endret 6. juli 2004 av 3D-player
Jon-d Skrevet 6. juli 2004 Skrevet 6. juli 2004 ...men sånn tilfelle du fortsatt ikke føler du har fått svar på spørsmålet ditt: 5950 U har annen GPU (NV38) enn 5900 og 5900 U (NV35) hastighet på GPU: 5900 400 5900 U 450 5950 U 475 Minnehastighet: 5900 850 5900 U 850 5950 U 950 Ellers samme DX generasjon (DX9), lik busbredde (256bit) og like mange "pipes" (8x1) Forøvrig slenger jeg meg på påstanden om at dette er helt uinteressant ettersom R9800pro uansett er et bedre kjøp!
MistaPi Skrevet 6. juli 2004 Skrevet 6. juli 2004 (endret) Ellers samme DX generasjon (DX9), lik busbredde (256bit) og like mange "pipes" (8x1) 4x2 konfigrasjon som kan kjøre ut 8 non-colored (z, stencil operasjoner) pixler per clock. Forøvrig slenger jeg meg på påstanden om at dette er helt uinteressant ettersom R9800pro uansett er et bedre kjøp! Det er ikke uinteressant for dem som av en eller annen grunn ikke vil ha ATi kort. Men jeg sterkt anbefale GF6800 fremfor FX serien. Endret 6. juli 2004 av MistaPi
Dux ducis Skrevet 6. juli 2004 Skrevet 6. juli 2004 (endret) *fixa* En ting til, 3d-player - Hvorfor vil du ikke ha ATi? La HAN svare, MistaPi, for dine grunner er uinteressant her... Jeg vil vite hans grunn. Endret 6. juli 2004 av Zythius
Godrick Skrevet 6. juli 2004 Skrevet 6. juli 2004 offtopic kanskje. Har det ikke kommet et nytt skjermkort fra Nvidia da? NV45?
pronoob Skrevet 6. juli 2004 Skrevet 6. juli 2004 Det er ikke uinteressant for dem som av en eller annen grunn ikke vil ha ATi kort. Men jeg sterkt anbefale GF6800 fremfor FX serien. Anbefaler du GF6800 fremfor FX? GF6800 ER et GeForce FX-kort... En ting til, 3d-player - Hvorfor vil du ikke ha ATi? La HAN svare, MistaPi, for dine grunner er uinteressant her... Jeg vil vite hans grunn. Nei det er ikke det. G-force gikk fra FX navnet med nv40 serien.
Dux ducis Skrevet 6. juli 2004 Skrevet 6. juli 2004 Ok.. hehe.. Men hans grunn til å ville ha nVidia vil jeg høre
MistaPi Skrevet 6. juli 2004 Skrevet 6. juli 2004 Anbefaler du GF6800 fremfor FX? GF6800 ER et GeForce FX-kort... Umm.. nei. Som du selv skriver, GF6800, ikke GF FX6800. nVidia har kuttet ut FX navnet. En ting til, 3d-player - Hvorfor vil du ikke ha ATi? La HAN svare, MistaPi, for dine grunner er uinteressant her... Jeg vil vite hans grunn. Hvorfor skulle jeg svare på et spørsmål du stiller 3d-player?
Typhon Skrevet 6. juli 2004 Skrevet 6. juli 2004 Nei det er ikke det.G-force gikk fra FX navnet med nv40 serien. Var vel kanskje nvidia som tok det navneskiftet
martiol Skrevet 6. juli 2004 Skrevet 6. juli 2004 hva om en kunne ha brukt dagens CPUer som GPU ? ville det fungert bedre/dårligere enn det som er topnotch i dag ? og hvorfor lager ikke Intel skikkelige skjermkort som kan konkurere med ATI og Nvidia ? de burde jo sitte på bøttevis med KnowHow. Epz Er endel fundamentale forskjeller... GPU'er bearbeider store mengder data paralellt(RISC), mens dagens CPUer gjerne arbeider serielt(CISC). GPUer er gjerne ganske spesialiserte mens CPUer må være mer fleksible. GPUer er gengerelt mye mer komplekse og avanserte enn CPUer. Å kjøre operasjoenen til en GPU på en CPU krever spesialskrevet software, noe som medfører mye ytelsestap. Nå er dog de nyeste GPUene veldig programmerbare, og leste for en stund siden at noen forskere hadde programmert en Geforce FX til å fungere som CPU på ett spesiallaget hovedkort. - Denne ga en ytelse tilsvarende en 3 GHZ P4. Intel sitter ikke med så mye kunnskap om grafikk-rendering, og deres inntog i grafikkort er stort sett i minimums-ytelse-kategorien. Grafikkrendering er en veldig avansert og spesialisert vitenskap, med mye tung matte, og ett konstant kappløp om å optimalisere utregningene. Cisc og risk har ingen ting med paralellt eller seriellt å gjøre... Det beskriver om det er et omfattende eller redusert instruksjonsett (forenkling). En GPU har ikke et instruksjonssett som tillater at det kjører alene. Det er så ufattelig mye mer enn en shader som skal til for å få en datamaskin til å fungere, IRQ'er, IO registre osv.
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå