Gå til innhold

Nvidia letter på sløret


Anbefalte innlegg

Videoannonse
Annonse
Det er ikke tvil om at nvidia er gode til å lage kort, men guud de henger etter når det gjelder tech, enda ikke DX10.1, har ikke ati vist at AC fixer 20 % mer ytelse når man kjører AA

Det var en bug som gjorde at ytelsen var så mye bedre. Har enda ikke sett resultater etter at det ble fikset.

Ifølge utviklere kom det av at dem fikk fjernet en rendering pass med DX10.1. Det ga også noe bedre AA kvalitet. Jeg hadde i det minste satt pris på funksjonen med å lese subsamples fra en depth buffer slik at man hadde fått muligheten med skikkelig MSAA støtte for alle renderings teknikker, så jeg syns det er synd hvis GT200 ikke har DX10.1 støtte.

 

Det blir ikke noe særlig til argument for AMD heller, da så lenge nVidia velger å ikke støtte det vil det nok komme ytterst få spill med DX10.1 støtte.

Endret av MistaPi
Lenke til kommentar

Nvidia er ikke på "slækkern" for å si det sånn.

 

GDDR serie er ikke viktig. ATI bruker det fordi det kan trekke kunder og for å skille seg fra Nvidia, men Nvidia får nok mest ytelse for pengene ved å fortsatt bruke GDDR3. (dvs at produksjonsprisen blir lavere).

 

Tror nok Nvidia kan kjøre ATI i grøfta, men det koster litt penger på kort sikt. Ved å gjøre det så svekker de AMD og det ønsker de ikke, da AMD sørger for maktbalansen på prosessormarkedet enn så lenge.

Det vil bli tøft for Nvidia hvis Intel kan sette mer ressurser inn mot hovedkort/skjemkortproduksjonen sin.

 

Hold de nede men ikke avliv.

 

 

Er det noen som vet om Nvidia har patent på den nye GPU modellen mhp fysikkberegning?

 

Uansett så gleder jeg meg til ATI 16.juni og Nvidia 18.juni. Får håpe de har gode drivere så vi slipper å se store avvik i testene. Er ikke morsomt å kjøpe skjermkort basert på feil beslutningsgrunnlag.

Lenke til kommentar
jeg tror ikke gddr5 minne ska hjelpe noe?? hvis det var så mye og hente , hvorfår ser vi ikke gddr4 over allt nå da?

Hovedsaklig er det nok kostnader kontra hvor mye man får igjen for det per dagens kort. Med Radeon 4870 vil nok behovet for høyere minnebåndbredde bli en del større.

Lenke til kommentar
GDDR serie er ikke viktig. ATI bruker det fordi det kan trekke kunder og for å skille seg fra Nvidia, men Nvidia får nok mest ytelse for pengene ved å fortsatt bruke GDDR3. (dvs at produksjonsprisen blir lavere).

Men i gjengjeld og som Simen1 sa det:

"512 bit og 16 minnebrikker kommer nok til å føre til tidenes dyreste PCB, i tillegg til å fordyre minnekontrolleren og GPU-"sokkelen"."

 

GDDR serie er viktig når man prioriterer hastighet på minne fremfor en veldig bred minnebus.

Lenke til kommentar
Det er ikke tvil om at nvidia er gode til å lage kort, men guud de henger etter når det gjelder tech, enda ikke DX10.1, har ikke ati vist at AC fixer 20 % mer ytelse når man kjører AA

Det var en bug som gjorde at ytelsen var så mye bedre. Har enda ikke sett resultater etter at det ble fikset.

Ifølge utviklere kom det av at dem fikk fjernet en rendering pass med DX10.1. Det ga også noe bedre AA kvalitet. Jeg hadde i det minste satt pris på funksjonen med å lese subsamples fra en depth buffer slik at man hadde fått muligheten med skikkelig MSAA støtte for alle renderings teknikker, så jeg syns det er synd hvis GT200 ikke har DX10.1 støtte.

 

Det blir ikke noe særlig til argument for AMD heller, da så lenge nVidia velger å ikke støtte det vil det nok komme ytterst få spill med DX10.1 støtte.

 

Det var også slik jeg hadde forstått det, evt. bugs hadde angivelig med at støtten skapte problemer for andre kort. Hvis man leser tester pre-patch, så ser man at det ikke er noen forskjell i det grafiske, kun i ytelsen (20% bedre i DX10.1).

Lenke til kommentar
ffs det er ikke blitt laget ekte dx10 spill ennå og dere be om dx10.1 allerede. ro dere ned a barn.

Men likevel gir det en forbedring allerede idag. Og hvor senere nVidia velger å støtte DX10.1 (om dem overhodet vil gjøre det) jo senere vil spillutviklerene ta det i bruk.

 

Eg vil fortsatt halde meg til DX9, mikroskopiske visuelle forskjeller bryr eg meg lite om. Ikkje minst så er det enda raskere.

Mindre overhead og at man kan gjøre det samme med mindre (færre linjer med kode og rendering passes) gjør vel heller DX10 raskere. Jeg har også hørt en del skryte over hvor mye mer ryddig og renere DX10 er. Dette er vel de største forbedringene.

Endret av MistaPi
Lenke til kommentar
ffs det er ikke blitt laget ekte dx10 spill ennå og dere be om dx10.1 allerede. ro dere ned a barn.

Men likevel gir det en forbedring allerede idag. Og hvor senere nVidia velger å støtte DX10.1 (om dem overhodet vil gjøre det) jo senere vil spillutviklerene ta det i bruk.

 

Eg vil fortsatt halde meg til DX9, mikroskopiske visuelle forskjeller bryr eg meg lite om. Ikkje minst så er det enda raskere.

Mindre overhead og at man kan gjøre det samme med mindre (færre linjer med kode og rendering passes) gjør vel heller DX10 raskere. Jeg har også hørt en del skryte over hvor mye mer ryddig og renere DX10 er. Dette er vel de største forbedringene.

 

+ at det er faktisk ikke mikroskopiske visuelle forskjeller heller?

Endret av Megnus
Lenke til kommentar
Mindre overhead og at man kan gjøre det samme med mindre (færre linjer med kode og rendering passes) gjør vel heller DX10 raskere. Jeg har også hørt en del skryte over hvor mye mer ryddig og renere DX10 er. Dette er vel de største forbedringene.

Det er enda ingen bevis på dette, for at DX10 skal være aktuelt så må det være store grafiske forskjeller og/eller minst 10% betre ytelse.

 

Og dette vil eg påstå er mikroskopiske krav. Kanskje innan 3-4 år så er DX 10 aktuelt?

Endret av siDDIs
Lenke til kommentar

mad arab:

Aner ikke hva du mener med ikke relevant, for meg er det relvant også i forhold til tråden da føste pulje kommer med GDDR3 (nei har ikke data på at sener kort skal komme med GDDR5, men håper det).

 

Men helt flott at du mener det,orker ikke lage noe trolling ut av det da du viser respektløs holdning med feks *gjesp*.

Endret av simalarion
Lenke til kommentar
Vil PCI-e 1.0 være flaskehals for de nye kortene?

 

 

Det vil ikke være en flaskehals i spill. Alt tyder på at 1.0/1.1 holder en god stund til.

 

Det vil ikke være noen forskjell fra dagens kort i 8xxx og 9xxx serien som også støtter PCI-e 2.0. Kortene er bakoverkompatible.

Lenke til kommentar
Tror nok Nvidia kan kjøre ATI i grøfta, men det koster litt penger på kort sikt. Ved å gjøre det så svekker de AMD og det ønsker de ikke, da AMD sørger for maktbalansen på prosessormarkedet enn så lenge.

Det vil bli tøft for Nvidia hvis Intel kan sette mer ressurser inn mot hovedkort/skjemkortproduksjonen sin.

 

Hold de nede men ikke avliv.

 

 

 

jeg tror Nvidia har nok med å holde hodet over vannet på lengre sikt. Nvidia er jo MYE mindre enn Intel og AMD\ATI, så jeg tror ikke de har råd til å tenke så til de grader taktisk, når slik tenkning fort kan slå feil.

Endret av hardrock_ram
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...