Gå til innhold

Nye 90 nm-grafikkbrikker til neste år


Anbefalte innlegg

Joda, det kommer nok spill som kan bruke over 256 MiB snart,

Det er eksempler i dag på spill som kan benytte over 256MB vram.

 

Husk at hvis man har en gitt scene og øker teksturer osv slik at de tar 512 MiB i stedet for 256 MiB så må også minnebåndbredden DOBLES for at det skal yte like bra. Dobbelt så mye minne som skal aksesseres på samme tid vil kreve dobbelt minnebåndbredde. Det nytter altså lite å doble mengden minne uten å doble hastigheten på det.

Man skal kanskje være forsiktig med å generallisere her da det er mange ting som spiller inn, ikke minst hvor effektivt GPU'en utnytter den tilgjenglige båndbredden. Man kan jo tenke seg Xbox360 som har en 10MB minnepool med med en båndbredde på 256GB/s. Vil ikke det alene motsi enhver generallisering regel av forholdet mellom kapasitet og båndbredde?

 

Det er jo bare så vidt de aller råeste kortene har raskt nok minne til å kunne utnytte 512MiB noe særlig.

Hva legger du i grunn for det?

Endret av MistaPi
Lenke til kommentar
Videoannonse
Annonse
Husk at hvis man har en gitt scene og øker teksturer osv slik at de tar 512 MiB i stedet for 256 MiB så må også minnebåndbredden DOBLES for at det skal yte like bra. Dobbelt så mye minne som skal aksesseres på samme tid vil kreve dobbelt minnebåndbredde. Det nytter altså lite å doble mengden minne uten å doble hastigheten på det.

5254531[/snapback]

Det er ikke sant. Det er mulig å firedoble størrelse på teksturer og dermed bruke opp mot 4 ganger så mye minne uten at bruken av båndbredde øker noe særlig. En vil trenge mer båndbredde når en aksesserer det største mip-nivået, men mesteparten av rendringen kan forbli uforandret.

 

Men bevares, det er alltid ønskelig med mer båndbredde så lenge GPU kan gjøre nytte av den.

5261161[/snapback]

Jeg skjønner ikke helt hva du mener... Dersom hver tekstur dobles i størrelse (antall MB) og de komprimeres med et gitt forhold når det legges kopier for bruk på lengre avstand så vil jo både mengden minne som kreves dobles og minnetrafikken dobles.

 

Hvis du har en 0,5 liters brusflaske og tømmer den i vasken så tar det X sekunder å tømme den. Hvis du har en 1,5 liters brusflaske med lik flaskehals (og hypotetisk sett lik høyde på vannet) så vil det ta ca 3X sekunder å tømme den i vasken. Dersom du hadde utstyrt 1,5 liters brusflaska med 3 like flaskehalser i stedet for en så vil du kunne tømme flaska på X sekunder. Altså trippel vannmengde = tømmehastigheten reduseres til 1/3. Men trippel vannmengde kombinert med trippel vannstrømning = samme hastighet som før. For ordens skyld: om 1,5 litersflaska med en tut bare hadde 0,5 liter vann så ville det selvfølgelig tatt X sekunder å tømme den. Og det er vel det eksemplet som best illustrerer ytelse på dagens spill. (under 256MiB minnebruk selv på kort med 512 MiB minne)

 

Det er som dere sier flere faktorer som spiller en viss rolle, men i hovedtrekk er det dette som skjer.

Endret av Simen1
Lenke til kommentar
Det er jo bare så vidt de aller råeste kortene har raskt nok minne til å kunne utnytte 512MiB noe særlig.
Hva legger du i grunn for det?

Radeon X1600XT 512MiB og geforce 6200 512MiB er etter min mening sløsing med minne.

Men selv de råeste kortene har tydeligvis ikke særlig nytte av 512MiB minne:

AnandTech: Memory Size Scaling

FiringSquad: Performance impact of 512MB memory

Endret av Simen1
Lenke til kommentar

Det er ikke sant. Det er mulig å firedoble størrelse på teksturer og dermed bruke opp mot 4 ganger så mye minne uten at bruken av båndbredde øker noe særlig. En vil trenge mer båndbredde når en aksesserer det største mip-nivået, men mesteparten av rendringen kan forbli uforandret.

 

Men bevares, det er alltid ønskelig med mer båndbredde så lenge GPU kan gjøre nytte av den.

5261161[/snapback]

Jeg skjønner ikke helt hva du mener... Dersom hver tekstur dobles i størrelse (antall MB) og de komprimeres med et gitt forhold når det legges kopier for bruk på lengre avstand så vil jo både mengden minne som kreves dobles og minnetrafikken dobles.

 

Hvis du har en 0,5 liters brusflaske og tømmer den i vasken så tar det X sekunder å tømme den. Hvis du har en 1,5 liters brusflaske med lik flaskehals (og hypotetisk sett lik høyde på vannet) så vil det ta ca 3X sekunder å tømme den i vasken. Dersom du hadde utstyrt 1,5 liters brusflaska med 3 like flaskehalser i stedet for en så vil du kunne tømme flaska på X sekunder. Altså trippel vannmengde = tømmehastigheten reduseres til 1/3. Men trippel vannmengde kombinert med trippel vannstrømning = samme hastighet som før. For ordens skyld: om 1,5 litersflaska med en tut bare hadde 0,5 liter vann så ville det selvfølgelig tatt X sekunder å tømme den. Og det er vel det eksemplet som best illustrerer ytelse på dagens spill. (under 256MiB minnebruk selv på kort med 512 MiB minne)

 

Det er som dere sier flere faktorer som spiller en viss rolle, men i hovedtrekk er det dette som skjer.

5261326[/snapback]

Når en øker oppløsningen på teksturer blir det ikke mer detaljer på avstand hvor teksturene krympes, det er kun nær hvor teksturene ble forstørret at flere texels tas i bruk. Altså, minnetrafikken dobles ikke når oppløsningen på teksturer dobles. Da måtte også skjermoppløsningen dobles.

 

Glem brusflasker og vann, det var en dårlig sammenligning. En bedre sammenligning ville kanskje være et parkeringshus hvor et gitt antall biler kan kjøre inn eller ut per tid. Større kapasitet ved innkjøringen hjelper lite hvis en ikke har nok parkeringsplasser, og omvendt, flere plasser er bortkastet hvis halvparten likevel er tomme mens innkjøringen er flaskehalsen.

Lenke til kommentar

Det er ikke sant. Det er mulig å firedoble størrelse på teksturer og dermed bruke opp mot 4 ganger så mye minne uten at bruken av båndbredde øker noe særlig. En vil trenge mer båndbredde når en aksesserer det største mip-nivået, men mesteparten av rendringen kan forbli uforandret.

 

Men bevares, det er alltid ønskelig med mer båndbredde så lenge GPU kan gjøre nytte av den.

5261161[/snapback]

Jeg skjønner ikke helt hva du mener... Dersom hver tekstur dobles i størrelse (antall MB) og de komprimeres med et gitt forhold når det legges kopier for bruk på lengre avstand så vil jo både mengden minne som kreves dobles og minnetrafikken dobles.

 

Hvis du har en 0,5 liters brusflaske og tømmer den i vasken så tar det X sekunder å tømme den. Hvis du har en 1,5 liters brusflaske med lik flaskehals (og hypotetisk sett lik høyde på vannet) så vil det ta ca 3X sekunder å tømme den i vasken. Dersom du hadde utstyrt 1,5 liters brusflaska med 3 like flaskehalser i stedet for en så vil du kunne tømme flaska på X sekunder. Altså trippel vannmengde = tømmehastigheten reduseres til 1/3. Men trippel vannmengde kombinert med trippel vannstrømning = samme hastighet som før. For ordens skyld: om 1,5 litersflaska med en tut bare hadde 0,5 liter vann så ville det selvfølgelig tatt X sekunder å tømme den. Og det er vel det eksemplet som best illustrerer ytelse på dagens spill. (under 256MiB minnebruk selv på kort med 512 MiB minne)

 

Det er som dere sier flere faktorer som spiller en viss rolle, men i hovedtrekk er det dette som skjer.

5261326[/snapback]

Når en øker oppløsningen på teksturer blir det ikke mer detaljer på avstand hvor teksturene krympes, det er kun nær hvor teksturene ble forstørret at flere texels tas i bruk. Altså, minnetrafikken dobles ikke når oppløsningen på teksturer dobles. Da måtte også skjermoppløsningen dobles.

 

Glem brusflasker og vann, det var en dårlig sammenligning. En bedre sammenligning ville kanskje være et parkeringshus hvor et gitt antall biler kan kjøre inn eller ut per tid. Større kapasitet ved innkjøringen hjelper lite hvis en ikke har nok parkeringsplasser, og omvendt, flere plasser er bortkastet hvis halvparten likevel er tomme mens innkjøringen er flaskehalsen.

5261595[/snapback]

 

Men altså, essensen er jo denne, for å fylle opp 512 mb minne så tar det jo dobbelt så mye tid som å fylle opp 256 mb minne (om oppfyllingen skjer like kjapt) uavhengig av hva denne informasjonen består av (eller når den brukes, nærme eller langt unna). Kan du forklare hvorfor man allikevel tjener på mer minne? (om denne båndbredden allerede var ganske begrensene). Forklar gjerne detaljert, kan ikek så mye om slikt.

 

AtW

Lenke til kommentar
Men selv de råeste kortene har tydeligvis ikke særlig nytte av 512MiB minne:

AnandTech: Memory Size Scaling

FiringSquad: Performance impact of 512MB memory

5261361[/snapback]

Testene viser ikke nødvendigvis hele bildet, akkurat som 2 GiB systemminne sjelden viser klare fordeler over 1 GiB i tester. Det er jo heldigvis langt mindre dramatisk å måtte overføre data over AGP/PCIe enn det er å måtte gå til harddisk. Men hvis jeg ikke oppfattet noe feil, så regner de på HardOCP 512 MiB grafikkminne som absolutt nødvendig for å spille Quake 4 glatt i ultra quality. CoD 2 er kanskje enda mer krevende slik.

Lenke til kommentar

Når en øker oppløsningen på teksturer blir det ikke mer detaljer på avstand hvor teksturene krympes, det er kun nær hvor teksturene ble forstørret at flere texels tas i bruk. Altså, minnetrafikken dobles ikke når oppløsningen på teksturer dobles. Da måtte også skjermoppløsningen dobles.

 

Glem brusflasker og vann, det var en dårlig sammenligning. En bedre sammenligning ville kanskje være et parkeringshus hvor et gitt antall biler kan kjøre inn eller ut per tid. Større kapasitet ved innkjøringen hjelper lite hvis en ikke har nok parkeringsplasser, og omvendt, flere plasser er bortkastet hvis halvparten likevel er tomme mens innkjøringen er flaskehalsen.

 

Men altså, essensen er jo denne, for å fylle opp 512 mb minne så tar det jo dobbelt så mye tid som å fylle opp 256 mb minne (om oppfyllingen skjer like kjapt) uavhengig av hva denne informasjonen består av (eller når den brukes, nærme eller langt unna). Kan du forklare hvorfor man allikevel tjener på mer minne? (om denne båndbredden allerede var ganske begrensene). Forklar gjerne detaljert, kan ikek så mye om slikt.

 

AtW

5261740[/snapback]

Hvor lang tid det tar å fylle er uinteressant. Under rendering trenger en sjelden alle data hver frame, mens en del data må aksesseres mange ganger.

 

Selv om en stort sett er begrenset av båndbredde, kan en fortsatt tjene ytelsesmessig på å slippe å gå til systemminnet. Selv om en bare trenger en enkelt texel fra en tekstur som ikke ligger i grafikkminnet, må hele denne teksturen lastes opp over AGP/PCIe, mens en annen tekstur kanskje må kastes ut for å gi plass. I DX10 er det virtuell minnehåndtering som vil hjelpe på slike situasjoner.

Lenke til kommentar

Jeg synes ikke det ser ut som en "absolutt nødvendighet" å ha 512 MiB i CoD 2:

 

cod2mem1600.gif

 

Jeg fant ikke noen sammenligningstester i "Ultra quality" med Quake 4, men med innstillingene 2048x1536 4xAA 16xAF ser det ikke ut til å være store ytelseforskjellen:

 

q4mem2048.gif

 

Edit: Jeg glemte å linke til kilden: http://www.firingsquad.com/hardware/nvidia...512mb/page3.asp

Endret av Simen1
Lenke til kommentar

Når en øker oppløsningen på teksturer blir det ikke mer detaljer på avstand hvor teksturene krympes, det er kun nær hvor teksturene ble forstørret at flere texels tas i bruk. Altså, minnetrafikken dobles ikke når oppløsningen på teksturer dobles. Da måtte også skjermoppløsningen dobles.

 

Glem brusflasker og vann, det var en dårlig sammenligning. En bedre sammenligning ville kanskje være et parkeringshus hvor et gitt antall biler kan kjøre inn eller ut per tid. Større kapasitet ved innkjøringen hjelper lite hvis en ikke har nok parkeringsplasser, og omvendt, flere plasser er bortkastet hvis halvparten likevel er tomme mens innkjøringen er flaskehalsen.

 

Men altså, essensen er jo denne, for å fylle opp 512 mb minne så tar det jo dobbelt så mye tid som å fylle opp 256 mb minne (om oppfyllingen skjer like kjapt) uavhengig av hva denne informasjonen består av (eller når den brukes, nærme eller langt unna). Kan du forklare hvorfor man allikevel tjener på mer minne? (om denne båndbredden allerede var ganske begrensene). Forklar gjerne detaljert, kan ikek så mye om slikt.

 

AtW

5261740[/snapback]

Hvor lang tid det tar å fylle er uinteressant. Under rendering trenger en sjelden alle data hver frame, mens en del data må aksesseres mange ganger.

 

Selv om en stort sett er begrenset av båndbredde, kan en fortsatt tjene ytelsesmessig på å slippe å gå til systemminnet. Selv om en bare trenger en enkelt texel fra en tekstur som ikke ligger i grafikkminnet, må hele denne teksturen lastes opp over AGP/PCIe, mens en annen tekstur kanskje må kastes ut for å gi plass. I DX10 er det virtuell minnehåndtering som vil hjelpe på slike situasjoner.

5261810[/snapback]

 

Men å akksere minnet er jo også offer for de samme begrensningene? Om det er akksessering eller opplasting som er flaskehalsen har vel ikek så mye å si? At denne må lastes inn fra minnet går jo tregere enn å laste fra kortet, men om alle båndbredden allerede er "brukt opp" så går det jo uansett ihvertfall ikke fortere å måtte stå og vente mens man gjør ingenting?

 

AtW

Lenke til kommentar
Jeg synes ikke det ser ut som en "absolutt nødvendighet" å ha 512 MiB i CoD 2:

 

Jeg fant ikke noen sammenligningstester i "Ultra quality" med Quake 4, men med innstillingene 2048x1536 4xAA 16xAF ser det ikke ut til å være store ytelseforskjellen:

Igjen, gjennomsnittlig fps viser ikke hele bildet. Minimum fps hadde kanskje vært bedre, men heller ikke det er noen god erstatning for å spille selv og føle på flyten.

 

Uansett er det ingen tvil om at både Q4 og CoD2 kan ta i bruk vesentlig mer enn 256 MiB grafikkminne, selv om det ikke nødvendigvis er noe stort problem å ikke ha mer enn det.

Lenke til kommentar
Jeg fant ikke noen sammenligningstester i "Ultra quality" med Quake 4, men med innstillingene 2048x1536 4xAA 16xAF ser det ikke ut til å være store ytelseforskjellen:
Igjen, gjennomsnittlig fps viser ikke hele bildet. Minimum fps hadde kanskje vært bedre, men heller ikke det er noen god erstatning for å spille selv og føle på flyten.

Jeg kan ikke se at HardOCP fikk noen store forskjeller en Ultra quality heller. I hvertfall ikke når en tar i betraktning av at den forskjellen du ser mest sansynlig skyldes forskjellen i klokkehastighet. HardOCP har nemlig ikke kjørt sammenligningstester på samme hastighet for å se forskjellene på mengden minne. Da tenker jeg ikke bare på gjennomsnittlig FPS, men også minimum FPS som også står der.

 

Men hvis jeg ikke oppfattet noe feil, så regner de på HardOCP 512 MiB grafikkminne som absolutt nødvendig for å spille Quake 4 glatt i ultra quality. CoD 2 er kanskje enda mer krevende slik.
(min utheving)
Selv om en stort sett er begrenset av båndbredde, kan en fortsatt tjene ytelsesmessig på å slippe å gå til systemminnet.
Uansett er det ingen tvil om at både Q4 og CoD2 kan ta i bruk vesentlig mer enn 256 MiB grafikkminne, selv om det ikke nødvendigvis er noe stort problem å ikke ha mer enn det.

5261861[/snapback]

Hvordan kan du si det? Se på bencmkarkene fra Firingsquad og HardOCP. Hvis det er riktig at de bruker mer enn 256MiB grafikkminne, så der det ikke ut til å gi noen begrensning på ytelsen. Altså at det ikke er noen merkbar ytelseforskjell fra å ha det samme i systemminnet.

Lenke til kommentar

Hvor lang tid det tar å fylle er uinteressant. Under rendering trenger en sjelden alle data hver frame, mens en del data må aksesseres mange ganger.

 

Selv om en stort sett er begrenset av båndbredde, kan en fortsatt tjene ytelsesmessig på å slippe å gå til systemminnet. Selv om en bare trenger en enkelt texel fra en tekstur som ikke ligger i grafikkminnet, må hele denne teksturen lastes opp over AGP/PCIe, mens en annen tekstur kanskje må kastes ut for å gi plass. I DX10 er det virtuell minnehåndtering som vil hjelpe på slike situasjoner.

 

Men å akksere minnet er jo også offer for de samme begrensningene? Om det er akksessering eller opplasting som er flaskehalsen har vel ikek så mye å si? At denne må lastes inn fra minnet går jo tregere enn å laste fra kortet, men om alle båndbredden allerede er "brukt opp" så går det jo uansett ihvertfall ikke fortere å måtte stå og vente mens man gjør ingenting?

 

AtW

5261838[/snapback]

Det er jo bedre å vente noen sykluser her og der enn det er å vente flere ms på at en tekstur lastes opp.

 

Det er klart, hvis GPU er 100% begrenset av båndbredde er det ingen tvil om hvilken flaskehals som bør utvides først. Men generelt sett er det som MistaPi sa liten sammenheng mellom størrelsen på minnet og hvor mye båndbredde som trengs eller kan utnyttes.

Lenke til kommentar
Jeg fant ikke noen sammenligningstester i "Ultra quality" med Quake 4, men med innstillingene 2048x1536 4xAA 16xAF ser det ikke ut til å være store ytelseforskjellen:
Igjen, gjennomsnittlig fps viser ikke hele bildet. Minimum fps hadde kanskje vært bedre, men heller ikke det er noen god erstatning for å spille selv og føle på flyten.

Jeg kan ikke se at HardOCP fikk noen store forskjeller en Ultra quality heller. I hvertfall ikke når en tar i betraktning av at den forskjellen du ser mest sansynlig skyldes forskjellen i klokkehastighet. HardOCP har nemlig ikke kjørt sammenligningstester på samme hastighet for å se forskjellene på mengden minne. Da tenker jeg ikke bare på gjennomsnittlig FPS, men også minimum FPS som også står der.

 

Men hvis jeg ikke oppfattet noe feil, så regner de på HardOCP 512 MiB grafikkminne som absolutt nødvendig for å spille Quake 4 glatt i ultra quality. CoD 2 er kanskje enda mer krevende slik.
(min utheving)
Selv om en stort sett er begrenset av båndbredde, kan en fortsatt tjene ytelsesmessig på å slippe å gå til systemminnet.
Uansett er det ingen tvil om at både Q4 og CoD2 kan ta i bruk vesentlig mer enn 256 MiB grafikkminne, selv om det ikke nødvendigvis er noe stort problem å ikke ha mer enn det.

5261861[/snapback]

Hvordan kan du si det? Se på bencmkarkene fra Firingsquad og HardOCP. Hvis det er riktig at de bruker mer enn 256MiB grafikkminne, så der det ikke ut til å gi noen begrensning på ytelsen. Altså at det ikke er noen merkbar ytelseforskjell fra å ha det samme i systemminnet.

5261935[/snapback]

Ingen av disse testene beviser hverken det ene eller det andre. 1 fps forskjell i gjennomsnitt kan bety et merkbart hakk som ikke var der med nok minne.

 

Jeg mener å ha lest i en av HardOCPs tester noe sånn som at, "ultra quality er spillbart ettersom dette kortet har 512 MB". Men det er mulig jeg tar feil.

 

Mange spill kan bruke mer enn 256 MiB minne i gitte situasjoner, men det er ikke akkurat noen overraskelse at det ikke har noe betydelig innvirkning på gjennomsnittlig fps. Litt diskswapping gir heller ikke det.

 

CoD2-demoen viste veldig betydelig ytelsesforbedring for X800 XL 512 MiB. Jeg lurer litt på hva som skjedde der.

 

Vi går litt i ring her nå, ingen klarer å motbevise noen av den andres påstander...

Lenke til kommentar
Ingen av disse testene beviser hverken det ene eller det andre. 1 fps forskjell i gjennomsnitt kan bety et merkbart hakk som ikke var der med nok minne.

<Litt sarkastisk> Hvorfor brukes da FPS som mål på ytelse hvis det ikke er helt andre ting som betyr noe for ytelsen?

 

CoD2-demoen viste veldig betydelig ytelsesforbedring for X800 XL 512 MiB. Jeg lurer litt på hva som skjedde der.

Link?

 

Vi går litt i ring her nå, ingen klarer å motbevise noen av den andres påstander...

5262110[/snapback]

Vel, hvis man ikke tror på testresultater så er det klart ingen har bevist noe som helst og da går man fort i ring. Det kan kanskje også forklare hvorfor du ikke har noen kilder/linker som støtter det du sier.

Lenke til kommentar
Også verdt å få med seg denne da:
NVIDIA CFO Marv Burkett and VP Michael Hara at CSFB Annual Technology Conference 2005 revealed more about the GeForce 7 series where the 90nm G72 (GeForce 7200) and G73 (GeForce 7600) will be announced in Q1 next year. G72 will be 64-bit and support TurboCache technology. Marv Burkett revealed that GeForce 7200 and 7600 series will last between one to one and half year. G71 will be 90nm and is expected to be much higher clocked at 750MHz.

 

As for G80, the development process has been smooth and is slated for mid 2006 release which i suppose during Computex 2006. Also G80 will support Shader Model 4.0.

http://www.vr-zone.com.sg/?i=3005

5258727[/snapback]

Kanskje også verdt å få med seg:

IIRC (and I have the transcript) no definitive parts or clockspeeds were mentioned at all - all that was mentioned was that G7x refreshes would be in the next 60 days and another part "beginning their next generation" would be in H1 '06. The G71 / 750MHz quote originates from HKEPC and I wasn't exactly clear on what the quote was. Their was also a third story from Digitimes that points to G72 and G73 as coming early next year. Right now people are taking these three reports and shaking them all up.

 

Noen offisielle kommentarer fra ATi anngående R580;

http://phx.corporate-ir.net/phoenix.zhtml?...eventID=1171470

Forbedret design fra R520. Vesentlig raskere. Volum leveringer i 1. kvartal 06.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...