Gå til innhold

Rapport fra Eurographics 2005


Anbefalte innlegg

Videoannonse
Annonse

Fra Nvidia:

 

Framtidens GPUer vil bruke midnre enn 500W .... Ja det håper jeg da inderlig !! :p Litt av et kjernekraftverk som vil trengs for å drive chippene om to tiår ser det ut til.

 

også: De regner med at GPUen vil ha en overflate på 600mm^2. Yikes, det er STORT! Det hadde blitt et challange å bare få plass på det i et vanlig PCI-E kort. Selvfølgelig har vi vel neppe samme formfaktorer i 2015 som i dag da, men det er likevel ikke snaut =) Det fine er vel at du får en svær overflate til å kjøle ned, men det trenger du jo hvis vi snakker om nær 500W på en GPU...

 

-Stigma

 

EDIT: ikke 2025 men 2015 :p

Endret av Stigma
Lenke til kommentar
Fra Nvidia:

 

Framtidens GPUer vil bruke midnre enn 500W .... Ja det håper jeg da inderlig !! :p Litt av et kjernekraftverk som vil trengs for å drive chippene om to tiår ser det ut til.

 

også: De regner med at GPUen vil ha en overflate på 600mm^2. Yikes, det er STORT! Det hadde blitt et challange å bare få plass på det i et vanlig PCI-E kort. Selvfølgelig har vi vel neppe samme formfaktorer i 2025 som i dag da, men det er likevel ikke snaut =) Det fine er vel at du får en svær overflate til å kjøle ned, men det trenger du jo hvis vi snakker om nær 500W på en GPU...

 

-Stigma

Utifra artikkelen er det vel i 2015 de ser for seg slike chiper. Men uansett, er jo helt sykt å ha skjermkort som kjører på 6GHz å krever 4-500W.

Ser for meg nV GeForce 23, leveres med ferdigmontet fasekjøling og diesel-generator. :!:

Lenke til kommentar

Veldig enig med Steve Collins fra Havok. GPU er ikke lengre det området hvor radikale ting skjer. Det meste handler bare om å legge til flere og fetere pipelines som en nærmest direkte konsekvens av at Moores lov holder i noen år til. Ok det er litt overforenklet, men likefullt essensen tror jeg.

 

Et tema som ikke kom frem her er at nettverket og regnekraften i servere er en betydelig flaskehals i dag for online spill av typen WOW. Det er behov for kraftigere prosessorer til dette og det er behov for et mer intelligent nettverk for å kunne multicaste informasjon til alle spillerne med så lav forsinkelse som mulig. ATM ende til ende på nettverket ville vært helt genialt for dette. Her er det suveren multicast (som avlaster server og nettverksbåndbredde enormt) og QoS (Quality of Service, altså garantier for virkelig forsinkelse og båndbredde).

 

Multicore prosessorer vil vel gjøre en grei jobb for å øke ytelsen på disse serverne. Det er mye parallellitet i den jobben de gjør, men ved store "raid" (f.eks hvis at par hundre spillere sloss direkte med og mot hverandre på samme plass i denne virtuelle verdenen) så vil parallelliteten reduseres betraktelig fordi det er så mye samspill mellom alle spillerne. Da er selvfølgelig favorittarkitekturen min (IA64) noe en bør ha i bakhodet, men la oss ikke gjøre det til et tema i denne tråden også.

 

Edit: Stigma formulerte i posten rett nedenfor veldig godt hva jeg legger i "GPU er ikke lengre det området hvor radikale ting skjer.". Takker.

Endret av Anders Jensen
Lenke til kommentar

Grafikk er en ting, men som det viser seg ofte, så er naturtro bevegelser (både på omgivelser og skuespillere) vel så viktige for å gi en god opplevelse. Jeg tar mye heller et spill med gårdsdagens grafikkteknologi og myke fine bevegelser samt god fysikkmotor over et spill der grafikken er rendret etter alle kunstens regler, men alt ser kunstig ut likevel og folk beveger seg som roboter.

 

Sånn sett er jeg enig med Havoc representaten. GPUer trenger hovedsakelig bare å bli mye kraftigere, men innen andre områder trenger vi å finne på helt nye metoder og teknologi.

 

-Stigma

Lenke til kommentar
Av Redaksjonen
Dessverre var det ingen norske bidrag, og kun fire nordmenn deltok.
4 stk fra redaksjonen på kosetur? :p

 

Fra Nvidia: Framtidens GPUer vil bruke midnre enn 500W .... Ja det håper jeg da inderlig !!  :p Litt av et kjernekraftverk som vil trengs for å drive chippene om to tiår ser det ut til.

Det tenkte jeg også. Alt for ensidig tankegang fra ATI og Nvidia å bare fokusere på å skalere ytelsen i det uendelige. Jeg er veldig enig med Havoc her. Grafikk er ikke lengre noen stor utfordring og vil dermed bryte ut av trenden med eksponensiell ytelseøkning. Som en konsekvens av dette tror jeg fokuset vil gå over mot ytelse/watt, pris og andre egenskaper slik representanten fra Havoc sa.

 

også: De regner med at GPUen vil ha en overflate på 600mm^2. Yikes, det er STORT! Det hadde blitt et challange å bare få plass på det i et vanlig PCI-E kort.

roten av 600mm^2 er ca 24,5mm. Altså blir brikken rundt 24,5 mm x 24,5 mm eller i underkant av 1x1 tomme stor. Det er veldig stort etter dagens standard men ikke i nærheten av så stort at det blir plassproblemer på en PCIe skjermkort. En direkte konsekvens av så store brikker vil være meget høye priser (selv om de holder yield på et høyt nivå)

 

Spørsmål til A.J: Høres det realistisk ut med 25nm-prosess i 2015? Jeg trodde 22nm lå omentrent på veikartet for 2012-2013 og dermed 16nm ligger på veikartet for 2015. Men det er kanskje realistisk å regne inn noen problemer og forsinkelser?

 

600mm^2, 6 GHz, 500W og 64 pixels per pipeline per klokkeslag er vel også svært høye anslag. Eller?

 

Ellers er det spennende å se at det er mye interresse for massive parallelle beregninger av andre ting enn grafikk. (Jeg ser for meg stort potensiale innen en del felter her)

Endret av Simen1
Lenke til kommentar
Spørsmål til A.J: Høres det realistisk ut med 25nm-prosess i 2015? Jeg trodde 22nm lå omentrent på veikartet for 2012-2013 og dermed 16nm ligger på veikartet for 2015. Men det er kanskje realistisk å regne inn noen problemer og forsinkelser?

Jeg kommer ikke nøyaktig på årstallene her. Men det er nok beregnet at prosessnodestørrelsen vil leve litt lengre enn hva vi har sett tidligere. Altså vil nok 45nm 32nm, 22nm og 16 nm vare nokså lenge i forhold til 130nm, 90nm og 65nm. Og ja det er all grunn til å forvente haugevis av problemer. Særlig på 22nm og 16nm. 45nm ser foreløpig bra ut. High-k GOX vil redde den noden før eller senere. På 22nm og 16nm vil imidlertid dagens problem med gate lekkasje gjenoppstå selv med bruk av High-k GOX. Isolasjonen blir rett og slett for tynn. Kommer sikkert en haug av ekstra problemer også. Ikke alle tror at 16nm CMOS noen gang blir kommersielt tilgjengelig.

 

600mm^2 er forøvrig bare 20mm^2 større en Montecito, så det er fullt mulig å produsere. På en GPU står en jo også litt friere til å implementere redundans enn på en CPU kjerne. Det er imidlertid enklere med redundans i cache så jeg vet ikke sikkert hvordan det der slår ut.

Endret av Anders Jensen
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...