Gå til innhold

Skjermkort som superprosessor


Anbefalte innlegg

Videoannonse
Annonse

Dette er meget interessant! Det har jo lenge gått rykter om at det vil komme programmer som kan nyttiggjøre seg av kraften i et grafikkort. Da tenker jeg på BionicFX som går ut på å la en Nvidia GPU gjøre lydberegningene (VST-plugins) i ditt lydstudio. Det er idag dette som gjør at maskinene kneler da det krever sykt mye av CPU. Dette programmet er foreløbig ikke gitt ut, men venter i spenning på dette her. Blir vel kanskje ikke helt det samme med dette ATI kortet her siden det er et dedikert prosesseringskort. Det bør jo heller jobbes for at man kan bruke eksisterende grafikkort slik at man får brukt denne enorme regnekraften til noe fornuftig utenom å spille. Hva med f.eks photoshop? Det må da være mulig å la GPU foreta alle beregningene når man redigerer. Dette gjelder vel egentlig alt av foto, video og lydredigering. Uansett hvor krafig CPU man har idag så går det likevel ikke kjapt nok. Man blir sittende å vente til rendringene er ferdig. Her er det et stort potensiale som det må gjøres noe med!

Lenke til kommentar
Dette er meget interessant! Det har jo lenge gått rykter om at det vil komme programmer som kan nyttiggjøre seg av kraften i et grafikkort. Da tenker jeg på BionicFX som går ut på å la en Nvidia GPU gjøre lydberegningene (VST-plugins) i ditt lydstudio. Det er idag dette som gjør at maskinene kneler da det krever sykt mye av CPU. Dette programmet er foreløbig ikke gitt ut, men venter i spenning på dette her. Blir vel kanskje ikke helt det samme med dette ATI kortet her siden det er et dedikert prosesseringskort. Det bør jo heller jobbes for at man kan bruke eksisterende grafikkort slik at man får brukt denne enorme regnekraften til noe fornuftig utenom å spille. Hva med f.eks photoshop? Det må da være mulig å la GPU foreta alle beregningene når man redigerer. Dette gjelder vel egentlig alt av foto, video og lydredigering. Uansett hvor krafig CPU man har idag så går det likevel ikke kjapt nok. Man blir sittende å vente til rendringene er ferdig. Her er det et stort potensiale som det må gjøres noe med!

 

 

Sier meg enig

Lenke til kommentar

Om jeg vinner i lotto, og det kommer en applikasjon som gjør at dette kortet kan drive Folding@Home så kjøper jeg det glatt og setter opp en folding-boks.

 

Ord opp!

 

Men, ingen tvil om at ATI leder hva gjelder flyttallsytelse, det synes jo på F@H også.

Husk da, alle som leser dette, at det er fritt frem og bli med folding-laget til HW.no!

Lenke til kommentar
Litt rart at det ikke er lagd en folding-klient for R600 og G80/G92 ennå.

Trodde problemet med nVIDIA var noe med antall "pipelines","vertex shadere" eller noe sånt.

 

Hva med f.eks photoshop? Det må da være mulig å la GPU foreta alle beregningene når man redigerer. Dette gjelder vel egentlig alt av foto, video og lydredigering. Uansett hvor krafig CPU man har idag så går det likevel ikke kjapt nok. Man blir sittende å vente til rendringene er ferdig. Her er det et stort potensiale som det må gjøres noe med!

Ikke alle oppgaver egner seg til GPUen(de er bygd opp veldig forskjellig).

Lenke til kommentar
Hadde vært kult om noen fikk det til, men...

Ingen har levert noe som kan kjøres på GPUen (annet enn gfx) og det virker som om det ikke er nok penger i det til å utvikle det heller.

Eller kanskje det bare ikke er mulig å få til skikkelig?

Det finnes da hundrevis av applikasjoner som benytter GPU til noen annet enn redering av (trekantbasert) grafikk.

Dette har vært et aktivt forskningsfelt i en del år nå, og både AMD og NVidia lager dedikert hardware til dette.

 

Se gpgpu.org og Wikipedia sin GPGPU side. Det har også vært et SINTEF prosjekt finansiert av Norges Forskningsråd som har forsket på dette.

 

Folding@HOME har forøvrig hatt GPU klient siden 2006.

Lenke til kommentar

GPGPU er et spennende felt. Driver selv å forsker på ting relatert til dette på jobben. Til enkelte oppgaver er det definitivt stort potensiale til å bruke GPU'en for å forbedre ytelsen.

 

Litt rart at det ikke er lagd en folding-klient for R600 og G80/G92 ennå.

Trodde problemet med nVIDIA var noe med antall "pipelines","vertex shadere" eller noe sånt.

Det var på GeForce 7-serien. GeForce 8-serie fungerer meget bra til GPGPU. Kode for GPU'er er dessverre veldig lite portabel, ergo det er vanskelig å flytte kode skrevet for X1900-serien til R600 eller G80.

 

Problemet med nVidia har også vært driverene.. Nå har de vel endelig fått en WHQL-godkjent driver, men det er litt igjen. De vil uansett ikke yte like godt som ATI-kort grunnet flyttallsevnene til spesielt X19XX-serien til ATI.

De har hatt WHQL-godkjente drivere veeeeeldig lenge. 8800GTX/Ultra har også mye mye større flyttallsytelse enn noe X19XX kort har. R600 har høyere enn nVidia-kortene, i alle fall i teorien. I virkeligheten så er det mange andre ting som spiller inn, bland annet I/O hastighet (hvor fort du kan overføre data over PCI Express, men det kommer til å forbedre seg litt med PCI Express 2.0 :)

 

Nvidia har jo også noen slike "kraftpakker", men bruker disse parallell prosessering?

Ja, Tesla heter nVidia sine produkter, og ja de kan brukes til parallell prosessering... nVidia har 1 veldig stor fordel i mine øyne. De har et skikkelig programmering API. nVidia CUDA er biblioteker som ligner på C/C++ og man kan bruke det rett inn i eksisterende C/C++ programmer, både i Linux og Windows. ATi/AMD har et programmeringsspråk som kalles CTM (Close To Metal) det er omtrent som assembly, og er et helvete å programmere.

 

En av de store nyhetene med denne er at den er optimalisert for dobbel presisjon flyttallsberegninger:

AMD to Deliver First Double-Precision GPU for Stream Processing

Det er også en av nyhetene på G92.

Edit: Hverken nVidia eller ATi sin dobbel presisjon er 100% IEEE-kompatibel. Støtter blandt annet ikke NaN (Not a Number)

Endret av [GDI]Raptor
Lenke til kommentar

Takk til deg [GDI]Raptor, det var ett veldig oppklarende innlegg. Rart de hardeste Folding@Home gutta ikke har satt fokus på dette enda. nVIDIA kunne vel faktisk også tjent på dette? Men jeg føler det er noe selvmotsigende når du sier at nVIDIA er så greit å programmere mot, men koden er vanskelig å portere over. Altså jeg ser at man ikke kan bruke de samme optimaliseringene på de forskjellige GPUene, men hvis nVIDIA har ett så bra API som du sier(CUDA?), så ser jeg ikke helt problemet, da er det jo kun innsatsen på de bak det står på.

Lenke til kommentar
Men jeg føler det er noe selvmotsigende når du sier at nVIDIA er så greit å programmere mot, men koden er vanskelig å portere over.

CUDA er et veldig bra API i forhold til hva vi har hatt før. Når du skriver et program for GeForce 8800GTX så kan det flyttes til for eksempel 8600GT uten problemer, men det lar seg ikke gjøre å flytte det til noe ATI7AMD kort var det jeg mente. Akkurat som det ikke lar jeg gjøre å flytte programmer skrevet med AMD CTM til nVidia kort.

 

CUDA har et stort forbedringspotensiale, men ut i fra hva vi har hatt på GPU før så er det kjempebra!

Lenke til kommentar

Synes det er på tide at nVidia og ATI/AMD går sammen om å lage en åpen standard for GPGPU, àla OpenGL (bare for annet enn grafikk). Hvis ikke de gjør det skal du ikke se bort ifra at neste versjon av DirectX inneholder noe pølsevev for dette, og da er det for seint å lansere en konkurrerende spesifikasjon, uansett hvor åpen den måtte være.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...