Gå til innhold

Dropper Cuda-støtte


Anbefalte innlegg

Videoannonse
Annonse

Er vel ingen overraskelse at AMD kommer til å kjøre OpenCL for hva det er verdt.

 

Demmes eget Stream SDK med Brook+ og CTM kommer nok til å forsvinne stille, selv om de siste versjonene begynner å bli bedre så er det fremdeles lysår bak CUDA.

 

nVidia støtter også OpenCL, og spennende å se hvordan ytelsen kommer til å bli. AMD sine kort har mye høyere teoretisk ytelse i regnekraft enn nVidia sine, men de er mye vanskeligere å bruke effektiv. Så man kan lett si at nVidia sin GPU-arkitektur er mye bedre egnet for GPGPU enn AMD sin.

 

CUDA kommer nok fortsatt til å fortsette å leve ved siden av OpenCL på nVidia kort. Tviler på at OpenCL kommer til å få like god ytelse om CUDA, kommer også til å ta lenger tid før nye funksjoner kommer i OpenCL.

Innenfor akademia hvor jeg holder på er det også et stort miljø rundt CUDA.

Lenke til kommentar

....

 

nVidia støtter også OpenCL, og spennende å se hvordan ytelsen kommer til å bli. AMD sine kort har mye høyere teoretisk ytelse i regnekraft enn nVidia sine, men de er mye vanskeligere å bruke effektiv. Så man kan lett si at nVidia sin GPU-arkitektur er mye bedre egnet for GPGPU enn AMD sin.

...

Tja, mye bedre egnet blir feil syntes jeg, men man kan fint si at nVidia har en mere effektiv arkitektur. Ta f.eks. ATi 4870 vs gtx 260. ATi har 800(?) stream prosessorer mot nVidias 216 stream prosessorer, men likevel så yter de så og si likt, med ATi ett bittelite hestehode forran i ytelse faktisk. Men det er klart at nVidia kan yte bedre enn ATi i andre programmer enn akkurat Pyrit

 

edit: fjerne en null for mye!

edit2: ENDA flere skrivefeil

Endret av wim
Lenke til kommentar

....

 

nVidia støtter også OpenCL, og spennende å se hvordan ytelsen kommer til å bli. AMD sine kort har mye høyere teoretisk ytelse i regnekraft enn nVidia sine, men de er mye vanskeligere å bruke effektiv. Så man kan lett si at nVidia sin GPU-arkitektur er mye bedre egnet for GPGPU enn AMD sin.

...

Tja, mye bedre egnet blir feil syntes jeg, men man kan fint si at nVidia har en mere effektiv arkitektur. Ta f.eks. ATi 4870 vs gtx 260. ATi har 800(?) stream prosessorer mot nVidias 2106 stream prosessorer, men likevel så yter de så og si likt, med ATi ett bittelite hestehode forran i ytelse faktisk. Men det er klart at nVidia klan yte bedre enn ATi i andre programmer enn akkurat Pyrit

Du teller litt feil...

AMD har 800

nVidia har 240 (GTX285) eller 216 (GTX260) (spørs litt hvordan man teller)

 

Pyrit er et program som kun bruker rå regnekraft (brute-force på AES), og ingen kommunikasjon mellom trådene. Det er på slike applikasjoner AMD sin arkitektur vil yte best.

Lenke til kommentar

....

 

nVidia støtter også OpenCL, og spennende å se hvordan ytelsen kommer til å bli. AMD sine kort har mye høyere teoretisk ytelse i regnekraft enn nVidia sine, men de er mye vanskeligere å bruke effektiv. Så man kan lett si at nVidia sin GPU-arkitektur er mye bedre egnet for GPGPU enn AMD sin.

...

Tja, mye bedre egnet blir feil syntes jeg, men man kan fint si at nVidia har en mere effektiv arkitektur. Ta f.eks. ATi 4870 vs gtx 260. ATi har 800(?) stream prosessorer mot nVidias 2106 stream prosessorer, men likevel så yter de så og si likt, med ATi ett bittelite hestehode forran i ytelse faktisk. Men det er klart at nVidia klan yte bedre enn ATi i andre programmer enn akkurat Pyrit

Du teller litt feil...

AMD har 800

nVidia har 240 (GTX285) eller 216 (GTX260) (spørs litt hvordan man teller)

....

Beklager, jeg mente selvfølgelig 216, ikke 2106

Lenke til kommentar
hvilke fordeler gir cuda en vanlig bruker egentlig eller er det kun av akademisk interessere?med physx har jeg enda tilgode og se noe annet enn flagg som ser litt penere ut i mirrors edge og noe annet tullball.

Kan blandt annet transkode/encode video mye raskere vis du bruker ett GPU-akselerert program som for eksempel Badaboom Video Transcoder, og noen av Cyberlink sine produkter.

 

Med OpenCL kommer vi nok til å se enda flere applikasjoner.

Lenke til kommentar

OpenCL er ett rammeverk som kan benyttes ved utvikling av GPGPU programvare, altså programmer som kan kjøre på ditt skjermkort, akkurat som CUDA. Typisk bruksområde for OpenGL er matteintensive programmer innen forskning, for eksempel værsimulatorer, CFD utregning osv.

 

"Fordelen" med OpenCL framfor f.eks. CUDA er at OpenCL er utviklet av de fleste aktørene innen GPGPU, mens CUDA kun er utviklet av nVidia. Dette gjør at det blir lettere å velge OpenCL framfor CUDA for firmaer som f.eks. AMD.

Endret av wim
Lenke til kommentar
"Fordelen" med OpenCL framfor f.eks. CUDA er at OpenCL er utviklet av de fleste aktørene innen GPGPU, mens CUDA kun er utviklet av nVidia. Dette gjør at det blir lettere å velge OpenCL framfor CUDA for firmaer som f.eks. AMD.

Nja... Dette er egentlig en sannhet med modifikasjoner.

OpenCL kommer i likhet med OpenGL til å ha vendor-spesifikke instruksjoner, og forskjellige brikker kommer til å støtte forskjige typer instruksjoner. (GPU i en mobiltelefon eller andre embeded enheter skal også kunne støtte OpenCL)

 

Hvilke arkitektur du koder for i OpenCL vil også ha mye å si. Hvis trådene du bruker skal kommunisere sammen bruker du ofte shared memory på nVidia sin arkitektur, da dette er veldig rasket og effektivt. På AMD sine GPU'er derimot ligger shared memory mye lenger unna selve regneenhetene, og "koster" mye mer å bruke.

 

Et annet problem med OpenCL og CUDA er at læringskurven er veldig bratt, og det tar veldig lang tid å optimalisere applikasjoner for ytelse. Kontroll av minnet er både i CUDA og OpenCL helt opp til de som programmerer, kan også nevne at iallefall for nVidia sine kort så er det flere forskjellige typer minne (shared, texture, constant, global, local) som egner seg til forskjellige ting... Det gjør heller ikke tingen enklere at disse forskjellige typene minne også må aksesseres på riktig måte for å få brukbar ytelse...

Lenke til kommentar

Nja... Dette er egentlig en sannhet med modifikasjoner.

OpenCL kommer i likhet med OpenGL til å ha vendor-spesifikke instruksjoner, og forskjellige brikker kommer til å støtte forskjige typer instruksjoner. (GPU i en mobiltelefon eller andre embeded enheter skal også kunne støtte OpenCL)

...

Jeg snakker om politiske årsaker, ikke tekniske

Endret av wim
Lenke til kommentar

At AMD/ATI ikke vil bruke CUDA er ikke noen overraskelse. CUDA er skreddersydd for optimal ytelse på nVidias GPUer, og nVidia har i tillegg ikke vært spesielt villige til å samarbeide med andre om CUDA. AMD/ATI har en stund eksperimentert med CUDA-støtte på sine skjermkort, men har nå trolig funnet ut at det ikke lar seg gjøre på en fornuftig måte.

 

Men så har vi OpenCL som begge støtter. Ytelsen er kanskje ikke fullt på høyde med f.eks. CUDA ennå, men dette vil komme seg i de neste generasjonene av grafikbrikker, siden produsentene vil tilpasse strukturen til OpenCL. OpenCL er i likhet med OpenGL beregnet til parallellprosesering på grafikkbrikker, mens OpenCL er for mer generell bruk. Jeg vil minne om at OpenCL er en ganske ny standard.

Lenke til kommentar
Ytelsen er kanskje ikke fullt på høyde med f.eks. CUDA ennå, men dette vil komme seg i de neste generasjonene av grafikbrikker, siden produsentene vil tilpasse strukturen til OpenCL. OpenCL er i likhet med OpenGL beregnet til parallellprosesering på grafikkbrikker, mens OpenCL er for mer generell bruk. Jeg vil minne om at OpenCL er en ganske ny standard.

Tror nok det er DirectX som kommer til å være "driver" for nye GPU'er en god stund fremover.

 

Vi får se hvor GPU-arkitekturene beveger seg med neste generasjon (RV870 & GT300) :)

Endret av [GDI]Raptor
Lenke til kommentar
hvilke fordeler gir cuda en vanlig bruker egentlig eller er det kun av akademisk interessere?med physx har jeg enda tilgode og se noe annet enn flagg som ser litt penere ut i mirrors edge og noe annet tullball.

 

CUDA gir enorme muligheter kort sagt. Det eneste som egentig holder det tilbake er at det enda ikke er blitt en godt støttet nok standard.

 

Grunnen til at du enda ikke har sett fysikk i spill gi deg mer enn kulere eyecandy er nettop derfor - fordi at om du lagde et spill i dag som revolusjonerte med å ha fysikk som en grunnleggende del av spillmekanikken så risikerer du at kun kunder med Nvidia kort kan kjøpe det, og det er ikke økonomisk lurt for de som lager spillene. Da lager de heller spill som alle kan kjøre, og så lar de kundene med CUDA støtte få litt ekstra dilldall som ser litt penere ut men ikke faktiks påvirker spillmekanikken.

 

Jeg tror uten tvil at fysikk via CUDA eller lignende er det neste store gjennombruddet i spill, men det er fremdeles helt avhengig av at hele markedet bir med på lasset for at det skal bli kritisk kundemasse for å gjøre det verdt det. Det er litt som når 3d-akselerasjon først kom. I mange mange år ble spillene holdt tilbake av det faktum at bare et førtall faktisk hadde 3d akselererte skjermkort, men til slutt ble det så vanlig at nå er det påkrevd for så og si alle spill.

 

Men det er vel og merke ikke alt CUDA kan gjøre. Det er nesten ingen grenser for hva du kan avlaste på GPUen bare du har CUDA kode for det. Spesiellt er det interessant i forbindelse med tunge dataoppgaver som tallknusing, rendering, koding/dekoding osv. Egentlgi mye av det samme som du vil ha multicores for, bortsett fra at CUDA kode på et sterk skjermkort (eller flere) vil kunne kjøre mange slike oppgaver mye mye raskere enn på CPUer (eller evt. i samarbeid med CPUene).

 

Kort sagt gir det muligheten til å bruke GPUer til alt annet enn bare rendering, og siden GPUene har ekstremt mye prosessorkraft som ofte står ledig under vanlig bruk så er dette meget lurt å ha.

 

Nå er egentig bare spørsmålet hvem som vil vinne frem. Enten må CUDA bli adoptert av AMD, ellers må Nvivida bite det sure eplet og gå sterkt frem med å støtte et åpent alterntiv, enten ekslkusivt, eller ihvertfall paralellt med CUDA - før vi vil se full støtte i markedet for appliaksjoner som vil dra full støtte av disse mulighetene dette vil gi.

 

-Stigma

Lenke til kommentar
Gjest Slettet+513

Teorier er teorier, det er ikke noe som er sant men noe man tror.

For at en teori skal bli sann skal det mange vitner til. De må bevitne at terioen er sann ved å se det Live med egne øyne.

Endret av Slettet+513
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...