Gå til innhold

GeForce 8800 som en vanlig CPU


Anbefalte innlegg

Videoannonse
Annonse
O.J: Det har ingen praktisk nytte for vanlige folk ennå. Dette er et verktøy for programvareutviklere. Dvs. at det kan komme programmer som utnytter det senere.

 

ATI har hatt noe tilsvarende i lang tid. F.eks er Folding@Home mulig å kjøre på Radeon X19xx-serien.

7983814[/snapback]

 

Hvor mye folder en x1950xtx i forhold til en core2duo @ 3ghz?

 

Sankker om forholdstall da :thumbup:

Lenke til kommentar
Tja, man kan sette GPUen til å code film mens man ser en annen eller spiller kabal.

Det vil i så tilfelle være en nyhet med denne løsningen. En av årsakene til at GPU-er har vært så svinraske til å gjøre grafikk er at de ikke har vært nødt til å skrive tilbake store mengder data til PC-ens ordinære minne.

 

Straks man skal gjøre det, så er store deler av ytelsesfordelene borte. Dette er en av de viktigste årsakene til at programvare som Photoshop, Aperture o.l. ikke bruker grafikkortene til annet enn "eye candy"; effektene som gjøres der kan gjøres enda mer effektivt i en vanlig CPU når de likevel først skal medføre endringer i filen man jobber med.

 

Men hvis GF8800 har bedre skrivehastighet tilbake til minnet, slik at dette nå kan utnyttes som en fullverdig koprosessor, så er vel intet bedre enn det.

Lenke til kommentar
Hvor mye folder en x1950xtx i forhold til en core2duo @ 3ghz?

 

Sankker om forholdstall da  :thumbup:

7983864[/snapback]

Jeg er ganske usikker på forholdstall, men vil gjette på at X1950XTX "bare" yter ca 3-5 ganger så bra som en godt overklokket C2D. Jeg regner med at R600 kommer til å knuse ytelsen til X1950XTX i folding@home ganske grundig på grunn av Dx10 og hardware-ressursene. I teorien har de råeste grafikkortene hardware nok til å kjøre over hundre ganger raskere enn de raskeste CPUene, men det fulle potensialet vil nok aldri utnyttes helt ut på grunn av vanskeligheter med skalering ved parallellisering. Hvis det kommer en versjon av folding@home for geforce 8800-serien så vil sikkert den også yte svært bra sammenlignet med moderne CPUer.

Lenke til kommentar

Har selv prøvd å folde på mitt X1900GT, funket meget bra, gav en del ganger ytelsen til både X2'en min og en kompis sin opteron.

 

Bare av nyskjerrighet, ville det gå ann å kjøre f.eks superpi på en grafikkprosessor som 8800? og hva ville den isåfall klare tror dere?

Endret av Wazu
Lenke til kommentar
Tja, man kan sette GPUen til å code film mens man ser en annen eller spiller kabal.

Det vil i så tilfelle være en nyhet med denne løsningen. En av årsakene til at GPU-er har vært så svinraske til å gjøre grafikk er at de ikke har vært nødt til å skrive tilbake store mengder data til PC-ens ordinære minne.

 

Straks man skal gjøre det, så er store deler av ytelsesfordelene borte. Dette er en av de viktigste årsakene til at programvare som Photoshop, Aperture o.l. ikke bruker grafikkortene til annet enn "eye candy"; effektene som gjøres der kan gjøres enda mer effektivt i en vanlig CPU når de likevel først skal medføre endringer i filen man jobber med.

 

Men hvis GF8800 har bedre skrivehastighet tilbake til minnet, slik at dette nå kan utnyttes som en fullverdig koprosessor, så er vel intet bedre enn det.

7983901[/snapback]

 

tja, selv om det er noe rett i det du sier, så tror jeg at du overdriver en del.

med dagens minnemengde, så er det ikke noe problem å flytte hele bildet over på grafikkminnet og så jobbe med det der, og så ta det tilbake.

 

det er vel heller det at en vanlig gpu er såpass speisalisert at den ikke er i stand til å gjøre de operasjonene photoshop krever.

 

det er også viktig å skille mellom en gpu og en gpgpu, det er en viktig fosrskjell der, og det hører også med til saken at G80 er en gpgpu.

 

og ang. at gpu'er er så svinraske til grafikk i forhold til en cpu så er dette ganske naturlig med tanke på utregningene som gjøres. det er en god del paralellprossesering i grafikk. Dette er ikke en cpu så bra til. en cpu er uansett ment å takle alt du kaster på den, på bekostning av ytelse, en gpu er en spesialisert prosessor, og takler derfor ikke alt du kaster på den.

 

dermed blir de mye raskere på grafikk enn en cpu.

Lenke til kommentar
Bare av nyskjerrighet, ville det gå ann å kjøre f.eks superpi på en grafikkprosessor som 8800? og hva ville den isåfall klare tror dere?

7984013[/snapback]

Nei, kildekoden til superPi er vel godt bortgjemt en eller annen plass. Hovedsaken er at superpi er entrådet og ikke kan fordeler beregningene ut over flere CPU-kjerner eller flere shadere. Men hvorfor ikke bruke noen bedre Pi-programmer enn det hvir man først er matematisk interessert? F.eks regner PiFast ut pi langt raskere enn SuperPi. Hvis utvikleren vil parallellisere det og det lar seg parallellisere så kommer det vel en versjon for GPUer etter hvert. Ikke at jeg interesserer meg så mye for mer enn 5 desimaler men.. ;)

Lenke til kommentar
tja, selv om det er noe rett i det du sier, så tror jeg at du overdriver en del.

med dagens minnemengde, så er det ikke noe problem å flytte hele bildet over på grafikkminnet og så jobbe med det der, og så ta det tilbake.

Du har ikke jobbet så mye med bilder i Photoshop?

 

Det er ikke snakk om noen få titalls kilobytes. Det er snakk om noen titalls megabytes, og det å flytte ting tilbake til RAM er tregt, fordi GPU-ene (eller general purpose GPU-ene) ikke er designet for å flytte store mengder data den veien.

 

Det går forholdsvis raskt å flytte en stor texture til grafikkortet, men ikke andre veien.

 

det er vel heller det at en vanlig gpu er såpass speisalisert at den ikke er i stand til å gjøre de operasjonene photoshop krever.

Det er ikke nødvendigvis snakk om "de operasjonene photoshop krever", men "de operasjonene som kunne vært gjort raskere".

 

Ved hver ny release av Photoshop o.l. så dukker det opp spørsmål om hvorfor man ikke bruker grafikkortet i de tilfellene hvor det er raskt nok, og svaret er ganske likt det jeg gjengir ovenfor. (Det er jo ikke som at Adobe og Apple ikke ønsker at operasjonene skal gå raskest mulig.)

 

Det GPU-ene derimot er veldig fine til, er utregninger hvor man bare ønsker en relativt lav mengde data tilbake, og de finnes det jo en hel haug av.

 

Og som sagt, dersom GF8800 skiller seg fra andre monstre på dette området ved at det faktisk går an å skrive data tilbake omtrent like raskt som man leser det inn, ja, hurra!

 

For øvrig er jeg rimelig godt kjent med de generelle styrker og svakheter til general purpose-prosessorer vs. spesialiserte prosessorer, og en del mer enn det.

Lenke til kommentar

jeg kan ikke se hel hvorfor at det skal være raskere å flytte data den ene veien, men jeg er fullt klar over at det er titalls megabyte for et bilde, kanskje et par hundre mens man jobber med det, men hvis et skjermkort har 512MB minne eller mer så burde ikke det være noe problem i det hele tatt, selv med 256MB så burde en god del gå.

 

jeg sier ikke du tar feil, det kan godt hende jeg tar feil, men intil videre, så lener jeg meg til mine meninger om dette, om du ikke kan vise til noen artikler jeg kan lese.

Lenke til kommentar

Litt ironisk at overklokkere bruker SuperPi med tanke på hvor tregt det programmet er. Selv på min Pentium M 1,6 GHz/512 MB RAM regner jeg ut 1 million siffer på 2,8 sekunder med QuickPi. På SuperPi bruker jeg 45 sekunder...

 

Og med tanke på at Pi-kalkulering er svært paralleliserbart med f.eks. Monte Carlo-metoden (bruker å være en vanlig oppgave i multiprosessor-fag), så bør en quad-core CPU klare 1 million siffer på godt under 1 sek. og de siste grafikkortene til ATI/nVidia under 0,1 sek.

Lenke til kommentar
O.J: Det har ingen praktisk nytte for vanlige folk ennå. Dette er et verktøy for programvareutviklere. Dvs. at det kan komme programmer som utnytter det senere.

 

ATI har hatt noe tilsvarende i lang tid. F.eks er Folding@Home mulig å kjøre på Radeon X19xx-serien.

7983814[/snapback]

 

Er ATI-s GP-GPU API åpent tilgjengelig enda?

Lenke til kommentar
Blir veldig forvirra her...

 

En gpu er mange ganger raskere enn en vanelig dobbelkjerne prosessor, men mye høyere klokke frekvens.

 

Om gpuen er så mye raskere, hvorfro bruker man ikke en gpu som cpu da?

7984832[/snapback]

GPU-en er raskere fordi den kan utføre svært mange operasjoner samtidig, dette gjelder spesielt matte. En enkelt instruksjons-pipeline er raskere på en generell CPU.

Lenke til kommentar
Littt OT, men hva er raskest til å regne ut PI av PiFast og QuickPi?

7984764[/snapback]

En jeg kjenner hevdet å ha testet ut et utall pi-programmer og fant ut at Pifast var raskest. Men det er godt mulig at QuickPi var med i utvalget av Pi-programmer. Det er bare å teste så finner man ut.

 

Det var da svært til interesse for pi her :p Hva med tallet e?

Det er jo også ganske spennende... ;)

Lenke til kommentar
Om gpuen er så mye raskere, hvorfro bruker man ikke en gpu som cpu da?

7984832[/snapback]

En GPU egner seg kun til sterkt parallelliserbare oppgaver. En CPU egner seg til sterkt til ikke-parallelliserbare oppgaver og lett parallelliserbare oppgaver. Generell programkode inneholder en miks av alt fra ikke-parallelliserbare oppgaver til svært parallelliserbare oppgaver. Tidligere egnet GPU seg kun til datatrafikk den ene veien (fra CPU til skjerm), men nå begynner de å egne seg til datatrafikk andre veien også.

 

GPU yter elendig når det kommer til oppgaver eller datatransport den ikke egner seg for. Derfor har GPU hatt ganske begrenset bruksområde før. Nå utvider bruksområdet seg.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...