Gå til innhold

Grafikkortet som proft lydkort?


Anbefalte innlegg

Videoannonse
Annonse
Gjest Slettet+98123897187934

Og siden det lages som en del av plugin-standarden VST (ikke programmet VST altså), så kan det brukes i alle typer musikkprogrammer. Fra rimelige FLStudio til overdyre Nuendo...

Endret av Slettet+98123897187934
Lenke til kommentar
Helt rått! Og jeg som trodde Audigy 2 ZS er et bra lydkort!
Et godt lydkort blir ikke plutselig til "søppel" så snart det dukker opp noe ennå bedre på markedet.

 

Helt rått! Og jeg som trodde Audigy 2 ZS er et bra lydkort!

Nei det er det ikke og har aldri vært det, er vel mer et OK lydkort.

Vel, det kommer jo an på øynene som ser:

 

For vanlige hjemmebrukere som kobler PC'n til PC-høytalere eller stereoanlegg til noen få tusenlapper så er Audigy 2 ZS knallbra (for ikke å si overkill i mange tilfeller).

 

For studio-arbeide eller ekstreme lydfreaker med musikkanlegg i 100.000-kr klassen så kan det selvfølgelig bli litt "uprofft" og "dårlig".

Endret av Simen1
Lenke til kommentar

Det at GPU'er har en ekstrem ytelse på enkelte oppgaver er egentlig noe som har vært kjent veldig lenge så jeg vet ikke hvorfor det ikke er bedre utnyttet i noen programvare ennå.

 

Rent teknisk så har jo skjermkortene helt opptil 16 pipeliner, og hver av disse har ekstremt effektive multiplikatorer, mye mer effektive enn på CPU'er. Minnebåndbredden er jo også fantastisk mye høyere med sine opptil 32GB/s mot CPU'er som har max 6,4GB/s (dual PC3200). Ulempen er at GPU'en har et langt mer begrenset bruksområde i både form av type instruksjoner den kan gjøre effektivt og at ikke all programvare kan deles opp i tråder særlig effektivt (16 tråder for 16 pipelines).

 

De tingene som kan utnytte potensialet i GPU'er er mange vitenskapelige oppgaver som FEM-modelering (Finite Element Method), folding@home, seti@home, video-encoding, og typiske SienceMark-lignende oppgaver som kunne fått en formidabel ytelseøkning av å kjøre på en god GPU i stedet for CPU'en. Jeg er sikker på at mange av disse oppgavene kunne kjørt 5-30 ganger så kjapt på et high-end skjermkort enn de kan på en high-end CPU.

 

Men det er neppe alle brukere som er villig til å betale flere tusenlapper for at f.eks SETI@home skal gå kjappere ...

 

For ordens skyld vil jeg gjenta den relevante linken fra artikkelen.

Endret av Simen1
Lenke til kommentar
Jeg er sikker på at mange av disse oppgavene kunne kjørt 10-50 ganger så kjapt på et high-end skjermkort enn de kan på en high-end CPU.

Det er nok riktig for de programmene hvor en har nesten ingen branches. Å lage en FPGA med brutal regnekraft er noe ungdomskole elever kunne ha lært så lenge en ikke behøver å håndtere en eneste branch.

Lenke til kommentar
Det at GPU'er har en ekstrem ytelse på enkelte oppgaver er egentlig noe som har vært kjent veldig lenge så jeg vet ikke hvorfor det ikke er bedre utnyttet i noen programvare ennå.

Grunnen til at det ikke er tatt særlig bruk enda skyldes flere årsaker.

  • Vanskelig å programmere, da grafikkortene enn så lenge programmeres gjennom grafikk APIer. Generell programkode som er skrevet for skjermkort er også vanskeligere å debugge og vedlikeholde enn vanlig kildekode. (Det finnes bibliotekere som Sh og Brook som gjør dette lettere.)
  • Ukjent teknologi - det er forsatt få som vet om disse mulighetene, enda færre har kunnskaper til å bruke dem.
  • Umoden teknologi. I den forstand at hva som er støttet i hardware (og drivere) fra de forskjellige produsentene stadig endrer seg.

Det har nettopp blitt startet et prosjekt av SINTEF, med titlen Graphics Hardware as a High End Computational Resource som skal forske på, og formidle mulighetene, som ligger i denne teknologien.

 

Dette er et aktivt forskningsområde også internasjonalt, og mye av det som skjer blir referert på GPGPU.ORG.

Lenke til kommentar
Det har nettopp blitt startet et prosjekt av SINTEF, med titlen Graphics Hardware as a High End Computational Resource som skal forske på, og formidle mulighetene, som ligger i denne teknologien.

Jøss, jeg visste ikke at vi hadde noe norsk ekspertise på området.

 

Jeg har nå sendt mail til den ansvarlige i SINTEF og spurt om han har noen kommentar til denne artikkelen. Håper han svarer her i tråden. Det ville vært interresant å fått en skikkelig ekspertuttalelese.

Lenke til kommentar
Det har nettopp blitt startet et prosjekt av SINTEF, med titlen Graphics Hardware as a High End Computational Resource som skal forske på, og formidle mulighetene, som ligger i denne teknologien.

Jøss, jeg visste ikke at vi hadde noe norsk ekspertise på området.

 

Jeg har nå sendt mail til den ansvarlige i SINTEF og spurt om han har noen kommentar til denne artikkelen. Håper han svarer her i tråden. Det ville vært interresant å fått en skikkelig ekspertuttalelese.

Jeg er del av dette prosjektet selv, og har nettopp påbegynt en doktorgrad om emnet. Dersom noen har spørsmål er det bare å fyre løs.

Lenke til kommentar

Oki. Beklager at jeg ikke så signaturen din før nå..

 

Da kan jeg fyre løs allerede nå :) :

* Når tror du vi får se den første GPU-optimaliserte ikke-grafikk-programvaren for vanlige brukere?

* Hvilken type programvare tror du dette kommer til å være?

* Kan du tippe på hvor stor ytelsen blir på denne programvaren i forhold til kjente CPU'er?

Lenke til kommentar

Tror jeg ville foretrekke analoge effekter framfor digitale.

Dessuten er det i all hovedsak de analoge bitene av et flerehundretusenkroners lydkort som koster masse penger. En eller annen plass må en jo plugge inn sine XLR-ledninger... tviler på at noen får til å lodde 3X96 lydkanaler inn og ut fra sin GPU....

 

Men absolutt interessant at folk forsker på lett mer seriøs bruk av dyre leketøy :-)

Endret av radiated
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...