Gå til innhold

Encodingoppgradering til Clarkdale


Anbefalte innlegg

Videoannonse
Annonse

Hvorfor satser ikke alle (ATI, Nvidia og Intel) på en åpen og standardisert løsning for hw akselerasjon av encoding, istedenfor å lage hver sin teknologi som har krever hvert sitt 1000$ program for å kunne utnyttes? Vi trenger en Direct X for decoding, tenk deg en hverdag med spill som kun fungerte på Nvidia hw eller Ati hw.

 

(opencl?)

Lenke til kommentar
Hvorfor satser ikke alle (ATI, Nvidia og Intel) på en åpen og standardisert løsning for hw akselerasjon av encoding, istedenfor å lage hver sin teknologi som har krever hvert sitt 1000$ program for å kunne utnyttes? Vi trenger en Direct X for decoding, tenk deg en hverdag med spill som kun fungerte på Nvidia hw eller Ati hw.

 

(opencl?)

Det er vel blant annet fordi det på nåværende tidspunkt er for tidlig å velge en standard. Massivt parallelle systemer er fortsatt i sin barndom og det er alt for tidlig å standardisere på noe, tror jeg.

Lenke til kommentar

Mulig, følger ikke så mye med intel jeg, har bare lest at Larrabee ikke holdt mål i denne omgang. De har nok alikevel høstet mye erfaringer med satsinga der som sikker kan komme til nytte.

 

Er vel mest fordi jeg begynner å bli lei å være hardwarenerd, skjer liksom ikke noe morsomt lenger.

 

Men håper nå noe spennende kommer til å skje, er meget spent på Nvidias kommende skjermkortsatsinger. Er liksom ikke det helt store jeg kan se at intel integrert kan gjøre så mye bedre, ok kanskje litt benchmarkbedre.

Endret av Osse
Lenke til kommentar
Hvorfor satser ikke alle (ATI, Nvidia og Intel) på en åpen og standardisert løsning for hw akselerasjon av encoding, istedenfor å lage hver sin teknologi som har krever hvert sitt 1000$ program for å kunne utnyttes? Vi trenger en Direct X for decoding, tenk deg en hverdag med spill som kun fungerte på Nvidia hw eller Ati hw.

 

(opencl?)

Er ikke det der en kraftig selvmotsigelse? DirectX er lukket og låst.

 

I tillegg inneholder vel DirectX allerede enkoding-rutiner gjennom DirectX Media Objects.

Lenke til kommentar

@gdi, @Anders

 

Leste jeg feil, eller var det ikke slik der da ?, Brøt kanskje ikke Intel regler der fra Futurmark ??

 

Var det kanskje ikke slik at når Gpu driveren ikke kunne oppdage benchmarking så sank resultatet med 37%. Var det ikke slik at gpu scoren gikk opp med 46% når benchmarking ble oppdaget ??

Lenke til kommentar
Uansett så går det vel ikke ann å stole på noen benchmarker , Nok engang, er Intel tatt med buksa nede i å manipulere benchmarks.

Så Intel avlaster GPU-oppgaver til CPU, som uansett sitter der ganske idle?

Normalt sett skulle en vel tro det var en fordel...

Men neppe i en statisk test som kun skal teste grafikkytelsen for en grafikkløsning? Der gir det _INGEN_ added value for brukeren at Intel i tillegg benytter CPU. Når Intel ikke gjør dette generelt i alle aplikasjoner, og når man i tillegg vet at i typiske spill så er ofte også CPU en begrensende faktor, så er dette ganske enkelt et forsøk på å lure/svindle forbrukere og andre.

Endret av daffyd
Lenke til kommentar
Uansett så går det vel ikke ann å stole på noen benchmarker , Nok engang, er Intel tatt med buksa nede i å manipulere benchmarks.

Så Intel avlaster GPU-oppgaver til CPU, som uansett sitter der ganske idle?

Normalt sett skulle en vel tro det var en fordel...

Men neppe i en statisk test som kun skal teste grafikkytelsen for en grafikkløsning? Der gir det _INGEN_ added value for brukeren at Intel i tillegg benytter CPU. Når Intel ikke gjør dette generelt i alle aplikasjoner, og når man i tillegg vet at i typiske spill så er ofte også CPU en begrensende faktor, så er dette ganske enkelt et forsøk på å lure/svindle forbrukere og andre.

Helt klart et godt poeng. På den andre siden så går det generelt sett mot lastbalansering mellom CPU og GPU så dette blir et kunstig skille å holde CPU utenfor beregninger på sikt. Spillfjortissene om 5 år vil antagelig ikke ha hørt om en GPU... De har bare CPU!

Lenke til kommentar
Hvorfor satser ikke alle (ATI, Nvidia og Intel) på en åpen og standardisert løsning for hw akselerasjon av encoding, istedenfor å lage hver sin teknologi som har krever hvert sitt 1000$ program for å kunne utnyttes? Vi trenger en Direct X for decoding, tenk deg en hverdag med spill som kun fungerte på Nvidia hw eller Ati hw.

 

(opencl?)

Er ikke det der en kraftig selvmotsigelse? DirectX er lukket og låst.

 

I tillegg inneholder vel DirectX allerede enkoding-rutiner gjennom DirectX Media Objects.

 

Det er kanskje det. Det jeg mente var at det var en løsning som brukes av alle progamvare utviklerere, og at Nvidia og ATI konsentrer seg om å gi best ytelse gjennom den samme løsningen.

 

Anders Jensen: Kan ikke man kjøre physx(?) på ATI hardware da? Og Physx bruker vel cuda. Er jo bare tåpelig at de går hver sin retning(stream og cuda)

http://www.tomshardware.com/news/nvidia-physx-ati,5764.html

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...