Gå til innhold

Intel stjeler fra AMD og Nvidia


Anbefalte innlegg

Videoannonse
Annonse

Merkelig at Intel har solgt såpass godt med Intel HD 3000, når en ser på ytelsen i forhold til AMDs integrerte løsning.

Når de regner markedsandeler regnes ikke kostnaden av grafikken (altså ikke $ markedsandel) men antallet chips som kan kjøre grafikk.

Siden alle Sandy Bridge har integrert grafikk vil hver eneste telle som en solgt GPU, selv om de monteres på et hovedkort som ikke støtter GPU-delen.

Antallet som faktisk bruker den integrerte grafikken er nok noe lavere.

Lenke til kommentar

Merkelig at Intel har solgt såpass godt med Intel HD 3000, når en ser på ytelsen i forhold til AMDs integrerte løsning.

Når de regner markedsandeler regnes ikke kostnaden av grafikken (altså ikke $ markedsandel) men antallet chips som kan kjøre grafikk.

Siden alle Sandy Bridge har integrert grafikk vil hver eneste telle som en solgt GPU, selv om de monteres på et hovedkort som ikke støtter GPU-delen.

Antallet som faktisk bruker den integrerte grafikken er nok noe lavere.

 

Med andre ord er undersøkelsen misvisende.

Endret av Bjohansen
Lenke til kommentar

Er det noen som vet hva Matrox og VIA/S3 i det hele tatt leverer lenger, og hvorfor SiS er tatt med?

 

Ser ikke sånn ut ifølge Wikipedia. Såvidt jeg kan se lagde VIA og SiS sist chipsets til AM2 og sokkel 754, og det begynner å bli en stund siden. Og dedikerte skjemkort ser det ikke ut til at de har laget på en årrekke. VIA lager noen mikrohovdekort med egne integrerte løsninger, men det ser ut til å være det eneste.

 

Og Matrox tror jeg ikke har noen grafikkkort på markedet lengere, selvom jeg mener å ha sett at Komplett har hatt gamle Matrox Parhelia inne til en sinnsyk overpris.

Lenke til kommentar
  • 2 måneder senere...

Integrering vinner altid, dedikert GPU vil forsvinne helt fra markedet. Er det noen som har en ekstern FPU surrende i sin nye maskin kanskje? Har vel knapt nok maskiner med ekstern minnekontroller nå for tiden og snart er vel minnet integrert også. Stopper ikke før hele kostebinderiet er integrert, med SSD og all IO.

 

Dummeste jeg har hørt . Integrerte løsninger duger ikke til annet en lett spilling ,websurf og film/ musikk. Integrerte løsninger kommer aldri til å måle seg med et moderne kraftig dedikert skjermkort. Om alt skal integreres , så tror jeg fortsatt det vil eksistere GPU kort eller moduler.

Lenke til kommentar

Integrering vinner altid, dedikert GPU vil forsvinne helt fra markedet. Er det noen som har en ekstern FPU surrende i sin nye maskin kanskje? Har vel knapt nok maskiner med ekstern minnekontroller nå for tiden og snart er vel minnet integrert også. Stopper ikke før hele kostebinderiet er integrert, med SSD og all IO.

 

Dummeste jeg har hørt . Integrerte løsninger duger ikke til annet en lett spilling ,websurf og film/ musikk. Integrerte løsninger kommer aldri til å måle seg med et moderne kraftig dedikert skjermkort. Om alt skal integreres , så tror jeg fortsatt det vil eksistere GPU kort eller moduler.

Du får stacke de opp ved siden av FPU kortene dine. Kanskje koble alt via Northbridge?

 

Hvis dette er det dummeste du har hørt så vent til du får høre om Moores lov...

  • Liker 1
Lenke til kommentar

 

 

Hvis dette er det dummeste du har hørt så vent til du får høre om Moores lov...

 

Moores lov vil fortsatt ikke løse de store forskjellene mellom arkitekturen til en gpu og en cpu som eksisterer per dags dato på konsumentmarkedet (x86) , at man kan lime sammen en cpu kjerne og en gpu kjerne på samme brikke er jo flott , men det fjerner fortsatt ikke det faktum at per dags dato så er fortsatt dedikerte løsninger 10x kraftigere enn den beste integrerte løsningen (topp vs topp).

 

Gi det nok år så vil vi nok sannsynligvis etter hvert se bedre løsninger der cpu'en kan til slutt ta over for gpu'en , men dette tror jeg nok ligger fortsatt mange år fremover i tid, i samme slengen vil vi etter hvert få utfordringer alla :

 

*3D virtuell verden hvor vi kan ta på andre "personer" og leve i denne : Krever enorm cpu og gpu prosseseringskraft.

*3D Holografiske prosjektorer som kan vise et "reelt" bilde.

 

Poenget mitt er at det vil alltid komme noe nytt som krever mer cpu og gpu kraft, integrerte løsninger kan per dags dato kun gi en viss ytelse , selv med store forbedringer vil man fortsatt se behovet for dedikerte gpu løsninger.

 

En annen sak er at man nå kan spille Doom3 fra 2003 i full HD med en fps på 100 uten problemer med dagens integrerte løsninger , dog prøv det samme med det siste og beste spillet og man sliter kraftig.

Lenke til kommentar

Skal ikke se bort i fra at integrerte løsninger kommer også på stasjonær-fronten, som klarer å kjøre veldig mye. Men til krevende spill vil det nok ta lang tid og/eller aldri skje at dedikerte løsninger vil tape. Grunnen til at jeg tror dette er da dette er et veldig solid marked med gode løsninger ofte tett integrert mot markedet det er designet for, nemlig spill. Det vil ta lang tid å omforme alt dette. For å ikke nevne den praktiske utformingen. Noe som er like kraftig som et dedikert skjermkort integrert vil kreve mye kjøling og plass.

Lenke til kommentar

 

 

Hvis dette er det dummeste du har hørt så vent til du får høre om Moores lov...

 

Moores lov vil fortsatt ikke løse de store forskjellene mellom arkitekturen til en gpu og en cpu som eksisterer per dags dato på konsumentmarkedet (x86) , at man kan lime sammen en cpu kjerne og en gpu kjerne på samme brikke er jo flott , men det fjerner fortsatt ikke det faktum at per dags dato så er fortsatt dedikerte løsninger 10x kraftigere enn den beste integrerte løsningen (topp vs topp).

 

Gi det nok år så vil vi nok sannsynligvis etter hvert se bedre løsninger der cpu'en kan til slutt ta over for gpu'en , men dette tror jeg nok ligger fortsatt mange år fremover i tid, i samme slengen vil vi etter hvert få utfordringer alla :

 

*3D virtuell verden hvor vi kan ta på andre "personer" og leve i denne : Krever enorm cpu og gpu prosseseringskraft.

*3D Holografiske prosjektorer som kan vise et "reelt" bilde.

 

Poenget mitt er at det vil alltid komme noe nytt som krever mer cpu og gpu kraft, integrerte løsninger kan per dags dato kun gi en viss ytelse , selv med store forbedringer vil man fortsatt se behovet for dedikerte gpu løsninger.

 

En annen sak er at man nå kan spille Doom3 fra 2003 i full HD med en fps på 100 uten problemer med dagens integrerte løsninger , dog prøv det samme med det siste og beste spillet og man sliter kraftig.

Nå synes jeg vi blander to separate diskusjoner her. På den ene siden hva som kan, bør og med tiden vil integreres på samme chip og på den andre siden om ISA for GPU og CPU kan, bør og med tiden vil konvergere.

 

Det første problemet er trivielt. Integrering lønner seg og vil gjøre det i uoverskuelig fremtid fordi en kan dra nytte av felles ressurser og en får lavere avstander som er sterkt knyttet til høyere ytelse. En skal ikke være veldig "klarsynt" for å se at Nvidia Tegra plattformen, f.eks, kan være et spill alternativ om 5-10 år.

 

Når det gjelder problem nummer to vil jeg si det er utenkelig at vi får x86 baserte GPUer i fremtiden. Intel har prøvd med Larabee og tryna kraftig. GPUer benytter sterkt optimaliserte og spesialiserte VLIW implementasjoner med komplekse programmsynlige minnehierarkier. x86 kan umulig løse dette effektivt. Om en utvider IA64, som er noe beslektet med VLIW, med lignende minnehierarkier som en finner i GPU og tilsvarende trådhåndtering så kanskje vi kan få et konvergert ISA for CPU og GPU, men jeg tror det beste er å holde de adskilt.

Endret av Anders Jensen
  • Liker 2
Lenke til kommentar

AMD's Fusion planer går jo ut på å integrere en "god nok" GPU sammen med CPU. Først heterogent med dedikerte deler av chippen satt av, så granulært heterogent integrering der man kanskje kan binde en gruppe SIMD moduler opp mot hver Bulldozer-aktig modul (som også inneholder en intern SIMD modul mer beregnet på maks ytelse enn ytelse/W eller ytelse/mm^2). Til slutt vil man gå mot en heterogen integrering der de modulene av GPU det er praktisk å gjøre det for blir integrert med x86 modulene.

 

I mine tanker vil det enten se ut som noe ala en GCN GPU med en modifisert front-end og en x86 kjerne sammen med hvert CU array (= 4 CUs av 4x SIMD moduler av 16x ALU), så hver overordnet modul blir 1x x86 + 256 ALU (4x4x16) (+4 Scalar ALU?). På 10-15nm (?) kan man kanskje ende opp med 8 slike moduler? Ca lik 8-modul Bulldozer + HD77xx eller HD78xx? (med arkitektur forbedringer)

Om de får det til å sømløst støtte OpenCL på både x86 og GPU delene og tildele ressurser i front-end kan det blir bra.

  • Liker 1
Lenke til kommentar

Nå snakker vi grafikk vel? AMDs integrerte løsning er mye bedre enn Intels, men grunnen til at Intel selger mye, er at det er integrert løsning i sb prosessorene. For hver sb Intel selger, så selger de også en stk integrert grafikkbrikke. Selv om få bruker den.

 

Derfor blir denne undersøkelsen misvisende.

Lenke til kommentar

AMD's Fusion planer går jo ut på å integrere en "god nok" GPU sammen med CPU. Først heterogent med dedikerte deler av chippen satt av, så granulært heterogent integrering der man kanskje kan binde en gruppe SIMD moduler opp mot hver Bulldozer-aktig modul (som også inneholder en intern SIMD modul mer beregnet på maks ytelse enn ytelse/W eller ytelse/mm^2). Til slutt vil man gå mot en heterogen integrering der de modulene av GPU det er praktisk å gjøre det for blir integrert med x86 modulene.

 

I mine tanker vil det enten se ut som noe ala en GCN GPU med en modifisert front-end og en x86 kjerne sammen med hvert CU array (= 4 CUs av 4x SIMD moduler av 16x ALU), så hver overordnet modul blir 1x x86 + 256 ALU (4x4x16) (+4 Scalar ALU?). På 10-15nm (?) kan man kanskje ende opp med 8 slike moduler? Ca lik 8-modul Bulldozer + HD77xx eller HD78xx? (med arkitektur forbedringer)

Om de får det til å sømløst støtte OpenCL på både x86 og GPU delene og tildele ressurser i front-end kan det blir bra.

Nå har jeg aldri latt meg inspirere av AMDs innovasjon. For meg blir de alt for pragmatiske og for lite idealister. Tenker for kortsiktig mao. Det å samle CPU og GPU ressurser er en naturlig utvikling og jeg forventer vel at alle kommer til å gjøre det IBM, Oracle, ARM og Intel inkludert. Men en kan vel vente seg at AMD og nvidia kommer på banen først.

 

AMDs tilnærming virker typisk dem. De går bort fra VLIW4 fordi de ikke klarer å bygge en god kompilator. Hvordan det skal bli enklere med SIMD er uforståelig for meg. SIMD er typisk vanskeligere å benytte effektivt enn VLIW, men det blir kanskje mer programmerer nært å løse effektivitetsproblemet samt at det nok er enklere å forstå SIMD enn VLIW scheduling for en programmerer.

 

Kan se ut som om de har bestemt seg for at task-parallell ikke hører hjemme på GPU og at dataparallell er det eneste som gjelder. Det er forsåvidt greit nok, CPU begynner å bli veldig god på task parallelle oppgaver. SIMD bør være enklere og implementere i hardware enn VLIW og gi høyere peak throughput enn VLIW. Ulempen er at en er sterkt knyttet til dataparallelle oppgaver og ekstrem tuning. Dette nye designet er i hovedsak som en god gammeldags vektorprosessor. Bare mange flere tråder og en del smalere vektorer aka SIMD.

Endret av Anders Jensen
  • Liker 1
Lenke til kommentar

AMDs tilnærming virker typisk dem. De går bort fra VLIW4 fordi de ikke klarer å bygge en god kompilator. Hvordan det skal bli enklere med SIMD er uforståelig for meg. SIMD er typisk vanskeligere å benytte effektivt enn VLIW, men det blir kanskje mer programmerer nært å løse effektivitetsproblemet samt at det nok er enklere å forstå SIMD enn VLIW scheduling for en programmerer.

Det er også ganske mange i akademiske kretser som stiller spørsmål rundt dette.

Personlig tipper jeg at avgjørelsen om å gå fra VLIW til SIMD er tatt av AMD-folk, ikke eks-ATI folk.

Jeg har i flere år forelest kurs hvor vi lærer studentene å blant annet programmere med SIMD, og jeg kan skrive under på at denne modellen er en av de mer kompliserte for studentene å få til bra.

  • Liker 1
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...