Gå til innhold

Intel Larrabee mot AMD og Nvidia


Anbefalte innlegg

Videoannonse
Annonse

Jeg er forsåvidt enig med premisset "En tidligere Intel-direktør, Fred Pollack, fortalte i et intervju med EE Times at grafikkmarkedet trolig vil gjennomgå store endringer i 2010/2011 siden man stadig mer vil integrere CPU/GPU eller eventuelt gå stikk motsatt retning."

 

Men hvorfor begunstiger dette larrabee? Har ikke inntrykk av at det er den mest høytytende brikken?

 

AtW

Lenke til kommentar

Jeg har heller ikke inntrykk av at Larrabee skal yte særlig bra. Hverken ren ytelse eller ytelse per watt. I tillegg kan vi se på intels historikk med grafikk og drivere: mye bugs og dårlig ytelse, men forsåvidt god Linux-støtte.

 

Hvis Larrabee skal bli noen suksess så tror jeg det trengs noen seriøse brekkjern fra Intels side. F.eks at intel trekker dagens relevante brikkesett med grafikk og prosessorer fra markedet og påbyr alle produsenter som skal erstatte sine løsninger å bruke Larrabee som primær CPU og GPU i erstatteren.

Lenke til kommentar

Dette lukter det nesten i740 av... http://en.wikipedia.org/wiki/Intel740

 

Tror nok Larrabee blir en skrot chip som aldri kommer seg av flekken.

Software rendering gikk av banen etter 200MHz alderen og siden da har de vært en utdøende rase som er utryddet den dag idag bortsett fra gamle Counter Strike da.

 

Intel må nok begynne å innse at de har en grafikkavdeling og at de ikke kan by på noe spes.

Dessuten med en slik sak integrert så blir det kjipe tider om ekspansjonsskjermkortene døde ut, bytte CPU når man vil ha hvassere skjermkort frister ikke.

 

Men kan hende GPGPU gutta får nytte av den, men spillere? Nei.

Lenke til kommentar
Dette lukter det nesten i740 av... http://en.wikipedia.org/wiki/Intel740

 

Tror nok Larrabee blir en skrot chip som aldri kommer seg av flekken.

Software rendering gikk av banen etter 200MHz alderen og siden da har de vært en utdøende rase som er utryddet den dag idag bortsett fra gamle Counter Strike da.

 

Intel må nok begynne å innse at de har en grafikkavdeling og at de ikke kan by på noe spes.

Dessuten med en slik sak integrert så blir det kjipe tider om ekspansjonsskjermkortene døde ut, bytte CPU når man vil ha hvassere skjermkort frister ikke.

 

Men kan hende GPGPU gutta får nytte av den, men spillere? Nei.

Nå er Larrabee en grafikk brikke da, ikke en cpu. Ja den kan brukes som en cpu men da vil ha sitte på noe som ligner 32 atom prosessorer.

Ser Larrabee som et megest spennende produkt, men ikke noe som gir kostnadseffektiv spill ytelse, mer spennende for mindre superdatamskiner, renderfarms og lignenende.

 

Eneste måten å bruke Larrabee i en vanlig cpu vil være en cell lignende asykron prosessor med 2-4 i7 kjerner og 16-32 Larrabee kjerner, enklere en cell siden alle kan kjøre x86 software men Larrabee kjernene vil være 10 ganger tregere på generelle programmer.

 

For en renderfarm eller lignende vil det kansje være aktuelt å kjøre flere Larrabee cpuer på et hovedkort, siden 99% av jobben som gjøres her er rendring spiller det liten rolle om cpu er tregere på vanlige oppgaver som å hente teksture og modeller, lagre bilder osv.

Lenke til kommentar

Beklageligvis er Larrabee CPU bygget med sine X86 og Pentium brikker: http://en.wikipedia.org/wiki/Larrabee_(GPU) Riktignok en drøss med CPU kjerner da.

Larrabee skal visst også selges som ett PCI-E ekspansjonskort, ala det samme som i740 ble i sin tid solgt som ett eget AGP kort.

 

Larrabee har kanskje en fremtid, men det er IKKE hos Gamere i allefall eller entusiastene slik som Intel har hintet til med sin Gears of Crap (eller War om du vil, buggete er det i allefall.) sammenligning.

 

Ideen er nok dødfødt og tror ikke Nvidia har noe å bekymre seg når det kommer til salget av GeForce kort, Tesla derimot kan bli lidende og muligens Quadro serien, men GeForce kommer ikke Larrabee til å kunne true i det hele tatt (Samme hos ATi).

Er også skeptisk til strømforbruket på dette udyret Intel har planlagt.

Lenke til kommentar

Om jeg forstår riktig, så vil fordelen med denne prossessoren være det samme som CUDA og OpenCL på Nvidia/Ati sine brikker? Derfor lurer jeg på om ikke de sistnevntes produkter er bedre, siden de har rundt 1000kjerner og derfor om løpet ikke er kjørt for Intel allerede? Det er da ikke noe problem å få Nvidias/Atis brikker integrert på hovedkortet og de gjør vel den jobben allerede (og sikkert for mindre peng enn Intels produkter...)?

Lenke til kommentar

Sånn som den ser ut for meg vil den i hovedsak kunne ta markedsandeler fra det markedet der det i dag brukes integrert grafikk. Dessverre er dette allerede intel område.

 

Når en brikke som yter 3-10 ganger bedre koster mellom 500-1000 er det mange "vanlige" brukere som vil henge seg på løsningene til AMD og Nvidia. Selv om de kanskje ikke har behov for det.

Lenke til kommentar
Tror nok Larrabee blir en skrot chip som aldri kommer seg av flekken.

Det er definitivt en fare for at Larrabee flopper totalt, men..

 

Software rendering gikk av banen etter 200MHz alderen og siden da har de vært en utdøende rase som er utryddet den dag idag bortsett fra gamle Counter Strike da.

...dette er fullstendig kunnskapsløst. Dagens GPU er en gedigen massivt multithreaded softwarerender. Kun små deler gjøres i statisk logikk. Hvorfor tror du det er mulig å kjøre API som CUDA mot nvidia sin GPU???

 

Hviss Larrabee flopper så er det fordi det ikke kommer nok applikasjoner til den utover grafikkrendering. På grafikkrendering er det fullstendig usannsynlig at Larrabee skal kunne hevde seg på ytelse og ytelse/watt. På andre oppgaver, som f.eks søk i grafikk kan den lett knuse GPU grundig og med mye enklere og raskere software utvikling. Det siste er egentlig nøkkelen til suksessen. Å bygge en optimalisert applikasjon til en GPU tar mye lengre tid enn tilsvarende for Larrabee.

Lenke til kommentar

Dagens GPUer har andre saker bygget inn også, blant annet er brikkene bygget på en helt annen måte enn en CPU slik som Intel har tenkt å bruke.

Etter oppskrifta som Intel har planlagt snakker vi her om en brute force taktikk mot GPUer, samme som Nvidia prøvde seg på GPU fronten med FX 5800 som floppet totalt.

 

Intel må nok droppe reklamen for gamere, i allefall for der har nok ikke Larrabee noen fremtid.

Tror heller ikke at X86 kan klare å håndtere shader delen spesielt bra heller.

Lenke til kommentar

tror ikke den blir noe spessielt bra i starten. Siden skjermkort krever veldig bra driver/software, til for få opptimal ytelse.

 

 

AMD/NVIDA har laget driver for skjermkort god stund nå. Utviklie bra software tar lenger tid slenge ut noe hardware

Endret av Agrop
Lenke til kommentar

Den tidsrammen intel har satt for Larrabee (2010/11) kommer det til å konkurere med GT300 og RV780, som begge to har mer/like mye teoretisk regnekapasitet. I tilleg er både nVidia og ATi bedre på drivere til grafikkort enn intel. Der intel kan vinne noe er hos de som er villige til å kode til x86 aritekturen, dette vil være komplisert for spillutviklere (enda en alternativ kodebane) men for spesialiserte løsninger kan det kansje være interesangt.

 

Hvis intel sikter seg inn på renderfarmer og real time cad rending kan de fokusere på noen få programer (kontra flere tusen pc spill) og i tilleg ta 5000 til 15000 kr /kortet da det er en bransje med litt større lomebøker enn frobruerknene.

 

Min spådom er ivhertfal at Larrabee kommer til å bli fokusert på profesjonelle oppgaver først, med dertil dårlig spillytelese. Hvis intel fortsetter med ekster grafikk etter Larrabee kan det hende de bruker en gennerasjon eller to til å komme opp til samme nivå som vN/ATi, med dagens tempo i garfikkmarkedet vil vell det si en 2-3 år etter Larrabee.

Lenke til kommentar
Etter oppskrifta som Intel har planlagt snakker vi her om en brute force taktikk mot GPUer, samme som Nvidia prøvde seg på GPU fronten med FX 5800 som floppet totalt.

Ehh... Nei... Det er helt andre grunner til at NV30 floppet. For det første hadde NV30 kun fire pipelines med to TMU per pipeline. Konkurrenten ATI R300 hadde åtte pipelines med kun en TMU per pipeline. I tillegg baserte nVIDIA seg på en ny "cuting edge" produksjonsprosess som de hadde mye problemer med 0,13 mikron, mens ATI brukte 0,15 mikron.

 

Tror heller ikke at X86 kan klare å håndtere shader delen spesielt bra heller.

Det er ikke X86 som skal håndtere shader-delen. Det er en 16-wide (512-bit) vektor enhet per CPU-kjerne som kjører det Intel kaller Larrabee New Instructions (LRBni).

Lenke til kommentar
Om jeg forstår riktig, så vil fordelen med denne prossessoren være det samme som CUDA og OpenCL på Nvidia/Ati sine brikker? Derfor lurer jeg på om ikke de sistnevntes produkter er bedre, siden de har rundt 1000kjerner og derfor om løpet ikke er kjørt for Intel allerede? Det er da ikke noe problem å få Nvidias/Atis brikker integrert på hovedkortet og de gjør vel den jobben allerede (og sikkert for mindre peng enn Intels produkter...)?

 

Nesten riktig.

forskjellen er at når man bruker CUDA eller OpenCL så må man nesten spesialsy programmene for å få noe godt resultat, og det er ikke alle program som kan få den supre hastigheten det snakkes om.

Det er nesten bare kalkulasjoner (Simuleringer, numeriske modeller, osv) som kan få det pga muligheten for å parallelisere sånne programmer.

Med Larrabee og lignende prosessorer er det teoretisk muligt for andre programmer å bli brukt i GPGPU sammenhenger.

Og det er rundt effektiviteten av det det strides om.

Lenke til kommentar
Den tidsrammen intel har satt for Larrabee (2010/11) kommer det til å konkurere med GT300 og RV780, som begge to har mer/like mye teoretisk regnekapasitet. I tilleg er både nVidia og ATi bedre på drivere til grafikkort enn intel. Der intel kan vinne noe er hos de som er villige til å kode til x86 aritekturen, dette vil være komplisert for spillutviklere (enda en alternativ kodebane) men for spesialiserte løsninger kan det kansje være interesangt.

 

Hvis intel sikter seg inn på renderfarmer og real time cad rending kan de fokusere på noen få programer (kontra flere tusen pc spill) og i tilleg ta 5000 til 15000 kr /kortet da det er en bransje med litt større lomebøker enn frobruerknene.

 

Min spådom er ivhertfal at Larrabee kommer til å bli fokusert på profesjonelle oppgaver først, med dertil dårlig spillytelese. Hvis intel fortsetter med ekster grafikk etter Larrabee kan det hende de bruker en gennerasjon eller to til å komme opp til samme nivå som vN/ATi, med dagens tempo i garfikkmarkedet vil vell det si en 2-3 år etter Larrabee.

Spillutviklere koder ikke spesifikt mot hver GPU de programmerer mot DirectX eller OpenGL. Larrabee vil kunne støtte begge og vil dermed ikke medføre noe ekstraarbeid for de som utvikler spill.

Lenke til kommentar
Såvidt jeg har forstått vil også Larrabee basere seg på eksplisitt parallelprosessering. Så hvorfor skulle det være noe enklere å benytte det en CUDA/openCL?

Minnemodellen er helt annerledes og mye enklere å forholde seg til på Larrabee. Å programmere Larrabee er omtrent som å programmere C++ en 32+ kjerners server med hyperthreading og en bred SIMD enhet i kjernene. Rett frem altså, i den grad flertråding er "rett frem"...

 

For GPU må du forholde deg spesielle programmeringssåpråk som tvinger programmerer til å forholde seg til trådgrupper og et stort sett separate adresseområder. Det kan over hodet ikke sammenlignes med programmering for Larrabee.

 

Klart dette general purpose minnehierarkiet til Larrabee blir en potensiell flaskehals. Det er umulig å opprettholde like høy båndbredde internt som på en GPU, men heldigvis er det mulig å løse samme oppgave med litt mindre båndbredde forbruk på Larrabee grunnet det mer kompliserte minnehierarkiet bestående av en rekke cache områder som er coherente. Hardware tar seg med andre ord av flytting av nødvendige data on-the-fly til den kjernen som skal ha de, mens på en GPU så er det programmerer som eksplisitt må flytte de data han tror er nødvendige til riktig plass først.

Lenke til kommentar

Full cache coherency vil trolig begrense kraftig både antall kjerner og gi mye dårligere latency enn grupperingsmetoden til GPUer. Larrabee kommer altså til å være avhengig av god separasjon av trådene akkurat som GPUer.

 

Se gjerne på kjernene som en soldat. Larrabee bygger en hær av soldater som er under direkte kommando av hærsjefen. ATI/Nvidia bygger en hær av soldater i et større rang-system med flere nivåer av mellomledere. (troppsjefer, kompanisjefer, bataljonsjefer) I Larrabee-hæren vil hærsjefen bli overbelastet med småoppgaver som burde vært delegert. På den andre siden trenger bare Laraabees soldater ett mellomledd for å kommunisere, men mellomleddet vil trolig bli en flaskehals. GPUer har et mer tungvint kommunikasjon mellom soldater som ikke er organisert sammen, men mellomlederne vil i hvert fall ikke ha noe problemer med å ta unna jobben og delegere jobber fornuftig mellom grupperingene.

 

</atter en av de dumme analogiene>

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...