Gå til innhold

AMD innrømmer: Bulldozer var en ren fiasko


Anbefalte innlegg

Videoannonse
Annonse

Bulldozer var utan tvil ein meir serveraktig CPU enn desktop CPU. Det dei ikkje var klar over var at innkjøpssjefane til serverar leser og konkluderer prosessorens ytelse basert på korleis den performer på skrivebordet.

 

For har du ein server, så får du vanvittig mykje ytelse for pengane med Bulldozer.

 

  • Liker 8
Lenke til kommentar

Godt at noen hos AMD endelig har skjønt at slikt ikke er akseptabelt. Håper de virkelig lykkes denne gangen. Skjermkortene deres har jeg alltid vært fornøyd med, men likevel ligger Nvidia altfor langt foran dem på denne fronten også.

Synd, i det siste når dem har kommet med noe nytt i butikkhyllene har det allerede rukket å bli stemplet som gammelt. Dette holder ikke mål lenger. Verken for dem eller oss forbrukerne.

Lenke til kommentar

Veldig lurt å sparke folk i hytt og pine for dette ... Akkurat som at folk ikke lærer av feil.

Problemet til AMD er uansett at de er eksperter på å skyte seg selv i foten. Jeg tror til og med en person som ble involvert i selskapet på 90-tallet har skrevet bok om AMDs selvdestruktive måte å fungere på. Dagens ledelse ser ikke ut til å være noe bedre.

Lenke til kommentar

Jeg tror nok at de siste prosjektene AMD har hatt på prosessorfronten har vært dårlig gjennomført. Det hele stinker av dårling lederskap, og mangel på satsning fra selskapet.

 

De fleste reviews jeg har lest om bla. Phenom 2 blir jo selve arkitekturen skrytt av som veldig god. Jeg greier ikke helt å se grunnen til at de vraka den fullstending, til fordel for den Buldozer-kjerna. Riktignok skal det nevnes at den ser svært bra ut på papiret, og den har mangler. Fiasko, synes jeg kanskje er ett noe sterkt ord, men at det nok var en tabbe, er det liten tvil om.

 

Skal AMD gjenoppstå som det de var på 90-tallet, må det skje drastiske endringer i hele selskapet, og det er ikke bare selve drifta det handler om, men også holdningskapende arbeid, som innen lederskapen er svært vanskelig å endre på raskt. Det tar tid, men tid er jo noe AMD ikke egentlig har. De taper markedsandeler og "cred" i entusiast-segmentet, og dårlig rykte spres raskt.

Jeg tror de sårt trenger noe virkelig stort der borte nå, noe lignende det de gjorde med K7 og Sledge/Claw- hammer.

 

Asu

  • Liker 2
Lenke til kommentar

Godt at noen hos AMD endelig har skjønt at slikt ikke er akseptabelt. Håper de virkelig lykkes denne gangen. Skjermkortene deres har jeg alltid vært fornøyd med, men likevel ligger Nvidia altfor langt foran dem på denne fronten også.

Synd, i det siste når dem har kommet med noe nytt i butikkhyllene har det allerede rukket å bli stemplet som gammelt. Dette holder ikke mål lenger. Verken for dem eller oss forbrukerne.

Nvidia ligger kun foran med Titan på High-end, Kepler er en mindre effekt-, kostnads- og transistoreffektiv arkitektur enn GCN i rendering og GPGPU.

 

Bulldozer var utan tvil ein meir serveraktig CPU enn desktop CPU. Det dei ikkje var klar over var at innkjøpssjefane til serverar leser og konkluderer prosessorens ytelse basert på korleis den performer på skrivebordet.

 

For har du ein server, så får du vanvittig mykje ytelse for pengane med Bulldozer.

http://www.anandtech.com/show/5058/amds-opteron-interlagos-6200

 

Alt kommer an på ytelseskravene dine, hvis det ikke er nok ytelse har det ingenting å si at man får mer for penga. Det er heller ikke slik at alle kan rekompilere programvaren sin, men dette har vært diskutert til døde og sparket på i femti poster fra før av.

  • Liker 1
Lenke til kommentar

Ja, enig. Ytelsen i AMDs prosessorer er ikke på høyde med Intels. Men, den er på ingen måte dårlig. Så, jeg tror du som forbruker må se på hva du egentlig trenger. I dag er mye software laget for å kjøre på en til maks 4 tråder, noe som favoriserer Intel, siden deres singeltråd ytelse er så god som den er.

 

De fleste utviklerne jeg har lest noe om i det siste, sier flatt ut at parallellisering er fremtiden, og det gjør multi-kjerne cpuer til veien å gå for fremtiden.

 

Jeg tror at vi vil se brikker med flere og flere kjerner fremover. Sannsynligvis lavere klokkede brikker med lavt effektforbruk og høy ytelse samlet sett. Muligens mer effektive piplines, og bedre predict.

Lenke til kommentar

Ja, enig. Ytelsen i AMDs prosessorer er ikke på høyde med Intels. Men, den er på ingen måte dårlig. Så, jeg tror du som forbruker må se på hva du egentlig trenger. I dag er mye software laget for å kjøre på en til maks 4 tråder, noe som favoriserer Intel, siden deres singeltråd ytelse er så god som den er.

 

De fleste utviklerne jeg har lest noe om i det siste, sier flatt ut at parallellisering er fremtiden, og det gjør multi-kjerne cpuer til veien å gå for fremtiden.

 

Jeg tror at vi vil se brikker med flere og flere kjerner fremover. Sannsynligvis lavere klokkede brikker med lavt effektforbruk og høy ytelse samlet sett. Muligens mer effektive piplines, og bedre predict.

Programvare skrives til det relevante markedet, det er mange oppgaver som er fullstendig umulig å parallellisere og derfor er avhengig av bedre enkelttrådet ytelse.

 

Det er ikke umulig at vi vil se flere kjerner i fremtiden, men fokuset bør være på å øke enkelttrådet ytelse uten å øke strømforbruket. Flertrådet ytelse vil komme takket være integreringen av GPUer på samme brikke med felles minnearkitektur og raskere context-switching mellom GPU og CPU, ikke ved å få flere CPU-kjerner.

 

Intel ser ut til å ha en plan for dette, og jobber med å øke enkelttrådet ytelse samtidig som de øker programmerbarheten og ytelsen til den integrerte GPUen hver generasjon. AMD sitter i den motsatte situasjonen: GPU-delen er definitivt på plass med GCN, teknologien for å integrere det er på plass, men CPU-arkitekturen er ikke sterk nok på enkelttrådet ytelse. Jeg vil tro Intel henger lengst bak, men de tar også langt større skritt for hver generasjon enn AMD gjør.

 

Nvidia ser det virkelig mørkt ut for, de har såvidt begynt å lage prosessorer, de har ikke x86-lisens for bakoverkompatibilitet, og det er særdeles usikkert om de klarer å lage en kraftig nok APU for laptoper og desktoper med en ARM-prosessor. Nvidia sitter kanskje bra i server-markedet og med dedikerte GPUer, men det er ikke altfor mange årene igjen før dedikerte GPUer er antikviteter.

 

Angående parallellisering av programvare: les disse to wikipedia-artiklene 1, 2. Du kan ikke erstatte enkelttrådet ytelse med flertrådet ytelse, AMD ignorerte dette med Bulldozer og derfor floppet den.

Endret av arni90
Lenke til kommentar

AMD var vel ikke helt heldig med navnet heller, det kan jo ha litt å si også. Hva forbinder vi med en "Bulldozer" ?

Stor, treg, sakte, klossete bevegelser og flater og herper alt som kommer i dens vei.

Stikkord som, kjapp, rask, fleksibel, lavt effektforbruk og gjerne også ytelse er ikke det vi forbinder med en Bulldozer...

Lenke til kommentar

AMD var vel ikke helt heldig med navnet heller, det kan jo ha litt å si også. Hva forbinder vi med en "Bulldozer" ?

Her er et bra bilde som jeg først så på en konferanse hvor en artikkel om mikro-benchmarks og analyse av Sandy Bridge, Bulldozer og Nehalem ble presentert. :green:

 

post-4368-0-59204600-1370442444_thumb.jpeg

Lenke til kommentar

Dette var en åpenbar fiasko før lansering. Amd hadde ikke bestemt seg for om de skulle bygge thin eller fat core. Da ble det verken av delene. Hadde de splittet frontend og L1 så ville de fått mindre kompleksitet og forsinkelse mellom L1 og integer ressursene og dermed en god fat core. Delt FPU kunne fungert bra på fat core. FP throughput er uansett best å kjøre på thin core.

  • Liker 2
Lenke til kommentar

Dette var en åpenbar fiasko før lansering. Amd hadde ikke bestemt seg for om de skulle bygge thin eller fat core. Da ble det verken av delene. Hadde de splittet frontend og L1 så ville de fått mindre kompleksitet og forsinkelse mellom L1 og integer ressursene og dermed en god fat core. Delt FPU kunne fungert bra på fat core. FP throughput er uansett best å kjøre på thin core.

Ikke bare er dette sant, men det er rimelig bekymringsverdig at AMD valgt å gjøre det likevel. En skulle tro at 20+ år med erfaring innenfor design av mikroprosessorer hadde lært dem litt.

Lenke til kommentar

Bli med i samtalen

Du kan publisere innhold nå og registrere deg senere. Hvis du har en konto, logg inn nå for å poste med kontoen din.

Gjest
Skriv svar til emnet...

×   Du har limt inn tekst med formatering.   Lim inn uten formatering i stedet

  Du kan kun bruke opp til 75 smilefjes.

×   Lenken din har blitt bygget inn på siden automatisk.   Vis som en ordinær lenke i stedet

×   Tidligere tekst har blitt gjenopprettet.   Tøm tekstverktøy

×   Du kan ikke lime inn bilder direkte. Last opp eller legg inn bilder fra URL.

Laster...
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...