Gå til innhold

perandg

Medlemmer
  • Innlegg

    3
  • Ble med

  • Besøkte siden sist

Innlegg skrevet av perandg

  1. Mener at teknologien bak Itanium har noe med at den klarer 6 operasjoner pr klokke (Hz). Så det vil si i praksis vil en 1.6 GHz klare ca 6 ganger fler operasjoner pr sekund og da begynner vi å snakke!

     

    Med epic prøver Intel å pakke flere instruksjoner sammen i pakker, som skal utnytte prosessorens utførende enheter bedre. At det er i kompilatoren dette skjer er vel en nyvinning (tror jeg) i forhold til andre VLIW-arkitekturer, men det løser ikke problemet med at det faktisk må være instruksjoner nok til å fylle alle enhetene for å få maksimal ytelse. Du skal skrive riktig program, og skrive det godt for å få en ytelse på 6 instruksjoner per sykel.

     

    Itanium (eller itanic som er et kallenavn jeg har hørt) har også egenskaper som omstokking av instruksjoner for å bedre tilrettelegge for pakking av instruksjoner, i det hele tatt er det en rekke ting kompilatoren kan gjøre for å bedre ytelsen på programmet. Men igjen så avhenger ytelsen i stor grad av koden.

     

    Men som kallenavnet itanic sier har kanskje ikke prosessoren levert alt den skulle. Ihvertfall husker jeg at den første utgaven hadde helt forferdelig ytelse på flyttall (tror jeg), noe som ble rettet på til utgave 2. Husker ikke helt hva problemet var, men jeg mener å huske at Intel rettet problemet bl.a. ved å legge til en ganske stor cache utenfor brikken. Noen som husker?

     

    Det står en maskin i oslo med itanium-brikker i. Hvem det er sin er jeg usikker på, men regner med at UiO ihvertfall er deleiere.

     

    Jeg kunne godt likt å sett en sammenligning av Itanium og Suns niagara. De er vel ikke helt tilsvarende hva angår markedssegment og egenskaper angår, men representerer to ganske forskjellige innfallsvinkler til hvordan man skal bygge en brikke. Noen som har sett noe sånt?

  2. Velkommen til forumet, perandg :)

    [...]

    En hypotetisk AMD 16-kjerne ville nok kostet 100.000 kr eller mer med dagens produksjonsmetode om det var på en eneste silisiumbrikke.

    Takk.

     

    Hva med Suns ULTRASparc T2? Den forsøker vel å utnytte prinsippet nevnt? Den kjører med 8 multithreading-kjerner. Nå er den kanskje ikke sammenlignbar med en desktop-CPU, hverken på ytelse innen en tråd eller pris, men likevel. Det er annen tilnærming til ytelse som jeg synes er spennende.

     

    Men når jeg kjører igang syntetisering av VHDL-kode (som er en stooor tråd) går det sikkert usannsynlig treigt...

     

    Godt poeng. Som en kuriositet kan jeg legge til at Cell har vært solgt med både 6, 7 og 8 SPE-kjerner i tillegg til den hovedkjernen PPE. Alle PS3 er utstyrt med 7 SPE-kjerner og de med 6 eller 8 aktive SPE-kjerner er bare solgt til spesielle formål (Noen meget spesielle blad-servere med mer).

     

    Jeg vet ikke så mye om det, men var det hensikten til IBM/SONY/Toshiba.. å selge brikken med en defekt kjerne? Vet at det senere (snart?) kommer en ny versjon med mye bedre flyttallsstøtte, noen som vet om denne kommer med alle kjerner intakt?

     

    Hva brukes brikkene med 6 aktive SPE-er til? Vil det si at de har 2 inaktive SPE-er? Eller er dette egne brikker?

  3. Tre eller fire kjerner i bærbare blir litt mye strømforbruk og varmeutvikling. De kommer nok etter der også men på grunn av klare ulemper i forhold til desktop-maskiner så tror jeg firekjerner alltid vil lanseres på desktop før på bærbare og at det vil gå en stund fra lansering på desktop til lansering på bærbare. F.eks ett år.

     

    Burde ikke en flerkjerne-løsning med lav klokkehastighet spare ganske mye strøm? Kan man ikke spare strøm uten å miste throughput ved å redusere klokkefrekvens og kompensere med økning i antall kjerner? Dette gir jo selvsagt ikke en særlig god ytelse på hver enkelt tråd.

     

    Apropos å slå av kjerner, CELL selges med en kjerne avslått. Dette fordi de drastisk klarte å øke produksjonsavkastningen. Så ideen er ikke helt ny.

×
×
  • Opprett ny...