Gå til innhold

Dobbelkjerne Power Mac G5?


Anbefalte innlegg

Videoannonse
Annonse

på 2GHz G5 cpu trenger man ikke og overklokke det kan jeg love deg for den har så mye power at det nesten er kjedelig. Men det er klart at Os x gjør at alt som man jobber med går mye raskere. Og enda bedre vil det bli når Apple går over til Intel :cool:

Av ren nysjerrighet, noen som vet hvordan det er med overklokking og mac?

På nesten alle mac maskiner kan man gå i systemvalg og stille maskin på enten høy ytelse eller automatisk og redusert, og det funker sykt bra.

Endret av iMac
Lenke til kommentar

Overklokking av mac, vel det går an hvis du flasher firmwaren. Men det er ikke noe som anbefalles, Mac os x klarer ikke å boote opp hvis jeg ikke husker helt feil. Så det er ingen som gjør det. Men det er jo ikke akkurat noen som klokker en operton heller.

 

Dette vil nok hjelpe salget MYE siden den siste powermac oppdateringen var ikke så kraftig som forventet sammen med at apple går over til intel. PPC970MP dualcore versjonen av G5 aka PPC970(fx)/(gx) har jo vært lansert en stund nå. Ytelsen på dualcore bør være ganske gra siden G5 er en lightversjon av POWER 4+ som er en dualcore prossesor.

 

Eller så vil nok dette føre powermacene tilbake på ytelsestronen etter at operton kom i dualcore versjon. Siden G5 og egentlig alle PPC porssesorer er så mye mindre, så kan vi nok regne med at prisen kommer til å være utrolig lave i forhold til tilsvarende prossesorer i dag.

 

iMac: Litt for overivrig?

 

EDIT: En ny verden av multitasking? Hyggelig at den som har skrevet artikkelen aldri har prøved en mac. ;) Har såfall ikke prøved en mac mye.

Endret av Macfan
Lenke til kommentar

50% til 80 ytelsesøkning høres litt i beste laget ut når en går fra 2 til 4 kjerner. Mesteparten av applikasjonene vil tjene absolutt ingenting. Noen få, altså de som er lastbalanserte på mer enn to tråder, vil vel toppe ut rundt 50% til 80% skulle jeg tro.

 

 

Her er noen skalerings data fra en Opteron test på xbitlabs.com:

http://www.xbitlabs.com/articles/cpu/display/opteron-ws.html

 

3ds max 7,SPECapc, CPU render:

1-way to 2 way: 1.77 to 2.44; 68.9%

1-way to 4-way: 1.77 to 3.6 ; 50.8%

 

Maya 6.5, Zoo Render Benchmark, sec

1-way to 2 way: 108.99 to 71.39; 68.9%

1-way to 4-way: 108.99 to 37.02; 64.1%

 

Lightwave [8], Tracer-Radiosity, sec

1-way to 2 way: 331.1 to 214.6; 70.4%

1-way to 4-way: 331.1 to 127.4; 46.1%

 

Jeg har liten tro på at vi vil se noen maskiner som skalerer nevneverdig bedre med det første.

Lenke til kommentar

Alle apple sine aplikasjoner er optiamliert på flere kjerner. Apple er vel de som har holt på lengst med to kjerner som kraftig desktop løsning. Siden tidelig G4 dager så hadde de som standard dual prossesorer som top valg.

 

Mac os X ( tiger er optimalisert på 16 tråder) er jo også høyt optimalisert på akkurat dette. Og alle de tyngre pro programmene, som CS2 Quark osv. Dette sammen med at PPC970 er laget for å kunne skalere oppover i antall prossesorer på en MYE bedre måte en eks opteron. Se eks Big Mac på det universitete i usa.

Hentet fra ars http://arstechnica.com/articles/paedia/cpu/ppc970.ars/2

This difference in clockspeed headroom reflects a fundamental difference in the approaches of the PPC 970 and the Pentium 4. As is evidenced by the enormous power requirements that go along with its high clock speed, the P4 is really aimed at single-processor desktop systems. Sure, Intel sells the P4 Xeon for use in 2-way and 4-way server setups, but the price and power consumption of such machines restrict them primarily to the server closet. The PowerPC 970, on the other hand, is designed from the ground up with multiprocessing in mind--IBM intends to see the 970 used in 4-way or higher desktop SMP systems. So instead of increasing the performance of desktop and server systems by using a few narrow, very high clockspeed, high power CPUs IBM would rather see multiple, slower but wider, lower power CPUs ganged together via very high-bandwidth connections. (This, incidentally, is the philosophy behind IBM's upcoming Cell processor for the PS3. I'm not suggesting here that the two projects are directly connected, but I would say that they embody some of the same fundamental design values.)
Endret av Macfan
Lenke til kommentar
Alle apple sine aplikasjoner er optiamliert på flere kjerner. Apple er vel de som har holt på lengst med to kjerner som kraftig desktop løsning. Siden tidelig G4 dager så hadde de som standard dual prossesorer som top valg.

 

Mac os X ( tiger er optimalisert på 16 tråder) er jo også høyt optimalisert på akkurat dette. Og alle de tyngre pro programmene, som CS2 Quark osv.

Det er nok noe i at de har mye erfaring med software for flerprosessorløsninger og de har nok et ganske godt utvalg på workstation siden, men hva ytelse angår så er situasjonen neppe noe bedre her enn andre plasser.

Dette sammen med at PPC970 er laget for å kunne skalere oppover i antall prossesorer på en MYE bedre måte en eks opteron. Se eks Big Mac på det universitete i usa.
Det er bare pølsevev. Det er ingen av dagens kjerner som har noen spesielle funksjoner som tillater bedre skalering. Det eneste som kan spille inn er SMT implementasjonene i Xeon og Power5, men disse vil kreve at en kjører dobbelt så mange tråder og ytelsesgevinsten er derfor sterkt avhengig av at problemet er lett parallelliserbart. Dagens kjerner har nesten ingen mulighet til å påvirke skaleringen i et system. Det vil imidlertid komme en liten endring til denne situasjonen med speculative precomputation men det er foreløpig på et beta stadium og det vil kreve en eller annen form for hardware støttet flertråding per kjerne for å fungere effektivt.

 

Skalering på flerprosessorsystemer er i bunnen begrenset av Amdahl's lov. Den er det umulig å omgå og forutsetningene her legges ultimat sett ved algoritme stadiet i utviklingen. Etter det er det opp til programmererne å ikke somle bort for mye i den eksakte implementasjonen av algoritmen og så er det opp til hardware å ikke ha for høy kommunikasjons overhead. En kan imidlertid ikke kompensere for suboptimale algoritmer og softwareimplementasjoner med smart hardware. Kommunikasjon på PPC970 er ikke ulikt de siste Xeon baserte systemene med dual independent FSB. Løsningen er nokså god. Den er bedre enn Opteron løsningen i noen tilfeller, men regelen er at den løsningen benyttet i Opteron skalerer best. Dette gjelder opp til 2 eller 4 way systemer som er typisk størrelse for shared memory noder. Denne "Big Mac" maskinen er et stort cluster med mange slike noder koblet sammen i et nokså ordinært nettverk. Det er overhodet ingenting ved kjernen i prosessorene som kan påvirke skaleringen i slike clustere. Selv ikke speculative precomputation vil kunne påvirke skaleringen til et cluster i nevneverdig grad, men det vil antagelig kunne ha nokså stor påvirkning på skaleringen i store shared memory systemer.

Endret av Anders Jensen
Lenke til kommentar
Alle apple sine aplikasjoner er optiamliert på flere kjerner. Apple er vel de som har holt på lengst med to kjerner som kraftig desktop løsning. Siden tidelig G4 dager så hadde de som standard dual prossesorer som top valg.

 

Mac os X ( tiger er optimalisert på 16 tråder) er jo også høyt optimalisert på akkurat dette. Og alle de tyngre pro programmene, som CS2 Quark osv.

Det er nok noe i at de har mye erfaring med software for flerprosessorløsninger og de har nok et ganske godt utvalg på workstation siden, men hva ytelse angår så er situasjonen neppe noe bedre her enn andre plasser.

Teoretisk ytelse er en ting, men poenget er jo at forskjellige program faktisk kan benytte seg av flere cpuer. På mac har man hatt flercpu-system som "standard" en stund, og programmene er mer tilrettelagt til dette. På PC har jeg inntrykk av at fler-cpu system som workstations er noe av en kuriositet, og at softwareprodusentene ikke har fokusert på dette.

Det er ingen av dagens kjerner som har noen spesielle funksjoner som tillater bedre skalering. Det eneste som kan spille inn er SMT implementasjonene i Xeon og Power5, men disse vil kreve at en kjører dobbelt så mange tråder og ytelsesgevinsten er derfor sterkt avhengig av at problemet er lett parallelliserbart. Dagens kjerner har nesten ingen mulighet til å påvirke skaleringen i et system. Det vil imidlertid komme en liten endring til denne situasjonen med speculative precomputation men det er foreløpig på et beta stadium og det vil kreve en eller annen form for hardware støttet flertråding per kjerne for å fungere effektivt.

Om programmene er tilrettelagt for det så må da vel ppc970 og opteron ha en fordel foran for eksempel Intels Xeon i fler-cpu maskiner? Feks Opteron sin "Direct Connect Architecture"/hypertransport skalererer da mer effektivt en Xeon sin løsning?
Lenke til kommentar
Alle apple sine aplikasjoner er optiamliert på flere kjerner. Apple er vel de som har holt på lengst med to kjerner som kraftig desktop løsning. Siden tidelig G4 dager så hadde de som standard dual prossesorer som top valg.

 

Mac os X ( tiger er optimalisert på 16 tråder) er jo også høyt optimalisert på akkurat dette. Og alle de tyngre pro programmene, som CS2 Quark osv.

Det er nok noe i at de har mye erfaring med software for flerprosessorløsninger og de har nok et ganske godt utvalg på workstation siden, men hva ytelse angår så er situasjonen neppe noe bedre her enn andre plasser.

Teoretisk ytelse er en ting, men poenget er jo at forskjellige program faktisk kan benytte seg av flere cpuer. På mac har man hatt flercpu-system som "standard" en stund, og programmene er mer tilrettelagt til dette. På PC har jeg inntrykk av at fler-cpu system som workstations er noe av en kuriositet, og at softwareprodusentene ikke har fokusert på dette.

Jeg tror ikke vi skal begynne å innbille oss at Mac på noe som helst vis har hatt nevneverdig forsprang på Xeon/opteron i workstation segmentet bare fordi en også kan få langt enklere x86 systemer til desktop.

Det er ingen av dagens kjerner som har noen spesielle funksjoner som tillater bedre skalering. Det eneste som kan spille inn er SMT implementasjonene i Xeon og Power5, men disse vil kreve at en kjører dobbelt så mange tråder og ytelsesgevinsten er derfor sterkt avhengig av at problemet er lett parallelliserbart. Dagens kjerner har nesten ingen mulighet til å påvirke skaleringen i et system. Det vil imidlertid komme en liten endring til denne situasjonen med speculative precomputation men det er foreløpig på et beta stadium og det vil kreve en eller annen form for hardware støttet flertråding per kjerne for å fungere effektivt.

Om programmene er tilrettelagt for det så må da vel ppc970 og opteron ha en fordel foran for eksempel Intels Xeon i fler-cpu maskiner? Feks Opteron sin "Direct Connect Architecture"/hypertransport skalererer da mer effektivt en Xeon sin løsning?
Det er det ingen fasitsvar på. Som tidligere nevnt så er det avhengig av applikasjonstype. Hva slags skalering du snakker om er også viktig her. Snakker du om singel core til dual core i 1S systemer eller snakker du om større systemer med mange sokler. I såfall hvor mange? IBM X3 chipsettet gir per i dag den beste skaleringen til 8S og 16S for x86 som er å oppdrive. Dette chipsettet er bygd for Xeon...

 

Som sagt det er lite om noen ting ved selve kjernene som er viktig for skaleringen. Det som teller er SMT støtte (ikke alltid en fordel) og masse cache for redusering av gjennomsnittlige tilgangstider samt at cache reduserer behovet for båndbredde i maskinens nettverk.

 

Hypertransport er en god link som bidrar til å redusere kostnadene for kommunikasjon internt i maskinen, særlig for 1S til 4S konfigurasjoner. PPC970 har som du vet ikke dette. Det er heller ikke mulig å trosse Amdahls lov om linken din er aldri så hyper.

 

Hvis du virkelig vil se hva som kan gjøres for å oppnå optimal skalering, (altså så tett opptil Amdahl som mulig) så ville jeg tatt en titt på den kommende kombinasjonen av Montecito med multithreading, Fujitsu sitt 170GB/s switch baserte chipset og ICC9.x med speculative precomputation. Der har du tre teknikker som jobber sammen om å skalere best mulig på et bredest mulig applikasjonsutvalg.

Endret av Anders Jensen
Lenke til kommentar

Jeg tror ikke vi skal begynne å innbille oss at Mac på noe som helst vis har hatt nevneverdig forsprang på Xeon/opteron i workstation segmentet bare fordi en også kan få langt enklere x86 systemer til desktop.

Det eneste jeg sier er at det nok har vært et større software-fokus mot flerprosessor-system enn på pc-siden. Flerprosessor-system ble mye mer brukt på mac, bla for å kompensere for manglende ytelse på G4-prosessoren.

Om programmene er tilrettelagt for det så må da vel ppc970 og opteron ha en fordel foran for eksempel Intels Xeon i fler-cpu maskiner? Feks Opteron sin  "Direct Connect Architecture"/hypertransport skalererer da mer effektivt en Xeon sin løsning?
Det er det ingen fasitsvar på. Som tidligere nevnt så er det avhengig av applikasjonstype. Hva slags skalering du snakker om er også viktig her. Snakker du om singel core til dual core i 1S systemer eller snakker du om større systemer med mange sokler. I såfall hvor mange? IBM X3 chipsettet gir per i dag den beste skaleringen til 8S og 16S for x86 som er å oppdrive. Dette chipsettet er bygd for Xeon...

Alt er relativt. jeg snakker først og fremst om flersokkel-systemer der båndbredde blir en flaskehals. Hvordan løser IBM X3 slike situasjoner ifht til de "tradisjonelle" Xeon chipsettene da?

Det som teller er SMT støtte (ikke alltid en fordel) og masse cache for redusering av gjennomsnittlige tilgangstider samt at cache reduserer behovet for båndbredde i maskinens nettverk.
Bruken av cache blir da også avhengig hvor bra båndbredden er. Greit nok å pøse på med masse cache, men så blir ting veldig dyre på den måten også.

Hypertransport er en god link som bidrar til å redusere kostnadene for kommunikasjon internt i maskinen, særlig for 1S til 4S konfigurasjoner. PPC970 har som du vet ikke dette. Det er heller ikke mulig å trosse Amdahls lov om linken din er aldri så hyper.

?? Bruker ikke feks Powermac hypertransport? Endret av ibrotha
Lenke til kommentar

Jeg tror du har litt problemer med å se x86 markedet for mer enn desktop systemer. Det er uten tvil gjort mest for flertråding på x86, noe en kan påstå om nærsagt hvilket som helst utviklingsområde innen software. x86 er så domminant at utviklingen her setter de fleste andre i dvergeperspektiv uansett.

 

Når det gjelder IBM x3 så er trikset veldig enkelt. De bare reduserer antall sokler per FSB og øker antall FSBer i systemet. Dette gjøres også på dagens Intel chipset som f.eks E8500. Dety er ikke lengre standrd med 4 sokler per FSB for Xeon MP men 2 sokler per FSB. I tillegg har IBM gjort neon optimaliseringer på cache coherency som gjør de litt bedre enn konkurrentene.

 

At mer cache skulle "være avhengig av hvor bra båndbredden er" er en påstand jeg ikke forstår. Hva la du egentlig i det? Mer cache reduserer båndbreddebehovet i de vanlige tilfellene.

 

Powermac bruker vel HT til I/O? Ikke til CPU <-> minne kommunikasjon. Da vil den heller ikke ha nevneverdig påvirkning til N-way cpu skalering siden den ikke havner internt i det skalerte systemet.

Lenke til kommentar

Angående skalering så har jo prossesoren noe å si, hvis en prossesor har felles FSB med alle de andre så er det negativt. Har den mye L3 og L2 så er det posetivt.

 

Angående programm vare så er nok det som avgjør, hvor mye mer ytelse du vil få. Der kan jo du se på antall prosent av programmene som har mulithreading på mac os x og på win xp. Tror ikke det blir noe gode tall på xp. Men med mac os x så har xcode eks lagt til rette på en veldig god måte slik at du legger in mulithreading. Selve Mac os x er også multithreadet, så du har tilgang til et os som er optimalisert samt nesten alle programvarene som er det. Det har du ikke på win siden såfall.

 

Jeg holder fast på at en prossor kan være tilrettelagt skalerbarhet. Og der er PPC970 konge på haugen. IBM sine superclustere bygger på PPC970. Derfor så er det både et hardware og et software messig grunn til at apple sin powermac vil få et større boost av dualcore en tilsvarende X86 system. Men jeg tviler det blir mer enn max 3-9%.

 

EDIT: du editet litt så må jeg gjøre det. :p

 

Skalering på flerprosessorsystemer er i bunnen begrenset av Amdahl's lov.

Tingen er vel at det er ikke så mange prossesorer som klarer å komme opp i den ytelsen som du skulle ha fått med Amdahl`s lov. Og der tror jeg at PPC970MP vil komme næremere sin max ytelse (den ytelsen de skulle ha fått i forhold til almdahl`s lov) enn det eks Xeon gjør.

 

Selve POWERPC arkitekturen er jo også basert på at de skal være i et multi prossesor miljø. Derfor har de kommet med flere løsninger som hindrer større tap av ytelse ved skalering.

 

http://www.bayarea.net/~kins/AboutMe/CPUs.html Her kan jo du se litt.

Endret av Macfan
Lenke til kommentar
på 2GHz G5 cpu trenger man ikke og overklokke det kan jeg love deg for den har så mye power at det nesten er kjedelig. Men det er klart at Os x gjør at alt som man jobber med går mye raskere. Og enda bedre vil det bli når Apple går over til Intel :cool:
Av ren nysjerrighet, noen som vet hvordan det er med overklokking og mac?

På nesten alle mac maskiner kan man gå i systemvalg og stille maskin på enten høy ytelse eller automatisk og redusert, og det funker sykt bra.

Halleluja......

Lenke til kommentar

Ok nå er det på tide med noen begrepsavklaringer. "prosessor" er i disse dager et noe ullent begrep og jeg liker ikke å bruke det i denne sammenhengen. "kjerne" eller "core" er klart definert. Det er hele execution pipelinen med all styringslogikk samt L1 cache. Lavere nivå cache, og interconnect som HT, Intels FSB eller Apples FSB er ikke en del av core.

 

Nyøaktig hva som skulle være unikt for PPC970 kjernen og som skulle hjelpe på skaleringen beats me. Jeg ser heller ikke hvorfor DIB maskinarkitekturen for 2S systemer skulle gi nevneverdig fordel.

 

Forøvrig er alle moderne OS flertrådet...

Endret av Anders Jensen
Lenke til kommentar
Jeg tror du har litt problemer med å se x86 markedet for mer enn desktop systemer. Det er uten tvil gjort mest for flertråding på x86, noe en kan påstå om nærsagt hvilket som helst utviklingsområde innen software. x86 er så domminant at utviklingen her setter de fleste andre i dvergeperspektiv uansett.

Fokuset mitt var på applikasjoner som går på desktop, ja. Fortrinnsvis OSX. Når det er sagt så er powerpc970 mye brukt i løsninger fra feks IBM. At utviklingen er i et dvergeperspektiv i fht x86 er vel litt drøyt, iom at linux er tilgjengelig for flere plattformer. Mare Nostrum bruker feks ppc 970 prosessorer og kjører linux.

At mer cache skulle "være avhengig av hvor bra båndbredden er" er en påstand jeg ikke forstår. Hva la du egentlig i det? Mer cache reduserer båndbreddebehovet i de vanlige tilfellene.

Har du større båndbredde minker noe av behovet for cache. Det blir den siste setningen din i et annet perspektiv.

Powermac bruker vel HT til I/O? Ikke til CPU <-> minne kommunikasjon. Da vil den heller ikke ha nevneverdig påvirkning til N-way cpu skalering siden den ikke havner internt i det skalerte systemet.
Jo, du har rett. Svevde i villfarelsen om at hypertransport var på CPU-Minne delen. Endret av ibrotha
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...