Gå til innhold

Ny AMD-prosessorkjerne i 2007


Anbefalte innlegg

Avtalen mellom Apple og Intel gjelder nok bare at Apple-maskiner skal bli utstyrt utelukkende med Intel CPUer, ikke at det skal bli umulig å innstallere MAC OS på en AMD-basert PC.

Er det ikke en viss fare for en slags hardware-test som kjøres i starten av Mac OS-installering, som finner ut om maskinen er "Intel/Apple-approved" eller noe sånt? Det frykter ihvertfall jeg.

Tja, man skal aldri si aldri. Dette skjedde jo med Windows på 80-tallet en gang. (Den gangen Windows var et program og ikke et OS) Microsoft la inn en sperre som gjorde at Windows bare kunne kjøre på Microsofts eget MS-DOS, selv om andre typer DOS, som RD-DOS var fullt kompatibelt.

 

IF OS /= MS-DOS THEN give errormessage ELSE run Windows

 

Dette ble ikke avslørt før over et tiår etter at RD-DOS hadde gått dukken. Likevel ble det rettsak og Microsoft tapte så det sang for konkurransefientlig oppførsel og missbruk av markedsposisjon. Det er ikke så mange år siden rettsaken gikk. Tror det var ca rundt år 2000.

Lenke til kommentar
Videoannonse
Annonse

Det er mange tema her som jeg kunne tenkt meg å kommentere, men skal prøve å begrense meg. Hvor mange kjerner kan gamle mor nyttigjøre seg? Dette spørsmålet tror jeg ikke er så lett å svare på. Tallet 16 har vært nevnt som for stort. Tallet 16 ble også nevnt i sin tid som et magisk tall for linux-klynger, fordelte man en oppgave mellom flere enn 16 prosessorer gikk vinninga opp i spinninga p.g.a. tidsbruk til message passing mellom nodene. Dette gjelder selvfølgelig ikke alle typer oppgaver, men det er heller ikke alle typer oppgaver de klyngene ble brukt til. AMD påstår at god parallellisering tar +10 år, men det er slevfølgelig basert på historiske erfaringer, ikke fremtiden. For å forstå nåtiden, selv innen IT, tror jeg det er nyttig å se lengre bakover: På slutten av 1600-tallet var det kun de fremste matematikere/fysikere i verden som behersket kunsten å integrere en funskjon, i dag kan enhver videregående elev med noe mellom øra gjøre det med letthet.

 

Parallellisering har vært forbeholdt eliten, men den kommer nå til massene, med det også økt innsats. hva er vitsen med å parallellisere en applikasjon når det eneste kunden tjener er 10-20% ytelsesøkning på utvalgte Intel CPU'er? Kanskje ikke så rart man ikke har sett den helt store iveren hos utviklere.

 

Så hvor mange prosesser kan man egentlig nyttiggjøre seg? Som Simen1 sier er ikke alle oppgaver mulig å parallellisere, eks. beregning av Fibonacci tallene. Men det er faktisk veldig mye som kan parallelliseres, og det problemet hvor dette kanskje har fått mest fokus, er ved løsning av koblede systemer av partielle differensiallikninger (f.eks. ved beregning av værmeldinga). Typisk et problem hvor 16-prosess grensa gjorde seg gjeldende (altså problemer som er veldig langt fra "embarrasingly parallel"). I dag ser vi i økende grad at numerikere tar parallelliseringen på alvor, og utvikler nye metoder deretter. Resultat: Et system PDE som tidligere knapt nyttiggjorde seg 10 CPU'er, og trigget investeringer i dyre shared memory maskiner, kan vi se eksempler på at skalerer nesten linært opp til 64 CPU'er på linux-klynge i dag.

 

Mitt poeng: Det som ser veldig vanskelig ut i dag, kan man få gode (og ofte enkle)løsninger på over tid (og innen data har det en tendens til å gå fort). Hvilken arkitektur har jeg egentlig ikke noen klar visjon om, det vil markedet og de store aktørene bestemme.

 

Å legge til SPU'er er sikkert en god ide, og et alternativ, eller kanskje mer sannsynlig et suplement til flere kjerner. Dagens x86 har jo tross alt allerede fått en del SPU'er lagt til arkitekturen.

Endret av Del
Lenke til kommentar
Kunne ikke AMD, Intel, IBM, Sun, OpenSource-bevegelsen, spillindustrien og resten av verden gå sammen om å lage en helt ny arkitektur (ikke x86, RISC etc.) som ikke har noen av de dårlige sidene til eldre arkitekturer og er helt fantastisk kraftig, kjølig osv? "Supermaskin til folket" og "system on chip" er velkomment.  :D

Ja og så kan de ta og drite i R&D de har brukt så langt, samt kompabilitet. For ikke å glemme at det er umulig å ha en arkitektur som er best på alt. Det du beskriver hører hjemme i Babylone 5.

Jeg skal ikke legge skjul på at jeg ikke har peiling, og jeg spøkte litt, men jeg skjønner ikke hvordan du kan si at én "grunnarkitektur" (ISA?) ikke kan være best til alt. Jeg mener, best til lomme-PC, bærbar, stasjonær, HTPC, server, supermaskin. Det handler bare om å gjøre den fleksibel nok (det finnes for eksempel x86-CPU-er i alle segmentene jeg nevner, hvis jeg ikke tar feil)... Med variabelt antall SPU-er (det er kanskje ikke ISA, men likevel) som kan lære nye instruksjonssett og sånt (nå snakker jeg virkelig om ting jeg ikke har peiling på), asynkron prosessering osv.. For alt jeg vet kan det godt hende at for eksempel MIPS, Alpha eller IA64 kan fikses litt på til å møte alle disse kravene, men pris er jo også noe man burde ta med i betraktningen når man lager noe nytt som skal ta over. Cell har lite cache, derfor er den billigere enn dyr (noe sånt har jeg lest)...

 

Simen1: SPU-ene til Cell er like hverandre, hva slags nyttig spesialitet har de egentlig?

Lenke til kommentar
  • 2 måneder senere...
Simen1: SPU-ene til Cell er like hverandre, hva slags nyttig spesialitet har de egentlig?

Beklager utrolige 3 måneder sen tilbakemelding :p (Jeg hadde lyst å svare likevel)

 

SPU forklares slik:

Synergistic Processor Unit (SPU) Instruction Set Architecture V1.0 -- Somewhere between a general-purpose processor and special-purpose hardware lies the Cell SPU: designed to provide leadership performance in game, media, and broadband applications, this document describes the Application Binary Interface (ABI) of the Synergistic Processor Unit (SPU). Get to know all of its instructions. (PDF -- requires registration)

 

og slik:

The Cell processor from Sony, Toshiba and IBM is this year's most awaited newcomer on the CPU market. It promises unprecedented performance in the consumer and workstation market by employing a radically new architecture. Built around a 64 bit PowerPC core, multiple independent vector processors called Synergistic Processing Units (SPUs) are combined on a single microprocessor.

 

Unlike existing SMP systems or multi-core chips, only the general purpose PowerPC core, is able to run a generic operating system, while the SPUs are specialized on running computational tasks. Porting Linux to run on Cells PowerPC core is a relatively easy task because of the similarities to existing platforms like IBM pSeries or Apple Power Macintosh, but does not give access to the enormous computing power of the SPUs.

 

Only the kernel is able to directly communicate with an SPU and therefore needs to abstract the hardware interface into system calls or device drivers. The most important functions of the user interface including loading a program binary into an SPU, transferring memory between an SPU program and a Linux user space application and synchronizing the execution. Other challenges are the integration of SPU program execution into existing tools like gdb or oprofile.

 

A model has been proposed to provide an interface that attempts to integrate well into the existing set of Linux system calls and enable software authors to easily integrate the use of SPUs into their own libraries and applications.

 

SPU er altså små kjerner med sterkt reduserte instruksjonssett og sterkt redusert i antall forskjellige oppgaver. Dette gjør at kjernene blir mye enklere bygget opp for å takle et lite antall veldig spesifikke oppgaver svært effektivt. Omentrent som prinsippet "å gjøre lite veldig raskt" i stedet for "å gjøre mye veldig tregt".

 

GPU er eksempler på en type SPU. GPU'er er utfører enkle og bestemte oppgaver i svært raskt rekkefølge massivt parallellt (mange pipelines kan tolkes som mange kjerner som jobber parallellt). GPU'er yter ekstremt mye mer enn CPU'er (ca 100 ganger raskere) men på stor bekostning av typer oppgaver den kan utføre. En CPU kan gjøre grafikk (tregt), mens en GPU ikke har i nærheten av stort nok instruksjonssett til å være så fleksibel i oppgaver som en CPU.

 

SPU'ene i Cell er altså en type enheter som kun gjør et lite utvalg spesialiserte oppgaver og dermed får ekstrem ytelse på disse oppgavene. En slags massiv parallell beregningsenhet.

 

Jeg er ikke helt sikker på hvilke oppgaver i spill og programmer som utføres i SPU'ene men regner med det er f.eks triangeloppsett, encoding/decoding av MPEG mm. Mens mer inviklede ting som å kjøre OS'et, grener, fysikk, infløkte oppgaver mm. gjøres i PPE-delen av kjernen. Jeg er litt ute på tynn is her, men håper det gir en viss pekepinn på hva som gjøres hvor. :)

Lenke til kommentar
  • 2 måneder senere...

InfoWorld har en interessant artikkel vedrørende den nye prosessorkjernen som AMD kommer med i 2007:

 

AMD aims for four-core Opterons by 2007

AMD will introduce a new core design in 2007 that is similar to the core used by the company's Opteron and Athlon 64 processors, said Phil Hester, vice president and chief technology officer at AMD

[...]

The new processor will incorporate four cores connected together by a new version of the Hypertransport interconnect technology, and will support DDR3 (double data rate 3) memory, he said

[...]

The server version of this chip will add a third level of cache memory to AMD's processors, allowing server designers to build systems with 16 and 32 processors, Hester said.

[...]

The third level of cache memory will allow 32-processor Opteron servers without the need for external logic to coordinate the cache memory on those processors. AMD partner Newisys Inc. introduced a chipset on Monday that can support 32-processor servers, but it requires special logic that won't be necessary with the 2007 processor, Hester said.

 

AMD will make relatively modest changes to its Opteron and Athlon 64 processors in 2006. The company will add support for DDR2 memory with the introduction of a new processor in the middle of 2006. That chip will also use a new socket technology called M2, which uses a different pin structure than the 939 socket currently used on most Opteron and Athlon 64 processors.

 

The new socket technology is required to let AMD customers upgrade systems based on the 2006 dual-core processor to the 2007 quad-core processor, an AMD spokesman said. The 2006 processors will require new motherboards compared to today's Opteron processors, but the socket change will allow customer to drop quad-core processors into systems bought after the middle of 2006, the spokesman said.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...