Gå til innhold

Ny AMD-prosessorkjerne i 2007


Anbefalte innlegg

"Videre vil det bli innebygd finesser for virtualisering og diverse sikkerhetsfunksjoner."

 

Håper ikke "sikkerhetsfunksjoner" er bullshit-prat for DRM.

 

AtW

AMD er vel ikke "forpliktet" til å benytte DRM?

Det er vel mulig, men dog ganske usannsynlig, at Microsoft krever at DRM skal være implementert for at Longhorn skal kunne installeres. Og hvis da Longhorn blir en voldsom suksess (slik ser det jo ikke ut idag) blir jo AMD nødt til å støtte det.

Endret av Anderssb
Lenke til kommentar
Videoannonse
Annonse
"Videre vil det bli innebygd finesser for virtualisering og diverse sikkerhetsfunksjoner."

 

Håper ikke "sikkerhetsfunksjoner" er bullshit-prat for DRM.

 

AtW

AMD er vel ikke "forpliktet" til å benytte DRM?

Det er mulig, men dog ganske usannsynlig, at Microsoft krever at DRM skal være implementert for at Longhorn skal kunne installeres.

Isåfall skuffer M$ nok en gang.

Lenke til kommentar

x86 er x86. Funker et fremtidig MAC OS på Intels x86 CPUer så funker det nok også på AMDs x86 CPUer. Instruksjonssettene er kompatible.

 

Avtalen mellom Apple og Intel gjelder nok bare at Apple-maskiner skal bli utstyrt utelukkende med Intel CPUer, ikke at det skal bli umulig å innstallere MAC OS på en AMD-basert PC.

Lenke til kommentar
x86 er x86. Funker et fremtidig MAC OS på Intels x86 CPUer så funker det nok også på AMDs x86 CPUer. Instruksjonssettene er kompatible.

 

Avtalen mellom Apple og Intel gjelder nok bare at Apple-maskiner skal bli utstyrt utelukkende med Intel CPUer, ikke at det skal bli umulig å innstallere MAC OS på en AMD-basert PC.

Det kan hende at Apple legger inn noe ondt for at man ikke skal kunne bruke OSX på andre maskiner enn deres egne, eller har jeg gått glipp av noe?

 

Kunne ikke AMD, Intel, IBM, Sun, OpenSource-bevegelsen, spillindustrien og resten av verden gå sammen om å lage en helt ny arkitektur (ikke x86, RISC etc.) som ikke har noen av de dårlige sidene til eldre arkitekturer og er helt fantastisk kraftig, kjølig osv? "Supermaskin til folket" og "system on chip" er velkomment. :D

Endret av ehasl
Lenke til kommentar
x86 er x86. Funker et fremtidig MAC OS på Intels x86 CPUer så funker det nok også på AMDs x86 CPUer. Instruksjonssettene er kompatible.

 

Avtalen mellom Apple og Intel gjelder nok bare at Apple-maskiner skal bli utstyrt utelukkende med Intel CPUer, ikke at det skal bli umulig å innstallere MAC OS på en AMD-basert PC.

Det kan hende at Apple legger inn noe ondt for at man ikke skal kunne bruke OSX på andre maskiner enn deres egne, eller har jeg gått glipp av noe?

 

Kunne ikke AMD, Intel, IBM, Sun, OpenSource-bevegelsen, spillindustrien og resten av verden gå sammen om å lage en helt ny arkitektur (ikke x86, RISC etc.) som ikke har noen av de dårlige sidene til eldre arkitekturer og er helt fantastisk kraftig, kjølig osv? "Supermaskin til folket" og "system on chip" er velkomment. :D

Ja og så kan de ta og drite i R&D de har brukt så langt, samt kompabilitet. For ikke å glemme at det er umulig å ha en arkitektur som er best på alt. Det du beskriver hører hjemme i Babylone 5.

 

Angående at X86 og instruksjons settene så er de kompatible, på samme måte som xbox og en pc bruker x86. Ser du så mange som ikke er nørder som har linux på den nope, de folkene er et lite mindretall og apple har råd i å drite i dem. Samt at det kan være en hw sperre aka briz brikke. Men dette er vel OT.

 

Det jeg synes er helt spektaulært er at AMD satser bare på X86, dette gir de jo begrensninger på en helt annen måte enn de som har flere arkitekturer på bak rommet og de som har noen akritektuere som skalere på en helt annen måte enn X86. Det er jo på grensen til idioti og å ha alle eggene i en kurv, de bør ha et hemmelig veikart for en anne arkitektur. Eller ha noen planer for å gå over på enn annen arkitektur når X86 dør. Eks sun sin sparc så kan vi få enda flere inside jack episoder. :w00t:

 

Kanskje de bør ta og fixe en cpu som er 1 kjerne og som yter desent bra. Det er jo så få i dag som trenger en kraftig cpu, selfølgeig er det slik at i fremtiden vil kravene bli større og da vil vi trenge det MEN når i dag folk klare seg fint med 2-5 år gamle cpuer da er noe gått veldig galt, aka win har ikke lansert et nytt os :p

 

Angående antall kjerner og nytterverdien av det så er et vel slik at det kommer fort opp det det steget at en ekstra kjerne ikke hjelper det ene programet og kan yte dårligere til og med. Men hvis det er 16 programer opp så og OSet er god så kan hvert program få sin egen kjerne å koses seg på. Selv om det i nærmeste fremtid er ovbekill.

 

Den måten jeg tenker på angående datamaskiner er at al den regnekraften de brukte til apollo ferdene til månen har du i dag på en kalkulator. Hvis vi tar og overføre denne visdomen så gjør at det jeg mener er at å se inn i fremtiden både når det gjelder bruk og kraft er umulig. Men det er en kapitalistisk verden vi lever i, etterspørsel og tilbud. Er det etterspørel etter en kraftigere datamaskin? Vil vi se en endring i etterspørselen etter som de fleste ikke kommer til å føle noen forskjell når de bytter inn sin mid-line maskin i dag og til og med dagen før longhorn kommer. Win har skapt et tomrom av kraft som nestne ingen har bruk for, hva vil skje hvis det ikke skjer noe før 4Q 2006? Og vil ikke krymping vil gi et mareritt angående kjøling, det vi har sett så langt er at flere prossesorer har reagert negativt på 130nm til 90nm angående watt/ mm^2. Hvorfro vil ikke dette problemet bli større på 65nm? Feilprosenten på dualcore og oppover må jo også være etter hvert som du kommer opp enorme.

 

DRM har blitt opphypet og nedhypet, hva som vil skje hvis the worst case scenario oppstår er ikke lett å si. Det vil jo være umulig å både 100% beskytte noe der den også skal vise frem noe. Kunder kjøper ikke en film i en safe de ikke har nøkelen til. Å tro at AMD skal være frelseren i denne saken er å tro på tannfeen. DRM hva nå det enn viser seg å bety vil neppe være en så dramatisk ting som mange her tror. Hyggelig å se at operton tar og øker sine andeler, men det er vil ikke så rart side det er helt tydelig at det er satsingsområdet til AMD. Hvis markedet hadde vært fritt på godt og vont så hadde nok AMD hatt en enda større del av den kaken.

 

Hyggelig at AMD endelig tar det bærbare segmentet på alvor.

Lenke til kommentar
Kunne ikke AMD, Intel, IBM, Sun, OpenSource-bevegelsen, spillindustrien og resten av verden gå sammen om å lage en helt ny arkitektur (ikke x86, RISC etc.) som ikke har noen av de dårlige sidene til eldre arkitekturer og er helt fantastisk kraftig, kjølig osv? "Supermaskin til folket" og "system on chip" er velkomment. :D

Vel du har jo IA64... (gitt at AMD er nevnt i topic så innser jeg vel at jeg nettopp bannet i kirka) Men IA64 er Intel only. Det er veldig lite sannsynlig at noen andre enn Intel kommer til å produsere IA64 kompatible prosessorer. Selve instruksjonssettet er vel åpent, men det er så mange patenter knyttet til helt nødvendige optimaliseringer at det er rimelig låst. Det er også hensikten.

 

På den andre siden ser ikke ISA kompatibilitet ut til å bli så veldig viktig i fremtiden. Det er veldig skjelden at en koder ISA spesifikt. Java, .net og fat binaries er også muligheter. Kanskje noen graver opp Alpha eller MIPS på desktop?

Lenke til kommentar
Og vil ikke krymping vil gi et mareritt angående kjøling, det vi har sett så langt er at flere prossesorer har reagert negativt på 130nm til 90nm angående watt/ mm^2. Hvorfro vil ikke dette problemet bli større på 65nm? Feilprosenten på dualcore og oppover må jo også være etter hvert som du kommer opp enorme.

AMD har da vitterlig ikek slitt noe særlig med å gå ned i produskjonsprosess, og allerede PS3 skal jo ha 7 kjerner. Man kan jo såklart diskutere om x86 og mange kjerner er veien å gå, men det virker som om du går utifra at det ikke er noen teknologisk framgang i de innvendingene du har.

 

AtW

Lenke til kommentar
Og vil ikke krymping vil gi et mareritt angående kjøling, det vi har sett så langt er at flere prossesorer har reagert negativt på 130nm til 90nm angående watt/ mm^2. Hvorfro vil ikke dette problemet bli større på 65nm?  Feilprosenten på dualcore og oppover må jo også være etter hvert som du kommer opp enorme.

AMD har da vitterlig ikek slitt noe særlig med å gå ned i produskjonsprosess, og allerede PS3 skal jo ha 7 kjerner. Man kan jo såklart diskutere om x86 og mange kjerner er veien å gå, men det virker som om du går utifra at det ikke er noen teknologisk framgang i de innvendingene du har.

 

AtW

Å samenligne Cell kjerner med x86 er vel å dra det litt langt? Det er stor forskjell på parallel og seriell prossesering. Og det er vel 2 forskjellige kjerner i Cell 1PPE og de andre kjerne.

 

Vel om AMD har slitt eller ikke har nok mye med at K8 er overlegen P4 arkitektur messig, men så hvis de tallene jeg leser stemmer så har Watt/ mm^2 økt (load). Og selfølgelig er den en teknologisk fremgang, men jeg er bare ikke sikker på om den har livets rett å gå så amok som AMD tenker å dra det. Tror ikke at 16 kjerner er veien å gå for å si det sånn, men jeg mener også at singelcore er alt for lite, altså jeg gambler vildt på den gyldene midelvei. AMD har jo gått til å øke L2 kraftig, samt hvis du ikke ser på de idiotiske PR tallene så har ikke veksten vært så stor. Uten om dualcore da som har en ganske fornuftig pr tall, men det har mye med tilfeldighet å gjøre.

 

Men dette begynner vel å bli litt OT.

Lenke til kommentar

Watt/mm^2 vil øke. Det er en av de grunnleggende begrensningene på Moores lov. Trenker ikke nødvendigvis å øke mellom to prosessnoder men i det lange løp så vil det øke. Så er det jo også en begrensning på hvor få atomer en kan benytte i tykkelsen på et isolerende lag og i en leder uten at de mister sine elektriske egenskaper. Det er den andre grunnleggende begrensningen på Moores lov. Kan ikke komme på at det skulle være noen flere sånn i farta.

 

Disse begrensningene er helt uavhengige av uarch og ISA, men etterhvert som utviklingen virkelig begynner å stoppe opp så vil det nok bli mer aktuelt med nye konsepter for å skvise ut det lille ekstra.

 

Vi har nå fortsatt ett universelt kvantesprang til gode på CMOS design, nemlig asynkrone CPU design. Da blir i allefall MHz kapløpet lagt døtt en gang for alle...

Lenke til kommentar
Vi har nå fortsatt ett universelt kvantesprang til gode på CMOS design, nemlig asynkrone CPU design. Da blir i allefall MHz kapløpet lagt døtt en gang for alle...

Er det mulig å lage mindre funksjonelle enheter asynkrone? F.eks en liten del av en CPU og bruke buffere før og etter denne enheten? Hvilke enheter vil egne seg for å kjøre asynkront?

Lenke til kommentar
Det jeg synes er helt spektaulært er at AMD satser bare på X86, dette gir de jo begrensninger på en helt annen måte enn de som har flere arkitekturer på bak rommet og de som har noen akritektuere som skalere på en helt annen måte enn X86.

Alle ISA har sine fordeler og ulemper, og er heller ikke så viktig lenger som AMD sier det så bra her:

http://epscontest.com/presentations/05q2_a....htm?slide=24&a

 

Slide35.jpg

 

Slide39.jpg

 

Slide40.jpg

Lenke til kommentar
Og vil ikke krymping vil gi et mareritt angående kjøling, det vi har sett så langt er at flere prossesorer har reagert negativt på 130nm til 90nm angående watt/ mm^2. Hvorfro vil ikke dette problemet bli større på 65nm?  Feilprosenten på dualcore og oppover må jo også være etter hvert som du kommer opp enorme.

AMD har da vitterlig ikek slitt noe særlig med å gå ned i produskjonsprosess, og allerede PS3 skal jo ha 7 kjerner. Man kan jo såklart diskutere om x86 og mange kjerner er veien å gå, men det virker som om du går utifra at det ikke er noen teknologisk framgang i de innvendingene du har.

 

AtW

Å samenligne Cell kjerner med x86 er vel å dra det litt langt? Det er stor forskjell på parallel og seriell prossesering. Og det er vel 2 forskjellige kjerner i Cell 1PPE og de andre kjerne.

Jeg synes ikke deter å dra det så langt, de burde vel ha hatt problemer med feilprosent di også, om man får enorm feilprosent når man kladder på flere cores.

 

AtW

Lenke til kommentar
Dette nye core racet CPU produsentene setter igang nå om dagen er om mulig enda mer villedende og meningsløst enn det MHz racet vi nettopp ble kvitt.

:roll:

Bortsett fra at MHz-racet ikke kunne gjennomføres lenger pga produksjonsproblemer, før det var det helt topp. Så hva gjør man da? Man kan legge flere kjerner inn på en prosessor. Eller du går over til en ny og revolusjonerende arkitektur (Itanium? Ikke med det første).

 

Verden er heldigvis sånn innrettet at produsenter kjemper mot hverandre for å produsere det beste produktet, og et resultat av det er at vi får flere kjerner inn på samme brikke. Software-produsentene kommer etter, det kan du bite deg i rompa på, det er tross alt ikke så vanskelig å paralellisere kode...

Lenke til kommentar
Jeg synes ikke deter å dra det så langt, de burde vel ha hatt problemer med feilprosent di også, om man får enorm feilprosent når man kladder på flere cores.

Feilprosenten er en funksjon av blandt annet antall transistorer og arealet til kjernen.

 

Stort bilde av Cell

 

Cell er bygget opp av 9 kjerner, derav 1 Power-lignende kjerne, og 8 bittesmå SPU-kjerner. For å minke feilprosenten så brukes en av SPUene som redundans. Dvs. om en av SPUene kommer ut fra produksjonen defekt så gjør ikke det noe. Dette senker feilprosenten betraktelig. En enkelt x86-kjerne er mye større enn en SPU og den power-lignende kjernen. En dobbelkjerne x86 CPU vil være omentrent like stor som Cell, og det er dermed ikke plass til noen redundans. Det er nok disse tingene Macfan sikter til når han sier at Cell ikke er sammenlignbar med tanke på feilprosent, areal og kostnad.

Lenke til kommentar
Dette nye core racet CPU produsentene setter igang nå om dagen er om mulig enda mer villedende og meningsløst enn det MHz racet vi nettopp ble kvitt.

:roll:

Bortsett fra at MHz-racet ikke kunne gjennomføres lenger pga produksjonsproblemer, før det var det helt topp.

Nja det var rimelig greit. problemet er at måten en jagde frekvensen på gikk ut over IPC. siden ytelse = IPC * frekvens så sier det seg selv at det ikke er en fullkomment ideellt konsept. Problemet er at en må benytte mer transistorlogikk på akkurat samme jobben når en ønsker å øke frekvensen vha. å strekke pipelinen ergo går det med mer effekt og det er liksom ikke veldig smart å sløse med den mest begrensede ressursen.

 

Hvis du er midt ute i sahara og finner ut at du har for lite vann pakket på kamelene i forhold til farten de holder så lemper du ikke av vannet for å få de til å gå fortere...

Lenke til kommentar
Dette nye core racet CPU produsentene setter igang nå om dagen er om mulig enda mer villedende og meningsløst enn det MHz racet vi nettopp ble kvitt.

:roll: Bortsett fra at MHz-racet ikke kunne gjennomføres lenger pga produksjonsproblemer, før det var det helt topp. Så hva gjør man da? Man kan legge flere kjerner inn på en prosessor. Eller du går over til en ny og revolusjonerende arkitektur (Itanium? Ikke med det første).

MHz-løpet var fint så lenge det varte og så lenge det gikk i riktig retning: Mer ytelse. Men når det møtte veggen og økningen av MHz gikk på stor bekostning av ytelse og strømforbruk så var det åpenbart at det ikke var noe vits i å stå å stange i veggen noe mer. Det samme kommer sikkert til å skje med multiple kjerner. Man får flere og flere kjerner helt til man ser at det ikke gir noen bedre ytelse, men faktisk forverrer ytelsen, strømforbruket og prisen. Dette vil nok skje helt til kjøperene ser seg leie på at det er umulig å bruke alle kjernene nogenlunde effektivt og parallellt. Altså en møte-veggen-problematikk her også. Ny ISA har jeg heller ikke tro på med det første (i motsetning til visse andre her), men nye måter å tenke på, nye funksjonelle enheter på CPU'en (SPUer) som tar seg av flaskehalser med en rasende fart. Spesialiserte brikker, SPUer, vil alltid ha en enorm ytelsefordel over generelle CPUer. Nye utvidelser av det eksisterende x86-64 ISA tror jeg er veien å gå.

 

Bare for å ta et par eksempler på SPUer: Cell sine 7 SPUer har en sinnsyk ytelse, selv regnet per stk av dem. Dette er fordi de er så spesialiserte. Et annet eksempel er GPUer. Dette er brikker på størrelse med vanlige CPUer, med ca like mange transistorer, men med en ytelse i størrelseorden flere hundre ganger høyere, på sine spesialiserte oppgaver. Aeiga sin PhysX er også på samme måte en SPU med ekstrem ytelse på sine spesialiserte oppgaver.

 

Som Anders Jensen sier så er også asynkrone design noe som vil gjøre et kvantesprang i ytelse. Nå er det sinnsykt vanskelig å lage kompliserte asynkrone design, så hvis det lar seg gjøre å bygge små, funksjonelle enheter som f.eks en SPU asynkron så vil det gi en helt ufattelig ytelse i forhold til dagens standarder. Så selv om man har møtt er par nye vegger i labyrinten på vei mot den ultimate ytelse så er det ikke noe vits i å stå der å stange og gi opp. Veien går videre, bare i en annen retning.

 

Edit: A.J. kom meg i forkjøpet :p

Endret av Simen1
Lenke til kommentar
Jeg synes ikke deter å dra det så langt, de burde vel ha hatt problemer med feilprosent di også, om man får enorm feilprosent når man kladder på flere cores.

Feilprosenten er en funksjon av blandt annet antall transistorer og arealet til kjernen.

 

Stort bilde av Cell

 

Cell er bygget opp av 9 kjerner, derav 1 Power-lignende kjerne, og 8 bittesmå SPU-kjerner. For å minke feilprosenten så brukes en av SPUene som redundans. Dvs. om en av SPUene kommer ut fra produksjonen defekt så gjør ikke det noe. Dette senker feilprosenten betraktelig. En enkelt x86-kjerne er mye større enn en SPU og den power-lignende kjernen. En dobbelkjerne x86 CPU vil være omentrent like stor som Cell, og det er dermed ikke plass til noen redundans. Det er nok disse tingene Macfan sikter til når han sier at Cell ikke er sammenlignbar med tanke på feilprosent, areal og kostnad.

Ja, jeg skjønner hva macfan mener, men denne antakelsen baserer seg jo på at man har mange av dagens kjerner og bygger hele greia med dagens teknologi. Poenget mitt er at det åpenbart ikke er umulig å bygge en CPU med mange kjerner, og om det er planen kommer de neppe til å gjøre det på en måte som skaper "enorm feilprosent".

 

AtW

Lenke til kommentar
Vi har nå fortsatt ett universelt kvantesprang til gode på CMOS design, nemlig asynkrone CPU design. Da blir i allefall MHz kapløpet lagt døtt en gang for alle...

Er det mulig å lage mindre funksjonelle enheter asynkrone? F.eks en liten del av en CPU og bruke buffere før og etter denne enheten? Hvilke enheter vil egne seg for å kjøre asynkront?

Dette er vel strengt tatt bare pipelining. Hvert steg er asynkront internt med buffere forran og bak for synkronisering. En kan selvsagt tenke seg at en gjør større deler asynkron. Det vil tilsvare en CPU med ferre steg i pipelinen. Poenget er å bli kvitt disse bufferene hvor data ligger å venter på synkroniseringen med klokka og dermed også fjerne klokka som fort står for 25% - 35% av effektforbruket på høyytelsesdesign.

 

Har du veldig store enheter med buffere på endene vil det bare øke forsinkelsen i di tilfeller hvor en ønsker å sende data til andre enheter, altså forwarding i pipelinen. typisk resultatet fra en ALU sendes til en annen ALU som input før instruksjonen har gjort write back til cache.

Lenke til kommentar
Avtalen mellom Apple og Intel gjelder nok bare at Apple-maskiner skal bli utstyrt utelukkende med Intel CPUer, ikke at det skal bli umulig å innstallere MAC OS på en AMD-basert PC.

Er det ikke en viss fare for en slags hardware-test som kjøres i starten av Mac OS-installering, som finner ut om maskinen er "Intel/Apple-approved" eller noe sånt? Det frykter ihvertfall jeg.

 

Om det ikke blir noen slags sperrer, er det jo bare fryd og gammen! Da har ihvertfall Apple en god sjanse til å få mye større markedsandel på Mac OS.

 

En tenkt situasjon ville vært at du fortsatt får kjøpt stilige maskiner med klassisk Mac-design, selv om det sitter en Intel på innsiden. Og dersom du ikke helt har råd til det, fordi du allerede har en Windows-maskin og er lei av Microsoft, ja da kan du kjøpe Mac OS (x86) for å prøve hvor vidunderlig det er.

 

Driverproblematikk skulle vel etter hvert forsvinne med et x86-Mac OS, og programmene burde vel bli lettere å porte fra Windows til Mac OS, og omvendt.

 

Dette kan jo bli spennende saker. Men her var det mye off-topic.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...