Gå til innhold

Prosessorer med xyz-dimensjon


Anbefalte innlegg

Videoannonse
Annonse

xyz-dimensjon? Snakk om saksing fra originalsaken hos internetnews.com. Jeg pleier ikke å kommentere latterlige artikler, men dette var noe av det beste på lenge. Prosessorer designes forresten (selvfølgelig) i forskjellige lag den dag i dag, som mange andre integrerte kretser og kretskort. Poenget er vel at man skal stable transistorer oppå hverandre, og ikke bare separere datalinjer osv.? Dessuten skriver du "Fokuset har gått fra stadig høyere GHz [...]". Hertz (Hz - svinginger i sekundet) er et mål for frekvens, i denne sammenheng klokkehastighet i et oscillerende stoff. Det blir dermed tullete å snakke om at fokuset har vært på GHz, men heller på klokkehastighetene. Mer grunnleggende kunnskap er nødvendig blant flere av artikkelforfatterne. Ser for eksempel at du sammenligner OpenGL og DirectX i en annen artikkel. Det blir som å sammenligne én seigmann med en hel pakke Bamsemums. Den tredje dimensjonen er forresten på ingen måte ny. Ellers fint!

Endret av phfjeld
Lenke til kommentar

Bygging av prosessorer i høyden vil definitivt bli viktig. Jeg tror kanskje ikke følelsen av at det skal bli et "kube design" er helt riktig. Dagens prosessorer består av en silisium skive på ca 1mm tykkelse. Av dette er selve selve transistorene og kablingen bare ett tynt lag på den ene siden av brikken. Grunnen til at den ikke er tynnere enn ca 1mm er at den ville blitt for svak og kunne lett ha brukket. Om en legger på flere lag på toppen så vil ikke det nødvendigvis gjøre chipen noe tykkere da substratet kan reduseres i tykkelse uten å redusere styrken i chipen.

 

Videre vil vi vel først se at en stabler RAM på toppen av CPU heller enn å stable CPU kjerner oppå hverandre. Dels pga lettere håndtering av varmetettheten og dels pga lavere design kompleksitet.

 

Prosessorindustrien og IT-markedet ville nok også hatt godt av en spesialisering. I dag bruker man x86-arkitekturen praktisk talt til "alt" (bortsett fra tradisjonell GPU) og en vridning mot spesialprosessorer med støtte fra softwareindustrien kunne ført langt høyere effektivitet på applikasjonene samt utnyttelse av serverrom/strøm.
Ja dette er jo en evig rund-dans. Hver gang det er noe som går litt tregt så kommer ett eller annet geni opp med en genial ide til en ASIC som vil gjøre ett eller annet 10x raskere enn en CPU. Fast forward 10-15 år og svært få av de ASIC designene, eller senere generasjoner, er fortsatt i live. Det er for dyrt og ytelse er ikke lengre et problem på CPU eller CPU er blitt tilpasset oppgaven slik at den faktisk er raskere enn ASIC. Dette er nå i ferd med å skje med GPU. Larrabee kommer nok ikke til å fase ut GPU, men det er nok begynnelsen på slutten og et hint om hvordan grafikk vil renderes i fremtiden. Endret av Anders Jensen
Lenke til kommentar

Det var noen merkelige formuleringer i artikkelen.

Neste steg etter multicore er at man begynner å utvide prosessorene i høyden.

Multikjerne og flere lag i høyden kommer til å gå hånd i hånd, ikke avløse hverandre.

 

Halvlederindustrien har sprengt mange grenser de siste 10-20 årene når det kommer til hvor mange transistorer man kan få plass til på en viss fysisk plass, men når man kommer ned på 22 nm begynner utfordringene å bli meget kostnadsdrivende.

Utfordringene har hele tiden vært meget kostnadskrevende. Det er altså ikke noe nytt som begynner ved 22 nm.

 

neste steg ser ut til å være å utvide prosessorene med en ny dimensjon: z-aksen.

Dette er ikke noen ny dimensjon. Dagens prosessorer bygges opp av ganske mange lag allerede. Ca 15-20 lag med ledere så vidt jeg husker. Men transistorer er fortsatt bare i ett lag. Det er på det området de ser stort potensiale.

 

En stor utfordring med såkalte "3D-prosessorer" vil imidlertid være kjølemekanismen siden alle lagene bør holde samme temperatur. De prosessorkjernene som sitter i midten av kuben vil naturlig nok motta mer varme fra omgivelsene enn de som sitter i ytterkantene og for å løse dette må man til med en noe mer sofistikert kjøleteknikk enn det man har i dag.

Det er ingen nødvendighet at alle lagene holder samme temperatur. Utfordringen går på at ingen deler av prosessoren skal overopphetes. Noe som selvsagt blir vanskeligere jo tettere man pakker transistorer i både planet og høyden. Prosessorer mottar ikke varme fra omgivelsene, de avgir varme til omgivelsene. Men man kan si at de som ligger i midten av kuben har vanskeligere for å kvitte seg med varmen enn de som ligger ut mot kantene.

 

I dag bruker man x86-arkitekturen praktisk talt til "alt" (bortsett fra tradisjonell GPU) og en vridning mot spesialprosessorer med støtte fra softwareindustrien kunne ført langt høyere effektivitet på applikasjonene samt utnyttelse av serverrom/strøm.

x86 brukes ikke til "alt". x86 er faktisk bare vanlig i ett segment: PC-prosessorer. I andre typer prosessorer er det et vell av ulike arkitekturer og ISA. Skulle man telt samtlige prosessorer som er produsert gjennom historien så er jeg ikke så sikker på om x86 ligger på førsteplass. En rekke små prosessorer "mikrokontrollere" er produsert i enorme opplag.

 

Siste del av det avsnittet kommer AJ til å elske. :)

Lenke til kommentar
Halvlederindustrien har sprengt mange grenser de siste 10-20 årene når det kommer til hvor mange transistorer man kan få plass til på en viss fysisk plass, men når man kommer ned på 22 nm begynner utfordringene å bli meget kostnadsdrivende.

Utfordringene har hele tiden vært meget kostnadskrevende. Det er altså ikke noe nytt som begynner ved 22 nm.

Vel ja og nei.. Kostnadene for design og produksjon vokser eksponentielt. Så det er dramatisk endring i vekst, men likevel ikke noe nytt. Den andre deriverte er flat vel?

 

x86 brukes ikke til "alt". x86 er faktisk bare vanlig i ett segment: PC-prosessorer. I andre typer prosessorer er det et vell av ulike arkitekturer og ISA. Skulle man telt samtlige prosessorer som er produsert gjennom historien så er jeg ikke så sikker på om x86 ligger på førsteplass. En rekke små prosessorer "mikrokontrollere" er produsert i enorme opplag.

 

Siste del av det avsnittet kommer AJ til å elske. :)

Hehe. Har ikke tallene, men regnet i antall enheter så selges det vel ca 10x flere ARM prosessorer enn x86 prosessorer. Forskjellen er at enkelte av ARM prosessorene har ytelse akkurat nok til å utløse en airbag, sjekke lufttrykk eller styre et blinklys.. også koster de 37 øre per stykk eller.no. Noen av ARM implementasjonene begynner jo å komme i nærheten av det som vel populært kalles smart-dust. Kan jo diskuteres hvor relevant antallet prosessorer egentlig er. RISC/EPIC prosessorer selges vel i kvantum på 10x til 100x mindre enn x86, men de serverne de sitter i koster ca like mye som samtlige x86 servere som selges per år, og de gjør oppgaver vi kan være veldig glade for at ikke håndteres av x86 maskiner...

Endret av Anders Jensen
Lenke til kommentar
Larrabee kommer nok ikke til å fase ut GPU, men det er nok begynnelsen på slutten og et hint om hvordan grafikk vil renderes i fremtiden.

Jeg tror jeg har lenket til denne artikkelen før, men jeg finner den veldig interessant. Med CUDA eller tilsvarende har GPU mulighet for å overta mange av jobbene som CPU gjør i dag og utføre de raskere. Blant annet video eller audio konvertering.

 

På den andre siden har man for eks. Infernal Engine som lar CPU ta seg av fysikk prosessering, noe CPU faktisk har gode forutsetninger nå som de har flere kjerner.

 

Når GPU og CPU smelter sammen, vil det da dreie seg om en prosessor med to ulike instruksjonssett?

Hvis noen orker å lese artikkelen hadde det vært artig med noen kommentarer på den...

Lenke til kommentar

Shagma: Sånne ting bør helst kjøre på noe som er en mellomting mellom CPU og GPU. Det vil si mange flere kjerner enn CPU, men ikke fullt så spesialiserte og rigide kjerner som dagens GPUer. Larrabee kan være en kandidat. Eller noen få år med ytterligere generalisering av GPU.

Lenke til kommentar
Noen av ARM implementasjonene begynner jo å komme i nærheten av det som vel populært kalles smart-dust.

Smart-dust som i "lur-idiot", eller "intelligent-støv"? Jeg forstår ikke helt begrepene her...

(Noe som i og for seg ikke er helt uvanlig når du og Simen1 stuper inn i prosessorens bunnløse dyp, men dette begrepet skulle vel være fra den noe mer folkelige delen? :p )

Endret av pcp160
Lenke til kommentar
Smart-dust som i "lur-idiot", eller "intelligent-støv"? Jeg forstår ikke helt begrepene her...

Intelligent støv. Det mest dagligdagse å sammenligne med er RFID-brikker. De kan produseres i størrelser ned til under en kvadratmillimeter og inneholder simpel logikk med noen titalls eller hundretalls transistorer. Altså nesten et støvkorn, med nesten en superenkel "prosessor". Smart-dust er en videreutvikling som er ennå mindre og ennå smartere. Et potensielt bruksområde er medisinsk overvåkning av kroppen fra innsiden. F.eks smart-støv som flyter gjennom blodårene og holder oppsikt med organer i reneste science-fiction-stil.

Lenke til kommentar
Jeg kjønner ikke hva all klagingen er for, hvis fokuset har gått fra klokke frekvens til til multicore så har det jo gått fra ghz til multicore f.eks, ikke lett og vær artikkel skriver med slikt publikum gitt...

Artikkelforfatter? Tenker vi sier oversetter jeg, hele greien er en nokså slett kopi av den oppgitte kilden. Men for all del, vi kan da ikke forvente at journalistene faktisk setter seg inn i stoffet de skriver om, det skulle jo tatt seg ut. Egentlig er ikke alt klaging, men heller folkeopplysning. Det er viktig å rette på eventuelle feil, det er helt vanlig praksis med tekniske bøker osv.

 

På den annen side er det bedre enn ikke noe, stå på og jobb videre, trådstarter - vi setter faktisk pris på arbeidet ditt, til tross for at det mangler litt her og der.

Lenke til kommentar

Takk for oppklaringen Simen, da er jeg med. :)

 

Vedrørende klaging over klaging, så ser jeg vel at det godt skal gjøres å skrive en artikkel her uten at noen klager, og kan dermed tidvis ha noe sympati med forfatter. Men så lenge klagingen ikke er ren sutring så blir det som regel ganske informativt og lærerikt. For meg setter ofte artiklene bare et tema, også kommer den virkelige informasjonen i diskusjonstråden. Selvsagt med noen hederlige unntak. :)

Lenke til kommentar
Jeg kjønner ikke hva all klagingen er for, hvis fokuset har gått fra klokke frekvens til til multicore så har det jo gått fra ghz til multicore f.eks, ikke lett og vær artikkel skriver med slikt publikum gitt...

 

Huff, tenk om journalistane på ein nettstad for fagnyheiter innan ein bransje måtte ha litt grunnkunnskap og formuleringsevne, altså. :(

 

Om ein aldri får kritikk for det ein gjer feil, har ein ingenting å vokse på :)

Lenke til kommentar
Jeg kjønner ikke hva all klagingen er for, hvis fokuset har gått fra klokke frekvens til til multicore så har det jo gått fra ghz til multicore f.eks, ikke lett og vær artikkel skriver med slikt publikum gitt...

Dette blir off-topic og pirkete, men å bruke måleenheten på den måten blir helt feil. "Høy volt og potensielt sett dødelig ampere - vær varsom"? Tror ikke det.

 

Klikk for å se/fjerne innholdet nedenfor
Bytt ut volt med spenning og ampere med strøm, så funker det!

 

Veldig enig med pcp160, særlig i de kategoriene Simen1 frekventerer.

Endret av phfjeld
Lenke til kommentar
Jeg kjønner ikke hva all klagingen er for, hvis fokuset har gått fra klokke frekvens til til multicore så har det jo gått fra ghz til multicore f.eks, ikke lett og vær artikkel skriver med slikt publikum gitt...

Frekvens er en størrelse, Hz er en enhet for denne størrelsen. Antall kjerner er også en størrelse, og enheten for denne størrelsen er 1, altså bare et tall. På samme måte er periode og lengde størrelser, og enhetene for disse størrelsene er henholdsvis s (sekund) og m (meter). Å si at fokus har gått fra "høyere GHz" istedenfor høyere frekvens, blir som å si at de fokuserer på "større 1" istedenfor større antall kjerner, eller "mindre meter" istedenfor mindre størrelse.

 

Å blande størrelser og enheter vitner ikke akkurat om god forståelse av stoffet man snakker om.

Lenke til kommentar

Ja okey greit det at det kanskje ikke var den helt tekniske korrekte formuleringen, men alle de eksemplene over er satt på spissen for å illustrere et poeng og høres mye verre ut enn selve "ghz til multicore", var jo ikke ille, jeg mener det høres ikke helt idiotisk ut, mange folk ville kunne si akkurat det i dagligdags tale.

 

Jeg tenker det kunne jo vær mulig at han først hadde tenkt til og faktsik skrive klokkefrekvens men så syntes han at å skrive ghz ga en bedre "kling" :wee: Var jo ihvertfall ingen som kan hevde de ikke forstod hva det stod pågrunn av det.

 

Ja OT dette, mitt avlsuttende poeng er at jeg syntes ikke at en litt ukorrekt formulering som det setter ned kvaliteten på artikkelen ihvertfall, selv om den kanskje bare var copy-pasted :p

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...