Gå til innhold

Samsung blir først ute med 10 nanometers prosessorer


Anbefalte innlegg

Videoannonse
Annonse

Om Intel ikke leverer sine "8086-CPUer" mer krympet enn produsenter av ARM, så blir det ytterlige en mindre fordel å benytte f.eks. Surface.

Den eneste sjansen de hadde var nettopp det med å kunne ha lage en så energigjerrig prosessor som mulig basert på denne lite mobilopptimaliserte CPU.

Om denne trenden fortsetter, så vil det klassiske laptopPC-markedet slite enda mer, og trolig kun opprettholdes av et konservativt Enterprise-marked på langen.

Lenke til kommentar

Vel, hvis du hører på markedsføringsfolkene er det sikkert riktig, men tror ikke det egentlig stemmer.

 

Samsung sin 14 nm og TSCM sin 16 nm var jo mer sammenlignbar i areal, ytelse og strømforbruk med Intel sin 20 nm. Samsung sin 14 nm er mindre fysisk enn TSCM sin 16 nm, men ikke nødvendigvis bedre til alt.

 

10 nm betyr at noe er 10 nm, men det sier lite om hvor fysisk stor plass 1 million transistorer tar f.eks. Det kan godt være Intel 14 nm chip med 1 million transistorer tar mindre plass enn Samsung sin 10 nm prosess. Hvis du da hadde sett på ytelse ved likt effektforbruk er det langt ifra sikkert den Samsung produserte chipen hadde vært best. Selv om den var fysisk mindre og.

 

 

Til slutt har du størrelse og effektforbruk. Det Samsung kan lage er en Snapdragon som er gjerne 100mm^2 med maksforbruk på 6W. Det tok Samsung et år fra de lanserte sin 74 mm^2 6W Exynos, til de kom med en ~240 mm^2 høyt effektbrukt RX 480. Selv Core M bruker 3 ganger så mye strøm som Exynos/Snapdragon. Og Intel lager også i7 CPUer. Så selv om Samsung kan lage Snapdragons kan de ikke nødvendigvis lage Zen CPUer for AMD.

 

Samsung sin foundry buisness gjør det utvilsomt bra, og har økt omsetning og profitt ekstremt mye på kun 2 år, men jeg tror ikke de har slått Intel helt enda. Mot TSCM gjør de det derimot bra for nyeste teknikk. Selv om TSCM sannsynligvis fortsatt er best på produkter som NVidias monster-GPUer (1070, 1080, titan, tesla osv).

  • Liker 1
Lenke til kommentar

Jeg er nysgjerrig, så derfor spør jeg:

 

Hvordan måles denne strømbesparelsen ut?

Du lager noe med de nye transistorene, og lager noe annet med de gamle. Så kjører du et program, og måler strømforbruket til kretsen. Det ville vært en ganske komplett test. Ellers driver de vel og kobler til måleinstrumenter og setter strøm og spenning på forskjellige steder, og måler hvordan transistoren reagerer.

 

Men nå som de er så små, så er det mer og mer som kan gå galt, som gikk bra før. Så strømforbruket har og mye med design å gjøre.

 

Qualcomm SD810 og Apple A8? er begge laget på samme teknikk. SD810 ble katastrofe, A8 var helt fin. Veldig sannsynlig at Qualcomm kom inn i problemer med annerledes oppførsel på 20 nm transistorene. Det merker du ikke før du har fysisk lagd en brikke, og da er det ofte for sent å fikse det uten utsettelser. Merkelig transistoroppførsel er ikke simulerbar.

Lenke til kommentar

 

 

 

Men, har de ikke noen teoretiske modeller for å beregne på strømbesparelser da? Jeg lurer litt på om det er noen trekk der som kan løftes fram, altså hvordan de kommer fram til strømbesparelsesanslagene sine?

Endret av G
Lenke til kommentar

Går helt fint å teoretisk beregne strømbesparelser ja. Hvordan de kommer frem til det er veldig mye fysikk, og veldig mange utregninger. Liksom, håpløst for mennesker utregninger. Hvordan programmene fungerer vet jeg ikke, og det er ganske avanserte greier. Litt annerledes enn å måle på kretser med motstander, spoler, kondensatorer osv for å si det slik.

 

Men en virkelig krets vil kunne oppføre seg ganske annerledes. Det har og noe å si om du lager den analog eller digital.

 

I alle tilfeller vil det uansett være anslag på hva de tenker seg strømbesparelsene for en typisk krets vil være.

Lenke til kommentar
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...