Gå til innhold

Intels neste prosessor får hele 14 kjerner


Anbefalte innlegg

Hvorfor skal man ikke lenger få tak i en harddisk med mindre kapasitet hvis man har behov for det ? Det er neppe lenge til den miste kapasiteten blir 500 GB

Fordi det koster for mye å produsere harddisker med liten størrelse. Man får ikke lavere produksjonskostnader enn 1-2 år gammel datatetthet kombinert med ett enkelt skrive/lese-hode. Så når 500 GB er det billigste man kan produsere, hvorfor skal man da gidde å produsere f.eks 200 GB til samme pris? Markedet er nok ganske marginalt. Den overflødige plassen vil ikke være i veien.

 

Flash er sjanseløs. "Moores lov for flash" har allerede gått på veggen.

Den veggen er vel en gråsone. Holdbarheten er fortsatt mye lengre enn nødvendig for vanlige forbrukere. Jeg tipper markedet tåler minst 2 krympinger til før holdbarheten blir et mer reelt problem for forbrukere.

Lenke til kommentar
Videoannonse
Annonse

Dette er en klassisk missforståelse av eksponentiell vekst. Harddisker har vokst i kapasitet eksponentielt historisk sett, men ytelsen har økt ca 30% per tiår. Så om vi har 4 TB og 200MB/s i dag så kan vi med din ekstrapolering anta 1PB og 275MB/s i 2024. Nå har andre vist at denne veksten ikke holder, men la oss likevel fortsette eksperimentet.

 

Å fylle denne disken vil ta 42 dager, best case. Å f.eks rebuilde en død disk blir da problematisk. Gjelder forøvrig også backup, restore, file check, virus scan og rebalance også, ekstremt ille blir det hvis to eller flere av disse sammenfaller og du får veving av to/flere sekvensielle oppgaver hvilket kan ha verre ytelse enn random read/write. Dette er en umulig situasjon å være i for en hver proffesjonel aktør. Du måtte ha raid kontrollere med 42 ganger så mange hot spare disker som du hadde i selve raidet og startet ett sett prevantiv rebuild av alle disker hver dag for å ha en rimelig rebuild tid. Eller sakt på en annen måte; dette er idioti og ingen harddisk produsent vil noen gang implementere en single spindel harddisk på 1PB. Ikke bare fordi de ikke får det til, men fordi det blir et ubrukelig produkt. Sorry.

 

12 år er 8 18-måneders doblinger. Det er jo bare å telle opp. I 1988 var det normalt å kjøpe seg 60 megabyte harddisk. I 2000, 8 doblinger senere var det 16 gigabyte harddisk som var normalt. I 2012, 8 doblinger senere er 4 terabyte innenfor alles budsjett. I 2024, 8 doblinger senere, hevder jeg at 1 petabyte vil være like tilgjengelig som 4 terabyte er i dag.

 

Den dagen vi når 1 Petabyte til forbrukerpris (i 2024 +/- ett år) er det nesten garantert at det ikke dreier seg om snurredisk. Enten har dagens SSD-teknologi utvklet seg helt dit, eller så er det kommet noe helt nytt. SSD har dessuten vist at hastigheten øker vanvittig når man går bort fra roterende plater. i 2024 har vi nok en dedikert buss ala minnebussen med svimlende hastighet som går rett i masselageret.

 

Jeg hadde denne diskusjonen rundt år 2000, og påsto at det ville være helt vanlig med 4 terabyte i 2012. Da satt vi med 16 eller 20 gigabyte harddisk. Jeg ble møtt med akkurat samme argumentasjon. Jeg syns ikke det engang er spennende, det er så forutsigbart som bare det.

Endret av robertaksland
Lenke til kommentar
Dette ser det ut til at mennesker ikke er i stand til å fatte. Økonomien er det beste eksemplet. Moores Lov vil bare føye seg inn i rekken.

3) Moores lov tilegnes alt mulig rart. Alt fra antall facebook-brukere til lag på DVD-platene og megapiksler i digitalkameraer. Jeg husker jeg så meg blind på "loven" i ca 2000 og spådde 10 GHz prosessorer i 2004 og 100 GHz i 2007. Vi vet jo hvordan det gikk. :p

Var det ikke transistormengden som skulle dobles hver 18. måned da? Ikke nødvendigvis praktisk ytelse.

Lenke til kommentar

Jepp, det er det som er problem nr 3. At folk tilegner moores lov til alt mulig rart som ikke har noe med opprinnelsen å gjøre.

 

Helt sant. Det som er spesielt med Moores lov er at den var svært tidlig ute med å forutse den eksponensielle utviklingen innen dataverdenen. Men den går kun på transistortetthet, mens vi finner igjen tilsvarende utvikling på langt flere felter. Enkelte ting dobles hver 18. måned, andre ting har andre intervaller. Det er et svært nyttig verktøy når man skal spå data-fremtiden, men det må brukes med omhu og alltid ta hensyn til hvor vi kommer fra. Skal man regne x år frem i tid, må man alltid se minst x år tilbake for å finne hvor mange måneder det egentlig har gått mellom hver dobling. Da treffer man svært godt.

Lenke til kommentar
Da treffer man svært godt.

.. og dette skriver du på din 1000 GHz prosessor? Jeg må bare sitere:

Bærekraftig eksponentiell vekst, dagens oxymoron.

Hadde du lest innlegget mitt hadde du forstått at jeg har fjernet med fra transistorer og klokkefrekvens når jeg snakker om eksponensiell vekst. Jeg snakker om reell ytelse og reell lagringsplass. Skulle prosessor-arkitekturen fra år 2000 ha levert ytelsen til en Ivy Bridge i dag måtte den nok ha kjørt på 1000 GHz ja. Det er denne typen doblinger jeg snakker om.

Lenke til kommentar
Da treffer man svært godt.

.. og dette skriver du på din 1000 GHz prosessor? Jeg må bare sitere:

Bærekraftig eksponentiell vekst, dagens oxymoron.

Hadde du lest innlegget mitt hadde du forstått at jeg har fjernet med fra transistorer og klokkefrekvens når jeg snakker om eksponensiell vekst. Jeg snakker om reell ytelse og reell lagringsplass. Skulle prosessor-arkitekturen fra år 2000 ha levert ytelsen til en Ivy Bridge i dag måtte den nok ha kjørt på 1000 GHz ja. Det er denne typen doblinger jeg snakker om.

Tullprat. En P3 eller K7 måtte hatt omtrent dobbel frekvens av Sandy/Ivy bridge for å nå samme ytelse på tilsvarende minnehierarki. Snaue 8GHz, og like mange kjerner.

 

Når du beveger deg over på SSD som teknologien som skal levere 1PB disk i 2024 så er det en rekke forhold som bør belyses.

 

1) Vi har ikke konsumer 4TB SSD i 2012

2) SSD benytter i dag fash som ikke har en roadmap som tilsier eksponentiell vekst frem til 2024

3) Alternativer som memristor og PCM er dyrere enn flash og ligger langt bak flash på kapasitet per i dag.

4) En SSD er en samling av mange enheter og slik sett kun økonomisk begrenset, Mye lik et DAS oppsett i dag som lett kan bli over 1PB. Likens kan en SSD enhet i dag og i 2024 bli nærmest ubegrenset stor hvis en har nok penger, men det er strengt tatt et lite relevant faktum.

 

Båndbredde og kapasitet av modulære komponenter er kun relatert til Moores lov lignende vekst om en tar med det økonomiske perspektivet, som også var del av den opprinnelige Moores lov.

 

For å si det sånn: Hvis du spør meg hvor mye båndbredde jeg kan levere på en SM fiber hjem til deg, så er min respons; hvor mye penger har du? Kan fint levere opp til 400 Gbps hver vei i kun en fiber på standard "billige" 1G og 10G DWDM ethernet komponenter... Kan godt leveres som 1Gbps i dag og dobling hver uke fremover til vi når 400Gbps. Derfra og ut kan vi kjøpe mer fiber. Dette vil imidlertid kreve eksponentiell vekst i regningsbunken. Poenget er at dette er ikke eksponentiell vekst slik beskrevet av Moores Lov fordi veksten også er i den økonomiske faktoren. Kravet er at kostnaden skal være noenlunde fast.

Endret av Anders Jensen
  • Liker 1
Lenke til kommentar

Jepp, det er det som er problem nr 3. At folk tilegner moores lov til alt mulig rart som ikke har noe med opprinnelsen å gjøre.

 

Helt sant. Det som er spesielt med Moores lov er at den var svært tidlig ute med å forutse den eksponensielle utviklingen innen dataverdenen. Men den går kun på transistortetthet, mens vi finner igjen tilsvarende utvikling på langt flere felter. Enkelte ting dobles hver 18. måned, andre ting har andre intervaller. Det er et svært nyttig verktøy når man skal spå data-fremtiden, men det må brukes med omhu og alltid ta hensyn til hvor vi kommer fra. Skal man regne x år frem i tid, må man alltid se minst x år tilbake for å finne hvor mange måneder det egentlig har gått mellom hver dobling. Da treffer man svært godt.

Jup, også det går på transistor tetthet, ikke ytelse.

Så en graf som trakk moores lov helt tilbake til 1910 og reler, stemte bra hele veien.

 

Også det finnes topper, eller snarere platåer, når du når platået stopper det opp eller snarere utviklingen bremses ned intill noen finner opp ny teknologi.

Hardisk lagrings kapasitet gjorde et hopp for et par år siden, så har det gått saktere, mye skyldes skader på fabrikker i Thailand så hovedfokus har vært å få igang produksjonen.

 

CPU hadde en enorm ytelse forbedring rund årtusen skiftet når du gikk i fra 120Mhz til 2GHz, var imidlertid vanskelig å øke frekvensen ytligere.

 

Du har også markeds effekter, kan godt si at single core ytelse i dag er grei nok, kjører på en 6 core amd, kunne godt hatt flere kjerner for å rendre raskere men ellers er det andre ting som bremser systemet, en Intel prosessor har raskere single core ytelse, men vil heller bruke pengene på en større/ raskere SSD.

 

SSD har tatt av siden pris/ ytelse kom inn i nivået for de som ville betale mye, dette medførte salg og vidre utvikling, pris gikk ned og ytelse opp.

Selvsagt stopper dette etter noen år, sansyligvis med rundt 512GB disker med flere GB/s overførings hastighet. Da vil ikke folk betale for mer. Ja du vill få større disker med de vil koste mer en de smaker for de fleste.

Lenke til kommentar

Hva vil begrensningen på SSD være ?

vil ikke strøelsen si stopp på grunn av at det er begrenset hvor tett dise minnecellen kan plasseres.

 

Hvor vil det mest sannsynlig stoppe opp hen når det gjelder størrelse ?

 

Er det sannsynlig at man nonen gang vil kunne bruke minnekort el.l. på samme måten som man bruker SSD i dag ?

Lenke til kommentar

Det som begrenser utviklingen til dagens konsumer-SSDer er flashminnet de bruker. Flashminne kan nok krympes et par trinn til, men det vil resultere i økende antall transistorer for å korrigere feil og holdbarhet (skrivesykluser). På et gitt tidspunkt vil vinningen ved krympingen gå opp i spinningen. Jeg tipper det er et par krymperunder til. AJ skrev at flash allerede har møtt veggen. Andre tror sikkert at det går mer enn 2 krympinger.

 

Krymping er det klart viktigste middelet man har til å øke lagringskapasiteten i flash uten å øke kostnadene.

Lenke til kommentar

Det som begrenser utviklingen til dagens konsumer-SSDer er flashminnet de bruker. Flashminne kan nok krympes et par trinn til, men det vil resultere i økende antall transistorer for å korrigere feil og holdbarhet (skrivesykluser). På et gitt tidspunkt vil vinningen ved krympingen gå opp i spinningen. Jeg tipper det er et par krymperunder til. AJ skrev at flash allerede har møtt veggen. Andre tror sikkert at det går mer enn 2 krympinger.

 

Krymping er det klart viktigste middelet man har til å øke lagringskapasiteten i flash uten å øke kostnadene.

 

tar du også med varmeeffekten ?

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...