abene Skrevet 10. februar 2011 Rapporter Del Skrevet 10. februar 2011 Vi får hundre og tusen ganger raskere datamaskiner om seks til ni år, mener ekspertene. Les mer Lenke til kommentar
daniel_984 Skrevet 10. februar 2011 Rapporter Del Skrevet 10. februar 2011 Misforstå meg rett her, men er ikke peta hakket over terra? Altså, om vi har en maskin som klarer 2,5 petaflops, så er jo det i realiteten 2500 terraflops? Altså virker ikke 100 terraflops så utrolig mye imho.. exaflops derimot.. hohoho! Lenke til kommentar
Khaffner Skrevet 10. februar 2011 Rapporter Del Skrevet 10. februar 2011 "nyheten" her var altså at Moores lov fortsatt gjelder og at teknologi koster penger? Lenke til kommentar
OV-103 Skrevet 10. februar 2011 Rapporter Del Skrevet 10. februar 2011 Moores lov gjelder jo transistor tetthet i IC'er. Så jeg tror ikke helt den passer i dette tilfellet. Når det gjelder stormaskiner som det er snakk om her så er det vel mer det å knytte sammen mange maskiner til en (litt forenklet sagt). Du kan dermed få mye høyere ytelse uten at transistor tettheten i brikkene øker noe særlig. Jeg kan ikke så veldig mye om stormaskiner som dette, så arrester meg gjerne om jeg tar feil. Lenke til kommentar
Jotun Skrevet 10. februar 2011 Rapporter Del Skrevet 10. februar 2011 Hva blir disse maskinene brukt til? Bortsett fra å se hvor mange flopper man klarer? Lenke til kommentar
Rescue me Skrevet 10. februar 2011 Rapporter Del Skrevet 10. februar 2011 Hva blir disse maskinene brukt til? Bortsett fra å se hvor mange flopper man klarer? Forskjellige beregninger. Vet i hvertfall at de bruker minst en maskin til å beregne været. Lenke til kommentar
sannheten_666 Skrevet 10. februar 2011 Rapporter Del Skrevet 10. februar 2011 Påpekning av det åpenbare, kort og ufullstendig med et par overfladiske fakta og fullstendig på jordet når det gjelder Moores Law. En helt vanlig hw.no-artikkel. Lenke til kommentar
Gjest Slettet-Pqy3rC Skrevet 10. februar 2011 Rapporter Del Skrevet 10. februar 2011 Når det gjelder stormaskiner som det er snakk om her så er det vel mer det å knytte sammen mange maskiner til en (litt forenklet sagt). Du kan dermed få mye høyere ytelse uten at transistor tettheten i brikkene øker noe særlig. Jepp. Det er flere maskiner i et nett. Det kalles "En maskin" av den enkle grunn at alle komponentene i dette nettet planlegges og kjøpes som en enhet. Markedsførings begreper altså. Derfor er det sånn sett kun økonomi som styrer; istedenfor 20.000 CPU'er kan en lage "en maskin" med 20.000.000 CPU'er og dermed øke kapasiteten med 1000 ganger. Du trenger bare litt mer strøm og mye mer penger. Lenke til kommentar
GullLars Skrevet 10. februar 2011 Rapporter Del Skrevet 10. februar 2011 (endret) Hmmm. For 2,5 år siden hadde jeg ca 2,5 TeraFLOPS teoretisk i maskinen min, og i dag har jeg noe mindre. Det var da snakk om Phenom x4 9800 + HD4870x2. Som nevnt gjelder Moore's lov transistor tetthet i IC'er til optimal pris. Siden prosessnodene oppdateres for å få til dette medfører dette lavere pris pr transistor og strømbruk pr transistor. En betydelig begrensning i stormaskiner er intern komunikasjon, spesielt latency og skalering. For prosjekter der komunikasjon mellom noder ikke er tidssensitivt kan man bruke distribuert prosessering ala Folding@Home. Ved å bruke GPUer kan man fort skalere dette til Peta eller Exa om man legger nok ressurser i det. Èn midrange GPU i dag klarer 1 TFLOP. For 1 ExaFLOPS kan man bruke 1.000.000 GPUer a $150-200 hver for grovt $200.000.000-300.000.000 (1-1,8 Milliarder kroner). (edit: dette er teoretiske peak tall, og forutsetter optimal arbeidsoppgave) Endret 10. februar 2011 av GullLars Lenke til kommentar
Blåbær Skrevet 10. februar 2011 Rapporter Del Skrevet 10. februar 2011 Hva blir disse maskinene brukt til? Bortsett fra å se hvor mange flopper man klarer? Billigere og mer miljøvennlig å bygge slike maskiner for å simulere atombomber enn å faktisk teste dem ut i virkeligheten. Lenke til kommentar
Anders Jensen Skrevet 10. februar 2011 Rapporter Del Skrevet 10. februar 2011 (endret) Det som er viktig å merke seg er at ytelse kommer i to former. Gjennomstrømning og responstid. Her er det snakk om gjennomstrømning. Altså at vi får muligheten til å gjøre 1000 ganger mer arbeid på samme cluster per tidsenhet. Det betyr ikke nødvendigvis at en jobb som i dag tar 1000 timer vil ta 1 time på en slik hypotetisk maskin. At vi skal få 1000 ganger økt gjennomstrømning om noen år er ikke så veldig kontroversielt akkurat, men klart før eller siden vil utviklingen stagnere og vi vil tenke tilbake på alle teite spådommer om at eksponentiell vekst inn i himmelen var mulig akkurat motsatt av hva vi tenker om de som ble (feil) sittert på at 640k er nok eller at vi ikke trenger en maskin i hvert hus. Folk tror helst at ingenting vil endre seg, når de innser at det er feil i et gitt tilfelle vil de helst tro at trenden er konstant. Her har vi nå vært med Moores lov i noen tiår og det er der en er før ethvert børskrakk i finansiell sammenheng. Deretter må en til slutt innse at trender også endrer seg. Kanskje 640G er nok enten vi vil eller ikke. Når det gjelder om dette er en eller flere maskiner så er det mest semantikk. En supercomputer er i dag et cluster. Et cluster består av noder. Data entusiaster vil gjennkjenne en node som noe som ligner på det en kaller en maskin hjemme. Det er fornuftig å kalle en supercomputer for en maskin, ikke fordi den kjøpes som en enhet for det gjør den ofte ikke, men fordi den driftes og brukes som en enhet. Endret 10. februar 2011 av Anders Jensen 1 Lenke til kommentar
FrihetensRegn Skrevet 10. februar 2011 Rapporter Del Skrevet 10. februar 2011 Når jeg trykte på denne artikkelen, tenkte mitt naive sinn at det er kommet en ny teknologi som gjør at utviklingen av transistor tenkologi kommer til å gjøre at den generelle utviklingen tusen ganger raskere. Altså Moores law x1000. Men sannheten er at den fortsatt gjelder, men når produksjonsteknologien nærmer seg mindre enn 1nm, så kommer man til å slite å komme på måter å fortsette tempoet. Lenke til kommentar
Anders Jensen Skrevet 10. februar 2011 Rapporter Del Skrevet 10. februar 2011 Det blir vel store utfordringer ved 10nm også. Faktisk kan det hende logikktransistorer vil stoppe opp før 10nm mens transistorer til lagring av data kan krympes litt til da det kan bli enklere å håndtere lekkasje. Lenke til kommentar
Gjest Slettet-Pqy3rC Skrevet 10. februar 2011 Rapporter Del Skrevet 10. februar 2011 (endret) Det er fornuftig å kalle en supercomputer for en maskin, ikke fordi den kjøpes som en enhet for det gjør den ofte ikke, men fordi den driftes og brukes som en enhet. Eller muligens kun fordi den omtales som en enhet. Bruken kan jo være delt mellom selskaper, så også drift og eierforhold forsåvidt. En kan vel også anta at enheten er koblet til internett og kanskje benytter eksterne ressurser. Fordi så mange maskiner i verden nå er koblet sammen vil hele begrepet "supercomputer" bli veldig diffust. En kunde av oss kjører systemet på en gjeng servere koblet ihop lokalt med fiber... det driftes og brukes som en enhet. Jeg ser på det som ulike maskiner som sammen gjør en jobb, men kanskje jeg isteden skulle sett på greia som en maskin. Ikke vet jeg. Endret 10. februar 2011 av Slettet-Pqy3rC Lenke til kommentar
Gjest Slettet-Pqy3rC Skrevet 10. februar 2011 Rapporter Del Skrevet 10. februar 2011 Det blir vel store utfordringer ved 10nm også. Dessuten vil jo krympingene ha mindre effekt jo nærmere en kommer "nullpunktet" rett og slett fordi den avstanden det reduseres med stadig blir lavere. Ddet spørs om ikke Intels tick-tock må gjennom en tock-tock periode etterhvert. Lenke til kommentar
Bikemech Skrevet 10. februar 2011 Rapporter Del Skrevet 10. februar 2011 Hørte fra Michio Kaku at før 2020 vil egenskapene til silisium være det som setter en stopper for utviklingen før man begynner å utvikle kvante-datamaskiner... Lenke til kommentar
FrihetensRegn Skrevet 10. februar 2011 Rapporter Del Skrevet 10. februar 2011 Akkurat nå ligger vi vel på 28-22 nm, og i 2017 vil vi ha nådd ca. 10nm. Etter det blir det veldig avansert og vanskelig å krympe det ned ved hjelp av CMOS teknologi. Lenke til kommentar
Anders Jensen Skrevet 10. februar 2011 Rapporter Del Skrevet 10. februar 2011 Det er fornuftig å kalle en supercomputer for en maskin, ikke fordi den kjøpes som en enhet for det gjør den ofte ikke, men fordi den driftes og brukes som en enhet. Eller muligens kun fordi den omtales som en enhet. Bruken kan jo være delt mellom selskaper, så også drift og eierforhold forsåvidt. En kan vel også anta at enheten er koblet til internett og kanskje benytter eksterne ressurser. Fordi så mange maskiner i verden nå er koblet sammen vil hele begrepet "supercomputer" bli veldig diffust. En kunde av oss kjører systemet på en gjeng servere koblet ihop lokalt med fiber... det driftes og brukes som en enhet. Jeg ser på det som ulike maskiner som sammen gjør en jobb, men kanskje jeg isteden skulle sett på greia som en maskin. Ikke vet jeg. litt av poenget er vel at en ikke lager jobber for spesifikke noder, men for maskinen og så bestemmer maskinen selv hvilke noder du får tildelt. 2 Lenke til kommentar
Gjest Slettet-t8fn5F Skrevet 10. februar 2011 Rapporter Del Skrevet 10. februar 2011 Moores lov: Antallet transistorer per flateenhet, blir doblet hver 18 måned. For de som ikke tror det så er det bare å gåggle ivei. Lenke til kommentar
kpolberg Skrevet 10. februar 2011 Rapporter Del Skrevet 10. februar 2011 Blir spennende å se hva som skjer på interconnect fronten. 10GbE er på full fart inn, men kan fremdeles ikke matche ytelsen til infiniband. Ellers ligger jo ofte begrensningen i applikasjonen, eller problemet som skal løses(MP vs MPI). Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå