Gå til innhold

IBMs nye supermaskin skal knuse alle rivaler


Anbefalte innlegg

Videoannonse
Annonse

Riktig. Omtrent som å si "km/t per time".

 

Det står at de skal få de mest detaljerte bildene av universet, men dette er vel kun innen sitt bølgelengdeområde, for jeg kan ikke tenke meg til at de kan konkurrere på oppløsning mot svært mye kortere bølgelengder, som synlig lys (Hubble, E-ELT osv). Og når vi først er inne på det, hva er det som skal gjøre dette mye bedre enn VLBI, VLA og ALMA?

  • Liker 1
Lenke til kommentar

"10.000 Petaflops i sekundet" Er litt rart å si, ettersom FLOPS som oftets brukes om Floating Point OPerations pr. Second. Smør på flesk.

 

Riktig, bare at det ikke er smør på flesk, det blir direkte feil. Samme som å si at farten til en bil er 100 km i timen i timen, noe som er akselerasjon, ikke fart.

  • Liker 1
Lenke til kommentar

Riktig. Omtrent som å si "km/t per time".Det står at de skal få de mest detaljerte bildene av universet, men dette er vel kun innen sitt bølgelengdeområde, for jeg kan ikke tenke meg til at de kan konkurrere på oppløsning mot svært mye kortere bølgelengder, som synlig lys (Hubble, E-ELT osv). Og når vi først er inne på det, hva er det som skal gjøre dette mye bedre enn VLBI, VLA og ALMA?

Problemet med synlig lys er at det er ikke så mye av det som når frem til oss, så sammenligningen med Hubble blir ikke så internsang..Uten å ha lest om dette prosjektet, så regner jeg med fordelen er at det har større følsomhet og kan se lengre tilbake enn de andre. Står sikkert bedre forklart i kilden :)

Lenke til kommentar

Dagens gigaprosjekter er morgendagens elektroniske kokebok som 'alle' har på kjøkkenet. En eller annen gang i ikke altfor fjern fremtid vil noen finne på noe som fullstendig revolusjonerer ting.

 

Noen kommer til å finne på en måte å presse inn uhorvelige mengder transistorer på en liten flate. Dagens CPUer har vel 2-3 milliarder transistorer, noe som selvsagt allerede er mye i forhold til for bare noen tiår siden. Dette tallet vil på et eller annet tidspunkt fortone seg som noe som hører hjemme på museum.

 

Når det skjer, vet vel ingen, men vi har jo Moore's Law som beskriver en dobling i antall transistorer hvert andre år. Det er jo vel og bra om det holder seg, men den tar vel ikke høyde for plutselige, revolusjonerende oppdagelser.

Lenke til kommentar
Gjest Bruker-245639

Dette er regnekraft i fantastiske mengder! Tenk når slik en regnekraft blir tilgjengelig for "lommepenger". Tenk hva det har å si for alle former for forskning som innebærer tallknusing. Medisin meteorologi, fysikk, konstruksjoner, VR, utvikling av alt mellom himmel og jord av hjelpemidler. Det sprøeste er at dette vil skje i levetiden til de fleste av oss. Jeg føler at folk generelt ikke forstår hvor ekstremt fort utviklingen går. Aller minst forstår folk at utviklingen akselerer eksposjonelt.

Lenke til kommentar

Dagens gigaprosjekter er morgendagens elektroniske kokebok som 'alle' har på kjøkkenet. En eller annen gang i ikke altfor fjern fremtid vil noen finne på noe som fullstendig revolusjonerer ting.

 

Noen kommer til å finne på en måte å presse inn uhorvelige mengder transistorer på en liten flate. Dagens CPUer har vel 2-3 milliarder transistorer, noe som selvsagt allerede er mye i forhold til for bare noen tiår siden. Dette tallet vil på et eller annet tidspunkt fortone seg som noe som hører hjemme på museum.

 

Når det skjer, vet vel ingen, men vi har jo Moore's Law som beskriver en dobling i antall transistorer hvert andre år. Det er jo vel og bra om det holder seg, men den tar vel ikke høyde for plutselige, revolusjonerende oppdagelser.

 

Det finnes en interresant artikkel om dette på wikipedia. Der tok de med alle tidligere former for "computing power" (inkl. mennesker) og satt det opp i et logaritmisk diagram. Anbefales å søke på.

  • Liker 1
Lenke til kommentar

Dagens gigaprosjekter er morgendagens elektroniske kokebok som 'alle' har på kjøkkenet.

Tja, vi får se. I veldig lang tid nå har det hovedsaklig vært snakk om å gjøre ting mindre. I senere tid heller flere kjerner enn GHz fordi det ikke lønner seg/er fysisk mulig. Jeg prøver ikke å si at teknologien ikke kan revolusjoneres, men den gradvise progresjonen stagnerer noe.

Lenke til kommentar

Riktig. Omtrent som å si "km/t per time".

 

Det står at de skal få de mest detaljerte bildene av universet, men dette er vel kun innen sitt bølgelengdeområde, for jeg kan ikke tenke meg til at de kan konkurrere på oppløsning mot svært mye kortere bølgelengder, som synlig lys (Hubble, E-ELT osv). Og når vi først er inne på det, hva er det som skal gjøre dette mye bedre enn VLBI, VLA og ALMA?

Når det gjelder bølgelengde og oppløsning, lurte jeg også litt på det, men leste meg litt opp på wikipedia. Disse radioteleskop-arrayene (i mangel av et norsk ord) måler ikke bare i det vi kaller radiobølger tradisjonelt, men helt ganske høyt opp i bølgespekteret (eller lavt ned, ettersom du tenker frekvens eller bølgelengde). Teleskopet det her snakkes om skal etter planen kunne måle helt opp i 10GHz, eller omtrent 0,03m i bølgelengde. Som du sikkert er klar over (du virker til å ha en relativt god forståelse på det meste), er høyeste oppløsning for slike teleskop-arrayer bølgelengde delt på største avstand mellom to teleskoper, her 0,03m/ca. 10 000 000 m = 0,000 000 003. For tilsvarende teoretiske oppløsning for optiske teleskoper for synlig lys (0,5 x 10-6m) trenger man en linse på 0,05x10-6/0,000 000 003 = 166,7m i diameter.

Hva gjelder forskjellen på andre teleskoper, virker det å være både bedret oppløsning og betydelig større field of view, og følgelig hvor mye data som kan bli samlet inn samtidig. I følge artikkelen på wikipedia, vil alle dataene som må flyttes og prossesseres være større enn den samlede trafikken på internett pr. i dag.

 

Edit: godt mulig det er noen feil her.

Endret av Pera86
Lenke til kommentar

Helt utrolig at 41% av innleggene her baserer seg på to skrivefeil i en så spennende artikkel om teknologi, fremfor innholdet som er meget ekstraordinært.

 

Det er faktisk idiotisk! (ikke at jeg er noe bedre nå som jeg kommenterte de unødvendige kommentarene, men hallo folkens...)

Endret av IceBlitz
Lenke til kommentar
Problemet med synlig lys er at det er ikke så mye av det som når frem til oss, så sammenligningen med Hubble blir ikke så internsang..Uten å ha lest om dette prosjektet, så regner jeg med fordelen er at det har større følsomhet og kan se lengre tilbake enn de andre. Står sikkert bedre forklart i kilden :)

Nå var vel Hubble det teleskopet som har sett lengst "tilbake" med deep space -kameraet nettopp på grunn av oppløsning, men jeg vet ikke om det er endret i det siste. Synlig lys er en av de åpningene i EM-spekteret som trenger gjennom atmosfæren.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...