Gå til innhold

Slik ser Googles kvantemaskin ut


Anbefalte innlegg

Hvordan går den da frem for finne riktig svar her .

slik det er fremstil virker det mere som maskinen spiller bingo.

Qbits er alltid diffuse, og må leses av flere ganger. Når de får samme resultat flere ganger vet man at resultatet er nådd. Når de veksler ubestemmelig har de ikke bestemt seg og man har ikke noe resultat.

 

En visualisering kan være er jernspon som spretter i formasjon når de utsettes for et magnetisk felt. En simulering av denne formasjonen i en vanlig datamaskin ville krevd masse regnekraft, men virkeligheten får det korrekt på en operasjon. Sånn er detmed qbits også, de responderer på de problemene de programmeres til, og når de leses av så er de med stor sansynlighet i den formasjonen som gir korrekt løsning. Men man må altså lese av flere ganger for å verifisere at qbitsene har bestemt seg for en løsning.

Lenke til kommentar
Videoannonse
Annonse

ok , men hvordan kan de da være rask på beregningene ?

 

Du sier at det krever mye regnekraft for å kunne simulere det på en vanlig datamaskin.

Da høres det ut som en analog simulering på en digital pc.

Noe som virker lit unødvendig

 

Siden det høres ut som det er egenskapene til et materialet som bestemmer resultatet ( forutsett at jeg har forstått det riktig ) så høres forsatt ut som den spiller bingo ( eller lotto)

( jo flere ganger man forsøker jo større er sjansen for få riktige tall)

Lenke til kommentar
Gjest Slettet-qfohT7

ok , men hvordan kan de da være rask på beregningene ?

 

Antall operasjoner for nå et resultat er eksponensielt lavere enn for en vanlig pc, så hurtigheten ligger ikke i regnekraft i seg selv men egenskapen å bryte ned et komplekst problem. Altså, ikke hurtigheten på hver utregning, men antall steg for å nå samme resultat. Dette krever selvsagt at algoritmen er laget for å utnytte kvanteegenskapene. For alle andre formål vil antakeligvis en kvantemaskin være tregere enn en vanlig maskin.

 

Jeg vil tro at det kun er noen spesifikke problemer som er mulig å effektivisere med en kvantemaskin, ikke universell optimalisering av alle typer algoritmer.

Endret av Slettet-qfohT7
Lenke til kommentar

 

 

Må ikke la datamaskiner tenke selv, finnes mange filmer som er bevis på det.

 

The Matrix sier jeg bare!

The Terminator virker enda mer nærliggende.

 

For å si det sånn blir jeg ikke overrasket om jeg ser en naken, muskuløs kar med sterk østeriksk aksent gå amok i Google sine kontorer i nær fremtid :p

Det blir jo feil. Ingen av Terminatorene ble noen gang sendt tilbake for å gjøre hærverk mot Skynet. De har kun blitt sendt tilbake for å ta livet av viktige personer for motstanden, eller beskytte dem.

 

Men ja, Terminator filmene er ett bedre eksempel på hva som kommer enn hva The Matrix er. For maskinene i The Matrix var nokså dumme i forhold til Skynet. Skynet viste at mennesket var det eneste som kunne ødelegge verden (Grunnen til krigen), eller være en trussel mot Skynet. Maskinene i The Matrix bruker menneskenen som batteri (så vidt jeg husker, har ikke sett den siden kino premieren), og hadde de vært smarte nok, så hadde de brukt kuer i stedet, og The Matrix hadde kun trengt å være en eng med gress.

Lenke til kommentar

kretsene har 2 verdier samtidig.

men hvilken verdi er da riktig å bruke i situasjonen ?

 

Det høres jo som verdiene er båre "0" og "1" på samme tid

(høy og lav , eller av og på ).

Ville dette da ikke det føre til "kortslutning" i beregningene etter en stund ?

 

Ikke bekymre deg for mye med det her. Vi med grunnleggende forståelse for elektronikk under normal temperatur evner ikke å se virkemåten til denne her ;)

Lenke til kommentar

kretsene har 2 verdier samtidig.

men hvilken verdi er da riktig å bruke i situasjonen ?

 

Det høres jo som verdiene er båre "0" og "1" på samme tid

(høy og lav , eller av og på ).

Ville dette da ikke det føre til "kortslutning" i beregningene etter en stund ?

Mener å huske at verdiene går (med dagen teknologi) ikke direkte i hva den faktisk regner ut, men hva som er statistisk riktig. Dette pga qbiten i seg selv ikke er 0/1/0&1 (og alt imellom). qbiten består av en prosentvis sjanse gitt i en konstant, som man må finne igjen. Dvs, det er f.eks. 45% sjanse for at svar A er riktig, mens B,C,D etc har en egen verdi. Så må man da igjen kjøre den samme beregningen X antall ganger for å reprodusere svaret igjen og igjen og igjen..... Dermed kjenne igjen hvilken konstant produserer hvilket svar, basert på den % vise sjansen for konstanten.

 

Om noe av dette gir noe mening. Er en video på youtube som forklarer hvordan å decryptere en 2048bits setning med en quantumcomputer (har ikke link, søk selv ;) )

 

Edit: Forøvrig ligger jo regnekraften i en quantumcomputer i at den kan utvides til å regne ut hva som helst, pga disse konstantene jeg nevnte lenger opp. Dette har med det er 2^n regnekraft, i motsetning til normale prosessorer. Enkelt sagt, ved å har tilgjengelig 300 elektroner (eller qbits) kan man vel stort sett regne ut hva som helst..

Endret av daniel_984
Lenke til kommentar

Det som er problematisk å forstå er hvordan regnekraften øker når den må gjenta det samme så mange ganger for å få et akseptabelt svar.

Det er jo ikke nevnt hvor mange forsøk som må til

 

Det er jo også skrevet at den ikke var så rask hva nå det måt menes med det.

 

jeg må innrømme at jeg ser det slik at det ikke er 2 verdier der helt samtidig men at verdien veksler veldig fort mellom 2 verdier for elles vill det ikke være mulig å kunne lese av verdien.

Lenke til kommentar
Gjest Slettet-qfohT7

Det som er problematisk å forstå er hvordan regnekraften øker når den må gjenta det samme så mange ganger for å få et akseptabelt svar.

Det er jo ikke nevnt hvor mange forsøk som må til

 

Det er jo også skrevet at den ikke var så rask hva nå det måt menes med det.

 

jeg må innrømme at jeg ser det slik at det ikke er 2 verdier der helt samtidig men at verdien veksler veldig fort mellom 2 verdier for elles vill det ikke være mulig å kunne lese av verdien.

 

Så du den videoen jeg linket til på første side i tråden ?

 

Det blir litt vanskelig å forklare om du ikke kjenner til de matematiske begrepene (?) for problemstørrelser. Vi snakker ikke her om oppgaver som tar typisk timer eller uker å løse på en vanlig datamaskin. Vi snakker om utfordringer som å løse typiske 2^n problemer, som typisk kan ta like mange år på en vanlig maskin som universet er gammelt. Da sier det seg selv at om man kan løse dette innen kort tid hva gevinsten er.

 

Jeg håper for eksempel at det vil være mulig å bruke dette til kreftforskning og slike ting. Evt. så har vel NSA lyst å ta det i bruk til å knekke kryptering og annet som er basert på faktorisering ;)

 

Det som er litt stilig med kvantemaskiner, eller qubits, er at de nettopp er i to tilstander samtidig (og ikke veksler rask som du sier), en slags "superposition" som det snakkes om. Men som du også nevner er det ikke mulig å lese av denne tilstanden. Derfor er en del av utfordringen å lage algoritmene på en slik måte at tilstanden til resultatet er lesbart.

Endret av Slettet-qfohT7
Lenke til kommentar

Videoen så jeg selv om det ikke var så lett å få noe mere ut av det en det allerede dere har skrevet. Strengt tatt så gjorde jeg det heller ikke

 

Jeg har også forstått at det er ting som tar tid på en standard pc å løs og poenget er at det skal gå kjappere med qbits. Det er ihvertfall det som er poenget

 

Det er også her måten man gjøre det på som er er vanskelig å forstå at det både skal gå raskere å løse og at man hele tiden har flere verdier samtidig

 

Hvis nå resultatet er 4 forskjellige verdier( som et eksempel) , på samme tid hvordan kan man da vite hva som er det riktige

hvordan klar man da å plukke ut et resultat når det er 4 der

leser man av resultatet 4 ganger så kan resultatet vår det samme 4 ganger , men det kan også gi 4 forskjellige resultater

 

Leser man av resultatet 40 ganger så kan man ende opp med samme resultat 40 ganger men også 4 forskjellige resultater med likt antall treff

 

Når det er 4 forskjellige resultater å velge mellom så virker det som en tilfeldighet hvilket "tall" som slår till

Da vil jeg mene at selv om man leser det av mange hundre ganger så er det tilfeldig hvilket tall som slår till

 

Da er jo resultatet ganske så tilfeldig selv om man slumper til og få samme resultat 3/4 av gangene

resultatrettet virker da alt for tilfeldig

 

Når man samtidig ikke vet hva resultatet skal være så ville ikke jeg stole for mye på resultatet som kommer ut av den

Endret av den andre elgen
Lenke til kommentar

Det som er problematisk å forstå er hvordan regnekraften øker når den må gjenta det samme så mange ganger for å få et akseptabelt svar.

Det er jo ikke nevnt hvor mange forsøk som må til

 

Det er jo også skrevet at den ikke var så rask hva nå det måt menes med det.

 

jeg må innrømme at jeg ser det slik at det ikke er 2 verdier der helt samtidig men at verdien veksler veldig fort mellom 2 verdier for elles vill det ikke være mulig å kunne lese av verdien.

 

Det er en masse beregninger der du må prøve deg frem.

Kodeknekking er en standard, sjakk trekk og pathfinding er andre.

Her snakker vi om milliarder av kombinasjoner og mer.

Så om kvante maskinen finner svaret i løpet av 10 eller 500 operasjoner er ikke så viktig.

 

Det som er viktigst for ytelsen er å ha nok qbits helst nok til å ta hele beregningen i en operasjon og slippe å dele den opp.

Og det er bare denne type beregninger den er god på, i likhet med en gpu er den spesialisert.

Lenke til kommentar

Det er en masse beregninger der du må prøve deg frem.

Kodeknekking er en standard, sjakk trekk og pathfinding er andre.

Her snakker vi om milliarder av kombinasjoner og mer.

Så om kvante maskinen finner svaret i løpet av 10 eller 500 operasjoner er ikke så viktig.

 

Det som er viktigst for ytelsen er å ha nok qbits helst nok til å ta hele beregningen i en operasjon og slippe å dele den opp.

Og det er bare denne type beregninger den er god på, i likhet med en gpu er den spesialisert.

Jeg forstår jo det

Men jo flere kombinasjoner man har jo flere resultat er det å velge mellom.

Da kan man jo spørre seg om hvordan de virkelig klarer plukke ut riktig verdier selv etter 1000 forsøk

 

Min logikk tilsier at det strengt tatt ikke er både og men enten eller mens dette er fordelt på flere celler. og at man sammenligner alle cellene for hvert forsøk

 

likevel så ser jeg ikke jeg helt hvordan man klarer å sikre resultatet

 

Så da sier man at resultatet er god nokk når 900 forsøk av 1000 gir det samme resultatet ?

jeg synes det forsatt at det lit for mye tilfeldigheter her :

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...