Gå til innhold

Google har laget kunstig intelligens som kan lære å spille dataspill helt på egen hånd


Anbefalte innlegg

Videoannonse
Annonse

Lurer på hvordan dette virker?

Systemer er ikke intelligent, men er det smart nok til å forstå regler som at om skuddene fra invaderes dreper deg? ser ikke ut som det har forstått poenget med deknings blokkene helt :)

 

Fordelen er at det er ekstremt raskt og nøyaktig så det vil være veldig godt til å ungå å bli truffet samt å treffe dem

Lenke til kommentar

 

Vi har sett eksempler på datamaskiner som spiller spill tidligere, men det store gjennombruddet i dette tilfellet er altså at systemet har operert uten noe form for forhåndsprogrammering eller instrukser fra mennesker om hvordan spillene skulle spilles. Dermed har Deep Q altså lært seg spillene helt fra bunnen av, på omtrent samme måte som et menneske ville ha gjort.

Det er alltid noe for programmering bak altså regler , for elles vil det ikke virke.

 

Et intelligent vesen er alltid i stand til å selv omdefinere reglene hvis behovet krever det , her tviler jeg derimot på at man vil få det til med bare elektronikk

på en måt så kan man si at et intelligent vesen har menge kjent og ukjente regler man reagerer på

Lenke til kommentar

Jeg regner med at programmet har følgende input:
- Kunnskap om pikslene på skjermen. (Genialt at de valgte et spill med bare to farger)
- "Virtuelt tastatur"
- beskjed om når det har vunnet/tapt

Dette høres jo ikke all verden vanskelig ut å lage. I en bok fra 1984 skrev de om noe lignende, der et program på egen hånd lærte seg balansere en pinne hengslet til en vogn (ved å bevege vogna). Vogna måtte ei heller ut av skjermen.

 

polecart.gif

 

Programmet fant ut av seg selv at når vogna nærmet seg kanten av skjermen (og pinnen pekte ut av bildet) lønte deg seg å gasse på ut mot skjermen for å vippe opp pinnen istedenfor å kjøre vogna direkte inn mot skjermen (noe som ville ført til at pinnen veltet).

 

Det skulle bare manglet at dagens programmer kan spille space invaders.

Lenke til kommentar

 

 

Vi har sett eksempler på datamaskiner som spiller spill tidligere, men det store gjennombruddet i dette tilfellet er altså at systemet har operert uten noe form for forhåndsprogrammering eller instrukser fra mennesker om hvordan spillene skulle spilles. Dermed har Deep Q altså lært seg spillene helt fra bunnen av, på omtrent samme måte som et menneske ville ha gjort.

Det er alltid noe for programmering bak altså regler , for elles vil det ikke virke.

 

Et intelligent vesen er alltid i stand til å selv omdefinere reglene hvis behovet krever det , her tviler jeg derimot på at man vil få det til med bare elektronikk

på en måt så kan man si at et intelligent vesen har menge kjent og ukjente regler man reagerer på

Det er programmering bak, men ikke regler som så. De programmerer kunstige nevrale nettverk som fungerer noenlunde på samme måte som nettverk av hjerneceller. Programmet blir "belønnet" ved å gjøre noe riktig og "straffet" ved å gjøre noe galt. Denne læringen er basert på matematiske modeller som er uavhengig av hvilket problem programmet skal lære, straffen eller belønningen gjøres ved å regulere styrken på signalene mellom nevronene som er forbundet med hverandre, som oftest lagvist.

 

Man gir programmet tusenvis/millioner av inputs som hver representerer en stilling i spillet og nettverket gir en respons. Repsonsen er random i begynnelsen, men etterhvert blir den mer og mer korrekt ettersom "signalstyrken" nevronene i mellom blir justert på en slik måte at den lærer av sine valg.

 

Dette er ikke noe nytt, man har har gjort dette siden 80-tallet. Problemet er at det krever enorm datakraft å lære disse programmene opp og ofte enorme mengde treningssett. Vi er nå kommet så langt at bildegjenkjenning gjør en like god eller bedre jobb enn mennesker på å gjenkjenne objekter i bilder.

 

Med økende prosessorkraft vil man kunne kommer nærmere og nærmere kapasiteten til den menneskelige hjerne, men vi er LANGT fra der enda. Det er allikevel på sin plass at man tenker over konsekvensene.

Lenke til kommentar

Vel en måte å ha kontroll på er å bygge inn en låst "eksisterer for.." (purpose /reason for being) modul i kjernen av alle AI systemer..

 

Modulen kan så fortelle AI'en at den skal kjøre bil best mulig, osv. I tillegg kan også da litt av tanken bak Asimow's 3 laws of robotics innkorpereres.

 

For en AI uten noen låst hensikt er potensielt Farlig og kan fort uten da utvikle seg til en selv bevist sak som selv velger sin hensikt..

Lenke til kommentar

 

 

 

Vi har sett eksempler på datamaskiner som spiller spill tidligere, men det store gjennombruddet i dette tilfellet er altså at systemet har operert uten noe form for forhåndsprogrammering eller instrukser fra mennesker om hvordan spillene skulle spilles. Dermed har Deep Q altså lært seg spillene helt fra bunnen av, på omtrent samme måte som et menneske ville ha gjort.

Det er alltid noe for programmering bak altså regler , for elles vil det ikke virke.

 

Et intelligent vesen er alltid i stand til å selv omdefinere reglene hvis behovet krever det , her tviler jeg derimot på at man vil få det til med bare elektronikk

på en måt så kan man si at et intelligent vesen har menge kjent og ukjente regler man reagerer på

Det er programmering bak, men ikke regler som så. De programmerer kunstige nevrale nettverk som fungerer noenlunde på samme måte som nettverk av hjerneceller. Programmet blir "belønnet" ved å gjøre noe riktig og "straffet" ved å gjøre noe galt. Denne læringen er basert på matematiske modeller som er uavhengig av hvilket problem programmet skal lære, straffen eller belønningen gjøres ved å regulere styrken på signalene mellom nevronene som er forbundet med hverandre, som oftest lagvist.

 

Man gir programmet tusenvis/millioner av inputs som hver representerer en stilling i spillet og nettverket gir en respons. Repsonsen er random i begynnelsen, men etterhvert blir den mer og mer korrekt ettersom "signalstyrken" nevronene i mellom blir justert på en slik måte at den lærer av sine valg.

 

Dette er ikke noe nytt, man har har gjort dette siden 80-tallet. Problemet er at det krever enorm datakraft å lære disse programmene opp og ofte enorme mengde treningssett. Vi er nå kommet så langt at bildegjenkjenning gjør en like god eller bedre jobb enn mennesker på å gjenkjenne objekter i bilder.

 

Med økende prosessorkraft vil man kunne kommer nærmere og nærmere kapasiteten til den menneskelige hjerne, men vi er LANGT fra der enda. Det er allikevel på sin plass at man tenker over konsekvensene.

 

Det du sier her er at programmet selv prøver å finne ut hvilke "regler" det skal forholde seg til

( det er vel det man kaller for selv programmering ? )

 

jeg har sagt det før , og bør gjenta det .

et intelligent og levende vesen har noen egenskaper man ikke kan programmere inn.

En av disse egenskapene er en vurdering som balanserer mellom helt tilfeldige valg og valg foretatt ut fra det man har lært

Denne balansegangen er vanskelig ( og etter min mening ) helt umulig å få til

 

Et datasystem vil derimot være i stand til å ta radom valg ( hvor mye radom det er vil alltid være en diskusjon)

Det vil også være i stand til å ta valg basert på erfaringer.

Men balansegangen mellom dem vil ikke fungere

 

Vi intelligente mennesker har derimot denne egenskapen

 

vi har også følelser som påvirker valgene våres som har stor betydning her

Lenke til kommentar

jeg har sagt det før , og bør gjenta det .

et intelligent og levende vesen har noen egenskaper man ikke kan programmere inn.

En av disse egenskapene er en vurdering som balanserer mellom helt tilfeldige valg og valg foretatt ut fra det man har lært

Denne balansegangen er vanskelig ( og etter min mening ) helt umulig å få til

 

Et datasystem vil derimot være i stand til å ta radom valg ( hvor mye radom det er vil alltid være en diskusjon)

Det vil også være i stand til å ta valg basert på erfaringer.

Men balansegangen mellom dem vil ikke fungere

 

 

Hvis du setter deg inn i hvordan nevrale nettverk (neural networks på engelsk) fungerer vil du se at det er nettopp det som skjer: Maskinen gjør valg som i utgangspunktet er tilfeldige, men jo mer den lærer jo mer er sannsynligheten for at den tar "riktig" valg, men det er ikke garantert. Læringsprosessen er ikke programmert på forhånd, den er kun gitt tilfeldige verdier og blir så presentert for "verden" og lærer av sine feil.

 

Å lære en robot å gå på ujevnt underlag var tidligere nesten umulig, fordi man i regelbasert AI måtte programmere inn alle mulige scenarier. Med nevrale nettverks basert AI går det mye lettere, fordi den lærer av sine feil hver gang den faller når den møter underlag den ikke har sett før. På samme måte som mennesker lærer. Tilsvarende når man skal lære programmer å snakke, osv.

Endret av nilsch
Lenke til kommentar

Jo, sannsyligheten er størst for at det fungerer den gangen valget er "tilfeldig" fordi den finner den løsningen som er nærmest det den har lært fra før, og det kan være et helt nytt svar som den ikke er lært opp til å gi. Jo mer den lærer jo bedre blir den på å respondere på ting den ikke har sett før.

 

Hele poenget er jo at neural networks AI er bygget opp for å fungere på samme måten som menneskehjernen.

Endret av nilsch
Lenke til kommentar

Poenget mit er at slik systemer er ikke i stand til å selv bestemme om valget skal være tilfeldig eller basert på erfaring noe vi mennesker gjør.

Slike systemer tar jo kun hensyn til den erfaringen det har bygget opp.

 

Vi har nemlig noe som heter lyst.

vi velger hva vi har lyst til å gjøre , ikke alltid hva som er mest fornuftig i forhold til erfaring

Lenke til kommentar

Slike systemer ER i stand til å bestemme valget ut i fra erfaring. Lyst er ikke annet enn "positive reinforcement", noe som brukes i neural networks.

 

Du tenker på regelbasert AI. Neural networks er ikke det. Jeg ser ikke noen grunn til å fortsette diskusjonen, men kan legge til at jeg har 7 år utdannelse innen AI og har jobbet med neural networks i 20 år, så jeg snakker av erfaring, ikke tro. :)

  • Liker 1
Lenke til kommentar

nå har jeg hør om en del såkalte intelligente systemer , men de har alltid hat en del mangler slik at de ikke vil funger som intelligente systemer

hvorfor skal det nå plutselig ikke være tilfelle.

 

Et menneske , som er intelligent , ikke kunstig intelligent har evne til å både kompasere når man mangler erfaring velge "riktig" når erfaringen" er uten betydning

 

Nå er det nå sånn ( dessverre ) at de som har jobbet lenge innenfor et felt har lett for å blir blinde for "signaler" utenfra

Sikker på at du ikke sliter lit med det

 

Egen erfaring her er jo basert på det som i utgangspunktet er programmert inn

Ergo har slik systemer en del begrensinger levende intelligente vesener ikke har

 

Da kommer også den frie viljen inn

og det er det som kan gjøre slik systemer farlige

Lenke til kommentar
  • 10 måneder senere...

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...