Gå til innhold

Intelligent liv utrydder seg selv


Anbefalte innlegg

Men spredningen ut i rommet vil jo eventuelt bare komme noen yderst få av oss til gode. Det kan vel neppe være snakk om en promille og heller ikke en tidels promille av menneskeheten. Det må for eksempel finnes nok energi og nok antall romskip til å løfte x antall mennesker ut i rommet. Intill man har klart å oppheve tyngdekraften, så har man vel et lite problem ?

 

I forhold til det som er diskutert over omkring "teknisk kybernetikk" og den slags, så er det jo fullt ut mulig i dag, rent teknisk å progremmere utskytningssystem for atomvåpen, og kjemiske våpen og biologiske våpen også, slik at hele avgjørelsesprosessen om hvor vidt våpnene skal skytes ut eller ikke og også hele styringen fram mot målet skjer helautomatisk, slik at ingen behøver å vite om at det skjer, før det allerede har skjedd.

 

Rent teknisk så er det slik at en flykaptein kan sette seg behagelig tilbake i setet på sin Boeing 737 eller sin Airbus 320, eller hva det måtte være og så bare programmere flyet til å lande på Gardemoen. Så er det bare å "kjøre i gang" og automatikken på flyet tar seg av all styring og alle praktiske avgjørelser fram til landing på Gardemoen. Det er selvfølgelig mulig å programmere flightcontrolsystemer for misiler som bærer atomvåpen og andre tilsvarende saker på samme måten. Rent teknisk så kan også avgjørelsen om å kjøre i gang også ligge i et system for kunstig intelligens.

 

Når det kommer til stykket, er det ikke de automatiserte systemene og automatiserte systemer for avgjørelser som er den største trusselen mot menneskeheten ?

 

Bør ikke noe av den viktigste utfodringen ligge i å styre utviklingen slik at mennesket styrer teknologien, i stedet for å la teknologien styre oss ?

Endret av arne22
Lenke til kommentar
Videoannonse
Annonse

Det som jeg kanskje på et vis er litt skeptisk til det er at de argumentene som står ramset opp over, det er jo forholdvsi ganske nøyaktig slik som vi tenkte for 25-30 år siden. Etter som årene går så tror man kanskje ikke på disse konlusjonene allikevell, og man innser at "det var kanskje litt for lettvint".

 

Hvilke argumenter tenker du på spesifikt? Mitt flotte "bevis" for at blue brain er mulig å gjennomføre?

 

Forskjellen på dette og spådommene fra gullalderen til AI på 50-70-tallet er at dette er et bottom-up design (som du selv nevner) mens implementasjon av sterk AI har som oftest vært top-down design.

 

Et stort problem med Blue Brain er selvsagt at selv når prosjektet er "ferdig" så har en egentlig ikke lært noe! En vet ikke engang hvordan det en har laget fungerer, akkurat som en ikke vet hvordan menneskehjernen fungerer. Men problemet er selvsagt å tro at en er "ferdig" når programmet fungerer, da har du såvidt begynt. Et av de store poengene med å ha en slik programvare-hjerne er jo selvsagt å kunne studere den. Gi den stimuli, se hvordan det blir prosessert, fjerne deler, legge til deler, modifisere den, interagere med den.

 

Det man ser som en utvikling opp gjennom årene det er at det har skjedd en formidabel utvikling kvantitativt i forhold til datateknologien, samtidig som i forhold til det kvalitative, så har det egentlig ikke skjedd så mye, og man går ennå rundt og fantaserer om å programmere hjernens funksjoner, akkurat som man gjorde det den gangen. Det virket ikke den gangen, og jeg tror vel heller ikke at det virker nå.

 

Nå er vi tilbake til sterk AI vs. svak AI. Svak AI har blitt mye bedre siden 60-tallet, sterk AI med et originalt design er vi ikke kommet noe nærmere såvidt jeg vet, men så har vi som sagt prosjekter som Blue Brain igjen. Er det "ekte" sterk AI? Det blir et definisjonsspørsmål.

 

Jeg tror ut i fra det som jeg har sett så langt at dette "blir for lettvint" og "litt for ovefladisk" når det gjelder for eksempel det som beskrives i forhold til dette "blue brain" prosjektet. Den så og si naturlige måten å avdekke dette på, det er jo å la noen slike prosjekter kjøre rundt om i verden og så se hva det i praksis blir til.

 

Så du tror de fleste med tilgang til superdatamaskiner er villige til å kaste alt de driver med for å holde på med et forskningsprosjekt de som bestemmer mest sannsynlig anser som science fiction, for ikke nevne uten noen økonomisk avkastning på horisonten?

 

Hva dette har med "teknisk kybernetikk" å gjøre. - Jo du nevnte vel selv noe med en Google bil ?!

 

Det er jo også slik at hvis datamaskinen skal kunne produsere noen annet enn tall og bostaver, da må man på et vis utstyre den med ører, nese, øyne, armer og bein, og da er man vel litt over i det som kanskje noen vil kalle for "teknisk kybernetikk". (...eller ?)

 

Nei, det imponerende med Google-bilen er ikke det elektromekaniske. Det elektromekaniske er trivielt. Det bruker maskinvare som er hyllevarer og som finnes tilsvarende av i mye annet utstyr.

 

Det som selvfølgelig er imponerende er utelukkende programvaren. Hvordan data blir hentet inn, og hvordan data blir sendt ut for å kontrollere vehikkelen er en stor del av teknisk kybnernetikk, men det er knapt en nevneverdig del av denne bragden.

 

For å ta en analogi. La oss si du klarte å lage en AI som spiller Go bedre enn de beste mennesker, dette er ansett som et uløst problem. La oss så si at du også har laget kontrollsystemer som fysisk kan flytte brikkene på brettet. Hva vil du så skryte av? Vil du skryte av at du klarer å lage en robot-arm som kan flytte noen brikker på et brett? Eller vil du skryte av hjernen som bestemmer hva som skal flyttes, og hvor?

 

Hvem som helst kan lage en bil som "kjører seg selv", men som kjører rett inn i den første fotgjenger den ser, eller som kjører rett utfor et stup. Det som er imponerende med Google-bilen er selvfølgelig hjernen bak det. At den kan skille mellom en brannhydrant og et menneske, se hvor veien går når det er dårlig merket, forstå hvordan den skal flette seg inn i trafikken, osv, osv.

 

I alle fall hvis "inteligent liv utrydder seg selv" og datamaskinen skal være noe særlig aktiv i den forbindelse, da bør den vel i alle fall ha noen ører, nese, armer og bein, og slike ting, eventuelt et innebygget maskingevær.

 

På norsk så er det vel noe som heter "humanoid robot" altså en robotkar som er litt menneskelig. Det er vel i prinsipp ikke umulig å lage en slik dings og å programmere inn i den noen små intelligente funksjoner, er det vel ?

 

Det er jo selvfølgelig fint mulig. Se på arbeidet til Boston Dynamics, dog såvidt jeg vet putter de ikke våpensystemer på sine prosjekter.

 

Det Boston Dynamics gjør dog, er mye mer i retning av det du snakker om, teknisk kybernetikk. Jeg kjenner ikke til detaljene for deres prosjekter, som sikkert ikke engang er offentlig tilgjengelig, men AI er nok en imponerende del også. Det er svært vanskelig å vurdere dog, siden det ikke finnes så detaljerte videoer over den AI-relaterte funksjonaliteten.

 

Ellers så holder jeg personlig militær og våpenindistrien som no 1 på inteligente systemer som kan bevege seg.

 

I det nye F-35 kampflyet som er på vei (om litt tid) så vil jeg tro at man finner våpensystemer som både har noen små inteligente funksjoner, og at tingene kan bevege seg. Flyet har dog allikevell ingen annen menneskelig intelligens enn den som finnes hos piloten.

 

Jeg håper du mener ikke-autonome systemer nå, og at du mener hva som er offentlig kjent. Jeg har nemlig aldri sett et imponerende autonomt militært system som (er i nærheten av å) overgå f.eks. Google-bilen eller MIT sine autonome multicopter-systemer.

Lenke til kommentar

Og når de gjelder dette begrepet "teknisk kybernetikk" så ser det ikke ut til å ha skjedd noen store moteendringer. Faget ser ut til til å være identisk det samme man på amerikansk hele tiden har hatt navnet "Control Systems"

 

http://www.itk.ntnu....n/kybernetikken

 

Hvis man legger inn noen intelligente funksjoner i for eksempel et "flight control system", eller et "robot control system" eller et "misile control system", skulle det da bli til noe annet enn et "control system" ?

 

Skulle et navn som "intelligent control system" være brukbart ?

 

Nei, det er to forskjellige ting. Husk at vi i denne tråden ønsker å snakke om AI på så høyt nivå som mulig, helst sterk AI.

 

Motorikken til mennesket, som styres av lillehjernen er mennesket sitt kontrollsystem, sammen med det nødvendige støtteapparatet som det periferiske nervesystemet. Helt primitive funksjoner som å trekke til seg hånden når du brenner deg skjer via en "closed loop" med afferent og efferent nervebaner. Det krever ikke noen høyere form for intelligens. Andre ting, som å holde balanse og motorminne blir i hovedsak utført av lillehjernen (og basalgangliene).

 

Så se på en datamaskin. La oss se på f.eks. Apollo Guidance Computer, den er i stand til å kontrollere pitch, roll, yaw og synkronisere en drøss med små thrustere i sanntid for å holde kursen på rett kjøl til romskipet. Men hvem er det som faktisk står for å styre romskipet og lande det på månen? Er det kontrollsystemet? Nei. Kontrollsystemet gjør ikke annet enn slik astronautene befaler, selvfølgelig. Det er menneskene som egentlig styrer via dette fly-by-wire-systemet. Dette er ingenting nytt og er det samme du ser på F-35 og selv 70-tallets F-16.

 

Hva hvis du programmerte inn en svak AI til Apollo Guidance Computer som styrte hele ferden, 100% autonomt? Sett fra en programmerer sitt ståsted, er det da kontrollsystemet, som interagerer med maskinvaren (thrustere, spoler, sensorer, ventiler) som styrer romskipet? Nei, det er AI-modulen til programmet som styrer, og som bruker kontrollsystemet som interagerer med romskipet på et lavere nivå.

 

Akkurat hvor mye funksjonalitet du kan putte inn i et "kontrollsystem" er jo nærmest vilkårlig. Men i all praktisk forstand vil det før eller siden bli meningsløst å snakke om høyere intelligens og et kontrollsystem uten å separere de to, slik vi gjør i f.eks. mennesker.

Lenke til kommentar

For å oppsummere litt:

 

Hve er egentlig "kunstig intelligens" (AI). Her har vil litt wikipedia beskrivelse både på engelsk og på norsk:

http://en.wikipedia.org/wiki/Artificial_intelligence

http://no.wikipedia.org/wiki/Kunstig_intelligens

 

Så er det noe man kaller for svak og sterk AI litt brukbar beskrivelse her:

http://folk.uio.no/ivaruf/AI/Prosjekt/index.php?del=sti_to&side=1

 

"Autonon" betyr "selvstryrende"

http://snl.no/autonom

 

Her kan man se en kort beskrivelse av sentralnerve systemet, inklusive "det autonome systemet"

http://www.logy.dk/Demens/centralnervesystemet.htm

(Man kan notere seg at sentralnevesystemet faktisk har noenlunde den samme oppbygging som et flight control system, når man er på et blokkskjematisk nivå.)

 

Her har vi også en interessant artikkel om "intelligent flight control systems":

http://en.wikipedia.org/wiki/Intelligent_flight_control_system

 

Og litt om "Boston Dynamics":

http://www.bostondynamics.com/bd_about.html

Lenke til kommentar

Omkring flightcontrol systemer (og autopiloter):

 

Når det gjelder moderne flightcontrol systemer, så har jo disse vanligvis (på litt større fly) så har jo disse vanligvis innebygget en autopilot som gjør at systemet som helhet kan kjøres "autonomt".

 

Pilotens "normale arbeidsoppgave" vil således være å være til stede og overvåke flyet som flyr seg selv.

 

Om begge pilotene velger å sette seg bak blandt pasasjerene og drikke kaffe, så blir flyturen stadig vekk den samme, men man vil bryte en del sikkerhetsbestemmelser. (Minst en pilot må være til stede som backup for autopiloten.)

 

Rent teknisk så er det jo ingen ting ingen ting i veien for, i dag, at pilotene kan sitte å sove på jobb mens flyet flyr seg selv, "autonomt" på de lange interkontinentale flyvningene.

 

Fly som "flyr seg selv" uten noen form for menneskelig inngripen, det er jo det som er det mest vanlige nå i dag. Det er et stykke tid siden det var vanlig "å fly for hånd", annet enn den siste del av landingsfasen. (På grunn av formelle regelbestemmelser rundt dette.)

 

Det vil vel være merkelig om ikke F-35 har et autopilotsystem som medfører at flyet kan fly seg selv uten noen pilot som styrer flyvingen. Jeg vil vel se det som en selvfølge at det har det, og at autopilot funksjonene er fullt ut på høyde med de sivile flyene.

Lenke til kommentar

Omkring flightcontrol systemer (og autopiloter):

 

Når det gjelder moderne flightcontrol systemer, så har jo disse vanligvis (på litt større fly) så har jo disse vanligvis innebygget en autopilot som gjør at systemet som helhet kan kjøres "autonomt".

 

Pilotens "normale arbeidsoppgave" vil således være å være til stede og overvåke flyet som flyr seg selv.

 

Om begge pilotene velger å sette seg bak blandt pasasjerene og drikke kaffe, så blir flyturen stadig vekk den samme, men man vil bryte en del sikkerhetsbestemmelser. (Minst en pilot må være til stede som backup for autopiloten.)

 

Rent teknisk så er det jo ingen ting ingen ting i veien for, i dag, at pilotene kan sitte å sove på jobb mens flyet flyr seg selv, "autonomt" på de lange interkontinentale flyvningene.

 

Fly som "flyr seg selv" uten noen form for menneskelig inngripen, det er jo det som er det mest vanlige nå i dag. Det er et stykke tid siden det var vanlig "å fly for hånd", annet enn den siste del av landingsfasen. (På grunn av formelle regelbestemmelser rundt dette.)

 

Det vil vel være merkelig om ikke F-35 har et autopilotsystem som medfører at flyet kan fly seg selv uten noen pilot som styrer flyvingen. Jeg vil vel se det som en selvfølge at det har det, og at autopilot funksjonene er fullt ut på høyde med de sivile flyene.

 

Det er et teknisk problem, fordi at sikkerheten i fly er så høy at i de tilfellene ekstreme situasjoner oppstår forventes det at kontrollorganet i flyet (hva nå enn det skulle være) håndterer nettopp slike situasjoner.

 

Et slikt autopilotsystem du snakker om vil f.eks. typisk ikke implementere noe logikk for å nødlande i vilkårlig geometri. Dette er en av tingene mennesker gjør mye bedre enn datamaskiner, f.eks. hvordan en vurderer hva som vil minimere antall liv som går tapt i forhold til hvor en nødlanding er bra å gjennomføre.

 

Dog, slik nødlanding og andre nødsituasjoner kan fint implementeres som svak AI. Men det er ikke klart at ved å bare ekstrapolere på slike syster som en finner i fly og andre kjøretøy at en vil nå sterk AI på noen måte. Det er dog helt innlysende at en vil nå en form for sterk AI med en bottom-up fremgangsmåte for å simulere menneskehjernen med høy approksimasjon.

Lenke til kommentar

 

Hvem som helst kan lage en bil som "kjører seg selv", men som kjører rett inn i den første fotgjenger den ser, eller som kjører rett utfor et stup. Det som er imponerende med Google-bilen er selvfølgelig hjernen bak det. At den kan skille mellom en brannhydrant og et menneske, se hvor veien går når det er dårlig merket, forstå hvordan den skal flette seg inn i trafikken, osv, osv.

 

 

Av det som blir beskrevet over så er jo dette funksjoner som kan legges inn legges inn i systemer og komponenter som er standard hyllevare for industriell automasjon.

 

En robot vil for eksempel kunne "se" hva som kommer på et transportbåd og så velge "handlig" ut i fra dette. (systemer levers for eksempel fra Japanske Omron.)

 

For et bevegelig kjøretøy så skulle det være nokså banalt å legge opp systemer som hindrer den i å kjøre utenfor en kant eller å kjøre på et menneske. Tror dette finnes allerede i industriell utgave som del av automatisere lagersystemer.

 

Det norske selkapet "Tomra" produserer jo flaskeautomater og andre sorteringssystemer som kan "se" og sortere ulige ting.

http://www.tomra.com/default.asp?V_ITEM_ID=10

 

Det skulle vært interessant å sette en litt nærmere beskrivelse av Google bilen for å kunne bedømme hva den har, ut over det forholdvis trivielle.

Lenke til kommentar

Vi har ikke noe grunnlag for å konkludere med det ene eller andre. Men det som er helt klart er at vi er nødt til å spre oss utover i universet om vi skal overleve på lengre sikt. Den største trusselen akkurat nå er atomvåpen.

Hvorvidt atomvåpen er den største trusselen kan vel diskuteres. National Geographic for eksempel beskriver syntetisk biologi som vår største trussel.

Lenke til kommentar

Den store begrensningen til "Strong AI" eller "sterk AI" det er jo at dette er et fantasiprodukt som ikke finnes. Sannsynligvis kommer det heller ikke noen gang til å finnes.

 

"Strong AI" får således heller ikke blitt noen større trussel mot meneskeheten, da det kun er de trusler som faktisk finnes som kan utgjøre virkelige trusler.

 

Ellers så er jo det som nevnes over om at pilotene er der for å kunne imrprovisere ved nødsistuasjoner eller situasjoner der det automatiserte systemet feiler.

Lenke til kommentar

Av det som blir beskrevet over så er jo dette funksjoner som kan legges inn legges inn i systemer og komponenter som er standard hyllevare for industriell automasjon.

 

En robot vil for eksempel kunne "se" hva som kommer på et transportbåd og så velge "handlig" ut i fra dette. (systemer levers for eksempel fra Japanske Omron.)

 

 

 

Du som har tatt en utdannelse innen informatikk bør kjenne til problemet med formalisering. Det er IKKE standard hyllevare å kunne identifisere et vilkårlig objekt basert på geometri alene, dette er et åpent problem innen visuell prosessering og er ikke løst generelt sett.

 

Det du tenker på, ifm. automasjon på samlebånd er enten sensorer som registrerer at "noe" kommer, og antar det er rett type objekt, eller et system som kan identifisere objektet basert på RFID, QR-kode, bar-kode, o.l. Det sistenevnte er da det som formaliserer objektet og gjør jobben enkel, dette er hyllevare.

 

 

For et bevegelig kjøretøy så skulle det være nokså banalt å legge opp systemer som hindrer den i å kjøre utenfor en kant eller å kjøre på et menneske. Tror dette finnes allerede i industriell utgave som del av automatisere lagersystemer.

Det norske selkapet "Tomra" produserer jo flaskeautomater og andre sorteringssystemer som kan "se" og sortere ulige ting.

http://www.tomra.com...sp?V_ITEM_ID=10

Det skulle vært interessant å sette en litt nærmere beskrivelse av Google bilen for å kunne bedømme hva den har, ut over det forholdvis trivielle.

 

Du misforstår. Det er trivielt å hindre en liten lekebil som kjører sakte, å ikke kjøre utenfor et stup, ja. Men du overser så utrolig mange problemer og forenkler problemstillingen på en kunstig måte.

 

Hvordan vet du engang hvor veien går? Husk at bilen kjører i kanskje 50 km/h på en vei som er dårlig merket. Du kan ikke bare stoppe fra 50 km/h til 0 km/h i det du merker at "oi, nå kjører jeg visst ut i skogen!".

 

Ja, du kan fint lage et system som merker at det er et fremmedobjekt midt i veien, og så bremse rolig opp. Men problemet med brannhydrant/menneske er mye mer omfattende enn som så. En bil som kjører langs en vei og ser et menneske som står nært veien bør redusere farten, i mange tilfeller. Hvordan vet du om det objektet du ser som står nært veikanten er et barn, eller en brannhydrant? Ser du problemet?

Endret av Storgen
Lenke til kommentar

En interessant problemstilling:

 

Hva er egentlig de grunnleggende og typiske egenskapene til et "AI system" kontra "et annet system".

 

På tvers av de forskjellige varianter av den praktiske anvendelse, så vil jeg forsøksvis definere slik:

 

"Et AI system er et system som ved sin tiltenkte og normale bruk vil komme opp med løsninger som den som programmerte eller skapte systemet ikke hadee tenkt gjennom eller var i stand til å forutsi".

 

Et Ai system "lager" så og si "sine egne løsninger" uten at det er noen som har bestemt på forhånd at "slik er det konklusjonen skal være".

 

Dette er jo helt motsatt av hvordan man ønsker at for eksempel en Autopilot for fly skal fungere. Den kan nok utføre mange "intelligente funksjoner" som er "predefinerte", men man ønsker absolutt ikke at den skal si noe slik som: "Surprice, surprice, jeg fløy dere til London i stedet".

Lenke til kommentar

Den store begrensningen til "Strong AI" eller "sterk AI" det er jo at dette er et fantasiprodukt som ikke finnes. Sannsynligvis kommer det heller ikke noen gang til å finnes.

 

"Strong AI" får således heller ikke blitt noen større trussel mot meneskeheten, da det kun er de trusler som faktisk finnes som kan utgjøre virkelige trusler.

 

Ellers så er jo det som nevnes over om at pilotene er der for å kunne imrprovisere ved nødsistuasjoner eller situasjoner der det automatiserte systemet feiler.

 

Det er svært naivt å påstå at det mest sannsynlig aldri vil kunne finnes. Vi er såvidt i barndommen til datamaskiner og teknologi generelt sett. Menneskene har ikke engang i nevneverdig grad begynt å modifisere seg selv enda. Alt vi har av høyteknologi i dag er latterlig trivielt i forhold til hvordan det bare vil være noen få hundre år frem i tid, hvis en ekstrapolerer på dagens utvikling.

 

Husk at datateknologi utvikler seg ikke lineært, men eksponentielt (Moore's lov, og diverse).

 

Begrunnelse for å si at sterk AI vil komme er å bare ekstrapolere på dagens utvikling. Hvilken begrunnelse har du får å si at det ikke kommer til å skje?

Lenke til kommentar

En interessant problemstilling:

 

Hva er egentlig de grunnleggende og typiske egenskapene til et "AI system" kontra "et annet system".

 

På tvers av de forskjellige varianter av den praktiske anvendelse, så vil jeg forsøksvis definere slik:

 

"Et AI system er et system som ved sin tiltenkte og normale bruk vil komme opp med løsninger som den som programmerte eller skapte systemet ikke hadee tenkt gjennom eller var i stand til å forutsi".

 

 

Det er ikke nødvendigvis korrekt, så definisjonen blir mangelfull.

 

Du kan fint ha en svært enkel AI som kun har to funksjoner, "GO" og "STOP". AIen styrer et samlebånd:

 

1: Hvis den oppdager et fremmedlegeme, send STOP-signal.

2: Hvis den ikke oppdager et fremmedlegeme, send GO-signal.

 

Programmereren kan på forhånd se for seg alle løsninger på problemet. Systemer som ikke er dramatisk mye mer avansert enn dette er flittig i bruk, i forskjellige grader.

 

Wikipedia sin definisjon er fin:

 

Artificial intelligence (AI) is the intelligence of machines and robots and the branch of computer science that aims to create it.

 

Den er dog litt mangelfull den også, en kan nemlig fint ha en AI uavhengig av roboter og mekaniske maskiner, med mindre "machines" impliserer datamaskin.

Lenke til kommentar

Du som har tatt en utdannelse innen informatikk bør kjenne til problemet med formalisering. Det er IKKE standard hyllevare å kunne identifisere et vilkårlig objekt basert på geometri alene, dette er et åpent problem innen visuell prosessering og er ikke løst generelt sett.

 

Det du tenker på, ifm. automasjon på samlebånd er enten sensorer som registrerer at "noe" kommer, og antar det er rett type objekt, eller et system som kan identifisere objektet basert på RFID, QR-kode, bar-kode, o.l. Det sistenevnte er da det som formaliserer objektet og gjør jobben enkel, dette er hyllevare.

 

 

Kan ikke huske at jeg har sett ordet "formalisering" på pensumplane, men jeg vil gå ut fra at det dreier seg om noe i retning av "objektbeskrivelse", "objektklassifisering" og "objektgjenkjenning". (Og eller så kan man jo ha glemt.)

 

Finnes det en internett eller lærebokreferanse ?

 

Ingen objektgjenkjenning kan skje vilkålig uten å referere til "kjente former". Dette gjelder også for mennesker. Ved besøk aliens fra det ytre rom så er det jo ikke sikkert at man vil forstå hva dette er.

 

Det er nok slik at i industrien så velger man løsninger som er rimelige sikre og effektive. Derfor så vil det jo vanligvis fungere "best", hvis man har en eller annen "merking" ev de objektene som skal identifiseres.

 

Gjennkjenningssystemer som kan "se" objektene og identifisere ut i fra "utseende" geometri er imidlertid også hylllevare. "Synsevnen" kan også gjøres tredimensjonal, slik at det automatisere systemet kan "se" og identifisere opjektet der det er og gi tilbakemelding om eksakte romkoordinater.

 

Disse systemene står blant annet beskevet i "varekatalogen" til Omron. (Jeg fikk dette beskrevet og demonstrert av nevnte leverandør, men jeg går vel ut fra at det er flere med tilsvarende produkt på markedet.)

 

(Men et system for visuell objektgjenkjenning vil selvølgelig måtte konfigureres for de objekter det skal kjenne igjen.)

 

Rettelse:

 

Nå juger jeg visst litt. Det system som jeg faktisk så demonstrert fra Omron det var et system for bestemmesle av romkordinater til et objekt som "trenger inn" i en overvåket sone. Det var ikke noe system for å identifisere objektet. Systemet fungerte ved hjelp av lazer som "sveipet" rommet. (Lazer og roterende speil.)

 

Jeg mener dog dog å huske at det ble lagt fram dokumentasjon for og beskrivelse av systemer for viruell gjenkjenning av objekter.

 

Skal tro om man ikke har noe her .. ??

http://www.ia.omron.com/products/category/sensors/vision-sensors_machine-vision-systems/index.html

Endret av arne22
Lenke til kommentar

Kan ikke huske at jeg har sett ordet "formalisering" på pensumplane, men jeg vil gå ut fra at det dreier seg om noe i retning av "objektbeskrivelse", "objektklassifisering" og "objektgjenkjenning". (Og eller så kan man jo ha glemt.)

 

Finnes det en internett eller lærebokreferanse ?

 

Eneste jeg har for hånden er en gammel bok "The Internet, The Web, and eBusiness: Formalizing Applications for the Real World", av Kai A. Olsen.

 

Formalisering er å gi eksakt, utvetydig spesifikasjon på data, oppgaver eller prosesser.

 

Det er dog kanskje ikke så vanlig å ta dette opp på informatikk, jeg er faktisk litt usikker. Men det er ihvertfall veldig viktig ifm. ting som AI. Hvis du ikke kan formalisere problemstillingen, så klarer du ikke lage noen svak AI som håndterer den heller.

 

Ingen objektgjenkjenning kan skje vilkålig uten å referere til "kjente former". Dette gjelder også for mennesker. Ved besøk aliens fra det ytre rom så er det jo ikke sikkert at man vil forstå hva dette er.

 

Det er nok slik at i industrien så velger man løsninger som er rimelige sikre og effektive. Derfor så vil det jo vanligvis fungere "best", hvis man har en eller annen "merking" ev de objektene som skal identifiseres.

 

Gjennkjenningssystemer som kan "se" objektene og identifisere ut i fra "utseende" geometri er imidlertid også hylllevare. "Synsevnen" kan også gjøres tredimensjonal, slik at det automatisere systemet kan "se" og identifisere opjektet der det er og gi tilbakemelding om eksakte romkoordinater.

 

Disse systemene står blant annet beskevet i "varekatalogen" til Omron. (Jeg fikk dette beskrevet og demonstrert av nevnte leverandør, men jeg går vel ut fra at det er flere med tilsvarende produkt på markedet.)

(Men et system for visuell objektgjenkjenning vil selvølgelig måtte konfigureres for de objekter det skal kjenne igjen.)

 

 

Ja, det er riktig at du får hyllevare-systemer som også kan visuelt identifisere spesifikke objekter, jeg bare begrenser litt antall eksempler jeg tar med, ellers blir jeg aldri ferdig. Men nøkkelordet her er spesifikke objekter. Du vil dog ikke finne hyllevarer som sammensatt gir i nærheten av samme funksjonalitet som Google-bilen. Ja, du finner nok LIDARen, GPS-systemet, datamaskinen, Prius-bilen, og til og med kart-data tilgjengelig som hyllevarer, men igjen det er ikke dette som er imponerende med Google-bilen, det er programmeringen bak det som er hele bragden.

 

En kan dog fint se for seg et dataprogram som har et diskré sett med grunnleggende objekter, samt forståelse for kontekst (det er bl.a. dette som skiller svak AI fra sterk AI) som gjør at ved å bruke dette settet med grunnleggende objekter, kan dataprogrammet ta et nytt vilkårlig objekt og identifisere mindre deler av objektet som sin komposisjon gjør at objektet sannsynligvis har den og den funksjonen og er av den og den typen. Det er slik mennesker fungerer.

 

F.eks. et menneske som ser en ny type sportsbil vil forstå både type og funksjon til bilen basert på mindre delmengder av objektet som blir gjenkjent (som f.eks. fire hjul, ratt, vinge bak, strømlinjeformet utseende, o.l.). Det er dette jeg mener med å identifisere vilkårlig geometri.

 

Dessuten finnes det andre måter å identifisere objekter på, men som igjen krever forståelse for kontekst for å komme noen vei. F.eks. måling av vekt, testing av strukturell integritet, spektroskopi, osv. Det er slik mennesker ville ha undersøkt et ukjent objekt, og en datamaskin som ikke har en omfattende liste med objekter fra før (men som har sterk AI) vil kunne lære seg om verden på samme måten.

Lenke til kommentar

Mye interessant og lærerikt i denne tråden, bortsatt fra at det kanskje bli litt mye teknologi og litt lite om verdens undergang.

 

Når det gjelder dette med AI eller kunstig intelligens, så er det viktig å merke seg, slik som jeg ser det at "kunstig intelligens" er det den er nemlig "kunstig".

 

På samme måte som "kunstige blomster" kan gjøre oppgaven til "ekte blomster" så vil ulike utgaver av "AI" til tider kunne gjøre jobben til ekte intelligens. Noen ganger så vil de kunstige blomstene kunne gjøre jobben bedre enn de ekte blomstene. Hvis man reiser bort i 3 måneder og returnerer, så står vel de kunstige blomstene der som før. Det gjelder vel ikke nødvendigvis de ekte blomstene.

 

Man kan male et bilde av en katt, og man kan lage det så nøyaktig man bare vil, men det vil stadig vekk ikke være en katt. Man kan også bygge en automatisert dokke som forestiller en katt og som sier "mjau", men det vil stadig vekk heller ikke være en katt, men kvalitativt noe helt annet.

 

På samme måte så vil det man utvikler innefor "Blue Brain" prosjektet kunne være en mer eller mindre god modell av en hjerne, eller deler av en hjerne, men det vil rent kvalitativt være noe helt annet.

 

Hvorfor er det slik ? Det skyldes nok at dersom man tar på seg de faglige brillene fra ett fagområde, så ser man det ene utsnitt av virkeligheten som er relatert til det ene faget. Det samme "utsnittet av virkeligheten" vil i virkeligheten kunne beskrives ut i fra en lang rekke forskjellige faglige perspektiv og se forskjellig ut, alt etter hva slags faglige briller man tar på seg.

 

For å forstå noe av "naturlig" og "kunstig" intelligens så skal man først og fremst ha faglige tngde innefor fagområder som for eksempel filosofi, læringspsykologi og nevrologi. "Slik som observert fra et teknologisk ståsted" er bare en liten del av denne totele problemstillingen. "Slik som betraktet av an programmerer" er bare en bit av den gruppe av problemstillinger som faller inn under de tekniske fagdisiplinene.

 

Et prosjekt som Blue Brain prosjektet er således mye tilpasset dem som ikke "ser" denne helheten på tvers av faggrensene. Man tegner et bilde av en katt og så tror man at det er en katt. Det vil selvfølgelig vise seg at så ikke er tilfellet.

 

For litt helhetlig og tverrfaglig (gratis) læring så anbefales nettstedene til Bekely og MIT. Berkely er spesielt god på filosofidelen av denne totale problemstillingen, synes jeg. MIT har veldig mye på det tekniske området.

 

http://webcast.berkeley.edu/

 

http://ocw.mit.edu/index.htm

Lenke til kommentar

Mye interessant og lærerikt i denne tråden, bortsatt fra at det kanskje bli litt mye teknologi og litt lite om verdens undergang.

 

Når det gjelder dette med AI eller kunstig intelligens, så er det viktig å merke seg, slik som jeg ser det at "kunstig intelligens" er det den er nemlig "kunstig".

 

På samme måte som "kunstige blomster" kan gjøre oppgaven til "ekte blomster" så vil ulike utgaver av "AI" til tider kunne gjøre jobben til ekte intelligens. Noen ganger så vil de kunstige blomstene kunne gjøre jobben bedre enn de ekte blomstene. Hvis man reiser bort i 3 måneder og returnerer, så står vel de kunstige blomstene der som før. Det gjelder vel ikke nødvendigvis de ekte blomstene.

 

Man kan male et bilde av en katt, og man kan lage det så nøyaktig man bare vil, men det vil stadig vekk ikke være en katt. Man kan også bygge en automatisert dokke som forestiller en katt og som sier "mjau", men det vil stadig vekk heller ikke være en katt, men kvalitativt noe helt annet.

 

På samme måte så vil det man utvikler innefor "Blue Brain" prosjektet kunne være en mer eller mindre god modell av en hjerne, eller deler av en hjerne, men det vil rent kvalitativt være noe helt annet.

 

Hvorfor er det slik ? Det skyldes nok at dersom man tar på seg de faglige brillene fra ett fagområde, så ser man det ene utsnitt av virkeligheten som er relatert til det ene faget. Det samme "utsnittet av virkeligheten" vil i virkeligheten kunne beskrives ut i fra en lang rekke forskjellige faglige perspektiv og se forskjellig ut, alt etter hva slags faglige briller man tar på seg.

 

For å forstå noe av "naturlig" og "kunstig" intelligens så skal man først og fremst ha faglige tngde innefor fagområder som for eksempel filosofi, læringspsykologi og nevrologi. "Slik som observert fra et teknologisk ståsted" er bare en liten del av denne totele problemstillingen. "Slik som betraktet av an programmerer" er bare en bit av den gruppe av problemstillinger som faller inn under de tekniske fagdisiplinene.

 

Et prosjekt som Blue Brain prosjektet er således mye tilpasset dem som ikke "ser" denne helheten på tvers av faggrensene. Man tegner et bilde av en katt og så tror man at det er en katt. Det vil selvfølgelig vise seg at så ikke er tilfellet.

 

For litt helhetlig og tverrfaglig (gratis) læring så anbefales nettstedene til Bekely og MIT. Berkely er spesielt god på filosofidelen av denne totale problemstillingen, synes jeg. MIT har veldig mye på det tekniske området.

 

http://webcast.berkeley.edu/

 

http://ocw.mit.edu/index.htm

 

Når jeg snakker om sett fra en programmerer sitt ståsted, så er det i konteksten Google-bilen og AI/kontroll-systemer. Hvis du skal snakke om kognitiv vitenskap må du trekke inn mer enn bare programmering, men det har jeg jo gjort også.

 

Det du snakker om med kunstige blomster og kunstige katter er filosofisk sett Thesusskipet. Det er et filosofisk paradoks om hvorvidt et objekt som har hatt alle sine komponenter byttet ut, er samme objekt.

 

Svaret på dette koker selvsagt ned til hva "samme objekt" betyr. For et menneske, så vil du ikke være samme persom som fra du er 10 år til du er 50 år, er du samme objekt? De fleste vil si ja. Selv fra dag til dag vil alle mennesker endre seg litt, den subatomiske komposisjonen til kroppen og ikke minst hjernen (kjemisk og elektrisk tilstand, for å nevne noe på høyere nivå) vil endre seg fra minutt til minutt, dag til dag. Er det samme objekt? De fleste vil påstå de er samme person fra dag til dag.

 

Så hva med katter og blomster? Jo, du kan fint redusere en kunstig blomst og kunstig katt til Thesusskipet, det er kun avhengig av graden av approksimasjon. Du kan få approksimasjonen vilkårlig lik originalen. Så dersom du lager en kunstig katt, som ikke engang er mulig å skille fra den originale katten, hvordan kan du da si at det ikke er en ekte katt?

 

På samme måte så vil det man utvikler innefor "Blue Brain" prosjektet kunne være en mer eller mindre god modell av en hjerne, eller deler av en hjerne, men det vil rent kvalitativt være noe helt annet.

 

Hvorfor er det kvalitativt noe annet, dersom approksimasjonen er god nok til å ikke kunne måle noen forskjell? Det er selvfølgelig en annen implementasjon, men resultatet, intelligensen, bevisstheten, alle tanker som hjernen er fysisk i stand til å produsere, vil hverken ha noen kvalitativ eller kvantitativ forskjell.

Lenke til kommentar

Her var det jo mye interessant, men mitt syn på saken, det er som nevnt at det vil være en forskjell på en levenede intelligens og en død intelligens, på samme måte som det er forskjell på levende blomster og kunstige blomster. En kunstig blomst blir ikke mer levende av å være mer lik en levende blomst. selv om det eventuelt kan se ut slik.

 

Heller ikke på celle nivå, så er man i stand til å skape liv ved å designe en kunstig celle som er helt lik en levende celle.

 

Hvis man skulle lage en "teknisk kopi" av en hjerne så ville det være en forutsetning at man hadde en teknisk beskrivelse eller en forståelse av originalutgaven, hvordan denne fungerer sett fra et "teknisk perspektiv". Det har man jo på ingen måte. Innenfor nevrologien så kjenner man jo kun til en promille eller en prosent eller noe slikt av hvordan hjernen fungerer, ut i fra en "teknisk funksjonell betraktning". Man kan således ikke kopiere noe som er ukjent, og som man ikke har forståelse for.

 

Gitt forutsetning at en gang i framtiden, for eksempel om 100 år så har man en sånn rimelig grad av forståelse for hjernens "tekniske virkemåte". Da har man kommet så langt at man har en "systemspec" som man kan bruke som grunnlag for kopien.

 

Da har man kommet så langt at man omsider kan begyne på alle de andre fagområdene som denne problemstillingen også omfatter. Konklusjonen om ytterligere 100 år, det vil vel være at nei det lot seg nok ikke gjøre, selv mom det ble ganske likt så ble den aldri levende.

 

Grunnen til dette finner man jo allerede nå innefor et helt annet fagområde som heter "analytisk filosofi".

 

Når det gjelder dette som man kaller "nevrale nettverk", så er det ganske interessant å se på "hvordan gjør man egentlig dette, og hva er det egentlig for noe".

 

Det som man får inntrykk av når man kikker inn på beskrivelsen set er jo at det rett og slett og i all enkelhet dreier seg om helt gammeldags og tradisjonell programmering og programeksekvering, dog med noen programmeringsteknikker som er optimalisert i forhold til anvendelsen.

 

http://no.wikipedia....evralt_nettverk

 

Hvis man skal bruke en slik basisteknologi til å lage et bilde eller en etterligning, så vil jo basisteknologien eller den grunnleggende funksjonelle virkemåte i originalen og i kopien være nokså radikalt forskjellige.

Endret av arne22
Lenke til kommentar

Her var det jo mye interessant, men mitt syn på saken, det er som nevnt at det vil være en forskjell på en levenede intelligens og en død intelligens, på samme måte som det er forskjell på levende blomster og kunstige blomster. En kunstig blomst blir ikke mer levende av å være mer lik en levende blomst. selv om det eventuelt kan se ut slik.

 

Heller ikke på celle nivå, så er man i stand til å skape liv ved å designe en kunstig celle som er helt lik en levende celle.

 

Det virker litt som om du ikke er villig til å diskutere saken med de konseptene jeg introduserer. Dette er Thesusskipet og må diskuteres med det (eller noe tilsvarende hjelpemiddel) som utgangspunkt, ellers kommer vi ingen vei,

 

Hva er din definisjon på "intelligens" og "liv"?

 

Når er to objekter "forskjellig"?

 

Hvis man skulle lage en "teknisk kopi" av en hjerne så ville det være en forutsetning at man hadde en teknisk beskrivelse eller en forståelse av originalutgaven, hvordan denne fungerer sett fra et "teknisk perspektiv". Det har man jo på ingen måte. Innenfor nevrologien så kjenner man jo kun til en promille eller en prosent eller noe slikt av hvordan hjernen fungerer, ut i fra en "teknisk funksjonell betraktning". Man kan således ikke kopiere noe som er ukjent, og som man ikke har forståelse for.

 

Gitt forutsetning at en gang i framtiden, for eksempel om 100 år så har man en sånn rimelig grad av forståelse for hjernens "tekniske virkemåte". Da har man kommet så langt at man har en "systemspec" som man kan bruke som grunnlag for kopien.

 

Da har man kommet så langt at man omsider kan begyne på alle de andre fagområdene som denne problemstillingen også omfatter. Konklusjonen om ytterligere 100 år, det vil vel være at nei det lot seg nok ikke gjøre, selv mom det ble ganske likt så ble den aldri levende.

 

Grunnen til dette finner man jo allerede nå innefor et helt annet fagområde som heter "analytisk filosofi".

 

Når det gjelder dette som man kaller "nevrale nettverk", så er det ganske interessant å se på "hvordan gjør man egentlig dette, og hva er det egentlig for noe".

 

Det som man får inntrykk av når man kikker inn på beskrivelsen set er jo at det rett og slett og i all enkelhet dreier seg om helt gammeldags og tradisjonell programmering og programeksekvering, dog med noen programmeringsteknikker som er optimalisert i forhold til anvendelsen.

 

http://no.wikipedia....evralt_nettverk

 

Hvis man skal bruke en slik basisteknologi til å lage et bilde eller en etterligning, så vil jo basisteknologien eller den grunnleggende funksjonelle virkemåte i originalen og i kopien være nokså radikalt forskjellige.

 

Dette med konkret hvorfor og hvordan Blue Brain er mulig å gjennomføre har vi jo allerede vært gjennom i denne tråden.

 

Det er ikke behov for å forstå hvordan hjernen fungerer, i det heletatt, for å lage en kopi av den. Det eneste en trenger å forstå er hvordan de mest grunnleggende komponentene en ønsker å jobbe med fungerer (nevroner, glia, synapser), kartlegge disse, bit for bit, og designe de inn i en simulator.

 

Det er ikke mer komplisert enn at en skulle sitte på en forelesning innen kvantemekanikk, som en ikke følger med på, og ikke forstår noe som helst av, men likevel noterer ned (korrekt) all matematikken, og er god nok i matematikk til å deretter bruke matematikken som en kokebok for å komme frem til svar. En trenger ikke kunne utlede formler og forstå hvorfor formlene er slik som de er, for å bruke de. Det er akkurat det samme konseptet når det gjelder mangel på forståelse for en slik hjerne-simulator.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...