Gå til innhold

– Ingen er AI-ekspert


Anbefalte innlegg

Videoannonse
Annonse
Gjest Slettet+5132
26 minutes ago, Eplekatt said:

Endelig noen som får fram sannheten...

A.I., Neural Network, Deep (something), osv alt er bs reklameprat..

Quantum maskiner er vell det eneste som kansje blir en realitet i nærmeste framtid..

https://img.devrant.com/devrant/rant/r_639361_fqtsp.jpg

https://images-cdn.9gag.com/photo/aOYA1mE_460s.jpg

Mja, Neural networks, deep neural networks er ekte det, og de har ekstremt gode approksimasjonsegnsakper (matematisk bevist). Spørsmålet er om en kan faktisk lære de underliggende funksjonene som styrer si ansiktsgjennkjenning med så lite data en ofte har, og med de algoritmene en bruker.

Maskinlæring/deep learning er en realitet nå, men spørsmålet er hvor godt det faktisk fungerer.

Forresten, det er ikke konveks optimering når aktiveringsfunksjonen ikke er ReLU ;)

Lenke til kommentar
14 hours ago, PingEnt said:

Maskinlæring/deep learning er en realitet nå, men spørsmålet er hvor godt det faktisk fungerer.

Det er vel ikke så veldig stort spørsmål hvor godt det fungerer.

Innen talegjenkjenning gjør man i dag f.eks. ting som var umulig før man begynte å ta i bruk nevrale nett. Det samme innen bildegjenkjenning. Sjakk- og go-computerne AlphaZero og AlphaZeroGo er også eksempler på ting som man gjør i dag, med nevrale nett, som var umulig før man begynte å ta i bruk denne teknologien. Det er mange akilleshæler ved teknologien, f.eks. kostnadene som er involvert i det å trene opp nettverkene. Men at det fungerer, og at det løser problemer som man ikke klarte å løse før man hadde denne teknologien, det er 100% sikkert.

Endret av BjartmarO
Lenke til kommentar
Gjest Slettet+5132
10 hours ago, BjartmarO said:

Det er vel ikke så veldig stort spørsmål hvor godt det fungerer.

Innen talegjenkjenning gjør man i dag f.eks. ting som var umulig før man begynte å ta i bruk nevrale nett. Det samme innen bildegjenkjenning. Sjakk- og go-computerne AlphaZero og AlphaZeroGo er også eksempler på ting som man gjør i dag, med nevrale nett, som var umulig før man begynte å ta i bruk denne teknologien. Det er mange akilleshæler ved teknologien, f.eks. kostnadene som er involvert i det å trene opp nettverkene. Men at det fungerer, og at det løser problemer som man ikke klarte å løse før man hadde denne teknologien, det er 100% sikkert.

Spørsmålet er teoretiske garantier. Det eneste man har matematisk bevis for, er at et dypt nevralt nett med gode approksimasjonsmuliigheter eksisterer, men det betyr ikke at dette nettverket er det man alltid finner ved si SGD eller Adam. I praksis ser det ut til å fungere greit, men det er likevel snakk om feilrater på kanskje 1-2%, som fortsatt er altfor stort for noen anvendelser. Og vi aner ikke når det ikke fungerer!

Lenke til kommentar
4 hours ago, PingEnt said:

Spørsmålet er teoretiske garantier. Det eneste man har matematisk bevis for, er at et dypt nevralt nett med gode approksimasjonsmuliigheter eksisterer, men det betyr ikke at dette nettverket er det man alltid finner ved si SGD eller Adam. I praksis ser det ut til å fungere greit, men det er likevel snakk om feilrater på kanskje 1-2%, som fortsatt er altfor stort for noen anvendelser. Og vi aner ikke når det ikke fungerer!

Ja, jeg driver ikke med AI selv, men jeg har også forstått at dette er ett av problemene med teknologien; det at det stort sett fungerer bra, men at man ikke helt vet hvordan man skal kontrollere, forutse eller korrigere de tilfellene hvor det ikke fungerer bra. For talegjenkjenning er jo feilrater på 1-2% helt fantastisk. Men for enkelte andre område er det jo, som du sier, ikke bra nok. Visjonen om 100% selvkjørende biler er vel, tror jeg, ett av områdene som fort kan møte veggen som følge av de nevnte feilratene.

Nevrale nett etterligner jo måten som hjernen fungerer på. Kanskje får man også da noen av slagsidene til hjernen med på kjøpet. Menneskelige hjerner trenes jo som regel på "real world data" frem til de 18 år, men selv da kan man ikke anta at de gjør korrekte prediksjoner hele veien. Og på samme måte som med nevrale nett, når en 18-åring gjør et galt valg, så kan man ikke peke eksakt på hvorfor det skjedde, og heller ikke på hva man eventuelt må gjøre for å korrigere det slik at valget blir korrekt neste gang. Årsakssammenhengene er diffuse, der også. :)

 

  • Liker 1
Lenke til kommentar

Husker saken med føflekkreft og en "AI" som noen ganger tok helt feil uten at noen vet hvorfor. Det er helt klart ikke noe intelligens involvert her, bare mønstergjenkjenning (mønsteret kan feks. være noe sykt som at alle bilder med kreft i læredatasett tilfeldigvis ble tatt på en mandag)

Før vi har tenkende AI vil slike ting skje, men samtidig er tenkende AI det siste vi bør ønske oss, de vil gjøre samme feil som mennesker, bare mye raskere. En menneskehjerne ikke kan kontrolleres og det samme vil gjelde for tenkende AI (med mindre den blir fullstendig isolert fra omverden og kun får "snakke" med "foreldrene", men hva skal man med en AI som sitter i en bunkers uten kontakt med omverden? AI er meningsløst.

Lenke til kommentar

AI er jo bare et begrep. Hva man kan og ikke kan kalle AI er et filosofisk spørsmål på samme nivå som spørsmålet om hva bevissthet egentlig er.

Deep learning og neural networks er derviasjon, utrolig enkelt og rett fram. Såkalte machine learning algoritmer er ikke på noen måte noe mer bevist enn andre algoritmer, men de er mer egnet til å løse enkelte problemer enn mer tradisjonelle metoder.

Lenke til kommentar
Gjest Slettet+5132
2 hours ago, Flin said:

AI er jo bare et begrep. Hva man kan og ikke kan kalle AI er et filosofisk spørsmål på samme nivå som spørsmålet om hva bevissthet egentlig er.

Deep learning og neural networks er derviasjon, utrolig enkelt og rett fram. Såkalte machine learning algoritmer er ikke på noen måte noe mer bevist enn andre algoritmer, men de er mer egnet til å løse enkelte problemer enn mer tradisjonelle metoder.

Derivasjon er kun en komponent en bruker for å finne et minimumspunkt i denne sammenhengen. Det er regresjon med kompliserte funksjoner :)

Lenke til kommentar
Gjest Slettet+5132
57 minutes ago, Flin said:

Alt koker egentlig bare ned til å finne nullpunktet til en flerdimensjonal funksjon, tradisjonelt gjort ved hjelp av gradienten til denne funksjonen.

Naja, optimering er mer enn å bare finne nullpunktet for gradienten til målfunksjonen ;)

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...