Jump to content
Sebastian Storvik

– Ingen er AI-ekspert

Recommended Posts

26 minutes ago, Eplekatt said:

Endelig noen som får fram sannheten...

A.I., Neural Network, Deep (something), osv alt er bs reklameprat..

Quantum maskiner er vell det eneste som kansje blir en realitet i nærmeste framtid..

https://img.devrant.com/devrant/rant/r_639361_fqtsp.jpg

https://images-cdn.9gag.com/photo/aOYA1mE_460s.jpg

Mja, Neural networks, deep neural networks er ekte det, og de har ekstremt gode approksimasjonsegnsakper (matematisk bevist). Spørsmålet er om en kan faktisk lære de underliggende funksjonene som styrer si ansiktsgjennkjenning med så lite data en ofte har, og med de algoritmene en bruker.

Maskinlæring/deep learning er en realitet nå, men spørsmålet er hvor godt det faktisk fungerer.

Forresten, det er ikke konveks optimering når aktiveringsfunksjonen ikke er ReLU ;)

Share this post


Link to post
14 hours ago, PingEnt said:

Maskinlæring/deep learning er en realitet nå, men spørsmålet er hvor godt det faktisk fungerer.

Det er vel ikke så veldig stort spørsmål hvor godt det fungerer.

Innen talegjenkjenning gjør man i dag f.eks. ting som var umulig før man begynte å ta i bruk nevrale nett. Det samme innen bildegjenkjenning. Sjakk- og go-computerne AlphaZero og AlphaZeroGo er også eksempler på ting som man gjør i dag, med nevrale nett, som var umulig før man begynte å ta i bruk denne teknologien. Det er mange akilleshæler ved teknologien, f.eks. kostnadene som er involvert i det å trene opp nettverkene. Men at det fungerer, og at det løser problemer som man ikke klarte å løse før man hadde denne teknologien, det er 100% sikkert.

Edited by BjartmarO

Share this post


Link to post
10 hours ago, BjartmarO said:

Det er vel ikke så veldig stort spørsmål hvor godt det fungerer.

Innen talegjenkjenning gjør man i dag f.eks. ting som var umulig før man begynte å ta i bruk nevrale nett. Det samme innen bildegjenkjenning. Sjakk- og go-computerne AlphaZero og AlphaZeroGo er også eksempler på ting som man gjør i dag, med nevrale nett, som var umulig før man begynte å ta i bruk denne teknologien. Det er mange akilleshæler ved teknologien, f.eks. kostnadene som er involvert i det å trene opp nettverkene. Men at det fungerer, og at det løser problemer som man ikke klarte å løse før man hadde denne teknologien, det er 100% sikkert.

Spørsmålet er teoretiske garantier. Det eneste man har matematisk bevis for, er at et dypt nevralt nett med gode approksimasjonsmuliigheter eksisterer, men det betyr ikke at dette nettverket er det man alltid finner ved si SGD eller Adam. I praksis ser det ut til å fungere greit, men det er likevel snakk om feilrater på kanskje 1-2%, som fortsatt er altfor stort for noen anvendelser. Og vi aner ikke når det ikke fungerer!

  • Like 1

Share this post


Link to post
4 hours ago, PingEnt said:

Spørsmålet er teoretiske garantier. Det eneste man har matematisk bevis for, er at et dypt nevralt nett med gode approksimasjonsmuliigheter eksisterer, men det betyr ikke at dette nettverket er det man alltid finner ved si SGD eller Adam. I praksis ser det ut til å fungere greit, men det er likevel snakk om feilrater på kanskje 1-2%, som fortsatt er altfor stort for noen anvendelser. Og vi aner ikke når det ikke fungerer!

Ja, jeg driver ikke med AI selv, men jeg har også forstått at dette er ett av problemene med teknologien; det at det stort sett fungerer bra, men at man ikke helt vet hvordan man skal kontrollere, forutse eller korrigere de tilfellene hvor det ikke fungerer bra. For talegjenkjenning er jo feilrater på 1-2% helt fantastisk. Men for enkelte andre område er det jo, som du sier, ikke bra nok. Visjonen om 100% selvkjørende biler er vel, tror jeg, ett av områdene som fort kan møte veggen som følge av de nevnte feilratene.

Nevrale nett etterligner jo måten som hjernen fungerer på. Kanskje får man også da noen av slagsidene til hjernen med på kjøpet. Menneskelige hjerner trenes jo som regel på "real world data" frem til de 18 år, men selv da kan man ikke anta at de gjør korrekte prediksjoner hele veien. Og på samme måte som med nevrale nett, når en 18-åring gjør et galt valg, så kan man ikke peke eksakt på hvorfor det skjedde, og heller ikke på hva man eventuelt må gjøre for å korrigere det slik at valget blir korrekt neste gang. Årsakssammenhengene er diffuse, der også. :)

 

  • Like 1

Share this post


Link to post

Husker saken med føflekkreft og en "AI" som noen ganger tok helt feil uten at noen vet hvorfor. Det er helt klart ikke noe intelligens involvert her, bare mønstergjenkjenning (mønsteret kan feks. være noe sykt som at alle bilder med kreft i læredatasett tilfeldigvis ble tatt på en mandag)

Før vi har tenkende AI vil slike ting skje, men samtidig er tenkende AI det siste vi bør ønske oss, de vil gjøre samme feil som mennesker, bare mye raskere. En menneskehjerne ikke kan kontrolleres og det samme vil gjelde for tenkende AI (med mindre den blir fullstendig isolert fra omverden og kun får "snakke" med "foreldrene", men hva skal man med en AI som sitter i en bunkers uten kontakt med omverden? AI er meningsløst.

Share this post


Link to post

AI er jo bare et begrep. Hva man kan og ikke kan kalle AI er et filosofisk spørsmål på samme nivå som spørsmålet om hva bevissthet egentlig er.

Deep learning og neural networks er derviasjon, utrolig enkelt og rett fram. Såkalte machine learning algoritmer er ikke på noen måte noe mer bevist enn andre algoritmer, men de er mer egnet til å løse enkelte problemer enn mer tradisjonelle metoder.

Share this post


Link to post
2 hours ago, Flin said:

AI er jo bare et begrep. Hva man kan og ikke kan kalle AI er et filosofisk spørsmål på samme nivå som spørsmålet om hva bevissthet egentlig er.

Deep learning og neural networks er derviasjon, utrolig enkelt og rett fram. Såkalte machine learning algoritmer er ikke på noen måte noe mer bevist enn andre algoritmer, men de er mer egnet til å løse enkelte problemer enn mer tradisjonelle metoder.

Derivasjon er kun en komponent en bruker for å finne et minimumspunkt i denne sammenhengen. Det er regresjon med kompliserte funksjoner :)

Share this post


Link to post

Alt koker egentlig bare ned til å finne nullpunktet til en flerdimensjonal funksjon, tradisjonelt gjort ved hjelp av gradienten til denne funksjonen.

Share this post


Link to post
57 minutes ago, Flin said:

Alt koker egentlig bare ned til å finne nullpunktet til en flerdimensjonal funksjon, tradisjonelt gjort ved hjelp av gradienten til denne funksjonen.

Naja, optimering er mer enn å bare finne nullpunktet for gradienten til målfunksjonen ;)

Share this post


Link to post

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

Loading...

  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...