Gå til innhold

KOMMENTAR: Hvem skal ha ansvar for kunstig intelligens?


Anbefalte innlegg

Videoannonse
Annonse
Gjest Slettet-Pqy3rC

Svaret er, nokså forenklet, at teknologien må gjenspeile våre verdier, moralske prinsipper og grunnholdninger.

Nei. Maskinen blir da forutintatt, siden den ikke lenger bare skal ta hensyn til faktagrunnlaget. En kan argumentere for at prosessen da blir meningsløs siden den blir nødt til kun å gi svar vi liker.

En av de mest fremtredende eksemplene på dette skjedde da amerikanske tilsynsmyndigheter brukte selvlærende algoritmer til å forutse gjentakelsesfaren blant tidligere straffedømte. Resultatet ble svært uheldig da algoritmen endte opp med å diskriminere på bakgrunn av hudfarge. Det viste seg at systemet overvurderte sannsynligheten for gjentakelse blant afroamerikanske straffedømte, og undervurderte tilsvarende hos de hvite.

Dersom algoritmene i seg selv er uten innprogrammert bias (dvs. disse er korrekte) er nok antagelsen også korrekt dersom datagrunnlaget er stort nok.

Artikkelforfatter ønsker derimot ikke de svar som her ble resultat av læringsprosessen fordi disse passer dårlig med dennes moral/samfynnsyn, dvs. denne ønsker å forkaste de resultater som en finner politisk upassende.

Jeg lærte også at en av grunnprinsippene ved bruk av teknologi er at den ikke skal arve menneskelige laster som forutinntatthet, partiskhet eller i verste fall diskriminering

Hvilket er nettopp hva artikkelen argumenterer for at maskinen faktisk skal gjøre. Det ønskes i artikkelen at maskinlæring skal være forutintatt med dagens politiske verdier.

Endret av Slettet-Pqy3rC
Lenke til kommentar

Det ønskes i artikkelen at maskinlæring skal være forutintatt med dagens politiske verdier.

Vel, rent konkret

 

Når regjeringen, ledet an av vår nye digitaliseringsminister Nikolai Astrup, nå jobber med en ny nasjonal strategi for kunstig intelligens, bør et av de store spørsmålene være hvordan vi skal unngå lignende tilfeller i Norge. Svaret er, nokså forenklet, at teknologien må gjenspeile våre verdier, moralske prinsipper og grunnholdninger.

Mao, politisk korrekt AI er målet ... styrt av "samfunnet" aka politikerne.

  • Liker 2
Lenke til kommentar
Gjest Slettet+5132

Nei. Maskinen blir da forutintatt, siden den ikke lenger bare skal ta hensyn til faktagrunnlaget. En kan argumentere for at prosessen da blir meningsløs siden den blir nødt til kun å gi svar vi liker.

Dersom algoritmene i seg selv er uten innprogrammert bias (dvs. disse er korrekte) er nok antagelsen også korrekt dersom datagrunnlaget er stort nok.

Artikkelforfatter ønsker derimot ikke de svar som her ble resultat av læringsprosessen fordi disse passer dårlig med dennes moral/samfynnsyn, dvs. denne ønsker å forkaste de resultater som en finner politisk upassende.

Hvilket er nettopp hva artikkelen argumenterer for at maskinen faktisk skal gjøre. Det ønskes i artikkelen at maskinlæring skal være forutintatt med dagens politiske verdier.

 

Men dagens maskinlæringsalgoritmer er langt fra uten bias. Du kan ha bias i datagrunnlaget (som er sannsynlig i for eksempel straffeutmålinger i USA), du kan ha bias i selve algoritmen, og du kan ha bias i utvelgelse av hyperparametere for maskinlæring (form på nettverket, optimeringsalgoritmer, antall iterasjoner, etc).

 

Jeg har sagt det før, og sier det gjerne igjen, maskinlæring er informatikere som leker statistikere uten å kunne statistikk. Det går sjeldent bra.

 

Føler følgende XKCD sier sitt.

 

 

post-78935-0-27521500-1551891810_thumb.png

 

 

 

EDIT: Og du har omtrent null og niks av stabiletsresultater for DNNs, som betyr at man ikke har peiling på hva som kan skje med ukjent informasjon, og det finnes nok av eksempler på adverserial neural networks som kan lure selv de beste DNNs. Alt dette bør gjøre en veldig skeptisk til å erklære slike "algoritmer" som en sannhet.

Endret av Slettet+5132
Lenke til kommentar
Gjest Slettet-Pqy3rC

Men dagens maskinlæringsalgoritmer er langt fra uten bias. Du kan ha bias i

...

Alt dette bør gjøre en veldig skeptisk til å erklære slike "algoritmer" som en sannhet.

Selvfølgelig, feil kan og vil oppstå. Særlig fordi kunnskap om hvilke data som bør benyttes ofte er svært begrenset.

 

Noe annet blir det imidlertid allikevel å kreve forutinntatthet, altså at svarene alltid skal tilpasses dagens politiske korrekthet.

Lenke til kommentar
Dersom algoritmene i seg selv er uten innprogrammert bias (dvs. disse er korrekte) er nok antagelsen også korrekt dersom datagrunnlaget er stort nok.

Artikkelforfatter ønsker derimot ikke de svar som her ble resultat av læringsprosessen fordi disse passer dårlig med dennes moral/samfynnsyn, dvs. denne ønsker å forkaste de resultater som en finner politisk upassende.

 

Helt enig i den slutningen. Dersom datagrunnlaget er stort nok, er feilmarginene småe. Det er mange rapporter som har påpekt at negre og latino har større gjentakelsesrate og blir oftere gjengangsforbrytere enn hvite. At det ikke er politisk korrekt, har lite med resultatet å gjøre.

Dersom man faktisk kunne innrømmet at det var et problem, at fargede oftere blir gjengangsforbrytere, så kanskje man kunne kommet til kjærnen i problemet. Personlig tror jeg at det er sammenheng med at fargede kommer fra lavere samfunnslag, ikke at de er fargede, men det er jo ingen som gidder å forske på i USA, for da må de også innrømme at hvite oftere lever i bedre strøk.

Endret av Omnia vincit amor
Fikset sittering for bruker.
Lenke til kommentar

Det er i naivt og bortkastet å forsøke å implementere "rett" og "galt" mtp etikk og moral i systemer.

Mennesker må selv ta ansvar i slike spørsmål og påfølgende valg.

Det betyr at her går det en klar grense for hva maskiner og programvare kan bidra med på en god måte.

 

Her er et praktisk eksempel fra USA som man kan lære av: 

When automation goes horribly wrong

Endret av 9LB9MFM9
Lenke til kommentar
Gjest Slettet+5132

Selvfølgelig, feil kan og vil oppstå. Særlig fordi kunnskap om hvilke data som bør benyttes ofte er svært begrenset.

 

Noe annet blir det imidlertid allikevel å kreve forutinntatthet, altså at svarene alltid skal tilpasses dagens politiske korrekthet.

 

Men det er jo bare det at vi er kanskje 100 år fra det punktet hvor vi kan stole på at slike algoritmer gir osss det riktig svaret, og derfor må vi inntil det skjer, legge inn visse begrensninger i algoritmene for å hindre diskriminering og andre uønskede effekter.

 

Det riktige svaret skal komme fra godt gjennomtenkt forskning, ikke fra tilfeldige ML-systemer som er sydd sammen på en liten startup midt på Grünerløkka.

Endret av Slettet+5132
Lenke til kommentar

Håper det finnes noe dokumentasjon for de merkelige påstandene av denne typen "Resultatet ble svært uheldig da algoritmen endte opp med å diskriminere på bakgrunn av hudfarge."

 

Og finnes ikke denne dokumentasjonen, da faller jo resten på sin urimelighet. Hvordan kan man i såtilfelle stole på noen som ikke klarer å gjengi noe annet enn det man tror man har lest...

Lenke til kommentar

Helt enig i den slutningen. Dersom datagrunnlaget er stort nok, er feilmarginene småe. Det er mange rapporter som har påpekt at negre og latino har større gjentakelsesrate og blir oftere gjengangsforbrytere enn hvite. At det ikke er politisk korrekt, har lite med resultatet å gjøre.

Dersom man faktisk kunne innrømmet at det var et problem, at fargede oftere blir gjengangsforbrytere, så kanskje man kunne kommet til kjærnen i problemet. Personlig tror jeg at det er sammenheng med at fargede kommer fra lavere samfunnslag, ikke at de er fargede, men det er jo ingen som gidder å forske på i USA, for da må de også innrømme at hvite oftere lever i bedre strøk.

 

 

Når man juster for diverse sosioøkonomiske kår så er det fortsatt slik at det er forskjeller basert på rase (det amerikanskje begrepet). Hvite gjør mindre gæli, selv når de er like fattig, har like dårlig utdanning og bor like ræva. Og det finnes nok av undersøkelser på dette etter amerikanske forhold ja.

 

Men det finnes faktorer som ikke er relatert til økonomi eller klasse som kan forklare deler av dette. Som for eks. at far til barn er mindre til stede hos de med høyere kriminalitet. Kombinerer man dette med at det som regel er menn som blir satt i fengsel og av svarte får lenger fengselstraff så har man en del av forklaringen.

 

Men det er fortsatt en rest igjen man sliter med å ha en klar (sosioøkonomisk) forklaring på.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...