9UAHR1KO Skrevet 28. oktober 2020 Rapporter Del Skrevet 28. oktober 2020 Slik jobber Nav for å hindre diskriminering med kunstig intelligens [Ekstra] Siter Lenke til kommentar
OrangeGiraffe Skrevet 28. oktober 2020 Rapporter Del Skrevet 28. oktober 2020 Feminismen stikker bare dypere og dypere her til lands også. Empati er inget kjønn - Det er et valg. Det å bli møtt av roboter, og kalde fasader, det er jo nettopp den ultimate form av diskriminering, og jeg har sett dette bli utviklet mer og mer av kvinner i førersetet. De nye trendene innen alt av statlig, og større bedrifttiltak rundt om, er å bygge kalde og harde fronter utad mot kunder/pasienter osv. Kundeservice det er snart noe man må lese om i en eller annen bok gjenglemt bakerst i en hylle på et bibliotek. Dette er nettopp hva venstre-siden mener er mye bedre enn hva trumperne driver med, men så viser de seg like ille/til værre faktisk. De to smilende kvinneansiktene er kun manipulasjon, fordi menneskene bak disse ansiktene viser jo at de har null tro på empati. La oss bare kutte ut all kommunikasjon, og se hva som skjer... Det her er bare helt tragisk å se. Jeg syntes synd på alle de kvinnene der ute som faktisk er tøffe og empatiske, fordi de finnes virkelig. Siter Lenke til kommentar
NERVI Skrevet 28. oktober 2020 Rapporter Del Skrevet 28. oktober 2020 Spørsmålet blir om algoritmene kommer til å sorter under Forvaltningsloven med alt det innebærer, eller som saksbehandler for enkeltvedtak - under Trygdeloven, og i så fall - kan algoritmen være ugild? Siter Lenke til kommentar
Andre Nyttårsdag Skrevet 30. oktober 2020 Rapporter Del Skrevet 30. oktober 2020 (endret) 9UAHR1KO skrev (På 28.10.2020 den 12.45): – Løsningene vi har laget i dag er basert på store mengder data. Vi har eksempler på at de diskriminerer blant annet kvinner og ulike etnisiteter fordi det er hvite menn som har utviklet disse løsningene, sier Wilson. Her klarer Wilson å være både rasistisk og kjønnsdiskriminerende i samme setningen. En mer sannsynlig forklaring er trender i dataene som ligger til grunn når den kunstige intelligensen læres opp, noe som det også vises til i avsnittet under utsagnet til Wilson. Kunstig intelligens mangler i utgangspunktet ansvarsfølelse, etikk, medfølelse, moral, osv., en kan godt si at slike system er psykopater. Ikke slik å forstå at de er ute etter å forårsake skade eller smerte, men de er ute av stand til å forstå at de gjør det. Når de leter gjennom datagrunnlaget er det like sannsynlig at de plukker opp uønskede trender, som noe annet. Og systemene er som regel programmert til å opprettholde eller forsterke de trendene de finner. En prøver jo å lede dataprogrammet på rett vei ved å gi det beskjed om hvor sterkt diverse trender skal vektlegges, en slags kunstig moral, men dette har vist seg vanskelig. Blant annet på grunn av at programmet kan vektlegge forhold som mennesker ikke er klar over, eller vi synes de er så uvesentlige at programmet ikke har fått beskjed om at de ikke skal vektlegges. Endret 30. oktober 2020 av Andre Nyttårsdag 2 Siter Lenke til kommentar
Anbefalte innlegg
Bli med i samtalen
Du kan publisere innhold nå og registrere deg senere. Hvis du har en konto, logg inn nå for å poste med kontoen din.