Gå til innhold

Slik jobber Nav for å hindre diskriminering med kunstig intelligens [Ekstra]


Anbefalte innlegg

Videoannonse
Annonse

Feminismen stikker bare dypere og dypere her til lands også. Empati er inget kjønn - Det er et valg.

Det å bli møtt av roboter, og kalde fasader, det er jo nettopp den ultimate form av diskriminering, og jeg har sett dette bli utviklet mer og mer av kvinner i førersetet. De nye trendene innen alt av statlig, og større bedrifttiltak rundt om, er å bygge kalde og harde fronter utad mot kunder/pasienter osv. Kundeservice det er snart noe man må lese om i en eller annen bok gjenglemt bakerst i en hylle på et bibliotek. Dette er nettopp hva venstre-siden mener er mye bedre enn hva trumperne driver med, men så viser de seg like ille/til værre faktisk.

De to smilende kvinneansiktene er kun manipulasjon, fordi menneskene bak disse ansiktene viser jo at de har null tro på empati. La oss bare kutte ut all kommunikasjon, og se hva som skjer...

Det her er bare helt tragisk å se. Jeg syntes synd på alle de kvinnene der ute som faktisk er tøffe og empatiske, fordi de finnes virkelig.

Lenke til kommentar
9UAHR1KO skrev (På 28.10.2020 den 12.45):

– Løsningene vi har laget i dag er basert på store mengder data. Vi har eksempler på at de
diskriminerer blant annet kvinner og ulike etnisiteter fordi det er hvite menn som har utviklet
disse løsningene, sier Wilson.

Her klarer Wilson å være både rasistisk og kjønnsdiskriminerende i samme setningen. En mer sannsynlig forklaring er trender i dataene som ligger til grunn når den kunstige intelligensen læres opp, noe som det også vises til i avsnittet under utsagnet til Wilson.

Kunstig intelligens mangler i utgangspunktet ansvarsfølelse, etikk, medfølelse, moral, osv., en kan godt si at slike system er psykopater. Ikke slik å forstå at de er ute etter å forårsake skade eller smerte, men de er ute av stand til å forstå at de gjør det.

Når de leter gjennom datagrunnlaget er det like sannsynlig at de plukker opp uønskede trender, som noe annet. Og systemene er som regel programmert til å opprettholde eller forsterke de trendene de finner. En prøver jo å lede dataprogrammet på rett vei ved å gi det beskjed om hvor sterkt diverse trender skal vektlegges, en slags kunstig moral, men dette har vist seg vanskelig. Blant annet på grunn av at programmet kan vektlegge forhold som mennesker ikke er klar over, eller vi synes de er så uvesentlige at programmet ikke har fått beskjed om at de ikke skal vektlegges.

Endret av Andre Nyttårsdag
  • Innsiktsfullt 2
Lenke til kommentar

Bli med i samtalen

Du kan publisere innhold nå og registrere deg senere. Hvis du har en konto, logg inn nå for å poste med kontoen din.

Gjest
Skriv svar til emnet...

×   Du har limt inn tekst med formatering.   Lim inn uten formatering i stedet

  Du kan kun bruke opp til 75 smilefjes.

×   Lenken din har blitt bygget inn på siden automatisk.   Vis som en ordinær lenke i stedet

×   Tidligere tekst har blitt gjenopprettet.   Tøm tekstverktøy

×   Du kan ikke lime inn bilder direkte. Last opp eller legg inn bilder fra URL.

Laster...
×
×
  • Opprett ny...