Gå til innhold

Chatboten «Tay» ble rasist av å lese kommentarfelt: Hvem har ansvaret når kunstig intelligens ikke fungerer?


Anbefalte innlegg

Videoannonse
Annonse

På endel punkter kan det være mer nyttig å sammenligne output fra en AI med en ansettelse, istedet for kjøp av et produkt, spesielt juridisk, og spesielt innen fagfelt som er såpass esoteriske som jus. Etter at en ansettelse er gjort går aldri arbeidsgiver til utdannelsesinstitusjonene der den ansatte er formet med krav om kompensasjon, dersom den ansatte ikke leverer. Det er dog normalt med prøvetid på nyansettelser.

Lenke til kommentar
Gjest Slettet-Pqy3rC

Chatboten «Tay» ble rasist av å lese kommentarfelt: Hvem har ansvaret når kunstig intelligens ikke fungerer?

Ble den rasist av å lese kommentarfelt er det jo tydelig at AI fungerer, den lærer jo tydeligvis av det den leser.

 

Dog er det jo mulig hva som betegnes som fungerende for AI er annet en normalen til folk flest. Altså; De fleste mennesker fungerer tydeligvis ikke.

Endret av Slettet-Pqy3rC
Lenke til kommentar

 

Chatboten «Tay» ble rasist av å lese kommentarfelt: Hvem har ansvaret når kunstig intelligens ikke fungerer?

Ble den rasist av å lese kommentarfelt er det jo tydelig at AI fungerer, den lærer jo tydeligvis av det den leser.

 

Dog er det jo mulig hva som betegnes som fungerende for AI er annet en normalen til folk flest. Altså; De fleste mennesker fungerer tydeligvis ikke.

Jeg er enig med deg, resultatet viser jo at den fungerer. Primitivt! Tay har vel neppe vært gjennom menneskets historikk, - eller fått med seg begrepet "likeverd" når det gjelder etnisk bakgrunn og motsetninger. Og at "likeverd ikke er det samme som "like".

 

Tror Tay og andre AL's må få mer utdannelse og begreper om menneskets historie, - kort sagt: Leve og utvikle seg slik vi ønsker våre barn får gjøre, før Tav og søskene hans leser kommentarfelter som en del av opplæringen.

  • Liker 1
Lenke til kommentar
Gjest Slettet-Pqy3rC

Er det intelligens hvis den må fortelles hvordan den skal reagere i alle settinger før den kan gjenta det?

Vel, det er slik alt levende fungerer, inkludert oss. Det er ytterst få som gjør annet enn hva flertallet mener.
Lenke til kommentar
Gjest Slettet-Pqy3rC

I selv seg ikke, men hvis den på basis av retningslinjer kreativt kan finne løsninger så er man kanskje på vei?

"retningslinjene" er jo hva AI setter opp for seg selv ved å gjennomgå mengder av data. På samme måte som vi mennesker får erfaringer gjennom livet.

 

AI blir imidlerid aldri "smartere" enn hva retningslinjene tillater. Logikken (løsningene) baseres alltid på hva den har "lært". Noe helt nytt må prøves først, akkurat som vi mennesker også må.

Endret av Slettet-Pqy3rC
Lenke til kommentar

 

Chatboten «Tay» ble rasist av å lese kommentarfelt: Hvem har ansvaret når kunstig intelligens ikke fungerer?

Ble den rasist av å lese kommentarfelt er det jo tydelig at AI fungerer, den lærer jo tydeligvis av det den leser.

 

Dog er det jo mulig hva som betegnes som fungerende for AI er annet en normalen til folk flest. Altså; De fleste mennesker fungerer tydeligvis ikke.

De fleste mennesker har trent opp filtreringsalgoritmen sin over lengre tid. Selv om enkelte har trent på dårlige dataset, så går det stort sett bra.

  • Liker 2
Lenke til kommentar

Nå var vel TayAI satt opp slik at man kunne sende meldinger gjennom denne bot'en også og dermed få den til å bli som en papegøye og herme etter hva brukerne skrev.

 

"Searching through Tay's tweets (more than 96,000 of them!) we can see that many of the bot's nastiest utterances have simply been the result of copying users. If you tell Tay to "repeat after me," it will — allowing anybody to put words in the chatbot's mouth." - https://www.theverge.com/2016/3/24/11297050/tay-microsoft-chatbot-racist

 

Så alt av rasisme og galskap som skjedde med TayAI var ikke utelukkende AI som gikk fra snill til rasist og jødehater på 24 timer, men i stor grad også brukere som misbrukte funksjonen "repeat after me"

  • Liker 2
Lenke til kommentar

Er det intelligens hvis den må fortelles hvordan den skal reagere i alle settinger før den kan gjenta det?

 

Den blir ikke fortalt hvordan den skal reagere. Den blir fortalt hvordan den skal klassifisere data for å gi den riktige informasjonen. En kunstig intelligens er ikke intelligent før den kan svare relativt bra på usett data.

  • Liker 2
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...