Gå til innhold
Trenger du råd om juss? Still spørsmål anonymt her ×

Vil kunstig intelligens erstatte advokater og dommere?


lada1

Anbefalte innlegg

9 minutes ago, Camlon said:

Jeg er uenig. AI er bedre enn mennesker til finne essensen i en sak. Mennesker blir ofte villedet av sine egne fordommer.

Ehh, for å være helt ærlig som en fyr som har utviklet AI modeller (da hovedsakelig NLP og visse reinforcement modeller) i tidligere jobb, en AI modell (f.eks. en recommendation model) er ofte fordommer satt i system. Det vil alltid være en viss bias i datagrunnlaget.

Å si at man bør bruke AI fordi mennesker ofte blir villedet av egne fordommer, virker kunnskapsløst fordi en AI får sine outputs av sine fordommer.

Endret av shockorshot
  • Liker 2
Lenke til kommentar
Videoannonse
Annonse
3 minutes ago, shockorshot said:

Ehh, for å være helt ærlig som en fyr som har utviklet AI modeller i tidligere jobb, en AI modell (f.eks. en recommendation model) er ofte fordommer satt i system. Det vil alltid være en viss bias i datagrunnlaget.

Å si at man bør bruke AI fordi mennesker ofte blir villedet av egne fordommer, virker kunnskapsløst fordi en AI får sine outputs av sine fordommer.

AIs fordommer er en gjennomsnitt av dens treningsdata. Det er mye bedre enn individuelle fordommer.

Jeg er en utvikler jeg også. Gårsdagens AI var dårlig, men idag så er de bedre enn mennesker på mange måter og AI-ene kommer bare til å bli bedre.

Endret av Camlon
Lenke til kommentar
5 minutes ago, Camlon said:

AIs fordommer er en gjennomsnitt av den treningsdata. Det er mye bedre enn individuelle fordommer.

Jeg er en utvikler jeg også. Gårsdagens AI var dårlig, men idag så er de bedre enn mennesker på mange måter og de kommer bare til å bli bedre.

Treningsdata inneholder alltid bias. Tror du treningsdata fra domstoler, kriminalstatistikk, bakgrunnshistorier til involvert justissaken, ikke inneholder fordommer eller bias? Tror du den skyldige/uskyldige aldri har fått opplevd fordommer som har påvirket kriminalhistorikken til den skyldige/uskyldige? Hvis det er noen som helst form for systematisk diskriminering, vil det også påvirke treningsdata. Shit in, shit out.

Det er veldig få individuelle fordommer, nesten alle fordommer finner du i et gitt prosentandel av samfunnet. Det vil også treningsdata gjennspeile.

Endret av shockorshot
  • Liker 1
Lenke til kommentar
20 minutes ago, shockorshot said:

Treningsdata inneholder alltid bias. Tror du treningsdata fra domstoler, kriminalstatistikk, bakgrunnshistorier til involvert justissaken, ikke inneholder fordommer eller bias? Tror du den skyldige aldri har fått opplevd fordommer som har påvirket kriminalhistorikken til den skyldige? Hvis det er noen som helst form for systematisk diskriminering, vil det også påvirke treningsdata. Shit in, shit out.

Det er veldig få individuelle fordommer, nesten alle fordommer finner du i et gitt prosentandel av samfunnet. Det vil også treningsdata gjennspeile.

Alt innholder bias. Hvis du tror det finnes noe uten bias så lyver du til deg selv. Å si at vi ikke kan bruke AI på grunn av bias er som å si at vi ikke kan ha skole på grunn av bias. 

Det som er det største problemet er individuelle fordommer. Alle har individuelle fordommer, det er hva som gjør oss til mennesker. Individuelle fordommer skader rettsystemet, fordi ulike dommere vil gi ulik dom basert på deres fordommer. AI-en vi snakker om her vil gi rimelig lik straff, fordi treningsdataene vil være det samme.

Endret av Camlon
  • Liker 1
Lenke til kommentar

Ja, på sikt vil de nok det. Det er nok ikke så lurt å tro at "AI/KI ikke kan erstatte [sett inn tilfeldig jobb]", men sett ut ifra nåværende teknologi som allmennheten har tilgang på så er vi et stykke unna. Det som er interessant er det som ikke er offentliggjort.

Vi er inne i et paradigmeskifte, spørsmålet er egentlig bare hvor i løpet vi er og om vi klarer å tilpasse oss uten enorme negative konsekvenser for samfunnet.

Lenke til kommentar
Camlon skrev (7 timer siden):

I en rettssak er AI-en ikke designet til fordel for den anklagede, vil ikke følge hans instrukser og vil være skeptisk til hans uttalelser, fordi den basert på erfaring fra tidligere rettssaker hvor vi vet at anklagede ofte lyver.

Gratulerer, her har du lagt inn et premiss som gjør at AI-dommeren din ikke kan fungere i samsvar med menneskerettighetene. 

  • Innsiktsfullt 2
Lenke til kommentar
49 minutes ago, krikkert said:

Gratulerer, her har du lagt inn et premiss som gjør at AI-dommeren din ikke kan fungere i samsvar med menneskerettighetene. 

Det er samme problem som selvkjørende biler, vanlige dommere og biler er ikke bedre, men vi har et individ som kan holdes ansvarlig om de gjør noe galt.

Dette er en av grunnene til at jeg ikke tror det blir noen AI-domstol.

Endret av Camlon
Lenke til kommentar
Skrevet (endret)
1 hour ago, Camlon said:

Dette er en av grunnene til at jeg ikke tror det blir noen AI-domstol.

Men kanskje menneskelige dommere får rollen å strø sand på AI-dommer dersom partene i sivile tvister ikke blir enige ved hjelp av AI? Sånn i første omgang.

Altså mens vi spår om fremtiden 🙂

Endret av lada1
Lenke til kommentar
53 minutes ago, lada1 said:

Men kanskje menneskelige dommere får rollen å strø sand på AI-dommer dersom partene i sivile tvister ikke blir enige ved hjelp av AI? Sånn i første omgang.

Altså mens vi spår om fremtiden 🙂

En hybridmodell ville trolig vært det beste. Vi kan bruke AI-domstoler til å redusere ventetidene og bias fra systemet, og så kan en vanlig dommer se over saken om det er uenighet.

Men sjansen for at dette skjer er rimelig lav, spesielt i Norge. Tror vi ser "AI-domstoler" i andre deler av samfunnet først som å sjekke om apper følger retningslinjene til Apple og Alphabet.

Lenke til kommentar
9 hours ago, Camlon said:

En hybridmodell ville trolig vært det beste. Vi kan bruke AI-domstoler til å redusere ventetidene og bias fra systemet, og så kan en vanlig dommer se over saken om det er uenighet.

Men sjansen for at dette skjer er rimelig lav, spesielt i Norge. Tror vi ser "AI-domstoler" i andre deler av samfunnet først som å sjekke om apper følger retningslinjene til Apple og Alphabet.

Men er det penger å hente i å lage/drifte "AI-domstoler" av forskjellig slag (som ikke har noen direkte offentlig rolle - men altså tiltenkt inngå i en hybridmodell) ?

Lenke til kommentar

"Vil kunstig intelligens erstatte advokater og dommere?" det tilsvarer jo spørsmålet "Kan en flysimulator erstatte et fly?".

Svaret er jo da at "ja, i visse sammenhenger", men det er en liten begrensing: "En flysimulator kan ikke fly".

Tilsvarende, en "jurisk simulator" bygd på prinsippet "AI - språkmodell" vil kunne produsere "juridiske avgjørelser" og også "juridiske utredninger", men de avgjørelser og utredninger som produseres vil være helt uten "ansvarlighet, vett og forstand" selv om de i noen tilfeller vil kunne vise seg å gi "rett nok svar".

En simulator vil kunne være egnet til en del "grunntrening" og "grovarbeid" men resultatet vil alltid måtte gjennomgås og revideres av en fagperson.

Dette har en sammenheng med at denne type Ai eller "intelligens simulator" alltid jobber gamle data, som er strukturert og bygd opp som en del av språkmodellen. 

Bare det at det vedtas nye lover vil medføre at språkmodellen blir feil og at den ikke klarer å implementere den nye lovgivningen i forhold til de gamle datanene i språkmodellen.

Hvis man tester ut Googles Gemini AI med juridiske spørsmål, så ser man staks ganske grelle eksempler på det.  Svarene kan se nesten imponerende bra ut, men hvis man gir det hele en litt kritisk gjennomgang, så finner man ut at innholdet er helt feil, ved at Gemini har basert seg på gamle data og gamle rettskilder.

Det som er det spesielle med AI av type språkmodeller, det er at det ikke har noen ting med intelligens å gjøre i det hele tatt, det kan heller, ut ifra sin virkemåte, heller beskrives som en slags type søkemotor, som søker etter "intelligente mønstre" i gamle data.

Dette har ingen ting med "tenkning" eller "fornuftige svar", selv om de mønstrene man finner i store samlinger av gamle data (språkmodellen), kan simulere noe som ligner på intelligente svar.  

"Kunstig Intelligens", vil vanligvis være en form for "intelligens simulator" som ikke har noen ting som helst å gjøre med "ekte intelligens".

Men kombinerer man "ekte intelligens" med "kunstig eller simulert intelligens" så vil man nok i mange tilfeller kunne jobbe vesentlig mye mer effektivt og man kan rekke mer. Færre personer vil kunne produsere flere arbeidsresultater, likt med all annen automatisering.

Endret av arne22
Lenke til kommentar
Gjest 49ced...4c4

Har vært igjennom en stevning nylig, hvor advokat ikke er påkrevd men brukte det likevell da motpart hadde advokat.

Men jeg er ganske sikker på at utfallet hadde blitt helt likt med hjelp av en advokat ai.

Anonymous poster hash: 49ced...4c4

Lenke til kommentar
Skrevet (endret)
3 hours ago, Guest 49ced...4c4 said:

Har vært igjennom en stevning nylig, hvor advokat ikke er påkrevd men brukte det likevell da motpart hadde advokat.

Men jeg er ganske sikker på at utfallet hadde blitt helt likt med hjelp av en advokat ai.

Anonymous poster hash: 49ced...4c4

Hvor mye kunne AI spare deg for?   1. Ved å redusere advokat-utgifter?  2. Ved å unngå hele saken?

50.000 kroner? 100.000 ? Bare kr 5000?

Endret av lada1
Lenke til kommentar
15 hours ago, lada1 said:

Hvor mye kunne AI spare deg for?   1. Ved å redusere advokat-utgifter?  2. Ved å unngå hele saken?

50.000 kroner? 100.000 ? Bare kr 5000?

Det ligger vel noe her. 

Det er vel for eksmpel ikke akkurat slik at et dataprogram kan erstatte en bankansatt, men bruk av dataprogrammer og web applikasjoner, kan effektivisere kundebehandlingen ganske mye. Men samtidig som det i dag er langt færre som arbeider med "enkel kundebetjening" i bankene, så har antallet ansatte ikke gått ned. Arbeidtimene brukes til andre oppgaver.

 https://www.finansfokus.no/2020/01/15/stadig-flere-ansatte-i-finans/

I teorien så kunne jo nesten alle ansatte i banknæringen bli erstattet av IT og kunstig intelligens, men det fungerer jo ikke slik i praksis i det hele tatt. (Teorien fortutsetter dog at man ikke vet hvordan AI systemer fungerer.)

Når man ser på hvordan AI systemer basert på språkmodeller, fungerer rent teknisk, for eksempel ChatGPT så finnes det jo ikke et spor av sunn fornuft eller ekte intelligens bak dette, selv om det som kommer ut kan framstå som tilsynelatende fornuftig.

Hvis man for eksempel legger inn alle bøkene til Knut Hamsund i en språkmodell, og ber systemer skrive en novelle i samme stil som Knut Hamsund, så er det jo ikke slik at det er AI systemer som har "intellligens" til å skrive en novelle.

AI basert på språkmodeller fungerer slik, rent teknisk, at systemet stjeler innholdet fra Knut Hamsund sine bøker og setter det samme til en ny novelle.

På den måten så vil den novellen som genereres ut i fra en AI språkmodell i større grad være skrevet av Knut Hamsund enn av systemet selv. Man kan godt betrakte en AI språkmodell som et slags automatisert system for tyveri av det som andre mennesker har skrevet og utarbeidet fra før av.

En slik teknisk virkemåte basert på tyveri av juridiske tekster, vil nok kunne brukes til å simulere "juridisk fagkunnskap" men den vil aldri kunne representere noen form for ansvarlighet, pålitelighet eller "sunn fornuft".

For juridisk sakutredning så kan nok AI brukes som et redskap for effektivisering, men resultatet kan like godt bli feil som rett, men det kan effektivisere arbeidsprosessen som helhet, hvis man har fagkunnskap til å rette opp alle feilene.

"Kunstig intelligens" betyr at det ikke finnes noen intelligens. Alle AI systemet basert på språkmodeller fungerer på den måten at de "stjeler" innholdet i det som andre mennesker har skrevet tidligere.

En tyv fungerer ikke nødvendigvis så godt som dommer.

Endret av arne22
Lenke til kommentar

En type feil som normalt vil oppstå i AI systemer det er jo at "treningsdata" er gamle. I eksemplet over med å skrive en novelle i stil med Knut Hamsund, ved at systemet stjeler fra Knut Hamsund sitt forfatterskap, ved at det er brukt som "treningsdata", så vil ikke det ha større betydning, etter som det ikke lengre er i endring.

Dersom en AI språkmodell system skal fungere som advokat eller dommer ved at systemet systematisk stjeler innhold fra tidligere publiserte juridiske tekster, som så brukes som treningsdata for språkmodellen, så vil det jo hele tiden være en en problemstilling at det juridiske faget hele tiden er i endring, mens AI språkmodellene primært sett fungerer ut i fra "gamle treningsdata".

Google Gemini gjør noen utrolig morsomme feil hvis man prøver det ut. Det hele ser veldig bra ut, men når man går svarene etter i sømmene, så er det egentlig bare tull og svada.

En annen type feil som oppstår i AI språkmodeller, ut i fra den måten som de fungerer på, det er jo såkalte "halusinasjoner", som kan og normalt vil oppstå regelmessig, når systemet feiltolker treningsdata, eller med andre ord det systematiserte tyveri av åndsverk som presenteres som "kunstig intelligens".

https://cloud.google.com/discover/what-are-ai-hallucinations

https://en.wikipedia.org/wiki/Hallucination_(artificial_intelligence)

AI basert på språkmodeller kan betraktes som en form for kontorautomatisering, men et system for kontorautomatisering vil ikke være særlig godt egnet for stillingen som dommer.

Alt det som kommer ut av Ai basert på språkmodeller må gås etter i sømmene da det som kommer ut av systemet ikke er noe annet enn et oppkok av gamle tekster som er satt sammen på nytt.

Hvis man forstår de grunnleggende prinsippene for hvordan AI basert på språkmodeller egentlig fungerer, så kan det jo være et utrolig nyttig og effektivt arbeidsredskap, men da vil det nok være nødvendig å hele tiden ta hensyn til systemets "innebygde feilkilder", slik at man fortløpende korrigerer for de feilene som vil være der.

  

Endret av arne22
Lenke til kommentar
50 minutes ago, arne22 said:

Dersom en AI språkmodell system skal fungere som advokat eller dommer ved at systemet systematisk stjeler innhold fra tidligere publiserte juridiske tekster, som så brukes som treningsdata for språkmodellen, så vil det jo hele tiden være en en problemstilling at det juridiske faget hele tiden er i endring, mens AI språkmodellene primært sett fungerer ut i fra "gamle treningsdata".

Google Gemini gjør noen utrolig morsomme feil hvis man prøver det ut. Det hele ser veldig bra ut, men når man går svarene etter i sømmene, så er det egentlig bare tull og svada.

Du kan ikke bruke (gratisversjonen?) av Gemini og forvente at det er slik det vil fungere med en AI fokusert på juss.

  1. Mennesker gjør også feil og stoler på utdaterte lover.
  2. Den vil bli oppdatert regelmessig.
  3. Den vil være mer avansert enn Gemini.
  4. Den vil spesialisere seg langt mer enn Gemini, noe som fører til færre feil fordi den kan konsentrere seg utelukkende om norske lover og regelverk.
  5. Fagpersoner vil overvåke AI-ens resultater og gi tilbakemeldinger dersom den gjør feil.
  • Liker 1
  • Innsiktsfullt 1
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...