Gå til innhold
Trenger du råd om juss? Still spørsmål anonymt her ×

Mange juss-studenter som bruker AI nå?


lada1

Anbefalte innlegg

Skrevet (endret)
On 1/19/2025 at 8:45 AM, arne22 said:

"Kunstig intelligens" betyr i denne sammenheng "en syntetisk etterligning a intelligens, som ikke er ekte" og som er fri for enhver form for "sunn fornuft".   

Dette er vel ikke så langt fra "naturlig intelligens" hos de fleste ?

Det ser nå ut som at ChatGPT for eksempel har funnet ut av dette med hoderegning. Ved å "immitere"/analysere millioner av regnestykker så kan kanskje ChatGPT ha funnet et mønster i dette og som er det samme som regneregler som vi er vant med. Dette kan bety at "ren immitering" i stor skala kan ende opp med "intelligens".

Det kan jo hende at dette er mye likt utvikling av våre egne kognitive evner som kan sees på som en form for "data komprimering" der greia er kompakte representasjoner og prediksjon. For eksempel har vi en riktig/effektiv representasjon/"modell" av verden rundt oss, så blir den liksom enklere å forholde seg til (en sparer energi etc) - men en trenger ikke forstå bæret dypere sett.

Jeg tror at mange har et altfor "idealistisk" syn på hva "intelligens" er for noe.

 

Endret av lada1
Videoannonse
Annonse
Skrevet (endret)
9 hours ago, lada1 said:

Bare for å filosofere: må en psykolog være god på detaljer om signalisering i hjernen? 

Ja, det er utviklet en spesiell fagdisiplin i innenfor psykologifaget som heter "nevropsykologi". Lege/psykolog kan ved behov for det henvise til spesialist i nevropsykologi.

https://no.wikipedia.org/wiki/Nevropsykologi

https://snl.no/nevropsykologi

https://www.oslo-universitetssykehus.no/behandlinger/nevropsykologisk-undersokelse-voksne/

Hvis et system av den ene eller andre type gir feil, så vil det være en del av diagnostikken å forsøke å finne ut hvorfor.

En psykolog bør vel for eksempel kjenne til at pasienten lider av Alzenheimer.

Men dette ble vel litt off-topic i forhold til juss-faget?

 

Endret av arne22
  • Liker 1
Skrevet (endret)
6 hours ago, lada1 said:

Dette er vel ikke så langt fra "naturlig intelligens" hos de fleste ?

Det kan vel ha noe for seg. Men en fagutdannet person skal jo ikke tenke og ha kompetanse som "de fleste", i forhold til sitt eget fag.

6 hours ago, lada1 said:

Jeg tror at mange har et altfor "idealistisk" syn på hva "intelligens" er for noe.

Det er jo dette som er hensikten med en fagutdanning, på alle nivåer, at man skal lære tankemønstre og måter å tenke på som er forskjellig fra slik som "de fleste tenker", innenfor det aktuelle faget, slik at man har en kompetanse som er forskjellig i fra den kompetanse som gjelder for "de fleste". Det juridiske fag bygger for eksempel på "juridisk metode" som er en kvalitativt forskjellig måte å tenke på, i forhold til "statistisk metode for en språkmodell".

Quote

Kompetanse er å kunne tilegne seg og anvende kunnskaper og ferdigheter til å mestre utfordringer og løse oppgaver i kjente og ukjente sammenhenger og situasjoner. Kompetanse innebærer forståelse og evne til refleksjon og kritisk tenkning.

 https://www.udir.no/lk20/overordnet-del/prinsipper-for-laring-utvikling-og-danning/kompetanse-i-fagene/?lang=nob

Refleksjon og kritisk tenkning må jo da utøves ut i fra de faglige normer og prinsipper som gjelder for faget, og ikke ut i fra de statistiske metodene som ligger til grunn for en språkmodell som ChatGPT.

Når refleksjon og kritisk tenkning uteblir, da har man ingen intelligens, men bare en kunstig eller syntetisk etterligning av noe som "stykkevis og delt" kan ligne på intelligens.

Da kan man bruke ChatGPT og andre LLM'er for å utarbeide "grovutkast", som man så må utvøre "refleksjon og kritisk tekning" i forhold til, og sørge for å kvalitetssikre, endre og skrive om etter behov.

ChatGPT sier jo selv at dette er nødvendig.

 

Endret av arne22
  • Innsiktsfullt 1
Skrevet (endret)

Spørsmål til ChatGPT:

Quote

Hvis man spør ChatGPT om råd i forhold til et fagområde, kan man da regne med at ChatGPT har ekte kompetanse og evne til refleksjon og kritisk tenkning i forhold til dette fagområdet?

Svar i fra ChatGPT:

Quote

ChatGPT har ikke ekte kompetanse, refleksjonsevne eller kritisk tenkning på samme måte som et menneske med ekspertise innen et fagområde. Modellen er en språkbasert AI som gir svar basert på mønstre og kunnskap fra store mengder tekstdata den har blitt trent på. Her er noen viktige punkter å huske på:

  1. Kunnskapsgrunnlag: Modellen har tilgang til omfattende generell kunnskap fra mange fagområder (innenfor treningsdataene og oppdatert informasjon fra nett ved bruk av verktøy). Men det er viktig å være klar over at denne kunnskapen er basert på informasjon opp til en viss dato og ikke nødvendigvis oppdatert eller spesialisert.

  2. Ingen "ekte" refleksjon: ChatGPT kan simulere kritisk tenkning og resonnering basert på tekststrukturer, men det er ikke en bevisst refleksjon. Den veier ikke informasjon med samme dybde som et menneske med ekspertise.

  3. Ingen profesjonell ansvarlighet: ChatGPT tar ikke ansvar for råd eller konklusjoner. Det er alltid viktig å dobbeltsjekke informasjon fra en AI med pålitelige, menneskelige kilder, spesielt hvis beslutningene har juridiske, økonomiske eller medisinske konsekvenser.

  4. Begrenset spesialisering: ChatGPT kan gi generell veiledning og innsikt i mange emner, men har ikke dyp spesialisering innenfor fagfelt som krever langvarig studium eller erfaring, for eksempel medisin, jus eller avanserte tekniske fag.

Når kan ChatGPT være nyttig?

  • Generelle spørsmål: Hvis du trenger en oversikt eller forklaring på et grunnleggende konsept.
  • Idégenerering: For å få forslag eller utforske ulike vinkler på et problem.
  • Første steg: Som et utgangspunkt for videre forskning.

Når bør du være forsiktig?

  • Hvis svaret skal brukes som grunnlag for viktige beslutninger (f.eks. juridiske råd, medisinsk diagnose).
  • Hvis det handler om svært spesialisert kunnskap eller situasjoner som krever kontekstforståelse og menneskelig erfaring.

Kort sagt: ChatGPT kan være en nyttig assistent, men det bør ikke erstatte ekspertråd fra kvalifiserte fagpersoner.

Hva er grunnen til at man skal tillegge ChatGPT noen helt andre egenskaper, enn det ChatGPT selv sier at den har?

Endret av arne22
  • Innsiktsfullt 1
Skrevet (endret)
On 1/20/2025 at 4:16 PM, arne22 said:

Da kan man bruke ChatGPT og andre LLM'er for å utarbeide "grovutkast", som man så må utvøre "refleksjon og kritisk tekning" i forhold til, og sørge for å kvalitetssikre, endre og skrive om etter behov.

 

Bingo! Dette er en måte å bruke CharGPT på. 

Jeg ser på systemer som ChatGPT som nok et hjelpemiddel innen tenkning/planlegging og kommunikasjon. Mennesket har brukt slike hjelpemidler til alle tider og kanskje er det den eneste arten som bruker dette? 

Bare en skisse tegnet i sand eller oppsett av steiner og pinner kan være et slikt hjelpemiddel. Skriftspråket er et annet hjelpemiddel. Papir og blyant (+ viskelær) er typiske hjelpemidler innen bl.a. matematikk. Så kom kalkulatoren og diverse data-programmer. Grafiske sammenstillinger/visualisering fungerer ofte som hjelpemiddel til både å tenke og å kommunisere. Kart (gjerne på papir) kan fungere som tilsvarende hjelpemiddel. Og tenk på filmen om Napoleon som brukte situasjons-bilder på et bord.

Når vi tenker og kommuniserer så foregår dette som regel ikke i ensommhet i et mørkt rom. Det finnes dog unntak: jeg kan programmere mens jeg sitter alene i mørket. Magnus Carlsen kan visst spille sjakk i mørket også 🙂

Jeg mener at en ikke bør undervurdere systemer slik som ChatGPT og "redusere" det til en slags "søkemaskin". De statistiske operasjonene kan tenkes bli til "byggesteiner" og føre til at modeller formes.  Jeg mener at dette er mye tilsvarende utvikling av vår egen evne til å tenke.

Vi mennesker er ganske så enkle vesener og tenker nesten aldri noe nytt og selvstendig/kritisk. Når skolen prøver å få elever til å "tenke kritisk" så blir resultatet ofte bare immitering som sliksom skal ligne på selvstendig tenkning - men hele øvelsen er som oftest programmert på forhånd🙂 . I den grad vi tenke noe nytt så er dette helst grunnet i tilfeldige feiltagelser/"mutasjoner" - på linje med biologisk evolusjon.

Jeg tror ikke på "kreaksjonisme" innen menneskelig tenkning🙂  Å være "smart" betyr ikke at en lett tenker nytt men bare er flink til å koke på gamle ideer. Feiltagelser er helt nødvendig for kreativ tenkning, og klarer en å få et AI-system til å "mutere" sine modeller (gjerne helt tilfeldig) og slik skaper en "evolusjon" der modeller konkurrerer ut hverandre, så kan dette minne om kritisk og kreativ tenkning.

Husk at murhus er ikke "bare er en samling mustein" eller et kunstmaleri er ikke bare "noe gammel maling" 🙂

Endret av lada1
  • 5 måneder senere...
Skrevet (endret)

Når det gjelder bruk av ChatGPT til løsning av konkrete juridiske oppgaver, så vil jeg mene at ChatGPT kommer ut med feil svar i mer enn 50% av tilfellene, i hvert fall hvis problemstillingene er litt sammensatte.

På den annen side så ser det for meg ut til å være en form for systematikk i feilene, slik at når man vet og tar med i betraktning hva disse feilene er, så kan faktisk ChatGPT være til stor hjelp, forutsatt at man som bruker, tar høyde for at man vanligvis vil bli forsøkt lurt.

Disse feilene ser for meg ut til typisk å være slik:

  • Feil i underliggende data, som forplanter seg videre til feil svar i fra ChatGPT.
  • Lex posterior ser ut til å bli praktisert motsatt. Informasjon i fra gamle websider med mye trafikk får prioritet i forhold til nyere informasjon.
  • ChatGPT bruker statistisk metode i stedet for juridisk metode for å tolke underliggende data, og tolker feil.
  • ChatGPT vet ikke svaret og hallisunerer. Den kan skrive noe som ser veldig bra ut, men som etter litt nærmere undersøkelser viser seg å være bare svada. Det som ChatGPT oppgis om sitater i fra lover og forskrifter kan for eksempel vise seg å være basert på "fri fantasi". Samtidig kan framstillingsformen kan se ganske overbevisende ut.

Hvis man på den annen side tar tak i alle disse "løse endene" som ChatGPT henter fram, og omarbeider stoffet i nødvendig grad, så kan faktisk ChatGPT være ganske nyttig, men samtidig også ganske "farlig" på grunn av at "feil påstand" eller "feil konklusjon" kan bli lagt fram på en tilsynelatende overbevisende måte, men med referanser til rettskilder som enten er gått ut på dato, eller som bare finnes i fantasiens verden.

Er det noen andre som har forsøkt å teste ut ChatGPT i en slik sammenheng og som har gjort like eller ulike erfaringer?

 

Endret av arne22
  • Liker 1
Skrevet
krikkert skrev (17 timer siden):

Lovdata har lansert en liten sak nå. Ikke brukt den selv ennå, men ser spennende ut. 

Har leika litt med den.

Fyrsteinntrykket er at den svarer heilt greit ut enkle juridiske spørsmål, på meir avanserte spørsmål så er det mye svada.

Det som kanskje er mest nyttig med lovdata sin KI funksjon er at i tillegg til det genererte svaret så får du ei liste med kildegrunnlag, det er derfor både enkelt å kvalitetssjekke og ikkje minst kan det være nyttig for å få ei liste over lover og dommar på Lovdata som kan være relevante for det du søker på.

Når eg til dømes tek eit KI søk på kva lover som er relevante for ein nabokrangel så får eg berre opp grannelova, plan- og bygningslov, og forureiningslova. Så ei utfyllande liste er det ikkje, men det vil nok i framtida bli fornøyeleg nabokonflikter der begge naboane kjem med påstandar frå "adokaten" sin om at det er naboen som tek feil.

Skrevet

Her var det mye spennende og mye virvarr. 

KI er definitivt en utfordring i akademia. Den er absolutt flink til, og har en enorm eksponentiell vekst i, å anvende juridisk metode i svarene. Her gjelder det å vite hvordan man skal bruke KIen. 

En rapport fra Universitetet i Oslo publisert 31. mars 2025 gjennomgår utfordringene, og 2 professorer brukte KI systematisk for å løse eksamensoppgaver. Besvarelsene var i mange tilfeller tilsvarende A- eller B- besvarelser.

En annen utfordring med hensyn til fusk er at KI generer "originaltekst" (igjen avhengig av hvordan brukeren selv anvender KIen) og det er derfor nærmest umulig med dagens plagiatsystemer å oppdage fusk på eksamen (eller andre type innleveringsoppgaver) hvor eksamensformen er "hjemmeeksamen" og hvor studentene har brukt KI til å generere teksten. Dette er alvorlige utfordringer, og akademia er som vanlig relativ treg med å gjøre nødvendige endringer. 

Min personlige mening er at det er nærmest hårreisende at universitetene fortsatt benytter seg av hjemmeeksamen. Ihvertfall i en periode hvor universitetene fortsatt forsøker å finne metoder til hvordan eksamensoppgavene skal være. 

På sikt kan dette medføre større utfordringer i arbeidslivet og en skjev konkurransesammensetning. Det kan også på sikt medføre mistillit til akademia som institusjon. Særlig fordi arbeidsgivere kan miste tillitt til at kandidatene innehar den reelle akademiske prestasjonen som vitnemålet deres gjenspeiler. 

Skrevet (endret)
2 hours ago, Mohdaw said:

En rapport fra Universitetet i Oslo publisert 31. mars 2025 gjennomgår utfordringene, og 2 professorer brukte KI systematisk for å løse eksamensoppgaver. Besvarelsene var i mange tilfeller tilsvarende A- eller B- besvarelser.

Vet ikke hvilken rapport det refereres til men i denne rapporten så nevnes det at ChatGPT kan gjøre det bra i en eksamensform og et faginnhold, som går ut på å "gjenfortelle" eller "rekonstruere" innhold i lærebøker. Dette vil jo da være innenfor rammen av det som ChatGPT er designet for å kunne utføre av oppgaver:

https://www.uio.no/for-ansatte/enhetssider/jus/ledelses-og-utvalgsmoter/pmr/undervisningsseminar/rapport-fra-arbeidsgruppe-for-ki-og-vurdering.pdf

Det at ChatGPT kan rekonstruere eller gjenfortelle innhold i fra lærebøker, vil jo ikke si at den kan beherske juridisk metode som rent kvalitativt kanskje er noe helt annet.

Endret av arne22
Skrevet (endret)

Her har vi jo en litt nesten morsom variant i regi av Tromsø kommune (eller tragikomiske er det vel):

https://www.vg.no/nyheter/i/KMJ9R4/ki-skandalen-dette-er-dommen

Det er jo akkurat dette som er noe av problemstillingen. Når man lar ChatGPT jobbe på forholdvis avgrensede problemstilinger, "egnet for KI", og ting som kanskje ligner på "rekonstruksjon av lærebøker innenfor et avgrenset område", så kan den komme opp med svar og løsninger som er aldelses fantastiske.

Hvis man der i mot lar ChatGPT jobbe opp mot litt mer komplekse og sammensatte problemstillinger, som kanskje i sin natur ikke er like egnet for KI, så kan den komme opp med svar og løsninger, som ikke er noe annet enn tull og svada i fra ende til annen, ordrette sitater i fra rettskilder som ikke finnes i virkeligheten, og som er halisunert og funnet opp for anledningen. Ut i fra språkmodellens språkmodellens statistiske arbeidsmetode, så skulle rettskildene ha eksistert, og når de ikke gjør det, så er det bare å halisunere litt og finne dem opp, og så kan man også legge fram ordrette sitater i fra de rettskildene som ikke finnes i virkeligheten.

ChatGPT kan nok komme opp med fantastiske løsninger, men samtidig så er den jo også "livsfarlig", for alt den kommer opp med må jo etterprøves og gås etter i sømmene. Man kan aldri vite på forhånd, hva som blir fantastisk bra, og hva som bare er fri fantasi, tull og vas.

Noe av begrensningen til KI, det er jo at den er fullstendig fri for all form for "sunn fornuft og dømmekraft" og at det dreier seg om "kunstig" eller "ettelignet intelligens" og ikke "ekte intelligens". 

 

Endret av arne22
Skrevet
On 7/3/2025 at 8:28 AM, arne22 said:

Her har vi jo en litt nesten morsom variant i regi av Tromsø kommune (eller tragikomiske er det vel):

https://www.vg.no/nyheter/i/KMJ9R4/ki-skandalen-dette-er-dommen

Det er jo akkurat dette som er noe av problemstillingen. Når man lar ChatGPT jobbe på forholdvis avgrensede problemstilinger, "egnet for KI", og ting som kanskje ligner på "rekonstruksjon av lærebøker innenfor et avgrenset område", så kan den komme opp med svar og løsninger som er aldelses fantastiske.

Det er der jeg har bekymringer angående utdannelse generelt. Det finnes en gruppe/"rase" av studenter som flyter på "rekonstruksjon av lærebøker" og ikke evner å tenke mye selv. De er ofte vinnere i akademiske sammenhenger - og "flinke piker" er gjerne overrepresentert i denne gruppen. Dette er en av grunnene til at jeg ønsker KI velkommen i mange sammenhenger innen akademia. For eksempel ChatGPT kan bidra til at andre får en bedre sjanse til å bli vinnere. Det er et tap for samfunnet at "copycats" vinner for mye fram på bekostninger av dypere tenkere.

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...