Gå til innhold

Teslas selvkjøringssystem granskes av myndighetene


Anbefalte innlegg

Videoannonse
Annonse

Dette er en veldig merkelig granskning, altså at det kun rettes mot Tesla.

At førerassistenter ikke klarer å se stasjonære objekter er en velkjent begrensning:

https://arstechnica.com/cars/2020/08/new-cars-can-stay-in-their-lane-but-might-not-stop-for-parked-cars/

Det er ikke bare Teslas systemer som kan bli misbrukt:

https://www.teslarati.com/tesla-autopilot-vs-gm-super-cruise-test-video/

Og misbrukt blir de:

https://tech.slashdot.org/story/14/08/06/2225223/idiot-leaves-drivers-seat-in-self-driving-infiniti-on-the-highway

Så man kan jo lure på hva som ligger bak denne granskningen. Den virker ganske feilrettet og dobbeltmoralsk.

  • Liker 3
Lenke til kommentar

Bare å vite antallet ulykker i et gitt tidsrom sier vel egentlig veldig lite? Hvor mange kjørte kilometer med assistent er det i samme periode? Og hvor mange ulykker var det under helt analoge forhold der førere uten moderne assistenter kjørte på biler i veikanten med blinkende lys? For en må jo ikke glemme at folk er uoppmerksomme bak rattet de også. Og det skjer dessverre at både politibiler og veiearbeidere blir påkjørt på veiskulder'n fordi noen ikke fulgte godt nok med mens de kjørte. Og jeg tenker tallene her, må stå i en større kontekst før de gir noen som helt mening. 

Kanskje er 11 ulykker høyt, kanskje er det lavt? Kanskje er det normalt eller unormalt? Artikkelen ga ingen utfyllende info og kanskje burde skribenten ha forsøkt å gravd frem mer info før artikkelen ble publisert? For slik den står nå så føler jeg det blir litt intetsigende. 

Endret av bojangles
  • Liker 5
  • Innsiktsfullt 3
Lenke til kommentar

Jeg har inntrykk av at selvkjøremuligheten stadig fremheves i omtalen av Tesla's mange teknologiske fortrinn. Men hvor sannsynlig er det at man selv kjører samtidig som den brukes?

De skriver fra seg alt ansvar ved at man ett eller annet sted SKRIVER at man må kjøre selv i tillegg.

Endret av NERVI
  • Liker 1
Lenke til kommentar
Gjest Slettet-QVZmonLc

Poenget er vel at enkelte synes alt teknologisk er kult, men glemmer det sørgelige faktum at du kan ikke saksøke en computer hvis føreren i en eller annen setning langt nede i kontrakten blir pålagt å ha hendene på rattet og være oppmerksom. Da er det ikke selvkjøring, og alt er kun juridisk ansvarsfraskrivelse.

Autopilot/selvkjøring fungerer kun hvis ALT på veien er styrt av computere og veien ikke er tilgjengelig for noe annet, noe det aldri vil bli. Ergo, stans enhver bruk av selvkjøring, det er idioti og galskap.

Lenke til kommentar

Litt av problemet er mangel på HMI. Bilen gjør noe riktig vs. gjør noe livsfarlig er en litt dårlig "oppløsning" på man-machine interaksjonen. Det bør være overvåking av konfidensnivå på beslutninger som bilen gjør, med forvarsel om hva bilen har tenkt å gjøre, og du kan f.eks trykke gass eller dreie på rattet for å gi tilbakemelding om hva du mener bilen bør gjøre. Kun når dette er på plass vil vi se ekte maskinlæring.

 

  • Liker 4
Lenke til kommentar
DrWatson skrev (39 minutter siden):

Synes det er forbausende lite fokus på selve kjernen i denne problemstillingen: Selvkjøring på nivå 3 vil aldri fungere, fordi bilen er på nivå 3 og sjåføren oppfører seg som om den er på nivå 4. Det er en grunnleggende menneskelig egenskap å være ekstremt dårlig til å overvåke en automatisk prosess som virker fint mesteparten av tiden. Det eneste logiske her er å forby selvkjøring inntil nivå 4 er tilgjengelig.

Jeg regner med du mener fra Nivå 2 til Nivå 3? Så kjapt produsenten tar på seg ansvaret, så setter man automatisk begrensninger for hva som vil være lurt å kastes ut blant folk og ikke. Bilprodusenter er jo veldig klar over tendensen vi har til å suge i å overvåke autonome systemer. Altså må våres tendens til å være dårlige på dette inkluderes i måten ting utvikles på.  

DMS må inkluderes selv innenfor Nivå 2 assister, spesielt når man blander assister og autonomi hos firma som skal prøve å selge begge deler og omtaler assister som om det klarte mer. 

Lenke til kommentar
Stefse skrev (14 minutter siden):

Litt av problemet er mangel på HMI. Bilen gjør noe riktig vs. gjør noe livsfarlig er en litt dårlig "oppløsning" på man-machine interaksjonen. Det bør være overvåking av konfidensnivå på beslutninger som bilen gjør, med forvarsel om hva bilen har tenkt å gjøre, og du kan f.eks trykke gass eller dreie på rattet for å gi tilbakemelding om hva du mener bilen bør gjøre. Kun når dette er på plass vil vi se ekte maskinlæring.

 

Du er nok inne på noe der, at atonomien ikke har intelligens nok til å forstå situasjoner og handle riktig. Alt må i prinsipp læres, og regnehastigheten må være hurtig nok til å gjenkjenne lignende situasjonsbilde. Her er det en ekstraordinær veimerking med kjegler og lys som er nevnt i forbindelse med ulykker. 

Det er nok langt fram, og man kan lure på hvor man finner en gevinst. Annet enn i markedsføring og i de forestillingene av nytte de potensielle kjøpere lager seg selv.

Endret av NERVI
  • Liker 1
Lenke til kommentar
Stefse skrev (19 minutter siden):

Litt av problemet er mangel på HMI. Bilen gjør noe riktig vs. gjør noe livsfarlig er en litt dårlig "oppløsning" på man-machine interaksjonen. Det bør være overvåking av konfidensnivå på beslutninger som bilen gjør, med forvarsel om hva bilen har tenkt å gjøre, og du kan f.eks trykke gass eller dreie på rattet for å gi tilbakemelding om hva du mener bilen bør gjøre. Kun når dette er på plass vil vi se ekte maskinlæring.

 

Tesla gjør noe lignende (dvs har litt høyere oppløsning):

Hvis den blir litt usikker, varsler den med gult symbol i displayet. Hvis du viser at du "er med" ved å følge på med rattet, går symbolet bort. Det er også lettere å overstyre når symbolet vises, altså mindre motstand på rattet kreves før bilen gir føreren kontrollen tilbake.

Hvis bilen er enda mer usikker, er det rødt varsel i displayet, varsellyd og oppbremsing.

Er situasjonen av en eller annen grunn "umulig" så er det enda tydeligere varsler, mer lyd og oppbremsing (helt til stans med varselblink på om man ikke tar over).

Man kan også alltid trykke på gass for å overstyre/kansellere en fartsreduksjon, men om det er læring i det vet jeg ikke.

Har ikke lest noe dokumentasjon på dette, det er basert på egen erfaring.

  • Innsiktsfullt 1
Lenke til kommentar
36 minutes ago, Stefse said:

Litt av problemet er mangel på HMI. Bilen gjør noe riktig vs. gjør noe livsfarlig er en litt dårlig "oppløsning" på man-machine interaksjonen. Det bør være overvåking av konfidensnivå på beslutninger som bilen gjør, med forvarsel om hva bilen har tenkt å gjøre, og du kan f.eks trykke gass eller dreie på rattet for å gi tilbakemelding om hva du mener bilen bør gjøre. Kun når dette er på plass vil vi se ekte maskinlæring.

Er det ikke det hva 'shadow mode" er - særlig i trafiklys-sammenheng? Automaten er alltid på selv om selvkjøring er av og analyserer hvor automatikkens planlagte aksjon avviker fra førerens og lærer av det.

I trafikklys-situasjonen mens selvkjøring foregår, går den en litt annen vei: Bilen viser hva slags lys den registrerer (grønt eller rødt) men forbereder stopp uansett. Om føreren gir 'gass' til tross for rødt eller stopper til tross for grønt analyseres situasjonen og brukes til læring.

Endret av trikola
  • Liker 1
Lenke til kommentar
Gjest Slettet+6132

Myndighetene gjør helt rett i å undersøke her.
"Selvkjøring" bør ikke tillates (mis)brukt inntil det er 100% sikkert.
Og det er det vel ingen produsenter av (el)bil som mener de har klart. Inkludert Tesla.

Men her ser vi faren ved å gå litt "høyt ut" og si man har ett system som tillater autopilot aka "selvkjøring".
Klart det vil være noen med lite vett eller rett og slett rusproblemer som velger å la bilen kjøre.
Da blir det slike tilstander.

Lenke til kommentar

Tesla har i noen grad varsling, men om det er lærling er tvilsomt, i beste fall meget langsomt.

Med unntak av trafikklyset er det stort sett basert på at selvkjøringen må avbrytes og sjåføren overta. Dette logges som at "sjåføren overtok". Utfordringen er at programmering krever at ting er klart definert. Bilen må presentere noen alternativer som føreren kan velge mellom gjennom sin handling. Nå er det nokså binært, overta/ikke overta rattet. Det gir lite rom for læring. Dersom det var sving høyre/venstre 1m, 2m... brems, stans, øk eller oppretthold fart kan bilen lære noe til senere.

Et annet alternativ er at bilens algoritme "ser" en MC, søppeldunk eller barnevogn, presenterer dette og at sjåføren kan kvittere av for hva som faktisk står der gjennom en gitt handling. Eller som f.eks i Norge at bilen til stadighet "ser" hindringer over veien, fartgrenser som ikke stemmer eller andre grunner til oppbremsing som ikke er reelle. Bilen må fortelles HVA som er galt, ikke bare at noe er galt.

En eller annen hmi hvor brukeren får avgitt sin stemme enten på skjermen eller gjennom ratt eller stalk om hva som er observert, er nøkkelen til maskinlæring.

  • Liker 2
Lenke til kommentar
trikola skrev (18 timer siden):

Med shadow-mode avgir brukeren sin stemme til maskinen hele tiden under den manuelle kjøringen!

Og det uten at det distraherer brukeren ved at den bevisst må svare på maskinens spørsmål.

Det finnes ikke noe bevis for at "shadow-mode" gjør bilene bedre lokalt. Det er heller ikke noe bevis, men tvert det motsatte på at mengden data som deles ikke er stort nok for å trenes på fra bilflåten - forutenom AI pixel recognition trening. 

Brukeren "Green" på twitter er grei å følge sånn sett. Han er Tesla Bull, men lyver ikke om hva han finner ut av angående bilene han undersøker. Det å sjekke om bilen og systemet lærer av seg selv har han avkledd for lenge siden, og det eksisterer jo midt-delere der hele 5 Tesla'er har smelt seg inn i over ei tidshorisont på nesten 3 år. Jeg har også ei tunnel på vei til jobb der Teslaer fremdeles opplever "ghost-bremsning" på 5 året på rad. Det burde ha vært nok data derifra til å lære at den lokasjonen genererer mye falske-positive resultater. 

Endret av oophus
  • Liker 1
Lenke til kommentar

En fyr i bransjen angående autonomi som fint forklarer litt problemet, og hvorfor man må forvente at ulykker vil finne sted når man pådriver det han kaller for "autonowashing". Et problem som ikke kun linkes til Tesla, men Tesla er pådriver for å gjøre det mulig om det ikke straffes. 

For folk som får FUD'hoste av å se overskriften der, så kommer det mye fin skryt dere kan kose dere med også i videoen før fyren lurer dere sakte men sikkert inn i poenget over tid. 

Er et fint lite "Two Minute Papers" referanse der også. For de som får med seg den. 😆

Endret av oophus
  • Liker 2
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...