Gå til innhold

Tesla oppdaterer selv­kjørings­programvaren: – Svært imponerende, mener tester. – En folkehelserisiko, mener ekspert


Anbefalte innlegg

Jeg beundrer ditt engasjement!

Etter min mening kvalifiserer Dr. Missy Cummings ved Duke Univ. som en ekspert. Jeg har selv vært en av hennes studenter, tar en doktograd ved NTNU og kunne kommet med samme uttalelse som Liza Dixon fra Bosch.

Det er ingen tvil om at Tesla utvikler selvkjørende kapabiliteter. Kanskje de i framtiden løser si 98% av situasjoner de blir utsatt for, men hva med de resterende 2%, de såkalte "edge" caseene? Foreløpig er det bare mennesker som kan resonnere seg fram til en god løsning under høy grad av usikkerhet. Og jeg mener vi er lengre unna enn det Elon påstår (han var vel siden 2016 sagt at det kommer "neste år").

I en tidligere kommentar skriver du at det ikke er lurt å bruke utrent personell til å teste algoritmer de har null forståelse for.. Mener du da at man ikke skal teste systemet på en typisk sluttbruker? Altså, de som velger å benytte seg av dette idag, har jo ikke peiling på algoritmer og bilens begrensninger. Hvorfor skal ikke de sitte bak rattet og teste dette? En vanlig sjåfør i dag leser jo ikke manualen før hen tar i bruk bilen. Det er jo de samme folka som ukritisk tester ut programvaren nå.

Det som proverer meg som forbruker er at Elon Musk misleder sine kunder til å tro at bilen kan mer enn den faktisk kan.

  • Liker 4
  • Innsiktsfullt 1
Lenke til kommentar
Videoannonse
Annonse
Snilas skrev (7 minutter siden):

I en tidligere kommentar skriver du at det ikke er lurt å bruke utrent personell til å teste algoritmer de har null forståelse for.. Mener du da at man ikke skal teste systemet på en typisk sluttbruker?

Er det ikke vanlig at sluttbrukere tester produktet når det er så og si ferdig og har bestått testene fra proffene? For å luke ut det som måtte være igjen til tross for et omfattende og systematisk testregime? Her driver jo amatører og tester et system som jevnlig tar bilen i motsatt kjørefelt og prøver å kjøre ned fotgjengere. Langt fra "edge-cases".

  • Liker 3
Lenke til kommentar
Snilas skrev (2 timer siden):

I en tidligere kommentar skriver du at det ikke er lurt å bruke utrent personell til å teste algoritmer de har null forståelse for.. Mener du da at man ikke skal teste systemet på en typisk sluttbruker? Altså, de som velger å benytte seg av dette idag, har jo ikke peiling på algoritmer og bilens begrensninger. Hvorfor skal ikke de sitte bak rattet og teste dette? En vanlig sjåfør i dag leser jo ikke manualen før hen tar i bruk bilen. Det er jo de samme folka som ukritisk tester ut programvaren nå.

Skal man teste slikt på en typisk sluttbruker, så burde en inkludere skolering og opplæring ja. Det er jo fordi vi vet at vi er dårlige på å monitorere autonome systemer. Jo bedre dem blir, jo verre blir vi. Du vil være mer vigilant og oppmerksom den første gangen du skulle ha testet en slik funksjon - men når du opplever at bilen har klart A-B ruten du ofte tester ved 100 ganger, så vil du være mindre oppmerksom den 101'nte gangen vs den første gangen du tok funksjonen i bruk. 

Da er det for eksempel svært viktig å avklare mot sluttbrukerne at maskinlæring kommer med sine "quirks"- som for eksempel det faktum at man kan ende opp med å introdusere "edge cases" samtidig som man løser andre mellom hver oppdatering. 

Om en test-person ikke er klar over dette, så vil han teste A-B ruten sin som før med å være mindre vigilant, rett og slett fordi han gjennom erfaring fra tidligere ikke har opplevd ruten til å være problematisk. 

Et annet aspekt er jo standarder for kommunikasjon mellom system og test-sjåfør. Hos Tesla så kan bilen finne på å bremse uten at test-sjåføren kan vite hvorfor. Hos Mobileye for eksempel, så vil et objekt skifte farge, og de ulike fargene har ulike betydeninger som test-sjåførene er trent opp til å forstå. På den måten vet jo test-sjåføren hvorfor bilen gjør X. Bremser bilen og et menneske som står ved veien er farget rødt f.eks, så betyr det at bilen bremser for å gi personen rom til å starte å gå over veien. Hos Tesla så er det litt slik kommunikasjon, men ikke på langt nær nok, og jeg trur neppe FSD-Beta sjåfører vet hva dem betyr, siden de tipper ulike ting dem i mellom. 

All slik kommunikasjon til sjåføren burde avklares og skoleres om. Hva betyr det om veimarkeringen går fra rødt til grønt? Hva betyr det at objekter går fra grått til grønt, blått, orange, gult osv? Burde det være flere typer linjer som viser pathingen bilen planlegger å gjøre, og hvor sikker den er på at pathinga vil være korrekt over tid? 

En bil som står parkert langs veien vil hos Mobileye være grått om den antar at bilen ikke utgjør noen fare for ferden. Den vil bli orange om systemet har igjenkjent et ansikt i speilet, eller sett et hode mellom vinduene selv om bilen står stille, eller sett et annet objekt, som en fotgjenger som er gått inn bak bilen og systemet er usikker på når personen dukker opp igjen. Da forteller systemet til test-sjåføren at den kan finne på å justere ned fart, og gi bilen ekstra rom når den kjører forbi siden den er litt usikker på situasjonen som kan utspille seg nær/rundt det objektet f.eks. En bil som er markert med rød farge er en bil systemet allerede har konkludert med at er et objekt den skal vike fra, og gi forkjørsrett. All slik kommunikasjon mellom system og fører burde være inkludert i skolering om man skal teste slikt. 



 

Endret av oophus
  • Liker 2
Lenke til kommentar

Jeg vil si at det å ikke ha sluttbrukeren med i design og utvikling er en litt gammeldags måte å tenke på (les Don Norman og andre interaksjonsdesignere/Human Factors eksperter som snakker om "menneskesentrerte"-design). Da kan gapet mellom "Work as Imagined" og "Work as done" blir farlig stort. Selv i et system som av utviklerne sies å være "ferdig" vil det være tilfeller hvor det tar bilen over i motsatt kjørefelt eller nesten kjører på ting. Hvordan forventer de da at den ansvarlige sjåføren skal reagere? Hvordan forventer de at en sjofør som oppfatter et system som selvkjørende til enhver tid skal være forberedt på å ta over kontrollen? Her har ingeniørene kanskje en helt annen oppfatning enn en typisk sluttbruker. Men dette tar oss til det større spørmålet om det i det hele tatt er mulig for menneske å til enhver tid være i stand til å ta over kontrollen (om vi ikke følger med) når det kreves. Studier sier at man trenger rundt 7sek for å få tilstrekkelig situasjonsforståelse og ta den "riktige beslutningen".

Nå er jo dette et langt steg opp fra å snakke om bare FSD, men dette systemet operer ikke i et vakum og det er denne menneske-autonomi-interkasjonene som etter min mening er det ekstensielle problemet.

Nå skal de sies at Tesla har noen eksepsjonelt gode interaksjonsdesigner og nettopp derfor tror jeg de scorer så godt på APEAL ratingen som vist til over.

  • Liker 2
  • Innsiktsfullt 1
Lenke til kommentar
Snilas skrev (15 minutter siden):

Jeg vil si at det å ikke ha sluttbrukeren med i design og utvikling er en litt gammeldags måte å tenke på (les Don Norman og andre interaksjonsdesignere/Human Factors eksperter som snakker om "menneskesentrerte"-design).

Hvis målet er L4/5 så er det jo ingen sluttbruker.

Men uansett så finnes det en mellomting mellom å utelukke mennesket fra et design til å la amatører stå for testing av halvferdig autonomi på to tonn bil i et bymiljø med fotgjengere, syklister og barn. 

Endret av uname -i
  • Liker 4
Lenke til kommentar
Snilas skrev (24 minutter siden):

Veldig gode poeng! Så kanskje man skal kreve et utvidet sertifikat for de som vil kjøre med FSD? :)

 

Det blir utviklet regler for slikt, og bransjen som utvikler robotaxier har hele tiden vært opptatt med å sammen bli enige om hva som er best for sikkerhet. Hos dem så har jo test-sjåførene allerede tatt kurs og blitt lært opp til hva de skal gjøre, hvordan teste, hvordan melde om uhell, nesten uhell, handovers, hva de ulike fargene UI betyr osv. De er også blitt mer og mer enige rundt hva som er viktig å kommunisere mellom system og test-sjåfør, og etter hvert nå også diskusjoner rundt om det vil være viktig å i tillegg få til kommunikasjon mellom robotaxi og omverdenen. Noen leker med lys i grillen, andre leker med prosjektor til asfalt osv. Noe må en kanskje finne på å måtte gjøre siden omverdenen plutselig ikke har en person bak rattet å visuelt kommunisere med lengre. Da kan det jo være greit at bilen sier ifra til dem også hva den planlegger å gjøre. 

FSD er noe med "design intent" rundt nivå 4/5. Da må de følge disse normene og reglene som bransjen samlet sett har produsert og blitt enige om for å regulere seg selv. Hvis Tesla er den eneste som ikke involverer seg med disse tingene, så er de firmaet som kommer til å tvinge regulatoriske krefter for å sette hardere krav, som så hele bransjen må følge. 

Da kan det ende opp med at kravet setter føringer for hele bransjen, fremfor at bransjen samlet sett finner ut av hva som fungerer best. Resultatet blir altså at Tesla blir ei bremsekloss i utviklingen av robotaxier, noe som jo er synd siden de i utgangspunktet satte mer fokus på det og mer akselerasjon for det i utgangspunktet - etter at Elon Musk ble "mind blown" som han liker å si etter å ha sett Google's Auto Pilot, og Mobileyes systemer for det. 

Endret av oophus
  • Liker 2
Lenke til kommentar

Jeg vet ikke om jeg er helt enig med folk her. Det fremstår som om det ikke er noe komunikasjon mellom Tesla og de som tester FSD beta, men de komuniserer på mail. Det er i tillegg en raporteringsknapp som lagrer alle kamera og sensorer i en periode før og etter trykket slik at man kan analysere dataene. Dette skjer også når man korrigerer med å dreie på rattet, trokker på bremsen eller gasspedalen. Mange av testerene har satt fast bilen og finner plasser der bilen sliter for å se om bilen plutselig løser dette etter en oppdatering. Blant dette er det bratte trange gater i mørket, Parkeringskjellere der bilen ikke ser veien ut, støttepilarer mellom kjørefelt i samme kjøreretning. Så det er ikke korrekt at alle Youtubere ikke legger frem flauser i selvkjøringen, da hadde ikke folk orket å se disse videoene. Man kan se at systemet blir bedre for hver oppdatering, når dette stopper opp kan man diskutere om Tesla har valgt "riktig" eller "feil" måte å løse selvkjøring på. Er en video fra litt tilbake av en Hacker i Ukraina som klarte å aktivere selvkjøring, Teslaen klarte å kjøre der på en helt ukjent plass, så de gjør ihvertfal noe rett

  • Innsiktsfullt 1
Lenke til kommentar
martin91 skrev (3 timer siden):

Jeg vet ikke om jeg er helt enig med folk her. Det fremstår som om det ikke er noe komunikasjon mellom Tesla og de som tester FSD beta, men de komuniserer på mail.

Da ville man jo ikke sett FSD-Beta sjåfører tippe hva UI'en betyr? Hva kommuniserer dem gjennom mail? Det er jo ikke opplæring i det minste. Vell, bortsett fra hva Tesla selv ønsker at de skal vise og lage YT innhold etter. Nå nylig ble jo en video skrudd av pga en FSD-Beta sjåfør lot bilen nesten meie ned fotgjengere. Her tipper jeg han får mye fine kommentarer på mail, og det er slik kommunikasjon som foregår. 

 

martin91 skrev (3 timer siden):

Det er i tillegg en raporteringsknapp som lagrer alle kamera og sensorer i en periode før og etter trykket slik at man kan analysere dataene.

Den blir brukt feil. Om man innfører en plutselig "handover", så er det null grunn i å trykke på den knappen. Da skal jo systemet allerede vite at mennesket valgte å gjøre noe annerledes enn hva systemet valgte å gjøre. Det er jo derfor plutselig "handover" iverksettes. 
Det å se FSD-Beta sjåfører kjøre ei manuell handover, og så trykke på knappen viser jo tydelig at skolering og opplæring ikke er der. 

En må også huske på at systemet ikke har lagringskapasitet nok til å lagre og sende alt.

 

martin91 skrev (3 timer siden):

Mange av testerene har satt fast bilen og finner plasser der bilen sliter for å se om bilen plutselig løser dette etter en oppdatering.

Når systemet under like forhold da klarer 3 av 5 forsøk fremfor 1 av 5, så trur de det er en oppgradering fremfor tilfeldigheter. Enten er en edge case løst, eller så er den ikke. Det at bilen kan finne på å løse samme rute ulikt er jo grunnen til missforståelser. Selv Omar Quazi som altså er en FSD Beta sjåfør trudde en periode at bilen lærte av seg selv lokalt, hvor den så ville sende den nye informasjonen til Tesla HQ. De postene er for lengst slettet, etter at han ble skolert. 

 

martin91 skrev (3 timer siden):

Man kan se at systemet blir bedre for hver oppdatering, når dette stopper opp kan man diskutere om Tesla har valgt "riktig" eller "feil" måte å løse selvkjøring på.

Man ser også at systemet nedgraderer enkelte kjøreruter til å løse dem dårligere. Det er dette som er farlig, og grunnen til at DMS samt opplæring er viktig. Man blir mindre og mindre vigilant jo bedre systemet er, og hvis man gjennom Patch 9.0 har opplevd at sin daglige pendler-rute er løst over X og Y områder, så blir man mindre og mindre vigilant rundt disse områdene over tid, siden man jo over en haug turer ikke har måtte ta over systemet. Hvis patch 10.0 så introduseres, så er det sjanser der for at akkurat din rute ikke løses likt lengre. Hvis du så tester samme rute, og er lite vigilant pga sukksesshistorien til patch 9.0, og patch 10.0 har endret noe som berører deg spesifikt til din spesifikke rute, så har man jo et potensielt problem. Man må rett og slett lære sjåfører å være ekstremt vigilant etter hver eneste oppdatering. Kjør de turene slik man kjørte de første turene for funksjonene totalt sett når man var ekstra forsiktig og fulgte med. I tillegg må en altså introdusere ordentlig DMS og bedre kommunikasjon mellom system og sjåfør. UI er noe vi minst må bli kurset om, akkurat slik fly piloter blir kurset om autopilot, og shippere på havet blir kurset om autonomi gjennom ECDIS softwaren sin. FSD-Beta sjåfører burde ha ei tutorial i bilen sin som forklarer hva UI'en til FSD betyr. Hva betyr det når linjemarkeringer flickrer? Hva betyr det når objekter flickrer? Hva betyr det når objekter skifter farge? Burde bilen lyse opp objekter den sakker farten sin for? Idag så deakselerer FSD-Beta mens sjåførene tipper og rister på hodet fordi de ikke aner hvorfor. Hvis de ikke aner hvorfor, så er det umulig å bedømme systemet. Som oftest håper dem jo at systemet så noe de selv ikke så, men de vet altså ikke, og rapporteringen blir sporadisk. 

For Test-Sjåfører ellers, så kjører dem ofte en tur, og ser på opptak av turen etterpå for å skriver rapporter. Da kan de enklere følge med på UI og video-opptak for å finne feil, og de får gjort betydelig mer presis arbeid slik enn å kun kjøre rundt.  

Det å kjøre med FSD-Beta er mer slitsomt og mer stressende enn å kjøre selv. Hvis det IKKE er det, så er man ikke en test-sjåfør. Da er man en normal sjåfør som antar at FSD-Beta er der for å gjøre ferdselen enklere. Det i seg selv vil resultere i mer alvorlige uhell. 

En må huske på at omtrent 90% av alle uhell på veiene foregår mellom starten av turen sin, altså som oftest hjemme og til hovedveien. Dette er  typisk "fender-benders" og kanting av felger på rundkjøringer o.l. En annen majoritet av uhell foregår fra hovedveien til ende desinasjonen sin, f.eks jobben. Det er en brøkdel av uhell som foregår på hovedveiene, men når de først foregår - så er det dem som er dødlige. AP/FSD som ikke fungerer har altså ei høyere sannsynlighet for å generere uhell som potensielt kan være dødelig, enn generelle uhell i statestikken som inkluderer hele A til B turen, fremfor f.eks 50% av turen, der 25% av turen er før hovedveiene, og 25% er etter hovedveiene, der disse 50% totalt sett inneholder 90% av uhell - samtidig som de inneholder mindre kilometre reist totalt sett. Statestikken som Tesla bruker for å "bevise" at AP er sikrere er altså kun tøys og tull. De bruker uhell/kilometre og glemmer at AP i utgangspunktet kun aktiveres på 50% av turens strekning, innenfor deler som kun står for 10% av uhell generelt sett. 

Hvis man nå da skal innføre ADAS med "hands-off" så blir det et problem. Og det hjelper ikke at FSD i manualen sier "hands-on" så lenge det er ei dobbeltmoral i måten FSD selges rundt, og måten FSD omtales som og vises som. Det ligger en video på Tesla sine hjemmesider hvor de sier at sjåføren bak rattet kun er der av regulatoriske grunner, og at bilen kjører av seg selv. 

Dette blir det samme som at Q-tippen din som du bruker for å rense ørene dine med, spesifikt sier at den ikke skal brukes for å rense ørene dine med. Så lenge folk omtaler FSD som "Full Self Driving", og omtaler det som en funksjon som gjør ferdselen bedre og enklere og ikke minst sikrere, så vil resultatet være - noe som støttes av forskning - at monitoreringen blir dårligere og dårligere over tid. Selv folk som får betalt og er test-sjåfører vil måtte kjempe mot seg selv for å ikke få denne effekten, og det er jo det opplæringen er der for. Den er der for å klargjøre og synliggjøre den effekten. 

 

Endret av oophus
  • Liker 2
Lenke til kommentar
martin91 skrev (På 17.9.2021 den 11.07):

Jeg vet ikke om jeg er helt enig med folk her. Det fremstår som om det ikke er noe komunikasjon mellom Tesla og de som tester FSD beta, men de komuniserer på mail. Det er i tillegg en raporteringsknapp som lagrer alle kamera og sensorer i en periode før og etter trykket slik at man kan analysere dataene. Dette skjer også når man korrigerer med å dreie på rattet, trokker på bremsen eller gasspedalen. Mange av testerene har satt fast bilen og finner plasser der bilen sliter for å se om bilen plutselig løser dette etter en oppdatering. Blant dette er det bratte trange gater i mørket, Parkeringskjellere der bilen ikke ser veien ut, støttepilarer mellom kjørefelt i samme kjøreretning. Så det er ikke korrekt at alle Youtubere ikke legger frem flauser i selvkjøringen, da hadde ikke folk orket å se disse videoene. Man kan se at systemet blir bedre for hver oppdatering, når dette stopper opp kan man diskutere om Tesla har valgt "riktig" eller "feil" måte å løse selvkjøring på. Er en video fra litt tilbake av en Hacker i Ukraina som klarte å aktivere selvkjøring, Teslaen klarte å kjøre der på en helt ukjent plass, så de gjør ihvertfal noe rett

Dette er vel typisk to forskjellige retninger innen utvikling. Den ene der man skal "lære" tester hvordan systemet fungerer for å finne ut om de med sine "kjøringer" opplever systemet slik utviklerne mener det skal være, og så kan man kanskje komme med innspill på ting som ikke er løst på god nok måte, selv om fokus er å lete etter rene bugs.

Den andre retningen er egentlig å bare la brukeren teste ut programvaren/produktet uten å vite helt hva man skal se etter eller hvordan man skal bruke det. Man er i utgangspunktet bare instruert til hvordan man skal rapportere feil og manglende logikk, for å se om produktet er så intuitivt som man ønsker, og om det faktisk oppfører seg slik bruker forventer.

I god utviklingsånd er begge deler like viktig, men ofte i forskjellige faser av utviklingen. Og jeg vil si at den største feilen er å bare bruke den ene metoden, og ikke den andre. Og selvsagt har man også gjort dette internt før man lar eksterne teste det ut.

Dog, jeg tipper de tyske er langt mere glad i det første alternativet, mens Elon Musk og Tesla er langt mere inne på IT-verdens syn på at metode 2 bør brukes i stor utstrekning for at systemet skal bli så bra og intuitivt som mulig. Og for å få innspill på ting det kan være vanskelig å få hånd om før man tester slik.

Så kan man alltids spørre seg om Tesla gjør dette i for stor grad og langt for tidlig, slik som enkelte her inne messer mer enn nok om, og om Tesla burde gjort dette i mere lukkede former først. Jeg mener det er farlig å grave seg for dypt inn i labrommet før man tester det mer eksternt.

Dog, det var vel akkurat slik Volvo gjorde det. Og da de endelig skulle demonstrere for journalister hvordan deres autostopp for fotgjengere, syklister og dyr virket, så feilet demonstrasjonen, og testsjefen selv ble påkjørt av demonstrasjonsbilen. Det var nok minst like flaut som Elon Musk sin demonstrasjon av "uknuselig" glass under Cybertruck-presentasjonen.

  • Innsiktsfullt 1
Lenke til kommentar

Man kan ikke sammenligne det å utvikle Floppy Bird mot noe som skal kjøre av seg selv i 100 km/t som veier 2000kg, der vi vet vi kommer til å være mindre vigilant jo bedre systemet blir. Det er vitenskapelig bevist, og en faktor man lærer om ved absolutt alle områder som inkluderer autonomi som må overvåkes. 

  • Liker 1
Lenke til kommentar
On 9/15/2021 at 8:15 PM, oophus said:

Du har ikke engang sett denne videoen heller, selv om du har fått den servert flere ganger. Han er på ingen måte en "Tesla-hater", tvert imot, og det kommer tydelig frem i videoen. 

Jeg sa ikke at vi ikke skulle høre på denne eksperten. Jeg sa at vedkommendes utsagn ikke må framstilles og benyttes som om det er en uavhengig ekspert som har kommet med utsagnet.

Slik det blir fremstilt her, med "en folkehelserisiko, mener ekspert" i overskriften, høres det ut som det er noen i en eller annen transportmyndighet eller TÜV eller noe slikt som har uttalt seg. Når man så graver i det ser man at utsagnet kommer fra en kommersiell konkurrent. Det holder ikke mål i det hele tatt.

  • Liker 1
  • Innsiktsfullt 1
Lenke til kommentar
joffeloff skrev (25 minutter siden):

Jeg sa ikke at vi ikke skulle høre på denne eksperten. Jeg sa at vedkommendes utsagn ikke må framstilles og benyttes som om det er en uavhengig ekspert som har kommet med utsagnet.

Ja, da venter jeg gledelig på kilder på en haug uavhengige eksperter som sier noe annet, for vi kan vell ikke høre på kun én uavhengig ekspert heller? Tenk hvis den ene ikke er en "uavhengig ekspert"? 

 

joffeloff skrev (26 minutter siden):

Slik det blir fremstilt her, med "en folkehelserisiko, mener ekspert" i overskriften, høres det ut som det er noen i en eller annen transportmyndighet eller TÜV eller noe slikt som har uttalt seg. Når man så graver i det ser man at utsagnet kommer fra en kommersiell konkurrent. Det holder ikke mål i det hele tatt.

Lov å bruke hodet litt også da. Om vi nå tillot måten Tesla gjør dette på, så ville det vært i alles interesse å gjøre det samme. Selg uferdig softtware og kast det ut i trafikken. Grunnen til at man ikke gjør det, er jo fordi man har funnet ut at det følger risiko med å gjøre det. Risiko som kan sette en bråstopper for utviklingen, da et stort uhell er nok til å sette alt på sidelinjen. Da tvinger man inn regulering som er mye strengere for AV utvikling enn den er i dag. 

Så enten kan vi fortsette å la bransjen regulere seg selv, der det tenker på sikkerhet i måten slikt utrulles og utvikles på, eller så må det reguleres hardere. Slik Tesla gjør det nå, så må vi nok regulere dette hardere. 

  • Liker 1
Lenke til kommentar
  • 4 uker senere...
uname -i skrev (På 15.9.2021 den 21.43):

Fascinerende å se at det fremdeles er noen igjen som har trua på selvkjøringsprojektet til Tesla. Alle andre ser at denne åpenbare svindelen er i ferd med å ebbe ut. Selv i de tradisjonelle ekkokamrene har stemningen snudd. Moderatorene på r/teslamotors, som ofte er 100% emosjonelt og finansielt investert i selskapet, jobber overtid for å fjerne kritikk og latterliggjøring fra alle de som har sett lyset etter at de gjentatte ganger over snart 8 år har blitt lurt av Elon  Musk. Det var for eksempel en kar som hadde brukt hele 300 000( LOL ) på Full Selvkjøring opp gjennom årene og til slutt hadde mistet troen. Bedre sent enn aldri, si, når man har brukt like mye på vaporware som andre bruker på en helt ny bil.

Tesla er i en fullstendig blindgate med både feil strategi og utilstrekkelig hardware. Det er grenser for hvor mye man får til med 8 lavoppløselige web-kameraer fra restekassa på Elkjøp. Og er det noen voksne igjen etter at dyktige fagfolk har rømt autonomi-avdelingen i flere omganger? Virker som det er bare er han Karpathy og noen college-studenter som er igjen.

Jeg tipper Elon Musk innerst inne håper at myndighetene stopper det her. Da kan han gjjøre det han er ekspert på når noe går galt. Skylde på noen andre enn sin egen inkompetanse.

Du tipper veldig ofte. Og tar alltid feil.

FSD-betaen blir bare mer og mer imponerende.

  • Liker 2
Lenke til kommentar
Trestein skrev (På 15.9.2021 den 22.12):

Enig med siste taler. Systemet har åpenbare mangler. Bare noe så enkelt som å merke områder bilen ikke ser er ikke tenkt på. Om bilen ikke ser noe kjører den. Den aner ikke om det er en sving, bakketopp eller annen hindring som gjør at den ikke ser det den må. 

Vi mennesker ser det heller ikke. Men vi er utstyrt med erfaring og intelligens. Når vi ikke ser tar vi høyde for at det kan komme noen akkurat der og har enkle knep for å kunne kjøre sikkert. Det kan være å observere veien lenger bak og vente, bruke stor motorkraft, lytte , se refleksjoner, osv osv. For et system som bare ser uten å ha 3D kart over området blir det rimelig håpløst.

Alle videoer jeg har sett av FSD betal viser slike situasjoner, noen ganger blir dette kommentert av førere om man hører etter. 

Som sagt veien er lang og ser man på skip og fly er alle fartøy utstyrt med AIS for at trafikken skal være trygg. Dette vil nok komme på biler også. Problemet er når andre ting dukker opp som mennesker, dyr, boss , steiner , store hull, dukker opp.

Da har jeg ikke nevnt vær som blokkerer kamera, fryser is over hele bilen glatt føre osv osv. De som tror at dette blir løst i år er optimister.

Teslas system er i grunnen rimelig dårlig selv på banale ting som at den velger å kjøre i feil kjørefelt, ser ikke veisperringer, ser ikke hull eller fartsdumper, har store problemer på parkeringsplasser , skjønner ikke signal fra mennesker(Noe som er obligatorisk for å kjøre bil) ser ikke blinklys osv osv. 

Du mener at FSD ikke er utstyrt med erfaring og intelligens? Du er klar over at de kan generere et 3D-kart over veiene og har ulike nevralnett som blant annet planlegger kjøring videre?

Selvsagt er det mange situasjoner FSD-beten ikke klarer på et så tidlig tidspunkt, men jo flere biler på veiene, desto mer data. Og det er enorme forbedringer i 10.2 sammenlignet med den første betaen.

Vær som blokkerer kamera? Hvis kameraet er blokkert er jo vinduet blokkert, og da kan ikke en menneskelig fører se noe heller.

  • Liker 2
Lenke til kommentar
oophus skrev (På 15.9.2021 den 22.14):

Nei, jeg lyver ikke og du klarer til og med å bekrefte at jeg ikke lyver ved å selv innrømme årsaken til at Tesla fører ei dobbelt moral inn mot DMV og ut mot oss. Inn mot DMV så er FSD's "design intent" kun nivå 2. Ut til oss så er FSD's "design intent" nivå 5. 

Dette er løgn. FSD-betaen blir formelt kalt nivå 2 for å kunne teste den på veiene. Den ferdige versjonen av FSD er fortsatt ment å være nivå 5.

  • Liker 2
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...