Gå til innhold

Tesla - kaféen


bshagen

Anbefalte innlegg

Skrevet
Salvesen. skrev (3 minutter siden):

De er i drift ja, som vanlig med roboter kan de overtas av en operatør om nødvendig.

Hvor mye av dette som fåregår får vi nok vite etterhvert.

Men tesla har vell godkjenning for nivå 4 i både Austin og California nå mener jeg på. 

Edit: bildene er av kjøretøy i Austin.

Tesla is reportedly launching a robotaxi service in Austin using a version of Full Self-Driving (FSD) that is still in supervised mode. This means a human driver is still required to be present and ready to take control if needed. While Tesla aims for a Level 4 autonomous system, the current implementation in Austin is not fully autonomous. Tesla's FSD in Austin is currently limited to a geo-fenced area and relies on teleoperation, which may not be scalable to the broader customer fleet. 

Videoannonse
Annonse
Skrevet
Trestein skrev (1 minutt siden):

Tesla is reportedly launching a robotaxi service in Austin using a version of Full Self-Driving (FSD) that is still in supervised mode. This means a human driver is still required to be present and ready to take control if needed. While Tesla aims for a Level 4 autonomous system, the current implementation in Austin is not fully autonomous. Tesla's FSD in Austin is currently limited to a geo-fenced area and relies on teleoperation, which may not be scalable to the broader customer fleet. 

Du ser at det ikke er en fører i bilen sant?

Ja, alle nivå 4 systemer i dag er geofenced. 

  • Innsiktsfullt 1
Skrevet
ozone skrev (10 minutter siden):

Fordi hele testen var rigget?
Bilen har ingen anelse om at den var i en "ulykke".

Tesla ville aldri latt en av sine biler rase forbi en skolebuss.
Tesla ville aldri latt en av sine biler kjøre på et menneske, og fortsette etterpå.

Jeg har ikke FSD, men bare basic autopilot! Og selv den bråbremser når en syklist er på veiskulderen, eller noen går over veien laaangt fremme! Og FSD er nok bedre enn basic autopilot....

Jeg klarer ikke å tro noe annet enn at den der er rigget Big Time.

Må jo vite at noe har skjedd, stopper vi tross alt opp. Og det er vel sensorer som registrerer at det er en påkjørsel? Kamera bør vel også se at en har kjørt på noen?

  • Liker 1
Skrevet
ProphetSe7en skrev (1 minutt siden):

Må jo vite at noe har skjedd, stopper vi tross alt opp. Og det er vel sensorer som registrerer at det er en påkjørsel? Kamera bør vel også se at en har kjørt på noen?

Har du glemt at dette systemet er nivå 2 og at det er føreren som er ansvarlig? Hvorfor? Jo for den har en rekke mangler og kan derfor ikke kjøres autonomt alene. 

Det er utrolig hva en overskrift kan få i gang.. Bilen er IKKE selvkjørende.

  • Liker 1
  • Innsiktsfullt 1
Skrevet
ozone skrev (21 minutter siden):

Fordi hele testen var rigget?
Bilen har ingen anelse om at den var i en "ulykke".

Hvordan var den rigget? 

Det at den ikke aner at den har vært involvert i en ulykke er da åpenbart. 

ozone skrev (32 minutter siden):

Tesla ville aldri latt en av sine biler rase forbi en skolebuss.
Tesla ville aldri latt en av sine biler kjøre på et menneske, og fortsette etterpå.

Slik den aldri ville kjørt på og drept motorsyklister? 

https://insideevs.com/news/728564/test-fsd-used-motorcycle-crash/

ozone skrev (34 minutter siden):

Jeg klarer ikke å tro noe annet enn at den der er rigget Big Time.

Da ville jeg prøvd å finne bevis for det. 

Skrevet
Salvesen. skrev (6 timer siden):

Har du glemt at dette systemet er nivå 2 og at det er føreren som er ansvarlig? Hvorfor? Jo for den har en rekke mangler og kan derfor ikke kjøres autonomt alene. 

Det er utrolig hva en overskrift kan få i gang.. Bilen er IKKE selvkjørende.

Ikke glemt det. Jeg bare antok at i enhver form for selvkjøring, uavhengig av nivå, så er det lagt opp til at bilen  stopper og venter på menneskelig interaksjon ved ulykke. Ikke at bilen selv tar en avgjørelse om å forlate åstedet.

At den i det hele tatt kan ta en slik beslutning etter en registrert kollisjon burde være fysisk umulig.  

På en annen side så blir Det vel ikke mer selvkjørende enn å stikke av de åstedet 🤷‍♂️

Skrevet
ProphetSe7en skrev (3 timer siden):

Ikke glemt det. Jeg bare antok at i enhver form for selvkjøring, uavhengig av nivå, så er det lagt opp til at bilen  stopper og venter på menneskelig interaksjon ved ulykke. Ikke at bilen selv tar en avgjørelse om å forlate åstedet.

At den i det hele tatt kan ta en slik beslutning etter en registrert kollisjon burde være fysisk umulig.  

På en annen side så blir Det vel ikke mer selvkjørende enn å stikke av de åstedet 🤷‍♂️

Den oppdager ikke ulykke som du har blitt forklart over..

 

Tesla er jo kjent for å avbryte AP noen sekunder før ulykke. Men denne gangen ble det ikke gjort for bilen oppdaget det ikke, som igjen er pga den ikke håndterer alle situasjoner(nivå 5).

  • Innsiktsfullt 1
Skrevet
Salvesen. skrev (10 timer siden):

Du ser at det ikke er en fører i bilen sant?

Ja, alle nivå 4 systemer i dag er geofenced. 

Utrolig hva Tesla gjør for å skape illusjoner. 
Dette er "paint it black" videoen på nytt i ny forkledning. 

Skrevet
Salvesen. skrev (10 timer siden):

Har du glemt at dette systemet er nivå 2 og at det er føreren som er ansvarlig? Hvorfor? Jo for den har en rekke mangler og kan derfor ikke kjøres autonomt alene. 

Det er utrolig hva en overskrift kan få i gang.. Bilen er IKKE selvkjørende.

Har du glemt at ODD programmeres inn i bilene i hvordan de skal oppføre seg? Burde det ikke være åpenbart at man burde stoppe og deaktivisere systemet ved slike tilfeller helt uavhengig av hvilken SAE nivå man opererer innenfor? 

 

Salvesen. skrev (18 minutter siden):

Tesla er jo kjent for å avbryte AP noen sekunder før ulykke. Men denne gangen ble det ikke gjort for bilen oppdaget det ikke, som igjen er pga den ikke håndterer alle situasjoner(nivå 5).

De prøver å håndtere alle situasjoner, men såpass ubrukelige er dem altså. Rart man har grupper som O`Dowd som prøver å informere folk om manglene til FSD...
 

Skrevet
oophus skrev (59 minutter siden):

Utrolig hva Tesla gjør for å skape illusjoner. 
Dette er "paint it black" videoen på nytt i ny forkledning. 

Hva mener du? De følger de reglene som er satt for godkjenningen de har. Som Waymo har gjort og flere. Hvem husker vell ikke kollisjonen der det var en test fører som ikke fulgte med... Alle må igjennom dette. Dog har tesla klart å få en veldig lite streng test og trenger ikke å ha noen i fører setet engang. Sannsynligvis på grunn av gode tester og mye data og vise til. 

  • Innsiktsfullt 1
Skrevet
Salvesen. skrev (1 minutt siden):

Hva mener du? De følger de reglene som er satt for godkjenningen de har. Som Waymo har gjort og flere. Hvem husker vell ikke kollisjonen der det var en test fører som ikke fulgte med... Alle må igjennom dette. Dog har tesla klart å få en veldig lite streng test og trenger ikke å ha noen i fører setet engang. Sannsynligvis på grunn av gode tester og mye data og vise til. 

Står i artikkelen at bildet du viste er croppet slik at personen i begge bilene ikke er synlig. Altså prøver Tesla å vise en illusjon på at bilene er førerløse. 

Skrevet
oophus skrev (52 minutter siden):


 

 

Sitat

Har du glemt at ODD programmeres inn i bilene i hvordan de skal oppføre seg? Burde det ikke være åpenbart at man burde stoppe og deaktivisere systemet ved slike tilfeller helt uavhengig av hvilken SAE nivå man opererer innenfor? 

Du misser poenget, bilen oppdager ikke at den har vært med i en ulykke. Derfor stopper den ikke. Gjenntar meg i det uendelige, men det er grunnen til at det er nivå 2, bilen håndterer ikke alle situasjoner, fører må være oppmerksom. Denne situasjonen ble ikke håndtert. Helt forventet(at det kan skje), dog er det fører her som ikke gjør sin jobb. Dog helt ok siden det bare var en test og ikke faktisk en ulykke. 

Sitat

De prøver å håndtere alle situasjoner, men såpass ubrukelige er dem altså. Rart man har grupper som O`Dowd som prøver å informere folk om manglene til FSD...

Ja de prøver å bygge ett nivå 5 system, men de er ikke der og det er derfor de kjører på nivå 2 og fører er ansvarlig. Gjenntatt i det uendelige. Du er helt umulig å snakke med. 

  • Innsiktsfullt 1
Skrevet (endret)
Salvesen. skrev (21 minutter siden):

Du misser poenget, bilen oppdager ikke at den har vært med i en ulykke. Derfor stopper den ikke. Gjenntar meg i det uendelige, men det er grunnen til at det er nivå 2, bilen håndterer ikke alle situasjoner, fører må være oppmerksom. Denne situasjonen ble ikke håndtert. Helt forventet(at det kan skje), dog er det fører her som ikke gjør sin jobb. Dog helt ok siden det bare var en test og ikke faktisk en ulykke. 

Nivået 2 inkluderer også ODD, så det er du som mister poenget. Dette er FSD, et system som later til å skulle bli "full self driving". Og FSD's ODD er designet som om det opereres ved nivå 4. 

Driver Misuse vs System Design

  • If the system did not warn the driver or disengage when out of ODD, that’s a system design flaw.

  • If the driver ignored warnings or over-relied on the system, it might be ruled as operator error.


Det er Teslas vage ODD som gjør at de får kritikk rettet mot seg. Det ville vært null problem for dem å forhindre bilen fra å kjøre igjen etter at AEB er blitt aktivert, men de velger altså å tillate FSD å ta over igjen etter at AEB er aktivert. 
Siden de sliter med større biler og motorsykler, så kan de også inkludere dette i "handover" strategien frem til systemet er sikkrere, men de velger altså å ikke gjøre dette. 

FSD ML opplæringen tjener på feil ettersom det er det de trener på. Så kanskje det er grunnen til ekstremt mange designfeil innenfor systemenes ODD? Hva annet kan det være? Hvorfor unngår de å fikse problemene, eller rettere sagt, hvorfor har dem ikke løst slike problemer ennå selv etter mye dårlig PR fra O´Dowd i beste sendetid på selveste Super Bawl i nå over 3 år siden 2023? Er det fordi de ikke klarer? Er det fordi det å filtrere ut problemene fra systemens ODD stopper innhentingen av data?

Så mens Waymo trener på mest mulig simuleringer, så trener FSD på både systemfeil og brukerfeil, mens de har definert FSD som nivå 2 innenfor ODD tilsvarende nivå 4 slik at brukerfeil trår over systemfeil i 99%+ av tilfellene. Du mener altså at det ikke er problematisk, mens folk som Dan O´Dowd mener at dette burde folk bli klar over. Ettersom slike design feil vil før eller siden føre til eksempler som illustrert i videoen. Folk vil la FSD kjøre forbi skolebusser og la den få velge farten selv med drepte barn som et mulig resultat. 

 

 

Endret av oophus
  • Liker 2
Skrevet
oophus skrev (15 minutter siden):

Nivået 2 inkluderer også ODD, så det er du som mister poenget. Dette er FSD, et system som later til å skulle bli "full self driving". Og FSD's ODD er designet som om det opereres ved nivå 4. 

Driver Misuse vs System Design

  • If the system did not warn the driver or disengage when out of ODD, that’s a system design flaw.

  • If the driver ignored warnings or over-relied on the system, it might be ruled as operator error.


Det er Teslas vage ODD som gjør at de får kritikk rettet mot seg. Det ville vært null problem for dem å forhindre bilen fra å kjøre igjen etter at AEB er blitt aktivert, men de velger altså å tillate FSD å ta over igjen etter at AEB er aktivert. 
Siden de sliter med større biler og motorsykler, så kan de også inkludere dette i "handover" strategien frem til systemet er sikkrere, men de velger altså å ikke gjøre dette. 

FSD ML opplæringen tjener på feil ettersom det er det de trener på. Så kanskje det er grunnen til ekstremt mange designfeil innenfor systemenes ODD? Hva annet kan det være? Hvorfor unngår de å fikse problemene, eller rettere sagt, hvorfor har dem ikke løst slike problemer ennå selv etter mye dårlig PR fra O´Dowd i beste sendetid på selveste Super Bawl i nå over 3 år siden 2023? Er det fordi de ikke klarer? Er det fordi det å filtrere ut problemene fra systemens ODD stopper innhentingen av data?

Så mens Waymo trener på mest mulig simuleringer, så trener FSD på både systemfeil og brukerfeil, mens de har definert FSD som nivå 2 innenfor ODD tilsvarende nivå 4 slik at brukerfeil trår over systemfeil i 99%+ av tilfellene. Du mener altså at det ikke er problematisk, mens folk som Dan O´Dowd mener at dette burde folk bli klar over. Ettersom slike design feil vil før eller siden føre til eksempler som illustrert i videoen. Folk vil la FSD kjøre forbi skolebusser og la den få velge farten selv med drepte barn som et mulig resultat. 

 

 

Jeg gir opp, du forstår ikke hva nivå 2 er som FSD softwaren som testes i videoen er. 

Det kan oppstå situasjoner som FSD ikke kan håndtere, derfor er fører ansvarlig for føring av bil. Dette var en av de MANGE tilfellene FSD versjonen ikke håndterer. 

Sånn, nå ekspanderer jeg ikke de ignorerte innleggene dine på en stund så ikke forvent svar. 

Skrevet
1 minute ago, Salvesen. said:

Jeg gir opp, du forstår ikke hva nivå 2 er som FSD softwaren som testes i videoen er. 

Nei, det er du som ikke forstår hva @oophus sier. 

Systemet er SAE level 2, men Det oophus kritiserer det for er at det bruker operasjonsdomenegrenser som om det var SAE level 4. I.e. det er for villig til å prøve å kjøre bilen selv når det egentlig ikke er kompetent til det og burde koplet ut og overlatt kjøringen til sjåføren. 

Dette mistolkes av brukere til å tro at systemet er mer kompetent enn det det egentlig er siden det jo likevel stort sett går bra. Dermed får man mindre oppmerksomme sjåfører og mindre margin når de likevel må ta over. 

 

  • Innsiktsfullt 2
Skrevet
sverreb skrev (6 minutter siden):

 

Nei, problemet oppstår her: 

Sitat

det er for villig til å prøve å kjøre bilen selv når det egentlig ikke er kompetent til det og burde koplet ut og overlatt kjøringen til sjåføren. 

Bilen kan ikke "kople" ut når den ikke selv forstår at den ikke er med i en ulykke. Som skjedde her. Og hvorfor forstår den ikke det? Jo, for den er ikke nivå 5 som skal forstå "alt", den har mange mangler og situasjoner den enda ikke forstår. Og spesielt når en bruker slike kvasiløsninger som her der det faktisk ikke er en ulykke men en test så er det enda verre for bilen og forstå. 

Det er dette både du og oophus ikke klarer å ta inn over dere. Bilen kan ikke "kople ut" når den selv ikke forsår at den burde "kople ut". 

Og som jeg nevnte tidligere er jo Tesla notorisk på å "kople ut" når den faktisk forstår at den er med i eller i ferd med å bli involvert i en ulykke som "dere" har påpekt negativt mange ganger før...

 

Sånn, dette er ihel diskutert. Ingen grunn til å dra det videre. 

  • Innsiktsfullt 1
Skrevet (endret)
11 minutes ago, Salvesen. said:

Bilen kan ikke "kople" ut når den ikke selv forstår at den ikke er med i en ulykke. Som skjedde her. Og hvorfor forstår den ikke det? Jo, for den er ikke nivå 5 som skal forstå "alt", den har mange mangler og situasjoner den enda ikke forstår. Og spesielt når en bruker slike kvasiløsninger som her der det faktisk ikke er en ulykke men en test så er det enda verre for bilen og forstå. 

Det er dette både du og oophus ikke klarer å ta inn over dere. Bilen kan ikke "kople ut" når den selv ikke forsår at den burde "kople ut". 

Jo det kan den. Det gjør man ved at du forblir bare innkoplet når bilen har høy konfidens at den er innenfor operasjonsbegrensingene. Man kopler ut når man ikke lengre er helt sikker på at man er innenfor grensene. Det er ikke at man er i ferd med å være i en ulykke som er kriteriet, det er at bilen ikke lengre en 99.999...% sikker på at det ikke er en mulighet for at en ulykke kan skje som er kravet.  

Hvis bilen venter til at det er en åpenbar farlig situasjon, da er det allerede for sent, den skulle koplet ut før siden sjåfører trenger en del tild på å ta over. Derfor må bilen kople ut systemene når farlige situasjoner kan skje, ikke bare når de faktisk inntreffer.

Dette er grunnen til at de fleste biler ikke tillater deg å aktivere en del førerassistanse systemer uten at du f.eks er på motorvei. 

Endret av sverreb
Skrevet
sverreb skrev (2 minutter siden):

Jo det kan den. Det gjør man ved at du forblir bare innkoplet når bilen har høy konfidens at den er innenfor operasjonsbegrensingene. Man kopler ut når man ikke lengre er helt sikker på at man er innenfor grensene. Det er ikke at man er i ferd med å være i en ulykke som er kriteriet, det er at bilen ikke lengre en 99.999...% sikker på at det ikke er en mulighet for at en ulykke kan skje som er kravet.  

Dette er grunnen til at de fleste biler ikke tillater deg å aktivere en del førerassistanse systemer uten at du f.eks er på motorvei. 

Det er akkurat det den gjør.. bilen har høy kondifedns at den er innenfor da den ikke oppdager ulykken. Den bremser men fortsetter kjøringen som vi som kjører med AP hver dag er kjent med fra Tesla. Det skjer. 

Joda, helt enig i  at Tesla er en av de som tilbyr at systemet fører seg selv i farligere situasjoner. Men her snakker vi om å avbryte det som allerede er startet og grunnen til at det ikke avbrytes er at den har høy konfidens at alt er ok... På grunn av at den ikke detekterer dette som en ulykke og grunnen til det er at det ikke er nivå 5 og takler alle situasjoner. 

Men ja, det blir bare gjenntakelse om og om igjen. Alt er sagt, helt redundant å fortsette. 

  • Innsiktsfullt 1

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...