Gå til innhold

Selvkjørende Tesla kjørte forbi skolebuss


Anbefalte innlegg

Videoannonse
Annonse
Skrevet

Et annet forhold ved selvkjørende biler som ga meg en tankevekker er ift overvåkning.

Siste tids hendelser i USA har avdekket at politiet der har nær sagt åpen tillatelse til å innhente videoer fra både Tesla og Waymo biler.  Begge har videostrømmer fra innebygde kamera som sendes til sentral lagring hos respektive bilprodusent for bruk til analyse av ulykker, AI-utvikling etc.

Skrevet
Rune_says skrev (37 minutter siden):

Et annet forhold ved selvkjørende biler som ga meg en tankevekker er ift overvåkning.

Siste tids hendelser i USA har avdekket at politiet der har nær sagt åpen tillatelse til å innhente videoer fra både Tesla og Waymo biler.  Begge har videostrømmer fra innebygde kamera som sendes til sentral lagring hos respektive bilprodusent for bruk til analyse av ulykker, AI-utvikling etc.

Tesla ber om tillatelse til å hente videomateriale, så man kan velge å ikke dele dette. Da ligger det i tilfelle kun lokalt tilgjengelig på minnepenn inni bilen. 

Skrevet

Påstår ikke at FSD er perfekt, og det er fullt mulig det der er reelt, men basert på hvem som har utført testen, har den absolutt null kredibilitet.

Vi vet han har fofalsket tidligere tester, og vi vet han bruker enorme resurser på å prøve å få Tesla FSD til å feile.

Jeg ville ikke blitt overasket om han har prøvd å plassere den bussen på 100 forskjellige måter, for å endelig finne en spesifikk situasjon hvor Teslaen ikke respekterte skiltet.

Jeg ville heller ikke blitt overasket om stopp-skiltet er sprayet med et belegg som gjør at det ikke er synlig på kamera, for å lure Teslaen.

 

Når det er sagt, eneste feilen bilen gjør her er å ikke stoppe for stoppskiltet. Den bremser jo for "barnet" som kommer ut i veien, raskere enn et menneske ville klart, så han beviser jo sånn sett at FSD fungerer bedre enn mennesker på den type situasjon.

  • Liker 1
Skrevet (endret)
John-B skrev (47 minutter siden):

Påstår ikke at FSD er perfekt, og det er fullt mulig det der er reelt, men basert på hvem som har utført testen, har den absolutt null kredibilitet.

Vi vet han har fofalsket tidligere tester, og vi vet han bruker enorme resurser på å prøve å få Tesla FSD til å feile.

Jeg ville ikke blitt overasket om han har prøvd å plassere den bussen på 100 forskjellige måter, for å endelig finne en spesifikk situasjon hvor Teslaen ikke respekterte skiltet.

Jeg ville heller ikke blitt overasket om stopp-skiltet er sprayet med et belegg som gjør at det ikke er synlig på kamera, for å lure Teslaen.

Hvilke tidligere tester har han forfalsket? 

Om han hadde flyttet bussen 100 ganger, så skal da FSD klare å se den og oppføre seg mot lokalt lovverk uansett?

Om stopp-skiltet er sprayet med et belegg så legger man bare fokus på problematikken med "vission-only" systemer. Det beviser isåfall at HD-kart med infrastruktur er desto viktigere. 

Endret av oophus
  • Liker 3
Skrevet (endret)

FSD er reklame.  I praksis er det ikke selvkjørende, men automatisk kjørende under oppsyn.  Men det siste gjør jo ikke sjåføren, som tror på FSD-reklamen.  Den er trenet på et begrenset sett data og bl.a. motorsykler har den lite trening på

https://www.reddit.com/r/RealTesla/comments/1jq2izl/selfdriving_teslas_are_fatally_rearending/

Også demo av at kun kameraer uten LIDAR/radar så lures bilen i enkelte situasjoner.

Jeg sier ikke at kameraer ikke kan trenes opp til dette, men det vil være veldig få situasjoner hvor "bildevegg som ser ut som fortsettelse av veien" er med i treningsdata som et tilfelle der bilen skal stoppe.  Dermed er ikke AI-modellen trent på dette, som vi enkelt ser ved små visuelle kjennetegn (lerretet blafrer litt, barduner røper at her er det en vegg, etc). Tilsvarende vil det være prosentvis få bilder av motorsyklister, syklister og annet i treningsdata - og med situasjoner utenfor treningsdata, så vil AI-modeller kunne feile spektakulært.

 

Endret av Rune_says
Skrevet (endret)
53 minutes ago, oophus said:

Hvilke tidligere tester har han forfalsket? 

Om han hadde flyttet bussen 100 ganger, så skal da FSD klare å se den og oppføre seg mot lokalt lovverk uansett?

Om stopp-skiltet er sprayet med et belegg så legger man bare fokus på problematikken med "vission-only" systemer. Det beviser isåfall at HD-kart med infrastruktur er desto viktigere. 

- søk på Google

- Om FSD stopper i 99 av 100 slike situasjoner gjør den det bedre enn et menneske, som jo er målet. At et barn skulle finne på å løpe over veien i akkurat den ene av de 100 gangene, er helt ekstremt usannsynlig.

- Igjen, sikkerhet i trafikk handler til syvende og sist om sannsynlighet. Om 1 av 1000 skilt skulle av en eller annen grunn være leselig for et menneske, men ikke en maskin, så er det likevel helt ekstremt sannsynlig at i akkurat den situasjonen også skulle være fatalt å ikke følge skiltet. Mennesker overser skilt hver eneste dag, og kun et ekstremt lite fåtall av de situasjonene ender opp med en ulykke.

 

Problemet til selvkjøring er at det kommer til å forårsake uforståelige ulykker, som mennesker ville kunne avverget.

Men media kommer ikke til å skrive om alle ulykkene selvkjøring avverget, fordi det er ikke like enkelt å visualisere. Hver eneste dag kommer selvkjørende biler til å avverge dødsulykker som ikke noen en gang vil merke (selv de som sitter i bilen).

Endret av John-B
  • Hjerte 1
Skrevet (endret)
John-B skrev (12 minutter siden):

- søk på Google

- Om FSD stopper i 99 av 100 slike situasjoner gjør den det bedre enn et menneske, som jo er målet. At et barn skulle finne på å løpe over veien i akkurat den ene av de 100 gangene, er helt ekstremt usannsynlig.

- Igjen, sikkerhet i trafikk handler til syvende og sist om sannsynlighet. Om 1 av 1000 skilt skulle av en eller annen grunn være leselig for et menneske, men ikke en maskin, så er det likevel helt ekstremt sannsynlig at i akkurat den situasjonen også skulle være fatalt å ikke følge skiltet. Mennesker oversert skilt hver eneste dag, og kun et ekstremt lite fåtall av de situasjonene ender opp mer ulykker.

- Det har jeg gjort og jeg finner kun Tesla influensere som mener at han lyver. Han inviterer disse influenserne til å bli med personlig til disse testene for å kunne undersøke dem, så da finner jeg det merkelig at han liksom jukser? Hvordan jukser han egentlig?

- 99 av 100 tilfeller er betydelig dårligere enn mennesker, så nei. 

- Akkurat. Så en bil på FSD burde stoppe ved et stopp-skilt, spesielt i forbindelse med en parkert skolebuss med skilt 100 av 100 ganger. Om vi dropper å stoppe så er det absolutt ikke en unnskyldning for en selvkjørende bil. Vi sakker i det minste farten såpass at det barnet som blir kjørt over her ikke hadde blitt det, samt vi hadde i hvertfall ikke kjørt over ungen med bakhjulene, igjen, før man forlot åstedet, som denne Teslaen gjør alle gangene. 

Endret av oophus
  • Liker 3
Skrevet (endret)

- Da har du ikke google godt nok.

- Hvis du tror 100 av 100 stopper for en skolebuss har du virkelig ikke peiling på hvor håpløse mennesker er. Selv i Norge hvor sjåfører er betydelig bedre, vil du ikke finne et stoppskilt hvor 100 sjåfører på rad stopper. Hver eneste gang politiet har kontroll deles det jo ut bøter.

- Aner ikke hva du prøver å si her. Selvfølgelig bør den stoppe, men det er ikke kritisk om den feiler en gang i ny og ne, fordi det gjør mennesker også. Så lenge den statistisk er bedre enn mennsker, er målet nådd.

Endret av John-B
  • Innsiktsfullt 1
Skrevet (endret)
John-B skrev (9 minutter siden):

- Da har du ikke google godt nok.

- Hvis du tror 100 av 100 stopper for en skolebuss har du virkelig ikke peiling på hvor håpløse mennesker er. Selv i Norge hvor sjåfører er betydelig bedre, vil du ikke finne et stoppskilt hvor 100 sjåfører på rad stopper. Hver eneste gang politiet har kontroll deles det jo ut bøter.

- Aner ikke hva du prøver å si her. Selvfølgelig bør den stoppe, men det er ikke kritisk om den feiler en gang i ny og ne, fordi det gjør mennesker også. Så lenge den statistisk er bedre enn mennsker, er målet nådd.

- Joda, jeg har googlet nok. Kan du ikke bare svare på spørsmålene mine i det punktet istedenfor å skrive "google det" som er en alt for billig utgave av "jeg vet ikke". 

- Vi snakker om ulykkes rate. 99 av 100 ganger er ALT for dårlig om man snakker om hva som skal til før selvkjørende biler overtar mennesker i sikkerhet. Det er ikke sikkert at 100 av 100 stopper for en skolebuss med stoppskilt i USA, men langt over 99% av tilfeller sakker i det minste farten nok når de kjører forbi en parkert skolebuss. Hvis ikke hadde vi hatt en ulykkes-rate som gav skadetilfeller og dødsfall hver dag, tusenvis av ganger om dagen. Hvis ulykken først er ute så kjører man i det minste ikke over barnet én gang til før man kjører av gårde, slik som Teslaen gjør 100% av tilfellene her. 

- Statistisk sett så må den være ekstremt mye bedre enn mennesker.

  • 8 påkjørsler av 8.
  • 8 "hit'n run" av 8. 
  • 8 ignorerte skolebusse-stoppskilt av 8 

Ingenting av dette tegner et bilde av et system som er i nærheten av klart for selvkjøring uten menneskelig overvåkning 100% av tiden. 

Endret av oophus
  • Liker 3
  • Innsiktsfullt 1
Skrevet

Klikk artikkel som vanlig, nei det var ingen selvkjørende tesla som utførte noe av dette. Det var ett nivå 2 system som de fleste moderne biler har og de fleste moderne biler hadde hatt samme utfall. Eneste forskjellen er at FSD/Tesla sittt system kan utføre litt mer avanserte oppgaver enn andre moderne systemer. Som å håndtere rundkjøringer, ta svinger og mer. Men det er pr i dag ikke i stand til å "håndtere" alt og åpenbart ikke denne situasjonen. Noe de kunne droppet testingen og bare lest manualen for å finne ut av.. 

Men som vanlig hopper koret på med full giv! 

  • Liker 1
Skrevet
Salvesen. skrev (8 minutter siden):

Klikk artikkel som vanlig, nei det var ingen selvkjørende tesla som utførte noe av dette. Det var ett nivå 2 system som de fleste moderne biler har og de fleste moderne biler hadde hatt samme utfall. Eneste forskjellen er at FSD/Tesla sittt system kan utføre litt mer avanserte oppgaver enn andre moderne systemer. Som å håndtere rundkjøringer, ta svinger og mer. Men det er pr i dag ikke i stand til å "håndtere" alt og åpenbart ikke denne situasjonen. Noe de kunne droppet testingen og bare lest manualen for å finne ut av.. 

Men som vanlig hopper koret på med full giv! 

Ikke så rart når FSD er samme system som tross alt skal bli Full Self Driving, og det ligger litt i navnet. Denne skal ut på veiene førerløst om noen uker... Dette er også samme versjon som Elon Musk hardnakket mener at allerede er sikrere enn mennesker...

  • Liker 1
Skrevet
oophus skrev (5 minutter siden):

Ikke så rart når FSD er samme system som tross alt skal bli Full Self Driving, og det ligger litt i navnet. Denne skal ut på veiene førerløst om noen uker... Dette er også samme versjon som Elon Musk hardnakket mener at allerede er sikrere enn mennesker...

Nei, det stemmer ikke. Disse bilene er allerede ute på veien uten fører. Men det er ikke samme software som denne bilen kjører... 

Også er det den redundante navn diskusjonen igjen. Bah, er så håpløst. 

Fakta er at de tester en nivå 2 applikasjon og forventer at den skal oppføre seg som nivå 5. Det er bare for å få klikk og penger, og dere biter på denne gangen også. 

ta det gjerne opp igjen når robot taxiene skaper tilsvarende situasjoner(gud forby med ekte mennesker og ikke minst barn). Da er det en reell overskrift, nå er den direkte missvisende/feil da bilen ikke er selvkjørende. 

  • Innsiktsfullt 1
Skrevet
Salvesen. skrev (1 time siden):

Nei, det stemmer ikke. Disse bilene er allerede ute på veien uten fører. Men det er ikke samme software som denne bilen kjører... 

Spiller det noen rolle? FSD er solgt og lovet å bli FSD. Noen ganger sier han (CEOen) at FSD allerede er sikrere enn mennesker også. 

Salvesen. skrev (1 time siden):

Også er det den redundante navn diskusjonen igjen. Bah, er så håpløst. 

Er jo bare å være enig i at Full Self Driving navnet for et nivå 2 system ikke passer seg helt, og kan skape farlig falsk sikkerhet bak rattet der man skal følge med på et system fremfor systemet som følger med på deg, slik det er ellers, og slik det burde være innunder nivå 2. 

Salvesen. skrev (1 time siden):

Fakta er at de tester en nivå 2 applikasjon og forventer at den skal oppføre seg som nivå 5. Det er bare for å få klikk og penger, og dere biter på denne gangen også. 

Fakta er at de tester progresjonen til FSD mot "FSD" og har argumenter for at det vil være farlig å slippe løs FSD. Først kritiserer de beta versjonen hvor utrente folk får lov til å teste FSD (med beviselige uhell som årsak), så nå FSD uten sjåfører. Alle testene inkludert denne burde sette noen spørsmålstegn til hvor klare Tesla er til å ha førerløse biler der ute. 

Hvordan tjener han penger på dette? Han betaler ut av egen lomme for å kjøpe reklametid under super bowl for å skolere folk om FSD og dens risikomomenter med en test som gjøres om og om igjen per oppdatering, han inviterer også skeptiske folk til å komme og gjennomføre testen med egne biler. Folk som tillater slikt ute på veiene trenger tydeligvis skolering i hva FSD er, så sånn sett så redder han mer liv enn det FSD mest sannsynligvis kommer til å ta om det går veien fremover ut over nivå 2. 

  • Liker 1
Skrevet
oophus skrev (4 minutter siden):

 

 

Sitat

Spiller det noen rolle? FSD er solgt og lovet å bli FSD. Noen ganger sier han (CEOen) at FSD allerede er sikrere enn mennesker også. 

Ja det spiller stor rolle, bilene som kjører selv har godkjent software i fra området de kjører i. Testet bil har godkjent software på nivå 2 og de prøver å selge det inn som nivå 4/5. Noe den ikke er. 

Sitat

Er jo bare å være enig i at Full Self Driving navnet for et nivå 2 system ikke passer seg helt, og kan skape farlig falsk sikkerhet bak rattet der man skal følge med på et system fremfor systemet som følger med på deg, slik det er ellers, og slik det burde være innunder nivå 2. 

Det er utrolig redundant å ta denne runddansen om og om igjen. Som jeg har sagt før skulle de gjerne solgt det som N(NOT)FSD for min del. Men jeg evner å lese dokumentasjon og infotainmentsystemet som forteller meg at selv om navnet til den kjøpte pakken er FSD så er ikke bilen selvkjørende. 

Sitat

Fjernet ett hav av tekst

Nei, fakta er at de tester systemet som selvkjørende selv om det er helt åpenbart og dokumentert at det ikke er det. Og en kan ikke sammenligne med de bilene som kjører alene på en ANNEN software. Den er godkjent av lokale myndigheter, noe den testede bilen i dette tilfellet ikke er. 

Sitat

Fjernet ett hav av tekst

google, "How to make money on social media"... 

Klikkene og pengene for disse klikkene går til Tek.no som skamfult lager falske overskrifter som dere svelger rått. 

  • Liker 1
Skrevet (endret)

Do not feed the trolls. Enhver test hvor agenda fører resultatet er åpenbart så inhabil og verdiløs den kan bli. Spør alle som har beviser for at jorda er flat.

Det er også kritikkverdig at tek trykker dette uten å ha en svær note som sier ca dette.

Endret av ps5
  • Liker 2
Skrevet
Salvesen. skrev (4 minutter siden):

Ja det spiller stor rolle, bilene som kjører selv har godkjent software i fra området de kjører i. Testet bil har godkjent software på nivå 2 og de prøver å selge det inn som nivå 4/5. Noe den ikke er. 

Og Dan O'Dowd er uenig i dette. Ergo skal han ikke få lov til å vise folk hvorfor han er uenig? 

 

Salvesen. skrev (5 minutter siden):

Det er utrolig redundant å ta denne runddansen om og om igjen. Som jeg har sagt før skulle de gjerne solgt det som N(NOT)FSD for min del.

Men da er vi jo enige da. Om navn kan forvirre folk, så er det en ekstremt billig løsning å endre den for å øke sikkerheten ute på veiene. Det burde jo være selvsagt. 

 

Salvesen. skrev (6 minutter siden):

Men jeg evner å lese dokumentasjon og infotainmentsystemet som forteller meg at selv om navnet til den kjøpte pakken er FSD så er ikke bilen selvkjørende. 

Du har sett bilde og videobevis på at du ikke deler veier med folk som tydeligvis innehar de samme evnene. Du vet også nå at studier tyder på at dårlig implementert nivå 2 assister kan skape en falsk trygghet i hva de kan og ikke, som igjen kan skape farlige situasjoner. 

Her er noen studier:
Taking back control of an autonomous car affects human steering behavior | Stanford Report
Findings: Reaction times and steering control were significantly impaired after drivers resumed control following autonomous driving—demonstrating decreased vigilance and readiness

1.-AAA-Foundation-Utah-Report-FINAL.pdf
Findings: Even with slight differences, drivers exhibited reduced arousal, longer reaction time, and lowered attention under Level 2 automation—signaling rising complacency

HWY18FH011.aspx
Findings: The probable cause of the Mountain View, California, crash was the Tesla Autopilot system steering the sport utility vehicle into a highway gore area due to system limitations, and the driver’s lack of response due to distraction likely from a cell phone game application and overreliance on the Autopilot partial driving automation system. 

 

Salvesen. skrev (19 minutter siden):

Nei, fakta er at de tester systemet som selvkjørende selv om det er helt åpenbart og dokumentert at det ikke er det. Og en kan ikke sammenligne med de bilene som kjører alene på en ANNEN software. Den er godkjent av lokale myndigheter, noe den testede bilen i dette tilfellet ikke er. 

ODD (Operational Design Domain) for bilen som testes i dette tilfellet inkluderer det området, hvis ikke hadde det ikke vært mulig å aktivere FSD. Den er også godkjent av myndigheter uten strengere kontroll på ODD som igjen kan føre til slike situasjoner, spesielt når bilen ikke aner hva en skolebuss er for noe. 

Dan O`Dowd viser og skolerer folk, inkludert myndighetene hva dårlig nivå 2 systemer er og hvilke situasjoner en kan regne med at vil skje på et eller annet tidspunkt. Hvis så dette åpenbare dårlige systemet skal "patches" med samme fremgangsmetode til et system over nivå2, altså nivå 4 uten sjåfør, så er det kanskje ikke rart at vi har enkelte grupper som ønsker å følge med? Vi alle skal tross alt dele veiene med disse bilene. 

 

Salvesen. skrev (22 minutter siden):

google, "How to make money on social media"... 

Undersøk heller hvor mye det koster å kjøpe sendetid under Super Bowl. Han gjør ikke dette for å tjene penger, det gjør han gjennom vanlig jobb. Dette er for å videreformidle feilene FSD innehar mens man risikerer å måtte dele veiene med FSD. 

  • Liker 1
  • Innsiktsfullt 2
Skrevet
ps5 skrev (6 minutter siden):

Do not feed the trolls. Enhver test hvor agenda fører resultatet er åpenbart så inhabil og verdiløs den kan bli. Spør alle som har beviser for at jorda er flat.

godt tips, jeg går for den :)

  • Liker 2
Skrevet
John-B skrev (4 timer siden):

*snip*

Problemet til selvkjøring er at det kommer til å forårsake uforståelige ulykker, som mennesker ville kunne avverget.

Men media kommer ikke til å skrive om alle ulykkene selvkjøring avverget, fordi det er ikke like enkelt å visualisere. Hver eneste dag kommer selvkjørende biler til å avverge dødsulykker som ikke noen en gang vil merke (selv de som sitter i bilen).

Dette er vel ikke riktig? Man vil jo helt klart se det i ulykkesstatistikken. Hvis det viser seg å stemme, så vil man med høyere "metning" av selvkjørende biler, vil man over tid se en prosentvis nedgang i dødlige ulykker. Så det vil absolutt synes, hvis det skulle vise seg å stemme.

Skrevet (endret)

Mine biler er også selvkjørende hvis jeg legger en stein på pedalen til høyre.

I virkeligheten har man ulik traffikk for hver dag selv om vei og kjørerute er den samme. Vi lever ikke i "Déjà vu" / "Groundhog day".

 

Endret av BadCat
  • Liker 1

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...