Gå til innhold

Tesla dumper radaren. Går over til kamerabasert system


Anbefalte innlegg

Complexity skrev (2 minutter siden):

Hos BMW sto det spesifiseret i papirene at bilene skulle ha dette, hos Tesla var det ikke nevnt at bilen skulle ha dette.

Hos BMW så sendte de ut en varsku om at delene blir tatt ut og at prisen til bilen faller deretter. Kunden fikk så selv bestemme om de ville kjøpe bilen eller la være. 

Den enorme forskjellen ligger i informeringen av forandringen. Informere om forandringen før bilen er i hendene til ei kunde, eller etterpå - på twitter

  • Liker 3
Lenke til kommentar
Videoannonse
Annonse

BMW fortalte kundene hva som manglet før de fikk bilen, tilbød erstatning og har vært ærlige om at de har problemer med deletilgang.

Tesla fortalte ikkeno, tilbød ingen erstatning og løy om årsaken når de ble ferska etter at bilene var levert.

Så omtrent helt lik oppførsell altså.

  • Liker 3
  • Innsiktsfullt 2
Lenke til kommentar
Complexity skrev (35 minutter siden):

Hos BMW sto det spesifiseret i papirene at bilene skulle ha dette, hos Tesla var det ikke nevnt at bilen skulle ha dette.

Folk bare anntok det siden tidligere biler hadde det. Står ingenting i papirene til min bil om at den har det, men den har det allikevel på begge sider.

Ser du ikke forsjellen? 

Lumbar support var sikkert ekstrautstyr på BMW'en også som man manuelt måtte velge ved kjøp.

Nei - ikke bare sånn.  Lumbar support er inkludert i el.sportsseter og comfort pakker og i kampanje modeller med predefinerte utstyr. 
Men kan selvsagt legges til som individuelt utstyr også. 
Legger man til dette i dag. Får man beskjed om et tilleggkode 48Z «Deletion lumbar support/width adjustment passenger side»
Koden vises også i VIN nummer når dette kommer tilbake fra fabrikken , dvs lenge før man får bilen. Kunder får VIN nummer av forhandler og kan dekode alle opsjoner og utstyr på nett.

 

Lenke til kommentar
7 hours ago, Espen Hugaas Andersen said:

Jeg kan si det slik at i denne ideelle verden ville ikke biler ha korsryggstøtte i passasjersetet. I og med at det ikke er noe jeg bruker. I stedet ville bilene vært priset $10 lavere. (Et annet eksempel på en ting som ikke ville finnes er oppvarmede seter. Hater det.)

Hehe ja skal en virkelig tenke på primærbruken så vil det for de fleste av oss ikke være behov for korsryggstøtte i passasjersetet da vi enten har relativt kort daglig kjørelengde, og passasjeren står langt friere til å justere sittestilling for å avlaste om det blir mange timer i setet. Personlig så er jeg også helt enig med deg, varme i setene betyr virkelig null for meg, og jeg bruker det aldri. Kan sikkert telle på en hånd de få gangene jeg har forsøkt. Men ventilerte seter som holder rognposen og ryggtavlen fresh og fin selv på lange turer er et must. Kansellerte en bestilling en gang da produsenten plutselig fjernet ventilasjon i setene, eller det var ikke kun derfor, men det ble nå i det minste det som gjorde at det ble veldig enkelt å kansellere bestillingen. 

Oppvarmet ratt? Ikke blodfan av det heller. Verdsetter det mer enn oppvarmede seter men er det vinter og kaldt kjører jeg helt fint med hansker på til temperaturen i bilen er høy nok til å droppe hanskene. 

  • Liker 2
Lenke til kommentar
Complexity skrev (13 timer siden):

Tesla har jo også beholdt det på førersetet, men det er vist helt forferdelig allikevel.

At Tesla har gjort dette er jo helt "skandale" for enkelte individer her.

At BMW har gjort det samme er tydeligvis helt OK for de samme individene.

  • Liker 5
Lenke til kommentar
uname -i skrev (På 27.5.2021 den 17.27):

I motsetning til resten av bransjen så er mangel på deler tydeligvis ikke noe problem for Tesla. Bare å levere bilene uten kritiske komponenter sammen med en skrøne om at de egentlig ikke trengs. Genialt.

Lykke til med å være betatester for kritiske sikkerhetsfunksjoner som kollisjonsvarsling, automatisk nødbrems og dynamisk bremseassistent. 

Tesla har vært på dette sporet en stund nå. Greia er at radar, LIDAR og tilsvarende er gode til å måle avstander i form av punkter, og genererer et 3d bilde ut av dette.

Problemet er at disse systemene ikke klarer å skille mellom en plastpose og en stein på veien. Skal man kjøre på posen, eller skal man gjøre en kraftig unnamanøver eller nedbremsing som kan medføre andre hendelser eller ulykker. 

Når man med stereoskopiske kamera også klarer å generere 3d bilder av alt rundt bilen som faktisk er like gode så faller litt av poenget med radar bort også. 

Visjonen er at avstander ikke er nok. Bilene kan fint kjøre ut fra dette, men Tesla mener at dette ikke er nok. Bilene må se, analysere, forstå og så gjøre et valg. De må se posen, og skjønne at det ikke er en stein. 

Alle hatere roper at Teslasjåfører er prøvekaniner. Nei, de er ikke det, de er lærere. De lærer den kunstige intelligensen å kjøre bil. Man kan putte inn så mye sensorikk man bare vil, men det gir ikke forståelse. Ingen annen produsent har et like omfattende datagrunnlag for å lære opp bilens kunstige intelligens som Tesla. 

Dette er imidlertid en langt vanskeligere løsning, om de lykkes gjenstår å se. Det kan være at de også muster litt forsprang når biler med nye sensorer kommer på veiene. Men om de lykkes vil de reetablere forspranget, og det vil være noe som vil ta år å hente inn. 

 

  • Liker 3
  • Innsiktsfullt 3
Lenke til kommentar
Serpentbane skrev (2 timer siden):

Dette er imidlertid en langt vanskeligere løsning, om de lykkes gjenstår å se. Det kan være at de også muster litt forsprang når biler med nye sensorer kommer på veiene. Men om de lykkes vil de reetablere forspranget, og det vil være noe som vil ta år å hente inn. 

Det mest naturlige ville vært å løse problemet først. Når man har løst problemet, så gir det mer mening å optimalisere. Fordelen med Radar og Lidar er at de produserer 3D kart som fasit mot avstand relativt kjapt. For CMOS data så må alt analyseres over et større tidsrom før man kommer frem til en grei løsning. Ser man et objekt man ikke har trent på å gjenkjenne, så blir man automatisk veldig usikker på avstanden samtidig. 

Klarer man å løse problemet med X sensorer og Y regnekraft, så kan man justere seg nedover til det man trenger i ettertid. Det gir null mening å starte og fjerne data før man har løst problemet. Sånn sett så er det bedre å totalt sett overdrive med tilgang til data og justere seg nedover fremfor å prøve å løse dette på mest økonomisk sett fra start av. 

Endret av oophus
  • Liker 1
  • Innsiktsfullt 3
Lenke til kommentar
oophus skrev (3 timer siden):

Det mest naturlige ville vært å løse problemet først. Når man har løst problemet, så gir det mer mening å optimalisere. Fordelen med Radar og Lidar er at de produserer 3D kart som fasit mot avstand relativt kjapt. For CMOS data så må alt analyseres over et større tidsrom før man kommer frem til en grei løsning. Ser man et objekt man ikke har trent på å gjenkjenne, så blir man automatisk veldig usikker på avstanden samtidig. 

Klarer man å løse problemet med X sensorer og Y regnekraft, så kan man justere seg nedover til det man trenger i ettertid. Det gir null mening å starte og fjerne data før man har løst problemet. Sånn sett så er det bedre å totalt sett overdrive med tilgang til data og justere seg nedover fremfor å prøve å løse dette på mest økonomisk sett fra start av. 

Jeg tror ingen har skal late som om vi vet mer om dette enn Tesla, og de har helt sikkert testet både andre sensorer som LIDAR og vurdert nytten av Radar.

Men det vi vet er at Tesla fra starten av har jobbet mot den visjonen om du vil at det er å se og forstå som har vært viktigst, så dette er da også problemet de hele tiden har jobbet med. Bildeanalyse. 

Jeg kan også i min uvitenhet argumentere for at det sikkert ville vært greit med begge deler. En bil som ser og forstår, og en bil som har kontroll på omgivelsene, eksempelvis ved hjelp av LIDAR. Men, på en annen sider har denne ekstra sensorikken en kostnad, både i pris ved anskaffelse og senere service, men også i prosessorkraft. For, dette er også data som må analyseres. Og, LIDAR er på ingen måte en teknologi uten sine egne problemer. 

Spørsmålet blir da om nytteverdien forsvarer ulempene det medfører, og kostnadene. 

 

Fasiten får vi fram i tid. 

  • Liker 4
  • Innsiktsfullt 2
Lenke til kommentar
Serpentbane skrev (5 timer siden):

Tesla har vært på dette sporet en stund nå. Greia er at radar, LIDAR og tilsvarende er gode til å måle avstander i form av punkter, og genererer et 3d bilde ut av dette.

Problemet er at disse systemene ikke klarer å skille mellom en plastpose og en stein på veien. Skal man kjøre på posen, eller skal man gjøre en kraftig unnamanøver eller nedbremsing som kan medføre andre hendelser eller ulykker. 

Når man med stereoskopiske kamera også klarer å generere 3d bilder av alt rundt bilen som faktisk er like gode så faller litt av poenget med radar bort også. 

Visjonen er at avstander ikke er nok. Bilene kan fint kjøre ut fra dette, men Tesla mener at dette ikke er nok. Bilene må se, analysere, forstå og så gjøre et valg. De må se posen, og skjønne at det ikke er en stein. 

Dette er teoretiske betraktninger. Ute i trafikken dreier det seg om liv og død.

Teorien er at to lavoppløselige web-kameraer og et hyllevare grafikkort skal klare å replikere to øyne, hjerne og 4 milliarder år med evolusjon. Jeg har tilldligere kommentert hvorfor den teorien er direkte dum, men det er ikke viktg for denne saken.

Lidar vil oppdage at det er et objekt der. Det er første steg i prosessen. Andre steg er å finne ut om det er en plastpose eller en treåring i regnfrakk. Da kan man bruke lidar i kombinasjon med hva et kamera ser. Hvis du har gått i en bygate så vet du at mennesket bruker flere sanser enn synet for å vurdere trafikken.  En filosofi om at man bør ha færrest mulig sensorer er, igjen, dum. Mer informasjon er åpenbart en fordel.

Nivået på Teslas systemer er lang unna teorien og visjonen med de banale og livsfarlige feilsiutasjonene som stadig oppstår.  Da venter man til praksis mathcer teorien og ikke bare durer på med egne kunder og medtrafikanter som forsøkskaniner.

De andre som driver med autonomi er nå bekymret for at Teslas  aksjepumpende cowboy-virksomhet vil føre til sanksjoner som også rammer dem som driver seriøst.

The auto industry is distancing itself from Tesla in response to new crash reporting rule

 

  • Liker 2
  • Innsiktsfullt 3
Lenke til kommentar
Serpentbane skrev (1 time siden):

Jeg tror ingen har skal late som om vi vet mer om dette enn Tesla, og de har helt sikkert testet både andre sensorer som LIDAR og vurdert nytten av Radar.

Det er lov å bruke helt normal logikk, og litt kunnskap om hva problemet går ut på. En majoritet av problemet er linket til plassering av objekter. For å kunne plassere objekter inn i landskapet, så må en løse et koordinatsystem som linkes til nettopp landskapet. Jo mer nøyaktig koordinatsystemet er for det landskapet, jo større presisjon får man for plasseringen av seg selv og objekter rundt seg i landskapet. 

Absolutt alle AV utviklere utnytter CMOS og analyserer de dataene på samme metode. Det finnes kun noen få muligheter i å få dybdeinformasjon fra 2D-pixel informasjon. Det Lidar og Radar hjelper til med er ikke sanntidsdata alene, man får også større pressisjon av kartdata i tillegg. Dette kan hjelpe å allokere prosessorkraften man har tilgjengelig ved å filterere ubrukelig data som man vet man vil få inn gjennom CMOS sensorene. F.eks er beveglige skyer, trær, åkre og slikt ubrukelig for å gi hjelp for å bygge dybdeinformasjon for et objekt mellom disse områdene. Med høyere presisjon og målepunkter gjennom kartdata så kan man kjapt bygge masker for å justere ned allokering av prosessering inn mot slike områder. Har man ikke dette, så må hver pixel analyseres stort sett likt. 

Serpentbane skrev (1 time siden):

Men det vi vet er at Tesla fra starten av har jobbet mot den visjonen om du vil at det er å se og forstå som har vært viktigst, så dette er da også problemet de hele tiden har jobbet med. Bildeanalyse. 

Nei, Tesla kjøpte teknologien fra Mobileye. Det var først når Mobileye kuttet båndet at Tesla måtte løpe for egen hånd, og det enkleste var nok å analysere samt kopiere det de allerede hadde fått fra Mobileye. I ettertid har Mobileye vurdert Radar og Lidar som uvurderlige i problemstillingen. 

Som sagt så utnytter alle AV utviklere CMOS data. Den er selvfølgelig flott for å identifisere pixler mot hva man har trent den til å identifisere. Men den suger på avstandsberegning i forhold til lys og lyd. Har man lys og lyd som kan allokere ressurser mot CMOS analysene når man merker at et objekt er farlig nærme, så kan man kjappere nå målet med å identifisere om det er en stein eller en plastpose. Spesielt når man inkluderer kartdata som allerede gir klarsvar på hva man skal forvente i retning X eller retning Y angående bevegelige objekter. 

Serpentbane skrev (1 time siden):

Jeg kan også i min uvitenhet argumentere for at det sikkert ville vært greit med begge deler. En bil som ser og forstår, og en bil som har kontroll på omgivelsene, eksempelvis ved hjelp av LIDAR. Men, på en annen sider har denne ekstra sensorikken en kostnad, både i pris ved anskaffelse og senere service, men også i prosessorkraft. For, dette er også data som må analyseres. Og, LIDAR er på ingen måte en teknologi uten sine egne problemer. 

Frem til man har løst problemet, så er begge deler uslåelig. Det er først når man har løst L4 at man kan starte å optimalisere i mye større grad. 

Folk flest trur at firma som jobber med LIDAR utelukkende krever en bilflåte på LIDAR. Det er ikke sant. Dens største fordel er høyoppløselig og nøyaktig kartdata. Man trenger ikke kartdata som oppdateres hvert sekund eller time. CMOS kan fint flagge dårlig kartdata og justere geo-fencing med lavere fart mot et område med avvik f.eks. Og CMOS vil jo alltids ha høy prioritet inn mot sanntidsdata. Dog sanntidsdata fra CMOS kan bli enklere lest og forstått om man kan bruke kartdata for filtrering og allokering av resursene man bruker inn mot det å tolke dataene, i kombinasjon med sanntidsdata fra direkte måling av avstand, fart og vinkel gjennom lys og lyd. 




 

Endret av oophus
  • Liker 1
  • Innsiktsfullt 2
Lenke til kommentar
7 hours ago, Serpentbane said:

Tesla har vært på dette sporet en stund nå. Greia er at radar, LIDAR og tilsvarende er gode til å måle avstander i form av punkter, og genererer et 3d bilde ut av dette.

Problemet er at disse systemene ikke klarer å skille mellom en plastpose og en stein på veien. Skal man kjøre på posen, eller skal man gjøre en kraftig unnamanøver eller nedbremsing som kan medføre andre hendelser eller ulykker. 

Når man med stereoskopiske kamera også klarer å generere 3d bilder av alt rundt bilen som faktisk er like gode så faller litt av poenget med radar bort også. 

Visjonen er at avstander ikke er nok. Bilene kan fint kjøre ut fra dette, men Tesla mener at dette ikke er nok. Bilene må se, analysere, forstå og så gjøre et valg. De må se posen, og skjønne at det ikke er en stein. 

Alle hatere roper at Teslasjåfører er prøvekaniner. Nei, de er ikke det, de er lærere. De lærer den kunstige intelligensen å kjøre bil. Man kan putte inn så mye sensorikk man bare vil, men det gir ikke forståelse. Ingen annen produsent har et like omfattende datagrunnlag for å lære opp bilens kunstige intelligens som Tesla. 

Dette er imidlertid en langt vanskeligere løsning, om de lykkes gjenstår å se. Det kan være at de også muster litt forsprang når biler med nye sensorer kommer på veiene. Men om de lykkes vil de reetablere forspranget, og det vil være noe som vil ta år å hente inn. 

 

True. Mon tro om Tesla erstatter radar med FLIR? Det var vel på 2000 tallet det kom i toppmodellene fra noen tyskere, og har hørt om folk som blant annet har unngått elgpåkjørsel pga flir. Kan flir komplettere Tesla's vision visjon? Varmekamera vil jo se ting som er skjult for vanlig kamera?

  

5 hours ago, oophus said:

Det mest naturlige ville vært å løse problemet først. Når man har løst problemet, så gir det mer mening å optimalisere. Fordelen med Radar og Lidar er at de produserer 3D kart som fasit mot avstand relativt kjapt. For CMOS data så må alt analyseres over et større tidsrom før man kommer frem til en grei løsning. Ser man et objekt man ikke har trent på å gjenkjenne, så blir man automatisk veldig usikker på avstanden samtidig. 

Flir lager også 3d kart, og krever mindre cpu enn Tesla's vision løsning. Vil se både mennesker og dyr også et godt stykke utenfor veibanen og systemet får stadig flere varmesignaturer det gjenkjenner lynraskt. Lidar har Musk snakket ned i årevis. Om årsaken til at Radar forsvant er som Musk sier eller pga radar shortage blir jo vanskelig å vite når Musk forsøker å bortforklare feks manglende korsryggstøtte. 

Om radar egentlig var obsolete og planlagt fjernet fra Tesla så tenker jeg da var det kanskje like greit å bare røske vekk hele plasteret direkt. Om endringene skjedde som følge av mangel på radar fra produsenten så tenker jeg det vil ta noe tid før software er oppgradert og oppdatert til å virke like like bra eller bedre uten radar. Kanskje kan lidr bidra?

Det snakkes også om ny hardware for fsd i løpet av året. Som etter sigende skal bli en kraftig forbedring. At radar forsvant FØR ny hw er på plass gjør at det blir litt enkelt å tenke at frafall av radar akkurat nå var noe Tesla ble tvunget inn i. 

Folk som benytter siste beta virker dog veldig fornøyde og det jeg har sett av publiserte videoer av FSD nå i det siste viser temmelig kompliserte trafikkbilder der fsd likevel klarer å ta korrekte avgjørelser. Dette er veldig spennende. Selv om jeg er glad i å kjøre bil og liker å ha kontrollen bak rattet så ser jeg frem til lengre solo bilturer der jeg kan sitte i baksetet å spille jazztrompet eller bluesmunnspill med coole backing tracks på anlegget. Eller male med oljefarger og ta malekurs online? Mens jeg stille om komfortabelt blir forflyttet av FSD uten å trenge å tenke på kø, fartskontroll eller elgtråkk. 

Endret av bojangles
  • Liker 1
Lenke til kommentar

@bojangles Ja, det å legge til sensorer ser jeg på som større sannsynlig enn å fjerne dem i forkant av en løst oppgave.

Det å være 100% avhengig av trening av NN's blir litt håpløst. Da er det ikke rart at man deiser inn i lastebiler som ligger på siden. Det å få nok treningsmaterie for det er jo ikke det enkleste fra absolutt alle vinkler. 



 

  • Innsiktsfullt 1
Lenke til kommentar
1 hour ago, oophus said:

@bojangles Ja, det å legge til sensorer ser jeg på som større sannsynlig enn å fjerne dem i forkant av en løst oppgave.

Det å være 100% avhengig av trening av NN's blir litt håpløst. Da er det ikke rart at man deiser inn i lastebiler som ligger på siden. Det å få nok treningsmaterie for det er jo ikke det enkleste fra absolutt alle vinkler. 



 

Datacollection blir vel enklere og enklere for hver dag som går for Tesla mtp økende salg og større og større antall Tesla på veiene? Og der har vel Tesla en ganske unik fordel vil jeg tro. Men som alltid, rådata alene er kun en begynnelse. Og det er vel mengden rådata som øker så raskt at Tesla må igang med en ny supercomputer kanskje? Det å lære opp NN's er alt i stor grad en automatisert oppgave? Men det er neppe noen vei utenom manuell behandling av sære tilfeller? Den ulykken med lastebil stammer fra tiden med radar iirc. Så ikke engang radar hjalp vel i akkurat det tilfellet? I EU er underkjøringshindre påbudt. Ikke i USA såvidt jeg vet. Det alene kunne kanskje hindret ulykken? 

  • Liker 2
Lenke til kommentar
bojangles skrev (1 time siden):

Datacollection blir vel enklere og enklere for hver dag som går for Tesla mtp økende salg og større og større antall Tesla på veiene?

Nei, det blir faktisk verre og verre ettersom man manuelt har drevet å flagget dataene inn mot treningen av det nevrale nettverket. 
Samt så er det like så interessant å se typen data og output man ønsker seg fra algoritmer av nevrale nettverk og treningen den veien. 

Mens Tesla fokuserer i større grad på form og farge, og må dermed flagge objekter fra alle vinkler i alle typer lys/skygger, så fokuserer de andre mer på å løse masse og bevegelse samt prediksjonen av objektenes masse og bevegelser. Død og levende masse må oppføre seg etter naturkraftens lover, så det er fult ut mulig å predikere bevegelse litt frem i tid. Har man høyoppløselig MMW Radar og Lidar så får man automatisk fordelen av at refleksjoner av lyd og lys ofte kan gi informasjon om type materie man får refleksjonen ifra. 

For å f.eks prate om problemet rundt posen, så må Tesla trene på å gjenkjenne posen fra alle mulige vinkler og former og farger før de er i mål. Dette mens poser hele tiden skifter størrelse, form og farge årlig rundt om kring på kloden - altså et evigvarende problem. For f.eks Mobileye så kan de flagge objektet som en pose kun basert på mengden lys den reflekterer. De fokuserer også mer på dens bevegelser. Et dødt objekt som enklere skifter retning basert på vind (bil forran som får den til å løfte seg f.eks) kan enklere identifiseres som et objekt med lite masse. Har den i tillegg data rundt refleksjonen som viser at den er delvis gjennomsiktig, så er det jo enkelt å lande på "pose" som output for det objektet, som så er en input bilen bruker for å vurdere å svinge unna eller ei. 

bojangles skrev (2 timer siden):

Og der har vel Tesla en ganske unik fordel vil jeg tro.

ADAS systemer eksisterer nå på ICEV, PHEV, HEV og BEV biler. Mobileye har f.eks 70% av markedet der. 

 

bojangles skrev (2 timer siden):

Og det er vel mengden rådata som øker så raskt at Tesla må igang med en ny supercomputer kanskje

Supercomputeren som det er litt hype rundt er vel mest for å prøve å løse flaggingen av dataene. De har nok forstått at det å manuelt flagge data inn mot treningen ikke skalerer så greit, så de ønsker å løse en metode å manuelt flagge data de ønsker å hente inn. 

Captcha bilder blir brukt for kombinasjonen manuelt flagging og automatisk flagging for de som bestiller analyse av captcha bilder. 
Et firma som trenger trening på X objekt kan be bilflåten lagre bilder av det den trur er det objektet, og sende det inn. Så blir dette kastet inn til oss med våre mobiltelefoner og PC'er der vi skal inn til nye sider, registrere oss, logge inn osv for å manuelt flagge bildene med hvor objektet er, eller om objektet i det hele tatt er der. Når nok av oss har gitt samme svar til samme bilde, så er det bildet flagget og det kan trenes på i et nevralt nettverk. 
Så til ren AI Pixel Recognition, som er det Tesla lener seg mest mot, så har f.eks Google hatt automatiske systemer for å flagge slikt data i årevis allerede. 

bojangles skrev (2 timer siden):

Den ulykken med lastebil stammer fra tiden med radar iirc. Så ikke engang radar hjalp vel i akkurat det tilfellet?

En bedre radar hadde nok hjulpet der. Samt hvordan man gir prioritet når det er to ulike resultater fra CMOS og Radaren er jo viktig det også. 

 

  • Liker 2
Lenke til kommentar
bojangles skrev (6 timer siden):

Den ulykken med lastebil stammer fra tiden med radar iirc. Så ikke engang radar hjalp vel i akkurat det tilfellet?  

Den hvite lastebilen som hadde veltet burde gi bra signal til radaren, mens kamera kan ha problemer å tolke det som nettopp dette. En stor hvit flate, kan tolkes som en undergrunn.

Er det bekreftet at det var på grunn av radaren? Er vel også mulig at det var på grunn av kameraet. At radar signalet ble sett på som en av mange "false positive" og kamera overstyrte dette? 

Evt hvor en Tesla kjøre under en lastebil som krysset veien og laget kabriolet av bilen, og føreren døde naturligvis. Radar kan se dette lett, men ett kamera kan igjen tolke det som en bro.

Evt er det føreren som hviler foten på pedalen og overstyrer autopiloten. Til syvende sist er det jo føreren sitt ansvar å bruke autopilot riktig (som ett assisterende produkt), men det bevitner også hvor langt vi er fra selvkjørende biler.

Tesla har også sagt at de sliter med å bruke radar fordi det er så vanskelig å filtrere ut falske verdier. En radar er ikke bedre enn egenskapen en har for å tolke signalet. 

  • Liker 1
Lenke til kommentar
uname -i skrev (På 27.5.2021 den 17.27):

I motsetning til resten av bransjen så er mangel på deler tydeligvis ikke noe problem for Tesla. Bare å levere bilene uten kritiske komponenter sammen med en skrøne om at de egentlig ikke trengs. Genialt.

Lykke til med å være betatester for kritiske sikkerhetsfunksjoner som kollisjonsvarsling, automatisk nødbrems og dynamisk bremseassistent. 

Full score for tesla vision iihs..

  • Liker 1
Lenke til kommentar
Salvesen. skrev (13 minutter siden):

Full score for tesla vision iihs..

Kikker man nærmere inn der, så var det vel dårligere score enn med radar? Bilen bremset ned mindre i snitt og traff flere fotgjengere? Det er nok isåfall derfor EM hoppet kjapt frem og lovde forbedringer med oppdateringer. 

Endret av oophus
  • Liker 2
  • Innsiktsfullt 3
Lenke til kommentar
oophus skrev (35 minutter siden):

Kikker man nærmere inn der, så var det vel dårligere score enn med radar? Bilen bremset ned mindre i snitt og traff flere fotgjengere? Det er nok isåfall derfor EM hoppet kjapt frem og lovde forbedringer med oppdateringer. 

Fortsatt full score, etter en måned med såkalt beta testing som noen kaller det. I tillegg er skygge bremsingene borte sies det. Lover virkelig bra.

  • Liker 2
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...