Gå til innhold

Tesla tar selvkjøringen til nytt nivå med ny oppdatering


Anbefalte innlegg

Trestein skrev (På 25.10.2020 den 0.21):


se 14 min inn i filmen. Det kommer en bil i mot men skjermen er tom. 

Dette er ikke et halmstrå engang. det er knapt et hårstrå... Den bilen som kommer "bak" lastebilen er så langt unna at den rekker ikke å komme inn på skjermen til Tesla'en, før Tesla'en har svingt over. Som fører så hadde du knapt nok kastet et blikk på den bilen som er så langt unna. Nei Trestein, dette begynner å bli vel patetisk. Blir du ikke flau?

  • Liker 7
Lenke til kommentar
Videoannonse
Annonse
oophus skrev (2 minutter siden):

Spørsmålet du må stille deg er metoden feilene blir luket ut på. 

Hvordan finner Waymo feil, og luker dem ut, og hvordan finner Tesla feil og luker dem ut? 

Helt ærlig, det får de selskapene gjøre på akkurat den metoden de finner ut at er best. Waymo sin styrke, er at de blir veldig gode på et geografisk begrenset område, men er til gjengjeld ubrukelig utenfor dette området. De må derfor ut å gjøre veldig mye arbeide før dette er globalt.

Tesla sin metode gjør at de foreløpig kan brukes over alt i verden, på veityper den er beregnet å virke på. Og de utvider den, slik at den på blir langt bedre på veier den før ikke har virket på. Tesla håper og tror de skal få systemet så godt at det skal virke på alle veier, når systemet er trrent opp til å takle alle de cornercases som de støter på, hvor ting ser andeledes ut enn det som er testet på foreløpig. Da skal den bli i stand til å løse disse i områder den ikke er trent på før, så lenge "casen" er gjenkjennelig.

oophus skrev (2 minutter siden):

L3 og L4 krever en annerledes metode i å overlevere bilen til sjåfør på. Det Tesla gjør nå, er ikke annet enn L2, og der vil det stoppe opp. 

Ved L3 funksjoner, så skal bilens systemer mot det å avverge uhell være bedre enn sjåføren ved absolutt alle situasjoner. Overleveringen skal foregå pga bilen er på vei ut av geo-fenced områder, og ikke pga krise og avvergning. 

Det Tesla gjør nå, er å fjerne disse cornercases, slik at den kan gjenkjenne tilsvarende andre steder. Man kan sikkert se på hva som gjøres nå i en beta, hvor plutselige situasjoner kan dukke opp. Før det blir et L3 eller L4-system, så skal det mer eller mindre ikke finnes flere slike situasjoner den ikke er lært opp til å gjenkjenne og respondere korrekt på.

Det inkluderer selvsagt hvordan "overlevering" skal skje. Bilen skal selvsagt vite når den nærmer seg et område der den ikke får lov å kjøre på egenhånd, og gi sjåfør beskjed i god tid, eller parkere seg på et sikkert område om så ikke skjer. Men da dette ikke er noe de må ta hensyn til nå, så kjører den altså som et L2-system.

oophus skrev (2 minutter siden):

Ingenting galt i å ha uferdige systemer. Men det finnes metoder å teste en beta på som er bedre. Simulasjoner er aller best. Kvalifiserte og lønnede personer som er blitt kurset er nest best. Det Tesla gjør, er desidert sist på listen for hva man skal og burde gjøre innunder denne fasen. SAE og ISO definisjoner må bli satt under lupen igjen pga Tesla, og det er galt i seg selv. Det hadde ikke vært nødvendig uten Tesla, men med Tesla så er det altså påtvunget. 

At det finnes metoder som er bedre, betyr ikke at Tesla helt har utelukket dette. Simultasjoner har den begrensningen at den skiller seg alt for ofte fra real world live situations. Enhver som har drevet software testing, vet at i reelt bruk så vil det være ting man ikke kan simulere, om man ikke klarer å tenke seg til 100 % alle mulige situasjoner. Derfor kjøres det alltid live for et begrenset antall brukere, eller i parallellkjøring, intill man år stadiet der man sier at nå går vi live, men har ELS-periode (early Life Support) der også utviklere er med for å se, avdekke og gripe inn om man ser situasjoner man ikke kunne forutse.

Klart det er billigere og la et begrenset antall brukere man har analysert  og godkjent for en slik testing kjøre dette, istedet for å sende egne ansatte til å gjøre det samme, men gjerne i områder de ikke er kjent med. Da er det plutselig et spørsmål om hva som gir mest verdi for selskapet. Kanskje gjør man begge deler for alt vi vet.

SAE og ISO-definisjoner er ikke nødvendigvis perfeksjon, så det er ikke nødvendigvis bare negativt om de må se over sitt eget arbeide, eller om de må in og kvalitetssikre andre aktører. Å hvile på laurbærene fordi man har ISO og SAE-definisjoner, blir fort en sovepute.

  • Liker 1
  • Innsiktsfullt 3
Lenke til kommentar
oophus skrev (10 minutter siden):

Tesla dilter etter for å skape PR og berike seg på aksje-pumping. 

I så fall gjør de en nokså dårlig jobb, når Elon himself, går ut på twitter og sier at aksjerverdien er høyer enn hva den burde være.. 😂

Trestein skrev (3 minutter siden):

Bmw vil for eksempel teste sine systemer tyvetalls millioner kilometer før de prøves ut i trafikk

Ja, tesla har også noen regler for antall kjørte kilometer før det aktiveres blant mannen i gata.

Sitat

For å kunne aktivere nye funksjoner må de oppnå langt større pålitelighet enn menneskelige sjåfører, og dette må dokumenteres gjennom milliarder av kjørte kilometer. I tillegg må funksjonene bli lovlige å bruke, hvilket kan ta lengre tid i noen områder enn andre.

 

  • Liker 4
  • Innsiktsfullt 1
Lenke til kommentar
Hanhijnn skrev (2 minutter siden):

Dette er ikke et halmstrå engang. det er knapt et hårstrå... Den bilen som kommer "bak" lastebilen er så langt unna at den rekker ikke å komme inn på skjermen til Tesla'en, før Tesla'en har svingt over. Som fører så hadde du knapt nok kastet et blikk på den bilen som er så langt unna. Nei Trestein, dette begynner å bli vel patetisk. Blir du ikke flau?

Hvor langt unna er den? På siste bildet er den på trafikkøyen i krysset. Hvor lang er en trafikkøy? Hvor mange sekunder bruker bilen forbi trafikkøyen? Hva er marginen her? 2sek? 60m?

Lenke til kommentar
3 minutes ago, Trestein said:

Er sjåførene lønnet av Tesla? 
Beta software er garantert blitt testet av teslaansatte testkjørere.

Ja, det står i artikkelen:

– Før vi lanserer funksjonalitet, går den gjennom omfattende testing. Først så kjører vi det selv, vi har simulerings-grupper som har, mener jeg, svært gode simuleringer av den virkelige verden, sa Musk under presentasjonen av selskapets regnskapstall for første kvartal.

 

3 minutes ago, Trestein said:

Bmw vil for eksempel teste sine systemer tyvetalls millioner kilometer før de prøves ut i trafikk

Sikkert, men eg reknar ikkje med at dei har planar om å lansere noko dei aldri har prøvd ut i trafikken!

 

For Tesla er brukar-testing veldig enkelt å implementere, sidan dei har hatt fungerande OTA-oppdatering av programvare sidan 2012.  Andre bilprodusentar, som BMW og VW, slit med å få dette til.  VW trur dei skal få det til i 2021.  Når dei er avhengige av å ta inn kvar bidige bil til ein verkstad for å gjere små endringar i programvaren, er det veldig vanskeleg å få testa og kontinuerleg forbetra programvaren under varierande forhold i ekte trafikk.  Bilane har heller ikkje kraftige nok datamaskiner ombord.

  • Innsiktsfullt 2
Lenke til kommentar
Trestein skrev (4 minutter siden):

Hvor langt unna er den? På siste bildet er den på trafikkøyen i krysset

Oh. Who cares? :) Om den er 100 meter unna, eller 10 meter unna. Om bilen så den eller ikke. Dette er testversjon. Det er forventet at ting ikke skal fungere slik som en fullverdig versjon. Ikke heng deg opp i hver eneste feil test-programvaren har. Det vil bli MANGE av dem.

  • Liker 2
  • Innsiktsfullt 1
Lenke til kommentar
10 minutes ago, sverreb said:

Jeg kan ikke se at det er på noen måte akseptabelt å bedrive betatesting av sikkerhetskritisk software i det offentlige med uvitende deltagere (alle de andre trafikantene) .

Korleis skal ein då få testa programvaren i ekte trafikk?  Du kan ikkje forby testing.  Eg ser gamle vrak med prøveskilt på vegen kvar einaste dag, og eg har mykje meir tillit til ein ny Tesla med avanserte førarstøttesystem enn eit gammalt vrak som nettopp har fått reparert bremsene av ein amatør-mekkar.

  • Liker 2
Lenke til kommentar
sverreb skrev (28 minutter siden):

Jeg kan ikke se at det er på noen måte akseptabelt å bedrive betatesting av sikkerhetskritisk software i det offentlige med uvitende deltagere (alle de andre trafikantene) .

Da er det jo bra at det er andre mer kvalifiserte instanser som har godkjent beta-testingen. Hva du syns er egentlig ganske uinteressant.

  • Liker 4
Lenke til kommentar
Trestein skrev (25 minutter siden):

Hvor langt unna er den? På siste bildet er den på trafikkøyen i krysset. Hvor lang er en trafikkøy? Hvor mange sekunder bruker bilen forbi trafikkøyen? Hva er marginen her? 2sek? 60m?

Hvor mye veier en fisk? Dette vet ingen av oss, men du ser jo en gylden anledning til å spre  dine negative spekulasjoner, og prøver å innbille alle andre at de er basert på noe annet enn nettopp det; spekulasjoner. Greit nok at du hater Tesla (sykt nok bare det), men nå har du passert punktet patetisk...

  • Liker 5
Lenke til kommentar
Sturle S skrev (16 minutter siden):

Korleis skal ein då få testa programvaren i ekte trafikk?  Du kan ikkje forby testing.  Eg ser gamle vrak med prøveskilt på vegen kvar einaste dag, og eg har mykje meir tillit til ein ny Tesla med avanserte førarstøttesystem enn eit gammalt vrak som nettopp har fått reparert bremsene av ein amatør-mekkar.

Du tester ikke helt uprøvd software på tilfeldige kunder som kjører pent.

Gjør programvaren feil hver halvtime er det altfor høyt til å ikke bruke profesjonelle testførere. På 95 tallet klarte man over 90% selvkjøring på tyske motorveier. Det var aldri snakk om å teste dette på dyktige mercedes sjåfører.

skal finne linken.

Lenke til kommentar
Hanhijnn skrev (1 minutt siden):

Hvor mye veier en fisk? Dette vet ingen av oss, men du ser jo en gylden anledning til å spre  dine negative spekulasjoner, og prøver å innbille alle andre at de er basert på noe annet enn nettopp det; spekulasjoner. Greit nok at du hater Tesla (sykt nok bare det), men nå har du passert punktet patetisk...

Det er ingen problem å finne ut av dette.

Bare å finne stedet på google maps og se hvor lang trafikkøyen er.

 

Lenke til kommentar
Snowleopard skrev (44 minutter siden):

Helt ærlig, det får de selskapene gjøre på akkurat den metoden de finner ut at er best. Waymo sin styrke, er at de blir veldig gode på et geografisk begrenset område, men er til gjengjeld ubrukelig utenfor dette området. De må derfor ut å gjøre veldig mye arbeide før dette er globalt.

Waymo kan fint kjøre utenfor geo-begrensede lokasjoner, siden de utfører de samme sanntidsanalysene som Tesla gjør, men de velger altså å la være, fordi HD-Kart gir fordeler som sikrer systemene i så stor grad, at det er bedre å holde seg der. 

Fremgangsmetoden til Waymo vil være mulig å regulere, det vil ikke Tesla sin fremgangsmåte være. For oss her i EU og Norge, så vil Waymo's fremgangsmåte være mest interessant, siden det er dette vi vil få se bli implementert her hjemme. 

 

Snowleopard skrev (44 minutter siden):

Tesla sin metode gjør at de foreløpig kan brukes over alt i verden, på veityper den er beregnet å virke på.

Kan du forklare hva Waymo gjør annerledes enn Tesla? Hvordan utnytter man HD-Kart, og hva er fordelene med dem?
Hvordan bruker Waymo sine kamera-sensorer til forskjell fra Tesla sine kamera? 

Tesla sin metode er Waymo sin metode, men Waymo utnytter i tillegg flere lag av "redundancy" som naturlig følger det å kunne utnytte HD-Kart, samt ekstra sensorer med sine styrker.

Snowleopard skrev (44 minutter siden):

Og de utvider den, slik at den på blir langt bedre på veier den før ikke har virket på.

 Det er nettopp her jeg faller ifra, og dette er altså oppfatningen veldig mange har. Det finnes konkurranser som utføres uten HD-Kart og Geo-Fencing med mange deltagere. Det Tesla gjør for å få dybdeinformasjon fra sine kamera sensorer er ikke noe annereldes enn hva absolutt alle de andre gjør. Og alle analyserer situasjonen utenfor i sanntid. 

Snowleopard skrev (44 minutter siden):

Tesla håper og tror de skal få systemet så godt at det skal virke på alle veier, når systemet er trrent opp til å takle alle de cornercases som de støter på, hvor ting ser andeledes ut enn det som er testet på foreløpig. Da skal den bli i stand til å løse disse i områder den ikke er trent på før, så lenge "casen" er gjenkjennelig.

Hvordan finner Tesla sine "corner-cases" og hvordan lærer man bilflåten opp til å løse disse? Hvordan differensierer de andre seg fra Tesla sin fremgangsmåte? Alle møter de samme utfordringene, men fremgangsmåten er altså ulik. Det er fremgangsmåten jeg er mest interessert i å diskutere, og det virker som om du trur at Tesla løper helt sin egen vei. Det gjør dem ikke, de løper den samme veien, med en betydelig mindre verktøyskasse som de andre utnytter for å skape sikkerhet i løsningene som systemet kommer frem til mot enhver beslutning. 

 

Snowleopard skrev (44 minutter siden):

Det Tesla gjør nå, er å fjerne disse cornercases, slik at den kan gjenkjenne tilsvarende andre steder. Man kan sikkert se på hva som gjøres nå i en beta, hvor plutselige situasjoner kan dukke opp. Før det blir et L3 eller L4-system, så skal det mer eller mindre ikke finnes flere slike situasjoner den ikke er lært opp til å gjenkjenne og respondere korrekt på.

1. Det er metoden å lære som blir kritisert. 
2. Det Tesla gjør nå, fører dem ikke mot L3 autonomi. 

For å oppnå L3 autonomi, så skal bilen i absolutt alle situasjoner, inkludert "corner-cases" som man møter en gang i skuddåret som gjør det umulig å "trenes" på være bedre til å unngå farlige situasjoner og uhell enn oss normale sjåfører av kjøtt og blod der systemet fordrer at L3 funksjoner kan være påslått. Altså så kjapt bilen sier ifra at L3 er tilgjengelig, og du skrur på dette, eller det blir skrudd på av tvang, så forsvinner ansvaret fra dine skuldre på hva som eventuelt skjer med L3 påslått. Du kan lese en avis om du vil det, men avleveringen mellom L3 og ned til L2 igjen kan forekomme, som betyr at du skal sitte i førerpossisjonen, fremfor å være passasjer bak i bilen f.eks. slik du kan gjøre ved L4. 

Snowleopard skrev (44 minutter siden):

Det inkluderer selvsagt hvordan "overlevering" skal skje. Bilen skal selvsagt vite når den nærmer seg et område der den ikke får lov å kjøre på egenhånd, og gi sjåfør beskjed i god tid, eller parkere seg på et sikkert område om så ikke skjer. Men da dette ikke er noe de må ta hensyn til nå, så kjører den altså som et L2-system.

Hvordan vil bilen få vite hvor den ikke skal kjøre på egenhånd tatt i betrakning dette: 

Sitat

Tesla håper og tror de skal få systemet så godt at det skal virke på alle veier

Det Tesla håper på, er å hoppe fra L2 til L4. Men hvordan oppnå dette uten å definere hvor bilen kan, og ikke kan kjøre på forhånd for å sikre de ulike "overleverings" kravene mellom L2, til L3 og L4? 

 

Snowleopard skrev (44 minutter siden):

Simultasjoner har den begrensningen at den skiller seg alt for ofte fra real world live situations. Enhver som har drevet software testing, vet at i reelt bruk så vil det være ting man ikke kan simulere, om man ikke klarer å tenke seg til 100 % alle mulige situasjoner.

På hvilken måte? Folk trener seg til å fly fly med simulasjoner og flyr fint etter opplæring virituelt, og folk trener seg opp til å drepe folk med våpen/droner gjennom simulasjoner. Hva som skiller mellom "real world" og en simulasjon? Det er jo kun implementeringen av typen simualsjon, og hva man vil simulere det. Fordelen rundt simulasjoner, og NN er jo at man kan produsere millioner, og milliarder av "corner-cases" vi mennesker ikke selv har tenkt på å trene på engang fra faktiske rå-data fra sensorer fra en virkelig bil. Samt man kan i tillegg utnytte bilflåten og det den ser daglig uten at den opplever "corner-cases" for å produsere egne corner cases kun med formål i å trene på. 

Alternativet er å trene på "corner-cases" kun når ulykken er skjedd. Dette virker til å være Tesla sin fremgangsmåte, og flere kommer med kritikk i den retningen av denne grunn. 

Folk har jo hacket bilene og målt datatrafikken. Når AP og/eller FSD blir avbrutt av sjåføren, så har ikke bilen lastet opp noe mer data av den grunn. Dette har stort sett foregått i etterkant av større kollisjoner. 

Hadde den lært fortløpende av kun overtagelse, så ville vi ikke sett "ghost-bremsing" ved samme lokasjon i årevis. Altså læres systemet av uhell, og dette er et steg for sent. Forhåpentligvis så vil DOJO prosjektet forandre på dette, slik at de utnytter flagging i større grad ute i bilflåten for å ta opp data og sende det opp for analyse og trening. Tar dem et steg videre med NN "procedural" case-building, så vil enhver flagging produsere tusenvis av virituelle corner cases som man kan trenes på i tillegg - slik konkurrentene gjør. Det å leie datakraft er jo tross alt billig når formålet er å bygge sikkerhet på veiene. 

 

Snowleopard skrev (44 minutter siden):

SAE og ISO-definisjoner er ikke nødvendigvis perfeksjon, så det er ikke nødvendigvis bare negativt om de må se over sitt eget arbeide, eller om de må in og kvalitetssikre andre aktører. Å hvile på laurbærene fordi man har ISO og SAE-definisjoner, blir fort en sovepute.

Det var ikke perfeksjon når folk kjører rundt dem. Det er jo derfor de må forandres på, for å dekke hull for å sikre at autonomi innføres på en bedre og sikrere metode. 
 

Endret av oophus
Lenke til kommentar
Trestein skrev (Akkurat nå):
Hanhijnn skrev (3 minutter siden):

Hvor mye veier en fisk? Dette vet ingen av oss, men du ser jo en gylden anledning til å spre  dine negative spekulasjoner, og prøver å innbille alle andre at de er basert på noe annet enn nettopp det; spekulasjoner. Greit nok at du hater Tesla (sykt nok bare det), men nå har du passert punktet patetisk...

Det er ingen problem å finne ut av dette.

Bare å finne stedet på google maps og se hvor lang trafikkøyen er.

Ja lykke til. Samtidig må du huske å glemme at dette er beta-testing av et uferdig system.

Vi ser fram til bunnsolid dokumentasjon fra deg på dette "alvorlige problemet".

  • Liker 5
Lenke til kommentar
sverreb skrev (2 timer siden):

 Reguleringer henger imidlertid alltid ettrer teknologisk utvikling og da er det alltid en fare at skruppelløse selskaper utnytter hull i reguleringene. 

Det er presist formulert. Mange har lurt på hvorfor NTHSA har vært så passive, men det spekuleres i at de ikke er vant med slik oppførsel. Bilprodusenter vil normalt ha en etisk grunnmur, følge standarder og kotyme i bransjen, samrbeide med myndighetene og gjøre recalls frivillig. Tesla har derimot vært mer opptattt av å utfordre, nekte og finne smutthull. Elon Musk slang på røret da sjefen for NTSB ville snakke med ham om den tragiske dødsulykken hvor en Apple-ansatt ble drept av autopiloten.

For eksempel så har Tesla visst om problemet med feildimensjonert understell i lang tid, men i stedet for å gjøre en tilbakekalling så har de kun fikset enkelttilfeller etter at ulykker eller konkrete problemer har oppstått. De prøvde også ulovlig å gjøre dette i skjul og uten å informere myndighetene. Nå har Kina tvunget dem til en recall, men Tesla fortsetter å nekte for at noe er galt og skylder heller på kinesiske sjåfører. 

Når det gjelder autonomi så har Tesla hatt en gylden mulighet til å eliminere det største problemet med teknologien, nemlig at man slapper av og slutter å følge med. En ordentlig DMS(Driver Monitoring System) hadde i mye større grad sikret at sjåføren fulgte med på veien og mange av disse horrible dødsulykkene kunne vært unngått. En infrarød sensor som fulgte med på sjåførens øyne ville hindret følgende.

  1. Sjåfører som mister oppmerksomheten når man overvåker autonomi.  Og i motsetning til hva enkeltpersoner her påstår så er det ikke sånn at man kan nulle ut en uunngåelig fysiologisk reaksjon med to linjer i en manual.
  2. Folk som misbruker systemet fordi de har blitt forledet av den massive hypen rundt det.

Teslas egne eksperter på autonomi advarte mot denne forventede konsekvensen og anbefalte en ordentlig DMS. Men som ved veldig mange andre korsveier så ble den smale sti forkastet til fordel for kortsiktig profittjag og hype. Det kommer ikke til å skje noe her før Tesla blir tvunget til det.

Endret av uname -l
  • Liker 4
Lenke til kommentar
46 minutes ago, Trestein said:

Du tester ikke helt uprøvd software på tilfeldige kunder som kjører pent.

Fint.  Det gjer ikkje Tesla heller.

46 minutes ago, Trestein said:

Gjør programvaren feil hver halvtime er det altfor høyt til å ikke bruke profesjonelle testførere. På 95 tallet klarte man over 90% selvkjøring på tyske motorveier. Det var aldri snakk om å teste dette på dyktige mercedes sjåfører.

Gjorde dei dyktige Mercedes-sjåførane fleire feil, eller er det andre grunnar til at dei brukte mindre dyktige sjåførar til å teste?

  • Liker 2
Lenke til kommentar
oophus skrev (8 minutter siden):

Waymo kan fint kjøre utenfor geo-begrensede lokasjoner, siden de utfører de samme sanntidsanalysene som Tesla gjør, men de velger altså å la være, fordi HD-Kart gir fordeler som sikrer systemene i så stor grad, at det er bedre å holde seg der. 

Fremgangsmetoden til Waymo vil være mulig å regulere, det vil ikke Tesla sin fremgangsmåte være. For oss her i EU og Norge, så vil Waymo's fremgangsmåte være mest interessant, siden det er dette vi vil få se bli implementert her hjemme. 

 

Kan du forklare hva Waymo gjør annerledes enn Tesla? Hvordan utnytter man HD-Kart, og hva er fordelene med dem?
Hvordan bruker Waymo sine kamera-sensorer til forskjell fra Tesla sine kamera? 

Tesla sin metode er Waymo sin metode, men Waymo utnytter i tillegg flere lag av "redundancy" som naturlig følger det å kunne utnytte HD-Kart, samt ekstra sensorer med sine styrker.

 Det er nettopp her jeg faller ifra, og dette er altså oppfatningen veldig mange har. Det finnes konkurranser som utføres uten HD-Kart og Geo-Fencing med mange deltagere. Det Tesla gjør for å få dybdeinformasjon fra sine kamera sensorer er ikke noe annereldes enn hva absolutt alle de andre gjør. Og alle analyserer situasjonen utenfor i sanntid. 

Hvordan finner Tesla sine "corner-cases" og hvordan lærer man bilflåten opp til å løse disse? Hvordan differensierer de andre seg fra Tesla sin fremgangsmåte? Alle møter de samme utfordringene, men fremgangsmåten er altså ulik. Det er fremgangsmåten jeg er mest interessert i å diskutere, og det virker som om du trur at Tesla løper helt sin egen vei. Det gjør dem ikke, de løper den samme veien, med en betydelig mindre verktøyskasse som de andre utnytter for å skape sikkerhet i løsningene som systemet kommer frem til mot enhver beslutning. 

 

1. Det er metoden å lære som blir kritisert. 
2. Det Tesla gjør nå, fører dem ikke mot L3 autonomi. 

For å oppnå L3 autonomi, så skal bilen i absolutt alle situasjoner, inkludert "corner-cases" som man møter en gang i skuddåret som gjør det umulig å "trenes" på være bedre til å unngå farlige situasjoner og uhell enn oss normale sjåfører av kjøtt og blod der systemet fordrer at L3 funksjoner kan være påslått. Altså så kjapt bilen sier ifra at L3 er tilgjengelig, og du skrur på dette, eller det blir skrudd på av tvang, så forsvinner ansvaret fra dine skuldre på hva som eventuelt skjer med L3 påslått. Du kan lese en avis om du vil det, men avleveringen mellom L3 og ned til L2 igjen kan forekomme, som betyr at du skal sitte i førerpossisjonen, fremfor å være passasjer bak i bilen f.eks. slik du kan gjøre ved L4. 

Hvordan vil bilen få vite hvor den ikke skal kjøre på egenhånd tatt i betrakning dette: 

Det Tesla håper på, er å hoppe fra L2 til L4. Men hvordan oppnå dette uten å definere hvor bilen kan, og ikke kan kjøre på forhånd for å sikre de ulike "overleverings" kravene mellom L2, til L3 og L4? 

 

På hvilken måte? Folk trener seg til å fly fly med simulasjoner og flyr fint etter opplæring virituelt, og folk trener seg opp til å drepe folk med våpen/droner gjennom simulasjoner. Hva som skiller mellom "real world" og en simulasjon? Det er jo kun implementeringen av typen simualsjon, og hva man vil simulere det. Fordelen rundt simulasjoner, og NN er jo at man kan produsere millioner, og milliarder av "corner-cases" vi mennesker ikke selv har tenkt på å trene på engang fra faktiske rå-data fra sensorer fra en virkelig bil. Samt man kan i tillegg utnytte bilflåten og det den ser daglig uten at den opplever "corner-cases" for å produsere egne corner cases kun med formål i å trene på. 

Alternativet er å trene på "corner-cases" kun når ulykken er skjedd. Dette er altså Tesla sin fremgangsmåte. 

 

Det var ikke perfeksjon når folk kjører rundt dem. Det er jo derfor de må forandres på, for å dekke hull for å sikre at autonomi innføres på en bedre og sikrere metode. 
 

Si meg, går du bort fra din egen beskrivelse av hvordan Tesla bruker betatesting ute i felten, sånn når det passer seg for argumentasjonen? Hvordan klarer du å plutselig vri det til at de skal trene cornercases kun når ulykken har skjedd?

Og vennligst ikke stykk opp hver enkeltpunkt du ønsker å si noe om. Det blir sabla slitsomt å diskutere når du tar enkeltdeler ut a sammenhengen for å problematisere dem. Jeg orker ikke stykke dette opp på samme måte, for det tar bare for lang tid og man kommer på feilspor når man skal ta enkeltdeler ut av sammenheng.

Og om du mener Waymo sin metode er den samme som Tesla sin metode, bortsett fra at de støtter seg til HD-bilder, der Tesla mener de klarer seg med lavere oppløsning, hvorfor er da Tesla sin metode så veldig feil? Hvor er logikken i den konklusjonen?

Forresten så bruker Waymo Lidar, noe Tesla ikke gjør, så det er jo ikke så likt som du prøver å si. Og en av tingene er som sagt at Waymo selv kartlegger områdene før bilene får kjøre der, i tillegg til at de har en tillatelse kun til å fungere i begrensede områder. Riktignok store områder, men likevel langt fra hele verden.

Forøvrig begrenses og Tesla sin måte å gjøre ting på, da visse ting de kan gjøre i USA, ikke er lovlig her. Så påstanden din er derfor feil.

Du kan gjerne kritisere måten de gjør ting på, men da må man faktisk kritisere dem på ting man vet sikkert, og ikke bare antar. Og påstanden om at Tesla sin metode ikke fører til L3, mener jeg er fri fantasi og tull og ikke noe du har dekning for. Her tipper jeg du igjen vil komme i en situasjon der påstanden din blir motbevisst, når vi kommer så langt. Tesla har nok rimelig god peiling på hva de gjør, selv om de ikke nødvendigvis forteller absolutt alt.

PS! Den flytreningen og våpentreningen kan forberede pilotene på så mangt, men de kan ikke trene dem i reell krigssituasjon der faktiske bomber, raketter og kuler suser rundt dem, og splinter slår i veggen. De må faktisk fremdeles skyte med de aktuelle våpnene, og fly med de aktuelle flyene før de man vet hvoran de takler dette. Men simulering gjør at man utelukker endel nybegynnerfeil som kan bli fatale allerede tidlig i faktisk bruk. "Realfeel" er et begrep man rett og slett ikke klarer å simulere, men må erfare. derfor er og ekte krig noe helt annet enn et videospill. Men klart, trener man på situasjoner man kan komme ut for, så kan vi mennesker lettere knytte dette mot lignende men ikke identiske situasjoner, og lettere ta en rasjonell avgjørelse, fremfor panikk og helt feil avgjørelse.

Med autonome biler, så må man i større grad trene opp faktiske situasjoner og typer kryss og rundkjøringer, og lære de opp til hvordan disse skal oppfattes og behandles. I den siste videoen som jeg så, var sjåføren veldig rask med  "oof", "oh shit" og andre uttrykk, fordi han ikke stolte på at bilen gjorde det han anså som rett eller helt optimalt. Men mye av det var relativt ufarlig da bilen tok hensyn og unngikk situasjonene. Det var ikke noen reell fare, selv om det kunne se anderledes ut der og da, før bilen svingte unna hindringen.

Jeg anser det som fornuftig at den trenes vidt, av godkjente betatestere. Tesla har og vært klart mer verbal om hva de driver med, og Tesla ansees som et spennende selskap som har mange tanker i hodet på en gang, til tross for at de i verdensmålestokk er en mygg. De store selskapene jobber selvsagt mye med lignende selv, uten å være veldig verbal om hvor langt de har kommet.

Men så er mange av de andre selskapene som jobber med dette, utspring fra selskap som også var små, og kanskje fremdeles defineres som små. De dukker opp fordi det er interessante tema som krever mye knowhow og stor IT-kunnskap. Der har Tesla vist seg som bedre enn gigantene på mange måter, og antas å ha 10 års forsprang eller så. Og så er det enkelte målinger som baserer seg på ulike kriterier for å gjette hvordan disse ligger an til hverandre. Men så lenge det er lite verbal kommunikasjon om og rundt disse, så er det vanskelig å si noe om hvor de er. For alt vi vet, tester de på nøyaktig samme måte, men med kunder som har taushetsplikt, så vi ikke får vite så mye. Tela har ikke vært like hard på at dette er hemmelighetshold. Derfor blir de og lett å kritisere.

Du tror meg kanskje ikke, men jeg prøver å betrakte dette litt utenfra, og synes den krangelen som flere kaller en diskusjon, fremstår som temmelig tafatt. Mange harde ord mot hverandre, men og veldig mye drittkast mot det ene selvskapet som er verbalt her, og mye av denne kritikken er så bak mål at man lurer veldig på hvem det er vits å kommentere, og hvem som er fullstendig fri for evne og/eller vilje til å tenke litt lengre. Jeg slenger meg litt på å korrigere litt på den verste kritikken, uten å påstå jeg har alle svarene, så derfor har jeg ikke gått i detalj på alt du tar frem her. Jeg ser bare ikke poenget.

  • Liker 3
  • Innsiktsfullt 2
Lenke til kommentar
38 minutes ago, Snowleopard said:

Med autonome biler, så må man i større grad trene opp faktiske situasjoner og typer kryss og rundkjøringer, og lære de opp til hvordan disse skal oppfattes og behandles.

Dette er en teori som betinger at man bruker og er i stand til å lykkes med å bruke noe tilsvarende til et nevralt nett til å gjøre beslutninger knyttet til selve kjøringen, ikke bare i å gjenkjenne verden omkring seg. 

Hvorvidt nevrale nett i hele tatt kan brukes til sikkerhetskritisk software er fortsatt et åpent spørsmål. Deep-learning har et ekstrapolasjonsproblem, det kan bare respondere forutsigbart(ish) til noe det har sett før. I den virkelige verden ser vi og utsettes for noe nytt hele tiden, så og tanken om at man har noe som ligner på et endelig tilstandsrom for input til en selvkjørende bil virker lite trolig. Og selv med input som ligner det de har setty er de skjøre og kan feile på vanskelig forutsigbare måter (I.e. hva som er innenfor 'sett før begrepet' kan være langt smalere enn hva vi intuitivt tror). Å feile uforutsigbart er ikke forenelig med sikkerhet, så det er på ingen måte gitt at å stole på nevrale nett slik vi kjenner de i dag vil føre til selvkjørende biler.

At det er bare er snakk on 'trening' før man kan oppnå selvkjøring er altså en i høyeste grad kontroversiell teori. 

Se f.eks her: https://bdtechtalks.com/2020/07/29/self-driving-tesla-car-deep-learning/

Endret av sverreb
Lenke til kommentar
Snowleopard skrev (43 minutter siden):

Si meg, går du bort fra din egen beskrivelse av hvordan Tesla bruker betatesting ute i felten, sånn når det passer seg for argumentasjonen? Hvordan klarer du å plutselig vri det til at de skal trene cornercases kun når ulykken har skjedd?

1. Nei.
2. Svar på spørsmålene hver for seg, så kommer du frem til resultatet. Det er jo poenget med spørsmålene mine, for å få deg til å innse hvordan Tesla trener opp sitt system. 

Snowleopard skrev (44 minutter siden):

Og vennligst ikke stykk opp hver enkeltpunkt du ønsker å si noe om. Det blir sabla slitsomt å diskutere når du tar enkeltdeler ut a sammenhengen for å problematisere dem. Jeg orker ikke stykke dette opp på samme måte, for det tar bare for lang tid og man kommer på feilspor når man skal ta enkeltdeler ut av sammenheng.

Når du skifter tema fra ulike paragrafer, så må det deles opp. Hvis ikke er det umulig for andre å følge med på diskusjonen om jeg gjør som deg, å bare kommer med en "wall-of-text" som gjør at man må scrolle opp og ned for å forstå hva som diskuteres og svares på. Jeg ser f.eks at du ikke har svart på noen spørsmål, og det er enkelt når du ikke svarer på hvert poeng, men heller kjører en unnamanøver med denne typen svar. Jeg er dog enig at svarene blir lange, når man hopper mellom ulike tema og poenger, så vi kan godt stykke det opp del for del. 

  • Liker 1
Lenke til kommentar

Bli med i samtalen

Du kan publisere innhold nå og registrere deg senere. Hvis du har en konto, logg inn nå for å poste med kontoen din.

Gjest
Skriv svar til emnet...

×   Du har limt inn tekst med formatering.   Lim inn uten formatering i stedet

  Du kan kun bruke opp til 75 smilefjes.

×   Lenken din har blitt bygget inn på siden automatisk.   Vis som en ordinær lenke i stedet

×   Tidligere tekst har blitt gjenopprettet.   Tøm tekstverktøy

×   Du kan ikke lime inn bilder direkte. Last opp eller legg inn bilder fra URL.

Laster...
×
×
  • Opprett ny...