Gå til innhold

Tesla iverksetter ekstreme sparetiltak


Anbefalte innlegg

Huh? Sa du nettopp at det er lange ventetider på å få seg en ny Telsa?

 

Det har vært oppe i media at Tesla har vært litt gjerrige på å oppgradere fasiliteter og betale tilstrekkelig lønn til personell da de må spare til å kunne tilby tilstrekkelig service i ettertid for sine biler. Det kan være et problem at bilene var solgt for billig, at det er for stor vekst eller noe slikt som forårsaker dette. Leveringstid på bilen? Har ikke peiling. Var ikke dette jeg mente :) Har hørt om forferdelige ventetider på alle elbiler jeg.

  • Liker 1
Lenke til kommentar
Videoannonse
Annonse

Snakk for deg selv. I mitt syn er det helt greit at maskiner dreper folk, så lenge de dreper færre enn alternativet.

Nå er det ingen som kommer til å spørre deg, ikke meg heller for den slags skyld. Jeg baserer min påstand på hvordan jeg ser hva vi som samfunn forventer av automasjon. Etter hva jeg kan se er det en ikke urimelig forventning om at man skal ikke bli drept eller skadd av en maskin. Er det ikke mennesklig feil skal den som er ansvarlig for maskinen umiddelbart ta grep for å rette dette.

 

Vi så at über stoppet sine selvkjøringstester etter oppstandelsen som skjedde da deres automatikk drepte en person. I flyindustrien ser vi det rett som det er: Er det ikke mennesklige feil, setter vi hele flyflåter på bakken intil vi har rettet feilen som forårsaket tap av liv.

Endret av sverreb
  • Liker 3
Lenke til kommentar

 I flyindustrien ser vi det rett som det er: Er det ikke mennesklige feil, setter vi hele flyflåter på bakken intil vi har rettet feilen som forårsaket tap av liv.

Men man godtar likevel at det blir flydd, selv om alle vet at feil på fly kommer til å ta flere liv..

Hadde man ikke godtatt det ville samtlige fly blitt satt på bakken for alltid.

Lenke til kommentar

Men man godtar likevel at det blir flydd, selv om alle vet at feil på fly kommer til å ta flere liv..

Hadde man ikke godtatt det ville samtlige fly blitt satt på bakken for alltid.

Riktig, og det er vesentlig: Forskjellen jeg vil frem til er ikke en forventning om at teknologi er perfekt og ufeilbarlig, men en forventning om at når teknologi og automasjon feiler slik at liv går tapt, da SKAL feilen finnes og utbedres.

 

Et problem med nevralnett i en slik sikkerhetsfokusert tankegang er at de er en black-box som i praksis ikke kan analyseres og feilsøkes. Så når et nevralnett feiler er det eneste vi kan gjøre å hive mer treningsdata på det og håpe for det beste. Det er m.a.o. veldig vanskelig eller endog umulig å være trygge på at vi har funnet og utbedret feilen som ga opphav til tap av liv, og det tror jeg ikke kommer til å bli akseptert.

 

Dermed kommer jeg til konklusjonen at i den grad nevralnett skal brukes i ADAS må ikke de sikkerhetskritiske funksjonene være avhengige av de. I.e. bilen må kunne planlegge sin kjøring og være trygg på at den ikke vil kollidere i noe eller på annen måte sette liv i fare uten å være avhengig av analyse fra nevralnett, simpelten fordi vi ikke kan feilsøke de og rette opp feilene på en troverdig måte når det en gang fører til skade.

 

Som eksempel: Et nevralnett som analyserer trafikken foran deg og ser en traktor må gjerne bruke det til å starte planlegging av forbikjøring fordi traktoren sannsynligvis kjører langsomt. Men når forbikjøringen er i gang og traktoren viser seg å være et vogntog må ikke denne feilanalysen gjøre forbikjøringen mindre sikker.

  • Liker 1
Lenke til kommentar

Riktig, og det er vesentlig: Forskjellen jeg vil frem til er ikke en forventning om at teknologi er perfekt og ufeilbarlig, men en forventning om at når teknologi og automasjon feiler slik at liv går tapt, da SKAL feilen finnes og utbedres.

 

Et problem med nevralnett i en slik sikkerhetsfokusert tankegang er at de er en black-box som i praksis ikke kan analyseres og feilsøkes. Så når et nevralnett feiler er det eneste vi kan gjøre å hive mer treningsdata på det og håpe for det beste. Det er m.a.o. veldig vanskelig eller endog umulig å være trygge på at vi har funnet og utbedret feilen som ga opphav til tap av liv, og det tror jeg ikke kommer til å bli akseptert.

 

Dermed kommer jeg til konklusjonen at i den grad nevralnett skal brukes i ADAS må ikke de sikkerhetskritiske funksjonene være avhengige av de. I.e. bilen må kunne planlegge sin kjøring og være trygg på at den ikke vil kollidere i noe eller på annen måte sette liv i fare uten å være avhengig av analyse fra nevralnett, simpelten fordi vi ikke kan feilsøke de og rette opp feilene på en troverdig måte når det en gang fører til skade.

 

Som eksempel: Et nevralnett som analyserer trafikken foran deg og ser en traktor må gjerne bruke det til å starte planlegging av forbikjøring fordi traktoren sannsynligvis kjører langsomt. Men når forbikjøringen er i gang og traktoren viser seg å være et vogntog må ikke denne feilanalysen gjøre forbikjøringen mindre sikker.

Nå kan jeg ikke snakke for alle nevrale nettverk. Men slik jeg har forstått Tesla sitt, så kan man gå inn og se hva det er for avgjørelser som er blitt tatt. Er det noe som er blitt mistolket? De har også muligheter til å hente ut video fra den siste tida før kræsjet og analysere det i mot loggene som bilen har. 

 

Så det er jo mulig å finne ut hva som skjedde?

Lenke til kommentar

Riktig, og det er vesentlig: Forskjellen jeg vil frem til er ikke en forventning om at teknologi er perfekt og ufeilbarlig, men en forventning om at når teknologi og automasjon feiler slik at liv går tapt, da SKAL feilen finnes og utbedres.

 

Et problem med nevralnett i en slik sikkerhetsfokusert tankegang er at de er en black-box som i praksis ikke kan analyseres og feilsøkes. Så når et nevralnett feiler er det eneste vi kan gjøre å hive mer treningsdata på det og håpe for det beste. Det er m.a.o. veldig vanskelig eller endog umulig å være trygge på at vi har funnet og utbedret feilen som ga opphav til tap av liv, og det tror jeg ikke kommer til å bli akseptert.

 

Dermed kommer jeg til konklusjonen at i den grad nevralnett skal brukes i ADAS må ikke de sikkerhetskritiske funksjonene være avhengige av de. I.e. bilen må kunne planlegge sin kjøring og være trygg på at den ikke vil kollidere i noe eller på annen måte sette liv i fare uten å være avhengig av analyse fra nevralnett, simpelten fordi vi ikke kan feilsøke de og rette opp feilene på en troverdig måte når det en gang fører til skade.

 

Som eksempel: Et nevralnett som analyserer trafikken foran deg og ser en traktor må gjerne bruke det til å starte planlegging av forbikjøring fordi traktoren sannsynligvis kjører langsomt. Men når forbikjøringen er i gang og traktoren viser seg å være et vogntog må ikke denne feilanalysen gjøre forbikjøringen mindre sikker.

Da er vi strengt tatt enige, dødsfall selv med autonome biler er greit, så lenge det er det blir analysert og fikset om mulig i etterkant. Enkelte dødsfall er nok ikke mulig å komme unna da ingen eller ingenting kan ta høyde for alle mulige situasjoner.

 

Ellers er det vel likegyldig om det er en traktor eller vogntog, objekt foran kjører i X km/t og er Y meter langt og Z meter bredt er vel det bilen bryr seg om, hvorfor skal forbikjøring av en traktor behandles annerledes enn ett vogntog?

Lenke til kommentar

Nå kan jeg ikke snakke for alle nevrale nettverk. Men slik jeg har forstått Tesla sitt, så kan man gå inn og se hva det er for avgjørelser som er blitt tatt. Er det noe som er blitt mistolket? De har også muligheter til å hente ut video fra den siste tida før kræsjet og analysere det i mot loggene som bilen har. 

 

Så det er jo mulig å finne ut hva som skjedde?

 

Det du ser et det som kommer ut av nevralnettet. Du kan ikke på noen fornuftig måte gå inn i det og finne ut grunnen til hvorfor det kan ha kategorisert noe feil.

 

 

 

 

Enkelte dødsfall er nok ikke mulig å komme unna da ingen eller ingenting kan ta høyde for alle mulige situasjoner.

Dette er ikke en holdning som normalt aksepteres. Hvis det var en beslutning automasjonen gjorde som ledet opp til et dødsfall, da skal dette rettes. Det kan skje ting som ikke er mennesklig feil eller ett problem med automasjonen, men da snakker vi gjerne naturkatastrofer o.l.

 

 

Ellers er det vel likegyldig om det er en traktor eller vogntog, objekt foran kjører i X km/t og er Y meter langt og Z meter bredt er vel det bilen bryr seg om, hvorfor skal forbikjøring av en traktor behandles annerledes enn ett vogntog?

Bingo. Det var akkurat det jeg ville frem til. Man kan bruke nevralnettet til å gi hint, men sannsynligvis ikke for sikkerhetsrelaterte beslutninger. Så må man da ha metoder for å hente inn nødvendige data for sikkerhetskritiske beslutninger uten å avlede fra kategorisering fra nevralnett.

  • Liker 1
Lenke til kommentar

Dette er ikke en holdning som normalt aksepteres. Hvis det var en beslutning automasjonen gjorde som ledet opp til et dødsfall, da skal dette rettes. Det kan skje ting som ikke er mennesklig feil eller ett problem med automasjonen, men da snakker vi gjerne naturkatastrofer o.l.

Det aksepteres stort sett over alt ellers, f.eks tar både rulletrapper og heiser liv..

Men ja, tar automasjonen en avgjørelse som tar liv, så må jo det endres.

 

Bingo. Det var akkurat det jeg ville frem til. Man kan bruke nevralnettet til å gi hint, men sannsynligvis ikke for sikkerhetsrelaterte beslutninger. Så må man da ha metoder for å hente inn nødvendige data for sikkerhetskritiske beslutninger uten å avlede fra kategorisering fra nevralnett.

Kan fint få nevralnettet til å ikke kategorisere kjøretøy, men kun se på variabler. Ellers kan jo en semitrailer gå i 20 og en traktor i 100 også. En kategorisering er ubrukelig..
Lenke til kommentar

Det aksepteres stort sett over alt ellers, f.eks tar både rulletrapper og heiser liv..

Uten at hendelsen granskes og om utløser aksjoner (Hvis det var utstyrets feil)? Det er ikke min erfaring. Det er masse design i disse meg bekjent som er kommet som respons på (og sikkert i forkant også) av hendelser.

 

 

Kan fint få nevralnettet til å ikke kategorisere kjøretøy, men kun se på variabler. Ellers kan jo en semitrailer gå i 20 og en traktor i 100 også. En kategorisering er ubrukelig..

Hva er det da igjen for det å gjøre? Dette er hva nevralnettene gjør. Kjøreplanlegging er ikke nevralnettbasert så langt meg bekjent.

  • Liker 1
Lenke til kommentar

Men man godtar likevel at det blir flydd, selv om alle vet at feil på fly kommer til å ta flere liv..

Hadde man ikke godtatt det ville samtlige fly blitt satt på bakken for alltid.

En godtar jo ikke feil, for hadde en godtatt feil så hadde en aldri vært så sikker som en er i fly. Det er vel ingen transportbranasje det jobba hardere i for å unngå feil enn akkurat i sivil luftfart.
  • Liker 2
Lenke til kommentar

Får si det igjen da; Tesla er ikke levedyktig og er borte vekk, evt kjøpt opp innen 2 år.

Elendig service, leveringer holder ikke mål, bilene taper snart (pris) konkurransen mot Hyundai, KIA og Škoda.

Kan sammenlignes med Hooters Air, for de som kjenner den historien.

 

Det argumentet har jeg hørt nå i 10 år. "Om to år er Tesla borte". 10 år senere og de Tesla har fremdeles det vakreste design mest energieffektive bilene og beste teknologien...og er her fremdeles.

  • Liker 1
Lenke til kommentar
  • 3 uker senere...

Tesla er hele 4000 enheten unna produksjonsmålet av Model 3 de skulle oppnå i 2018! Det er latterlig dårlig.

 

Men usikker om de egentlig greier å selge så mye da markedet uansett kan ha begynt å bli mettet. Er ikke så sikker på om elbilmarkedet pr dags dato egentlig er så stort så mange tror. Det er type bil som for mange krever at man endrer bruken helt og det er neppe positivt. 

 

ja ser veldig mettet ut  :rofl:

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...