Gå til innhold

Volvos tekniske sjef tror på selvkjørende robot-taxier fra 2025


Anbefalte innlegg

Videoannonse
Annonse
Raude skrev (12 timer siden):

Nei, her tar du feil, Tesla har slutter å bruke radar. Ikke noe imot Tesla, en fantastisk bim, men jeg stoler ikke på ACC til Teslaen under vanskelige kjøreforhold, det gjør jeg imidlertid med Toyota, Hyundai, osv… sine. Det de har til felles er at de er radarbaserte.
 

Med vanskelige kjøreforhold så mener jeg været her i Norge ift. California, herunder tåke, snø, is o.l.

 

 

Jeg har kjørt (ca 70k til sammen) i 2 teslaer og har ingen problem med det. Og i de bilene er det radar, og vortsett fra noen tilfeller der bilen feiltolker hindringer og bremser/senker farten uten behov - har jeg enda å oppdage at den ikke gjorde det. Har også opplevd en helt 100% blodekte nødbrems, som var godt begrunnet samt like godt begunnede "kollisjons-ABS-lignende-varsler" pga plutselige fotgjengere som forvillet seg. Hva du har tiltro til ellers har lite å si ifh hva jeg har faktisk erfart.

  • Innsiktsfullt 1
Lenke til kommentar
Kahuna skrev (18 timer siden):

Produsentene har ikke ubegrenset med ressurser for å løse dette. Om Tesla skulle tatt med LIDAR i sine biler selv om de ikke ga noen umiddelbar nytteverdi måtte Tesla da velge mellom å splitte opp utviklingsressursene for å integrere og videreutvikle LIDAR i bilene eller la LIDAR mer eller mindre stå ubenyttet.

Jeg tror du er mer kompetent enn meg innenfor dette området, men tror/mener det ikke utelukkende slik at å bruke to sensor typer er mer ressurskrevende enn å bruke kun kamera. Har litt oppfatning at det er også motsatt til tider, at om Tesla hadde akseptert LIDAR ville de muligens ha kommet lengre i autonomi målet.

Ser for mer at LIDAR er er relativt simpelt system, som gir hard data med høy tilregnelighet. Å utvikle ett kamera system som også skal gjøre det samme som en LIDAR må vel være mer komplisert og resurs krevende enn å bare implementere en LIDAR og bruke dens data til hva det er verdt. Dette er såpass presis og ferdig utviklet data at Tesla's utviklere kunne fått litt pusterom og fokusert på å lage ett bra kamera system, enn å stressende og stadig måtte utvikle krevende software for å kompensere for svakhetene kameraene har med å gjøre jobben til en LIDAR. 

Lenke til kommentar
nebrewfoz skrev (13 timer siden):

Når jeg googler "fantombremsing Tesla" får jeg 'about 2720 results'.

Når jeg googler "fantombremsing Volvo" får jeg 'about 150 results' - og 5 av 10 linker som kommer opp på den første søkeresultatsiden handler om fantombremsing med Tesla. (Volvo er kun nevnt på samme nettside.)

Jeg vet at dette ikke er en dyptgående vitenskaplig undersøkelse, men man sitter jo igjen med et inntrykk av hvilket fenomen som får størst oppmerksomhet, i det minste.

Ja media elsker å skrive om Tesla, for det genererer masse click fra både hatere og tilhengere. Volvo? Not so interesting...

Hva var poenget ditt?

Endret av Hanhijnn
  • Liker 2
  • Hjerte 1
Lenke til kommentar
uname -i skrev (19 timer siden):

Fantombremsing meldes om av Tesla-eiere selv. Nettet flommer over. Dette er du selvfølgelig fullt klar over, men velger heller å sitte på et forum og late som om problemet ikke eskisterer.

Det er løgn! JEg har aldri hevdet at Tesla ikke har problemer med fantombremsing! 

 

Endret av Kahuna
  • Liker 1
Lenke til kommentar
keramikklampe skrev (3 timer siden):

Jeg tror du er mer kompetent enn meg innenfor dette området, men tror/mener det ikke utelukkende slik at å bruke to sensor typer er mer ressurskrevende enn å bruke kun kamera. Har litt oppfatning at det er også motsatt til tider, at om Tesla hadde akseptert LIDAR ville de muligens ha kommet lengre i autonomi målet.

Ser for mer at LIDAR er er relativt simpelt system, som gir hard data med høy tilregnelighet. Å utvikle ett kamera system som også skal gjøre det samme som en LIDAR må vel være mer komplisert og resurs krevende enn å bare implementere en LIDAR og bruke dens data til hva det er verdt. Dette er såpass presis og ferdig utviklet data at Tesla's utviklere kunne fått litt pusterom og fokusert på å lage ett bra kamera system, enn å stressende og stadig måtte utvikle krevende software for å kompensere for svakhetene kameraene har med å gjøre jobben til en LIDAR. 

Det er overraskende hvor mye man kan få til med kamera. Kom over en tråd på et forum hvor en kar skulle lage en flygende drone styrt av en Raspberry-pi som skulle bruke stereokamera for navigasjon og kollisjonsdeteksjon. Kode for å lage 3d-informasjon ut fra stereokamera finnes som opensource og på det tidspunktet jeg kom over tråden hadde han økt frameraten på programmet med en faktor 30 eller no ved å gå fra python(tror jeg) til C og da hadde han frameraten han trengte for å styre dronen i realtime. Når en amatør kan klare noe sånt på fritiden kan man lure på hva proffene får til. ;)

LIDAR gir ikke nødvendigvis vesentlig dårligere(eller bedre) data enn kamera men bilen må fortsatt forstå dataene og sammenlikne det med andre kilder(kart, radar) og jobben med å avgjøre hva som er riktig er ikke triviell. Det vil si, det finnes helt sikkert mange eksempler hvor det *er * trivielt å avgjøre hvilken kilde man skal stole på men det er ikke de trivielle eksemplene som lager fantombremsing.

  • Innsiktsfullt 1
Lenke til kommentar
Kahuna skrev (27 minutter siden):

LIDAR gir ikke nødvendigvis vesentlig dårligere(eller bedre) data enn kamera men bilen må fortsatt forstå dataene og sammenlikne det med andre kilder(kart, radar) og jobben med å avgjøre hva som er riktig er ikke triviell. Det vil si, det finnes helt sikkert mange eksempler hvor det *er * trivielt å avgjøre hvilken kilde man skal stole på men det er ikke de trivielle eksemplene som lager fantombremsing.

Det er jo rimelig stor forskjell i måten man må finne ut av det på. LIDAR gir direkte informasjon ved detektering av lys gjennom tid og ergo avstand. CMOS må tolkes i mye større grad. Eneste firma som prater om dette problemet er Tesla. Hos absolutt alle andre AV utviklere, så er ikke dette et problem tydeligvis, og samtlige bruker CMOS og LIDAR om hverandre. 

Hos Tesla så bruker de LIDAR for å sjekke om CMOS tippingen er korrekt. Sensor-informasjon som brukes til "ground truth" for å garantisjekke et annet system har neppe de problemene du tar opp. 

  • Liker 1
Lenke til kommentar
oophus skrev (10 minutter siden):

Det er jo rimelig stor forskjell i måten man må finne ut av det på. LIDAR gir direkte informasjon ved detektering av lys gjennom tid og ergo avstand. CMOS må tolkes i mye større grad. Eneste firma som prater om dette problemet er Tesla. Hos absolutt alle andre AV utviklere, så er ikke dette et problem tydeligvis, og samtlige bruker CMOS og LIDAR om hverandre. 

Dem om det. Om Kamera og LIDAR viser det samme kan du kutte ut en av dem. Om de viser forskjellig må du ha en fornuftig måte å håndtere forskjellene på. All den tid *ingen* har nådd full autonomi ennå kan vi heller ikke si at den ene eller andre måten er 'riktig'.

oophus skrev (11 minutter siden):

Hos Tesla så bruker de LIDAR for å sjekke om CMOS tippingen er korrekt. Sensor-informasjon som brukes til "ground truth" for å garantisjekke et annet system har neppe de problemene du tar opp. 

Så Tesla bruker LIDAR i test.. Det går sikkert en fyr rundt med laseravstandsmåler og måler opp testløypa også uten at det er et argument for at han skal sitte på i ferdige biler. Poenget er at testutstyr benyttes for å verifisere at det som havner i produksjon holder mål, det er ikke noe poeng i seg selv at testutstyret skal inn i de endelige produktene.

  • Innsiktsfullt 1
Lenke til kommentar
Kahuna skrev (46 minutter siden):

Det er overraskende hvor mye man kan få til med kamera. Kom over en tråd på et forum hvor en kar skulle lage en flygende drone styrt av en Raspberry-pi som skulle bruke stereokamera for navigasjon og kollisjonsdeteksjon. Kode for å lage 3d-informasjon ut fra stereokamera finnes som opensource og på det tidspunktet jeg kom over tråden hadde han økt frameraten på programmet med en faktor 30 eller no ved å gå fra python(tror jeg) til C og da hadde han frameraten han trengte for å styre dronen i realtime. Når en amatør kan klare noe sånt på fritiden kan man lure på hva proffene får til. ;)

LIDAR gir ikke nødvendigvis vesentlig dårligere(eller bedre) data enn kamera men bilen må fortsatt forstå dataene og sammenlikne det med andre kilder(kart, radar) og jobben med å avgjøre hva som er riktig er ikke triviell. Det vil si, det finnes helt sikkert mange eksempler hvor det *er * trivielt å avgjøre hvilken kilde man skal stole på men det er ikke de trivielle eksemplene som lager fantombremsing.

Hvorfor tror du at Tesla skal velge hvilken av kildene den stoler på, i stedet for å kombinere begge?

Apple sin True Depth er ikke en ren LIDAR eller RADAR, altså om man skulle ta en forholdsvis sammenligning: moderne LIDAR eller AESA radar kan ulikt True Depth skape en 100% nøyaktig 3d modell helt alene, gitt den oppløsningen de har. De kan brukes til å se/ifentifisere ting helt for seg.

Derimot det True Depth (og andre slike systemer) gjør er å ha et meget basic dybdebilde  som da forbedrer kamerabildet ikke ved å legge inn detaljer - men bare gi en røflig forståelse av dybdd/avstand av de detaljene man allerede ser.

Å avskrive den ene eller det andre er som å si at man trenger armene men ikke øyne eller omvendt, så klart har man behov for begge.

Denne svadaen mot radar (eller LIDAR) dom kom opprinnelig fra artikkelkommentarene til söta bror ja ja men san hur konstigt med Tesla, jag har den rätte lösningen er rett og slett svada. Å ta stikk til Tesla blir som å si at man er bedre enn Tyson - lett å snakke om det til man faktisk skal walk the walk.

Lenke til kommentar
Kahuna skrev (51 minutter siden):

Om Kamera og LIDAR viser det samme kan du kutte ut en av dem.

Nei? De vil vise det samme 99% av tiden, og det er akkurat det man ønsker å se. Sikkerhet kalles det, og det tillater at man kan ha glares mot camera mens LIDAR ser, og snøføyke lavt mens kamera ser osv i topp. 

Man ønsker i tillegg å kombinere de ulike datapunktene. 2D data fra CMOS er ypperlig fordi de har kontraster og farger.  AI pixel recognition som altså kikker på disse kontrastene og formene for å bestemme hva slags type objekt man kikker på er fint. Men når man i tillegg kan måle avstander over denne informasjonen, så klarer man ikke ta feil av størrelse og hvor i koordinatene objektet befinner seg. 

CES 2022 har jo ei ypperlig test som viser ei Tesla med og uten LIDAR fra Luminar. Det burde være åpenbart der at det å inkludere LIDAR løser et vanskelig problem. 

Kahuna skrev (51 minutter siden):

Om de viser forskjellig må du ha en fornuftig måte å håndtere forskjellene på. All den tid *ingen* har nådd full autonomi ennå kan vi heller ikke si at den ene eller andre måten er 'riktig'.

Det er en haug firma som har nådd nivå 4 robotaxier og tjener penger på dem allerede. Det betyr at de har vært igjennom søknadsprosessen og "bevis" prosessen allerede. Nivå 5 er tøys og tull, og iikke noe noen vil klare å få til. Det vil heller ikke være økonomisk gunstig å forsøke å få til nivå 5 når man har nivå 4. Forskjellen opp mellom nivå 4 og 5 handler kun stort sett om sikkerhetssystemer. 

Kahuna skrev (51 minutter siden):

Så Tesla bruker LIDAR i test.. Det går sikkert en fyr rundt med laseravstandsmåler og måler opp testløypa også uten at det er et argument for at han skal sitte på i ferdige biler. Poenget er at testutstyr benyttes for å verifisere at det som havner i produksjon holder mål, det er ikke noe poeng i seg selv at testutstyret skal inn i de endelige produktene.

Nei? De tester kontinuerlig om VIDAR algoritmene mot OEDR holder mål mot hva man får gjennom LIDAR.

Endret av oophus
  • Innsiktsfullt 1
Lenke til kommentar
nessuno skrev (13 minutter siden):

Hvorfor tror du at Tesla skal velge hvilken av kildene den stoler på, i stedet for å kombinere begge?

Om solen skinner på et av termometrene på huset mitt kan jeg ikke lenger bruke det for å finne lufttemperaturen, jeg kan altså ikke *kombinere* måleverdien med det termometeret som står i skyggen, jeg må *forkaste* den. På natten derimot kan jeg kombinere verdiene fra begge termometrene for å få et mer nøyaktig resultat. Å finne ut hvilke situasjoner man kan kombinere måleverdier og i hvilke situasjoner man må forkaste målinger er ikke trivielt. 

nessuno skrev (27 minutter siden):

Å avskrive den ene eller det andre er som å si at man trenger armene men ikke øyne eller omvendt, så klart har man behov for begge

LIDAR og kamera har stor overlapp i funksjonalitet, nær på 100%. Når Tesla i sin tid forkastet LIDAR var det på grunn av pris og størrelse. Når LIDAR-sensorer nå har blitt mindre og billigere er ikke det samme som at de er gratis. Den største kostnaden er å integrere dem på en fornuftig måte i en bil som allerede har et fungerende sensorsett. For at det skal gi mening må LIDAR gi merverdi i forhold til å kun ha kamera og jeg er ikke sikker på at denne merverdien vil forsvare innsatsen.

nessuno skrev (36 minutter siden):

Denne svadaen mot radar

Jeg har ikke personelig noe i mot radar. Den gir funksjonalitet ut over det kamera eller LIDAR kan. Når Tesla kuttet det ut på det amerikanske markedet handlet det nok først og fremst om komponentmangel. 

  • Liker 3
Lenke til kommentar
Kahuna skrev (18 minutter siden):

For at det skal gi mening må LIDAR gi merverdi i forhold til å kun ha kamera og jeg er ikke sikker på at denne merverdien vil forsvare innsatsen.

Den gjør jo det for 99% av de som faktisk utvikler AV teknologi? Formålet ditt må jo ligge på om det er verdt det for Tesla alene som allerede har trått feil innenfor formålet og lovnadene om at 100% av bilene solgt etter 2016 har HW klart for nivå 5, noe som jo er tullerusk å si. 

Tar Tesla straffen sin, kaster ut litt penger og starter litt på nytt med å inkludere ei bedre HW og sensor suite, så er det trivielt å kaste inn LIDAR. Det finnes nok av open source kode for dette der ute. Mye av VIDAR systemene Tesla allerede har implementert kommer fra nVidia og Intel som har sluppet koden sin. 

Lenke til kommentar
oophus skrev (1 time siden):

Det er en haug firma som har nådd nivå 4 robotaxier og tjener penger på dem allerede. Det betyr at de har vært igjennom søknadsprosessen og "bevis" prosessen allerede.

HVorfor kjører ikke biler fra Tesla, Volvo, Audi, Mercedes osv rundt med nivå 4 løsninger da? Kanskje disse løsningene du snakker om ikke kan brukes på det generelle veinettet?

  • Liker 3
Lenke til kommentar
oophus skrev (13 minutter siden):

Den gjør jo det for 99% av de som faktisk utvikler AV teknologi? Formålet ditt må jo ligge på om det er verdt det for Tesla alene som allerede har trått feil innenfor formålet og lovnadene om at 100% av bilene solgt etter 2016 har HW klart for nivå 5, noe som jo er tullerusk å si. 

Tar Tesla straffen sin, kaster ut litt penger og starter litt på nytt med å inkludere ei bedre HW og sensor suite, så er det trivielt å kaste inn LIDAR. Det finnes nok av open source kode for dette der ute. Mye av VIDAR systemene Tesla allerede har implementert kommer fra nVidia og Intel som har sluppet koden sin. 

Som vanlig har du en voldsom iver til å 'bevise' at Tesla ikke har peling på hva de driver med..

Hvilken merverdi vil LIDAR gi Tesla? Tror du virkelig kostnaden med å integrere LIDAR i bilene vil være neglisjerbar? 

  • Liker 3
  • Hjerte 1
Lenke til kommentar
Kahuna skrev (6 minutter siden):

Som vanlig har du en voldsom iver til å 'bevise' at Tesla ikke har peling på hva de driver med..

Hvilken merverdi vil LIDAR gi Tesla? Tror du virkelig kostnaden med å integrere LIDAR i bilene vil være neglisjerbar? 

I følge Tesla så skulle diisse bilene tjene inn 300 000 kroner i året som robot-taxi(allerede i 2020). Hvis det er en LIDAR som skal til for å få til det så kan den være ganske så dyr,

  • Liker 1
Lenke til kommentar
uname -i skrev (Akkurat nå):

I følge Tesla så skulle diisse bilene tjene inn 300 000 kroner i året som robot-taxi(allerede i 2020). Hvis det er en LIDAR som skal til for å få til det så kan den være ganske så dyr,

Med mindre du kan påvise at det kun er LIDAR som skal til for å gjøre robotaxier til realitet er den kommentaren kun trolling.

  • Liker 3
  • Innsiktsfullt 1
  • Hjerte 1
Lenke til kommentar
Kahuna skrev (Akkurat nå):

Med mindre du kan påvise at det kun er LIDAR som skal til for å gjøre robotaxier til realitet er den kommentaren kun trolling.

Du snakket om kost og tjener man inn 300 000 i året på robot-taxi så spiller det ingen rolle om LIDAR koster 50 000 kroner.

Men du får bare holde på dumskapen om at mer informasjon fra sensorer er dumt. 

  • Liker 1
Lenke til kommentar
uname -i skrev (2 minutter siden):

Du snakket om kost og tjener man inn 300 000 i året på robot-taxi så spiller det ingen rolle om LIDAR koster 50 000 kroner.

Men du får bare holde på dumskapen om at mer informasjon fra sensorer er dumt. 

Jeg spør igjen. Vil LIDAR gjøre robotaxier til en realitet? Har du noen mening om det eller bare troller du om Tesla igjen?

  • Liker 2
  • Innsiktsfullt 2
Lenke til kommentar
14 minutes ago, Kahuna said:

Hvilken merverdi vil LIDAR gi Tesla?

Merkelig diskusjon. Det blir som å prosjektere et kjemisk prosessanlegg og på forhånd bestemme seg for å kun bruke trykk eller temperatur-transmittere for å overvåke prosessen. Man må selvfølgelig bruke sensorer som gir den informasjonen man trenger.

Når det gjelder dagens "selvkjøring" er den på nivå med "full mann" og vi har ikke kommet veldig langt...

 

Lenke til kommentar
Kahuna skrev (2 timer siden):

Om solen skinner på et av termometrene på huset mitt kan jeg ikke lenger bruke det for å finne lufttemperaturen, jeg kan altså ikke *kombinere* måleverdien med det termometeret som står i skyggen, jeg må *forkaste* den. På natten derimot kan jeg kombinere verdiene fra begge termometrene for å få et mer nøyaktig resultat. Å finne ut hvilke situasjoner man kan kombinere måleverdier og i hvilke situasjoner man må forkaste målinger er ikke trivielt. 

Du blander litt hummer og kanari her: det var ikke spørsmål om redundans, men forbedring av situasjonsforståelsen basert på begge typene sensorer.

Eksempelet ditt hadde gjaldt utelukkende hvis bilens OS var i tvil hva den faktisk ser og om det utgjør en fare. Eksempelet ditt med termometer: om la oss si frontkamera blendes av noe totalt usannsynlig grunn, kan LIDAR/RADAR fortsatt "se" hva som er foran. Tror neppe Teslaen tror at siden fremre kamera er 100% mettet med lys - mens de andre ikke er det - at en atombombe gikk av foran den. Men nettopp der man skal få noe annet enn bilde ut av sensorene - så supplerer LIDAR/RADAR med geometri rundt bilen. 

Måten du anser det på er at det ene er backup for det andre... jeg er nokså sikker du tar feil. De er ikke backup for en annen, men helt separate sensorer som registrerer helt forskjellige ting.

 

Og når alt dette er sagt, så synes jeg RADAR>LIDAR. Årsaken til dette er at LIDAR kan faktisk blendes... ikke minst av solen, siden uansett om den holder seg til en eller annen snever nm bølgelengde så har solen samtlige av de som den sender ut. En annen sak er at ingen radarer er 100% låst til frekvensen sin - de kan kjempefint operere innenfor flere. Eksempelvis være "10GHz" men fungere fint 10-10,1GHz med for eksempel kanalbredde på 0,001 pluss signalmodulering slik at den uten tvil helt 100% sikkert vet at det den ser etter er egne signaler som reflekteres, og ikke noe annet. Blant andre fordeler er også det at radar kan fint se gjennom tjukkeste røyken, påvirkes ikke så mye av smuss på bilen etc.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...