Gå til innhold

oophus

Medlemmer
  • Innlegg

    13 765
  • Ble med

  • Besøkte siden sist

  • Dager vunnet

    56

Alt skrevet av oophus

  1. Fartsjustering i svinger kan de jo implementere uten FSD? Det er jo mange av dagens biler som allerede har dette i EU? FSD er vel stort sett "Navigate on Citystreets". Hele poenget der er jo at OEDR får lov til å justere pathingen til bilen underveis med avvik av pathingen du så på når du aktiverte FSD. Så uten den mulighten så har du heller ingen "Navigate on Citystreets" i EU, og ergo FSD?
  2. Skrur dem av "Navigate on Citystreets" så er jo EAP ikke veldig mye annerledes? Her i EU så må jo forandringer i pathing godtaes av sjåføren, så da kan ikke FSD plutselig forandre seg midt i et kryss pga uavklart OEDR f.eks.
  3. Hvorfor ikke bare lese dokumentene man må igjennom for å få teste ei Robotaxi løsning? Da ser du hvem som har systemer som fyller kravene eller ikke. J3018_202012: Safety-Relevant Guidance for On-Road Testing of Prototype Automated Driving System (ADS)-Operated Vehicles - SAE International Hva som er tilgjengelig nå er som sagt ikke noe en kan sammenligne direkte. Nivå 3 funksjonalitetene til Mercedes f.eks må følge mye strengere regler for hva som er lovlig og ikke vs hva Tesla gjør med FSD i "lovløse" US. ADAS reglene mellom EU og US er også ikke like. Dog ryktene tilsier at Mercedes sitt system innen det neste året kan justeres opp fra 60 km/t til 130km/t. Men ODD for når blir spennende å se. Hva som er på "bakrommet" er da synlig gjennom rapporteringene? Dette er en av kravene hos de fleste lokasjoner som har tatt SAE J3018 inn og utviklet ei måte å teste slikt på, på en trygg måte. Så jo, gjennom rapporteringene så vil man kunne se hvem som gjør det generelt sett bedre. Men det er viktig å prøve å sammenligne epler med epler. Et system som kjører kun på hovedveiene som mange av de ulike testerne for lastebiler, vil ha ei enklere vei og generelt sett flere mil per "handover" enn et system som tester slikt midt i byene. Dog sammenligner man Tesla med f.eks Waymo, så ligger Tesla ved 40 miles per disengagement, mens Waymo ligger ved 30,000 miles per disengagement. Hvem trur du utfører OEDR best? Som du ser, så krever alle nivåer over 3 "DDT Fallback". Tesla har ingen. Ergo jobber dem heller ikke med nivå 4 eller 5. For nivå 3 så tipper jeg de heller ikke vil hoppe til, siden de da står til ansvar for dårlig OEDR og påfallende DDT. FSD Beta er milevis unna, og Tesla ville gått konkurs om FSD Beta fikk gjøre som den ville uten menneskelig overtagelser. Har jeg gjort det? Du samler sammen SAE J3016 nivåene og mener de ikke betyr noe. Jeg prøver å forklare at du tar feil. L2 kjøpes gjerne av en tredjepart hos de fleste. Disse systemene inkluderer kost og et mål. Målet er å nå ENCAP nivåene av testing. Noe mer koster mer og er ikke nødvendig for full score. Hardware og sensor-suite for full score (5 stjerner) trenger ikke være like omfattende som Tesla sitt L2 system, dog siden Tesla har et mer omfattende system en den generelle L2 systemet der ute, så vil de naturlig nok være over snittet bra. Problemet er at de er kun over snittet bra ved optimale forhold - i forhold der man har lys der man ikke har regn, tåke o.l. L3's hovedforskjell fra L2 er ansvar og hvem som står for den under DDT (Dynamic Driving Task's). Det du snakker om der er OEDR, og det er ingenting som tilsier at Tesla har bedre OEDR enn Mercedes? ODD (Operational Design Domain) er naturlig forskjellig fordi Mercedes befinner seg i Europa, mens det du ser er ODD hos Tesla for US med et hav i forskjell av begrensninger. Skal du se hva Mercedes faktisk kan angående OEDR, så må en kikke på hva de gjør for full autonomi. De jobber blant annet med full autonomi hos lastebiler og den slags, og gjør det godt for selvkjøring der. Alle som tester L3 og oppover må føye seg til regulasjoner som selvfølgelig er designet for å inkludere sikkerhet under testingen. Man må også rapportere om testingen og dermed bevise den slik at man kan fysisk se at systemet har vært sikkert før man kan lansere noe - naturlig nok. Bilene deres gjør mer enn hva Tesla gjør. Men de gjør det altså under SAE J3018's retningslinjer for testing. Du misforstår. Jeg sier at selv Tesla utfører mapping. Det må dem gjøre for å utføre OEDR. Eneste forskjellen mellom Tesla og f.eks Waymo på den biten, er at Waymo lagrer det arbeidet for andre formål. Så som sagt, mapping og ergo HD-Kart er mer eller mindre gratis. Og nei, det tar ikke lang tid heller. Det tok Mobileye 2 dager å mappe alle Japan's hovedveier med et fåtall av biler. Det er en misoppfattelse med opprinnelse i aksje-hausing hos ei viss gruppe tilhørende ei viss bilprodusent at slikt er vanskelig, koster mye, eller tar mye tid. Alt er feil. Tesla lar OEDR tippe i mye større grad og har ei ODD med større risiko vs hva som er normalt. Dette er ikke "ledelse" det er et veddemål med mennesker som innsats, hvor eneste formål er å hause ei aksje. Du kan som sagt ikke sammenligne hva Tesla gjør med sitt L2 system, og hva som kreves for et L4 system uten å inkludere hva som faktisk kreves for et L4 system, noe Tesla ikke har. Det er ikke noe forskjell mellom "generell selvkjøring" og "geofenced" selvkjøring? Alle utnytter "geofencing" av ulik grad - inkludert Tesla, men ODD for Tesla er som sagt mer åpnet og inkluderer mye større risiko. De tillater til og med bilene sine med "vission only" til å kjøre på dårlig belyste veier, selv om kameraer ser dårlig ved et slikt tilfelle. Dette er som sagt ikke en "ledelse". Da er det isåfall "ledelse på høyest risiko". De andre firmaene henter da data på samme måte? Mobileye har f.eks 70 millioner biler der ute med sine systemer. Tesla har produsert 3 millioner biler... Hovedforskjellen rundt de ulike metodene er kvaliteten rundt dataene. Tesla bruker ei 1,2MP kamera og sender bilder og videoer. De andre utnytter bedre kamera og deler bilder og videoer av bedre kvalitet, i tillegg til at de samler "point cloud" data fra radar og lidar sensorer som kan utnyttes til bedre trening mot "AI pixel recognition" trening i tillegg til å gi bedre grunnlag for OEDR ute i flåten. OEDR trening mot "vission only" er avhengig av LIDAR data for å vite at man faktisk trener kamera algoritmene korrekt. Ergo kan du ikke se på flåten av Teslaer med kun kamera sensorer der ute. Du må se på antall Tesla'er som bygger "ground truth" data for sin "vission only" løsning. Hvor mange slike biler har Tesla der ute vs Waymo, Mobileye, Cruise, Argo, Zoox etc? Hvis du ønsker å bli kjørt hjem fra fylla, eller sove på vei til jobben, så må du nok se på AV utvikling, og ikke fokusere så mye på hva Tesla gjør for ADAS og nivå 2. Tesla jobber mot klokken, og bobla vil sprekke rimelig snart. For min del syns jeg det er merkelig at fans fremdeles trur Tesla jobber mot nivå 4 eller 5 så lenge de allerede har definert FSD som nivå 2 til DMV. Hvorfor er dette viktig? Jo fordi ved å definere FSD som nivå 2, så trenger dem ikke rapportere inn uhell (en forandring måtte til her), og de trenger heller ikke bli sammenlignet med virkelige AV firma som faktisk tester nivå 3 til 5. Det hadde dem ikke tålt med sine "40 miles per disengagement" statistikk vs alle de andre som er langt, langt, langt forbi dette stadiet nå.
  4. Europa spør Tesla hva "ODD" for FSD er, og siden denne faller innenfor ADAS, så vil FSD få ADAS begrensningene. Der har du svaret ditt.
  5. Men det vet du absolutt ingenting om. Du må forstå forskjellene i "Operational Design Domain" og begrensninger satt av design der. Man kan ikke sammenligne et system med åpen ODD med mye mer risiko enn et system med mer lukket ODD per design for å tilpasses nivå 3 regler. Hva eventuelt Mercedes kan angående selvkjøring vil ikke være synlig i et begrenset nivå 3 system satt for å få tilgang til markedet over nivå 2 ADAS. Over nivå 2 så vil vi i EU i det minste rulle inn slikt mer segmentert. Alle har de samme målene? Dette markedet er da ikke segmentert ut fra slik markeder generelt sett fungerer. Der det er kjøpekraft og mulighet for å tjene penger på dette, så vil dette eksistere fra alle med muligheten til det. "Generell selvkjøring" er noe alle utvikler mot. Det er ingen som er avhengig av begrensede områder? Begrensede områder er eneste metode for å teste slikt sikkert, og per idag er dette eneste metode å få tilgang til å teste selvkjørende biler uten sjåfører på, når man snakker om offentlige veier. Det finnes ingen annen metode i dag for å garantere backup systemer ved eventuelle feil man vet vil forekomme nå og da.
  6. De ulike nivåene kan ikke kastes bort slik du gjør her. Det er enorm forskjell mellom nivå 2 og nivå 4 for hva som trengs mot ei robotaxi. De nøye kartlagde områdene må til for å i det hele tatt få lov til å slippe ei robotaxi ut blant offentlige folk. Et av kravene er kontinuerlig kontakt gjennom mobilnettverket, så man må mappe mobilnettverket nøyaktig i større grad enn det man kan få fra telecomleverandørene. Kun grunnet sikkerhet. Hvordan skal man ellers ha kontroll over 2 tonn tunge biler der ute som når som helst kan bli forvirret og stanser? Selvfølgelig kan man kartlegge alle veistrekker i hele verdenen? Det er jo det Tesla selv gjør når de utfører OEDR i bilene der man må differensiere mellom stasjonære og flyttbare objekter. Forskjellene er bare at andre utnytter arbeid de allerede har utført. Det å kartlegge er mer eller mindre gratis.
  7. Nei det er feil, da det ikke finnes noen "radarbaserte" systemer. Alle systemer som inkluderer ei eller flere radarar inkluderer også kameraer. Tesla scorer høyt på en test man kan trene mot, samtidig som de stiller til start med flere sensorer og hardware som skal kunne betydelig mer enn hva denne testen utfordrer systemet med. Det burde være en selvfølge at en bil med sensorsuite for nivå 5 selvkjøring scorer bedre enn normalen der normalen er systemer for ADAS. Det er irrelevant hva andre ADAS gjør i tester utenfor systemets ODD. Tesla's ODD er å bli et nivå 5 selvkjøringssystem, og folk trur geniunt at den kan mer enn den kan. Tester som ENCAP ved optimale forhold gjør ikke akkurat saken noe bedre så lenge Tesla beholder PR videoen sin som "paint i black" videoen på sin hjemmeside. Da er det selvfølgelig et enormt problem at AEB ikke fungerer innenfor samme ODD systemet har og loves mot. Om systemet kan ta feil av en bil og en motorsykkel kun grunnet lysforhold, så burde ODD selvfølgelig forhindre aktivering av AP/FSD ved dårlig opplyste veier slik at folk faktisk følger nøyere med. AEB skal uansett alltids være på og gi litt økt sikring der OEDR fungerer, men den er såpass dårlig ennå til at folk dør pga sjåfører som ikke følger med som stoler for mye på systemene. Da spiller det absolutt null rulle at Tesla gjør det godt i ENCAP's test. Det ville kun vært optimalt og et nydelig resultat om systemets ODD var begrenset til forhold tilsvarende ENCAP's test. Den er da ikke "busted"? Om Tesla og Elon Musk virkelig vil legge denne død, så bevis det. Ta utfordringen. Samme test gjort på nytt med bedre oversikt, og samme resultat. Det er da 100% plausibelt at Teslaen kjører ned barnedukker, så lenge de samtidig prøver å kjøre ned syklister og griller? Det finnes ingen "handover" rundt funksjonen med AEB. AEB skal fungerer uavhengig av handover mellom AP/FSD og sjåfør. VW og "andre" er ikke perfekte de heller, men de har heller ikke PR materiale som kan forvirre brukere til å tru at systemet er mer kompetent enn hva det nettopp er. De står heller ikke ovenfor flere tilfeller av overkjørsler slik Tesla er. AEB blir gransket, som jo er det vi diskuterer. Vi ser jo tilfeller der det er plausibelt at AEB mangler ved flere tilfeller. AEB og tilsvarende er som sagt avgjørende for en selvkjørende bil, og klarer ikke Tesla å fikse AEB med dagens hardware og sensorsuite, så klarer dem heller ikke FSD.
  8. Rettelse: Det er en utfordring for kamerabaserte systemer, og det er et problem som kun ADAS tilbydere har med en sensorsuite og hardware designet med kostnader som et av hindre for hva som puttes på vanlige biler. Robotaxier som kjøres rundt om kring idag har flere sensorer, og stillestående objekter er ikke et stort problem der. Er ikke det et problem? Den klarer ikke å definere ei "UFO" og anta fare selv om den ikke klarer å identifisere objektet, og dermed avstand? Vil du ikke si at dette er et enormt problem for et system som skal være autonomt? Hvilke tester har blitt analysert og "busted"? Det ville tatt deg 10 sekunder å scrolle litt rundt i den videoen for å se ulike situasjoner og feil OEDR og dermed manuell overtagelse før en eventuellkollisjon der. 1. Hvorfor skru av systemet? 2. Hvorfor har vi tilfeller der AP er blitt skrudd av uten at AEB aktiveres før en kollisjon? Det må bety at AP selv har sett uhellet, uten at den har klampet bremsene i bunn gjennom AEB som utfører samme OEDR - så hvorfor i all verden skjer dette?
  9. Det er helt greit at ENCAP viste gode resultater for Tesla's AEB under optimale forhold, men det spiller jo ingen rolle hva manualen sier når OEDR feiler? Da feiler AEB også. Det er jo det denne tråden handler om. Biler som kjører ned lastebiler, brannbiler, politibiler, motorsykler etc etc. Du vet jo hvordan maskinlæring fungerer? Stillestående objekter som man har trent mot er enklere å definere og se vs objekter man ikke har trent mot når det gjelder det å definere objekter, plassere dem i koordinatsystemet og reagere mot dem. Videoen du nekter å vise, viser stasjonære objekter som ei svær grill som bilen ikke ser midt i veien. Hva er grunnen trur du?
  10. Trenger det stå spesifikt at AEB skrues av? Det er jo nok av tilfeller der AEB burde ha vært aktivt mens det ikke er det, og AP/FSD skrues av? Her er mange tilfeller med større og større objekter hvor bilen faktisk gir av en alarm, uten at AEB aktiveres. Så noe muffens er det jo i det hele.
  11. Ja, den gikk bra og Tesla er i toppen for akkurat denne testen. Det er dog som sagt viktig å poengtere at sikkerheten er høynet kun ved optimale forhold. Det er farlig om slike tester og resultater gjør at folk blir mer fravikende bak rattet i form av monitorering - ref. motorsyklene som AEB (som NCAP har testet) ikke fungerer mot i mørket. Dette er noe som allerede er blitt bekreftet, ikke bare av NHTSA men også av hackeren Green på Twitter som har analysert hardware fra biler etter kollisjoner. https://static.nhtsa.gov/odi/inv/2022/INOA-EA22002-3184.PDF AEB har oppført seg slik over ei lengre periode, så det er ganske graverende om deaktivering av ADAS i tillegg skrur av AEB. Tilfellet der en Tesla kjører inn i en veltet lastebil på motorveien virker jo veldig rar, siden bilen faktisk nødbremser et lite stykke før det virker som om alt skrues av, og bilen triller hardt inn og kolliderer.
  12. AEB (Automatic Emergency Breaking) er noe som tar prioritet uansett om systemet har AP eller FSD ellers. Dette er et system som skal være underliggende uansett hva annet som er aktivert. Så jo, det har også med FSD å gjøre da FSD ikke er bedre en hva AEB får til ved alle ulike forhold. I en optimalisert test med godt lys, og lite objekter å ta hensyn til, med flere sekunder forvarsel for reaksjon, så scorer Tesla best av de som er blitt testet på denne testen så langt. Veldig flott og fint, men vi skal ikke glemme at Tesla's AEB ikke har bremset for motorsyklister og drept to stykker nå nylig. Altså er ikke en slik test som dette beskrivende for systemet i sin helhet, og man kan ikke stole på slikt for mye. Et annet aspekt av dette er jo hva som sammenlignes. De andre som scorer dårligere scorer dårligere med mindre antall sensorer og hardware som ikke selges for noe annet enn å få fem stjerner i en slik test, og det klarer dem jo stort sett alle sammen. Jeg vil påstå at uttalelser som dette: Er mer på kanten til "molbo" som du kaller det så lenge AEB ikke har aktivert seg selv i møtet med bakparten av motorsyklister nå nylig, helt uavhengig av top score i NCAP testen. Altså kan man ikke dømme alt basert på ei test i optimale forhold, selv om det selvfølgelig er bra at Tesla med hardware for nivå 5 selvkjøring klarer seg godt i den.
  13. De skal bare ta ut biler tilfeldig, og som Trestein nevner, det er normalt at de beste resultatene oppstår mot slutten av teståret. Nye prosedyrer blir innført hver Januar, og slikt følger nok produsentene greit med. Anta altså at biler som testes nå får bedre score en de som ble testet tidligere i året. Det at Tesla scorer bra på en ADAS test med hardware som skal klare nivå 5 selvkjøring burde være åpenbart i optimale forhold. Det hjelper ikke for motorsyklister som har dødd av manglende AEB i mørket.
  14. Sensorer som er uenige er hele poenget med å kombinere dem. Deres input gjennom ei god NN velger det som er rett. CMOS som bremser for ei skygge? Nei, det finnes ingen objekter der - sier radar, så kan man mate CMOS linja med den dataen og dermed velge neste sannsynlighet for hva den ser - ei skygge. etc
  15. 1. Hvorfor vil mer data automatisk gi bedre resultater? Hvor mye data trenger dem egentlig om Chuck ikke gir dem nok? Han kjører det samme krysset i timesvis daglig for å lage innhold til sin egen youtube kanal, og dette har han gjort i månedsvis i tillegg til at Tesla selv har kjørt ned med egne testere. 2. Supercomputere bruker absolutt alle utviklere som ønsker å lage robotaxier. Tesla tester ikke noe system som har "design intent" til å være nivå 4. Da måtte dem ha rapportert om nettopp det. Desto mer svindel er jo hele opplegget ettersom folk som du faktisk trur de vil nå nivå 4 ved et tidspunkt på dagens hardware og fremgangsmetode. Det er umulig så lenge de ikke bygger backupsystemer samt søker om testingen mot det. 1. Alle firma som jobber med autonome kjøretøy har samme mål. Det skal kunne brukes overalt der "Operational Design Domain" setter føringer. Den er som regel begrenset til type kjøretøy og hvor mennesker ønsker å ferde, samt hva de ønsker å betale for det. 2. Hvorfor droppe HD Kart? Det er tilnærmet gratis å utnytte og øker sikkerheten betydelig. 3. Sensorkonflinkt er selve grunnen til å bruke flere typer sensorer. Linse refleksjoner er noe som kan tøyse opp AI pixel recognition algoritmer for flagging av objekter mot OEDR (Object and Event Detection and Response). Er det ikke da kjekt å kunne dobbeltsjekke eventuelle umuligheter mot andre sensorer, slik at man slipper tilfeller der man blander månen med et gult trafikklys? Jo, det er et simpelt kryss. Veiene våre globalt inkluderer tusenvis av slike, og mange mye verre enn dette. Ta deg en tur ned til f.eks Bryssel og kjør litt rundt der, så vil du nok oppleve at dette er barnemat mot hva man ellers må løse.
  16. Hovedforskjellen er nok at Artemis 1 skal til verdensrommet og må kjempe mot g-kreftene på vei dit. Det legger krav mot alt av vekt på fartøyet.
  17. Den tanken er neppe tilsvarende det som er på MF Hydra. MF Hydra skal ikke rundt månen..
  18. Chuck tilfellet burde være bevis nok på at Tesla's "data" ikke er gode nok. Når de over flere måneder ikke klarer å løse et simpelt kryss med all verdens data som han tilbyr daglig, så sier jo det sitt.
  19. Tesla kjører ei rar egen definisjon på noe i beta fasen isåfall.
  20. Stor forskjell mellom hovedårsakene til at det skjer her og der. Tesla sliter med OEDR (object and event detection and response) , mens kartdata står for mesteparten av feilene hos de andre. Slår man hastighetsjustering av fra kartdata så forsvinner også "ghost bremsingen" I stor grad. Slik går ikke når OEDR systemet tar feil av månen og gult lys hos Tesla... Eller baklysene på en motorsykkel som for den tolkes til å være ei bil mye lengre bak i dybden. Man må også sammenligne type systemer. Tesla's system og hardware er lovet å bli et system som kan tjene folk $30k i året. Det skal kunne kjøre seg selv fra kyst til kyst, så hardware må naturlig nok være "bedre" enn hardware som selges som nivå 2 assister ellers. Da er det greit flaut at man må sammenligne et system med en slik "design intent" til systemer som selges og bygges for å være nivå 2 ADAS for å gjøre situasjonen til Tesla bedre. AEB mellom Tesla uten AP, med AP og/eller med FSD er helt likt (såfremt sensor og hardwarepakken er lik). Når dette ikke er tilfredsstillende på bilene på generell basis, og ikke fungerer hos FSD så ser man jo hvor "ståa" ligger mot firma som faktisk allerede er ute med førerløse biler. Fungerende AEB er nødt til å være prioritet nr 1 før man kan slippe en bil ut i det fri uten menneskelig barnepass. Så lenge Tesla ikke løser AEB så løser dem heller ikke FSD. For løser dem AEB hos FSD uten å patche dette over til bilene på generell basis, så kan de få kjeft på lik linje med Ford for Ford Pinto saken. AEB er en sikkerhetskritisk funksjon, og Tesla har null intensjon av å ha en bedre AEB i FSD Beta enn i bilflåten sin ellers.
  21. Kan ikke si jeg kan huske å se at Waymo eller tilsvarende klager på støy. Det er som sagt noe de trener på å ignorere samt en av flere grunner til å ha flere sensorer og også da flere inputs mot et nevralnett. Eneste firma som påstår de jobber med robotaxi teknologi som klager på dette og ikke får det til er Tesla. Rart det der.
  22. Hvorfor er det kun Tesla som ikke får til dette? Er det ikke nettopp dette man har nevralt nettverk for? Hele poenget med å bruke ulike sensorer er jo fordi de utfyller hverandre. Støy har alle sensorer, men det er jo det man trener bort gjennom NN.
  23. Waymo bruker simulering for slik testing. For simuleringen så trengs det mapping, men de lager ikke spesifikke unntak eller regler til spesifikke lokasjoner. Det ville vært umulig å skalere. Så hva sier dette om Teslas fremgangsmetode når de ikke klarer å løse ei spesifikk kryss over mange måneder når det krysset "farmes" kontinuerlig? Waymo er ved 7,200 miles per disengagement mens Tesla er ved 40 miles per disengagement. Typen disengagement er også ikke sammenlignbar i en majoritet av tilfellene. Der Tesla fint kjører seg selv inn i trikker om en disengagement ikke finner sted, så er den typiske Waymo tilfellet mye mindre kritisk. Så jo, Waymo har kjørt millionervis av samme kryss for et problem vi ser her hos Tesla. De simulerer slikt daglig.
  24. Men det er jo det de gjør, om de må ut og teste på et kryss som er nødt til å være et av kryssene de har med mest data ved? Hva sier dette om problematikken ellers?
×
×
  • Opprett ny...