Gå til innhold

oophus

Medlemmer
  • Innlegg

    13 976
  • Ble med

  • Besøkte siden sist

  • Dager vunnet

    56

Alt skrevet av oophus

  1. oophus

    Tesla - kaféen

    De er ikke komplette nei, noe som jo ytterligere gjør saken teitere. NHTSA har jo I tillegg sagt at Tesla rapporterer kun en brøkdel av kollisjoner til dem. En stor majoritet kommer fra politi. Rart med tanke på OTA funksjonaliteten. 😅
  2. oophus

    Tesla - kaféen

    Er ikke så mye hemmeligheter å spore fra det NHTSA etterspør og rapporterer om. Men Tesla ønsker ikke å havne i riktig kategori hvor man sammenlignes mot andre Robotaxier. Om Tesla hadde gjort det bra her, så ville dette vært en gratis PR kampanje, men det ønsker dem altså å ikke være. Ettersom man da kunne ha sammenlignet f.eks Waymo statestikken over tid fra de startet mot Tesla. Ikke akkurat stor sannsynlighet for en Tesla-akjse pump.
  3. oophus

    Tesla - kaféen

    Siden Tesla prøver å tvinge NHTSA til å ikke lansere dataene fra denne lanseringen, så sier kanskje det nok om hvor bra det egentlig går.
  4. oophus

    Tesla - kaféen

    Hvis du har rett og Tesla velger å plassere en person kun fordi de skal bevise at FSD kjører selv, mens de MÅ ha en person der for sikkerhet, så ja... Tenk litt ekstra på det.
  5. oophus

    Tesla - kaféen

    Ja, godt mulig tidslinjen var på ca 1 år. Klokken har nå i det minste startet.
  6. oophus

    Tesla - kaféen

    Godt vi er enige i deler av dette da. Jeg er spent på tidslinjen som de vil legge seg på. Om de ikke skal få mye negativ omtale, så burde vi se førerløse biler innen 6 måneder. Det er jo det Waymo, Uber etc fikk til når de testet robotaxier, så det burde ikke ligge noe i veien for det mot reguleringer, da de allerede burde være presidens for det ved å vise mot Waymo og Uber.
  7. oophus

    Tesla - kaféen

    Hehe, vi er nok enige der, såfremt du ikke er flat earhter? Men litt rart å sammenligne flat earth og månelandingene med såpass mye data bak dem mot dette hvor Tesla villeder folk med vilje. De kunne jo bare ha åpnet munnkurven til sjåførene som nå ikke får lov til å si stort eller svare på spørsmål.
  8. oophus

    Tesla - kaféen

    Joda, han bare bekrefter munnkurven de har om såpass enkle ting som hva de gjør med håndtaket på siden der og hvorfor samtlige av dem holder der hele tiden. I tillegg til å bekrefte at dette er 100% amatørtime. De kontrollerer altså bilen fra skjermen, og det håndtaket fremfor å bare sitte bak rattet hvor de hadde hatt mye bedre oversikt og kontroll på ulike situasjoner.
  9. oophus

    Tesla - kaféen

    Ok, så 100% helt og holdent amatørtime altså. Både fra Tesla og de nå kjøpte og korrupte delene av NHTSA som er igjen fra DOGE som jo samarbeider med ulike DMV seksjoner.
  10. oophus

    Tesla - kaféen

    Hæ? Det er vel ingen myndighet som har krevd at sikkerhetspersonen sitter på passasjersiden av bilen? Hos Waymo og Uber så satt dem bak rattet, noe som vel er rimelig logisk om formålet er sikkerhet og tid brukt fra oppdaget feil til førerinnput til å få korrigert feilen?
  11. oophus

    Tesla - kaféen

    Ja, er ikke den i orden ennå mot bilene? Det gir null mening forutenom optiske illujsjoner å plassere en person på passasjersiden. Og om de kontrollerer FSD ved å åpne døra, eller hva pokker de gjør og grunnen til at de tar til seg den samme stillingen med hånda på håndtaket hver gang bilen gjør noe "spennende" så er jo dette bare tull. Du må jo du også være enig i?
  12. oophus

    Tesla - kaféen

    Så lenge Tesla ikke sier noe om det, og har gitt en munnkurv til de som faktisk sitter der, så er det jo ganske suspekt. Rakk dem ikke VR/AR løsningen sin før datoen? Den ble jo pushet noen dager, og er dette resultatet? Om det ikke er noen form for kontroll derifra, så hva er planen? Haste-åpne døra for å tvinge FSD av?
  13. oophus

    Tesla - kaféen

    Men hvorfor ikke bare putte den knappen eventuelt på rattet? Hvorfor installere noe som helst på den siden og så plassere en sikkerhetssjåfør der?
  14. oophus

    Tesla - kaféen

    Er det normalt at ved innførsel av førerløse biler at sikkerhetspersonen sitter der han sitter? Hvorfor ikke bare sitte bak rattet? Hvilke grunner har man egentlig til å plassere personen der, og hvilke tiltak må man gjøre for å rettferdiggjøre den avgjørelsen? Om han skal kunne ta over for bilens feil, så er det da virkelig kjappere å gjøre dette fra vanlig sitteposisjon bak rattet, spesielt om man ikke har noen andre kontrollsystemer fra der man sitter. Så siden han sitter der han faktisk sitter, er det så "sykt" å anta at de alle sammen holder på samme posisjon inkludert fingrene sine av en grunn?
  15. oophus

    Tesla - kaféen

    Hvis de sitter og har kontroll gjennom å holde på akkurat samme vis alle sammen, så ville vel det vært godkjent av trafikkmyndigheter? Hvorfor skulle det vært annerledes vs det å godkjenne f.eks steer-by-wire med andre kontrollmekanismer? Det ligner jo tross alt noe slikt en handikappet person kan få godkjent ombygging av sin bil på for å kunne bruke den forutenom vanlig ratt og pedaler
  16. oophus

    Tesla - kaféen

    Hvorfor sitter det en fyr på passasjersiden av bilen og ikke bak rattet? Hadde folk reagert om Tesla som så mange andre trengte folk bak rattet i starten? Hvordan fjernstyres bilene? Er det hovedsaklig VR/AR, eller har de installert haptiske følere på passasjersiden av bilen? Det er flere og flere som nå stusser over at de forandrer grepet sitt når bilen virker til å være litt "usikker" i det den holder på med for noe, og alle holder med samme grep der. Har de installert noe greier der, så er jo det en retning de fysisk har valgt. Er det fordi VR/AR løsningen ikke er sikker ennå (ref stillingsannonsen) og vil illusjonen gå fra dette til en førerløs bil med AR/VR kontroll kontinuerlig om 6 måneder? Jeg trur at feilene skjer som normalt, men her har man byttet bort input på pedaler og ratt til input på passasjersiden. Hvis så er tilfellet så er dette et enormt innslag av svindel. Spesielt om dette senere blir byttet bort med 1 til 1 bil og VR/AR sjåfører.
  17. oophus

    Tesla - kaféen

    Om FSD softwaren er lik, så brukes det jo ofte å aktivere en mer "aggressiv" ferdsel gjennom gasspedalen når bilen er litt usikker ut kryss o.l. Om testsjåføren ikke sitter bak rattet for å utføre det behovet, så kan jo det forklares med at bilen uansett styres med et VR/AR oppsett. Da er det kanskje greit at testpersonens eneste oppgave er "nødknapp" funksjon. Vell, bortsett fra at det er en helt håpløs versjon av "robotaxi". Om Tesla fans har klaget over Waymo sin løsning siden den ikke kan skaleres, så er jo dette mye, mye verre.
  18. Jøss, jeg trudde du kødda tidligere, man jaggu... Mennesker inkluderer også barn. Sannsynligheten for at en barn løper ut i veien er betydelig større enn voksne folk. Det å skulle forandre på trafikkregler fordi noen roboter kan finne på å kidnappe folk i en bil er litt søkt. Biler skal også forsøke å forhindre kollisjon med dyr, så det er nok enklere å behandle alt bevegelig som akkurat det. Bevegelige, usikre objekter.
  19. Ikke ifølge folk som kjenner han. For eksempel: (22) Post | LinkedIn
  20. Ifølge de som har jobbet med, under og kjenner han, så har han nok gått for langt ja.
  21. Den er vel definert som et "pioneerprosjekt", så selv om det ikke gav like så mye mening for 50/50 bruk på den, så tvinger man inn bruken for å hente data rundt teknologitesting og erfaring på prosjektet. Spesielt mot regelendringer som måtte til før man i det hele tatt kan akseptere hydrogen som en energibærer. Blir litt samme logikk som de gjorde i ~2000 når LNG skulle testes og regelverk skulle formes for at LNG skulle kunne brukes.
  22. Er dessverre lite bilde og film tilgjengelig av meg hvor jeg ikke klarer å holde fokus, faller inn og ut av konsentrasjon og generelt har tegn som viser at jeg er møkka stein på ett eller annet slik det er av Elon Musk.
  23. Tesla skam handler jo stort sett om Musk. Det at han er narkoman og hopper i tirader av idioti i full rus følger nok med å hører hjemme i en tråd som jo omhandler om grunner til at det følger skam for enkelte å kjøre en Tesla.
  24. oophus

    Tesla - kaféen

    Fullstendig feil og attpåtil idiotisk. Man kan være proaktive rundt mulig problemområder som f.eks forbi busser eller stoppskilt. Eller mener du at systemet ikke kan identifisere busser eller stoppskilt? Isåfall, hva i allverden gjør systemet ute på veiene? Man kan også aktivere en "handover" når AEB er blitt aktivert, noe vi jo ser bevis på at den blir i videoene mot barnedukken. Teslaen går til og med til en full stopp grunnet AEB, før FSD tar over og kjører igang igjen, og kjører over barnedukken med bakhjulene. 100% ekstremt dårlig definert ODD.
  25. oophus

    Tesla - kaféen

    Nivået 2 inkluderer også ODD, så det er du som mister poenget. Dette er FSD, et system som later til å skulle bli "full self driving". Og FSD's ODD er designet som om det opereres ved nivå 4. Driver Misuse vs System Design If the system did not warn the driver or disengage when out of ODD, that’s a system design flaw. If the driver ignored warnings or over-relied on the system, it might be ruled as operator error. Det er Teslas vage ODD som gjør at de får kritikk rettet mot seg. Det ville vært null problem for dem å forhindre bilen fra å kjøre igjen etter at AEB er blitt aktivert, men de velger altså å tillate FSD å ta over igjen etter at AEB er aktivert. Siden de sliter med større biler og motorsykler, så kan de også inkludere dette i "handover" strategien frem til systemet er sikkrere, men de velger altså å ikke gjøre dette. FSD ML opplæringen tjener på feil ettersom det er det de trener på. Så kanskje det er grunnen til ekstremt mange designfeil innenfor systemenes ODD? Hva annet kan det være? Hvorfor unngår de å fikse problemene, eller rettere sagt, hvorfor har dem ikke løst slike problemer ennå selv etter mye dårlig PR fra O´Dowd i beste sendetid på selveste Super Bawl i nå over 3 år siden 2023? Er det fordi de ikke klarer? Er det fordi det å filtrere ut problemene fra systemens ODD stopper innhentingen av data? Så mens Waymo trener på mest mulig simuleringer, så trener FSD på både systemfeil og brukerfeil, mens de har definert FSD som nivå 2 innenfor ODD tilsvarende nivå 4 slik at brukerfeil trår over systemfeil i 99%+ av tilfellene. Du mener altså at det ikke er problematisk, mens folk som Dan O´Dowd mener at dette burde folk bli klar over. Ettersom slike design feil vil før eller siden føre til eksempler som illustrert i videoen. Folk vil la FSD kjøre forbi skolebusser og la den få velge farten selv med drepte barn som et mulig resultat.
×
×
  • Opprett ny...