Gå til innhold

oophus

Medlemmer
  • Innlegg

    13 850
  • Ble med

  • Besøkte siden sist

  • Dager vunnet

    56

Alt skrevet av oophus

  1. Selvfølgelig ikke, og jeg antar flesteparten politianmelder hendelser. Dog jeg kan fremdeles forstå at folk reagerer og utfører hærverk. Demokrati og tapet av det er det mange rundt om i verden som har kjent på. Det er også ekstremt mange som merker konsekvensene av det Trump og Musk gjør og holder på med. Folk som har mistet jobber, som sliter økonomisk etc vil nok ha et større og større hat mot disse klovnene, og da gjør man jo det lille man kan for å skade dem tilbake. For noen så er det hærverk, selv om det er ulovlig.
  2. 1. Når har jeg skrevet at jeg ikke godtar folk som ikke har samme interesse som meg? 2. Du oppholder deg på et forum. Du kan når som helst la være å involvere deg i diskusjoner. 3. Jeg har aldri mast på deg for at du skal boikotte Tesla. Jeg sier bare at det er forståelig at folk reagerer og velger å boikotte Tesla.
  3. Men du skjønner ikke hvorfor andre mennesker kan bry seg i hva han gjør? Kanskje oppdatere deg litt i hva han gjør og har gjort, slik at du kanskje forstår at folk reagerer? Det at verdens rikeste mann involverer seg i valg i andre land, kjøper seg tilgang til regjeringen i USA, betaler folk for å velge etc etc er problematisk.
  4. Elon Musk lever av lånte penger med sine Tesla aksjer som vektstang. Om man svekker Tesla og tilhørende aksjer, så svekker man Elon Musk direkte. Så lenge han er ute etter å knuse demokratier så er det ikke så rart at folk ser litt rart på nordmenn som kjører rundt i nyere Tesla modeller.
  5. oophus

    Tesla - kaféen

    Nei, hvis du mener at de aldri skal løse selvkjøring ovenfor SAE level 2, så trenger dem jo ikke det. Trur du skal bruke din Grok og undersøke hva en CMOS kan og ikke. Den leverer ihvertfall ikke noe dybdeinformasjon. Hvis kamera fra før av kan brukes for å finne ut av dybde, hvorfor må det etterprøves med en sensor som faktisk måler dybde? Du ser altså ikke ironien i det?
  6. oophus

    Tesla - kaféen

    Hvorfor må det valideres med sann dybdeinformasjon trur du? 😅
  7. oophus

    Tesla - kaféen

    Ville det ikke vært naturlig at de sendte inn søknader for å teste autonome biler i trafikken slik en må i de fleste land da isåfall? Eventuelt forandre den ordlyden for FSD hos DNV? Så poenget er det samme som jeg skrev? Joda, gjør testen dårligere og fokuser kun på den enkleste testen så klarer den nok det.
  8. oophus

    Tesla - kaféen

    Verdien til dataene som den generelle Tesla genererer er nok ikke så stor i forhold til data som hentes inn gjennom disse:
  9. oophus

    Elbil-tråden

    Hvorfor sier du ting som ikke stemmer? Man er ikke avhengig av å mappe ting på forhånd, men når man prater om sikkerhet og autonome biler blant folk og vanlige trafikanter så er det jo en enorm fordel å nettopp mappe på forhånd. Men det er jo ikke noen av sikkerhetssystemene som beror seg på mappingen, alt det der foregår i sanntid. Angående bruk av Lidar for mapping i sanntid, så kan du jo undersøke DARPA Grand Challenge, som gjorde slikt allerede i 2004. Som igjen resulterte i en haug av firma, blant annet Googles selvkjørende satsning. Hele grunnen til at Elon Musk i det hele tatt kjøpte teknologi fra Mobileye.
  10. oophus

    Tesla - kaféen

    Ikke ifølge Tesla selv. Tesla Admits Current ‘Full Self-Driving Beta’ Will Always Be a Level 2 System: Emails Altså er det nokså imponerende som et nivå 2 system, men noe mer enn det vil det nok aldri bli uten store forrandringer. Nei, jeg skrev: "Kameraer ser ikke dybde, du må ekstrapolere dybde gjennom software og bruke veldig mye mer regnekraft og tid på det enn hva du måtte ha gjort med radar/lidar som gir dybdeinformasjon i seg selv. " Litt usikker på hva du mener er feil der. Nei, det kan dem ikke. Du må bruke ganske mye regnekraft for å ekstrapolere ut dybde, og enda mer om den skal være pålitelig. Det er jo nettopp derfor slikt kan lures.
  11. oophus

    Elbil-tråden

    Tipper den bommer enda mer om du legger deg ned og kun fører telefonen fremover, fremfor å "pan'e", slik at det ligner mer på utgangspunktet til en bil.
  12. oophus

    Elbil-tråden

    Trudde du kødda istad. 😅 Men det gir vel liten mening å teste med ToF når en Tesla ikke har det? Altså måle med lys og dens refleksjoner for å finne ut av dybde? Har du ikke en eldre telefon et sted da? Samt legg deg gjerne ned på gulvet og sjekk hvor kjapt alt faller sammen med kun video vs et lite trykk på lasermåleren.
  13. oophus

    Elbil-tråden

    Hehe, ja men først må en jo late som om man står på samme sted som "bilen" da. I dette tilfellet så må jo det være punktet til laseren. Så kan du jo undersøke hvor lang video du trenger før resultatet blir bedre og bedre vs det ene trykket du trenger med laseren i tid. 😊
  14. oophus

    Elbil-tråden

    Det finnes gratis software for det. Bruk f.eks Davinci Resolve. Poenget her er jo å hjelpe deg å forstå hva "software" gjør for å få ut dybdeinformasjon fra et kamera mot hvor billig og pålitelig den informasjonen kommer til deg gjennom laser. Men du kritiserer han basert på detaljer som ikke er viktig. Alle Teslaer inkluderer AEB. AEB er heller ikke noe du må skru på eller av, det er alltids på. Som sagt så kan du pøse på med mer hardware og installere superkomputere i en bil om du vil det, men du vil aldri ha samme hastighet og robusthet i punktskyen som du får fra nesten en million laserskudd i sekundet.
  15. oophus

    Elbil-tråden

    Hehe, ja du tenker på neste generasjons kamera slik som denne? 😅
  16. oophus

    Elbil-tråden

    Men det er jo nettopp det vi vet? Det sier seg selv at Lidar vil gi et resultat som kamerabaserte teknologier alene aldri vil være i nærheten av å kunne gi, nettopp fordi det er et direkte mål mellom bil og objekt, og ikke ren tipping med uviss sikkerhet. Prøv selv. Hent frem lasermåleren din og et kamera, og ta bilde/film fra der du står til veggen du skal måle. Hva må du gjøre for å få ut dybdeinformasjon fra ditt kamera vs hva står det på lasermåleren din angående avstand til det du har målt? For å teste begge teknologiene så kan du jo hente et fysisk målebånd som fasit til slutt.
  17. oophus

    Elbil-tråden

    1. Men det er jo absolutt ingen som diskuterer det siste mot formålet rundt selvkjøring? 2. Software + laser er dog bedre for mange oppgaver enn kun software + kamera om formålet er å mappe topologi for eksempel, eller alt som har med dybde å gjøre. For objektgjenkjenning så er nok KI + kamera kjappere, men ikke bedre om man inkluderer punktskyen til en Lidar på topp igjen. Da får man jo fasit på om objektgjenkjenningen faktisk var korrekt.
  18. oophus

    Elbil-tråden

    Det kunne vært HW versjon 20 og FSD versjon 50 uten at det forandrer grunnprinsippene i måten man får ut en punktsky ut fra kamera på, som jo alltids vil være et problem med sine restriksjoner. Uansett hvor mye regnekraft man kaster på problemet, så vil man ligge langt bak tiden og kraften som trengs for å få et bedre resultat og mer korrekt punktsky fra Lidar. Du hopper glatt over hovedpoenget til videoen. Han forklarer kun grunnprinsippene mellom lidar og kamera, og hvorfor lidar er nødvendig for hovedoppgaven hans. Å mappe ei bergogdalbane som ligger i stummende mørke. Dog samme egenskap viser seg som en morsom ting å vise gjennom bil-testene i tillegg der kamera kan være nok så blind grunnet motlys, tåke, regn, bilde/lerret mm. mot hva man får gjennom lys og refleksjoner som jo Lidar utnytter.
  19. oophus

    Tesla - kaféen

    1. Lett tilgjengelig? Du unngår å svare på det jeg sier gang på gang, han snakker altså om egenskapene til sensorene. Da holder det i massevis å bruke egen bil. 2. Hvorfor det? Han tester og snakker om egenskapene til sensorene. Som sagt så er hovedpoenget i videoen mappingen av en bergogdalbane. Om formålet var å teste ting svært grundig så ville det nok vært bedre å hatt et mye større spekter av tester, men når formålet er å vise samt argumentere for at lidar er verdifult innunder formålet med objektdeteksjon så holder det i massevis å vise de få testene der. Egenskapene til lidar er såpass fordelsaktig at det burde være åpenbart grunnen til at folk flest utnytter dem mot formålet. For Mark Rober som altså laget en video for å vise hvordan han løste problemet med å kunne 3D printe ei bergogdalbane som i utgangspunktet ligger gjemt i mørket, så holdt altså disse testene. Dokka er synlig i punktskyen, det er til og med ei skygge bak den. Igjen så beviser du jo at du ikke har sett videoen?
  20. oophus

    Tesla - kaféen

    1. Fordi det er hans bil slik jeg forstod det, så den er jo lett tilgjengelig? 2. Sluttresultatet hos Tesla etter at man har rådataene fra kameraene er å generere ei punktsky, men det kreves jo en god del på hardware siden å gjøre det, noe som jo er grunnen til at HW3 og nå litt HW4 at de har gått bort fra "redundancy" slik de hadde i starten. Nå må all tilgjengelig kraft være brukt på å løse punktskyen og objektgjengkjenning m.m. Da vil man alltids ha problemet med at det alltids vil være en oppdatering unna fra å løse problemet, selv om problemet er iboende selve teknologien - som jo er hovedpoenget med sammenligningen. Punktskyen fåes tilnærmet gratis gjennom lidaren som man så kan kjøre normale KI oppgaver mot slik man gjør hos "vission only" for "object detection" osv. Luminar bilen har jo også kameraer, så det er ikke slik at man sammenligner lidar mot kameraer, man sammenligner hva lidar gjør for hele systemet. Alle som utnytter lidarer i selvkjørende teknologi inkluderer jo også andre typer sensorer i systemene sine. Så du har ikke sett videoen ennå? Det er jo en test der med nettopp tåke, eller vann? Virker som om du tenker omvendt? Vanndamp, tåke, motlys etc etc er svakhetene til kamera, ikke lidar. Videoen over her viser jo at man ser kanske klart gjennom tåken, mens videoen ikke har særlig å gå på.
  21. oophus

    Tesla - kaféen

    Selvfølgelig, men det krever mye mer å ekstrapolere ei ekstra dimensjon enn å filtrere ei allerede eksisterende punktsky som faller dit naturlig grunnet egenskapene til LIDAR. Men kan du være så snill å se videoen i sin helhet? Jeg antar hele tiden at du forstår hva jeg snakker om siden vi snakker om en video hvor han tar opp egenskapene til LIDAR. Det gir mening fordi det handler om de iboende egenskapene til sensorene... Igjen, man sammenligner egenskapene til sensorene og fremgangsmåtene for å skape ei punktsky. Det spiller ingen rolle hvor gammel sensorene er når man skolerer folk om hvordan de fungerer.
  22. oophus

    Tesla - kaféen

    Main Dashboard Hvis formålet er nivå 2 assist så er det jo lett å bli imponert av FSD. Om formålet er full autonomi så er det ikke det. Kameraer ser ikke dybde, du må ekstrapolere dybde gjennom software og bruke veldig mye mer regnekraft og tid på det enn hva du måtte ha gjort med radar/lidar som gir dybdeinformasjon i seg selv.
  23. oophus

    Tesla - kaféen

    Jeg forklarte også hvorfor resultatet ville vært det samme. Tesla gjør det bra i NCAP, men de har jo tydeligvis NCAP spesifikk kode også, så jeg hadde jo vært litt skeptisk på de resultatene. Men hvorfor fokuserer du kun på vegg-testen? Har du fremdeles ikke sett hele videoen? Det er vel hans bil, og poenget hans er de iboende egenskapene til selve sensorene. Han skal tross alt skape en replika av ei bergogdalbane som ligger i et stummende mørke. Det er som sagt helt umulig med et kamera, han måtte ha en lidar sensor for oppgaven. Samtidig tar han opp egenskapene mot selvkjøring, og han har rett. Testene i seg selv er kun representativ egenskapene til sensorene. Testen er representativ pga han snakker om sensorene. Med din logikk så vil en slik test aldri være representativ, siden det alltids vil komme en ny sensor, og det vil alltids komme ny software.
  24. oophus

    Tesla - kaféen

    Da ville han nok fått stort sett samme resultat. LIDAR fra 2 år tilbake hadde litt mindre oppløsning, men nok i massevis til å skape samme resultater i alle disse 5 testene. Blir kostbart da når alle HW4 må bytte til HW5 senere også? Når skal han svelge kamelen og innse at "vission only" ikke leder til full selvkjøring? Som sagt så viser videoen med flere da denne testen er blitt gjort før flere ganger at det ligger iboende begrensninger med å tolke dybde fra data fra et kamera. Dataene gir ikke svaret med to streker under slik radar og lidar gjør. Alle situasjoner hvor bilen skal i full nødbrems uten førerinnputs er automatisk AEB. AP og FSD er underlagt AEB og inkluderer bare det i benevnelsen. Hvordan feilet han? Jeg syns han fint forklarer hvordan LIDAR ser objekter mot "vission only" og viser med noen tester et representativt resultat, sammen med hovedpoenget i filmen - å mappe ei bergogdalbane i stummende mørke. Du kan fint få et bedre resultat med et bedre system, mer maskinkraft, mer høyoppløselige sensorer, men man vil aldri nå samme resultat som med LIDAR for disse testene nettopp pga den iboende egenskapene rådataene har fra sensorene. Det er alltids feilkilder i ei punktsky, men punkter som ikke gir mening filtrerer man bort. KI utnyttes her i større og større grad akkurat som innunder "vission only". Men hele fordelen er jo at punktskyen allerede eksisterer i tre dimensjoner og ikke kun i to hvor man så må ekstrapolere ut ei ekstra dimensjon. Da snakker vi mulighetene for enorme feilkilder.
  25. oophus

    Tesla - kaféen

    Du burde se videoen ettersom han faktisk sier endel ting som er relevant iforhold til hva han faktisk tester. Det spiller jo ingen rolle om han testet bil X mot bil Y, da det er sensorene han i hovedsak snakker om. 2 år gammel HW og software burde være optimalisert såpass at man dermed ser begrensningene med dem. Er du ikke enig i det? Videoen viser at Tesla er nødt til å gå tilbake på lovnadene sine angående HW3. HW4 har bedre sensorer med litt mer oppløsning, men det er fremdeles milevis hva man får til med en kombinasjon av både CMOS og LIDAR/RADAR. Se videoen du, så tar han opp mye av kritikken du snakker om. Han tester som sagt stort sett AEB, da spiller det ingen rolle om det er AP eller FSD som er på. AEB er på uansett hva man har ettersom det tross alt er en del av sikkerhetssystemet i bilen. Konklusjonen blir altså at AEB er betydelig bedre på biler som inkluderer f.eks LIDAR i tillegg til det som alle uansett har og utnytter, kameraer.
×
×
  • Opprett ny...