
oophus
Medlemmer-
Innlegg
13 964 -
Ble med
-
Besøkte siden sist
-
Dager vunnet
56
Innholdstype
Profiler
Forum
Hendelser
Blogger
Om forumet
Alt skrevet av oophus
-
Trudde du kødda istad. 😅 Men det gir vel liten mening å teste med ToF når en Tesla ikke har det? Altså måle med lys og dens refleksjoner for å finne ut av dybde? Har du ikke en eldre telefon et sted da? Samt legg deg gjerne ned på gulvet og sjekk hvor kjapt alt faller sammen med kun video vs et lite trykk på lasermåleren.
-
Hehe, ja men først må en jo late som om man står på samme sted som "bilen" da. I dette tilfellet så må jo det være punktet til laseren. Så kan du jo undersøke hvor lang video du trenger før resultatet blir bedre og bedre vs det ene trykket du trenger med laseren i tid. 😊
-
Det finnes gratis software for det. Bruk f.eks Davinci Resolve. Poenget her er jo å hjelpe deg å forstå hva "software" gjør for å få ut dybdeinformasjon fra et kamera mot hvor billig og pålitelig den informasjonen kommer til deg gjennom laser. Men du kritiserer han basert på detaljer som ikke er viktig. Alle Teslaer inkluderer AEB. AEB er heller ikke noe du må skru på eller av, det er alltids på. Som sagt så kan du pøse på med mer hardware og installere superkomputere i en bil om du vil det, men du vil aldri ha samme hastighet og robusthet i punktskyen som du får fra nesten en million laserskudd i sekundet.
-
-
Men det er jo nettopp det vi vet? Det sier seg selv at Lidar vil gi et resultat som kamerabaserte teknologier alene aldri vil være i nærheten av å kunne gi, nettopp fordi det er et direkte mål mellom bil og objekt, og ikke ren tipping med uviss sikkerhet. Prøv selv. Hent frem lasermåleren din og et kamera, og ta bilde/film fra der du står til veggen du skal måle. Hva må du gjøre for å få ut dybdeinformasjon fra ditt kamera vs hva står det på lasermåleren din angående avstand til det du har målt? For å teste begge teknologiene så kan du jo hente et fysisk målebånd som fasit til slutt.
-
1. Men det er jo absolutt ingen som diskuterer det siste mot formålet rundt selvkjøring? 2. Software + laser er dog bedre for mange oppgaver enn kun software + kamera om formålet er å mappe topologi for eksempel, eller alt som har med dybde å gjøre. For objektgjenkjenning så er nok KI + kamera kjappere, men ikke bedre om man inkluderer punktskyen til en Lidar på topp igjen. Da får man jo fasit på om objektgjenkjenningen faktisk var korrekt.
-
Det kunne vært HW versjon 20 og FSD versjon 50 uten at det forandrer grunnprinsippene i måten man får ut en punktsky ut fra kamera på, som jo alltids vil være et problem med sine restriksjoner. Uansett hvor mye regnekraft man kaster på problemet, så vil man ligge langt bak tiden og kraften som trengs for å få et bedre resultat og mer korrekt punktsky fra Lidar. Du hopper glatt over hovedpoenget til videoen. Han forklarer kun grunnprinsippene mellom lidar og kamera, og hvorfor lidar er nødvendig for hovedoppgaven hans. Å mappe ei bergogdalbane som ligger i stummende mørke. Dog samme egenskap viser seg som en morsom ting å vise gjennom bil-testene i tillegg der kamera kan være nok så blind grunnet motlys, tåke, regn, bilde/lerret mm. mot hva man får gjennom lys og refleksjoner som jo Lidar utnytter.
-
1. Lett tilgjengelig? Du unngår å svare på det jeg sier gang på gang, han snakker altså om egenskapene til sensorene. Da holder det i massevis å bruke egen bil. 2. Hvorfor det? Han tester og snakker om egenskapene til sensorene. Som sagt så er hovedpoenget i videoen mappingen av en bergogdalbane. Om formålet var å teste ting svært grundig så ville det nok vært bedre å hatt et mye større spekter av tester, men når formålet er å vise samt argumentere for at lidar er verdifult innunder formålet med objektdeteksjon så holder det i massevis å vise de få testene der. Egenskapene til lidar er såpass fordelsaktig at det burde være åpenbart grunnen til at folk flest utnytter dem mot formålet. For Mark Rober som altså laget en video for å vise hvordan han løste problemet med å kunne 3D printe ei bergogdalbane som i utgangspunktet ligger gjemt i mørket, så holdt altså disse testene. Dokka er synlig i punktskyen, det er til og med ei skygge bak den. Igjen så beviser du jo at du ikke har sett videoen?
-
1. Fordi det er hans bil slik jeg forstod det, så den er jo lett tilgjengelig? 2. Sluttresultatet hos Tesla etter at man har rådataene fra kameraene er å generere ei punktsky, men det kreves jo en god del på hardware siden å gjøre det, noe som jo er grunnen til at HW3 og nå litt HW4 at de har gått bort fra "redundancy" slik de hadde i starten. Nå må all tilgjengelig kraft være brukt på å løse punktskyen og objektgjengkjenning m.m. Da vil man alltids ha problemet med at det alltids vil være en oppdatering unna fra å løse problemet, selv om problemet er iboende selve teknologien - som jo er hovedpoenget med sammenligningen. Punktskyen fåes tilnærmet gratis gjennom lidaren som man så kan kjøre normale KI oppgaver mot slik man gjør hos "vission only" for "object detection" osv. Luminar bilen har jo også kameraer, så det er ikke slik at man sammenligner lidar mot kameraer, man sammenligner hva lidar gjør for hele systemet. Alle som utnytter lidarer i selvkjørende teknologi inkluderer jo også andre typer sensorer i systemene sine. Så du har ikke sett videoen ennå? Det er jo en test der med nettopp tåke, eller vann? Virker som om du tenker omvendt? Vanndamp, tåke, motlys etc etc er svakhetene til kamera, ikke lidar. Videoen over her viser jo at man ser kanske klart gjennom tåken, mens videoen ikke har særlig å gå på.
-
Selvfølgelig, men det krever mye mer å ekstrapolere ei ekstra dimensjon enn å filtrere ei allerede eksisterende punktsky som faller dit naturlig grunnet egenskapene til LIDAR. Men kan du være så snill å se videoen i sin helhet? Jeg antar hele tiden at du forstår hva jeg snakker om siden vi snakker om en video hvor han tar opp egenskapene til LIDAR. Det gir mening fordi det handler om de iboende egenskapene til sensorene... Igjen, man sammenligner egenskapene til sensorene og fremgangsmåtene for å skape ei punktsky. Det spiller ingen rolle hvor gammel sensorene er når man skolerer folk om hvordan de fungerer.
-
Main Dashboard Hvis formålet er nivå 2 assist så er det jo lett å bli imponert av FSD. Om formålet er full autonomi så er det ikke det. Kameraer ser ikke dybde, du må ekstrapolere dybde gjennom software og bruke veldig mye mer regnekraft og tid på det enn hva du måtte ha gjort med radar/lidar som gir dybdeinformasjon i seg selv.
-
Jeg forklarte også hvorfor resultatet ville vært det samme. Tesla gjør det bra i NCAP, men de har jo tydeligvis NCAP spesifikk kode også, så jeg hadde jo vært litt skeptisk på de resultatene. Men hvorfor fokuserer du kun på vegg-testen? Har du fremdeles ikke sett hele videoen? Det er vel hans bil, og poenget hans er de iboende egenskapene til selve sensorene. Han skal tross alt skape en replika av ei bergogdalbane som ligger i et stummende mørke. Det er som sagt helt umulig med et kamera, han måtte ha en lidar sensor for oppgaven. Samtidig tar han opp egenskapene mot selvkjøring, og han har rett. Testene i seg selv er kun representativ egenskapene til sensorene. Testen er representativ pga han snakker om sensorene. Med din logikk så vil en slik test aldri være representativ, siden det alltids vil komme en ny sensor, og det vil alltids komme ny software.
-
Da ville han nok fått stort sett samme resultat. LIDAR fra 2 år tilbake hadde litt mindre oppløsning, men nok i massevis til å skape samme resultater i alle disse 5 testene. Blir kostbart da når alle HW4 må bytte til HW5 senere også? Når skal han svelge kamelen og innse at "vission only" ikke leder til full selvkjøring? Som sagt så viser videoen med flere da denne testen er blitt gjort før flere ganger at det ligger iboende begrensninger med å tolke dybde fra data fra et kamera. Dataene gir ikke svaret med to streker under slik radar og lidar gjør. Alle situasjoner hvor bilen skal i full nødbrems uten førerinnputs er automatisk AEB. AP og FSD er underlagt AEB og inkluderer bare det i benevnelsen. Hvordan feilet han? Jeg syns han fint forklarer hvordan LIDAR ser objekter mot "vission only" og viser med noen tester et representativt resultat, sammen med hovedpoenget i filmen - å mappe ei bergogdalbane i stummende mørke. Du kan fint få et bedre resultat med et bedre system, mer maskinkraft, mer høyoppløselige sensorer, men man vil aldri nå samme resultat som med LIDAR for disse testene nettopp pga den iboende egenskapene rådataene har fra sensorene. Det er alltids feilkilder i ei punktsky, men punkter som ikke gir mening filtrerer man bort. KI utnyttes her i større og større grad akkurat som innunder "vission only". Men hele fordelen er jo at punktskyen allerede eksisterer i tre dimensjoner og ikke kun i to hvor man så må ekstrapolere ut ei ekstra dimensjon. Da snakker vi mulighetene for enorme feilkilder.
-
Du burde se videoen ettersom han faktisk sier endel ting som er relevant iforhold til hva han faktisk tester. Det spiller jo ingen rolle om han testet bil X mot bil Y, da det er sensorene han i hovedsak snakker om. 2 år gammel HW og software burde være optimalisert såpass at man dermed ser begrensningene med dem. Er du ikke enig i det? Videoen viser at Tesla er nødt til å gå tilbake på lovnadene sine angående HW3. HW4 har bedre sensorer med litt mer oppløsning, men det er fremdeles milevis hva man får til med en kombinasjon av både CMOS og LIDAR/RADAR. Se videoen du, så tar han opp mye av kritikken du snakker om. Han tester som sagt stort sett AEB, da spiller det ingen rolle om det er AP eller FSD som er på. AEB er på uansett hva man har ettersom det tross alt er en del av sikkerhetssystemet i bilen. Konklusjonen blir altså at AEB er betydelig bedre på biler som inkluderer f.eks LIDAR i tillegg til det som alle uansett har og utnytter, kameraer.
-
Det er jo forsåvidt riktig da denne testen uansett utforsker bilenes AEB systemer. Samt bilen han kjørte var vel hans egen bil, så han kan jo den ganske greit? For kamerabaserte systemer så vil man jo øke mulighetene for å se slikt med større oppløsninger og mer regnekraft, men ingen av dem vil på noen som helst måte være like sikker som LIDAR i samarbeid med andre sensorer i et slikt system. Noe jo alle testene der samt logikk vil vise.
-
Tesla kjører rett gjennom vegg i selvkjøringstest
oophus svarte på Diskusjon.no sitt emne i Diskuter artikler (Tek.no)
Elon følte seg nok rettslig sikker ei god stund når han hele tiden har påstått at bilene er tryggere med AP/FSD enn uten. Helt til han gjennom DOGE plutselig måtte sparke alle som etterforsket nettopp dette tilfellet med at bilenes systemer skrudde seg av før kollisjoner. Det inkluderer jo tydeligvis AEB også, som jo ikke skal kunne skrues av.- 4 svar
-
- 3
-
-
-
Så hvem er de "nye mediene" som du snakker om som du mener man kan stole på uten en agenda?
- 256 svar
-
- 3
-
-
Ok, så hvilke personer på X eller hvor du nå får informasjon fra mener du at er pålitelige og balanserte? Når Musk nå slår om og mener at klimakrisen ikke er så ille så er det altså bedre å høre på han enn geologer som inkluderer forskning og kildene sine for sine meninger og påstander? Du får forklare eget utgangspunkt og måten du utfører kildekritikk på som gjør at du kan være så skråsikker på at de tar feil.
- 256 svar
-
- 3
-
-
Du tenker at influensere ikke følger egen agenda? Innenfor normale medier så har man som regel folk som har jobbet med spesifikke tema i hele livet sitt og prater fra en gitt utdannelse. På tiktok eller hva du følger, så har du fyren som droppet ut av ungdomsskolen som prater ut av egen ræv.
- 256 svar
-
- 2
-
-
-
Folk som diskuterer på et fora er nok i overkant interessert og løper i forkant av enhver bevegelse, dog det er naturlig at den starter slik. Er det en forandring her inne på et tema, så er sannsynligheten større for at den vil bre seg ut hos den gjengse folkegruppe utenfor.
- 256 svar
-
- 2
-
-
Da møter du deg selv isåfall i døra. For det kan faktisk skje ting om 10, 100 eller 1000 i utgangspunktet tar et standpunkt. Det er slik det alltids starter.
- 256 svar
-
- 1
-
-
Du tenker at elbilsituasjonen i Norge ikke har fått oppmerksomhet i utlandet? Det vil ikke være skrevet om markedsandeler om Tesla's possisjon minker, mens det alltids har vært det når det økte?
- 256 svar
-
- 1
-
-
Nei, kraftkrisen er ikke enkel å løse
oophus svarte på inside_997084 sitt emne i Diskuter artikler (Tu.no)
Vi skal nok ganske langt ned i pris fra 13kroner toppen hvor man møter problemer i industrien. Det at man ikke kan planlegge og sette fastprisrammevilkår som før gjør jo at det er ugunstig å bygge videre industri her også. Ved 90% sikring, så kan man risikere at resterende 10% fort koster mer enn det som er sikret med slike fluktueringer. Da velger man ikke Norge for ny kraftkrevende industri. Vi er forøvrig enig med resten. Bare sunt å være tilkoblet på flere punkter, det gir større muligheter, men dagens ordning er for meg bare en midlertidig en. Det ser man jo hver gang det blir dyrt i mediene. -
Nei, kraftkrisen er ikke enkel å løse
oophus svarte på inside_997084 sitt emne i Diskuter artikler (Tu.no)
Kunne linket det til energiklasser og energimerking. Så blir det større oversikt over dette også. Få lavere pristak på mer energieffektive hus/bygninger. Uansett er det tull med fluktueringer opp mot 13kr/kwh i Norge. Det ødelegger jo for minst like mange markeder angående industri der ute, så et 100% dekningstak syns jeg vi burde ha.