Gå til innhold

Tesla i pluss for tredje kvartal på rad


Anbefalte innlegg

Skrevet
oophus3do skrev (1 minutt siden):

Du får følge ditt eget råd med spesifikke eksempler slik du forlanget at jeg skulle gjøre. Hent frem en Tesla video som viser løsnignen til mennesker, gjerne mens de forsvinner bak objekter, og vis meg det samme med Waymo, Mobileye eller hvem som helst av de andre aktørene, så kan vi jo diskutere det. 
 

Det er ganske vanskelig, for de mapper nesten ikke folk. som her: 

image.png.2e91d5afa2c0a87b7b601f0d32ee957d.png

Sitat

Dette er et typisk eksempel på UI laget for oss å kunne se. Det andre er systemer som aldri vil bli vist slik vi har sett det, det er jo rådata fra løsningene. 

Ja det var dette jeg snakket om. 

 

Sitat

Hehe, du prøver å argumentere for at flickering er designet inn? 

Nei, bugs. På samme måte som tesla har dette. 

 

Sitat

Argumentet her er jo at Tesla leder. Jeg viser at det er slettes ikke tilfellet. Det ser man jo i  rådataen fra trackinga. 

Du viser at Tesla ikke leder pga noen linjer? For noe tøv. De leder helt klart når en ser på produksjonsbiler. Det ser en på funksjonalitet. 

Du har ikke noe rådata, du har visualiseringer. Mange videoer du finner på nett viser faktisk rådata visualisert av folk, privatpersoner. Dette er produksjonsbiler.

Sitat

Tesla sammenligner pixler mellom maks 5-10 frames på tvers av alt, og kun det. 
Mobileye går så dypt at de i tillegg rigger oss mennesker, og "predicts" bevegelsesmønstre. De lagrer også data basert på masker. Ting som er stillestående vil få en bedre og bedre solve jo mer informasjon du får på det. Det er jo derfor du ser at ting som skilt, markeringer osv er mye bedre plantet der enn hos Tesla som "glemmer" at markeringen eksisterer om det er noe som kommer i veien. 

Ja de går virkelig langt, så langt at de dropper de helt  som vist over :)

  • Innsiktsfullt 1
Videoannonse
Annonse
Skrevet
uname -l skrev (7 minutter siden):

Spesielt det å kjøre ned til nesten 0% høres helt marerittaktig ut. Hva om man har lyst til å ta en avstikker? Hva om vær og føreforhold plutselig endrer seg? Hva om man blir stuck i en stillestående kø i 10 minus?

man må jo ikke, nå har jeg såpass empiri at jeg vet at det går helt fint. Har aldri opplevd problemer selv om jeg kjører til lav SoC. Og i værtstefall må jeg berges. Men det har altså ikke skjedd. Det er ikke noe en må gjøre såklart, og det er egentlig ikke så bra da 0 gir lav effekt. 

  • Liker 1
  • Innsiktsfullt 1
Skrevet (endret)
Salvesen. skrev (17 minutter siden):

Det er ganske vanskelig, for de mapper nesten ikke folk. som her: 

Tipper heller at systemet ikke har sett dem. For de tracker menneskene i samme video du viste tidligere. Alle bokser er altså en ID. Om det mangler en boks (som er area-tracking), så har ikke systemet sett dem. 

Samme type oppførsel om du ser på rådata fra militære videoer f.eks med tracking. 

 

Salvesen. skrev (17 minutter siden):
Sitat

Dette er et typisk eksempel på UI laget for oss å kunne se. Det andre er systemer som aldri vil bli vist slik vi har sett det, det er jo rådata fra løsningene. 

Ja det var dette jeg snakket om. 

Det er ikke noe UI å tenke på i de videoene som viser rådata fra area-tracking. 

 

Salvesen. skrev (17 minutter siden):
Sitat

Hehe, du prøver å argumentere for at flickering er designet inn? 

Nei, bugs. På samme måte som tesla har dette. 

Bugs? Hæ? Det er ikke bugs å se i rådata fra area-trackinga? Det viser jo bare løsningene fra selve trackinga. Det er jo lag 1 og første prioritet i hva man skal løse. I tillegg så har man andre lag som hjelpemidler som gjerne brukes til interpolering mellom frames, samt "predictions".  

 

Salvesen. skrev (17 minutter siden):
Sitat

Argumentet her er jo at Tesla leder. Jeg viser at det er slettes ikke tilfellet. Det ser man jo i  rådataen fra trackinga. 

Du viser at Tesla ikke leder pga noen linjer? For noe tøv. De leder helt klart når en ser på produksjonsbiler. Det ser en på funksjonalitet. 

Linjene viser jo kvaliteten på løsningen av trackinga. Den viser også måten Tesla går frem for å løse ei "scene" over tid. Det at Tesla totalt klarer å miste trackinga kun pga en varebil er et gedigent faremoment. 

Om du fremdeles velger å stikke fingrene i ørene og lukke øynene selv etter å ha sett og kunne sammenligne resultatet fra rådataen så hver så god. 

 

Salvesen. skrev (17 minutter siden):

Du har ikke noe rådata, du har visualiseringer. Mange videoer du finner på nett viser faktisk rådata visualisert av folk, privatpersoner. Dette er produksjonsbiler.

Nei! Vi ser på rådata fra area-tracking. CMOS sensorer er bare helt normale kameraer som lagrer pixel-informasjon frame for frame som et normalt kamera. Det vi ser på er CMOS outputs altså video, med area-tracking overaly direkte. 

Det du viste meg senere for å vise noe flickering omhandler noe helt annet, det er et maske-lag og formålet med den er allokering av interessepunkter for area-trackinga. Der sammenligner man lagret data og identifserer bevegelige objekter bare. Dette blir så brukt for å allokere hvor man skal fokusere for point eller area-trackinga. 

 

Salvesen. skrev (17 minutter siden):
Sitat

Tesla sammenligner pixler mellom maks 5-10 frames på tvers av alt, og kun det. 
Mobileye går så dypt at de i tillegg rigger oss mennesker, og "predicts" bevegelsesmønstre. De lagrer også data basert på masker. Ting som er stillestående vil få en bedre og bedre solve jo mer informasjon du får på det. Det er jo derfor du ser at ting som skilt, markeringer osv er mye bedre plantet der enn hos Tesla som "glemmer" at markeringen eksisterer om det er noe som kommer i veien. 

Ja de går virkelig langt, så langt at de dropper de helt  som vist over

Som vist hvor? Maske-laget? Du må jo først forstå hva du ser på. 


 

Endret av oophus3do
  • Liker 3
Skrevet (endret)
oophus3do skrev (2 timer siden):

De skal lagre data og produsere kart. Noe Musk mente ikke var nødvendig for kun noen få år siden. Den "forbedringen" du snakker om, er å løse oppgavene på samme måte som de andre gjør, bare at de andre har et forsprang på mange, mange år allerede samt bruker Lidar som selvfølgelig gir en stor fordel. Fordelene med lagret data er som sagt tilgang til masker og enklere allokering av data. 

Så du aner ikke hvorfor det har vært vanskelig å bruke en CMOS sensor til regnsensor? 

Det er et problem fordi? Det betyr jo bare at Mobileye ikke bare har 3 modeller tilgjengelig for datagrunnlaget, men titals, eller til og med hundretalls av forskjellige modeller ute på veiene.Point-cloud data-grunnlaget blir bare bedre når man har muligheten til å skyte Lidar fra flere nivåer i Z aksen.  Som sagt så har Mobileye 17 millioner systemer ute på veiene, og har mange ganger antallet som Tesla har. 

Du kommer jo aldri med noen svar? Du er rett og slett ikke i stand til å diskutere temaet, og det er tydelig i måten du kun repeterer tankeløse påstander. 

Ignoranse kler deg. 

Du snakket om å "kaste metoden", men det de gjør er å forbedre hele systemet. Hvis de i tillegg legger til funksjonalitet så ser ikke jeg problemet med det iallfall.

Poenget, igjen, er et eksempel på hvordan data brukes til å forbedre systemet. Jesus.

At Mobileye teoretisk har mange biler på veiene endrer ikke det at de faktisk må gjennom produsenten, og at Tesla samler inn andre data.

Svar har du fått i massevis, men som regel ignoreres det. Teslas massive ledelse på selvkjøring er dokumentert ganske mange ganger etter hvert nå, og du har fått flere linker som beskriver hvordan ting fungerer uten at det ser ut til å ha festet seg.

Endret av hekomo
  • Innsiktsfullt 1
Skrevet
uname -l skrev (2 timer siden):

Med andre ord, enda verre å kjøre utestet beta-kode på sjåfører som ikke er profesjonelle. Det er det de ordentlige bilprodusentene gjør. De har profesjonelle testere og ikke dompapper som tror det er greit å sove bak rattet.

For tredje gang så får jeg bare sitere det jeg skrev. Jeg har bookmarket det for jeg vet at du komjmer til å gjenta den løgnen i det uendelige. Slik som du holder på i alle debatter du deltar i. Hvorfor holder du på sånn egentlig?

"For året så er det null sjans for 360K Model 3 og et ansvarlig selskap ville redusert forventningene.""

Med andre ord, enda verre å la sjåfører som ikke er profesjonelle kjøre personbil i følge din logikk.

Du siterte det du skrev, men utelater konteksten, som såvidt jeg kan se handlet om totale leveranser. 360K+ var nemlig ikke målet for Model 3, men for totale leveranser, så det gir ingen mening å bare snakke om Model 3. Og alle de andre tippingene dine feilet også.

  • Innsiktsfullt 1
Skrevet (endret)
oophus3do skrev (10 minutter siden):


 

Sitat

Tipper heller at systemet ikke har sett dem. For de tracker menneskene i samme video du viste tidligere. Alle bokser er altså en ID. Om det mangler en boks (som er area-tracking), så har ikke systemet sett dem. 

Samme type oppførsel om du ser på rådata fra militære videoer f.eks med tracking. 

Ja det gjør tesla også, altså tracker. Så hva var det jeg skulle finne egentlig, eller hva var problemet? 

 

Sitat

Det er ikke noe UI å tenke på i de videoene som viser rådata fra area-tracking. 

Igjen, viser ikke rådata. Viser faktisk ikke en eneste verdi. Kun visualisering. 

 

Sitat

Bugs? Hæ? Det er ikke bugs å se i rådata fra area-trackinga? Det viser jo bare løsningene fra selve trackinga. Det er jo lag 1 og første prioritet i hva man skal løse. I tillegg så har man andre lag som hjelpemidler som gjerne brukes til interpolering mellom frames, samt "predictions".  

Bugs i UI, som jeg snakket om. Både Tesla og som vi kan se mobileye har problemer her med at ting spretter rundt. 

 

Sitat

Linjene viser jo kvaliteten på løsningen av trackinga. Den viser også måten Tesla går frem for å løse ei "scene" over tid. Det at Tesla totalt klarer å miste trackinga kun pga en varebil er et gedigent faremoment. 

Om du fremdeles velger å stikke fingrene i ørene og lukke øynene selv etter å ha sett og kunne sammenligne rådata så hver så god. 

 

Nei, det gjør ikke det. Det viser visualisering. De mister ingen tracking, bilen kjører der den skal. Ser du på mobileye skjer det samme når noe kjører forbi, linjene forsvinner. Men der skriker du såklart ikke... Fantastisk. Som vi kan se i videoen som jeg stoppet akkurat der det skjer. 

 

Sitat

Nei! Vi ser på rådata fra area-tracking. CMOS sensorer er bare helt normale kameraer som lagrer pixel-informasjon frame for frame. Det vi ser på er CMOS outputs, med area-tracking overlegg direkte. 

Det du viste meg senere for å vise noe flickering omhandler noe helt annet, det er et maske-lag og formålet med den er allokering av interessepunkter for area-trackinga. Der sammenligner man lagret data og identifserer bevegelige objekter bare. Dette blir så brukt for å allokere hvor man skal fokusere for point eller area-trackinga. 

 

Nei vi ser på en visualisering, Tesla viser rådata, avstander osv. 

 

Sitat

om vist hvor? Maske-laget? Du må jo først forstå hva du ser på. 

Forklar du da, "eksperten". menneskene hadde ikke id, var ikke merket eller noe som helst. 

 

Kan du si noe om hvilke erfaringer du har med dette? Siden du proklamerer ekspertise.. 

Endret av Salvesen.
  • Liker 1
  • Innsiktsfullt 1
Skrevet
hekomo skrev (1 minutt siden):

Du snakket om å "kaste metoden", men det de gjør er å forbedre hele systemet. Hvis de i tillegg legger til funksjonalitet så ser ikke jeg problemet med det iallfall.

Ja, det de vil ende opp med å gjøre er å "kaste metoden". Tracking er jo ikke akkurat ny kunnskap, så den forblir selvfølgelig i samarbeid med et større datasett for volum-gjenkjennelse, men det underliggende systemet i måten man går frem vil forandres i stor grad. 

hekomo skrev (3 minutter siden):

Poenget, igjen, er et eksempel på hvordan data brukes til å forbedre systemet. Jesus.

Jeg trur ikke du vet hva du snakker om når du bare kaster ordet "data" rundt deg. Du må jo kunne forklare litt dypere? 

 

hekomo skrev (3 minutter siden):

At Mobileye teoretisk har mange biler på veiene endrer ikke det at de faktisk må gjennom produsenten, og at Tesla samler inn andre data.

Hvorfor må de gjennom produsenten? Bilene er jo på nett utenfor infotainment systemet til bilene, og de kan ha tilgang til det de trenger helt uavhengig av produsentene. For produsentene så kommer jo verdien gjennom bedre assists. 

 

hekomo skrev (4 minutter siden):

Svar har du fått i massevis, men som regel ignoreres det. Teslas massive ledelse på selvkjøring er dokumentert ganske mange ganger etter hvert nå, og du har fått flere linker som beskriver hvordan ting fungerer uten at det ser ut til å ha festet seg.

Enda ei tom påstand. Dette med tomme påstander er du flink på. 

Ingen av linkene forklarer i dybden hvordan systemene fungerer. Men det er jo også slike linker du henter dine egnen ignoranse fra. Når søkte du opp systemene som de andre bruker for å lære mer om begge sider? Aldri. 

  • Liker 3
Skrevet
33 minutes ago, Salvesen. said:

Ikke hos Tesla, siden laderne er "overalt" åpner muligheten for smartere lading hvor en lader der hvor en får høy effekt og derfor bruker en mindre tid på lading. En må selvfølgelig legge inn noen marginer for stopp underveis etc. Tesla bjørn har jo testet dette mye. Jeg pleier å lade en liten stund etter at effekt avtar. Etter dette ser jeg på tiden som bortkastet da jeg heller kan lade senere å få mer ut av ladingen. 

Ja Tesla har mange ladere og gir brukere stor fleksibilitet sånn sett.
Men for å oppnå hastighetene som vi snakker om krever det vesentlig mer planlegging og at man bor riktig plass/skal riktig plass.
Må man lade til 80% eller bilen er fulladet når man reiser risikerer man å ikke få hastigheten som annonsert.
 

Selv med utbygd 250KW ladere mellom storbyene så tipper jeg snitt farten på ladingene til selv de best planlagte turene er nærmere 100KW enn 200KW i snittfart..

  • Liker 3
Gjest I1RRS7FlJH
Skrevet
hekomo skrev (6 minutter siden):

Med andre ord, enda verre å la sjåfører som ikke er profesjonelle kjøre personbil i følge din logikk.

Du kommer med ingen logikk annen enn ren dumskap. Den bilen jeg kjører er allerede testet, det er ikke et betaprodukt. Hvis du ikke vet det så utvikles og testes kommende bilmodeller av profesjonelle. Det er bare Tesla som synes det er greit at fansen gjør jobben gratis med sitt eget og andre trafikanters liv i potten.

hekomo skrev (6 minutter siden):

Du siterte det du skrev, men utelater konteksten, som såvidt jeg kan se handlet om totale leveranser. 360K+ var nemlig ikke målet for Model 3, men for totale leveranser, så det gir ingen mening å bare snakke om Model 3. Og alle de andre tippingene dine feilet også.

For fjerde gang, her er hva jeg skrev. Hva du i ditt forvirrede hode tror eller innbiller deg at jeg skrev er fullstendig irrelevant. Og tippingen var altså riktig.

"For året så er det null sjans for 360K Model 3 og et ansvarlig selskap ville redusert forventningene.""

Skrevet
Marzo skrev (5 minutter siden):

Ja Tesla har mange ladere og gir brukere stor fleksibilitet sånn sett.
Men for å oppnå hastighetene som vi snakker om krever det vesentlig mer planlegging og at man bor riktig plass/skal riktig plass.
Må man lade til 80% eller bilen er fulladet når man reiser risikerer man å ikke få hastigheten som annonsert.
 

Selv med utbygd 250KW ladere mellom storbyene så tipper jeg snitt farten på ladingene til selv de best planlagte turene er nærmere 100KW enn 200KW i snittfart..

50% er ca 250km. Nå har jeg ikke sjekket alle lokasjoner, men det skal mye til for å ha mye mer enn dette mellom hver tesla lader på de normale veiene folk kjører for langturer. 

Da tenker jeg på brorparten av folket som kjører tesla. 

Jeg legger aldri opp rutene mine, bruker bare navigasjonen i bilen og ser an hvor jeg må lade innenfor de neste 2-300km :). Da får jeg gull fart og trenger ikke tenke for mye. 

  • Liker 1
  • Innsiktsfullt 2
Skrevet (endret)
Salvesen. skrev (29 minutter siden):
Sitat

Tipper heller at systemet ikke har sett dem. For de tracker menneskene i samme video du viste tidligere. Alle bokser er altså en ID. Om det mangler en boks (som er area-tracking), så har ikke systemet sett dem. 

Samme type oppførsel om du ser på rådata fra militære videoer f.eks med tracking. 

Ja det gjør tesla også, altså tracker. Så hva var det jeg skulle finne egentlig, eller hva var problemet? 

Har du glemt ditt eget argument? Du mente at flickeringen var like dårlig hos begge to. Jeg ville ha eksempler som viste det. 

Som nevnt før: Flickering i area-trackingen betyr usikkerhet i selve solven. Jo mer plantet den er (ikke noe "sliding" og "hopping/flickring") jo bedre er "confidence" nivået til systemet i at den har rett i løsningen. 

Salvesen. skrev (29 minutter siden):
Sitat

Det er ikke noe UI å tenke på i de videoene som viser rådata fra area-tracking. 

Igjen, viser ikke rådata. Viser faktisk ikke en eneste verdi. Kun visualisering. 

Kan du definere hva du mener med rådata? 
Rådata fra en CMOS sensor = en video. Enig? 
Rådata fra tracking-løsningen = Underliggende input fra CMOS sensoren + overliggende resultat av area-tracking. Enig? 

Det vi ser er altså resultatet av trackingen. En "boks" som trackes er altså et volum av pixler som er blitt identifisert til noe. 

Jeg kaller dette "rådata" fra trackingen. Det vi ser er altså "rådata" og ikke noe UI design. Den kommer mye senere, og lages for å visualisere noe slik at vi forstår det. Et UI er ofte veldig simplifisert og nedbrutt versjon av interessepunkter vi kan ha nytte av. Som f.eks å filtrere bort alle veimarkeringer, men vise oss bilene og menneskene i området rundt oss. Alt den gjør er å vise forhånds-modellerte modeller som følger enkelte outputs fra trackinga hvor man filtrerer bort 99% av ID'ene som finnes der, og kun viser det som er blitt identifisert som et menneske, eller et kjøretøy. 

Det samme kan gjøres for å filtrere bort hva man ønsker å tracke. Du kan jo f.eks fjerne datasettet som inkluderer hvordan pixler som former et menneske ser ut, og be systemet kun tracke personbiler og skilt f.eks. men resultatet er fremdeles rådata fra trackingen.  

Salvesen. skrev (29 minutter siden):

Bugs i UI, som jeg snakket om. Både Tesla og som vi kan se mobileye har problemer her med at ting spretter rundt. 

Nei! Det vi ser på er rådata fra trackingen. Hvor mange ganger skal jeg måtte si det? Det er jo helt åpenbart at du ikke vet hva du snakker om her. Om du skal lage UI for oss senere, så må du uansett utnytte "solven" tra trackingen. Har trackingen mye flickering, så vil representasjonen i et UI design også vise flickering, selv om du kan roe det litt ned ved å kun vise et gjennomsnitt mellom N'th frame f.eks fremfor hver frame. 

Det vi ser på har ingen interpolering av frames, og det vi ser på er direkte rådata fra selve tracking-solven. 

Salvesen. skrev (29 minutter siden):

Nei, det gjør ikke det. Det viser visualisering. De mister ingen tracking, bilen kjører der den skal. Ser du på mobileye skjer det samme når noe kjører forbi, linjene forsvinner. Men der skriker du såklart ikke... Fantastisk. Som vi kan se i videoen som jeg stoppet akkurat der det skjer. 

Du sammenligner jo rådata fra tracking-solven mot maskeringslaget bruket for å allokere prosesser. Du må da forstå at du sammenligner epler og pærer her? 

I en prosessor så har du jo allokering til flere oppgaver. Endel av oppgaven som står tilgjengelig for tracking-solven gjør jo dette. Også har du andre deler som løser andre oppgaver. Endel av dette vil være masken. Denne løsningen brukes for å finjustere trackingen. Så du ser på to helt forskjellige prosesser og sammenligner noe som ikke skal sammenlignes. Skal vi sammenligne et maskelag så må du jo finne et maskelag fra Tesla å sammenligne med. 

Salvesen. skrev (29 minutter siden):
Sitat

om vist hvor? Maske-laget? Du må jo først forstå hva du ser på. 

Forklar du da, "eksperten". menneskene hadde ikke id, var ikke merket eller noe som helst. 

Snakker du om første video du viste? Den som hadde en film som viste masker? Formålet til det laget er ikke å komme med ID'er til objekter, dets formålet er å allokere fokus. 

Vi kan sammenligne det med rendring av spill. I dagens spill så vil PC'en din ha større fokus på det som er nærme deg, enn det som er langt unna, der objekter langt unna viser lav-polygons modeller fremfor høy oppløselige modeller. Dette for å spare ressurser. 

Det laget som viste masker brukes til samme formål. Dette mater tracking-solven med fokus, slik at prosessoren f.eks sender 80% av sine ressurser på de områdene som viser grønt, vs de områdene som viser rødt som ikke er like viktig for hvor man skal tracke neste frame. 



 

Endret av oophus3do
  • Liker 3
Skrevet (endret)
17 minutes ago, Salvesen. said:

50% er ca 250km. Nå har jeg ikke sjekket alle lokasjoner, men det skal mye til for å ha mye mer enn dette mellom hver tesla lader på de normale veiene folk kjører for langturer. 

Da tenker jeg på brorparten av folket som kjører tesla. 

Jeg legger aldri opp rutene mine, bruker bare navigasjonen i bilen og ser an hvor jeg må lade innenfor de neste 2-300km :). Da får jeg gull fart og trenger ikke tenke for mye. 

Absolutt!
Og brorparten av de som kjører Tesla (som jeg kjenner vertfall) vil stoppe når de passerer en lader hvis de har 30% igjen på batteriet.
Uavhengig av om de tror de klarer å nå neste lader eller ikke. Folk flest kjører ikke bilen til 0% før de stopper.

Derfor påpeker jeg at den realistiske farten for Tesla Model 3 blir langt under 250kw på tur.. for folk flest.

Endret av Marzo
  • Liker 2
Gjest I1RRS7FlJH
Skrevet
hekomo skrev (34 minutter siden):

Teslas massive ledelse på selvkjøring er dokumentert ganske mange ganger etter hvert nå, og du har fått flere linker som beskriver hvordan ting fungerer uten at det ser ut til å ha festet seg.

image.png.3082a89e74542048d4195bfb043b388f.png

Skrevet
Sitat

Har du glemt ditt eget argument? Du mente at flickeringen var like dårlig hos begge to. Jeg ville ha eksempler som viste det. 

Som nevnt før: Flickering i area-trackingen betyr usikkerhet i selve solven. Jo mer plantet den er (ikke noe "sliding" og "hopping/flickring") jo bedre er "confidence" nivået til systemet i at den har rett i løsningen. 

 

Hvor har jeg kommet med dette argumentet? Men, jeg har jo vist deg det med å linke til Mobileye video med tidsstamp. Viser at linjene også forsvinner. 

 

At du ser noen linjer som går her eller der eller er stabile sier ingenting om teknologien. At du ikke ser det er helt absurd. Man kan fint vise til at det er problemfritt med å se at det ikke førte noe som helst problem for Tesla. Kanskje mer tid, altså den må "hente" seg inn. Men who cares? 

 

Sitat

Kan du definere hva du mener med rådata? 
Rådata fra en CMOS sensor = en video. Enig? 
Rådata fra tracking-løsningen = Underliggende input fra CMOS sensoren + overliggende resultat av area-tracking. Enig? 

Det vi ser er altså resultatet av trackingen. En "boks" som trackes er altså et volum av pixler som er blitt identifisert til noe. 

Jeg kaller dette "rådata" fra trackingen. Det vi ser er altså "rådata" og ikke noe UI design. Den kommer mye senere, og lages for å visualisere noe slik at vi forstår det. Et UI er ofte veldig simplifisert og nedbrutt versjon av interessepunkter vi kan ha nytte av. Som f.eks å filtrere bort alle veimarkeringer, men vise oss bilene og menneskene i området rundt oss. Alt den gjør er å vise forhånds-modellerte modeller som følger enkelte outputs fra trackinga hvor man filtrerer bort 99% av ID'ene som finnes der, og kun viser det som er blitt identifisert som et menneske, eller et kjøretøy.

rådata for meg er faktiske målinger, verdier, data. 

Nei rådata fra en CMOS sensor er ikke video, det er elektriske signaler... 

 

Det du viste til viser veldig lite data, det er poenget mitt. Stort sett var det fargelagte bilder uten id er, avstander osv. Altså veldig lite data. 

 

Sitat

Nei! Det vi ser på er rådata fra trackingen. Hvor mange ganger skal jeg måtte si det? Det er jo helt åpenbart at du ikke vet hva du snakker om her. Om du skal lage UI for oss senere, så må du uansett utnytte "solven" tra trackingen. Har trackingen mye flickering, så vil representasjonen i et UI design også vise flickering, selv om du kan roe det litt ned ved å kun vise et gjennomsnitt mellom N'th frame f.eks fremfor hver frame. 

Det vi ser på har ingen interpolering av frames, og det vi ser på er direkte rådata fra selve tracking-solven. 

Årh, kan vi bare droppe UI greiene. Du missforstår uansett. Sånn, ikke mer snakk om UI. det blir for overbelastende ser jeg. 

 

Sitat

Du sammenligner jo rådata fra tracking-solven mot maskeringslaget bruket for å allokere prosesser. Du må da forstå at du sammenligner epler og pærer her? 

Åja, så du er enig i at vi ikke ser på rådata nå men bare en visualisering? Fint. 

 

Sitat

Snakker du om første video du viste? Den som hadde en film som viste masker? Formålet til det laget er ikke å komme med ID'er til objekter, dets formålet er å allokere fokus. 

Vi kan sammenligne det med rendring av spill. I dagens spill så vil PC'en din ha større fokus på det som er nærme deg, enn det som er langt unna, der objekter langt unna viser lav-polygons modeller fremfor høy oppløselige modeller. Dette for å spare ressurser. 

Det laget som viste masker brukes til samme formål. Dette mater tracking-solven med fokus, slik at prosessoren f.eks sender 80% av sine ressurser på de områdene som viser grønt, vs de områdene som viser rødt som ikke er like viktig for hvor man skal tracke neste frame. 

For ett rot å virrvarr av forklaringer. Dette er bare dine personlige meninger. Det ser du vell? 

 

Jeg kan like godt si at det du ser er feil også, de linjene der som gikk til siden det var bare for å irritere deg det er irritasjonslaget. Laget for koret...

  • Innsiktsfullt 1
Skrevet
Marzo skrev (7 minutter siden):

Absolutt!
Og brorparten av de som kjører Tesla (som jeg kjenner vertfall) vil stoppe når de passerer en lader hvis de har 30% igjen på batteriet.
Uavhengig av om de tror de klarer å nå neste lader eller ikke. Folk flest kjører ikke bilen til 0% før de stopper.

Derfor påpeker jeg at den realistiske farten for Tesla Model 3 blir langt under 250kw på tur.. for folk flest.

ja 30% er jo ikke så galt. Problemet er bare om de lader lenge så kaster de bort tid, men det er jo deres problem forsåvidt. 

 

Og at snitt effekten blir langt under 250kW er det ingen tvil om. Er så lite av de laderne uansett. 

  • Liker 2
  • Innsiktsfullt 1
Skrevet (endret)
Salvesen. skrev (30 minutter siden):

Hvor har jeg kommet med dette argumentet? Men, jeg har jo vist deg det med å linke til Mobileye video med tidsstamp. Viser at linjene også forsvinner. 

Dette er ikke rådata fra tracking-solven. Det er rådata fra maskeringslaget. Jeg har forklart forskjellen. Det kan ikke sammenlignes. 

Når vi ser på Tesla sin video, så ser vi på en tracking-solve. 
Når vi ser på din video fra timestampen, så ser vi på et maskeringslag. Dette er kun et hjelpemiddel for trackingen. 

Salvesen. skrev (30 minutter siden):

At du ser noen linjer som går her eller der eller er stabile sier ingenting om teknologien.

Selvfølgelig sier det noe? Det viser jo hvor sikkert systemet er i resultatet. 

Salvesen. skrev (30 minutter siden):

At du ikke ser det er helt absurd. Man kan fint vise til at det er problemfritt med å se at det ikke førte noe som helst problem for Tesla. Kanskje mer tid, altså den må "hente" seg inn. Men who cares? 

Det forklarer fremgangsmåten og hvorfor det er kritikkverdig at de ikke lagrer en solve på en "ikke-bevegelig ID" som veimarkeringer. 

Tracking for ikke-bevegelige deler behandles på samme måte som tracking for bevegelige deler. Det er jo det som er den store kritikken her, i tillegg til at man ser at tracking ikke er Teslas beste side. 

 

Salvesen. skrev (30 minutter siden):
Sitat

Kan du definere hva du mener med rådata? 
Rådata fra en CMOS sensor = en video. Enig? 
Rådata fra tracking-løsningen = Underliggende input fra CMOS sensoren + overliggende resultat av area-tracking. Enig? 

Det vi ser er altså resultatet av trackingen. En "boks" som trackes er altså et volum av pixler som er blitt identifisert til noe. 

Jeg kaller dette "rådata" fra trackingen. Det vi ser er altså "rådata" og ikke noe UI design. Den kommer mye senere, og lages for å visualisere noe slik at vi forstår det. Et UI er ofte veldig simplifisert og nedbrutt versjon av interessepunkter vi kan ha nytte av. Som f.eks å filtrere bort alle veimarkeringer, men vise oss bilene og menneskene i området rundt oss. Alt den gjør er å vise forhånds-modellerte modeller som følger enkelte outputs fra trackinga hvor man filtrerer bort 99% av ID'ene som finnes der, og kun viser det som er blitt identifisert som et menneske, eller et kjøretøy.

rådata for meg er faktiske målinger, verdier, data. 

Nei rådata fra en CMOS sensor er ikke video, det er elektriske signaler... 

Jeg snakker fra outputen av det hele. Altså hva som kommer som resultat fra en CMOS sensor = rådata fra den. Input for å bygge det vil være rådata for selve CMOS sensoren. 

Uansett har jeg definert hva jeg har ment, så da burde det være enklere å diskutere og få fremgang her. Om du vil kalle det noe annet, så greit. CMOS output? Tracking-solve output? 

Salvesen. skrev (30 minutter siden):

Det du viste til viser veldig lite data, det er poenget mitt. Stort sett var det fargelagte bilder uten id er, avstander osv. Altså veldig lite data. 

Igjen, det du viste til er ingen tracking-solve. Det er et hjelpemiddel for å allokere kraft til tracking-solven. 

 

Salvesen. skrev (30 minutter siden):
Sitat

Du sammenligner jo rådata fra tracking-solven mot maskeringslaget bruket for å allokere prosesser. Du må da forstå at du sammenligner epler og pærer her? 

Åja, så du er enig i at vi ikke ser på rådata nå men bare en visualisering? Fint. 

Troller du?  Det vi ser på er ingen UI laget for oss forbrukere? Vi ser på ouputs fra forskjellige prosesser. Det eneste er ei tracking-solve direkte, og det andre er et maskelag. 

Salvesen. skrev (30 minutter siden):

For ett rot å virrvarr av forklaringer. Dette er bare dine personlige meninger. Det ser du vell? 

Hva du må forestille deg for å beskytte ditt eget utgangspunkt. Selv når man ser direkte tracking-solves fra forskjellige firma, så mener du fremdeles at Tesla har den beste solven? Selv om det er mer usikkerhet i den? 

 

Salvesen. skrev (30 minutter siden):

Jeg kan like godt si at det du ser er feil også, de linjene der som gikk til siden det var bare for å irritere deg det er irritasjonslaget. Laget for koret...


?
 

Endret av oophus3do
  • Liker 3
Skrevet
Marzo skrev (37 minutter siden):

Absolutt!
Og brorparten av de som kjører Tesla (som jeg kjenner vertfall) vil stoppe når de passerer en lader hvis de har 30% igjen på batteriet.
Uavhengig av om de tror de klarer å nå neste lader eller ikke. Folk flest kjører ikke bilen til 0% før de stopper.

Derfor påpeker jeg at den realistiske farten for Tesla Model 3 blir langt under 250kw på tur.. for folk flest.

Merkelig logikk fra deg. Når navigasjonen sier at du kan gå forbi første ladestopp, så gjør det selvfølgelig det, med mindre du faktisk har lyst på en stopp (dopause osv). Da kan man enten velge å gå forbi den ladestoppen som navigasjonen sa man skulle kjøre til i utgangspunktet, eller lade kortere der. Ladinga på Model 3 går uansett veldig raskt, så det vil ikke være snakk om lang tid man går glipp av.

Med vår familie og vår S75D, så blir det gjerne at vi lader lengre enn vi må, grunnet at det tar tid for 2 stk voksne og 2 barn å få gjort alt man skal gjøre. Men vi hopper selvfølgelig over alle ladestopp som vi ikke må lade på. Hadde vi hatt bensinbil, så ville vi brukt like lang tid, siden vi må ha en del stopp uansett for dopause, mat, bleieskift osv.

  • Liker 1
  • Innsiktsfullt 1
Skrevet
Sitat

Dette er ikke rådata fra tracking-solven. Det er rådata fra maskeringslaget. Jeg har forklart forskjellen. Det kan ikke sammenlignes. 

Når vi ser på Tesla sin video, så ser vi på en tracking-solve. 
Når vi ser på din video fra timestampen, så ser vi på et maskeringslag. Dette er kun et hjelpemiddel for trackingen. 

Litt av poenget, man ser på helt ulike ting her og man ser langt i fra noe rådata. 

 

Sitat

Selvfølgelig sier det noe? Det viser jo hvor sikkert systemet er i resultatet. 

Nei, dette er bare din mening om saken. Og din mening om saker er ikke nødvendigvis realiteten. Det oppsto ingen problemer. Det er problemet her, du baserer alt på noe som fungerte helt fint. 

 

Sitat

Det forklarer fremgangsmåten. Jeg har jo forklart deg hvordan de kommer til resultatet? De sammenligner pixler frame by frame slik hver tracking-solve gjør. Problemet er at Tesla ikke lagrer solven for å forbedre den over tid på en ID som ikke skal flytte på seg. Det er jo ekstremt fattig å se. Hvorfor i allverden blir ikke veimerkeringer lagret? De vil jo aldri flytte på seg i de få sekundene man kjører forbi. 

Tracking for ikke-bevegelige deler behandles på samme måte som tracking for bevegelige deler. Det er jo det som er den store kritikken her. 

Kilde? Og hvor er problemet? Hva gikk galt og hvorfor var lagringen ett bedre alternativ? 

 

Sitat

eg snakker fra outputen av det hele. Altså hva som kommer som resultat fra en CMOS sensor = rådata fra den. Input for å bygge det vil være rådata for selve CMOS sensoren. 

Uansett har jeg definert hva jeg har ment, så da burde det være enklere å diskutere og få fremgang her. Om du vil kalle det noe annet, så greit. CMOS output? Tracking-solve output? 

Ja outputen er elektriske signaler. Hvordan en behandler disse er jo opp til enhver. Sannsynligvis behandles det som en matrise av rgb verdier eller tilsvarende. Litt usikker på hva poenget bak dette var egentlig så jeg sier det samme som over jeg: 

Hva er problemet, og hvorfor er "din" løsning bedre? 

 

Sitat

Igjen, det du viste til er ingen tracking-solve. Det er et hjelpemiddel for å allokere kraft til tracking-solven. 

Ok, så vis til rådata'en din da, er så lei av at du skal ro og ro. 

 

Sitat

roller du?  Det vi ser på er ingen UI laget for oss forbrukere? Vi ser på ouputs fra forskjellige prosesser. Det eneste er ei tracking-solve direkte, og det andre er et maskelag

Nei jeg troller ikke, men gjør du? Jeg trodde vi var ferdig med UI'en. Men det klarte du ikke. 

Sitat

Hva du må forestille deg for å beskytte ditt eget utgangspunkt. Selv når man ser direkte tracking-solves fra forskjellige firma, så mener du fremdeles at Tesla har den beste solven? Selv om det er mer usikkerhet i den? 

 

Mer virrvarr. Jeg har aldri sagt noe om dette. Det er du som disser, og prøver å forklare. Men du bare ror og ror. 

 

 

  • Innsiktsfullt 1
Skrevet (endret)
Salvesen. skrev (1 time siden):
Sitat

Dette er ikke rådata fra tracking-solven. Det er rådata fra maskeringslaget. Jeg har forklart forskjellen. Det kan ikke sammenlignes. 

Når vi ser på Tesla sin video, så ser vi på en tracking-solve. 
Når vi ser på din video fra timestampen, så ser vi på et maskeringslag. Dette er kun et hjelpemiddel for trackingen. 

Litt av poenget, man ser på helt ulike ting her og man ser langt i fra noe rådata. 

Hvis du var klar over forskjellene, hvorfor ville du sammenligne dem? Greit nok at man illustrerer output fra rådata slik at man får verifisert dem, men man ser uansett resultatet av dataene. 

Salvesen. skrev (1 time siden):
Sitat

Selvfølgelig sier det noe? Det viser jo hvor sikkert systemet er i resultatet. 

Nei, dette er bare din mening om saken. Og din mening om saker er ikke nødvendigvis realiteten. Det oppsto ingen problemer. Det er problemet her, du baserer alt på noe som fungerte helt fint. 

Det som er interessant å se på er jo hvor sikkert løsningene er dem i mellom for å kunne sammenligne. F.eks: 

Vs

Dette omhandler jo markering og masken for hvor man kan ferdes. Altså hvor veiene er. Se på kantenene hos tesla hvor det er mye usikkerhet vs hos Mobileye. Sjekk også litt senere når man kommer til små kryss hvor kjapt Mobileye identifiserer og oppdaterer masken her, vs Tesla som såvidt får det med seg at det går en vei inn en haug av frames senere enn det Mobiley viser her, på snø. Som jo gjør det enda mer imponerende. 

 

 

Salvesen. skrev (1 time siden):
Sitat

Det forklarer fremgangsmåten. Jeg har jo forklart deg hvordan de kommer til resultatet? De sammenligner pixler frame by frame slik hver tracking-solve gjør. Problemet er at Tesla ikke lagrer solven for å forbedre den over tid på en ID som ikke skal flytte på seg. Det er jo ekstremt fattig å se. Hvorfor i allverden blir ikke veimerkeringer lagret? De vil jo aldri flytte på seg i de få sekundene man kjører forbi. 

Tracking for ikke-bevegelige deler behandles på samme måte som tracking for bevegelige deler. Det er jo det som er den store kritikken her. 

Kilde? Og hvor er problemet? Hva gikk galt og hvorfor var lagringen ett bedre alternativ? 

Kilden er den du kom med?? 

Hva som gikk galt er jo fremgangsmåten i hvordan de løser den biten av problemet. Som sagt har man mange prosesser som går samtidig hvor hver prosess skal løse X. Dette omhandler veimarkering, eller prediction for hvor man skal kjøre der man plutselig mister totalt oversikt kun fordi man ikke har lagret informasjonen fra tidligere. Om bilen skal kjøre rett frem, og man har hatt hundrevis av frames med godt skue av veien, hvorfor blir ikke veimarkeringen og "solven" til bilens prediksjon i hvor den skal kjøre lagret fra de gode "framsene"? 

Vi trenger jo ikke se en kollisjon for å bedømme det underliggende systemet og resultatene den gir? 

 

Salvesen. skrev (1 time siden):
Sitat

eg snakker fra outputen av det hele. Altså hva som kommer som resultat fra en CMOS sensor = rådata fra den. Input for å bygge det vil være rådata for selve CMOS sensoren. 

Uansett har jeg definert hva jeg har ment, så da burde det være enklere å diskutere og få fremgang her. Om du vil kalle det noe annet, så greit. CMOS output? Tracking-solve output? 

Ja outputen er elektriske signaler. Hvordan en behandler disse er jo opp til enhver. Sannsynligvis behandles det som en matrise av rgb verdier eller tilsvarende. Litt usikker på hva poenget bak dette var egentlig så jeg sier det samme som over jeg: 

Hva er problemet, og hvorfor er "din" løsning bedre? 

Bah, snakker om å gjøre seg vanskelig for å unngå å diskutere teknologien her. Ja, resultatet er en haug av 0 og 1 tall om du vil diskutere alt annet enn tema her. 

Det vi ser på er løsningen til slutt. Altså hvordan trackingsløsningen ser ut og det bilen bruker for å velge sin ferd videre. Det er jo det som er viktig å sammenligne... De underliggende systemene bidrar jo til den totale pakken til slutt. 

Problemet er at Tesla sin løsning og resultat på langt nær er like bra som de andre sitt. Vi diskuterer hvem som leder, gjør vi ikke det da? Så da sammenligner vi ei tracking-solve mot ei tracking-solve. Tesla sin løsning resulterer i mer usikkerhet i solven. Det vi ser i videoene forklarer også det vi ser i virkeligheten med f.eks Smart Summon, der bilene ikke klarer å identifisere grass, eller holder på å kjøre på ei stolpe. Noe rart foregår. 

 

Salvesen. skrev (1 time siden):
Sitat

Igjen, det du viste til er ingen tracking-solve. Det er et hjelpemiddel for å allokere kraft til tracking-solven. 

Ok, så vis til rådata'en din da, er så lei av at du skal ro og ro. 

Jeg prøver ikke å sammenligne ei tracking-solve mot et hjelpemiddel for ei tracking-solve som du gjør. Hva er det jeg skal vise? Jeg har jo vist med flere kilder her og sammenlignet. Samt brukt din egen kilde for å vise hvor stor usikkerhet det er der. 

Det å vise en haug med nuller og ett-tall som du tydeligvis skal helt ned på før det er ok å kalle det rådata hjelper lite uten å se hvordan de brukes for å skrive kode som systemet leser, og som produserer visualiseringen vi mennesker bruker for å definere hva som er riktig og hva som er galt. 

 

Salvesen. skrev (1 time siden):
Sitat

roller du?  Det vi ser på er ingen UI laget for oss forbrukere? Vi ser på ouputs fra forskjellige prosesser. Det eneste er ei tracking-solve direkte, og det andre er et maskelag

Nei jeg troller ikke, men gjør du? Jeg trodde vi var ferdig med UI'en. Men det klarte du ikke. 

Jeg må jo forklare ting når det er helt åpenbart at du ikke vet hva du prater om. Ja, glem UI for det har ingenting med saken å gjøre. Det finnes ingen "bugs" i UI'en her. Visualiseringen for oss mennesker henter jo dataene direkte fra outputen til tracking-delen av software løsningen. De "Cuboids" greiene er jo plassert etter best mulig tipping fra systemet i hvor bilen (representert av ei cuboid) er innunder sitt eget koordinatsystem. Om de skiftest og hopper frem og tilbake så er det jo fordi systemet finner ut at det må skiftest og at solven tidligere ble antatt feil. Det samme er sant for alle slike sluttresultater innunder de forskjellige løsningene som blir produsert som et hjelpemiddel. 

Semantic segmentation er jo der for å allokere prosessene smartere og er det jeg kaller "masken". 
Det systemet f.eks identifiserer til å være himmelen gjør jo at du kaster mye mindre ressusrer på det området ved neste frame angående hva du skal "kikke på" innunder det du ønsker å løse, som vil være mer kritiske ting som bevegelige myke og harde trafikkanter, såvell som skilt og informasjon man trenger for ferdsel på veiene. 

 

Salvesen. skrev (1 time siden):
Sitat

Hva du må forestille deg for å beskytte ditt eget utgangspunkt. Selv når man ser direkte tracking-solves fra forskjellige firma, så mener du fremdeles at Tesla har den beste solven? Selv om det er mer usikkerhet i den? 

 

Mer virrvarr. Jeg har aldri sagt noe om dette. Det er du som disser, og prøver å forklare. Men du bare ror og ror. 

Ok, hva er det du prøver å si? Du snakker om bugs og UI og sammenligner epler og pærer. Den som ror burde være 100% klart for hvem som helst som kan litt om det. 

Jeg prøver å forklare fordi det er åpenbart at du tar frem elementer og sammenligner epler og pærer. Som sagt så har du prøvd å sammenligne output fra et "track-layer" mot output av "segmantic segmentation" som jeg har kalt "masken" siden jeg tippet folk flest har lekt med photoshop f.eks hvor man gjør litt det samme for å forenkle sine egne prosesser senere. 

Innenfor det sensorene ser angående CMOS sensorene, så hjelper det å bruke 2D informasjonen man får der, til å allokere ressursene man har tilgjengelig i datakraften i prosessoren. Ting som blir bekreftet å være asfalt, trenger jo ikke like mange ressurser som ting som blir identifisert som et bevegelig objekt ved neste freme, og videre inn i fremtiden. 

Endret av oophus3do
  • Liker 2
Skrevet
1 hour ago, MrMarbles said:

Merkelig logikk fra deg. Når navigasjonen sier at du kan gå forbi første ladestopp, så gjør det selvfølgelig det, med mindre du faktisk har lyst på en stopp (dopause osv). Da kan man enten velge å gå forbi den ladestoppen som navigasjonen sa man skulle kjøre til i utgangspunktet, eller lade kortere der. Ladinga på Model 3 går uansett veldig raskt, så det vil ikke være snakk om lang tid man går glipp av.

Med vår familie og vår S75D, så blir det gjerne at vi lader lengre enn vi må, grunnet at det tar tid for 2 stk voksne og 2 barn å få gjort alt man skal gjøre. Men vi hopper selvfølgelig over alle ladestopp som vi ikke må lade på. Hadde vi hatt bensinbil, så ville vi brukt like lang tid, siden vi må ha en del stopp uansett for dopause, mat, bleieskift osv.

Jeg forstår at det kan virke merkelig siden du fint kan kjøre din faste rute så er det sikkert ingen som har andre behov.
Men snakk gjerne med en som har trekt tilhenger å forklar han hvor enkelt dette blir og at man stoler blindt på navigasjonen.
Eller når bilen stopper mens det fremdeles er 2% strøm igjen på batteriet..

Jeg sier på ingen måte at 100KW ikke er kjapp lading, men når alle skryter av at Model 3 lader 250KW så vil det gå så mye fortere.
Helt til man skal stoppe å lade ved siste superlader før man kjører opp på hytta og stusser over at bilen kun tar i mot 100KW...
 

  • Liker 2

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...