
oophus
Medlemmer-
Innlegg
13 849 -
Ble med
-
Besøkte siden sist
-
Dager vunnet
56
Innholdstype
Profiler
Forum
Hendelser
Blogger
Om forumet
Alt skrevet av oophus
-
Fra min "ungdom" så var skjellsordene mot franske biler stort sett rettet mot vanskeligheten det var for vanlige folk uten et ordentlig verksted i å skru på dem. Så de bilene som først endte opp på verksted hadde mikk-makk av noen merkelige løsninger hentet fra hobby-mekanikere.
-
Ved første øyekast så ser jo dette annerledes ut enn Tesla's video. Motionblur er globalt og likt over alt, og det er ikke merkelige forskjeller på tvers av videoen som tidligere. Dog man ser jo ikke underst på rattet og hendene, samt pedalene, så det å skulle "fake" en slik video trenger man jo ikke akkurat AI eller normal redigering til for å få til.
-
Så du mener de burde plukke ut ei hund og eier med formål om å avlive hunden? Litt rart eller?
- 57 svar
-
- 2
-
-
Tja, Toyota har jo gått inn i et samarbeid med Waymo, så det kan jo bli spennende. Man må jo uansett vente for SAE nivå 4 selvkjøring her I Norge.
-
De har noen Teslaer med etterpåmonterte sensorer som farer rundt her og der. Med tanke på at de har noen veldig dedikerte FSD testere der ute, som f.eks Chuck som holder på ved sitt lyskryss, så er det jo litt snever fremgang på alle disse årene når de utallige ganger har sendt disse LIDAR bilene til det spsifikke krysset uten at det ene krysset er løst ennå.
-
Ifølge dem så er det trygt: "Luminar's lidar operates in the infrared range at 1,550 nanometers (153 terahertz) rather than the usual 905 nanometers. This moved the lidar signal out of the range of visible light, making it safe for human eyes even at higher power levels."
-
Er det ikke bedre med firma som er proaktive fremfor reaktive? Jeg vil heller se 1 time med ferdsel etter at systemet er verdsatt til å være sikkert, enn 1 time med film som er plukket ut av tusenvis av timer av film fordi man hadde litt flaks og så at bilen kjørte ei lengre periode uten en overtakelse. Tesla jobber jo omtrent slik: 1. En feil detekteres gjennom en overtakelse, eller gjennom "shadow mode". Dette kan enten være en ulykke, eller en nesten ulykke alt ettersom sjåføren var oppmerksom eller ikke. 2. Flagge den feilen opp mot databasen. 3. Om feilen er gjentagende, eller graverende så 4. Spør om mer data fra området, eller send en LIDAR Tesla bort for mer håndfast data. 5. Trene AI modellen på nytt 6. OTA oppdatering. En OTA oppdatering som kan fikse noe men som ofte berører noe annet. Fra én time med feilfri kjøring, så er man altså avhengig av X antall ulykker eller nesten ulykker for å nå den timen. Hvor mange ulykker eller nesten ulykker må man anta ved 10 timers feilfri kjøring ved neste målpunkt?
-
Skal man mappe et nytt område så er det jo kjekt med en komplett 360 roterende sensor, men det er nok lite behov for det i vanlige forbruksbiler. Da holder det med mindre sensorer med 45-120 graders rettet fremover. Skal man dog ha en komplett Robotaxi som aldri skal ha ferdsel under nivå 4. Altså at den ruller ut av fabrikk ferdig for skytselstrafikk, så er det jo større sikkerhet i å ha flere sensorer, inklutert en styggere 360 roterende sensor på taket. Men da ligger jo behovet der rundt kun taxivirksomhet, og ikke noe folk skal kjøpe. Da spiller det jo liten rolle hvordan bilen ser ut, og verdi rundt sikkerhet og autonomi øker.
-
Dagens kost har nok like mye å si som kostpris anno 2015. De faller i pris fra generasjon til generasjon. 90% av kost fra 2015 er borte allerede, og nye 90% faller nok om nye 10 år.
-
En fordel man har med LIDAR hele tiden er jo at man bruker det for å dobbeltsjekke "vision" systemet, siden det er en direkte avstandsavlesning. Har man en reklameplakat med et bilde av en bil på f.eks og den plakaten er 10x10 meter stor, så kan vission systemet tøyse seg litt bort med at det objektet brukes for å fastsette koordinatsystemet og andre objekters avstand og størrelse. Med LIDAR så kan man automatisk fjerne det "objektet" på plakaten siden LIDAR med én gang avslører at det er en plakat og bilde av et objekt og ikke et fysisk objekt. Jeg trur nok at LIDAR uansett vær er kjekt å inkludere, og ikke noe som kun redder "vission" ved dårlig vær. Det frigjør veldig mye med datakraft slik at "vission" systemet kan fokusere enda mer på det det er best på.
-
AI redigert kan inkludere ting som masking. Det er ingen som har sagt at alt er AI generert. Dog morsomt at Tesla igjen ikke legger ut alt i original form.
-
Blir nok det samme som med paint it black videoen. Var utrolig mange som nektet på at den var tøyset med også.
-
Du har ikke kommet med noen kilder? Du har hentet noen sitater uten å linke til dens kontekst. Mens jeg har prøvd å forklare deg hvor du tråkker feil. Jeg har også slengt inn bilder som eksempler på hva som er galt med filmen. Hele opplegget er åpenbart redigert, og man har null grunn - selv en student som rører et slikt program for første gang - til å lage slike enorme artefakter - spesielt når de ikke er globale. Da har man tøyset med footage på flere måter for å introdusere det slik, eller så har man prøvd noen AI verktøy som ofte kan slenge inn slikt i hulter til bulter siden de tross alt er trent opp på alt av ulike kamera med ulike sensorteknologier og CG film hvor det er normalt at motionblur (sub-sampling) og ender opp slik som noen av eksemplene i videoen.
-
Tja, når det er enklere å la være å ødelegge kvaliteten enn å ødelegge den, så er det jo litt interessant hvorfor det ble gjort, og hvorfor denne ble godkjent til bruk for PR. Om man kun skal fjerne bitrate og kvalitet, så finnes det utallige måter å gjøre det på uten å få et slikt resultat, og utypisk for denne er at feilene ikke er globale. Det er en mye større forskjell mellom kvalitet innad i bilen vs utsiden. Hvorfor i allverden er det blitt slik?
-
Alt jeg sier er at filmen åpenbart er gjort noe med. Noe som burde skape et lite varsku når man vet hva Tesla har gjort tidligere. Hvorfor kunne de ikke bare vise den helt vanlig? Det å øke hastigheten alene genererer ikke slike artefakter - som sagt.
-
Litt usikker på hva du ønsker kilder på? Det er tatt ut flere bilder som eksempler allerede i tråden her.
-
AI generering kan inkludere ganske mye mer en komplette bilder mot en video. Man kan f.eks delvis fjerne eller legge til informasjon gjennom nyere AI teknikker. Et lite eksempel: Så jeg mener altså ikke at alt er AI generert, for det er det ikke. Men maskeringer og "påfyll" viser denne videoen typiske artefakter av.
-
Ja, men du blander begreper. Du har funnet noe som forklarer én ting og linker det til disse tilfellene, hvor man har gjort det motsatte av tilfeller hvor man får "ghosting". Når man gjør video hurtigere innenfor samme bildefrekvens så trenger man ikke generere bilder. Man kutter dem bare. Det ville ikke gitt disse resultatene.
-
Tesla sin "originale" film inkluderer det jeg snakker om, ikke den i sanntid som åpenbart vil inkludere de samme feilene. Og ja, det ville vært trivielt å jukse med noe slikt
-
Se tidligere innlegg. Artefaktene som utsiden av bilen innehar er det null grunn til at skal være der om hastigheten kun skal skrues opp.
-
Enig i det, men videoen vi prater om er ikke original. Den er blitt tuklet med, noe man jo ville hatt null grunn til å gjøre om alt har fungert som det skal.
-
Det finnes jo allerede? Timeslange klipp som flatgjordere ignorerer. Så dette blir bare en stråmann isåfall.
-
Tesla har en tendens til å kjapt finne på ting for å manipulere aksjen sin. I dette tilfellet så falt den videoen ganske greit ned mens aksjen så skummel ut for Musk, der den lekte seg mot kanten av et enormt støtteområde, og det er et enkelt klipp å "fake".
-
Problemet er at Tesla selv har levert et klipp som er justert opp til en lavere framerate enn originale videoen for å avspilles i vanlig framerate for en "fortfilm". Da skipper man frames, men man ville ikke fått artefakter som vist i videoen. Ta en hvilken som helst FSD på Youtube og sett avspillingshastigheten til 2. Du ser jo ikke noen artefakter som plutselig dukker opp. Alt er helt klart og fint selv om man hopper over halvparten av bildene i avspillingen.