Gå til innhold

Her er nye iPhone X


Anbefalte innlegg

Gjest Slettet+5132

Og bare fordi Apple sier noe er det ikke sant. Hvem har noengang sagt at AR er så begrenset av ytelse? Hva kan du gjøre mer med den nye CPUen? Når ble Snapchat CPU intensiv?

 

Ja, demoapper for å vise nye kraften, men ikke noe folk bruker mye. Lite vits om du bare kan ha demoapper.

Vel, men vi er iallfall enige om at AR kan være begrenset av ytelse da? :)

 

Jeg tror det kommer til å ta litt tid (en generasjon eller to) før dette blir veldig populært, og det går sikkert i rykk og napp. Et par journalister kommer til å teste Ikea-appen og si hvor fantastisk den er, og det kommer til å medvirke folks mobilvalg til neste år, og så videre. Og så tar det ofte litt tid før tredjepartsutviklere kommer på banen og får utviklet sine egne AR-produkter. Programvareutvikling tar tid.

 

Det samme skjedde vel med mye annet Apple har lansert. Det blir litt hallelujastemning over natta, og så blir det gradvis en ganske essensiell del av folks mobilbruk etterpå (gitt at det ikke feiler, som også hender).

Lenke til kommentar
Videoannonse
Annonse

Jeg tenkte vel egentlig mest den var interessant utifra det den sier om tidslinjene, at designet for A11 ble gjort ca. da A8 kom på markedet. Det er viktig å huske på når man snakker om konkurransen her - hvor lang tid det faktisk tar å vende om.

 

Det er ikke lett å matche muligheten Apple har til å lage en signalprosessor skreddersydd for en feature som kommer om et år eller tre når man verken kontrollerer SOC, OS eller kontrollere.

At designet for A11 ble gjort da A8 kom ut er kun overraskende i at det ikke er lengre tid siden, hvis du spør Intel, Nvidia, eller AMD vil de nok si at de begynte med designet av produktene de selger i dag rundt 2012-2013.

 

Angående Snapdragon og spesialiserte funksjoner i brikken, så samarbeider Qualcomm med Samsung, Sony, HTC, Google, og andre kunder for å legge inn de egenskapene i brikken som ønskes og trengs for et bra produkt. Qualcomm leverer også programmeringsverktøy og kildekode for å dra nytte av funksjonaliteten, AptX-støtte er for eksempel noe "alle" Android-telefoner har takket være Qualcomm sin implementasjon.

Lenke til kommentar

Ja, men da får de kun "minste felles multiplum" av det alle kundene har bedt om og det som Qualcomm anser som i tråd med egen strategi.

 

Det er mange ulemper ved proprietær teknologi, men en fordel er at man får noe som passer akkurat det man skal lage, ikke noe som passer til alle andres behov også. Det er både en fordel for den som lager chippen (Qualcomm/Apple), som kan lage noe som funker 100% til en spekk, og for brukerne (Samsung,Sony,.../Apple) som får noe som gjør det den skal optimalt.

Lenke til kommentar

 

Vel, men vi er iallfall enige om at AR kan være begrenset av ytelse da? :)

 

Jeg tror det kommer til å ta litt tid (en generasjon eller to) før dette blir veldig populært, og det går sikkert i rykk og napp. Et par journalister kommer til å teste Ikea-appen og si hvor fantastisk den er, og det kommer til å medvirke folks mobilvalg til neste år, og så videre. Og så tar det ofte litt tid før tredjepartsutviklere kommer på banen og får utviklet sine egne AR-produkter. Programvareutvikling tar tid.

 

Det samme skjedde vel med mye annet Apple har lansert. Det blir litt hallelujastemning over natta, og så blir det gradvis en ganske essensiell del av folks mobilbruk etterpå (gitt at det ikke feiler, som også hender).

 

Jo, men se hva du bruker som eksempel, Ikea app. IKEA lager ikke en app for iPhoneX alene. De vil jo lage den slik at mange kunder skal kunne bruke den. De selger jo først og fremst rimelige møbler. Så noe essensielt i form av IKEA app vil ikke komme av hvor kraftig A11 er, heller APIer og slikt for AR.

 

 

Ellers var eksempelet ditt fra Nvidia GPU begrenset. Og GPU er mye lettere å måle en CPU. Og du har heller ikke noe problem med singel vs multithread der. Jeg mener AMD har vel 4000+ ? kjerner. Og for GPU er Apple uten tvil foran de andre. Men igjen, det blir en annen benchmark enn de vi har sett :) 

 

Og vet ikke om AR ytelse er spesiell? VR er åpenbart pga to øyne og slikt, slik at GPUer fra Nvidia og AMD fikk et skikkelig hopp i VR ytelse når de la inn krets for å gjøre VR smart (ikke gjøre ting 2 ganger).

Lenke til kommentar
Gjest Slettet+5132

 

Vel, men vi er iallfall enige om at AR kan være begrenset av ytelse da? :)

 

Jeg tror det kommer til å ta litt tid (en generasjon eller to) før dette blir veldig populært, og det går sikkert i rykk og napp. Et par journalister kommer til å teste Ikea-appen og si hvor fantastisk den er, og det kommer til å medvirke folks mobilvalg til neste år, og så videre. Og så tar det ofte litt tid før tredjepartsutviklere kommer på banen og får utviklet sine egne AR-produkter. Programvareutvikling tar tid.

 

Det samme skjedde vel med mye annet Apple har lansert. Det blir litt hallelujastemning over natta, og så blir det gradvis en ganske essensiell del av folks mobilbruk etterpå (gitt at det ikke feiler, som også hender).

Jo, men se hva du bruker som eksempel, Ikea app. IKEA lager ikke en app for iPhoneX alene. De vil jo lage den slik at mange kunder skal kunne bruke den. De selger jo først og fremst rimelige møbler. Så noe essensielt i form av IKEA app vil ikke komme av hvor kraftig A11 er, heller APIer og slikt for AR.

Ikea er ett av mange eksempler. Ikea kommer neppe kun til iPhone 8, men kanskje iPhone 8 får egenskaper de tidligere telefonene ikke støtter.

Ellers var eksempelet ditt fra Nvidia GPU begrenset. Og GPU er mye lettere å måle en CPU. Og du har heller ikke noe problem med singel vs multithread der. Jeg mener AMD har vel 4000+ ? kjerner. Og for GPU er Apple uten tvil foran de andre. Men igjen, det blir en annen benchmark enn de vi har sett :)

Mjaaa, eksempelet var begreningsbegrenset, ikke grafikkbegrenset (det er egentlig ikke et så hardt skille mellom de to som man skulle tro, men la oss si at alt som går igjennom OpenGL er grafikk, mens resten er beregning). Og måten de løste det på er at de gjorde beregninger (ikke grafikkdelen) på CUDA. Ja, dette kan kjøres i parallel, og det var ikke et argument for topp singlecoreytelse til A11, men heller et argument for topp ytelse generelt på A11/iPhone 8. AR passer forsåvidt flott inn på en GPU.

 

Problemet med å bruke GPU-en på en telefon er at den kommer til å være opptatt med grafikk, mens eksempelet fra nvidia-sida så kunne de bare legge på en ekstra GPU som drev med beregninger :) Ser vel for meg at AR-programmer på en iPhone kommer til å stresse GPU og CPU ganske kraftig med en sammenblanding av grafikk og beregninger.

 

Det er fullt mulig at en del av AR-algoritmene til ARKit bruker GPUen i tillegg for beregninger, og AR-beregnigner er ofte velegnet for GPU-er siden de er veldig enkelt paralleliserbare, og en har fordelen av at dataen etterpå uansett kommer til å bli brukt av GPUen. Men en kommer ikke helt unna at GPU-en vil være opptatt med å vise litt grafikk også, og dermed får en en øvre grense for hvor mye beregninger en kan gjøre på GPUen.

Og vet ikke om AR ytelse er spesiell? VR er åpenbart pga to øyne og slikt, slik at GPUer fra Nvidia og AMD fikk et skikkelig hopp i VR ytelse når de la inn krets for å gjøre VR smart (ikke gjøre ting 2 ganger).

VR er grafikkbegrenset siden du må ha høy oppløsning på skjermen samt regne ut nesten det samme bildet to ganger per frame. AR kan ofte være beregningsbegrenset. Hovedessensen går på å regne ut geometriske strukturer. En ting en ofte må gjøre i AR er å lage en trekantoverflate (eller mer kompliserte geometriske strukturer med splineoverflater) av verdenen en har skannet inn fra dybdesensoren. Dette kan være ganske beregningstungt. Det er også gjerne selve fundamentet for AR. Så vil du gjerne gjøre forandringer på dette trekantmeshet, eller plassere andre geometriske objekter oppå. Hvis du ser på programmer som Snapchat, som allerede til en viss grad gjør dette for filtrene sine, vil du se at de bruker en veldig grov overflate (få trekanter) over en veldig liten overflate (kun ansiktet ditt), og snapchat har ofte problemer med å følge med på brå ansiktsbevegelser. For å kunne gjøre det i flere sammenhenger, trenger du mer beregningskraft. Som vi så fra Nvidia-sida, så vil du trenge urealistisk mye beregningskraft hvis du vil lage et virtuelt prøverom for sko :p

 

Det at Snapchat kan feile ved St folk nyser sier vel også at det er forbedringspotensiale :p

 

En veldig tung oppgave kan være "objektsgjenkjenning" og registrering mot en modelloverflate, og jeg tror ikke noen telefoner har klart dette i noen særlig grad (det er kanskje ikke realistisk å forvente at en A11 vil klare dette heller). Dette kan brukes av for eksempel Ikea-appen til å finne allerede eksisterende Ikea-møbler i rommet (ting de har en modell for), eller bare finne andre gjenstander i rommet som en kanskje vil la brukeren flytte på.

Endret av Slettet+5132
Lenke til kommentar

Du vet ekstremt mye om dette, mistenker at artikkelen er skrevet for et litt annet publikum :) Sånn er det alltid når man leser artikler i massemedier om ting man kan mye om - det meste er galt. Særlig når journalisten ikke kan nok til å se hva som er pr-prat og hva som er reelt. Når det er sagt er jeg enig med deg, når jeg leser artikkelen på nytt er det mye store ord om helt normale ting.

 

Jeg tenkte vel egentlig mest den var interessant utifra det den sier om tidslinjene, at designet for A11 ble gjort ca. da A8 kom på markedet. Det er viktig å huske på når man snakker om konkurransen her - hvor lang tid det faktisk tar å vende om.

 

Det er ikke lett å matche muligheten Apple har til å lage en signalprosessor skreddersydd for en feature som kommer om et år eller tre når man verken kontrollerer SOC, OS eller kontrollere.

Ja, den er nok definitivt skrevet for et annet publikum :p

 

Men definitivt ikke journalisten sin feil da, kan ikke forvente at han vet det, men kanskje han kunne snakket med noen som kan litt mer?

Apple selv vet jo disse tingene helt klart, mye bedre enn meg, og de sa ingenting galt her. Og ikke deres ansvar å fortelle journalisten hva som er PR, hva som faktisk er bra, og hva som er ikke osv. Så hvis journalisten bare antar de har gjort alt bra så synes sikkert Apple det er veldig greit :)

 

Ja, og på grunn av den lange utviklingstiden kan du og komme med noe som overrasker konkurrentene, og de har egentlig ingen måte å svare på, fordi det tar lang tid å utvikle. Jeg tror den lengste utviklingsprosessen må være AMDs Ryzen. Og Intel har egentlig ikke chip-design til å konkurrere skikkelig med designene til AMD. Så selv om Intel faktisk har bedre teknologi og slik så har AMD kommet med noe spesielt for et område Intel har holdt igjen på, og det vil ta dem tid å lage designet som svarer på det. Det er en grense for hvor mye de kan fremskyve og endre på planene sine.

 

 

Ellers kan både Samsung og Huawei(HiSilicon) lage egen ISP og legge til en Neural Engine om de vil. Faktisk var Huawei ute rundt 2 uker ? før iPhone lanseringen og viste frem Kirin 970 med en Neural Processing Unit. Og viste frem analysering av bilder og hvor god den var til det :) Med lansering i Q4. Men de må jo være "først" så de presenterer først. Og som jeg sa kineserne driver hele tiden og matcher, kommer raskt ut med det andre har. Så får se om Huawei kommer med lignende kameraløsning også da. Det er ikke noe for alle Android produsenter derimot. Vel ingen bortsett fra Huawei og Samsung. Og det er jo og grunnen til at Huawei begynte å lage eget. For som du sier så treger du å gjøre det selv, om du vil komme først, være best. Så det at Apple er best på SoC, betyr og at de kan komme med dett før de andre.

Lenke til kommentar

Det finnes en annen veldig god grunn til å bruke en Nvidia GPU, da Tesla V100 eksempelvis.

 

Trenden for tiden er at når vi får nye oppgaver som Apple har vist frem med sin AR-satsing er å lage spesialiserte kretser. Nå har jeg sett nok rundt på nettet til å se at den utrolige kraften iPhone bruker til AR, og de oppgavene som du har beskrevet veldig bra og detaljert, hverken er fra CPU, GPU eller ISP. Det er nok Neural Engine som virker å være sentral her. Og også grunnen til at et Tesla V100 ville vært super. Det kommer med Tensor cores, som er Google sitt rammeverk for maskinlæring.

 

En artikkel om hvor mye Google sier de sparte på å lage sin TPU (essensielt det samme som Neural Engine i A11, og Neural Processing unit i Kirin 970):

https://www.wired.com/2017/04/building-ai-chip-saved-google-building-dozen-new-data-centers/

 

Bare det at Google selv designet en egen krets sier om hvor latterlig store besparelser de så i det.

 

Så egentlig vil da AR ytelsen faktisk reelt sett kunne bli begrenset slik som du sier ville jeg nok tro. For selv om du ikke er så langt ifra A11 i Geekbench/3DMark, så hvis du ikke har denne chipen, så vil kanskje måtte bruker 50x så mye strøm på de samme kalkulasjonene. 

 

Det er jo og grunnen til at Intel kjøpte Altera. Altera og Xilinx er det to virkelig store FPGA produsentene som nesten alle kjøper fra. Og en FPGA er en krets, hvor kretsen selv kan remprogrammeres, ikke kun softwaren som kjører på den. Som betyr at den kan programmeres til å fungere som en maskinlæringschip. Eller noe annet. Så du kan spesialisere chipen slik det passer til oppgaven du gjør. Og den går sammen med en Intel CPU i et datasenter. En liten artikkel om det:

https://www.forbes.com/sites/moorinsights/2017/08/28/microsoft-fpga-wins-versus-google-tpus-for-ai/#437791543904

 

 

Så det er interessant å se at utviklingen man når får i Apples SoCer er den samme som en ser i datasentre og HPC. Det tror jeg er enda mer interessant fakta enn noe i Mashables artikkelen. Jeg synes hvertfall det er mer imponerende å implementere designprinsipper som brukes i Googles datasentre i en mobil enn at den har x antall transistorer, som egentlig ikke sier deg noe. (størrelse for en transistor og areal for brikken er 10 ganger mer nyttig fra et teknisk standpunkt).

Lenke til kommentar
Gjest Slettet+5132

Hadde helt glemt tensorprosessoren :p Det er nok viktig å huske at dersom dette er liknende det man finner i Tesla v100, er dette "kun" er en prosessor som gjør matrise-operasjon på lavpresisjonsmatriser veldig, veldig, veldig raskt og energieffektivt (det er dette som er kjernen mye maskinlæring). Siden man bruker disse operasjonene andre steder, kan en se for seg at andre, ikke-maskin-læringsprogrammer, kan dra nytte av den ekstra ytelsen (men da helst som sideprosessor). 
 
Apple sier den kan gjøre "600 milliarder beregninger per sekund"  (kilde: wikipedia). Det er litt uklart hva de mener, men skal jeg gjette er det sannsynligvis lavpresisjonsmatriseberegninger de mener.
 
En Nvidia v100 kan klare 120 Tflops av "mixed precision matrix operations" (de definerer det også eksplisitt i artikkelen over, men jeg gidder ikke gjenta her, men det er ikke sammenliknbart med vanlig enkelpresisjonsytelse). 
 
Hvis det de måler er sammenliknbart med hva Apple måler, er altså tensor corene på v100 rundt 200 ganger raskere enn tensorprosessoren på A11. Skulle vel bare mangle når v100 koster rundt 15 ganger så mye, og bruker vesentlig mer strøm og plass. Men tenker man ytelse per krone er vel v100 best. :p

Det er litt vanskelig å vite nøyaktig antall flops på en A11, men noen har gjettet rundt 200 gflops for en A10, så vi kan vel vente oss noe i den duren for en A11 også (litt raskere). Så for noen arbeidsoppgaver utenfor maskinlæring, mer bestemt dem man ikke trenger høyere presisjon enn 8 eller 16-bits, kan det faktisk være at tensorprosessoren kan gi noe for hastighet også, men også for strømforbruk. Spørsmålet er vel om Apple kommer til å tillate programmer til å bruke denne delen av CPUen "fritt" (mitt gjett: de blir tilgjengelige når OpenCL får støtte for dette ).

 

 

 

Det finnes en annen veldig god grunn til å bruke en Nvidia GPU, da Tesla V100 eksempelvis.


Det er mange grunner til å bruke en Tesla v100, men en veldig god grunn til å ikke gjøre det: De er bittelitt dyre, og skal du kjøpe i store kvanta (til regneklynger) kan de faktisk være vanskelige å få tak i :p


 

Og også grunnen til at et Tesla V100 ville vært super. Det kommer med Tensor cores, som er Google sitt rammeverk for maskinlæring.


Bare en liten rettelse: en Tesla v100 har Tensor cores, altså kjerner til å gjøre matrisemultiplikasjon veldig raskt, Google produserer rammeverket TensorFlow, som blant annet kan bruke tensor coresene til å gjøre utregningene raskere :) Lett å gå i surr med disse navnene.

Endret av Slettet+5132
Lenke til kommentar

Sannsynligvis får vi vite mer fra å se på Huawei sin versjon enn Apple, de pleier ikke å dele så mye info :p

 

Apple har jo sagt at deres er låst, og ikke tilgjengelig. De vil folk skal bruke API, og så bestemmer Apple når og hvordan denne delen blir brukt. Huawei sin derimot er åpen for alle.

 

Tesla V100 er rimelig dyre ja :p Men jeg tipper og de koster noe slik som 15 ganger mer å lage enn en A11 også. Men det er jo og stort sett bygget for større selskaper, som trenger til store sentre. Og hvor vanskelig de er å finne i store mengder er jo da avhengig av hvor mye du betaler også... :) 

 

Hehe, du har rett med Tensor Core/TensorFlow ja.

 

Virker og sannsynlig at du har rett med at Apples nevnte tall gjelder for matriseberegninger ja. Og vil forklare hvordan de fikk et så høyt tall.

 

Men er jo kult at en Tesla V100 er relevant i en diskusjon om A11 da. Til tross for at det er en helt annen klasse. 

Lenke til kommentar
Gjest Slettet+5132

Det interessante er vel også hvor mye Apple bruker den nye beregningskraften til kameraet. Allerede nå har de klart å få til grunn dybdeskarphet, noe som tidligere kun var forbeholdt større sensorer med gode objektiver. Dette er vel et samspill mellom dybdesensoren, to objektiver og maskinlæring. Det samme ser vi også på en Note 8, og kommer sikkert til å bli standard på de fleste nye flaggskiptelefoner. 

Skulle ikke forundre meg om de også legger inn automatisk raw-prossesering basert på machine learning, slik noen har laget protyper for i Android.

 

Man begynner å komme til et punkt hvor smarttelefoner, selv om de har vesentlig dårligere sensorkvalitet og objektivkvalitet enn et billig systemkamera,  kan gi gode bilder betydelig raskere enn et dedikert kamera, iallfall ved godt lys. Skal man oppnå samme effekt med et dedikert kamera i dag, må en inn med etterbehandling i Lightroom eller liknende.På en smartelefoner kan man ta bildet og vips, det er klart med "optimale" etterbehandlingsinnstillinger. 

Lenke til kommentar

Det interessante er vel også hvor mye Apple bruker den nye beregningskraften til kameraet. Allerede nå har de klart å få til grunn dybdeskarphet, noe som tidligere kun var forbeholdt større sensorer med gode objektiver. Dette er vel et samspill mellom dybdesensoren, to objektiver og maskinlæring. Det samme ser vi også på en Note 8, og kommer sikkert til å bli standard på de fleste nye flaggskiptelefoner. 

 

Skulle ikke forundre meg om de også legger inn automatisk raw-prossesering basert på machine learning, slik noen har laget protyper for i Android.

 

Man begynner å komme til et punkt hvor smarttelefoner, selv om de har vesentlig dårligere sensorkvalitet og objektivkvalitet enn et billig systemkamera,  kan gi gode bilder betydelig raskere enn et dedikert kamera, iallfall ved godt lys. Skal man oppnå samme effekt med et dedikert kamera i dag, må en inn med etterbehandling i Lightroom eller liknende.På en smartelefoner kan man ta bildet og vips, det er klart med "optimale" etterbehandlingsinnstillinger. 

 

Skal man oppnå samme effekt i dag med smarttelefoner, så må man også etterbehandle. Det kommer sikkert til mobiler som du skriver, men hvorfor skal det ikke komme til vanlige kamera også?

 

AtW

Lenke til kommentar
Gjest Slettet+5132

 

Det interessante er vel også hvor mye Apple bruker den nye beregningskraften til kameraet. Allerede nå har de klart å få til grunn dybdeskarphet, noe som tidligere kun var forbeholdt større sensorer med gode objektiver. Dette er vel et samspill mellom dybdesensoren, to objektiver og maskinlæring. Det samme ser vi også på en Note 8, og kommer sikkert til å bli standard på de fleste nye flaggskiptelefoner. 

 

Skulle ikke forundre meg om de også legger inn automatisk raw-prossesering basert på machine learning, slik noen har laget protyper for i Android.

 

Man begynner å komme til et punkt hvor smarttelefoner, selv om de har vesentlig dårligere sensorkvalitet og objektivkvalitet enn et billig systemkamera,  kan gi gode bilder betydelig raskere enn et dedikert kamera, iallfall ved godt lys. Skal man oppnå samme effekt med et dedikert kamera i dag, må en inn med etterbehandling i Lightroom eller liknende.På en smartelefoner kan man ta bildet og vips, det er klart med "optimale" etterbehandlingsinnstillinger. 

 

Skal man oppnå samme effekt i dag med smarttelefoner, så må man også etterbehandle. Det kommer sikkert til mobiler som du skriver, men hvorfor skal det ikke komme til vanlige kamera også?

 

AtW

 

 

Som jeg skrev finnes det allerede prototyper som etterbehandler automatisk nå (sjekk linken), tar nok ikke lang tid før dette er ut i produksjon.

 

For å svare på spørsmålet hvorfor dette ikke skal komme på vanlige kameraer: Fordi kameraprodusentene har vist seg å være helt uinteresserte å legge inn denne funksjonaliteten på kameraer frem til nå, og det er lite (egentlig ingenting?) som tyder på at de kommer til å endre seg i fremtiden. Mens mobilprodusentene viser at de vil gi støtte for dette, fortsetter kameraprodusentene å gi ut kameraer uten app-støtte og med generelt begrenset brukervennlighet.

Endret av Slettet+5132
Lenke til kommentar

 

 

Det interessante er vel også hvor mye Apple bruker den nye beregningskraften til kameraet. Allerede nå har de klart å få til grunn dybdeskarphet, noe som tidligere kun var forbeholdt større sensorer med gode objektiver. Dette er vel et samspill mellom dybdesensoren, to objektiver og maskinlæring. Det samme ser vi også på en Note 8, og kommer sikkert til å bli standard på de fleste nye flaggskiptelefoner. 

 

Skulle ikke forundre meg om de også legger inn automatisk raw-prossesering basert på machine learning, slik noen har laget protyper for i Android.

 

Man begynner å komme til et punkt hvor smarttelefoner, selv om de har vesentlig dårligere sensorkvalitet og objektivkvalitet enn et billig systemkamera,  kan gi gode bilder betydelig raskere enn et dedikert kamera, iallfall ved godt lys. Skal man oppnå samme effekt med et dedikert kamera i dag, må en inn med etterbehandling i Lightroom eller liknende.På en smartelefoner kan man ta bildet og vips, det er klart med "optimale" etterbehandlingsinnstillinger. 

 

Skal man oppnå samme effekt i dag med smarttelefoner, så må man også etterbehandle. Det kommer sikkert til mobiler som du skriver, men hvorfor skal det ikke komme til vanlige kamera også?

 

AtW

 

 

Som jeg skrev finnes det allerede prototyper som etterbehandler automatisk nå (sjekk linken), tar nok ikke lang tid før dette er ut i produksjon.

 

For å svare på spørsmålet hvorfor dette ikke skal komme på vanlige kameraer: Fordi kameraprodusentene har vist seg å være helt uinteresserte å legge inn denne funksjonaliteten på kameraer frem til nå, og det er lite (egentlig ingenting?) som tyder på at de kommer til å endre seg i fremtiden. Mens mobilprodusentene viser at de vil gi støtte for dette, fortsetter kameraprodusentene å gi ut kameraer uten app-støtte og med generelt begrenset brukervennlighet.

 

 

Prototyper er ikke produkter.

 

Og joda, kameraprodusenter er en sirompa gjeng, men når det kommer til akkurat bildebehandling, så er de ofte ikke så trege. Teknologien på ren bildekvalitet henger ganske godt med der.

 

AtW

Lenke til kommentar
Gjest Slettet+5132

Tja, vi får se, tror ikke det i nærmeste fremtid kommer noen kameraer med nok CPU-kraft til å gjøre etterbehandling i sanntid slik MIT-forskerne har vist at du kan gjøre med en Android-telefon. MIT-gruppen påstår at de kommer til å gi ut appen "snart" . Selve algoritmen er allerede gitt ut under en Apache-lisens, som betyr at tredjepartsprodusenter kan integrere denne koden i kommersielle produkter.

Lenke til kommentar

Tja, vi får se, tror ikke det i nærmeste fremtid kommer noen kameraer med nok CPU-kraft til å gjøre etterbehandling i sanntid slik MIT-forskerne har vist at du kan gjøre med en Android-telefon. MIT-gruppen påstår at de kommer til å gi ut appen "snart" . Selve algoritmen er allerede gitt ut under en Apache-lisens, som betyr at tredjepartsprodusenter kan integrere denne koden i kommersielle produkter.

 

Kamera har faktisk ganske kraftig CPU når det kommer til slike ting. Moderne kameraer er uhyre raske når det gjelder til å informasjonbehandle mye bilderelatert data raskt.

 

AtW

Lenke til kommentar
Gjest Slettet+5132

Kamera har faktisk ganske kraftig CPU når det kommer til slike ting. Moderne kameraer er uhyre raske når det gjelder til å informasjonbehandle mye bilderelatert data raskt.

 

AtW

 

De har CPU-er som er raske til bildebehandling, det trenger ikke å bety at de er raske til maskinlæring, som er det man bruker for å finne optimale "etterbehandlingsparametere". Når de først har parameterene for raw-behandlingen, kan de påføre dem veldig raskt, og det er vel blant annet det Fuji nylig har innført for å speede up raw-behandlingen.

Lenke til kommentar

 

Kamera har faktisk ganske kraftig CPU når det kommer til slike ting. Moderne kameraer er uhyre raske når det gjelder til å informasjonbehandle mye bilderelatert data raskt.

 

AtW

 

De har CPU-er som er raske til bildebehandling, det trenger ikke å bety at de er raske til maskinlæring, som er det man bruker for å finne optimale "etterbehandlingsparametere". Når de først har parameterene for raw-behandlingen, kan de påføre dem veldig raskt, og det er vel blant annet det Fuji nylig har innført for å speede up raw-behandlingen.

 

 

La oss si disse algoritmene av en eller annen grunn passer dårlig til CPUer i dagens kamera, hva får deg til å tro at de ikke bare tar med en CPU som er passende? Dagens gode kamera har allere dobbel quadcore eller liknende, de har ganske mange kjerner, og har privilegiet at de kan ha brikker som er tilpasset sin bruk.

 

AtW

Endret av ATWindsor
Lenke til kommentar
Gjest Slettet+5132

La oss si disse algoritmene av en eller annen grunn passer dårlig til CPUer i dagens kamera, hva får deg til å tro at de ikke bare tar med en CPU som er passende? Dagens gode kamera har allere dobbel quadcore eller liknende, de har ganske mange kjerner, og har privilegiet at de kan ha brikker som er tilpasset sin bruk.

 

AtW

Generell motvilje fra kameraprodusentene å tenke nytt. Raskere bildebehandlingsprosessor viser vel bare at de kan perfeksjonere det de allerede gjør.

 

For all del, det kan godt være du har rett. Et kamera med mulighet for automatisk utvalg av etterbehandlingsparametere i sanntid, samt støtte for tredjeparts programvare, hadde vært høyt oppe på min ønskeliste :) Inntil det skjer tillater jeg meg å være pessimistisk.

 

Nå skal det dog sies at Olympus har fokusert mye på ferdiginnstillinger i seneste EM10 Mark III, så kan være at nettopp Olympus kunne finne på å inkludere noe slikt i nyere kameramodeller, men det skjer vel ikke før Mark IV...

 

Nikon og Canon har uansett gravd seg såpass ned i proffhjørnet at de neppe har lyst til å bli brukervennlige uansett. :p

Lenke til kommentar

 

La oss si disse algoritmene av en eller annen grunn passer dårlig til CPUer i dagens kamera, hva får deg til å tro at de ikke bare tar med en CPU som er passende? Dagens gode kamera har allere dobbel quadcore eller liknende, de har ganske mange kjerner, og har privilegiet at de kan ha brikker som er tilpasset sin bruk.

 

AtW

Generell motvilje fra kameraprodusentene å tenke nytt. Raskere bildebehandlingsprosessor viser vel bare at de kan perfeksjonere det de allerede gjør.

 

For all del, det kan godt være du har rett. Et kamera med mulighet for automatisk utvalg av etterbehandlingsparametere i sanntid, samt støtte for tredjeparts programvare, hadde vært høyt oppe på min ønskeliste :) Inntil det skjer tillater jeg meg å være pessimistisk.

 

Nå skal det dog sies at Olympus har fokusert mye på ferdiginnstillinger i seneste EM10 Mark III, så kan være at nettopp Olympus kunne finne på å inkludere noe slikt i nyere kameramodeller, men det skjer vel ikke før Mark IV...

 

Nikon og Canon har uansett gravd seg såpass ned i proffhjørnet at de neppe har lyst til å bli brukervennlige uansett. :p

 

 

Jeg er enig i at kameraprodusentene er gammelmodig, og lite villige til å følge med i tiden. Jeg bare mener at omtrent det eneste punktet der de ikke er gammelmodige er på slike rene "bildekvalitetsaspekter" som dette.

 

Det de er gammelmodige på, og ikke har forstått er at folk bruker bildene sine annerledes enn å bare lagre det på en brikke i disse dager.

 

AtW

Endret av ATWindsor
Lenke til kommentar
Gjest Slettet+5132

Jeg er enig i at kameraprodusentene er gammelmodig, og lite villige til å følge med i tiden. Jeg bare mener at omtrent det eneste punktet der de ikke er gammelmodige er på slike rene "bildekvalitetsaspekter" som dette.

Ja, men samtidig viser de at de er lite villige til å gå en epsilon utenfor rene bildekvalitetsaspekter. Denne maskinslæringsalgoritmen går vel mest på etterbehandling, og mulighetene for etterbehandling i kamera er ikke så store som en skulle ønske.

 

Olympus EM10 kan ikke sy sammen et panoramabilde i kamera (iallfall ikke Mark II, usikker på Mark III), til det må en inn i programvare på PCen. Dette er milevis unna funksjonaliteten på en moderne smarttelefon, hvor en får opp det genererte bilde i sanntid, og får feedback på om en holder kameraet riktig eller ei.

 

Du kan ikke legge til et enkelt graduated ND-filter på kameraet i etterbehandling (tror jeg iallfall?). HDR-funksjonaliteten mangler støtte for å velge hvordan ghosting skal håndteres, og sliter vel en del på bilder uten stativ (til sammenlikning har Lightroom støtte for Auto Align). Generelt er jeg betydelig mer fornøyd med HDR-bilder jeg slår sammen selv på PCen, enn de jeg lar kameraet ta seg av (mulig dette har blitt bedre).

 

Flere telefoner kan også få til gjennomsnitt av flere bilder, for eksempel ta en tidsserie av bilder og så ta et gjennomsnitt av dem for å få en utglattende effekt. Skal jeg få til det samme på et kamera, må jeg bruke lange lukkertider, men dette har sine begrensninger, og hvis en vil ha samme effekt "ut av kameraet" som en iPhone kan produsere, må en fort til med ND-filter eller gjøre midlingen på en PC i ettertid.

 

Alt dette er eksempler på funksjoner en smarttelefon allerede har, og har hatt i ganske lang tid (sanntidpanorama kom vel med iPhone 5?), men som moderne kamera mangler. Mye kan løses i software, men produsentene har tydeligvis ikke lyst eller ressurser til å gjøre dette selv, og heller ikke lyst til å la noen andre gjøre det. Så inntil vi ser støtte for dette, tror jeg ikke vi får støtte for maskinlæring for å velge etterbehandlingsparametere, dessverre.

Lenke til kommentar
×
×
  • Opprett ny...