Gå til innhold

Priskutt på HD DVD


Anbefalte innlegg

Om kilden er 30 Fps, så kan man bare be den sende samme fram to ganger, det krever i praksis ingen ekstra plass.
Eh, jo. Videocodecer er smarte, og de blir smartere, men de er ikke smarte. En videostrøm har ikke samme mulighet som en TV til å bare vise samme bilde to ganger. Noe tjenes inn slik at samme kvalitet ikke medfører en dobling av båndbredden, men forskjellen for MPEG-2 var betydelig.

 

Du kan jo prøve selv: Lag en MPEG-2 video med samme stillbilde repetert 24 ganger i 24fps og komprimer denne til en gitt størrelse. Gjør deretter det samme, men repeter denne gangen bildet 240 ganger og komprimer slik at videoen blir like stor som den første. Jeg lover at video nr. 2 blir 10 sekunder med grøt sammenliknet med den første.

 

Idealoppløsningen (målt i antall piksler/sekund) for et gitt kodek på en nominell bitrate (i.e. man skal ha plass til minst n kanaler på så og så mye båndbredde) er et produkt av kodekeffektiviteten. Ved lav kodekeffektivitet må også oppløsningen være lav, mens høyere effektivitet tillater høyere oppløsninger innenfor rammene man har å jobbe med. Følgelig var ikke 1080p et alternativ så lenge MPEG-2 var det eneste aktuelle kodeket (for høye bitratekrav), mens det med H.264/AVC kan være det (hvis de da ikke heller velger å skvise inn flere kanaler).

 

Edit: Uten at Wikipedia bør sees på som noen absolutt autoritet så sjekket jeg hva de hadde å si om saken.

Due to bandwidth limitations of broadcast frequencies, the ATSC and DVB have standardized only the frame rates of 24, 25, and 30 frames per second (1080p24, 1080p25, 1080p30). Higher frame rates, such as 1080p50 and 1080p60, could only be sent over normal-bandwidth channels if a more advanced codec (such as H.264/MPEG-4 AVC) were to be used. Higher frame rates such as 1080p50 and 1080p60 are foreseen as the future broadcasting standard for production.

 

In the United States, the ATSC is considering amending its standard to allow the incorporation of the newer codecs for optional usage like the DVB Project consortium already has done with DVB-S2. However, doing so is not expected to result in widespread consumer availability of broadcast 1080p programming, since most of the existing digital television sets or external digital receivers in use in the United States would still only be capable of decoding the older, less-efficient MPEG-2 codec, while the bandwidth limitations do not allow for broadcasting two simultaneous streams on the same broadcast channel (e.g. both a 1080i MPEG-2 stream alongside a 1080p MPEG-4 stream).

Endret av qwert
Lenke til kommentar
Videoannonse
Annonse
Og da er vi enige om at 60p KAN være mer båndbredde-effektiv enn 60i, slik at (avhengig av hva som er fasit) så KUNNE det være feil å velge 60i på bekostning av 60p bare på bakgrunn av transmittert båndbredde.
Mere effektiv? Ja, selvsagt. Effektiv nok til å gi samme kvalitet gitt samme båndbredde på majoriteten av innhold den gang dette ble bestemt? Åpenbart ikke.

 

ATWindsor skrev at "de burde kvittet seg mest mulig med alt som het interlacing mens de hadde muligheten", mens mitt poeng er at de aldri hadde den. Systemene for digital tv som er i bruk de fleste steder i dag, DVB og ATSC, ble standardisert på MPEG-2 for haugevis av år siden, og etter alt jeg har lest om dette ble 1080p/60 ikke med siden man anså det for å være for båndbreddekrevende i absolutte termer. (Skjønt det kan selvsagt ha vært fordi de var idioter.) Samtidig ble 1080i på kringkastingssiden populært over de 1080p-formatene som faktisk var med i standardene av de grunnene jeg har skissert i en tidligere post (og av åpenbare kostnadsgrunner på TV-produsent og konsumentsiden).

 

At det kunne være andre gode grunner er hevet over enhver tvil, og så lenge hverken jeg eller du har gjennomført kontrollerte panel-tester med de to alternativene har vi heller ingen fasit på hva som er best av 60i og 60p ved samme båndbredde for et variert utvalg kilder.
Fair nok. Jeg tror egentlig vi er ganske enige.

 

I dag har vi bedre modulasjonsteknikker og avanserte videocodecer som gjør dette spørsmålet aktuelt igjen, men her kommer mitt poeng om infrastruktur inn. Først nå har vi en reell mulighet til å kvitte oss med 1080i, og i den herværende situasjonen er det ikke tekniske begrensinger som er hindringen. Bøygen er massene av eksisterende utstyr (både på produsent og konsumentsiden) samt markedsmessige hensyn hva kvalitet vs. kvantitet angår.

 

Altså:

  • Den gang da: 1080p/60 blir ansett for å ikke gi tilstrekkelig kvalitet gitt eksisterende teknologi og tilgjengelig båndbredde.
  • I mellomtiden: 1080i/60 dominerer 1080p/24-25-30 grunnet fleksibilitet, eksisterende kildemateriale og utstyret som er blant folk.
  • I disse dager: Ingen tekniske grunner til å unngå 1080p/60, men infrastrukturen mangler. 1080p kommer, men det vil ta tid.

Personlig må jeg innrømme at bortsett fra sportssendinger ser jeg ikke helt poenget med 60p bare for 60p sin skyld. Dagsrevyen i 1080x1920 blir neppe en vesentlig bedre opplevelse med en dobbel bilderate. Da vil jeg heller ha 1080p/24 (bort med judder og plass til flere kanaler) siden det ikke ser ut til at 24fps vil forsvinne som standard for film og serieinnhold i overskuelig framtid.

Lenke til kommentar
Om kilden er 30 Fps, så kan man bare be den sende samme fram to ganger, det krever i praksis ingen ekstra plass.
Eh, jo. Videocodecer er smarte, og de blir smartere, men de er ikke smarte. En videostrøm har ikke samme mulighet som en TV til å bare vise samme bilde to ganger. Noe tjenes inn slik at samme kvalitet ikke medfører en dobling av båndbredden, men forskjellen for MPEG-2 var betydelig.

 

Du kan jo prøve selv: Lag en MPEG-2 video med samme stillbilde repetert 24 ganger i 24fps og komprimer denne til en gitt størrelse. Gjør deretter det samme, men repeter denne gangen bildet 240 ganger og komprimer slik at videoen blir like stor som den første. Jeg lover at video nr. 2 blir 10 sekunder med grøt sammenliknet med den første.

 

Idealoppløsningen (målt i antall piksler/sekund) for et gitt kodek på en nominell bitrate (i.e. man skal ha plass til minst n kanaler på så og så mye båndbredde) er et produkt av kodekeffektiviteten. Ved lav kodekeffektivitet må også oppløsningen være lav, mens høyere effektivitet tillater høyere oppløsninger innenfor rammene man har å jobbe med. Følgelig var ikke 1080p et alternativ så lenge MPEG-2 var det eneste aktuelle kodeket (for høye bitratekrav), mens det med H.264/AVC kan være det (hvis de da ikke heller velger å skvise inn flere kanaler).

 

Edit: Uten at Wikipedia bør sees på som noen absolutt autoritet så sjekket jeg hva de hadde å si om saken.

Due to bandwidth limitations of broadcast frequencies, the ATSC and DVB have standardized only the frame rates of 24, 25, and 30 frames per second (1080p24, 1080p25, 1080p30). Higher frame rates, such as 1080p50 and 1080p60, could only be sent over normal-bandwidth channels if a more advanced codec (such as H.264/MPEG-4 AVC) were to be used. Higher frame rates such as 1080p50 and 1080p60 are foreseen as the future broadcasting standard for production.

 

In the United States, the ATSC is considering amending its standard to allow the incorporation of the newer codecs for optional usage like the DVB Project consortium already has done with DVB-S2. However, doing so is not expected to result in widespread consumer availability of broadcast 1080p programming, since most of the existing digital television sets or external digital receivers in use in the United States would still only be capable of decoding the older, less-efficient MPEG-2 codec, while the bandwidth limitations do not allow for broadcasting two simultaneous streams on the same broadcast channel (e.g. both a 1080i MPEG-2 stream alongside a 1080p MPEG-4 stream).

9440312[/snapback]

 

Isåfall kan man bare kjøre det med lavere FPS om det er et problem, når kildematerialet er på lavere FPS så er det er det like greit.

 

AtW

Lenke til kommentar
Altså:

[*]Den gang da: 1080p/60 blir ansett for å ikke gi tilstrekkelig kvalitet gitt eksisterende teknologi og tilgjengelig båndbredde.

 

Det er bare det at 1080i gir enda dårligere kvalitet, om man har 60 unike frames. (dvs la meg modifisere litt, når man låser opplsøningen til 1920*1080 er ikke det nødvendigvis sant, men det er en kunstig begrensning, man kunen feks ha hatt 720p, 180 med 60 unike frames er ikke 1080 uansett, det er 540).

 

AtW

Endret av ATWindsor
Lenke til kommentar
Det er bare det at 1080i gir enda dårligere kvalitet, om man har 60 unike frames.
Enda dårligere kvalitet enn hva? Her tror jeg nesten du må utdype hva du mener.

 

Altså: ATSC for OTA HDTV i USA (som var tidlig ute og åpenbart har vært en premissleverandør for markedet) hadde ca. 19Mbit/s å boltre seg på. De som snekret sammen disse greiene mente at dette ikke var nok til å vise MPEG-2 enkodet i 1080x1920@60, men tilstrekkelig til 1080x1920@30/540x1920@60.

 

Du mener derimot at de tok feil, og at 1080x1920@60 ville gitt den beste kvaliteten, korrekt?

Lenke til kommentar
Det er bare det at 1080i gir enda dårligere kvalitet, om man har 60 unike frames.
Enda dårligere kvalitet enn hva? Her tror jeg nesten du må utdype hva du mener.

 

Altså: ATSC for OTA HDTV i USA (som var tidlig ute og åpenbart har vært en premissleverandør for markedet) hadde ca. 19Mbit/s å boltre seg på. De som snekret sammen disse greiene mente at dette ikke var nok til å vise MPEG-2 enkodet i 1080x1920@60, men tilstrekkelig til 1080x1920@30/540x1920@60.

 

Du mener derimot at de tok feil, og at 1080x1920@60 ville gitt den beste kvaliteten, korrekt?

9441892[/snapback]

 

Nei, jeg mener at å gjøre det på en annen måte enn å bare kutte den vertikale oppløsningen i to hadde gitt den beste kvaliteten. Om man allerede låser seg til en framerate, og en komprimeringstype, ved en gitt båndbredde, og det gir best resultatet å kutte, så burde man holdt seg til proressib, bare med lavere opplsøning, det hadde gitt bedre resultat.

 

AtW

Lenke til kommentar
Nei, jeg mener at å gjøre det på en annen måte enn å bare kutte den vertikale oppløsningen i to hadde gitt den beste kvaliteten.
Den er bare kuttet i to for innhold hvor kilden er 1080p@>30 fps. Her er dessuten noe å tenke på: Finnes slikt innhold ut over teorien? Så vidt jeg vet er kameraer laget for sending av sport 1080i/60 i utgangspunktet, så det er ingen kapping her heller.
Om man allerede låser seg til en framerate, og en komprimeringstype, ved en gitt båndbredde og det gir best resultatet å kutte
Om man låser seg til? Framerate er begrenset av kompatibilitet med visningsutstyr, komprimeringstype må selvsagt standardiseres på et vis, og båndbredde er begrenset av modulering og at man selvsagt må definere avgrensede kanaler med et gitt signalområde ('lufta er for alle' ville neppe blitt en heldig løsning).
så burde man holdt seg til proressib, bare med lavere opplsøning, det hadde gitt bedre resultat.
Hei, jeg heter 720p. Broren min har 12,5% flere piksler enn meg, men det høres mye mer ut når mamma og pappa skryter av han i sånn derre reklame. Derfor liker mamma og pappa broren min best, selv om jeg har høyere vertikal oppløsning, krever mindre båndbredde, er mer fleksibel, og også komprimerer mer effektivt.

 

Verden er ikke rettferdig.

 

Edit: Sånn rent bortsett fra at den er rettferdig likevel. Siden det knappast (om noe) finnes innhold som er 1080x1920@60 gir 1080i stort sett en langt (116%) høyere effektiv oppløsning enn 720p.

Endret av qwert
Lenke til kommentar
så burde man holdt seg til proressib, bare med lavere opplsøning, det hadde gitt bedre resultat.
Hei, jeg heter 720p. Broren min har 12,5% flere piksler enn meg, men det høres mye mer ut når mamma og pappa skryter av han i sånn derre reklame. Derfor liker mamma og pappa broren min best, selv om jeg har høyere vertikal oppløsning, krever mindre båndbredde, er mer fleksibel, og også komprimerer mer effektivt.

 

Verden er ikke rettferdig.

 

Edit: Sånn rent bortsett fra at den er, siden det knappast (om noe) finnes innhold som er 1080x1920@60 og da gir 1080i langt høyere effektiv oppløsning enn 720p.

9442155[/snapback]

 

Så du er mao enig i at 1080i er et langt dårligere valg enn feks 720p, til kildemateriale som er 60 frames?

 

Om kildematerielet er 30 fps, så kjøerer man 1080p@30fps, er kildematerilet 60fps så kjøerer man 720p på 60 fps, i begge tilfeller blir resultatet bedre enn, eller likt som 1080i.

 

AtW

Lenke til kommentar
Så du er mao enig i at 1080i er et langt dårligere valg enn feks 720p, til kildemateriale som er 60 frames?
Jepp. Jeg er dog usikker på i hvilken grad slikt kildemateriale finnes, men til en sportssending, for eksempel, ville jeg valgt 720p@60 foran 1080i@60.
Om kildematerielet er 30 fps, så kjøerer man 1080p@30fps, er kildematerilet 60fps så kjøerer man 720p på 60 fps, i begge tilfeller blir resultatet bedre enn, eller likt som 1080i.
Forsåvidt, ja. Men ikke om kildematerialet er 24fps, da er 1080i best uansett.

 

Dessuten er 1080p@30fps og 1080p@24fps begrenset av eksisterende visningsutstyr, så for fleksibilitetens skyld er 1080i@60 det beste alternativet også for innhold som er 1080p@30fps (selv om 1080i@60 komprimerer dårligere og øker muligheten for fuckups).

Lenke til kommentar
Så du er mao enig i at 1080i er et langt dårligere valg enn feks 720p, til kildemateriale som er 60 frames?
Jepp. Jeg er dog usikker på i hvilken grad slikt kildemateriale finnes, men til en sportssending, for eksempel, ville jeg valgt 720p@60 foran 1080i@60.
Om kildematerielet er 30 fps, så kjøerer man 1080p@30fps, er kildematerilet 60fps så kjøerer man 720p på 60 fps, i begge tilfeller blir resultatet bedre enn, eller likt som 1080i.
Forsåvidt, ja. Men ikke om kildematerialet er 24fps, da er 1080i best uansett.

 

Dessuten er 1080p@30fps og 1080p@24fps begrenset av eksisterende visningsutstyr, så for fleksibilitetens skyld er 1080i@60 det beste alternativet også for innhold som er 1080p@30fps (selv om 1080i@60 komprimerer dårligere og øker muligheten for fuckups).

9442342[/snapback]

 

Hvorfor mener du 1080i er bedre om kildematerialet er 24 fps? Jeg hadde vitterlig foretrukket 1080p@24...

 

AtW

Lenke til kommentar
Hvorfor mener du 1080i er bedre om kildematerialet er 24 fps? Jeg hadde vitterlig foretrukket 1080p@24...
Vel, ikke bedre bedre. Vi diskuterer da vitterlig ut fra 'hvorfor de ikke kvittet seg med interlacing' når de hadde muligheten, ikke sant? En kanal som kun sender 1080p@24 pdd. vil ha et svært begrenset kundegrunnlag. De som har en TV som kan vise 1080p@24 med 3:3 pulldown har også gjerne er videoprosessor i den som er smart nok til å kaste vekk den overflødige informasjonen i et 1080i@60-signal og vise 24p uansett, i.e. utføre inverse telecine (med forbehold om at TV-transfers har en tendens til å inneholde tidligere nevnte fuckups).

 

Hva 1080i@60 vs 1080p@30 for 24fps innhold angår er det rett og slett fordi førstnevnte går opp i mønstrene arvet fra NTSC-tiden for 3:2 pulldown og dermed skal kunne rekonstruere de progressive bildene feilfritt mens 1080p@30 nødvendigvis må inneholde blandede frames eller uregelmessig pulldown (samme forbehold som over).

Lenke til kommentar
Hvorfor mener du 1080i er bedre om kildematerialet er 24 fps? Jeg hadde vitterlig foretrukket 1080p@24...
Vel, ikke bedre bedre. Vi diskuterer da vitterlig ut fra 'hvorfor de ikke kvittet seg med interlacing' når de hadde muligheten, ikke sant? En kanal som kun sender 1080p@24 pdd. vil ha et svært begrenset kundegrunnlag. De som har en TV som kan vise 1080p@24 med 3:3 pulldown har også gjerne er videoprosessor i den som er smart nok til å kaste vekk den overflødige informasjonen i et 1080i@60-signal og vise 24p uansett, i.e. utføre inverse telecine (med forbehold om at TV-transfers har en tendens til å inneholde tidligere nevnte fuckups).

 

Hva 1080i@60 vs 1080p@30 for 24fps innhold angår er det rett og slett fordi førstnevnte går opp i mønstrene arvet fra NTSC-tiden for 3:2 pulldown og dermed skal kunne rekonstruere de progressive bildene feilfritt mens 1080p@30 nødvendigvis må inneholde blandede frames eller uregelmessig pulldown (samme forbehold som over).

9442532[/snapback]

 

Hvordan mener du en 24 fps-kilde kan rekonstrueres "feilfritt", fra at 60i-signal, om TVen i seg selv ikke kan kjøre ut et bilde på 24 fps? Om TVen kjører 60i-signalet rett ut, så er det ikke rekonsturert feilfritt, om TVen smeller det ut på 30 FPS, så får man samme deinterlaving-problematikk man hadde før, med kvalitetstap og mas, kan TVen kjøre ut på et multiplum av 24, så er det bedre om kildesignalet er 24 fps også.

 

AtW

Lenke til kommentar
Hvordan mener du en 24 fps-kilde kan rekonstrueres "feilfritt", fra at 60i-signal, om TVen i seg selv ikke kan kjøre ut et bilde på 24 fps?
Å kunne rekonstruere de progressive bildene 'feilfritt' i opprinnelig oppløsning er ikke det samme som å kunne vise dem 'feilfritt' i korrekt hastighet. Hvis ikke TVen takler 24fps blir det selvsagt 3:2 pulldown med det judder det medfører. Poenget var sammenlikningen mot 30p som enten vil gi blandede bilder eller et uregelmessig pulldown-mønster (begge problemer jeg anser som større enn alternativet). Beklager om ikke dette gikk klart nok frem.
kan TVen kjøre ut på et multiplum av 24, så er det bedre om kildesignalet er 24 fps også.
Vel, duh... Meg i rollen som leverandør av TV-sendinger antar at hvis du først har en 24p kapabel TV (nesten ingen andre har), så er den bra nok til å takle oversettelsen fra 1080i også. Vi velger derfor å ignorere denne selvfølgeligheten inntil videre. Nye dekodere koster penger, og vi har nettopp pushet på folk det rælet vi bruker nå. 24p er noe som får komme etter hvert, det har ingen hast...

 

Edit: For ordens skyld vil jeg påpeke at jeg tidligere i tråden har ytret ønske om 24p. Jeg har bare ikke den helt store troen på at det dukker opp med det første.

Endret av qwert
Lenke til kommentar
Hvordan mener du en 24 fps-kilde kan rekonstrueres "feilfritt", fra at 60i-signal, om TVen i seg selv ikke kan kjøre ut et bilde på 24 fps?
Å kunne rekonstruere de progressive bildene 'feilfritt' i opprinnelig oppløsning er ikke det samme som å kunne vise dem 'feilfritt' i korrekt hastighet. Hvis ikke TVen takler 24fps blir det selvsagt 3:2 pulldown med det judder det medfører. Poenget var sammenlikningen mot 30p som enten vil gi blandede bilder eller et uregelmessig pulldown-mønster (begge problemer jeg anser som større enn alternativet). Beklager om ikke dette gikk klart nok frem.
kan TVen kjøre ut på et multiplum av 24, så er det bedre om kildesignalet er 24 fps også.
Vel, duh... Meg i rollen som leverandør av TV-sendinger antar at hvis du først har en 24p kapabel TV (nesten ingen andre har), så er den bra nok til å takle oversettelsen fra 1080i også. Vi velger derfor å ignorere denne selvfølgeligheten inntil videre. Nye dekodere koster penger, og vi har nettopp pushet på folk det rælet vi bruker nå. 24p er noe som får komme etter hvert, det har ingen hast...

 

Edit: For ordens skyld vil jeg påpeke at jeg tidligere i tråden har ytret ønske om 24p. Jeg har bare ikke den helt store troen på at det dukker opp med det første.

9442760[/snapback]

 

Om signalet sendes i 1080@24p så er det også feilfritt, hele poenget er at det ikke gir noen fordeler å sende signalet som 1080i@60, å sende det som 1080p@30 har aldri vært mitt forslag.

 

Nå må vi jo holde oss til det du har lagt som premisser her, nemlig om de skulle kvittet seg med interlacing når de gikk over til et nyttt system, da nytter det ikke å trekke inn hvordan dagens TVer stort sett fungerer, som jo er formet etter hvordan sendingene er.

 

Jeg har fortsatt til gode å se et eneste teknisk argument for å beholde interlacing, der progressivt ikke kunne gjrt jobben like bra eller bedre.

 

AtW

Lenke til kommentar
Om signalet sendes i 1080@24p så er det også feilfritt, hele poenget er at det ikke gir noen fordeler å sende signalet som 1080i@60
Du har forsåvidt rett i at det ikke er noen fordeler. For eiere av de ca. 14 TVene som tar en 24p transport som innsignal, vel å merke. Jeg er totalt enig i at man ikke kan forvente at disse skal måtte satse på en korrekt kodet bitstrøm for å få 24p. Folk som ikke kjøper skikkelige HDTVer ødelegger for dem og fortjener ikke å se på TV!
Nå må vi jo holde oss til det du har lagt som premisser her, nemlig om de skulle kvittet seg med interlacing når de gikk over til et nyttt system
Huh? Det var da du som sa "burde kvittet seg mest mulig med alt som het interlacing mens de hadde muligheten". Jeg har bare påpekt at det var akkurat det de gjorde den gang da, de kvittet seg med så mye som mulig. Og nå er de i ferd med å kvitte seg med resten. Det vil bare ta en 20 års tid.
da nytter det ikke å trekke inn hvordan dagens TVer stort sett fungerer, som jo er formet etter hvordan sendingene er.

 

Jeg har fortsatt til gode å se et eneste teknisk argument for å beholde interlacing, der progressivt ikke kunne gjrt jobben like bra eller bedre.

Hvem snakker om teknikk? Mine teknikkreferanser er kun brukt for å påpeke at progressiv transport er langt mindre viktig enn du later til å tro. I de aller fleste tilfellene vil 1080i gi samme resultatet.

 

Det er heller du som flytter målstengene hele tiden. Mitt første svar er fortsatt det korrekte svaret: Infrastruktur. Det nytter lite å herpe på at 'alt burde være progressivt' når man viser så liten forståelse for hvorfor ståa er slik den er i dag, hvilke begrensinger det setter, og hva man kan oppnå med imperfekte standarder uten å bryte kompatiblitet. Det er svært lite produktivt når det gjelder å få en best mulig opplevelse av HD-media i morgen og i den nære framtid.

Lenke til kommentar
Om signalet sendes i 1080@24p så er det også feilfritt, hele poenget er at det ikke gir noen fordeler å sende signalet som 1080i@60
Du har forsåvidt rett i at det ikke er noen fordeler. For eiere av de ca. 14 TVene som tar en 24p transport som innsignal, vel å merke. Jeg er totalt enig i at man ikke kan forvente at disse skal måtte satse på en korrekt kodet bitstrøm for å få 24p. Folk som ikke kjøper skikkelige HDTVer ødelegger for dem og fortjener ikke å se på TV!
Nå må vi jo holde oss til det du har lagt som premisser her, nemlig om de skulle kvittet seg med interlacing når de gikk over til et nyttt system
Huh? Det var da du som sa "burde kvittet seg mest mulig med alt som het interlacing mens de hadde muligheten". Jeg har bare påpekt at det var akkurat det de gjorde den gang da, de kvittet seg med så mye som mulig. Og nå er de i ferd med å kvitte seg med resten. Det vil bare ta en 20 års tid.
da nytter det ikke å trekke inn hvordan dagens TVer stort sett fungerer, som jo er formet etter hvordan sendingene er.

 

Jeg har fortsatt til gode å se et eneste teknisk argument for å beholde interlacing, der progressivt ikke kunne gjrt jobben like bra eller bedre.

Hvem snakker om teknikk? Mine teknikkreferanser er kun brukt for å påpeke at progressiv transport er langt mindre viktig enn du later til å tro. I de aller fleste tilfellene vil 1080i gi samme resultatet.

 

Det er heller du som flytter målstengene hele tiden. Mitt første svar er fortsatt det korrekte svaret: Infrastruktur. Det nytter lite å herpe på at 'alt burde være progressivt' når man viser så liten forståelse for hvorfor ståa er slik den er i dag, hvilke begrensinger det setter, og hva man kan oppnå med imperfekte standarder uten å bryte kompatiblitet. Det er svært lite produktivt når det gjelder å få en best mulig opplevelse av HD-media i morgen og i den nære framtid.

9443744[/snapback]

 

Hva gjør at man den gang da ikke kunne kuttet 1080i@60? Det eneste argumentet du har kommet med er at TVer lagd etter dette dårlige valget ble gjort, naturlig nok er tilpasset dette valget.

 

Hva med infrastrukturen gjør at man måtte ha interlced med inn i "den nye tid"? Det er idiotisk at man har med interlacing i dag, fordi det ikke har noen tekniske fordeler, og hvilke komabilitet er det man hadde brutt med å kaste interlacing på båten en gang for alle den gang da?

 

Er kildematerialet 24 fps er 1080p@24 i verste fall like bra som interlacing, ofte bedre.

Er kildematerialet 30 Fps så er 1080p@30 i verste fall like bra som interlacing, ofte bedre

Er kildematerilet 60 fps er 720p@60 bedre en 1080i@60.

 

Dette burde de innsett den gang da, og kastet interlacing på båten, gamle Ter kunne uansett ikke ta inn digitale signaler, så eventuell kompabilitet med de ordnes vha enheten som konverterer til analogt, nye TVer tilpasses åpenbart det som finnes. Og hadde klart seg med mindre tull om interlacing ble slengt på havet.

 

AtW

Lenke til kommentar

For diskusjonen er det en stor fordel om man holder tunga rett i munnen mhp om man diskuterer:

 

Video-innhold som er filmet med temporær oppløsning på 50/60 frames eller fields/sekund

 

Kino-innhold som er filmet med temporær oppløsning på 24 fps, og transporteres som 24p, 50i/p eller 60i/p

 

Her i europa har vi normalt 50i/p, som gir en glimrende sjanse til å sende kino-innhold som 25p, kodet som 50i eller 50p. Det gir god avspilling på crt-skjermer og flatskjermer, sannsynligvis god kompresjon og den eneste kostnaden er 4% kortere spilletid (og evt noen audio-artefakter).

 

 

Jeg er enig i at når bitraten er lav (pr pixel) så reduseres kodingseffektiviteten. Dermed kan 1080@60i være bedre enn 1080@60p for samme bitrate om bitraten er lav. Akkurat ved hvilken bitrate dette skjer er åpent for diskusjon. Men i dette tilfellet seiler også 720@60p opp som en god kandidat, og "vinduet" mellom 720@60p og 1080@60p hvor 1080@60i kanskje gir bedre oppfattet kvalitet for en gitt bitrate tror jeg kan være ganske liten (begrenset til scener med minimal bevegelse).

 

Dette er et uttrykk for det qwert sier om at en codec har en "sweetspot" for en gitt oppløsning, gitt kildemateriale og gitt bitrate. Hvis bitraten endres for mye, så reduseres kvaliteten mer enn man skulle vente, og total-kvaliteten hadde blitt bedre om man skalerte ned bildet, komprimerte det og så skalerte det opp.

 

Når man tar med i regnestykken sjansen for at en eller annen bruker får kvalitetsproblemer som følge av elendig deinterlacer og/eller amatørmessig broadcaster som maltrakterer strømmen så mener jeg fremdeles at 1080i primært var motivert av PR-årsaker, og ikke av tekniske årsaker.

 

-k

Endret av knutinh
Lenke til kommentar
så mener jeg fremdeles at 1080i primært var motivert av PR-årsaker, og ikke av tekniske årsaker.
Jeg var helt enig frem til hit. :)

 

Hvordan du kan si at 1080i primært en en PR-greie er for meg ganske uforståelig (skjønt det kan ha blitt brukt slik de seneste årene). Selv med disse 'mulighetene for å rote det til' vi begge har påpekt til det kjedsommelige (forsåvidt et problem for mange standarder, trådløst anyone, men jeg synes i utgangspunktet en standardsetter ikke skal ta avgjørende hensyn til dette så lenge spesifikasjonene i seg selv er klare), så har formatet helt åpenbare fordeler over 720p hva en lang rekke av kildemateriale angår. For materiale som har en >30fps oppløsning i tid gir 1080i en godt over dobling av oppløsningen i rom. Selvsagt var det gode grunner til å ønske dette.

 

Siden rammene for den totale oppløsningen det ble jobbet innenfor ikke var mer enn ca. 25% høyere enn for 720p (og da har jeg inkludert litt lavere effektivitet for 1080i og antatt at dette er maks) ville et progressivt alternativ blitt enten en svært, svært marginal oppløsingsøkning i rom eller introduksjonen av en ny og mellomliggende oppløsning i tid. Ingen av disse to synes for meg som bedre alternativer enn 1080i.

 

Så kan vi begge være skjønt enige om at det ville vært helt fantastisk om alle hadde skjermer og utstyr som frigjorde verden fra den klamme hånden av undertrykkelse skapt gjennom et halvt århundre hvor kildefrekvens, transportfrekvens og visningsfrekvens var sterkt avhengige av hverandre, satte begrensninger for hverandre, og la premissene for den framtidige utviklingen[*].

 

Dog, på samme måte kan vi vel begge være skjønt enige om at det ville vært helt fantastisk hvis det ble fred på jord i morgen og vi begge vant i lotto, men å basere en diskusjon (ut over en rent hypotetisk en, noe som kanskje kunne vært interessant i seg selv) på drømmer og luftslott er noe bortkastet... ;)

[*]Faktisk, så ser jeg egentlig ingen store tekniske problemer med et dynamisk visningssystem, men det vil dessverre aldri være praktisk gjennomførbart å rulle ut et revolusjonerende format. Jeg tror det beste man kan håpe på er å etterspørre og konsumere innhold som bringer tingenes tilstand nærmere idealtilstanden, for deretter å vente på at markedet i isbre-fart skal komme sigende.

Lenke til kommentar
så mener jeg fremdeles at 1080i primært var motivert av PR-årsaker, og ikke av tekniske årsaker.
Jeg var helt enig frem til hit. :)

 

...

For materiale som har en >30fps oppløsning i tid gir 1080i en godt over dobling av oppløsningen i rom. Selvsagt var det gode grunner til å ønske dette.

9445581[/snapback]

Hvordan får du dette til? For still-bilder vil 1080@50i gi ca dobbelt romlig oppløsning av 720@50p. For video-sekvenser med lavere enn 25fps reelt innhold (f.eks film) så kan 1080@50i gi dobbelt så høy romlig oppløsning som 720@50p.

 

For materiale med reell bevegelse som er filmet i 50p så vil ikke 1080@50i gi noe bedre romlig oppløsning enn 720@50p. 1080i gir da 1920x540 pixler 50ggr pr sekund, mens 720p gir 1280x720 pixler 50ggr pr sekund. Dette materialiseres ved at deinterlacere snubler mer jo mer bevegelse og innovasjon det er i bildet. Spesielt rimelig utstyr har ofte bare bob/weave deinterlacing (i 2005 gjaldt dette sågodt som alle flatskjermer uansett prisklasse).

 

For oss som bor i PAL-land så ville 1080@25p være å foretrekke framfor 1080@50i for kino-materiale, pga kodingseffektivitet og robusthet.

 

For de som bor i NTSC-land er muligens 1080@60i å foretrekke for 24p materiale framfor 720@60p, men som sagt lengre opp så forekommer reelle problemer med materiale og avspillingsutstyr som gjør at brukerne må kjøpe unødvendig dyrt utstyr for å være garantert en god opplevelse - med progressivt hadde kina-utstyr relativt sett kunnet hevde seg mye bedre. Dessuten ser det ut til at 24p overføring får fotfeste i Usa (enten dette har tekniske eller PR-messige årsaker).

 

-k

Lenke til kommentar
Hvordan får du dette til?
Gah... Der er det en krokodillemunn som spiser feil tall. Beklager.

 

Jeg mente selvsagt innhold under 30fps, i.e. det meste som finnes p.dd. (noe du nesten burde skjønt - den foregående diskusjonen tatt i betraktning). :cool:

For oss som bor i PAL-land [...] For de som bor i NTSC-land
Denne avgrensingen er ikke så veldig relevant. Alle HD-Ready skjermer i Europa må støtte både 50 og 60Hz, så jeg ser markante fordeler med at innholdsprodusentene bare trenger å forholde seg til en målrate. Så lenge 1080i/60 som transportformat går opp med hele bilder i 3:2 blir det da opp til TVen hvordan en 24fps kilde skal vises, det være seg 48, 50, 60, eller 72Hz. All den tid det er et ekstremt fåtall av TVer som kan motta et signal i 24p eller 25p ser jeg på dette som den beste løsningen i praksis (dog ikke i teorien).
Dessuten ser det ut til at 24p overføring får fotfeste i Usa (enten dette har tekniske eller PR-messige årsaker).
Link? Dette er jo i så fall en fin ting, men jeg tviler litt på at det vil få bredt fotfeste her hjemme. Jeg ser ikke helt for meg at Get, for eksempel, skulle føle noe stort behov for å bytte ut dekoderparken sin ennå en gang så nært opp til utrullingen av deres 'fabelaktige' Thomas Giertsen-TV. Men kanskje en av satelitt-tilbyderne kan tenkes å levere et par 24p-kanaler på sikt. Endret av qwert
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...