Gå til innhold

Priskutt på HD DVD


Anbefalte innlegg

Hensikten med 1080i slik jeg har forstått det er/var:

 

1. God støtte for det anseelige antallet crt tv/projektorer som dominerte USA tidlig i HD-historien

2. Relativt god støtte for 24p kinomateriale på tvers av displayteknologier

I tillegg var TV-bransjen ('broadcasting', ikke produsentene) veldig klare på at linjeflettede oppløsninger måtte bli med også i framtiden. Mens båndbredde bare er et moderat kompleksitetsproblem hva elektronikken angår er det alfa og omega for tilgjengelig plass i infrastrukturen.

9437863[/snapback]

 

Det er en gammeldags måte å tenke på, det er ingen god måte å spare båndbredde på.

 

AtW

Lenke til kommentar
Videoannonse
Annonse
Det er en gammeldags måte å tenke på, det er ingen god måte å spare båndbredde på.
Sant nok, men er du Sky Digital, Viasat eller hvemsomhelst, så er plass til 16 kanaler i stedet for 10 ganske attraktivt så lenge man fortsatt kan bruke begreper som HD og 1080x1920 til å pushe varene sine.

 

Spranget fra 720p til 1080p er tross alt ganske stort (hva båndbredde angår), men neppe like hardtslående kvalitetsmessig når man tar hvermansens oppfatning av bildekvalitet og utsyret han har med i betrakningen. 'Brukeropplæring' er vanskelig nok i utgangspunktet, og jeg skjønner forsåvidt godt at de prioriterte flere kanaler framfor fokus på den absolutt beste bildekvaliteten slik ståa er.

Lenke til kommentar
Det er en gammeldags måte å tenke på, det er ingen god måte å spare båndbredde på.

 

AtW

9437884[/snapback]

Det var også mitt poeng. Når det gjelder transmisjon over eter/optisk plate så fører sannsynligvis interlacing til noe _økt_ båndbredde, siden en progressiv video med hardere h264 komprimering nok ville være mer båndbredde/kvalitets-effektiv.

 

Når det gjelder kabelen fra HD-DVD til TV så er det kanskje et visst poeng med kompresjonen man får fra interlacing, men det er min påstand at båndbredde ikke er noe stort problem der, og om det var det burde man heller gå for en standardisert, lettvekts digital kompresjon (som kan realiseres til lav kost og gir bra bilde så lenge komrpesjonsratioen er lav), så som motion-jpg.

 

Det er en gammeldags måte å tenke på, det er ingen god måte å spare båndbredde på.
Sant nok, men er du Sky Digital, Viasat eller hvemsomhelst, så er plass til 16 kanaler i stedet for 10 ganske attraktivt så lenge man fortsatt kan bruke begreper som HD og 1080x1920 til å pushe varene sine.

9437983[/snapback]

Men hvorfor ikke heller sende 10 kanaler i stedetfor 16 med progressiv video ved 1920x1080, men hardere digital kompresjon og bedre bilde?

 

-k

Endret av knutinh
Lenke til kommentar
Men hvorfor ikke heller sende 10 kanaler i stedetfor 16 med progressiv video ved 1920x1080, men hardere digital kompresjon og bedre bilde?
Infrastruktur?

 

Det er åpenbart ingen magisk bryter man kan slå over som øker kompresjonsraten samtidig som man beholder bildekvaliteten. Å rulle ut MPEG-4 AVC, for eksempel, når utstyret ditt og kundenes er basert på MPEG-2 er ikke gjort over natta. Når det store flertall av kundene dine samtidig ser større nytte i et bredere kanaltilbud enn de gjør i (en tilsynelatende marginal) kvalitetsheving er det ikke mer å tenke på. Dessuten må man ha skikkelige transfers for at det skal være noe poeng i å øke oppløsningen, og dette er heller ikke uten kostnader. Som du selv påpekte kan det gå litt fort i svingene når både det ene og det andre skal tilpasses TV (til AVSForums store fortvilelse, mens hvermansen ikke later til å bry seg nevneverdig).

Lenke til kommentar
Men hvorfor ikke heller sende 10 kanaler i stedetfor 16 med progressiv video ved 1920x1080, men hardere digital kompresjon og bedre bilde?
Infrastruktur?

 

Det er åpenbart ingen magisk bryter man kan slå over som øker kompresjonsraten samtidig som man beholder bildekvaliteten.

9438123[/snapback]

Nei, selvsagt reduseres bildekvaliteten ved å komprimere hardere. Mener du at bildekvaliteten ikke blir dårligere av å interlace en progressiv strøm (gitt at alle frames/fields er "ekte")?

 

Spørsmålet er hvorvidt (interlacing + kompresjon) gir bedre bilde pr bit enn bare kompresjon alene. Det stiller jeg meg tvilsom til.

 

Tross alt er MPEG2 og h264 forsøk på å få optimal oppfattet bildekvalitet, innenfor den forståelsen og cpu-kraften som var realistisk ved det tidspunktet. Hvis interlacing/deinterlacing jevnt over bedret kompresjonseffektiviteten så ville jeg ha forventet at de inkluderte det som en generell kompresjonsmekanisme (og dermed hadde bedre kontroll på signalering slik at begge ender oppførte seg fornuftig)?

 

-k

Lenke til kommentar
Spørsmålet er hvorvidt (interlacing + kompresjon) gir bedre bilde pr bit enn bare kompresjon alene. Det stiller jeg meg tvilsom til.
Nei, spørsmålet er egentlig hvorvidt 1080p/60 (som ville være det ideelle, men ikke er en fjernsynsstandard en gang (til nå) grunnet båndbreddekravene) bruker mer plass enn 1080i/60. 1080i/60 er mindre effektivt enn 1080p/30, men å gå over til å sende i sistnevnte format kan ikke gjøres sånn helt uten videre.
Mener du at bildekvaliteten ikke blir dårligere av å interlace en progressiv strøm (gitt at alle frames/fields er "ekte")?
Nei, selvsagt senker dette kompresjonsraten, men mange av grunnene til at man gjør det likevel er problemer relatert til infrastruktur (og arven fra PAL/NTSC). Uten at jeg skal påstå å kjenne alle potensielle ulemper og løsninger, så vil for eksempel mye eksisterende kildemateriale måtte konverteres for å sendes som 1080p/30 siden 3:2 pulldown ikke går opp i 30 fps (å gå tilbake bilder med informasjon fra flere delbilder er neppe noen god løsning, verktøyene som brukes vil måtte tilpasses alternative visningsmønstre, problemene med judder vil øke/endres, osv.). I tillegg er det tilfeller hvor 1080i 'native' er å foretrekke (sport, for eksempel) hvor oppløsning i tid kan anses som viktigere enn oppløsning i rom.

 

Ei heller er det bare-bare å gå over til 1080p/24 siden man da vil måtte bytte ut en gigantisk haug med dekodere som ikke er designet for å motta slike signaler (for ikke å snakke at det virker 'bortkastet' når man ser på fåtallet av TVer som kan vise dem).

 

For å løse dette må vi nok vente på at skjermene vi bruker blir 'smarte' nok til å kunne akseptere et progressivt signal med en 'hvilken som helst' visningsfrekvens (eller i alle fall 24p i første omgang). Så får det bli opp til disse å avgjøre hvordan signalet best kan tilpasses de frekvensene skjermen faktisk kan vise.

Endret av qwert
Lenke til kommentar
Spørsmålet er hvorvidt (interlacing + kompresjon) gir bedre bilde pr bit enn bare kompresjon alene. Det stiller jeg meg tvilsom til.
Nei, spørsmålet er egentlig hvorvidt 1080p/60 (som ville være det ideelle, men ikke er en fjernsynsstandard en gang (til nå) grunnet båndbreddekravene) bruker mer plass enn 1080i/60. 1080i/60 er mindre effektivt enn 1080p/30, men å gå over til å sende i sistnevnte format kan ikke gjøres sånn helt uten videre.
Mener du at bildekvaliteten ikke blir dårligere av å interlace en progressiv strøm (gitt at alle frames/fields er "ekte")?
Nei, selvsagt senker dette kompresjonsraten, men mange av grunnene til at man gjør det likevel er problemer relatert til infrastruktur (og arven fra PAL/NTSC). Uten at jeg skal påstå å kjenne alle potensielle ulemper og løsninger, så vil for eksempel mye eksisterende kildemateriale måtte konverteres for å sendes som 1080p/30 siden 3:2 pulldown ikke går opp i 30 fps (å gå tilbake bilder med informasjon fra flere delbilder er neppe noen god løsning, verktøyene som brukes vil måtte tilpasses alternative visningsmønstre, problemene med judder vil øke/endres, osv.). I tillegg er det tilfeller hvor 1080i 'native' er å foretrekke (sport, for eksempel) hvor oppløsning i tid kan anses som viktigere enn oppløsning i rom.

 

Ei heller er det bare-bare å gå over til 1080p/24 siden man da vil måtte bytte ut en gigantisk haug med dekodere som ikke er designet for å motta slike signaler (for ikke å snakke at det virker 'bortkastet' når man ser på fåtallet av TVer som kan vise dem).

 

For å løse dette må vi nok vente på at skjermene vi bruker blir 'smarte' nok til å kunne akseptere et progressivt signal med en 'hvilken som helst' visningsfrekvens (eller i alle fall 24p i første omgang). Så får det bli opp til disse å avgjøre hvordan signalet best kan tilpasses de frekvensene skjermen faktisk kan vise.

9438549[/snapback]

Du begår en grunnleggende "feil" som er felles for alle diskusjoner om interlacing: Du gjør antagelser om 30p vs 60i vs 60p som jeg mener at man ikke kan ta.

 

Ideelt sett er tid og rom fleksible størrelser, på samme måte som båndbredde, distorsjon etc. Hvis 1080@60p h264, 10mbps ser bedre ut enn 1080@60i h264, 10mbps så ER det relevant å sammenligne dem. Så lenge kildemateriale, transmisjon og hjemmeutstyr er kompatibelt (noe som ikke generelt er sant) så ville det være idiotisk å velge en standard som gir dårligere bilde for sluttbrukeren, alt annet holdt konstant.

 

Poenget med transport av 24p kinomateriale over 60i er allerede diskutert lengre opp.

 

Det er greit å konkludere med at 50i/60i ble valgt av kompabilitetshensyn (fjernsyn, dekodere, transmisjonsutstyr, nettfrekvens). Det er ikke greit å konkludere med at man måtte velge disse av tekniske/båndbreddehensyn med mindre man kan sannsynliggjøre at 60i ser bedre ut enn _alle_ andre alternativer med alt annet holdt konstant.

 

Det er min overbevisning at sluttbrukeren ville ha blitt mer fornøyd dersom man designet et system rundt rent progressiv overføring av frames fra 24 til 60fps (avhengig av hva som fungerte best for kilden), og lot dekoderen ta seg av frameratekonvertering der hvor det behøves. Dette er selvsagt i etterpåklokskap når vi nå vet at de fleste display er progressiv og med varierende oppløsning og fleksibel framerate.

 

Ellers venter jeg på en arvtager til HDMI som er asynkron : kilden presser ut en frame når den føler for det, og displayet presser framen ut til skjerm i det øyeblikket den er komplettert. Kilden kunne kanskje tilby ekstra-informasjon om forventet framerate slik at displayteknologier med bevegelsesforbedrende teknikker hadde et hint, men uansett måtte de akseptere vilkårlige framerates innen et vidt spenn. Det ville åpne for frame-jitter, men samtidig gjøre at irriterende FRC blir en sagablott.

 

-k

Endret av knutinh
Lenke til kommentar
Hvis 1080@60p h264, 10mbps ser bedre ut enn 1080@60i h264, 10mbps så ER det relevant å sammenligne dem.
Ikke all den tid 1080p/60 ikke er et alternativ (ennå).
Poenget med transport av 24p kinomateriale over 60i er allerede diskutert lengre opp.
Ikke i denne sammenhengen. At å skulle ta hensyn 1080i medfører større sjanse for fuckups enn hvis man bare skulle brydd seg med progressiv 60Hz er nok sant når det gjelder stuespillere (selv om de i teorien skal være identiske for filminnhold), men for TV er alternativet (igjen, til nå) 1080p/30 som unektelig er underlegent 1080i/60.
Det er ikke greit å konkludere med at man måtte velge disse av tekniske/båndbreddehensyn med mindre man kan sannsynliggjøre at 60i ser bedre ut enn _alle_ andre alternativer med alt annet holdt konstant.
Motsatt. 1080p/60 ble utelatt av båndbreddehensyn, mens 1080i/60 er foretrukket foran 1080p/30 av kvalitetshensyn selv om det bruker mer båndbredde. 1080p/24 på sin side er ennå ikke et breddealternativ på grunn av eksisterende infrastruktur/legacyhensyn. Endret av qwert
Lenke til kommentar
Motsatt. 1080p/60 ble utelatt av båndbreddehensyn,

9438906[/snapback]

Hvis dette stemmer så er hele diskusjonen bortkastet fordi det var det opprinnelige punktet som jeg var skeptisk til.

 

Har du en referanse på det?

 

Når du sier "båndbreddehensyn" så går jeg ut ifra at du mener at båndbredden som var nødvendig for å få et perseptuelt godt bilde fra 60p var høyere enn tilsvarende for 60i. Man kan selvsagt (trivielt) sende 1080@60p på 128kbps, resultatet blir bare hårreisende dårlig kvalitet.

 

 

Det betyr igjen at (interlacing + kompresjon) er bedre kompresjon enn (kompresjon), noe jeg stiller meg tvilende til.

 

-k

Endret av knutinh
Lenke til kommentar
Hvis dette stemmer så er hele diskusjonen bortkastet fordi det var det opprinnelige punktet som jeg var skeptisk til.

 

Har du en referanse på det?

Det er ikke i (edit: den internasjonale) standarden ennå. Nå som H.264/AVC er en realitet så jobbes det med saken. Felles standarder for 1080p i 50/60Hz kan vel komme i 2009 så vidt jeg forstår[*].
Det betyr igjen at (interlacing + kompresjon) er bedre kompresjon enn (kompresjon), noe jeg stiller meg tvilende til.
Nei, nei, nei. Her må man sammenlikne 1080p/30 vs. 1080i/60. Førstnevnte er overlegent hva kompresjonsrate angår (som du selv påpeker) hvis begge inneholder samme informasjon. Sistnevnte er overlegent hva kvalitet og fleksibilitet angår (høyere temporær oppløsning, 'gammelt' materiale passer, og det går opp i eksisterende teknikker for konvertering av 24p). 1080p/60 var ansett å ha for høye båndbreddekrav i absolutt forstand til å være praktisk med de (den gang da) aktuelle kompresjonsteknikkene.

 

[*] Edit: EBU har allerede, men USA er tross alt 'ledende' her på mange måter, og det er mye av dette jeg mener med infrastruktur. For å starte utrullingen måtte utbyggere ta til takke med det som var tilgjengelig, og dermed ender man opp med evolusjon framfor revolusjon med alle de negative effekter det medfører. Et velkoordinert globalt kvantesprang fra analog TV til 1080p/24-50-60 ville selvsagt vært supert, men ikke praktisk gjennomførbart.

Endret av qwert
Lenke til kommentar
Er ikke forutsetningen for diskusjonen at bildet uansett vises progressivt (dvs. at 1080i/60 vises som 1080p/30)?
Kommer an på både kildematerialet og skjermen. En 1080p/24 kilde transportert som 1080i/60 vil, for eksempel, kunne vises (forutsatt en korrekt flagget datastrøm og ikke hjernedød deinterlacer) som både 1080p/72 (med 3:3 pulldown på en TV som støtter dette) 1080p/60 (med 3:2 pulldown) eller 1080p/50 (med 4% 'PAL speedup'). 1080p/30 kan derimot ikke vises fra denne kilden (uten å blande informasjon fra de originale bilderammene i enkelte av visningsrammene) siden det ikke går opp. Endret av qwert
Lenke til kommentar
Hvis dette stemmer så er hele diskusjonen bortkastet fordi det var det opprinnelige punktet som jeg var skeptisk til.

 

Har du en referanse på det?

Det er ikke i (edit: den internasjonale) standarden ennå. Nå som H.264/AVC er en realitet så jobbes det med saken. Felles standarder for 1080p i 50/60Hz kan vel komme i 2009 så vidt jeg forstår[*].

Du sa i quoten min at 1080@60p ble utelatt pga båndbreddehensyn. Altså en konkret grunn til hvorfor broadcast-verdenen valgte å gjøre som de gjorde. AT 60p er utelatt er vi enige om, men du påstod HVORFOR. Enten var dette fantasi, eller det finnes offentlig tilgjengelig informasjon som understøtter det, eller du sitter på informasjon som ikke kan gjøres tilgjengelig for oss andre.

 

Hele min tankerekke bygger på at for en gitt kvalitet så vil 1080@60p kreve mindre båndbredde enn 1080@60i. Jeg sier ikke at jeg har noen tall som underbygger det, men det er en ball jeg kaster ut for diskusjon. Før du "vrir" diskusjonen rundt (husker du det jeg sa om at det ikke er mulig å diskutere interlacing fordi alle har forskjellige standpunkt om tid og rom?), tenk igjennom følgende:

 

MPEG1, 2 og 4, h261, h263 og h264 er kompresjon, altså fjernes informasjon for å redusere antall bits. Jo lavere bitrate, jo lavere kvalitet.

 

Interlacing er analog kompresjon. Halvparten av informasjonen fjernes, mens "mer enn halvparten" av den oppfattede kvaliteten beholdes.

 

Spørsmålet er hvorvidt MPEGx/h26x er i stand til å gi best mulig kvalitet _uansett oppløsning/framerate/etc_ når de får jobbe opp mot progressiv i/o eller interlaced i/o.

Det betyr igjen at (interlacing + kompresjon) er bedre kompresjon enn (kompresjon), noe jeg stiller meg tvilende til.
Nei, nei, nei. Her må man sammenlikne 1080p/30 vs. 1080i/60. Førstnevnte er overlegent hva kompresjonsrate angår (som du selv påpeker) hvis begge inneholder samme informasjon. Sistnevnte er overlegent hva kvalitet og fleksibilitet angår (høyere temporær oppløsning, 'gammelt' materiale passer, og det går opp i eksisterende teknikker for konvertering av 24p). 1080p/60 var ansett å ha for høye båndbreddekrav i absolutt forstand til å være praktisk med de (den gang da) aktuelle kompresjonsteknikkene.

Du kan si nei så mange ganger du vil, men du kan ikke nekte meg å framføre et argument. Hvis 1080@60p ser bedre ut enn 1080@60i for samme båndbredde, samme codec, samme alt annet så ER 1080@60p generelt å foretrekke og sammenligningen er for MEG relevant. Hvis du ikke ønsker å diskutere sammenligningen så har det ingen hensikt at vi to diskuterer.

 

-k

Endret av knutinh
Lenke til kommentar
Du sa i quoten min at 1080@60p ble utelatt pga båndbreddehensyn. Enten var dette fantasi, eller det finnes offentlig tilgjengelig informasjon som understøtter det, eller du sitter på informasjon som ikke kan gjøres tilgjengelig for oss andre.
Huh? 1080p/60 var for høyt til å være praktisk gjennomførbart med MPEG-2. Det var ikke en del av de originale DVB-standardene, ikke en del av ATSC, og ikke en del av ITU-R BT.709. Ingen hemmeligheter her.
Hele min tankerekke bygger på at for en gitt kvalitet så vil 1080@60p kreve mindre båndbredde enn 1080@60i.
Da er din tankerekke helt bak mål siden 1080p/60 har dobbelt så høy oppløsning som 1080i/60. 1080p/30 har derimot samme oppløsning som 1080i/60 og har også lavere krav til båndbredde for samme perseptuelle kvalitet på en enkeltramme siden interlacing gir noe overhead (men har andre nevnte fordeler). Mulig det er det sistnevnte du tenker på. Så vidt jeg har fått med meg krever 1080p/60 i overkant av 60% mer båndbredde enn 1080i/60 for å gjengi hver enkelt 1080x1920 bilderamme i samme kvalitet.
Du kan si nei så mange ganger du vil, men du kan ikke nekte meg å framføre et argument. Hvis 1080@60p ser bedre ut enn 1080@60i for samme båndbredde, samme codec, samme alt annet så ER 1080@60p generelt å foretrekke
Prøv å konvertere en DVD til Xvid med en fast båndbredde to ganger; den første i 24FPS, den andre i 12. Hvilken av disse vil ha best kvalitet per bilderamme? Du kan ikke mene alvorlig at en dobbelt så høy oppløsning skal se like bra ut på samme bitrate, så det må være noe enten du eller jeg misforstår i diskusjonen her. Endret av qwert
Lenke til kommentar
Du sa i quoten min at 1080@60p ble utelatt pga båndbreddehensyn. Enten var dette fantasi, eller det finnes offentlig tilgjengelig informasjon som understøtter det, eller du sitter på informasjon som ikke kan gjøres tilgjengelig for oss andre.
Huh? 1080p/60 var for høyt til å være praktisk gjennomførbart med MPEG-2. Det var ikke en del av de originale DVB-standardene, ikke en del av ATSC, og ikke en del av ITU-R BT.709. Ingen hemmeligheter her.
Hele min tankerekke bygger på at for en gitt kvalitet så vil 1080@60p kreve mindre båndbredde enn 1080@60i.
Da er din tankerekke helt bak mål siden 1080p/60 har dobbelt så høy oppløsning som 1080i/60. 1080p/30 har derimot samme oppløsning som 1080i/60 og har også lavere krav til båndbredde for samme perseptuelle kvalitet på en enkeltramme siden interlacing gir noe overhead (men har andre nevnte fordeler). Mulig det er det sistnevnte du tenker på. Så vidt jeg har fått med meg krever 1080p/60 i overkant av 60% mer båndbredde enn 1080i/60 for å gjengi hver enkelt 1080x1920 bilderamme i samme kvalitet.

9439457[/snapback]

Og du nekter plent å tenke tanken at MPEG2 såvel som h264 har ratekontroll som betyr at man kan regulere ned bitraten? Greier du ikke å se at båndbredde for et ukomprimert signal IKKE er det samme som et komprimert signal, hele hensikten med kompresjon er å redusere båndbredden?

 

Hvis et testpanel avgjør at 1920x1080@60p komprimert med h264 ved 10mbps SER BEDRE UT enn 1920x1080@60i komprimert med h264 ved 10mbps når begge sendes til state of the art 1920x1080@60p display, vil du da gi meg rett?

 

 

 

Du forstår fremdeles ikke at interlacing er en form for kompresjon, MPEG2 er en form for kompresjon, og det som betyr noe utenfra er bildekvaliteten?

 

Prøv å konvertere en DVD til Xvid med en fast båndbredde to ganger; den første i 24FPS, den andre i 12. Hvilken av disse vil ha best kvalitet per bilderamme? Du kan ikke mene alvorlig at en dobbelt så høy oppløsning skal se like bra ut på samme bitrate, så det må være noe enten du eller jeg misforstår i diskusjonen her.

9439457[/snapback]

?

 

Den relevante sammenligningen er å konvertere en 24fps kinosekvens til hhv 24p og 24i med samme bitrate. Utgangspunktet er en progressiv sekvens (eller egentlig en analog verden med uendelig temporær oppløsning). Det du sier er at alltid, uansett hva folk måtte mene så må nødvendigvis DVD konvertert til 24i se bedre ut enn DVD konvertert til 24p "fordi båndbredden blir lavere". Det er feil fordi komprimert båndbredde kan bli akkurat hva enkoderen bestemmer at den skal være. Spørsmålet er hvorvidt kvaliteten blir lavere for 24p. Jeg sier at jeg ikke tror det er slik.

 

I praksis er det sannsynligvis (som så ofte) slik at et test-panel vil ha delte oppfatninger og forskjellig kildematerial vil gi forskjellige preferanser. Dermed er den lange versjonen av påstanden min (som er åpen for diskusjon) at "i de fleste tilfeller tror jeg at flest seere ville foretrekke 1080@60p ved passelige bitrater framfor 1080@60i ved samme bitrate, så lenge displayet og kilden er 1080@60p og vi forutsetter veldig god deinterlacer"

 

Jo før du glemmer 30p, jo bedre. Jeg har nemlig aldri sagt noe som helst om formatet, og er uinteressert i en diskusjon om det.

 

-k

Endret av knutinh
Lenke til kommentar
Du forstår fremdeles ikke at interlacing er en form for kompresjon, MPEG2 er en form for kompresjon, og det som betyr noe utenfra er bildekvaliteten?
Interlacing var en form for kompresjon. I dag øker det bare båndbreddekravene ved samme oppløsning. I realiteten påstår du at en 60FPS datastrøm kan se like bra ut som en 30FPS datastrøm på samme bitrate (hvor begge har samme oppløsning i rom), noe som åpenbart ikke er tilfelle. Det blir rett og slett halvparten så mange bits tilgjengelig til hver enkelt pixel. Å regulere ned bitraten gjør bildet verre, ikke bedre.
Hvis et testpanel avgjør at 1920x1080p komprimert med h264 ved 10mbps SER BEDRE UT enn 1920x1080i komprimert med h264 ved 10mbps når begge sendes til state of the art 1920x1080p display, vil du da gi meg rett?
Kommer an på kilden. Hvis man har noe som er 'high motion' (>30fps) vil kanskje den økte oppløsningen i tid gjøre at noen mener 1080p/60 ser bedre ut, selv om den lavere båndbredden per pixel nødvendigvis samtidig senker den effektive oppløsningen i rom.
Lenke til kommentar
Du forstår fremdeles ikke at interlacing er en form for kompresjon, MPEG2 er en form for kompresjon, og det som betyr noe utenfra er bildekvaliteten?
Interlacing var en form for kompresjon. I dag øker det bare båndbreddekravene ved samme oppløsning. I realiteten påstår du at en 60FPS datastrøm kan se like bra ut som en 30FPS datastrøm på samme bitrate (hvor begge har samme oppløsning i rom), noe som åpenbart ikke er tilfelle. Det blir rett og slett halvparten så mange bits tilgjengelig til hver enkelt pixel. Å regulere ned bitraten gjør bildet verre, ikke bedre.
Hvis et testpanel avgjør at 1920x1080p komprimert med h264 ved 10mbps SER BEDRE UT enn 1920x1080i komprimert med h264 ved 10mbps når begge sendes til state of the art 1920x1080p display, vil du da gi meg rett?
Kommer an på kilden. Hvis man har noe som er 'high motion' (>30fps) vil kanskje den økte oppløsningen i tid gjøre at noen mener 1080p/60 ser bedre ut, selv om den lavere båndbredden per pixel nødvendigvis samtidig senker den effektive oppløsningen i rom.

9439626[/snapback]

Og hva er viktigst:

A)Oppløsning i rom

B)Oppfattet kvalitet

 

Jeg holder en knapp på den samlede bildekvaliteten. Hvis ikke ville vi ha foretrukket 8 megapixel stillbilder...

 

Men jeg takker for at du etter ørten poster fram og tilbake tildels gir meg rett: 1080@60p KAN være bedre enn 1080@60i selv for samme codec og samme bitrate.

 

Det som startet diskusjonen var:

I tillegg var TV-bransjen ('broadcasting', ikke produsentene) veldig klare på at linjeflettede oppløsninger måtte bli med også i framtiden. Mens båndbredde bare er et moderat kompleksitetsproblem hva elektronikken angår er det alfa og omega for tilgjengelig plass i infrastrukturen.

9437863[/snapback]

Og da er vi enige om at 60p KAN være mer båndbredde-effektiv enn 60i, slik at (avhengig av hva som er fasit) så KUNNE det være feil å velge 60i på bekostning av 60p bare på bakgrunn av transmittert båndbredde.

 

At det kunne være andre gode grunner er hevet over enhver tvil, og så lenge hverken jeg eller du har gjennomført kontrollerte panel-tester med de to alternativene har vi heller ingen fasit på hva som er best av 60i og 60p ved samme båndbredde for et variert utvalg kilder.

 

 

edit:

Vi har (minst) 3 opsjoner når en 60p videostrøm skal transmitteres for display på en 60p skjerm

1. [1080@60p kilde]-->[h264@15mbit]-->[transmisjon]-->[1080@60p display]
2. [1080@60p kilde]-->[FRC, 30p]-->[h264@15mbit]-->[transmisjon]-->[FRC, 60p]-->[1080@60p display]
3. [1080@60p kilde]-->[interlace, 60i]-->[h264@15mbit]-->[transmisjon]-->[deinterlace, 60p]-->[1080@60p display]

 

Alternativ 1. med 60p gir halvparten så mange bits pr pixel i gjennomsnitt som alternativ 2. og 3. Dette gir hardere kompresjon men gir det dårligere oppfattet kvalitet?

 

Alternativ 2 med 30p gir like mange bits pr pixel som alt 3, men altså dobbelt så mange som alternativ 1. Det gir best mulig still-bilder men dårligst bevegelser. Gir det god oppfattet kvalitet?

 

Alternativ 3 med 60i gir like mange bits pr pixel som alt 2, men altså dobbelt så mange som alternativ 1. Det gir noe reduksjon i temporær informasjon, noe reduksjon i romlig informasjon. Er det et godt kompromiss, eller er det bedre å la codecen kvantisere romlige frekvenskomponenter og tilnærme temporær bevegelse med motion-vektorer?

 

-k

Endret av knutinh
Lenke til kommentar
Da er din tankerekke helt bak mål siden 1080p/60 har dobbelt så høy oppløsning som 1080i/60. 1080p/30 har derimot samme oppløsning som 1080i/60 og har også lavere krav til båndbredde for samme perseptuelle kvalitet på en enkeltramme siden interlacing gir noe overhead (men har andre nevnte fordeler). Mulig det er det sistnevnte du tenker på. Så vidt jeg har fått med meg krever 1080p/60 i overkant av 60% mer båndbredde enn 1080i/60 for å gjengi hver enkelt 1080x1920 bilderamme i samme kvalitet.

 

De misforstår poenget her, la oss ta utgangspunkt i at man vil sende et signal på 10 Mbit med 60 frames i sekundet, for å gjøre det må det komprimeres, å halvere oppløsningen i vertikal retning er en måte å gjøre det på, som er usannsynlig primitiv, og overgås av andre komprimeringsteknikker med stor margin, det kan jeg nesten garantere, om man istedet komprimerer på "mer normalt vis" ned til 10mbit, får man bedre kvalitet, og like mange frames i sekundet. Ellers har vel 1080p/30 akkurat samme oppløsning som 1080p/60?

 

AtW

Endret av ATWindsor
Lenke til kommentar
Du misforstår poenget her, la oss ta utgangspunkt i at man vil sende et signal på 10 Mbit med 60 frames i sekundet, for å gjøre det må det komprimeres, å halvere oppløsningen i vertikal retning er en måte å gjøre det på, som er usannsynlig primitiv, og overgås av andre komprimeringsteknikker med stor margin, det kan jeg nesten garantere, om man istedet komprimerer på "mer normalt vis" ned til 10mbit, får man bedre kvalitet, og like mange frames i sekundet.
Jeg har ikke argumentert mot at en halvering av oppløsningen reduserer kvaliteten. Derimot er som oftest ikke 1080i/60 halvert kontra 1080p/60 i realiteten. Så lenge kilden er 30fps eller lavere gir 1080i/60 nøyaktig samme nominelle oppløsning i rom som 1080p. 1080p/60 må derimot spre bitraten sin på å sende den samme informasjonen flere ganger, noe som reduserer kvaliteten (den effektive oppløsningen).

 

Men hvis vi tar dine 10 Mbit med 60 frames i sekundet, for eksempel en sportssending. Vi har bare plass til halvparten, så her må det komprimering til. Forenklet sett kan de: a) senke frameraten, noe som er lite heldig for sport, b) halvere den effektive oppløsningen, eller c) halvere bitraten noe som gir dårligere bilde men full framerate.

 

I sin visdom kom de altså frem til at b) var den beste løsningen totalt sett siden de eventuelle fordelene for innhold som er >30fps ikke kan oppveie bakdelene for innhold som er <=30fps. For høye bitratekrav i absolutt forstand (plass til ferre kanaler som var hvor denne diskusjonen startet) kombinert med lavere effektivitet for de vanligste typene innhold gjorde altså 1080p/60 uaktuelt i begynnelsen.

Ellers har vel 1080p/30 akkurat samme oppløsning som 1080p/60?
I rom, men ikke i tid. Vi snakker dobbelt så mange pixler per sekund for sistnevnte.
Lenke til kommentar
Du misforstår poenget her, la oss ta utgangspunkt i at man vil sende et signal på 10 Mbit med 60 frames i sekundet, for å gjøre det må det komprimeres, å halvere oppløsningen i vertikal retning er en måte å gjøre det på, som er usannsynlig primitiv, og overgås av andre komprimeringsteknikker med stor margin, det kan jeg nesten garantere, om man istedet komprimerer på "mer normalt vis" ned til 10mbit, får man bedre kvalitet, og like mange frames i sekundet.
Jeg har ikke argumentert mot at en halvering av oppløsningen reduserer kvaliteten. Derimot er som oftest ikke 1080i/60 halvert kontra 1080p/60 i realiteten. Så lenge kilden er 30fps eller lavere gir 1080i/60 nøyaktig samme nominelle oppløsning i rom som 1080p. 1080p/60 må derimot spre bitraten sin på å sende den samme informasjonen flere ganger, noe som reduserer kvaliteten (den effektive oppløsningen).

 

Men hvis vi tar dine 10 Mbit med 60 frames i sekundet, for eksempel en sportssending. Vi har bare plass til halvparten, så her må det komprimering til. Forenklet sett kan de: a) senke frameraten, noe som er lite heldig for sport, b) halvere den effektive oppløsningen, eller c) halvere bitraten noe som gir dårligere bilde men full framerate.

 

I sin visdom kom de altså frem til at b) var den beste løsningen totalt sett siden de eventuelle fordelene for innhold som er >30fps ikke kan oppveie bakdelene for innhold som er <=30fps. For høye bitratekrav i absolutt forstand (plass til ferre kanaler som var hvor denne diskusjonen startet) kombinert med lavere effektivitet for de vanligste typene innhold gjorde altså 1080p/60 uaktuelt i begynnelsen.

Ellers har vel 1080p/30 akkurat samme oppløsning som 1080p/60?
I rom, men ikke i tid. Vi snakker dobbelt så mange pixler per sekund for sistnevnte.

9439976[/snapback]

 

Om kilden er 30 Fps, så kan man bare be den sende samme fram to ganger, det krever i praksis ingen ekstra plass.

 

Om kilden er 60 Fps som i sportseksemplet ditt, så kan man komprimere hver frame på en langt mer effektiv måte enn å bare halvere vertikal oppløsning, som er en nesten latterlig simpel måte å gjøre det på.

 

Å interlace er en måte å halvere bitraten til en gitt framerate på, men det er en håpløst primitiv måte.

 

AtW

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...