Gå til innhold

"Japans NRK" vil sende i 8K i 2016


Anbefalte innlegg

 

hva er poenget vist øyet ikke klare å oppfatte de t, , det kommer til å bli så klart at det er skadelig til slutt

Fortell meg gjerne hvordan du skal få høyere oppløsning enn virkeligheten.

 

Ja, nå er jeg spent.

Dette blir jo nesten til et lite Gull Korn.

  • Liker 1
Lenke til kommentar
Videoannonse
Annonse

 

Skjønner forsåvidt fint hvorfor det bør henge sammen, og jeg er enig i at det er håpløst lav framerate i dag, men jeg er ikke helt enig i at det ikke er noen vits med 4k før man har høyere framerate. Det hjelper også med lave framerate, bare ikke så mye som det burde.

 

AtW

 

 

Det kan diskuteres om det er best å gå opp fra 1080p@24/30 til 4K eller til 60fps hvis man bare kan velge en av dem. For materiale som eksisterer i 24fps allerede så vil det jo være greit å få bedre oppløsning, men for nytt materiale så ville jeg valgt høyere fps da jeg er veldig sensitiv for dette.

 

Men når det gjelder 4K til 8K så ser jeg MYE heller at man øker fps enn å pushe 8K. Jeg er ikke mot 8K, men det gir så lite sammenliknet med 4K at jeg håper at dette ikke blir feilprioritert av innholdsprodusenter og hardwareprodusenter. Men det ser absolutt ut som det går feil vei....

  • Liker 2
Lenke til kommentar

Beklager dobbel "lim inn"

 

Du poster ikke anonymt. Det finnes en fin redigeringsknapp på innlegg du allerede har fått opprettet. Til informasjon. Veldig enkelt å redigere bort det doble, vanligvis ihvertfall. Dersom forumet da ikke har fått seg en oppdateringsbug, vel og merke på det tidspunktet du skrev innlegget.

Lenke til kommentar

 

 

Skjønner forsåvidt fint hvorfor det bør henge sammen, og jeg er enig i at det er håpløst lav framerate i dag, men jeg er ikke helt enig i at det ikke er noen vits med 4k før man har høyere framerate. Det hjelper også med lave framerate, bare ikke så mye som det burde.

 

AtW

 

 

Det kan diskuteres om det er best å gå opp fra 1080p@24/30 til 4K eller til 60fps hvis man bare kan velge en av dem. For materiale som eksisterer i 24fps allerede så vil det jo være greit å få bedre oppløsning, men for nytt materiale så ville jeg valgt høyere fps da jeg er veldig sensitiv for dette.

 

Men når det gjelder 4K til 8K så ser jeg MYE heller at man øker fps enn å pushe 8K. Jeg er ikke mot 8K, men det gir så lite sammenliknet med 4K at jeg håper at dette ikke blir feilprioritert av innholdsprodusenter og hardwareprodusenter. Men det ser absolutt ut som det går feil vei....

 

 

Kan man kjøre en 8K skjerm med 4K-visning og samtidig få ut bedre fps av 8K-skjermen til den 4K-visningen? Eller må man nøye seg med samme fps for alle valgte oppløsninger?

Lenke til kommentar

Hvordan blir det med datamengde og komprimering? Vil ikke det posetive med høyere oppløsning, bli borte i komprimering, spesielt for live-TV?

Nei over hodet ikke. Komprimering reduserer datamengden med 10-100 ganger, mens kvaliteten går svært lite ned. Har man en viss lagringskapasitet per bluray-plate eller en viss båndbredde å forholde seg til og det ene alternativet er komprimert 4K 30 bps så vil ukomprimert VGA-oppløsning (480*640) i 15 bps, gi omtrent samme kapasitet per plate og båndbredde.

 

Komprimering handler rett og slett om å få mest mulig kvalitet ut fra den lagringskapasiteten man har tilgjengelig. I kvalitetsbegrepet inngår blant annet oppløsning.

Lenke til kommentar

 

Hvordan blir det med datamengde og komprimering? Vil ikke det posetive med høyere oppløsning, bli borte i komprimering, spesielt for live-TV?

Nei over hodet ikke. Komprimering reduserer datamengden med 10-100 ganger, mens kvaliteten går svært lite ned. Har man en viss lagringskapasitet per bluray-plate eller en viss båndbredde å forholde seg til og det ene alternativet er komprimert 4K 30 bps så vil ukomprimert VGA-oppløsning (480*640) i 15 bps, gi omtrent samme kapasitet per plate og båndbredde.

 

Komprimering handler rett og slett om å få mest mulig kvalitet ut fra den lagringskapasiteten man har tilgjengelig. I kvalitetsbegrepet inngår blant annet oppløsning.

 

 

Så når man går opp i oppløsning (og rå datamengde) kan man komprimere hardere, og ende opp med samme bithastighet, men bedre kvalitet?

Lenke til kommentar

Ikke samme bitrate. Med mer informasjon å lagre vil du alltid måtte øke bitrate for å få "samme" kvalitet (begrepsbruken her blir noe uklar). Men når vi snakker om video vil du måtte øke bitraten proporsjonalt mindre ved økt oppløsning og fps (spesielt sistnevnte). Dette er fordi algoritmene finner mer liknende data som kan komprimeres mer. F.eks. ved økt fps vil forskjellene mellom hver frame være mindre ved 60fps enn 30fps, og du kan derfor komprimere mer per frame. Men det er ikke noen god ide å bruke samme bitrate på 60 og 30 fps, men du trenger ikke øke den 100%. Alt dette forutsetter at samme codec/algoritme benyttes såklart.

Lenke til kommentar

Komprimering siker jo avspillingen noen når man må dekomprimere før man får bildene

og da blir bildet forsinket

 

Forsinkelsen tar egnet hardware seg av å rette skadene til. Det finnes gode og optimaliserte instruksjoner som kjøres på prosessorer (instruksjonssett), og i enkelte typer av utstyr så finnes det dedikerte enheter som tar seg av spesielle oppgaver som blant annet komprimering og dekomprimering. Enkelte typer prosessorer kan skreddersys oppgaven. Lurer på om de heter ASIC.

 

En ASIC blir formet til en spesiell oppgave i produksjonen av den. Men jeg tror en og samme ASIC kan gjøre millioner av forskjellige ting, alt etter hvordan man setter den opp. Litt ullent for meg dette, men tror det er den informasjonen jeg har greid å karre til meg nå. Korriger om det er feil.

 

Om du er helt syk i hode, så betaler du også prosessormøllen for skreddersøm, slik at en prosessor kun gjør en ting, og ikke kan brukes til noe spesiellt annet. Men, det er sinnsykt dyrt å kjøpe slike produksjonstjenester. Da er det mye billigere med en ASIC.

Endret av G
Lenke til kommentar

Ikke samme bitrate. Med mer informasjon å lagre vil du alltid måtte øke bitrate for å få "samme" kvalitet (begrepsbruken her blir noe uklar). Men når vi snakker om video vil du måtte øke bitraten proporsjonalt mindre ved økt oppløsning og fps (spesielt sistnevnte). Dette er fordi algoritmene finner mer liknende data som kan komprimeres mer. F.eks. ved økt fps vil forskjellene mellom hver frame være mindre ved 60fps enn 30fps, og du kan derfor komprimere mer per frame. Men det er ikke noen god ide å bruke samme bitrate på 60 og 30 fps, men du trenger ikke øke den 100%. Alt dette forutsetter at samme codec/algoritme benyttes såklart.

 

OK. Synes at HD i dag på satelitt har for dårlig kvalitet. I fotballkamper synes jeg gresset veksler mellom klart og "grøtete" (har ikke bedre navn på det). Og det er tidvis mye moiré-effekt ved rask sideveis filming av reklame og publikum. Mulig det er tuner og tv jeg har, men synes å ha sett dette andre steder også. Så alt over FullHD live-TV er kansje noe fram i tid?

Lenke til kommentar

 

Komprimering siker jo avspillingen noen når man må dekomprimere før man får bildene

og da blir bildet forsinket

 

Forsinkelsen tar egnet hardware seg av å rette skadene til. Det finnes gode og optimaliserte instruksjoner som kjøres på prosessorer (instruksjonssett), og i enkelte typer av utstyr så finnes det dedikerte enheter som tar seg av spesielle oppgaver som blant annet komprimering og dekomprimering. Enkelte typer prosessorer kan skreddersys oppgaven. Lurer på om de heter ASIC.

 

En ASIC blir formet til en spesiell oppgave i produksjonen av den. Men jeg tror en og samme ASIC kan gjøre millioner av forskjellige ting, alt etter hvordan man setter den opp. Litt ullent for meg dette, men tror det er den informasjonen jeg har greid å karre til meg nå. Korriger om det er feil.

 

Om du er helt syk i hode, så betaler du også prosessormøllen for skreddersøm, slik at en prosessor kun gjør en ting, og ikke kan brukes til noe spesiellt annet. Men, det er sinnsykt dyrt å kjøpe slike produksjonstjenester. Da er det mye billigere med en ASIC.

 

 

Forsinkelse blir det uansett

Det skal også være krevde for de som ønsker å kjøre lyden og bildet gjennom forskjellige enheter.

Lenke til kommentar

Jeg ser virkelig ikke poenget med dette oppløsningsmaset. 1080p er for meg klokkeklart til TV'n i stua, og det samme er 23-tommeren jeg bruker som PC-skjerm. Jeg ville nok vurdert 1440p om PC-skjermen min var 27" eller større, men noe utover det er etter mitt skjønn bare tull.

Du ser klokkeklart ja, men for de av oss som har noe stor TV, så er det klart at 1080p blir noe lite.

 

qlvwpr.jpg

 

Hadde ikke hatt noe imot 4K på 70" i stua. Hadde absolutt vært en forbedring.

  • Liker 1
Lenke til kommentar

 

Ikke samme bitrate. Med mer informasjon å lagre vil du alltid måtte øke bitrate for å få "samme" kvalitet (begrepsbruken her blir noe uklar). Men når vi snakker om video vil du måtte øke bitraten proporsjonalt mindre ved økt oppløsning og fps (spesielt sistnevnte). Dette er fordi algoritmene finner mer liknende data som kan komprimeres mer. F.eks. ved økt fps vil forskjellene mellom hver frame være mindre ved 60fps enn 30fps, og du kan derfor komprimere mer per frame. Men det er ikke noen god ide å bruke samme bitrate på 60 og 30 fps, men du trenger ikke øke den 100%. Alt dette forutsetter at samme codec/algoritme benyttes såklart.

 

OK. Synes at HD i dag på satelitt har for dårlig kvalitet. I fotballkamper synes jeg gresset veksler mellom klart og "grøtete" (har ikke bedre navn på det). Og det er tidvis mye moiré-effekt ved rask sideveis filming av reklame og publikum. Mulig det er tuner og tv jeg har, men synes å ha sett dette andre steder også. Så alt over FullHD live-TV er kansje noe fram i tid?

 

 

Bitraten på de fleste tv-sendinger er som regel altfor lav. Noen ganger er det kanalenes feil, andre ganger er det tv-leverandørens feil. Jo mindre båndbredde de bruker, jo flere kanaler får de "plass" til å sende. Bitraten på Blu-ray er som regel mange ganger høyere enn tv-sendinger. Nye og bedre codecs kan gi bedre kvalitet på samme bitrate og hjelpe litt, men når oppløsning og fps går opp på flere sendinger, så øker også kravene for å gi like "bra" kvalitet pr piksel. Nye codecs krever også nytt utstyr, ofte ny dekoder for deg, og nytt produksjons/sendeutstyr for leverandøren.

Endret av Ziff
Lenke til kommentar

Så når man går opp i oppløsning (og rå datamengde) kan man komprimere hardere, og ende opp med samme bithastighet, men bedre kvalitet?

 

 

Ikke samme bitrate. Med mer informasjon å lagre vil du alltid måtte øke bitrate for å få "samme" kvalitet (begrepsbruken her blir noe uklar). Men når vi snakker om video vil du måtte øke bitraten proporsjonalt mindre ved økt oppløsning og fps (spesielt sistnevnte). Dette er fordi algoritmene finner mer liknende data som kan komprimeres mer. F.eks. ved økt fps vil forskjellene mellom hver frame være mindre ved 60fps enn 30fps, og du kan derfor komprimere mer per frame. Men det er ikke noen god ide å bruke samme bitrate på 60 og 30 fps, men du trenger ikke øke den 100%. Alt dette forutsetter at samme codec/algoritme benyttes såklart.

 

Jeg har et annet svar enn Ziff her. Ja, man får bedre kvalitet med en gitt bitrate jo bedre utgangspunktet er. Dette er lettere å illustrere med audio.

 

Har man 2*16 bit 48 kHz (Ukomprimert CD-kvalitet, la oss anta en fornuftig loudness) og komprimerer dette med la oss si mp3 til 64, 128, 256 og 512 kbps så vil kvaliteten stagnere opp mot originalkvaliteten når man øker bitraten. Men har man et bedre utgangspunkt, la oss si 2*20 bit, 96 kHz, så vil man med de samme bitratene få bedre kvalitet, men størst målbar forskjell på de høyeste bitratene. En av komprimeringsteknikkene går ut på at detaljfattige deler av sporet komprimeres hardere enn de detaljfattige. Såkalt variabel bitrate. Det kan i teorien være sånn at den ene kanalen har lite detaljer samtidig som den andre har mye.

 

Det samme gjelder video. Video er i praksis 3D-bilder, der man har 2 romlige dimensjoner og 1 tidsdimmensjon. Med bilder har man ikke bare 2 samtidige kanaler (stereo), men 1 kanal per piksel. Hver piksel er en strøm av data med ulike verdier (farge). Deler av bildet vil ha mindre detaljer enn andre. For eksempel kan blå himmel være utrolig lett å komprimere, mens busker og kratt er mye tyngre. Da kan man "låne" bitrate fra de detaljfattige områdene til de detaljrike. På samme måte kan man låne bitrate i tidsdimmensjonen. Et statisk bilde trenger ikke en full mengde ny data (keyframe) for å oppdateres.

 

Øker man oppløsningen på de tre dimmensjonene vil komprimeringen i større grad kunne styres over fra detaljfattige til detaljrike områder. Resultatet er at man med en og samme bitrate vil få bedre kvalitet jo bedre kvalitet de ukomprimerte videofilene har.

Lenke til kommentar
  • 1 måned senere...

8K! :DDDD

 

Det lyder godt! ;D

 

Men som sagt, så er det jo forskjell på å sende en kanal i 8K kvalitet, Og det å ha en 8K oppløsning på tv'en sin.

 

Men 8K i en kinosal, gir en helt annen pixeltetthet og inntrykk enn det det gjør i en 8K 40-tommers tv hjemme i stua.

 

Ja, okei. De sender programmer i 8K kvalitet. Ok, de har 8K i en kinosal. (det er jo mye lettere å stappe inn 8000 pixler i bredden på ett stort kinolærrett, enn fks en vanelig tv hjemme i stua). Men kommer det stue tv-er med 8K oppløsning da? Det sier dere ikke noe om?

 

Men, jeg bare lurer på. Fks nyhetssendingen på NRK1. Hvilken kvalitet sendes den i da fks?

Lenke til kommentar
×
×
  • Opprett ny...