Gå til innhold

Sharps 8K-TV slippes i Europa denne måneden


Anbefalte innlegg

Videoannonse
Annonse

Sjøl har jeg bare 1080p i streaming fra netflix, hvor god linje må man ha for å streame 8k?

Man må ha Netflix Premium for å få UHD. Tipper det holder med 25 mbit linje. Er hard komprimering på 4K inhholdet, så det er egentlig ikke så mye bedre enn 1080 innholdet.

Endret av Timster
  • Liker 4
Lenke til kommentar

 

Sjøl har jeg bare 1080p i streaming fra netflix, hvor god linje må man ha for å streame 8k?

Man må ha Netflix Premium for å få UHD. Tipper det holder med 25 mbit linje. Er hard komprimering på 4K inhholdet, så det er egentlig ikke så mye bedre enn 1080 innholdet.

Netflix krever 25Mb for UHD innholdet, og ser man bort ifra HDR, så er det hakket dårligere enn 1080p ifra Blu-ray.

 

 

 

Hadde faktisk trodd prisen på skjermen skulle vært litt dyrere enn dette.

  • Liker 1
Lenke til kommentar
Men Netflix-serien «Lost in Space» er visstnok filmet i 8K, 

 

Skal jeg gjette er den filmet i 24 eller 30fps. Jeg ville mye heller foretrukket 4K 60fps.

 

Men gøy at TV markedet pushes videre, forhåpentligvis følger input standarder (HDMI, DP) etter snart, og spesifikasjonene på serier og filmer også. 

  • Liker 2
Lenke til kommentar

Å skrive att en 8K TV har 4x oppløsning i forhold til 4K og 16x oppløsning til 1080p er feil, det er faktisk kun en dobbling av oppløsning mellom 1080p og deretter en dobbling av mellom 4k og 8k.

Så forskjellen fra 1080p til 8k er 4x høyere oppløsning.

 

Du må gange både de vertikale og horisontale linjene for å nå 4k UHD. Dobler du en retning får du en veldig høy eller vid skjerm med dobbel oppløsning, f.eks. 3840x1080, men viss du dobler den andre aksen etterpå får du 3840x2160 som da er 4 ganger så høy oppløsning som 1080p.

  • Liker 3
Lenke til kommentar

Sjøl har jeg bare 1080p i streaming fra netflix, hvor god linje må man ha for å streame 8k?

 

Selv om oppløsningen Netflix er 1080p eller 4K, er bildet komprimert at det ikke er spesielt bra. For å utnytte en 4K TV, må du ha en skikkelig kilde, feks. en UHD Blu-Ray spiller og en UHD film.

  • Liker 2
Lenke til kommentar

 

 

 

 

4x så mange pixler er ikke det samme som 4x så høy oppløsning.

Tenk dere en skjerm på 4x4 pixler, for å doble oppløsningen (pixeltettheten) så må en ha 8x8 pixler, altså dobbelt så høy oppløsning, men 4x så mange pixler (16pix vs 64px)

 

 

 

 

- Areal har også noe å si når det kommer til pixeltetthet.

For ikke å nevne "View-Distance", som igjen avgjør opplevd oppløsningen.

 

Faktisk oppløsning vs opplevd oppløsning er en høyst subjektiv sak siden ikke alle har like godt syn.

Lenke til kommentar

4x så mange pixler er ikke det samme som 4x så høy oppløsning.

Tenk dere en skjerm på 4x4 pixler, for å doble oppløsningen (pixeltettheten) så må en ha 8x8 pixler, altså dobbelt så høy oppløsning, men 4x så mange pixler (16pix vs 64px)

 

Vet ikke helt om du troller her jeg, men du motsier deg jo selv. Oppløsning = det totale antall pixler.

 

4 x 4 = 16 pixler

8 x 8 = 64 pixler

64 / 16 = 4 ganger så høy

 

16 x 64 = 1024

1064 / 16 = 66,5 ganger så høy oppløsning.

 

Du blander multiplikasjon med addisjon du. En skjerm består jo ikke av en enkelt linje vertikalt og en enkelt linje horisontalt 

  • Liker 2
Lenke til kommentar

Å skrive att en 8K TV har 4x oppløsning i forhold til 4K og 16x oppløsning til 1080p er feil, det er faktisk kun en dobbling av oppløsning mellom 1080p og deretter en dobbling av mellom 4k og 8k.

Så forskjellen fra 1080p til 8k er 4x høyere oppløsning.

 

Oppløsning er jo antall piksler skjermen kan vise.

1080p: 1920x1080 = 2 073 600 piksler

4k: 3840x2160 = 8 294 400 piksler

8k: 7680*4320 = 33 177 600

 

Enkelt regnestykke. 8 294 400/2 073 600 = 4. 4k har altså 4 ganger flere piksler enn 1080p. Ved 8k vs 1080p er det 33 177 600/2 073 600 = 16, altså 16x oppløsning.

  • Liker 1
Lenke til kommentar

 

4x så mange pixler er ikke det samme som 4x så høy oppløsning.

Tenk dere en skjerm på 4x4 pixler, for å doble oppløsningen (pixeltettheten) så må en ha 8x8 pixler, altså dobbelt så høy oppløsning, men 4x så mange pixler (16pix vs 64px)

 

Vet ikke helt om du troller her jeg, men du motsier deg jo selv. Oppløsning = det totale antall pixler.

 

4 x 4 = 16 pixler

8 x 8 = 64 pixler

64 / 16 = 4 ganger så høy

 

16 x 64 = 1024

1064 / 16 = 66,5 ganger så høy oppløsning.

 

Du blander multiplikasjon med addisjon du. En skjerm består jo ikke av en enkelt linje vertikalt og en enkelt linje horisontalt 

 

Absolutt ingen trolling, jeg prøver bare å få folk til å forstå att en økning av pixler med 4x ikke er en økning i oppløsning med 4x.

 

Ifølge det du og andre her mener er en dobling av antall pixler også en dobling av oppløsning så la oss ta et 1080p panel på 1920x1080 pixler, da er det ifølge deg nok med en økning til 1920x2160 pixler for att det er dobbel oppløsning!

Det som skjer ved den endringen er att oppløsningen vertikalt blir det dobbelte, men horisontalt er oppløsningen eksakt den samme.

Så hva må til for en dobling av oppløsning både vertikalt og horisontalt?

Da må selvsagt pixler dobles i begge retninger og da ender vi opp med 4x antallet pixler for en dobling av oppløsning

 

 

4x så mange pixler er ikke det samme som 4x så høy oppløsning.

Tenk dere en skjerm på 4x4 pixler, for å doble oppløsningen (pixeltettheten) så må en ha 8x8 pixler, altså dobbelt så høy oppløsning, men 4x så mange pixler (16pix vs 64px)

 

 

 

- Areal har også noe å si når det kommer til pixeltetthet.

For ikke å nevne "View-Distance", som igjen avgjør opplevd oppløsningen.

 

Faktisk oppløsning vs opplevd oppløsning er en høyst subjektiv sak siden ikke alle har like godt syn.

 

Helt enig med deg her, men i artikkelen her er det snakk om oppløsningen på ett lcd/oled panel, ikke den opplevde oppløsningen.

Lenke til kommentar

Man er vant til å tenke at oppløsning og pixler går hånd i hånd. Slik er det for eksempel med digitale bilder, digitalkameraer osv - man snakker om oppløsning i antall megapiksler. Dette har blitt overført til skjermer også, og man kan ikke akkurat si det er feil. Det du ønsker å si er at bildekvaliteten ikke nødvendigvis blir fire ganger bedre bare fordi man doblet antall piksler i hver retning. Det er helt riktig. Men det gir deg ikke fasiten på hvordan folk bruker begrepet "oppløsning" når man snakker om skjermer. Du må heller lage ditt eget begrep eller få alle til å fokusere på antall linjer i hver retning i stedet (selv om det er litt analog tankegang), så vil alle snakke om 2x linjer for 4k og 4x linjer for 8k, og du og flere vil være enige om at dette gir et bedre inntrykk av opplevd kvalitet enn fokuset på piksler, og så vil alt være happy og kan kose seg med LOTR og Marvel vs DC helt til noen kommer på at det jo forsåvidt er doblet antall linjer både vertikalt og horisontalt, og 2+2 er jo fire, så ville det ikke være mest naturlig å snakke om 4x linjer i stedet? Så blir man lei seg og må se på Jackie Chan eller Lego Movie for å trøste seg igjen.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...