Gå til innhold

Andre generasjon kombispiller


Anbefalte innlegg

Synes det var rart at MPEG-4 ikke var støtte. Men det trengs kanskje ikke.Birger :)
AVC er det samme som MPEG-4
Husker jeg leste i 1996 om DVD formatet og at det skulle komme i opptil 18GB - altså 2 lag og tosidig. 11 år senere har jeg ennå ikke sett noe tilgjengelig som er mer enn 9GB.Jeg vil regne med at når det gjelder både HD-DVD og Blu-ray, så vil vi bare ha ènlags de første to-fire årene, og deretter vil det kanskje komme tolags (og kanskje tosidig). Men innen den tid så vil vi høre om neste teknologi...
Den DVD platen du refererer til heter DVD-18, og har blitt brukt en del ganger. Første utgivelse av "Terminator 2- Ultimate Edition", brukte den. "Stephen King's The Stand" brukte den.Grunnen til at den ikke brukes så mye er at det er billigere å lage 2 plater, og 2 disc utgaver selger mer enn 1 disk, selv med like mye lagringsplass.HD DVD kan få 2 sidig, men det er nok også like greit å gi ut 2 plater. Blu-Ray kan ikke få 2 sidige plater. Da informasjonen på platen ligger såpass dypt at det ikke er plass til 2 sidige. Da må platen bli tykkere.
Lenke til kommentar
Videoannonse
Annonse
Det beste er jo en nøyaktig match mellom TVens oppdaterinsfrekvens og frameraten, når det er sagt, så hadde det vel neppe gjort noe å uppe kvaliteten på kilden heller, kanskje på tide å bevege seg vekk fra 24 fps?

 

AtW

Hva er galt med 24 fps?

 

 

Simen. Hva bruker du som avspiller og fremviser?

Fremviser: Samsung LE40M87

Avspiller: PC med rip fra HD-DVD

Skjermkort: geforce 7900 GT

Overgang: DVI-HDMI

Kabel: HDMI

Det hakker/flimrer forresten like mye ved avspilling på Dell 3007WFP fra den samme maskina.

Nå er ikke jeg noe ingeniør, men etter det jeg har forstått så er det slik som Njål og AndersT2 sier at TVen må støtte 24hz for at 1080@24fps skal flyte optimalt. Det kan selvfølgelig og ha noe å si med bildeprosessoren i HD spillere eller TVen. Men tviler på at det er bildeprosessoren i TVen som er problemet.

 

Jeg har samme TV selv og den skal i utgangspunktet støtte 1080@24hz, men det er visst noe feil i firmwaren (ihvertfall tidlige versjoner) som gjør at signalet må "forces" for å få det til. Det fungerer greit på PS3, men jeg er noe usikker på hvordan det er med andre spillere. Samsung jobber med en ny firmware som skulle ha kommet ut for noen uker side, men ting tar tid i den leiren. Herlig Dell du har, men den støtter muligens bare 60hz? Er det ikke det som er vanlig på pc skjermer?

Lenke til kommentar
Det har også blitt nevnt at hvis man kjører 1080i/60 så er det ikke alltid panoreringene blir hakkete. Og man taper ikke noe i bilde kvalitet heller.

Grunnen til dette er at noe hardware kan gjenkjenne 3:2 pulldown på 1080i@60 og utføre IVTC+3:3 med visning på 72Hz, men ikke motta 1080p@24. Dette blir selvsagt bedre enn 1080p@60 med 3:2 pulldown og er lettere å implementere enn 24p på eksisterende dekodere. På slikt visnigsutstyr er det altså bedre med en interlaced transport hvis kilden er progressiv. Jeg vil dog tro at de fleste som har et slikt apparat kjenner dets egenskaper slik at slike tilfeller ikke har noen stor betydning for en generell diskusjon.

Lenke til kommentar
Det beste er jo en nøyaktig match mellom TVens oppdaterinsfrekvens og frameraten, når det er sagt, så hadde det vel neppe gjort noe å uppe kvaliteten på kilden heller, kanskje på tide å bevege seg vekk fra 24 fps?

 

AtW

Hva er galt med 24 fps?

 

Det er for lite. Synet vårt har kapasitet til å utnytte vesentlig mer.

 

AtW

Lenke til kommentar
Det beste er jo en nøyaktig match mellom TVens oppdaterinsfrekvens og frameraten, når det er sagt, så hadde det vel neppe gjort noe å uppe kvaliteten på kilden heller, kanskje på tide å bevege seg vekk fra 24 fps?

 

AtW

Hva er galt med 24 fps?

 

Det er for lite. Synet vårt har kapasitet til å utnytte vesentlig mer.

 

AtW

Ja, 24FPS ser greit ut p.g.a motion blur. Men når man får så høy kvalitet som BD og HD-DVD så blir det veldig hakkete. Omtrent som å spille med 24fps.

Lenke til kommentar
Det beste er jo en nøyaktig match mellom TVens oppdaterinsfrekvens og frameraten, når det er sagt, så hadde det vel neppe gjort noe å uppe kvaliteten på kilden heller, kanskje på tide å bevege seg vekk fra 24 fps?

 

AtW

Hva er galt med 24 fps?

 

 

Simen. Hva bruker du som avspiller og fremviser?

Snipp

Snapp

Jeg har også samme TV og opplever det samme når jeg spiller av Blu-Ray fra PS3, hvordan oppgraderer jeg firmware når den kommer?

Endret av PootieTang
Lenke til kommentar

Alle DVD-filmene som blir utgitt i Norge/PAL er på enten 25fps/576p eller 50fps/576i. (Alt lagres forresten i 720x576@25fps på DVD-en uansett, så det blir opp til hardware å eventuelt skalere til widescreen og å vise filmen i 576p eller 576i).

24fps (eller 23,976fps) er så vidt jeg vet det kinoene bruker.

Amerikanske DVD-er utgis med 29,97fps/480p eller 59,94fps/480i.

Lenke til kommentar
Det beste er jo en nøyaktig match mellom TVens oppdaterinsfrekvens og frameraten, når det er sagt, så hadde det vel neppe gjort noe å uppe kvaliteten på kilden heller, kanskje på tide å bevege seg vekk fra 24 fps?

 

AtW

Hva er galt med 24 fps?

 

Det er for lite. Synet vårt har kapasitet til å utnytte vesentlig mer.

 

AtW

Hvor mange bilder pr. sekund mener du vi bør ha da? Jeg stusser litt over behovet siden øyet ikke klagerer å registrere mer enn 24 bilder pr. sekund. Og så lenge en TV støtter 24hz så bør vel det være tilstrekkelig.

 

I tillegg må vel alt av produksjonsutstyr til film byttes ut om man skal øke fps.

Lenke til kommentar
Jeg har også samme TV og opplever det samme når jeg spiller av Blu-Ray fra PS3, hvordan oppgraderer jeg firmware når den kommer?

Følg med i denne tråden hos avforum.no:

http://avforum.no/forum/tv-apparater/51343...e-lcd-tver.html

 

Du trenger ikke å lese alle 60 sidene.. info vil komme i nye innlegg.

 

Angående PS3'en så regner jeg med at du har brukt HDMI kabel. Sett bildet til 1080p og velg valget for å "force" 24hz signal. Da bør det gå greit.

Lenke til kommentar

Jeg hadde foretrukket 60FPS. Da hadde det blitt kompatibelt med de fleste LCD-skjermer og NTSC-standarden (amerikanske TVer).

 

Jeg stusser på at du konstanterer at øyet ikke klarer å registrere mer enn 24 FPS når det flere ganger i tråden har blitt påpekt at man gjør nettopp det. F.eks hva er vitsen med mer enn 24FPS når man spiller på PCen? Hvorfor skal det være noen biologisk forskjell i øyet på å se dataspill og å se film?

 

Så hvis TV har en begrensning på 24FPS så bør det være tilstrekkelig for all fremtid? TVer hadde for inntil nylig en begrenset vertikal oppløsning på 480-576 linjer. Da bør vel også det være tilstrekkelig med den samme logikken.

Lenke til kommentar

Jeg tar bare utgangspunktet i hva jeg alltid har lært. Og det er at øyet ikke klarer å registrere mer enn 24 bilder i sekundet. Derfor virker det litt unødvendig å bruke 2,5 ganger å mye plass til bilder. Selv kan jeg ikke si at jeg har fått med meg at det står noen plass her i tråden at øyet klarer å se noe mer.

 

Angående spilling så er dette noe jeg lurer på. Jeg skal være enig at det bryter mot det jeg alltid har lært.

 

Hele det siste avsnittet ditt gir jo ikke noe mening.

Lenke til kommentar
Hele det siste avsnittet ditt gir jo ikke noe mening.

Nettopp. Det var et tilsvar på setningen "Og så lenge en TV støtter 24hz så bør vel det være tilstrekkelig." Det er samme logikk som er brukt. Poenget er at teknologien utvikler seg blant annet for å forfine eldre og dårligere metoder. Omtrent som VHS ble erstattet av DVD som igjen ser ut til å bli erstattet med høyere oppløsning og bedre bilde på mange måter. Det bør altså være mulig å øke FPS som en del av denne oppgraderinga, men selvsagt bare så mye det gir hensikt. Under forutsetningen at det er plent umulig å oppfatte noe raskere enn 24FPS så har det selvsagt ingen hensikt. Men nå mener jeg at det er fult mulig å oppfatte mer og at jeg synes bildet gir en ubehagelig flimring i "skyggefeltet" av ting som beveger seg raskt over TVen. Flere har påpekt det samme.

Lenke til kommentar
Hele det siste avsnittet ditt gir jo ikke noe mening.

Nettopp. Det var et tilsvar på setningen "Og så lenge en TV støtter 24hz så bør vel det være tilstrekkelig." Det er samme logikk som er brukt.

Kan ikke si jeg er helt enig med deg i det. Men dette blir så OT at jeg legger det dødt.

 

Poenget er at teknologien utvikler seg blant annet for å forfine eldre og dårligere metoder. Omtrent som VHS ble erstattet av DVD som igjen ser ut til å bli erstattet med høyere oppløsning og bedre bilde på mange måter. Det bør altså være mulig å øke FPS som en del av denne oppgraderinga, men selvsagt bare så mye det gir hensikt. Under forutsetningen at det er plent umulig å oppfatte noe raskere enn 24FPS så har det selvsagt ingen hensikt. Men nå mener jeg at det er fult mulig å oppfatte mer og at jeg synes bildet gir en ubehagelig flimring i "skyggefeltet" av ting som beveger seg raskt over TVen. Flere har påpekt det samme.

Denne flimringen skylder vel hovedsakelig hertzen?

 

 

Men nå skal det sies at jeg har studert litt. Og dette strider til dels mot alt jeg har lært før. Men jeg fant dette på Illustrertvitenskap.com:

 

Kinofilm vises med 24 bilder per sekund. Ville kvaliteten blitt bedre hvis man viste flere bilder?

 

I filmens barndom tok man ikke antallet bilder per sekund så nøye. Publikum var godt fornøyd bare de fikk se levende bilder. Etter hvert ble 16 bilder i sekundet standardhastigheten, men fordi det ga en litt flimrende opplevelse, gikk man opp til 24 bilder omkring 1920. Faktisk kan menneskeøyet bare skille opptil 60 bilder per sekund i sterkt lys og ikke flere enn 10 i svakt lys. 24 enkeltbilder i sekundet gir i praksis så hurtige skift at øyet ikke oppfatter dem, og vi opplever filmen som flytende. Derfor har filmbransjen holdt fast ved denne frekvensen. Forsøk på å gå enda høyere opp har ikke vært bryet verd, fordi en høyere frekvens krever omstilling av alt utstyret. I stedet har man satset på å gjøre bildene bedre ved å bruke film med høyere oppløsning. På TV brukes det 25 bilder i sekundet. Det skyldes at man er bundet av frekvensen i strømforsyningen. Vekselstrøm skifter retning 50 ganger i sekundet, og av tekniske grunner må antallet bilder i sekundet gå opp i frekvensen. I USA, der vekselstrømmen skifter retning 60 ganger i sekundet, må TV av samme grunn vise 30 bilder i sekundet. Forskjellen i bildehastighet på TV og i kinoene er ikke uten problemer. Når en kinofilm blir vist på TV, er den cirka 4 prosent kortere. Denne forskjellen er så liten at de færreste merker den. Likevel blir en del spillefilmer nå tatt opp med 25 bilder i sekundet, nettopp for å gjøre dem bedre egnet for fjernsynsvisning.

Jeg har tatt helt feil at vi ikke klarer å se flere enn 24 bilder i sekundet. Men det gir ikke noe bedre grunn til at man trenger å øke fps'en i film utover 24 bilder. Eneste grunnen som jeg kan se er Slow motion i sportsendinger. 60 bilder i sekundet vil være å ta veldig hardt i spør du meg.

 

Uansett så må all verdens produksjonutstyr byttes ut om man skal øke fps'en. Og da mener vel bransjen at det er greiere å heller tilnærme TVene med 24hz støtte.

Lenke til kommentar
Denne flimringen skylder vel hovedsakelig hertzen?

Frekvensen? Hvilken frekvens? LCD-skjermer har ikke en flimrefrekvens slik CRT-skjermer har. CRT har ofte 50-60 bilder per sekund (hvert bilde vises to ganger). Elektronstrålen kan ikke opplyse hele skjermen samtidig og går som et sveip over skjermen. Mellom hvert sveip blir lysstyrken redusert med noe sånt som 70%. Derfor ser vi flimring som lys på - lys av - lys på - lys av, i høy hastighet (50-60 sykluser per sekund).

 

LCD-skjermer bruker en annen måte å lyse opp skjermen på. De bruker som regel CCFL baklys som har en flimrefrekvens på 50.000 til 70.000 Hz. Mellom hvert flimmer reduseres bare lysstyrken med noen promille eller prosent. Dette er alt for høye frekvenser og alt for små variasjoner i lysstyrke til at det kan sees som flimring.

 

Problemet med flimring som jeg ser på full-HD TV skyldes altså ikke dette. Et annet bevis på det er at problemet ikke skjer på konstant lyse flater. Det skjer kun i "skyggefelt" bak brå bevegelser.

 

Angående produksjonsutstyr så ser det ut til å klare både 24, 25 og 30 biler per sekund. Det forundrer meg ikke om det er en minimal teknisk utfordring å skifte om til 60FPS. En mindre utfordring enn det har vært å oppgradere f.eks fra DVD-oppløsning til 720p. Når man først gjør sånne endringer mener jeg de like gjerne kunne fått inn litt flere FPS i samme slengen. Mange produksjonskameraer er allerede i stand til å ta opp høye hastigheter nettopp for sakte-film-effekter.

 

Illustrert vitenskap begrunner 24FPS med gammelt produksjonsutstyr, noe som likevel skiftes ut i forbindelse med HD-oppløsninger. De begrunner det også i gammel (u)vane fra filmens dager på 20-tallet fordi det var merkbart bedre enn 16FPS. De sier videre at frekvensoppfattelsen har en sammenheng med lysstyrken. Lysstyrken har nok definitivt økt ganske mye siden 1920-tallets kinosaler. Moderne LCD og plasmaskjermer lyser jo ganske kraftig. Det bør dermed være på tide med en økning. Mulig 60FPS er å ta litt hardt i, men la oss si opp til 40 FPS.

Lenke til kommentar

Dere er litt på bærtur noen av dere.

 

Altså. Motion blur finnes ikke i f.eks. PC-grafikk (eller, nå gjør det det, men det blir ikke helt det samme), her rendreres det perfekte bilder. Motion blur i film gjør at bevegelsene henger mer sammen. Dessuten har man ingen input som avhenger av FPS. I f.eks CS kan man «kjenne» nedganger i bare noen få FPS når den ligger og forandrer seg rundt 100 FPS.

 

Hvis man kun snakker om rendrerte bilder uten motion blur, og ser på f.eks. veldig store kontrastforandringer (noen få frames hvitt hvor resten er svarte) og lignende kan man gjerne legge merke til noen få frames per flere hundrede frames, men man vil ikke merke «hakking» i en slags filmsituasjon uten motion blur etter mellom 60 og 100 FPS (det varierer fra person til person, fra situasjon til situasjon (lys, hva slags tilstand vedkommende er i etc. etc.), så det er nok en diskusjon man aldri blir ferdig med.

 

Angående film, så er jo dette det antall bilder i sekund som man «alltid» har tatt opp med. Det er det antall bilder man har å rutte med. Man kan jo selvfølgelig f.eks. duplisere de i en transfer, og legge to og to bilder ved siden av hverandre, det kan nok muligens hjelpe på eventuell flimmer folk merker, selv om jeg synes det høres veldig merkelig ut. I utgangspunktet ser jeg ingen fordeler (eller aktører som kan være interesserte i) å helt uten videre begynne å ta opp med flere FPS. Bransjen er ganske inngrodd, og det er alt for mye utstyr og film som er på 24FPS. Skulle noe evt. skje ville det nok være med digitalkameraet og f.eks. de nye filmene som blir filmet stereoskopisk. Disse trenger flere FPS, og egne fremvisere, så de vil kjøre flere FPS uansett. Jeg er dog litt usikker på hvordan 4k-projektorene gjør det f.eks., som brukes til vanlig film. Om man har muligheten til å duplisere frames her.

 

Slik jeg tenker det, om vi snakker LCD, så er oppdateringsfrekvensen høy nok på alle LCD-TV-er til at all forandring i bildet skulle kunne gjøres uten noen problemer, og det bør heller ikke ha noe med treigheter i pixlene. Jeg tipper vi kan ha med å gjøre en effekt av at motion blur er avhengig av at det som tas bilde av beveger seg fort. I sakte panoreringer vil man ha lite motion blur og en relativt stor bevegelse. En ren gjetning, men jeg tipper at det vil være det. Hvorfor man normalt sett ikke merker det i en kinosal kan nok ha med lysforhold å gjøre.

Endret av CAT-scan
Lenke til kommentar
F.eks hva er vitsen med mer enn 24FPS når man spiller på PC-en? Hvorfor skal det være noen biologisk forskjell i øyet på å se dataspill og å se film?

Det er en sentral og ganske enorm forskjell på sanntids datagenerert grafikk og film. Hvis vi tar utgangspunkt i visningen av en 360 graders panorering utført på ett sekund @ 24fps vill et opptak på film ha fanget all temporal informasjon bortsett fra de periodene (avhengig av hastigheten på filmen) kameraet er lukket rundt 15, 30, 45, 60 grader osv. Et spill/sanntids datagrgrafikk vil derimot bare vise informasjon fra nøyaktig ** tangeringspunktene ved 15, 30, 45, 60 grader osv. Informasjonensmengden som finnes i filmopptaket er radikalt annerledes enn informasjonsmengden i de 24 diskrete datapunktene, så de to er ikke sammenliknbare selv om visningsfrekvensen skulle være den samme.

 

Ikke dermed sagt at 24fps er tilstrekkelig for film heller, og de ørten tusen teknikkene som finnes for å begrense judder og flicker (norske ord?) indikerer da også dette. Digitalt opptak og projeksjon vil for en stor grad kunne 'befri oss' fra slike historiske begrensninger, men et slikt skifte er uansett ikke gjort over natta og arven fra tidligere tider (utstyr, kompetanse, kompatibilitetskrav) vil nok henge med en god stund ennå.

Endret av qwert
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...