Gå til innhold

4K blir virkelig med Ivy Bridge


Anbefalte innlegg

Videoannonse
Annonse

Tja, kan jo bli bra dette. Har i evigheter savnet høyere oppløsning, men da all utvikling på dette så ut til å stoppe opp en god periode, endre jeg opp med en dell U2711 som venter på postkontoret nå... :p Men 4k er vel i første omgang rettet mot større TVer uansett anntar jeg pga pixel-tettheten på for eks en 27-30" med 4k vilel blitt veldig dyr å produsere om man skal ha bra bildekvalitet?

 

Men det positive med dette er jo definitivt at det vil trekke opp oppløsningene på skjermene/TVene i en ekstrem fart kontra i dag om filmer osv blir tilgjengelig i den oppløsningen. For ikke å tenke på skjermkortene når spill blir tilgjengelig i denne oppløsningen. 1080P tok jo helt av når HD kom som en standard, så kan se for meg det samme igjen.

Ser dog dessverre for meg en "4k-ready" serie også, som egentlig bare er en 2048P/4096I, samme som 720P/1080I TVene.

Lenke til kommentar

Les artikkelen:

"En oppløsning på 4096 x 2304 som har en oppdateringsfrekvens på 60 ganger i sekunder (60 Hz) og 24-bits farger, krever en båndbredde på 20,2 Gb/s fra grafikkort til skjerm. DisplayPort 1.2 klarer opptil 21,6 Gb/s, og den nye Thunderbolt-standarden skal også kunne kjøre skjermer med så høy oppløsning."

Lenke til kommentar

Er vel strengt tatt få Filmer som har blitt tatt opp med såpass avansert utstyr at man får utnyttet såpass høye oppløsninger enda om jeg ikke tar feil.

Mener at de fleste kino'er per dags dato har en oppløsning på 2K så det spørs egentlig når forbrukerne kan praktisk ta i bruk disse oppløsningene selv.

 

Selve prosseseringskraften som vil behøves for å kunne kjøre spill i en slik oppløsning vil nok ikke Intel sin cpu greie alene uten et dedikert og kraftig skjermkort.

Lenke til kommentar

Dette har vel ingenting med skjermer å gjøre? Unskyld om jeg missforstår her, men dette er vel en feiltolkning av en feiltolkning av en presentasjon som få har brydd seg om fordi den har lite relevans for 99.999% av befolkningen.

 

Dette er saken slik jeg forstår det:

-Neste generasjon Intel IGP's har hardware encoder og decoder for opp til 4K for visse codecs. Ingen bryr seg.

Lenke til kommentar

Hvis det er noe som faktisk har noe særlig fordel av slike enorme oppløsninger så må det være databruk - og ikke film. Oppløsningen i video og annet bevegende bilder er langt mindre kritisk enn i stillbilder og GUI bruk. På en typisk størrelse TV og normal sitteavstand er det allerede ikke voldsomt store forskjeller på 720p og 1080p, og jeg har mine tvil om at det vil være særlig merkbart å gå opp i 4k så lenge vi snakker om typisk stue-TV størrelser som tross alt er det 99% av oss bruker. Da blir det også litt vanskelig å pushe det om vanlig-mann ikke kan se forskjellen tror jeg.

 

Derimot så kan jeg se høyere oppløsning være nyttig vanlig windows-bruk og arbeidsting - rett og slett mer info på skjermen. Det vil nok kreve at synet ditt er relativt bra for at ikke ting skal bli for lite rett og slett - men jeg tror 4K hadde vært flott på en 27-30" monitor for min egen del. Du hadde ihvertfall hatt så mye arbeidsplass at det ville være som å ha 3 monitorer i ett :)

 

Jeg er lettere overrasket over at de kommer med støtte for dette så raskt - men det er bare positivt for all del.

 

-Stigma

Lenke til kommentar

Er vel strengt tatt få Filmer som har blitt tatt opp med såpass avansert utstyr at man får utnyttet såpass høye oppløsninger enda om jeg ikke tar feil.

Mener at de fleste kino'er per dags dato har en oppløsning på 2K så det spørs egentlig når forbrukerne kan praktisk ta i bruk disse oppløsningene selv.

 

Selve prosseseringskraften som vil behøves for å kunne kjøre spill i en slik oppløsning vil nok ikke Intel sin cpu greie alene uten et dedikert og kraftig skjermkort.

 

Er det ikke slik at 35mm film=4k?

Correct me if im wrong.

Lenke til kommentar

Syns de kunne ha brukt tiden til å finne opp noe nyttig. Mer kraft til spill og/eller videoredigering? Ja, takk.

 

2K finnes og støttes til de som trenger det. 4K finnes ikke på kinoene en gang.

 

4k dukker vel opp på mobilene snart også.

 

 

Jeg hater 3D, jeg misliker at konsollene har stoppet utviklingen og at pcer ikke går ut på dato lenger.

 

Jeg savner de gode gamle tidene. Da kom det ut et nytt gfx-kort som var fem ganger raskere etter et halvt år etter det første og nesten det samme med CPUene.

 

Alt har bare stoppet opp.

 

Vi er i 2011 og realisme eksisterer ikke i spill! Et skjermkort i dag burde jo i følge den utviklingen som var, tilsvare datakraften til Pixar sine serverfarmer.

 

Stemmegjenkjenning burde ha gått som smurt.

 

Hva har skjedd de siste ti år? Blu-Ray, CPUer med flere kjerner og SSD. Åja, ny defenisjon på grafikkprosessorer. GPU.

 

Hjelp. Noen.

Lenke til kommentar

Syns de kunne ha brukt tiden til å finne opp noe nyttig. Mer kraft til spill og/eller videoredigering? Ja, takk.

 

2K finnes og støttes til de som trenger det. 4K finnes ikke på kinoene en gang.

 

4k dukker vel opp på mobilene snart også.

 

 

Jeg hater 3D, jeg misliker at konsollene har stoppet utviklingen og at pcer ikke går ut på dato lenger.

 

Jeg savner de gode gamle tidene. Da kom det ut et nytt gfx-kort som var fem ganger raskere etter et halvt år etter det første og nesten det samme med CPUene.

 

Alt har bare stoppet opp.

 

Vi er i 2011 og realisme eksisterer ikke i spill! Et skjermkort i dag burde jo i følge den utviklingen som var, tilsvare datakraften til Pixar sine serverfarmer.

 

Stemmegjenkjenning burde ha gått som smurt.

 

Hva har skjedd de siste ti år? Blu-Ray, CPUer med flere kjerner og SSD. Åja, ny defenisjon på grafikkprosessorer. GPU.

 

Hjelp. Noen.

Helt enig! Så vidt jeg husker så var Doom 3 ganske langt forran det meste på grafikk. Samme med Source motoren. Men det er 10 år siden. Utviklingen har gått i slow motion etter at Ps3 og Xbox 360 kom ut. Husker de skrøyt av at ps3 hadde samme gpu kraft som 2x 6800gt skjermkort. Weey, det er en god stund siden det var ett bra kort! :ermm:

Lenke til kommentar

Det eneste som stopper AMD og nVidia gpuer for å ha slike oppløsninger er kabel. Men vent litt? Kan ikke AMD sine GPU kjøre langt større oppløsninger via sin Eyefinity? Riktignok via flere skjermer :p

4K oppløsning betyr ca 8 megapiksler.

Til sammenligning:

1920x1080 gir ca 2 megapiksler.

2560x1440 gir ca 3.7 megapiksler.

2560x1600 gir ca 4 megapiksler.

 

Med andre ord må du kjøre 3x 2560x1440 for å passere 8K 8 megapiksler oppløsning.

Ikke bare er det ikke mulig å få god ytelse på slike oppløsninger i dag, men du klarer ikke se detaljene engang.

Endret av arni90
Lenke til kommentar

Det eneste som stopper AMD og nVidia gpuer for å ha slike oppløsninger er kabel. Men vent litt? Kan ikke AMD sine GPU kjøre langt større oppløsninger via sin Eyefinity? Riktignok via flere skjermer :p

4K oppløsning betyr ca 8 megapiksler.

Til sammenligning:

1920x1080 gir ca 2 megapiksler.

2560x1440 gir ca 3.7 megapiksler.

2560x1600 gir ca 4 megapiksler.

 

Med andre ord må du kjøre 3x 2560x1440 for å passere 8K oppløsning.

Ikke bare er det ikke mulig å få god ytelse på slike oppløsninger i dag, men du klarer ikke se detaljene engang.

 

4K oppløsning er vel basert på antall pixler i horisontalen, akkurat som 720p og 1080p er definert. Det har ikke med totalt antall pixler å gjøre - da det kan variere enormt avhengig av aspekt formatet (det er langt færre pixler i 1080p i superwide enn det er i 1080p widescreen for eksempel).

 

Det laveste av det som kan regnes som 4K er quad-full-HD (QFHD) på 3840 x 2160 pixels, men det er diskutabelt om det skal regnes som ekte 4K da det er mindre enn 4000 pixler i horisontalen, selv om det er nesten det. Dette er litt i overkant av 8megapixler som du sier.

 

Full aperture 4K derimot for eksempel som er 4K i 4:3 format (4096 × 3112) er 12,746,752 pixler.

 

Men jeg tar poenget ditt her - ja, det vil kreve mye for å nå samme oppløsning via flere skjermer. Du kan nå den laveste quad-full-HD med 4 vanlige full-HD TVer som sagt. Jeg forstår ikke hvorfor du nevner 8K dog. Dette får du ikke til med eyefinity, og ihvertfall ikke bare 3x 2560x1440 skjermer (ca 11Mpixel), da det er f.eks. 8192 × 4320 pixels (ca 35Mpixel), tilsvarende 17 vanlige full-HD skjermer. tallene skalerer kvaderatisk oppover her tross alt.

 

Jeg tror ikke det er så enkelt som at fordi kortet kan nå samme oppløsningen via eyefinity så kunne det klart 4K om det hadde riktig uttak. Det er nok designmessige ting signalgeneratorer som må være designet med 4K i tankene. Det er sikkert ikke noe problematisk å få til på ny hardware dog. Det vil heller kreve en del mer når vi snakker om støtte for hardware decoding av slik firedobbel HD, men intel IGPen kan allerede takle flere samtidige 1080p strømmer så det skal vel gå greit i neste generasjon det også.

 

-Stigma

Endret av Stigma
  • Liker 1
Lenke til kommentar

Kudos for et bra skrevet innlegg Stigma.

 

 

Chri-Ot : I utgangspunktet så skal en ordentlig film på 35mm ha muligheten for å ha fra 3 Millioner pixels opp til 12 Millioner pixels , mens en standard HD film vil i utgangspunktet ha en oppløsning på 1920x1080 dvs ca 2 Millioner pixels. Det kan virke som 35mm er langt bedre men det er faktisk ikke såpass enkelt og en litt bedre forklaring kan du lese blandt annet her og her .

Om du ikke orker å lese linkene så kan jeg oppsummere med at både Film og Digitalt har sine pros og kontras, når det gjelder oppløsningen nå så vil nok de beste digitale videokameraene kunne gi oss såpass bra bildekvalitet at man vil ha vanskelig for å se forskjell fra en 35mm eller bedre film.

  • Liker 1
Lenke til kommentar
  • 3 måneder senere...
En oppløsning på 4096 x 2304 som har en oppdateringsfrekvens på 60 ganger i sekunder (60 Hz) og 24-bits farger, krever en båndbredde på 20,2 Gb/s fra grafikkort til skjerm. DisplayPort 1.2

..nå har det seg vel slik at 20Gb/s er oppnåelig med det aller meste.. inkludert eksterne kablinger, osv. Det vi ikke har på alle slags systemer er evne til å behandle alt eller deler av de dataene i løpet av hver frame..

 

Så dette er en ikke-nyhet, rent teknisk sett.

Lenke til kommentar

Bli med i samtalen

Du kan publisere innhold nå og registrere deg senere. Hvis du har en konto, logg inn nå for å poste med kontoen din.

Gjest
Skriv svar til emnet...

×   Du har limt inn tekst med formatering.   Lim inn uten formatering i stedet

  Du kan kun bruke opp til 75 smilefjes.

×   Lenken din har blitt bygget inn på siden automatisk.   Vis som en ordinær lenke i stedet

×   Tidligere tekst har blitt gjenopprettet.   Tøm tekstverktøy

×   Du kan ikke lime inn bilder direkte. Last opp eller legg inn bilder fra URL.

Laster...
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...