Gå til innhold

Nå skal PC-skjermene få høyere oppløsning


Anbefalte innlegg

Videoannonse
Annonse

.

Det er noe fordel av å ha 16:9, det er jo at man slipper svart ramme oppe og nede på tvserier.

 

Jeg er ikke helt med på hvorfor dette anses som en så stor fordel. Det er svarte striper det er snakk om. De erstattes av en svart ramme. Hvor er fordelen? Nei, gi meg skikkelige skjermer med 16:10! Det er en PC-skjerm; du skal spille og jobbe på den, primært. Svarte striper over og under videoen gjør meg ingen verdens ting.

Da slipper man dessuten å se den hvite veggen rett under videoen (hvite striper?).

 

Uansett vil man på mange filmer (og sikkert TV-serier) begynne å få striper på 16:9 også, siden de nå kommer i super-widescreen. Jeg får i hvertfall det på fjernsynet mitt (16:9) på alle filmene jeg har sett i det siste.

  • Liker 4
Lenke til kommentar

Det er noe fordel av å ha 16:9, det er jo at man slipper svart ramme oppe og nede på tvserier.

 

Og der stopper vell fordelen? Og med tanke på at brorparten av filmer nå leveres i et enda bredere format enn 16:9 igjen så er jo nesten dette ene positive argumentet med 16:9 forsvunnet det også. Og som det allerede nevnes her, på hvilken måte er en stort stripe over og under bilde noengang hvert et problem?

 

Ved 4:3 format på skjermen hvor den sorte stripen over og under gjør bilde merkbart mindre og ser noe snodig ut så kan jeg forstå det, men på 16:10 ser jeg ikke helt problemet og med høye oppløsninger så blir de nevnte stripene bare mindre og mindre.

 

 

Samtidig så skal det jo sies at 16:9 format er mer overelevbart hvor større skjermen er og hvor høyere oppløsning du har på den, på min Dell UltraSharp U2711 som er 27" med 2560x1440 (16:9) så er det på ingen måte like problematisk og klaustrofobisk som på Samsung S23A700D 23" 1920x1080 (16:9) skjermen som står ved siden av.

  • Liker 1
Lenke til kommentar

3840 x 2160 vil kreve sitt av skjermkortet. Får håpe AMD/Nvidia girer opp ytelsen de kommende åra. Ellers nei takk til 16/9 på pc. Minimum 16/10.. (3/2 hadde vært perfekt)

Et 7970 klarer å kjøre mange spill i dag med 4x SSAA, så 3840x2160 bør ikke være umulig. Dessuten trenger man ikke kjøre native oppløsning, 1920x1080 vil sannsynligvis se rimelig bra ut på en slik skjerm også.

  • Liker 1
Lenke til kommentar

Får håpe vi slipper å vente så lenge på at det kommer relativt gode skjermer med slike "retina"-oppløsninger til fornuftige priser.

 

Sammenliknet med retina-skjermen på iPaden min ser jo teksten helt grøtete ut på PC-skjermen min (1920x1200 i 24"), helt håpløst.

  • Liker 1
Lenke til kommentar

Et 7970 klarer å kjøre mange spill i dag med 4x SSAA, så 3840x2160 bør ikke være umulig. Dessuten trenger man ikke kjøre native oppløsning, 1920x1080 vil sannsynligvis se rimelig bra ut på en slik skjerm også.

Det burde vel i utgangspunktet se tilnærmet slik ut som i dag med tanke på at det dedikeres 2x2 piksler for å "fylle" den samme plassen en pixel gjør idag.

 

Men ang. 16:10 vil jeg si det er et must, og for min del, kan jeg ikke gå tilbake til 16:9 uten irritasjon :wee: . Med 16:10 kan en også vippe to skjermer på siden og få 5:4 oppløsning, som i noen tilfeller er meget behagelig.

Lenke til kommentar

Vare det Apple som måtte til for å starte dette også?

Er det virkelig bare ett selskap som makter å sette standarder på den måten?

 

Egentlig var det nok like mye Intel som startet dette. Intel har nemlig vært med å gjøre tre viktige grep som gjør dette mulig. Uten disse ville heller ikke Apple kunne ha kommet med retina.

1. Utvikle Thunderbolt/DisplayPort - selv om flere har vært med på DisplayPort standarden er Intel en sentral aktør.

2. Utvikle en intern grafikkløsning som var kraftig nok for å drive 4K (Ivy Brigde)

3. Få til enighet om å droppe DVI og VGA som standarder i 2013.

 

Intel har nok vært genrelt svært opptatt av dette - da det faktisk er en av aktørene som har mest å tjene.

 

Når det gjelder selve artikkelen er det dårlige saker. Artikkelen tar ikke opp de problemaspektene dette faktisk reiser, f.eks at 90 % av alle bærbare på markedet ikke vil kunne bruke slike skjermer som ekstern skjerm (selv om grafikkløsningen faktisk er kraftig nok) - at mange stasjonære heller ikke kan. Alt dette fordi produsenter som Asus, Acer, Samsung med flere har valgt å bruke HDMI/DVI på f.eks bærbare.

 

Akkurat det at mange faktisk er hindret fra å ta i bruk slike skjermer tror jeg vil påvirke pris og tilgang relativt sterkt i første fase.

 

@Juke: Det er andre forhold enn bare oppløsning som gjør at det virker slik, the new iPad har en meget god dynamikk og generelt en IPS skjerm av særdeles høy kvalitet. Hadde du hatt en 24'' med samme egenskaper utenom oppløsningen så ville forskjellen vært mindre - dog ville du sett noe forskjell. Rett og slett fordi de fleste av oss sitter nærmere enn PC-skjerm en "retinaavstanden"

  • Liker 4
Lenke til kommentar

Nå burde nesten samtlige halvveis oppegående skjermkort i 2012 være kapable til å dra disse oppløsningen både når det kommer til 2D, tekst og video. Skal du gjøre noe grafisk så blir det nok litt verre, men slike applikasjoner osv kan du jo alltids kjøre i lavere oppløsning da du ikke alltid må kjøre ting i native oppløsning.

Lenke til kommentar

På tide! Synes det har vært ganske håpløst at min siste 19" CRT-skjerm hadde bedre oppløsning enn alle LCD-skjermene jeg har hatt siden.

 

Jeg har alltid vært en rendyrket PC-person, men har faktisk gått til innkjøp av Mac Book Pro utelukkende pga retinaskjermen.

Lenke til kommentar

Må si meg enig med flere her. Håper 16/9 forsvinner for godt til fordel 16/10. Grusomt med 21" 16/9 skjermer!

 

Også spent på dette med trykfølsome skjermer til desktop. Ser ikke helt for meg at jeg skal slippe mus og tastatur for å strekke meg rundt på de to 24" skjermene jeg har, Ser liksom ikke helt nytten, og ergonomisk må jo dette være et marerit!

  • Liker 1
Lenke til kommentar

er enig angående 16:9.. det er noe tull å jobbe på kontra 16:10.. Skjermkortene fikser nok biffen lett.. AMD/ATI sine skjermkort får jo høyest FPS nettopp på oppløsninger på 1080p eller høyere.. Klart det er et stykke opp til 2160p men..

 

Hvor tar du denslags informasjon fra? Jeg har enda tilgode å få mer ytelse når jeg øker oppløsningen. Denne linken bekrefter det: http://www.bit-tech.net/hardware/graphics/2011/12/22/amd-radeon-hd-7970-3gb-review/5

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...