Gå til innhold

10,1 tommers Galaxy Tab?


Anbefalte innlegg

Tja, den første telefonen med 320*240 kom vel for over 5 år siden nå, og den klarte seg da helt fint, jeg mener at oppløsning generelt, og da spesielt på pc har stått veldig stille i snart 10 år.

 

Hvorfor skal vi ikke ha skjermer med 3840*2400 med en fullstendig skalerbart ui, slik at vi slipper alt som heter kanter og hakk, og så heller senke oppløsningen til en fjerdedel om det skulle være behov for det.

 

JEg mener, IBM lagde en 22" med den oppløsningen for 10 år siden!

Og likevel har vi ikke kommet en mm fremover med tanke på dpi på pc-skjermer siden den gang.

Lenke til kommentar
Videoannonse
Annonse

Tja, den første telefonen med 320*240 kom vel for over 5 år siden nå, og den klarte seg da helt fint, jeg mener at oppløsning generelt, og da spesielt på pc har stått veldig stille i snart 10 år.

 

Hvorfor skal vi ikke ha skjermer med 3840*2400 med en fullstendig skalerbart ui, slik at vi slipper alt som heter kanter og hakk, og så heller senke oppløsningen til en fjerdedel om det skulle være behov for det.

 

JEg mener, IBM lagde en 22" med den oppløsningen for 10 år siden!

Og likevel har vi ikke kommet en mm fremover med tanke på dpi på pc-skjermer siden den gang.

 

Det der er jeg mer enn enig i. Håper et stort selskap virkelig satser på skjermer med overdreven høy PPI.

 

Det er jo bare telefonmarkedet som har skikkelig høy PPI

Lenke til kommentar
Tja, den første telefonen med 320*240 kom vel for over 5 år siden nå, og den klarte seg da helt fint, jeg mener at oppløsning generelt, og da spesielt på pc har stått veldig stille i snart 10 år.

Du snakket om minimumskrav på 960x640. Hva topptelefonene hadde for 5 år siden er irrelevant i den sammenhengen. Spør heller hva bunnmodellene hadde. Svaret er 128x128 på den tiden.

 

Forøvrig har ikke PCer stått stille de siste 10 år. For 10 år siden kjørte man enkeltkjerneprosessorer på 1-2 GHz. I dag kjører man 2-6 kjerner på 2,5-3,5 GHz. Det raskeste skjermkortet i 2000 var Nvidia Gforce 256 DDR med opp til 64 MB ram, 4,8 GB/s minnebåndbredde og 0,48 GT/s fillrate. Dagens toppmodell har 40 ganger så høy minnebåndbredde og 100 ganger så høy fillrate. Man hadde ikke fått gjort mye med 128 MB ram i dag heller. 64 MB minnepinne kostet bortimot tusenlappen. I dag kjører vi gjerne SSDer som er 100 ganger raskere og 1000 ganger større. For 10 år siden var 1024x768 oppløsning på 17" CRT vanlig. I dag er 1680x1050 - 1920x1200 på LCD vanlig. Så å si at det har stått veldig stille på PC de siste 10 år er tull.

 

Hvorfor skal vi ikke ha skjermer med 3840*2400 med en fullstendig skalerbart ui, slik at vi slipper alt som heter kanter og hakk, og så heller senke oppløsningen til en fjerdedel om det skulle være behov for det.

Fordi spill som i dag yter 100 fps på 1920x1200 ville fått 25 fps på den oppløsninga med samme maskinvare. Alternativt kunne man flesket til og kjøpt 4 skjermkort i stedet for 1, men det svir nok i lommeboka og støyer 4 ganger mer.

 

JEg mener, IBM lagde en 22" med den oppløsningen for 10 år siden! Og likevel har vi ikke kommet en mm fremover med tanke på dpi på pc-skjermer siden den gang.

IBM-skjermen kostet så vidt jeg husker i størrelseorden 100 000 kr. Jeg regner med du også synes at 22" 3840x2400 burde vært absolutt minimum på PC for flere år siden?

Lenke til kommentar

IBM skjermen lå på rundt 40 000kr.

 

I spill er det da fint mulig å kjøre i en fjerdedel av oppløsningen uten noe særlig kvalitetstap.

 

For 10 år siden hadde jeg en pc med PII prosessor, og et rivaTNT, og likefullt kjørte jeg 1600*1200 uten det minste problem på min 17" crt. (16.5" bilde eller hva det var).

 

Den ble skiftet ut et år eller to senere med en 20" dell med samme oppløsning.

På den tiden var 15 og 17" lcd standard. Altså gikk oppløsningen ned på overgangen fra crt til lcd. Og så har den sakte kommet opp igjen og ligger nå marginalt over der vi var for over 10 år siden.

 

For ikke å snakke om at en 15" med 1024*768, en 17" med 1280*1024, og en 24" med 1920*1200 har så godt som samme dpi, som var det jeg diskuterte, ikke størrelse.

 

Så argumentene mine står enda sterkere, jeg har lavere dpi på alle skjermer nå enn jeg hadde for 10 år siden. Altså er det ikke kraften som setter noen stopper her.

Lenke til kommentar

Det kan jo ha noe med kostnadene for å produsere mange piksler.

 

CRT har ikke piksler, men det har LCD. Hver piksel krever 3 transistorer og det skal ikke være særlig mange pikselfeil på skjermene før de blir kastet. Aller helst bør det være null pikselfeil.

 

1600x1200 er 5,76 millioner transistorer, der helst alle skal fungere. I brikker som CPU, GPU osv er det lagt inn redundans slik at man tåler ganske mange flere transistorfeil før brikken må kastes. Det er ikke plass til slik redundans i en LCD-skjerm. Dobler man antall piksler så dobles sannsynligheten for feil samtidig som antall skjermer per "plate" halveres. Med andre ord firedobles antall feil, målt i skjermareal som må kastes. Skalerer man opp størrelsen på skjermen uten å endre antall piksler så blir hver piksel større. Det reduserer sannsynligheten for feil på et gitt antall piksler på grunn av større og mer feilfri transistorer. Derfor er det billig å øke den fysiske størrelsen på en skjerm (tenk TV med full HD) enn å øke oppløsningen i takt med størrelsen, eller ennå verre: øke dpi.

 

Så det kan rett og slett være produksjonskostnader som gir så svak stigning i pikseltallet på LCD.

 

Du tenker sikkert dpi på mobiltelefoner med en gang, men det er et ganske annerledes marked. Der tåler man rimelig ekstreme priser per arealenhet sammenlignet med TV og PC-skjermer. Derfor er det mulig å få lønnsomhet i en produksjon med ekstrem dpi.

Endret av Simen1
Lenke til kommentar
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...