Gå til innhold

iPad 2-skjermen avslørt


Anbefalte innlegg

Er det bare jeg som stusser på hvordan de skal drive en skjerm med qxga oppløsning? Dette vil være overkill i forhold til prosessorer som er på markedet, og kreve vesentlig mere strøm å oppdatere. Jeg er ingen eple liker men med denne qxga oppløsning vil jeg vurdert denne super-aktuell. Desverre så tror jeg vi må vente til ipad 3 med 4 kjernes arm for at dette skal være aktuelt. Man kan jo faktisk ikke bruke denne oppløsningen i spillene man ønsker den i, og er jo ingen vits å levere en skjerm som ingen kan utnytte, iværtfall for apple som bruker å kjøre safe når det gjelder teknologi.Trodde egentlig disse ryktene var avkreftet for flere uker sider, men her har hardware har fortsatt rykteflommen.

 

Vil det kreve vesentlig mer strøm å oppdatere? Er det noen som har gjort noen benchmarks på sammenhengen mellom skjermstørrelse og batterilevetid, evt CPU-bruk?

 

AtW

 

Det kreves ENORM pixel fillrate fra gpu. I dag rendres alt man ser i OpenGl på GPU på høyendetelefoner. iPhone 4 og iPad sliter allerede med fillrate som gjør at man mister mye FPS.

 

Og den fillraten vil koste strøm. Men fra GPU og kanskje ikke CPU. Uanset er det et par generasjoner frem før man kan få god spillytelse på den slags oppløsning uten å bruke 1500mAh i timen...

 

Her snakker vi om 3d-rendring igjen? Det er vel ikke hovedbruskområdet til en ipad?

 

AtW

 

Det gjelder OpenGl som blirt brukt av menysystem, apper med grafikk i både 2d og 3d.Hvis man leser litt her http://replicaisland.blogspot.com/ om dette spillet (Dette er Android riktignok) så ser man at selv enkle 2D spill som dette er begrenset av fillrate.

Lenke til kommentar
Videoannonse
Annonse

Jeg kan sikkert finne en eller annen kilde. men ikke akkurat nu. Så noe nøyaktig tall på hvor mye mer cpu/batteri kraft som kreves kan jeg ikke si noe konkret om. Men la oss regne litt tall da med qxga vil dette tilsvare over 3,000,000 pixler kontra dagens under 1,000,000 pixler. La oss si dette er tilsvarende forhold for cpu bruk da altså 3:1. Så spørs det hvor mye smartere cpu de setter inn da, en tokjernet vil kanskje gjøre dette noe smartere og kreve ca dobbel strøm i forhold til ipad(1).

 

Det er ikke kjempe lenge siden vi kunne spille spill i 3d med fullhd oppløsning, og ps3 og xbox360 bruker sjelden fullhd oppløsning.

 

Jeg regner egentlig med at apple velger å ta dette skrittet etterhvert siden det er veldig greit tilpasse programmer og spill med x4 oppløsningen (som iphone 3gs -> iphone4). Og tviler på de velger noe imellom dette.

Her var det mye... kreativt.

 

Det må være over 15 år siden jeg først brukte en xga skjerm, og helt utrolig nok så kunne den brukes til å skrolle på nettsider, spille spill på, og bla gjennom dokumenter uten at cpu lå på 100%. Den kunne til og med vise bilder i den oppløsningen, men det var ikke akkuratt smooth.

 

Min første skjerm med oppløsning høyere enn full hd ble satt opp på skrivebordet for ca 12 år siden. Og pcen hadde ingen problemer med at jeg spillte på det, bladde på nettsider, så på bilder, eller selv mpeg film. Jeg vil til og med si noe så tvilsomt som at å bla gjennom et tekstdokument med to tre bilder ikke dro mer enn maks et par prosent cpu. Sammenlign dette med at mp3 gjerne dro 15-25%, selv i winamp.

 

Fast forward 10 år, og sammenlign tilgjengelig cpu kraft. Jeg er ikke sikker på tallene her, men jeg mistenker at arm på 1ghz overgår pentium II mmx på 450mhz uten større problemer. For ikke å snakke om gpu akselerasjon i tillegg.

 

2D rendering er noe som ble modent for minst 10 år siden, og det merkes godt at de merkene som tidligere var populære for sin gode 2d ytelse enten har gått hen, eller har fått helt andre fokusområder.

Lenke til kommentar

Jepp, var litt kreativ her fordi jeg ikke akkurat hadde kilder, men prøvde å forklare litt enkelt, hvorfor det var med krevende. Vi diskuterer jo ikke xga, men 2048x1536 og hvor mye mer som kreves av cpu/gpu/soc og hvordan dette vil påvirke batteri.Vist noen faktisk lager ett 3dspill (med max oppløsning) med litt fysikk itilegg vil man ikke kunne bruke enheten veldig lenge før batteriet var tomt, vil tro film i fullhd blir vesentlig forkortet. Det er veldig stor forskjell fra 1024x768. Men jeg kan ikke gi nøyaktig tall i mAh som dette krever, bare at det krever mer. Spørsmål er jo hvor mye. jeg mener "så mye" at apple ikke kommer til å velge en såpass overdrevent oppløsning, selv om det hadde vært kult.

Endret av anordne
Lenke til kommentar

Igjen er det du som plutselig skifter fokuset fra cpu bruk ved høy oppløsning til spillrendering ved høy oppløsning. Ingen som sier at man ikke kan rendre spillene i 1024*768.

 

Hvis en pc fra 1995 som sliter med å matche en kalkulator i dag klarer å rendre 1024*768 uten å blinke, og en pc fra 1998 rendrer 1920*1400 uten det minste problem, tror du ikke teknologien er moden for å gå et skritt videre nå, 12 år senere. CPU-ytelsen på denne tiden har mangedoblets.

 

Eller for å igjen gå rett på din villedelse, mitt gamle riva tnt kort fra 1999 hadde som en feature at den kunne rendre oppløsninger høyere enn 2048*2048. Tror du virkelig de hadde gjort det mulig om skjermkortet sleit med å fylle en slik oppløsning?

 

Dette er ikke nyheter, dette er ikke unike oppløsninger, hardware har vært raskt nok i godt over 10 år. Tekst og bilder med overlegen kvalitet ja takk.

 

Så kan spill rendres i xga, så får du akkuratt samme kvalitet som i dag på spillene som i dag, uten å ofre skarphet i vanlig bruk.

Lenke til kommentar

Ja vi snakker jo faktisk om ipad som bruker batteri, ikke om den faktisk klarer å rendre. jeg hadde matrox millennium 2 mb vram midt på 90 tallet,Det støttet vist 1600x1200 men ikke med 16 millioner av farger, men det er ikke poenget :blush: men grafikken var ikke hva vi krever i dag, og apple vil ikke levere ett produkt som ikke lvere smooth opplevelse, på alle måter. Og en ipad bruker batteri som er hele poenget her. Jeg vil gjerne ha en quad core x86 i min mobil, men det vil jo kreve alt for mye strøm.

Lenke til kommentar

Hvis man kunne rendre det uten problemer for 12 år siden, hvorfor skulle det være så enormt ressurskrevende å rendre dette i dag?

Er dette et vanskelig konsept å skjønne? :roll:

 

Jeg kan rendre starcraft med 1% cpu-bruk, likevel brukte det 100% cpu for 15 år siden. Er det noe med hele grunnkonseptet at "det er ikke krevende lenger, og har ikke vært på mange år" som er vanskelig å få med seg?

 

Om cpuen ligger på 0.1 eller 0.3% på å male opp skjermen kan jeg fint leve med, kommer ikke til å ligge søvnløs av den grunn.

Lenke til kommentar

Xga er 1024×768, dette var for 10 år siden, som man sier her, hvor å spille av en MP3 år 1/4 av tilgjengelig CPU craft.

Det er 10 år siden, noe sier meg at problemet er løst, men problemet er at skjermen vil dra for mye strøm. Eller at 3D spill fort kan bli for tunge på max oppløsning.

 

3D-spill er en ganske liten del av bruksområdet til produktet, og det må ikke rendres i native oppløsning. Jeg synes det er ganske lite relevant mtp det som diskuteres her, nemlig strømforbruk med en skjerm med bedre oppløsning.

 

AtW

Lenke til kommentar

Xga er 1024×768, dette var for 10 år siden, som man sier her, hvor å spille av en MP3 år 1/4 av tilgjengelig CPU craft.

Det er 10 år siden, noe sier meg at problemet er løst, men problemet er at skjermen vil dra for mye strøm. Eller at 3D spill fort kan bli for tunge på max oppløsning.

 

3D-spill er en ganske liten del av bruksområdet til produktet, og det må ikke rendres i native oppløsning. Jeg synes det er ganske lite relevant mtp det som diskuteres her, nemlig strømforbruk med en skjerm med bedre oppløsning.

 

AtW

 

Bra vi er enige.

Lenke til kommentar

Sammenlikningen med dagens,eller 10 år gammel hardware i desktop maskiner er ikke særlig relevant. Dagens maskiner trekker i størrelsesorden 300W mens smart telefoner bruker ca 1-2W.

Dagens iPad blir levert med 25Whr batteri som med 10 timer bruk gir en gjennomsnittlig forbruk på 2.5W. Effektforholdet er 1 til 100 sammenliknet med en desktop! iPad batteriet ville klare å drive din stasjonære PC i kun 5 minutter;-)

 

Apple kommer ikke til å levere iPad med det dobbelte av dagens oppløsning. Dette er allerede avkreftet på diverse ryktebørser. Men dagens oppløsning er noe lite når konkurrentene (les: et skred av Honeycomb tablets)kommer med 1280x720...

Lenke til kommentar

 

3D-spill er en ganske liten del av bruksområdet til produktet, og det må ikke rendres i native oppløsning. Jeg synes det er ganske lite relevant mtp det som diskuteres her, nemlig strømforbruk med en skjerm med bedre oppløsning.

 

 

Ja, spillopplevelsen forbedres neppe merkbart med høyere oppløsning enn XGA, men surfing på nettsider vil fungere bedre med QXGA. Siden QXGA er fire ganger oppløsningen er det derfor lettest for spillene å håndtere skjermen som standard iPad (XGA), så kan skjermkontrolleren kontrollere 4 piksler per spillpixel uten å bruke prosessorkraft.

 

15" QXGA-skjermer er populære å oppgradere gamle Thinkpader med, men jeg får nok nøye meg med UXGA på min T60.

Jeg har også en iPod Touch 4G med retina-skjerm, der er det mulig å lese et PDF-dokument uten å scrolle. De fleste Android surfebrett på 7" har jeg ikke forstått vitsen med, oppløsningen på mange er dårligere enn på min SE X10.

Lenke til kommentar

Sammenlikningen med dagens,eller 10 år gammel hardware i desktop maskiner er ikke særlig relevant. Dagens maskiner trekker i størrelsesorden 300W mens smart telefoner bruker ca 1-2W.

Dagens iPad blir levert med 25Whr batteri som med 10 timer bruk gir en gjennomsnittlig forbruk på 2.5W. Effektforholdet er 1 til 100 sammenliknet med en desktop! iPad batteriet ville klare å drive din stasjonære PC i kun 5 minutter;-)

 

Apple kommer ikke til å levere iPad med det dobbelte av dagens oppløsning. Dette er allerede avkreftet på diverse ryktebørser. Men dagens oppløsning er noe lite når konkurrentene (les: et skred av Honeycomb tablets)kommer med 1280x720...

 

Hvilke av dagens maskiner er det som har en snittforbruk på 300watt? Selv et maksforbruk på 300 watt er godt over snittet.

 

AtW

Lenke til kommentar

Hvilke av dagens maskiner er det som har en snittforbruk på 300watt? Selv et maksforbruk på 300 watt er godt over snittet.

 

AtW

 

En overklokket gaming rig under spilling? :roll:

 

Du har selvfølgelig rett i at dagen maskiner ikke drar 300W i gjennomsnitt.100-150W er vel et bedre estimat. Men husk at skjermen er ikke inkludert i de fleste målinger av komplette systemer(f.eks Hardware.no sine tester).

 

Det er ikke mange årene siden av ATI og Nvidia trakk 200W med GPU alene!(G80 og R600) Heldigvis har ting bedret seg siden den gangen.

Lenke til kommentar
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...