Gå til innhold

iPad 3 får ultrarealistisk spillgrafikk


Anbefalte innlegg

Godt å se at "trollinga" er i full gang her. iPad 2 fikk ikke stort annet forandret enn tallet sier du? Enten må du være blind, fanboy eller troll om du mener at forandring av design / utseende, nytt SoC (prosessor + skjermkort), større lagringskapasitet og mer minnekapasitet. Det ble jo introdusert ett ekstra kamera også, nytt trådløst brikkesett, andre høyttalere (?), samt hovedkamera ble vell byttet ut og oppgradert.

 

 

Du kan si hva du vil, og mene akkurat hva du vil men faktum er at det eneste som ikke ble forandret fra iPad til iPad 2 var vell skjermoppløsningen, skjermstørrelsen, dock-porten og "hjem-knappen". Om du kanskje hadde håpet på mer, forventet mer eller hva det måtte være kan nå så være, men å si at iPad 2 var tilnærmet identisk med iPad blir jo feil på alle mulige måter.

 

 

Og de som kritiserer grafikkytelsen på iPad 2 og refererer til 20 * 0 = 0 hva måler dere utifra da? iPad 2 har fremdeles noe av, om ikke den beste grafikkytelsen innen tablet på markedet i dag. Klart at denne artikkelen har dratt strikken i en helt urealistsik retning og at en tablet ikke vil ha i nærheten av grafikkytelsen til en bærbar eller stasjonær PC med oppegående skjermkort. Men sånn som folk slenger med leppa her så skulle du jo tro alle og enhver hadde bedre grafikkytelsen enn iPad 2 og i tablet markedet per i dag så kunne man ikke tatt mer feil.

 

 

Folk burde huske at en anti-fanboy er like ille som en fanboy og at en smule objektivitet og nøytralt syn på ting er et greit utgangspunkt før man begynner å skrive svada.

  • Liker 4
Lenke til kommentar
Videoannonse
Annonse
Gjest Slettet-Pqy3rC

Klart at denne artikkelen har dratt strikken i en helt urealistsik retning og at en tablet ikke vil ha i nærheten av grafikkytelsen til en bærbar eller stasjonær PC med oppegående skjermkort. Men sånn som folk slenger med leppa her så skulle du jo tro alle og enhver hadde bedre grafikkytelsen enn iPad 2 og i tablet markedet per i dag så kunne man ikke tatt mer feil.

 

Folk burde huske at en anti-fanboy er like ille som en fanboy og at en smule objektivitet og nøytralt syn på ting er et greit utgangspunkt før man begynner å skrive svada.

Problemet her er vel, som du selv er inne på, at artikkelen i seg selv legger opp til svadakommentarer. Litt moderasjon fra hw.no i bruk av adjektiver vil antagelig medføre at artikkelkommentarene også blir mer moderate.

 

Det er trist at hw.no i stadig flere artikler benytter "hysteri"- journalistikk istedenfor å være et sted som gir et mer riktig bilde av teknologiske endringer. Når klikktelling prioriteres over sannhet blir resultatet ymse.

Lenke til kommentar

Eplehodene fabler om kjempe-oppløsning. Vil det i det hele tatt være mulig å se forbedringer ut over 1920x1200 på en 10" håndholdt skjerm. Foreløpig er det også begrenset utvalg av eksterne skjermer med høyere oppløsning å koble brettet til. Hvor mange har en TV med høyere oppløsning? Har man full HD kan brettet brukes som spillkonsoll om prosessorkapasiteten er tilstrekkelig. Har man regnekapasitet i CPU eller GPU til å håndtere høyere oppløsninger bør man heller prioritere å anvende denne til å gi brukergrensesnitt og applikasjoner bedre ytelse.

Lenke til kommentar

Eplehodene fabler om kjempe-oppløsning. Vil det i det hele tatt være mulig å se forbedringer ut over 1920x1200 på en 10" håndholdt skjerm. Foreløpig er det også begrenset utvalg av eksterne skjermer med høyere oppløsning å koble brettet til. Hvor mange har en TV med høyere oppløsning? Har man full HD kan brettet brukes som spillkonsoll om prosessorkapasiteten er tilstrekkelig. Har man regnekapasitet i CPU eller GPU til å håndtere høyere oppløsninger bør man heller prioritere å anvende denne til å gi brukergrensesnitt og applikasjoner bedre ytelse.

Eneste grunnen til at oppløsningen dobles(eller firedobles egentlig) er at skalering til gamle enheter blir enklere. Og en iPad 3 kan aldri klare å kjøre et relativt avansert 3D spill i oppløsninger over qHD(altså en fjerdedel av oppløsningen til FullHD).

Lenke til kommentar
  • 4 uker senere...

Med sine A4 og A5 SoC har Apple vært knusende overlegne på grafikkytelse for telefoner og nettbrett, og basert på historikken til markedsledende Imagination Technologies er det ikke urimelig å anta at en Apple A6 med en slik GPU vil få Tegra 3 og resten av røkla til å framstå som temmelig utdaterte...

Litt gammel artikkel nå, men: Apple har ikke noe me grafikkytelsen å gjøre. De har bare valgt å putte inn n god GPU i produktet sitt. For øvrig den nest beste på markedet nak Mali-400.

 

Nvidia skuffet STORT med Tegra2, men je håper de kan knive om førsteplassen med Tegra 3 mot PowerVR6xx - ellers ser vi fort et voldsomt prishopp på disse GPUene.

 

Ellers enig med flee i at det virker en smule urealistisk at disse skal komme i noe produkt første halvår.

Lenke til kommentar

Med sine A4 og A5 SoC har Apple vært knusende overlegne på grafikkytelse for telefoner og nettbrett, og basert på historikken til markedsledende Imagination Technologies er det ikke urimelig å anta at en Apple A6 med en slik GPU vil få Tegra 3 og resten av røkla til å framstå som temmelig utdaterte...

Litt gammel artikkel nå, men: Apple har ikke noe me grafikkytelsen å gjøre. De har bare valgt å putte inn n god GPU i produktet sitt. For øvrig den nest beste på markedet nak Mali-400.

 

Nvidia skuffet STORT med Tegra2, men je håper de kan knive om førsteplassen med Tegra 3 mot PowerVR6xx - ellers ser vi fort et voldsomt prishopp på disse GPUene.

 

Ellers enig med flee i at det virker en smule urealistisk at disse skal komme i noe produkt første halvår.

Ikke glem at AMD også har sagt de skal lage SoCs for mobilt marked. Og de har en veldig solid grafikkavdeling ;)

 

Intel vil jo lage x86-prosessorer som har like lavt strømforbruk og ytelse som ARM-prosessorer også, hva de kan klare av strømforbruk mot ytelse blir spennende å se.

Lenke til kommentar

Med sine A4 og A5 SoC har Apple vært knusende overlegne på grafikkytelse for telefoner og nettbrett, og basert på historikken til markedsledende Imagination Technologies er det ikke urimelig å anta at en Apple A6 med en slik GPU vil få Tegra 3 og resten av røkla til å framstå som temmelig utdaterte...

Litt gammel artikkel nå, men: Apple har ikke noe me grafikkytelsen å gjøre. De har bare valgt å putte inn n god GPU i produktet sitt. For øvrig den nest beste på markedet nak Mali-400.

Ytelsen til PowerVR brikken i Apple A5 har vært det råeste du kunne oppdrive i mobiler/tablet i hele 2011, hvilken brikke Apple velger å bruke i A6 er enda uvisst...

 

Ikke glem at AMD også har sagt de skal lage SoCs for mobilt marked. Og de har en veldig solid grafikkavdeling ;)

Dessverre er det nok en lang vei dit (som i flere år). Synd at AMD valgte å selge den delen av ATi som drev med mobil grafikk og SoC's til Qualcomm i 2009.

 

http://www.digitaltrends.com/mobile/qualcomm-buys-amdatis-mobile-graphics/

Endret av HKS
Lenke til kommentar
Gjest Slettet+89234341

Med sine A4 og A5 SoC har Apple vært knusende overlegne på grafikkytelse for telefoner og nettbrett, og basert på historikken til markedsledende Imagination Technologies er det ikke urimelig å anta at en Apple A6 med en slik GPU vil få Tegra 3 og resten av røkla til å framstå som temmelig utdaterte...

Litt gammel artikkel nå, men: Apple har ikke noe me grafikkytelsen å gjøre. De har bare valgt å putte inn n god GPU i produktet sitt. For øvrig den nest beste på markedet nak Mali-400.

Synd at Mali-400 ikke er ute på markedet enda da... ;)

Ytelsen til PowerVR brikken i Apple A5 har vært det råeste du kunne oppdrive i mobiler/tablet i hele 2011, hvilken brikke Apple velger å bruke i A6 er enda uvisst...

 

Ikke glem at AMD også har sagt de skal lage SoCs for mobilt marked. Og de har en veldig solid grafikkavdeling ;)

Dessverre er det nok en lang vei dit (som i flere år). Synd at AMD valgte å selge den delen av ATi som drev med mobil grafikk og SoC's til Qualcomm i 2009.

 

http://www.digitaltrends.com/mobile/qualcomm-buys-amdatis-mobile-graphics/

 

 

Ved mindre du drived med noen slags merkelig differensiering mellom Mali-400MP og en annen Mali-400, så ligger du omtrent et år etter. Mali-400MP sitteri Samsung sin Exynos chip, som igjen finnes i Galaxy S II, Galaxy Note, Galaxy Tab 7.0 Plus og Galaxy Tab 7.7.

Lenke til kommentar

Synd at Mali-400 ikke er ute på markedet enda da... ;)

Ytelsen til PowerVR brikken i Apple A5 har vært det råeste du kunne oppdrive i mobiler/tablet i hele 2011, hvilken brikke Apple velger å bruke i A6 er enda uvisst...

Mali-400 har vært på markedet siden tidlig 2011 og finnes bla. i Galaxy S II. Ikke helt oppdatert eller bare helt fjern? Den andre påstanden din er heller ikke riktig. jeg skjønner at det kan være ristende å tro at Apple leder i rå regnekraft for en type enheter i det minste, men det stemmer ikke av den grunn. A5 er likevel en god pris/ytelse SoC.
Lenke til kommentar

Med sine A4 og A5 SoC har Apple vært knusende overlegne på grafikkytelse for telefoner og nettbrett, og basert på historikken til markedsledende Imagination Technologies er det ikke urimelig å anta at en Apple A6 med en slik GPU vil få Tegra 3 og resten av røkla til å framstå som temmelig utdaterte...

Litt gammel artikkel nå, men: Apple har ikke noe me grafikkytelsen å gjøre. De har bare valgt å putte inn n god GPU i produktet sitt. For øvrig den nest beste på markedet nak Mali-400.

Synd at Mali-400 ikke er ute på markedet enda da... ;)

Ytelsen til PowerVR brikken i Apple A5 har vært det råeste du kunne oppdrive i mobiler/tablet i hele 2011, hvilken brikke Apple velger å bruke i A6 er enda uvisst...

 

Ikke glem at AMD også har sagt de skal lage SoCs for mobilt marked. Og de har en veldig solid grafikkavdeling ;)

Dessverre er det nok en lang vei dit (som i flere år). Synd at AMD valgte å selge den delen av ATi som drev med mobil grafikk og SoC's til Qualcomm i 2009.

 

http://www.digitaltrends.com/mobile/qualcomm-buys-amdatis-mobile-graphics/

 

 

Ved mindre du drived med noen slags merkelig differensiering mellom Mali-400MP og en annen Mali-400, så ligger du omtrent et år etter. Mali-400MP sitteri Samsung sin Exynos chip, som igjen finnes i Galaxy S II, Galaxy Note, Galaxy Tab 7.0 Plus og Galaxy Tab 7.7.

Jepp, jeg blandet med Mali 600-serien som enda ikke har kommet ut i noen brikker...

 

Mali 400-serien har vært ute en stund, men det NgZ sier er feil. PowerVR SGX543MP2 som sitter i Apple sin A5 brikke er i en annen liga sammenlignet med Mali.

Lenke til kommentar

Synd at Mali-400 ikke er ute på markedet enda da... ;)

Ytelsen til PowerVR brikken i Apple A5 har vært det råeste du kunne oppdrive i mobiler/tablet i hele 2011, hvilken brikke Apple velger å bruke i A6 er enda uvisst...

Mali-400 har vært på markedet siden tidlig 2011 og finnes bla. i Galaxy S II. Ikke helt oppdatert eller bare helt fjern? Den andre påstanden din er heller ikke riktig. jeg skjønner at det kan være ristende å tro at Apple leder i rå regnekraft for en type enheter i det minste, men det stemmer ikke av den grunn. A5 er likevel en god pris/ytelse SoC.

Som nevnt i posten før så trodde jeg at du snakket om Mali 600-serien kom kommer senere i år.

 

Når det gjelder GPU så leder Apple definitivt i rå regnekraft. Sammenlignet med Mali 400 serien så er PowerVR SGX543MP2 som brukes i Apple A5 i en annen liga:

http://www.anandtech.com/show/4686/samsung-galaxy-s-2-international-review-the-best-redefined/17

Lenke til kommentar

Når det gjelder GPU så leder Apple definitivt i rå regnekraft. Sammenlignet med Mali 400 serien så er PowerVR SGX543MP2 som brukes i Apple A5 i en annen liga:

http://www.anandtech.com/show/4686/samsung-galaxy-s-2-international-review-the-best-redefined/17

Felere av e resultateten er meningsløse resultater av tester som tester ytelsen til enkelte enheter - programvare og drivere på f.eks. S II er ikke laget for å kjøre en finurlig ikke-eksisterende (på enheten) oppløsning, og det lider den. For å se hvor latterlig enkelte resultater er, er det jo bare å se at Adreno 220 og Tegra slår enheten med Mali-400 på antall triangler noe som er fullstendig umulig skal man tro spesifikasjonene til produsentene av begge.

 

Skjønt, når jeg ser på teksten, ser jeg at de faktisk nevener den innvirkningen på resultatene. Uansett ser du at S II faktisk vinner alle de reelle ytelsestestene. Hvorfor A5 ikke er med på dem i det hele tatt, vet jeg ikke.

 

Uansett er det mulig jeg ikke har fått med meg spesifikasjonene til A5 helt, men jeg har sett sammenlikninger der S II lettvinner over 4S. Har disse tatt feil, eller sammenlikner du epler og bananer (mobiltelefoner og nettbrett, der iPhne kjører en svakere/lavere klokket variant)?

Endret av NgZ
Lenke til kommentar

Skjønt, når jeg ser på teksten, ser jeg at de faktisk nevener den innvirkningen på resultatene. Uansett ser du at S II faktisk vinner alle de reelle ytelsestestene. Hvorfor A5 ikke er med på dem i det hele tatt, vet jeg ikke.

 

Uansett er det mulig jeg ikke har fått med meg spesifikasjonene til A5 helt, men jeg har sett sammenlikninger der S II lettvinner over 4S. Har disse testene vært feil, eller sammenlikner du epler og bananer (mobiltelefoner og nettbrett)?

Fordi testen egentlig var om mobiltelefoner, og den var gjort før iPhone 4S kom med Apple A5 men kan gjerne finne flere tall til deg.

 

http://www.anandtech.com/show/4971/apple-iphone-4s-review-att-verizon/6

 

Der er det også en tabell som viser teoretisk ytelse i FLOPS, samt hvor mange MAD (Multiply Add) brikkene kan gjøre per klokkesykel (NB! Tallene for Adreno 225 er feil). I GLBenchmark som AnandTech bruker så rendrer alle enhetene til 720p off-streen for at de skal få samme oppløsning, og fordi at tallene skal være så rettferdig som mulig.

Lenke til kommentar

Ok, jeg tror deg. Selv om jeg er skeptisk til kvaliteten på tallmaterialet i en tabell når du selv sier NB: X er feil! :tease:

 

Synd det knapt finnes titler som er i stand til å utnytt kraften i dagens toppmodeller, samtidig som det stadig er et jag etter bedre specs. EA lager noe, men det er jo stort sett spill som båe er for dyre, og passer bedre på PC.

Lenke til kommentar

Akkurat her er iOS og iPhone bedre enn Android sist jeg sjekket, på grunn av strengere kontroll, en gitt oppløsning og veldig konkret maskinvare å utvikle til så opplevde jeg at spill som Spore ser mye dårligere ut på en Galaxy S2 enn på en iPhone4 for eksempel. Det hjelper jo fint lite med den kraftigste Android telefonen om utviklere utvikler mot de svakere for å få spillene og applikasjonene ut mot et bredere publikum.

Lenke til kommentar

Jeg vet ikke hva som legges i orden Ultrarealistisk, men BF3 har en litt realistisk grafikk imo, så om A6-brikken kan yte Ultrarealistisk, må jeg nok bytte ut 580en min.

 

Det som kan legges i ordet er økt salg, det er jo en kjent sak at kan du finne på "nye" ord som fenger så selger produktet bedre ....

Lenke til kommentar

Akkurat her er iOS og iPhone bedre enn Android sist jeg sjekket, på grunn av strengere kontroll, en gitt oppløsning og veldig konkret maskinvare å utvikle til så opplevde jeg at spill som Spore ser mye dårligere ut på en Galaxy S2 enn på en iPhone4 for eksempel. Det hjelper jo fint lite med den kraftigste Android telefonen om utviklere utvikler mot de svakere for å få spillene og applikasjonene ut mot et bredere publikum.

Det er nok riktig. et er nok også grunnen til at Nvidia har kommet med sin TegraZone, der de så vidt jeg vet stiller en del ytelseskrav til spillene som slipper inn.

 

Men det kommer nok etterhvert. Det er ikke mer enn et drøyt år siden du slet med å finne spill som var i nærheten av det du fant på iOS til Android. Nå, med mer enn dobbelt så stor markedsandel (hvorav hele selvfølgelig ikke består av high-end telefoner) er situasjonen en helt annen, med et stadig økende utvalg også av kvaligtetsspill. Og stadig flere spill fra stadig flere produsenter (Gu, EA off the top of my head, men mange andre og) laster ned teksturer osv. første gang du starter spillet, disse kan da tilpasses etter oppløsning, maskinvare osv. Teksturene kan da være forhåndlsaget i pakker tilsvarende de mest vanlige oppløsningene.

 

Om jeg skal titte litt i spåkulen, ville det ikke overraske meg om vi f.eks. fikk en egen Galaxy serie med et eget Galaxy Market. Samsung har hatt en utrolig suksess med Galaxy S og S II, og nå med en egen kommende firekjerners-SoC (tokjerneren var den desidert beste i fjoråret, men etter Apples A5 på GPU-biten), har de egentlig omtrent like gode forutsetninger som Apple til å skape en egen merkevare og tiltrekke seg både innholdsprodusenter og de som vil ha litt ekstra. De kan for eksempel lansere tre ulike modeller og støtte disse med softwareoppdateringer i minimum to år eller noe. Med samme SoC, skjermkontroller m.fl. burde ikke det være alt for mye ekstrajobb.

 

Jeg tror vel egentlig ikke de har mot nok til å forsøke, med tanke på Eplehjernefeberen som herjer både mange forbrukere og ikke minst mediene, men det hadde unektelig vært stilig om de gjorde det.

Lenke til kommentar
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...