Gå til innhold

Nå vet vi mye mer om maskinvaren til Xbox One


Anbefalte innlegg

Utrolig hvordan enkelte kan lire av seg så mye galle rundt maskinvaren til Xbox One og samtidig rose maskinvaren til PlayStation 4 så til de grader opp i skyene da maskinvaren tross alt er 90% identisk med unntak av flere shader units på GPU og GDDR5 vs DDR3 + EsRAM, dette er vell den minste forskjellen på to konsoller i en konsollkrig vi kan minnes og folk argumenterer og oppfører seg som om den ene skulle være rent søppel sammenlignet med den andre. :roll:

 

Den minste forskjellen i arkitektur, ja. Men siden de har så lik arkitektur kan det jo føre til at forskjellene i at PS4 er kraftigere enn Xbox One blir større i praksis siden de har så lik arkitektur.

Lenke til kommentar
Videoannonse
Annonse

Den minste forskjellen i arkitektur, ja. Men siden de har så lik arkitektur kan det jo føre til at forskjellene i at PS4 er kraftigere enn Xbox One blir større i praksis siden de har så lik arkitektur.

http://www.neogaf.com/forum/showpost.php?p=77493461&postcount=1

PS4s største fordel på maskinvarefronten er faktisk at den har en mer avansert og effektiv minnearkitektur enn XBone.

  • Liker 1
Lenke til kommentar

Utrolig hvordan enkelte kan lire av seg så mye galle rundt maskinvaren til Xbox One og samtidig rose maskinvaren til PlayStation 4 så til de grader opp i skyene da maskinvaren tross alt er 90% identisk med unntak av flere shader units på GPU og GDDR5 vs DDR3 + EsRAM, dette er vell den minste forskjellen på to konsoller i en konsollkrig vi kan minnes og folk argumenterer og oppfører seg som om den ene skulle være rent søppel sammenlignet med den andre. :roll:

 

Jeg er ikke negativ til ting for å være negativ, men fra mitt ståsted ser det ut som Sony vil levere raskere hardware, til lavere pris, på en tidligere dato, og med færre restriksjoner. Så mens jeg ikke misliker Xbox One av prinsipp, ser jeg ikke noen grunn til å velge den over PS4. Hardware'n i begge er ganske interessante, men som du sier så er de ganske like også, så det er ikke noe skille.

 

Håper egentlig at Microsoft klarer å trekke noe stilig frem fra ermet som gjør de mer konkurransedyktige, for selv om jeg liker PS4'en ganske bra så langt, så foretrekker jeg sunn konkurranse i markedet. Sånn sett var denne artikkelen litt skuffende.

  • Liker 1
Lenke til kommentar

Jeg må si MS sin Xbox avdeling har blitt flink til å skaffe seg masse PR de siste månedene. Synes det kommer 20 artikkler om Xbone for hver PS4 artikkel, og de aller fleste artikklene er positive.

Dette er ikke ment som en klage på media, men som skryt til MS for å ha klart å redde ryktet til Xbone.

Lenke til kommentar

 

 

Den minste forskjellen i arkitektur, ja. Men siden de har så lik arkitektur kan det jo føre til at forskjellene i at PS4 er kraftigere enn Xbox One blir større i praksis siden de har så lik arkitektur.

http://www.neogaf.com/forum/showpost.php?p=77493461&postcount=1

PS4s største fordel på maskinvarefronten er faktisk at den har en mer avansert og effektiv minnearkitektur enn XBone.

Takk veldig spennende.

Hvor ligger denne forsjellen? hardware, microcode eller os?

Trodde faktisk selv 360 brukte hUMA, du vil få vanskeligheter med å bruke det på en pc pga kompabilitet da den også må støtte eksterne skjermkort om dette da ikke ligger dypt nok nede.

Regner med det blir Xbox sin versjon som dukker opp på amd pcer i løpet av 2014.

Lenke til kommentar
Gjest Bruker-245639

Jeg må si MS sin Xbox avdeling har blitt flink til å skaffe seg masse PR de siste månedene. Synes det kommer 20 artikkler om Xbone for hver PS4 artikkel, og de aller fleste artikklene er positive.

Dette er ikke ment som en klage på media, men som skryt til MS for å ha klart å redde ryktet til Xbone.

Du skal være bra tom i bollen for å ikke få med deg at MS-artiklene er totalt blottet for innhold. Det som i menneskeverden omtales som dum og deilig rett og slett.

Lenke til kommentar

http://www.neogaf.com/forum/showpost.php?p=77493461&postcount=1

PS4s største fordel på maskinvarefronten er faktisk at den har en mer avansert og effektiv minnearkitektur enn XBone.

Ehh... Nei.

 

Etter å ha sett slides på HotChips så er det vel ganske tydelig at XBox One også kommer til å støtte hUMA. Nå er jeg heller ikke enig med AMD at dette kommer til å være en så stor "Game Changer" som de prøver å fremstille det som, her er det mye PR-prat.

 

Det som faktisk gjør Microsoft sin arkitektur spennende er cachen med 32MB ESRAM.

Lenke til kommentar

Ehh... Nei.

 

Etter å ha sett slides på HotChips så er det vel ganske tydelig at XBox One også kommer til å støtte hUMA. Nå er jeg heller ikke enig med AMD at dette kommer til å være en så stor "Game Changer" som de prøver å fremstille det som, her er det mye PR-prat.

 

Det som faktisk gjør Microsoft sin arkitektur spennende er cachen med 32MB ESRAM.

Hvis XBone også støtter hUMA er det gode nyheter ettersom hUMA vil bli raskere tatt i bruk i spill, eneste som ikke tjener på dette er vel Intel som ikke har en hUMA-kapabel prosessor enda

Er det ikke mulig å utnytte hUMA for å øke antallet interaktive objekter i spillet, og fluidfysikk kjørt på GPUen kan vel nå bli gameplaypåvirkende?

 

32MB-cachen til XBone gir jo fortsatt ikke like mye total båndbredde som PS4s samlede GDDR5-minne? Det eneste som kan gi en fordel med ESRAMen er vel om CPUen har bedre latency mot ESRAM-cachen, noe som ikke er utrolig ettersom den ligger på samme brikke? Uansett har PS4 høyere total båndbredde og en samlet minnepool, det bør da gjøre programmering en god del enklere?

Lenke til kommentar

32MB-cachen til XBone gir jo fortsatt ikke like mye total båndbredde som PS4s samlede GDDR5-minne? Det eneste som kan gi en fordel med ESRAMen er vel om CPUen har bedre latency mot ESRAM-cachen, noe som ikke er utrolig ettersom den ligger på samme brikke? Uansett har PS4 høyere total båndbredde og en samlet minnepool, det bør da gjøre programmering en god del enklere?

ESRAM'en er vel egentlig ikke en cache per se, det er opp til spill utviklerene hvordan den skal brukes (direkte tilgang). Det er vel vanskelig å si hva som gir mest effektiv båndbredde, det kommer mye ann på hvor smart ESRAMen brukes, f.eks hvis framebufferet ligger i ESRAM'en vil det spare DDR3 minnet for en masse trafikk. Xbox One har en svakere GPU så båndbredde behovet er ikke like stort uansett, men det er klart at Xbox One har en latency fordel med ESRAM og DDR3.
Men ja, det er mer problematisk med embedded minne i tillegg, men på en annen side er ikke dette noe nytt.
Lenke til kommentar

Hvis XBone også støtter hUMA er det gode nyheter ettersom hUMA vil bli raskere tatt i bruk i spill, eneste som ikke tjener på dette er vel Intel som ikke har en hUMA-kapabel prosessor enda

Er det ikke mulig å utnytte hUMA for å øke antallet interaktive objekter i spillet, og fluidfysikk kjørt på GPUen kan vel nå bli gameplaypåvirkende?

hUMA (Unified Memory Access) vil i bunn og grunn si at du du kan bruke samme pekere til data på GPU og CPU, uten og eksplisitt overføre data mellom enhetene, tanken er at dette gjør det enklere for de som skal progammere brikken.

 

Dette involverer cache coherencey, noe som selvsagt gjør det enklere for programmerere noe som er en fordel, ulempen er at det øker kompleksiteten i hardware, og at hardware my bruke mye resurser (trafikk på busser) for å sørge for at all data er oppdatert i alle kjernene.

 

Det er faktisk en av tingene vi nå ser i many-core systemer at cache-coherency potensielt kan drepe ytelsen.

 

Så for å komme tilbake til spørsmålet. hUMA er primært der for å gjøre ting enklere for oss som programmerer disse brikkene, alt du kan gjøre med hUMA kan du gjøre uten med eksplisitt kontroll over dataflyten.

Lenke til kommentar

Så for å komme tilbake til spørsmålet. hUMA er primært der for å gjøre ting enklere for oss som programmerer disse brikkene, alt du kan gjøre med hUMA kan du gjøre uten med eksplisitt kontroll over dataflyten.

Jeg var av den oppfatning at latency mellom CPU og GPU ville være kraftig redusert takket være hUMA?

I tillegg skulle det vel ikke koste noe ytelse fra programmererens side?

Lenke til kommentar

Jeg var av den oppfatning at latency mellom CPU og GPU ville være kraftig redusert takket være hUMA?

I tillegg skulle det vel ikke koste noe ytelse fra programmererens side?

Latency blir ikke redusert, fordi data må fremdeles flyttes over en bus. Det som gjør forskjellen her er at CPU og GPU deler samme minne og data trenger derfor ikke å flyttes. Dette er dog ikke noe nytt, og setter du inn enda en GPU koblet til over PCI Express så vil du igjen få latency som PCIe introduserer.

 

På grunn av cache coherency (CC) blir det lettere for programmereren, men CC er overhodet ikke gratis, det koster ytelse. En dyktig programmerer som kjenner hardware (noe man må gjøre når det er snakk om konsoller) kan få bedre ytelse med å håndtere data eksplisitt (altså manualt slik man gjør det i dag, uten CC).

Lenke til kommentar

Latency blir ikke redusert, fordi data må fremdeles flyttes over en bus. Det som gjør forskjellen her er at CPU og GPU deler samme minne og data trenger derfor ikke å flyttes. Dette er dog ikke noe nytt, og setter du inn enda en GPU koblet til over PCI Express så vil du igjen få latency som PCIe introduserer.

 

På grunn av cache coherency (CC) blir det lettere for programmereren, men CC er overhodet ikke gratis, det koster ytelse. En dyktig programmerer som kjenner hardware (noe man må gjøre når det er snakk om konsoller) kan få bedre ytelse med å håndtere data eksplisitt (altså manualt slik man gjør det i dag, uten CC).

Interessant!

Så det er ikke bare delt systemminne, men også på Cache-nivå? Jeg kan lett forestille meg at det vil være et helvete å designe kretsen så data ikke kræsjer mot hverandre uten å svekke ytelsen for mye.

Jeg trodde det fungerte slik at det var en L3 Cache/minnekontroller både CPU og GPU kunne kommunisere mot mens CPUens og GPUens L2- og L1-cache var dedikert, og minnekontrolleren holdt oversikt over hvilke addresser som var tildelt CPU/GPU i hvert øyeblikk. Feil?

 

Blir det egentlig gjort så mye arbeid på lavnivå i dagens konsoller?

Lenke til kommentar

Interessant!

Så det er ikke bare delt systemminne, men også på Cache-nivå? Jeg kan lett forestille meg at det vil være et helvete å designe kretsen så data ikke kræsjer mot hverandre uten å svekke ytelsen for mye.

Jeg trodde det fungerte slik at det var en L3 Cache/minnekontroller både CPU og GPU kunne kommunisere mot mens CPUens og GPUens L2- og L1-cache var dedikert, og minnekontrolleren holdt oversikt over hvilke addresser som var tildelt CPU/GPU i hvert øyeblikk. Feil?

 

Blir det egentlig gjort så mye arbeid på lavnivå i dagens konsoller?

Ja, du kan ikke bare dele systemminne. Da er det en stor risiko for at du har modifisert data i en cache, enten på GPU eller CPU som enda ikke er "skrevet tilbake" til minne når en annen prosess leser data.

 

Det stemmer at en CPU sinn L2 og L2 cacher er private, men det hender ofte at data blir oppdatert i cache før det blir skrevet tilbake til minne (da minneaksesser er veldig tregt sammenlignet med operasjoner i cache). Så skal du ha full deling av data og pekere mellom CPU og GPU så trenger du cache coherency implementert i hardware (software implementasjoner blir for trege).

 

I dagens konsoller (360 & PS3) blir nesten alt av grafikk gjort på lavnivå. På PS3 skriver utviklere i bunn og grunn direkte til frame buffer.

I starten på et konsoll sitt "liv" vil man kon bruke mye API'er, men etterhver som kravene til grafikk øker, så trenger man den ekstra ytelsen man får ved å droppe API'er å skrive rett til hardware. Det er fordelen med konsollene nå også, hardware er ganske lik.

Lenke til kommentar

 

 

Dersom MS hadde kurert kreft og AIDS, så hadde du klagd over at MS dreper legemiddelindustrien. Damned if you do, damned if you don't. Begynner oppriktig å bli lei det samme oppgulpet fra de samme brukerne gang etter gang etter gang...

Hvis MS hadde kurert kreft og AIDS så hadde MS for første gang i historien bidratt med noe betydningsfullt i verden.

Gratulerer, dette var kanskje det mest idiotiske innlegget jeg noengang har lest her inne. Diplom er på vei i posten ;)
  • Liker 2
Lenke til kommentar
Gjest Bruker-245639

Gratulerer, dette var kanskje det mest idiotiske innlegget jeg noengang har lest her inne. Diplom er på vei i posten ;)

I et format som jeg må kjøpe et MS produkt for å kunne få tilgang til? Ellers takk. Om jeg ikke får diplomet i et fritt og åpent format og uten DRM så trenger jeg det ikke.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...