Gå til innhold

Oculus-grunnlegger: Vi vil støtte Mac når Apple lager en god nok maskin


Anbefalte innlegg

 

Vr er for spill, eller for andre 3d-verdner som i praksis lages akkurat som spill. Cinebench er ikke en spesielt god benchmark for den type ytelse. AtW

 

 

Eller VR kan brukes for film o.l. Hvilken/hvilke benchmark-test(er) mener du er bedre egnet til å teste ytelse i OpenGL i f.eks OS X, enn Cinebench R15 GPU-test, og hvorfor?

 

 

Det går helt tydelig fram av konteksten til uttalelsen og saken at det er snakk om 3D-rendering, ikke visning av film for å få større skjermbilde. 

 

AtW

Lenke til kommentar
Videoannonse
Annonse

 

 

Vr er for spill, eller for andre 3d-verdner som i praksis lages akkurat som spill. Cinebench er ikke en spesielt god benchmark for den type ytelse. AtW

 

 

Eller VR kan brukes for film o.l. Hvilken/hvilke benchmark-test(er) mener du er bedre egnet til å teste ytelse i OpenGL i f.eks OS X, enn Cinebench R15 GPU-test, og hvorfor?

 

 

Det går helt tydelig fram av konteksten til uttalelsen og saken at det er snakk om 3D-rendering, ikke visning av film for å få større skjermbilde. 

 

AtW

 

 

 

Når uttalelsen din er et kategorisk "Vr er for spill, eller for andre 3d-verdner som i praksis lages akkurat som spill", må det da være lov å flisespikke litt og tilføye hva annet VR kan være til - sånn i all vennskapelighet oss flisespikkere i mellom... ;P

 

Men svaret ditt på spørsmålet mitt går merkelig nok ikke «fram av konteksten»...

Lenke til kommentar

 

Ok, så Apple driver og lurer forbrukerene sine. På den ene siden står det spesifikt modellnummer. På den andre siden står det bare Intel Iris Pro Graphics, som og er navnet som er brukt på venstre side. Dette kunne lett vært en sak for Forbrukerombudet, snakk om misledende markedsføring!

 

Igjen bruker du en CPU test for å avgjøre hvor god GPUen er. Det blir liksom litt merkelig. I tillegg, VR er ikke en syntetisk test. Bruk skikkelige spill. Det er det som teller. Bare folk som vil skryte på forum er opptatt av syntetisk score. Syntetisk score er nemlig lite representativt for real world. Det finnes f.eks tester som setter AMD bak sikker 15% på alle kort mot Nvidia. Åpenbart ikke representativt.

 

Og det gjør det bare enda verre for Apple. 15" med dGPU er bare 33% raskere enn 13" med iGPU. Og det at dGPUen er en del bedre enn iGPUen er bare et bevis på at iGPUen er utdatert og svak, ikke et dGPUen er kraftig.

 

 

 

Her er det bare du som lurer deg selv. Under 13-tommeren står det Intel Iris Graphics 6100 - uten "Pro" - under 15-tommeren står det Intel Iris Pro Graphics. De oppgir riktignok ikke "spesifikt modellnummer" for det som er Iris Pro 5200 i 15-tommeren, kanskje fordi det finnes kun ett «modelnummer» for eller én versjon av Iris Pro for den aktuelle prosessorgenerasjonen. Det er altså ingen ting feil med informasjonen som er opgitt.

 

Cinebench R15 består av to deler, én for CPU og én for GPU, og jeg har altså vist til GPU-delen, så igjen virker du så opptatt av å finne feil i min argumentasjon at du tilsynelatende blir helt snøblind for hva som blir presentert av fakta for deg. 

 

MBPr 15-tommer med dGPU er 33% raskere i én GPU-test, 100% raskere i en annen GPU-test, og forskjellen vil variere etter hvilke tester og applikasjoner man kjører - ergo er ikke det ene tallet ditt på noen måte fasit. Det er all mulig grunn til å advare mot å ta ett enkelt tall fra en tilfeldig benchmarksammenliging og tro at det uten videre kan overføres til en helt annen setting som du ikke har testresultat for i det hele tatt. Og som sagt: "forskjellen vil variere med applikasjoner, drivere og OS.»

Skal man si noe meningsfylt om ytelsen eller forholdet mellom ytelser for ulike GPU-er i VR for en bestemt VR-applikasjon på et bestemt OS, så må man nesten teste det der. Så kanskje man ikke skal henge seg for mye opp i forholdstall mellom GPU-er for Windows og DX12, dersom man diskuterer forholdstall for OS X og OpenGL/Metal...

 

Helt ærlig, hvis du skal prøve å ro deg vekk fra at du sa at R9 M370X er nærme GTX 970 i ytelse så kommer jeg ikke til å diskutere det mer. Du endrer litt på ordlyden fra det du skrev. 

 

"Helt ærlig" sier du, for så å presentere en løgn: "du sa at R9 M370X er nærme GTX 970 i ytelse".

Her det det faktisk _du_ som endrer på ordlyden og meningen i mine utsagn. Fryktelig tåpelig og uredelig av deg, når alle og enhver kan bla tilbake til innlegg #53 og lese hva jeg faktisk skrev, og i hvilken kontekst: https://www.diskusjon.no/index.php?showtopic=1712789&p=23117081

 

Du begynner å snakke om fremtidige GPUer. Og de neste 14 nm 50W TDP GPUene kommer til å slå 970? Lite sannsynlig, og ren spekulasjon. Det er ikke vits i å diskutere dette videre. Det er ingenting å diskutere. 

 

Jeg sier ikke at de "kommer til å slå 970", jeg sier at dersom man dobler ytelsen på dagens relevante 50W GPU-er så er man "like i nærheten av (noen ganger over) ytelsen til de to desktop-kortene som er anbefalte minimumskrav for Rift, i mange benchmarks". Kan du ikke bare lese det jeg skriver, i stedet for å forsøke å vri det til noe helt annet??

 

Spekulasjon? Ja, det er selvsagt mulig at AMD og Nvidia ikke vet hva de snakker om når de deler informasjon om sine kommende GPU-er, og en dobling av ytelse pr. watt:

http://www.extremetech.com/gaming/224773-amd-unveils-2016-gpu-roadmap-polaris-offers-2-5x-performance-per-watt-may-utilize-gddr5

http://wccftech.com/nvidia-pascal-gp100-gpu-compute-performance/

 

Men som alltid, uavhengige tester er tingen. For min del foretrekker jeg å vente til 14/16 nm GPUer med TDP rundt 50W blir tilgjengelig og får vist hva de er gode for i praksis, før jeg drar konklusjoner. Gleder meg til det. ;)

 

Neste gen kommer heller ikke til å klare VR. iGPU blir kraftigere, muligens kommer neste generasjon uten dGPU i det hele tatt. Likevel er heller ikke iGPU kraftig nok for VR. 

 

For å bruke dine egne ord: Lite sannsynlig, og ren spekulasjon. Det er ikke vits i å diskutere dette videre. Det er ingenting å diskutere.  :wee:

 

Jeg kjenner det meste av Intel modeller og lignende, og lest dette flere ganger uten å se forskjellen. 15" har jo og en Pro versjon, men det er ikke en Pro versjon av 6100, det er en Pro versjon av noe helt annet. Noe som er dårligere, selv om det er en pro versjon. Fortsatt klart lagt opp på en måte som ikke akkurat er laget for å informere folk mer. De prøver åpenbart å skjule at denne versjonen er dårligere. Men nok om det.

 

 

Du kan slutte å komme med slike argumenter med 33% raskere i noe og 100% i noe annet. Det som har noe å si for VR er spilltester. Spilltester viser ikke store variasjoner, og det er det eneste relevante. Spilltester viser klart det jeg skriver stemmer. Hva Cinebench CPU og GPU viser er irrelevant. INGEN bruker Cinebench for å finne ut hvor god GPUen er. De eneste som bruker syntetisk i det hele tatt er de som vil ha høyest mulig score i noe. For faktisk bruk til faktiske formål så brukes utelukkende ekte spill som tester.

 

Poenget mitt var at du virker å tone ned hver gang hva du egentlig skrev. "ikke fult så langt fra" og "er nærme" regner jeg som to formuleringer med lik betydning. Er det tåpelig og uredelig av meg å endre formuleringen? Poenget var det samme, og poenget mitt er at det virker som du prøver å distansere deg fra det du originalt sa. Og det er det det virker som om diskusjonen går mot nå, og det er jeg ikke veldig interessert i. Det er ingen diskusjon.

 

Ehm, har du sett påstander fra AMD, Nvidia og Intel før? De vet hva de holder på med, men når de kommer med påstander så er de beregnet på et spesifikt område, og vanligvis overdrevne. Det blir ikke slik som de sier til helt vanlig bruk eller helt vanlig spilling. Det å tro på påstander som dette er direkte naivt. når de kommer med slike påstander kan du så godt som garantere at det blir dårligere enn det.

 

 

Det at Intel HD Graphics skal bli på nivå med GTX 970 på en generasjon er faktisk direkte urealistisk. Vi snakker om stor revolusjon om det skjer. Holder vi oss innenfor virkelighetens grenser, så kommer det ikke til å skje. Spesielt siden neste Intel generasjon blir beskrevet som "optimization".

 

Jeg kan og si deg, GTX 970 bruker laaaaangt mer enn 50W. Nesten alle 970 kort bruker klar mer enn de oppgitte 150W også. De kommer med unlocka power-limit. De kan fint bruke 250W + uten OC.

Lenke til kommentar

Jeg kjenner det meste av Intel modeller og lignende, og lest dette flere ganger uten å se forskjellen. 15" har jo og en Pro versjon, men det er ikke en Pro versjon av 6100, det er en Pro versjon av noe helt annet. Noe som er dårligere, selv om det er en pro versjon. Fortsatt klart lagt opp på en måte som ikke akkurat er laget for å informere folk mer. De prøver åpenbart å skjule at denne versjonen er dårligere. Men nok om det.

 

Dette blir bare for dumt av deg! Nok en gang:

MacBook Pro 13" har Intel Iris Graphics 6100

MacBook Pro 15" har Intel Iris Pro Graphics 5200

Kan man bruke en nettleser og skrive inn google.com i adressefeltet, så bør det ikke ta mange sekunder å bringe på det rene hvilke Intel-prosessorer og GPU-er som sitter i en hvilken som helst Mac. Mulig det ble for avansert for deg...

Nei, Iris Pro Graphics 5200 er ikke "noe som er dårligere", det er bedre enn Iris Graphics 6100, ergo er det ingen ting å skjule. Så mye for tåpelige konspirasjonsteorier...

Du kan slutte å komme med slike argumenter med 33% raskere i noe og 100% i noe annet. Det som har noe å si for VR er spilltester. Spilltester viser ikke store variasjoner, og det er det eneste relevante. Spilltester viser klart det jeg skriver stemmer. Hva Cinebench CPU og GPU viser er irrelevant. INGEN bruker Cinebench for å finne ut hvor god GPUen er. De eneste som bruker syntetisk i det hele tatt er de som vil ha høyest mulig score i noe. For faktisk bruk til faktiske formål så brukes utelukkende ekte spill som tester.

 

 

Skal vi holde oss til det som er det eneste relevante kan vi si følgende: Det eneste som har noe å si for VR er tester med ulike VR-applikasjoner. Og det eneste som har noe å si for ytelsen i system som baserer seg på OpenGL og Metal er tester med applikasjoner som bruker disse grafikk-API-ene. Utenfor Windows-boblen med DX11/12 er det relativt vanlig å bruke Cinebench OpenGL GPU-benchmark som én av standardtestene for grafikkytelse. Og for faktisk ytelse til faktiske formål - da snakker jeg også om mer produktive formål - er det så mye annet enn spillytelse i "ekte spil" som kan være relevant. Det er ikke alle som ser på datamaskiner primært som et leketøy eller underholdningmaskin.

 

Poenget mitt var at du virker å tone ned hver gang hva du egentlig skrev. "ikke fult så langt fra" og "er nærme" regner jeg som to formuleringer med lik betydning. Er det tåpelig og uredelig av meg å endre formuleringen? Poenget var det samme, og poenget mitt er at det virker som du prøver å distansere deg fra det du originalt sa. Og det er det det virker som om diskusjonen går mot nå, og det er jeg ikke veldig interessert i. Det er ingen diskusjon.

 

 

Jeg toner ikke ned noe som helst. Ta deg en liten bollle du, og slutt med dette tullet ditt. Nei, min formulering om noe "som ikke er fullt så langt fra systemkravene" har IKKE lik betydning som din "er nærme"! Jeg vet da for pokker betydningen av og intensjonen bak det jeg selv skrev.

Hvis jeg skal kjøre til et reisemål som ligger 100 mil unna, og stopper og overnatter etter 30 mil, så er jeg ikke fullt så langt fra bestemmelsestedet som da jeg startet, men det betyr ikke at jeg "er næme" reisemålet. Er det så fryktelig vanskelig å forstå betydningen av helt vanlig, enkel norsk??

 

 

Ehm, har du sett påstander fra AMD, Nvidia og Intel før? De vet hva de holder på med, men når de kommer med påstander så er de beregnet på et spesifikt område, og vanligvis overdrevne. Det blir ikke slik som de sier til helt vanlig bruk eller helt vanlig spilling. Det å tro på påstander som dette er direkte naivt. når de kommer med slike påstander kan du så godt som garantere at det blir dårligere enn det.

 

Ehh, leste du i det hele tatt hva jeg skrev??: "Men som alltid, uavhengige tester er tingen. For min del foretrekker jeg å vente til 14/16 nm GPUer med TDP rundt 50W blir tilgjengelig og får vist hva de er gode for i praksis, før jeg drar konklusjoner". Jeg har altså tatt med minst én klype salt angående Nvidia og AMD sine påstander der, men jeg tviler på at noen av dem har veldig lyst til å bli tatt med buksene nede på grunnlag av helt urealistiske påstander, og de vet jo at disse nye GPU-ene kommer til å bli testet og gransket og testet enda mer, så jeg ser ikke at de skulle ha så mye å tjene på grove overdrivelser mht. det som kommer. Men vi får vel se, når den tid kommer.

 

 

Det at Intel HD Graphics skal bli på nivå med GTX 970 på en generasjon er faktisk direkte urealistisk. Vi snakker om stor revolusjon om det skjer. Holder vi oss innenfor virkelighetens grenser, så kommer det ikke til å skje. Spesielt siden neste Intel generasjon blir beskrevet som "optimization".

 

 

Så _du_ framsetter en påstand, _ikke_ jeg, om at "at Intel HD Graphics skal bli på nivå med GTX 970 på en generasjon", for så å fastslå at din egen påstand er direkte urealistisk. Flott. Gratulerer med den innsikten! Ser gjerne at du holder deg innenfor virkelighetens grenser, også når det gjelder det jeg har skrevet i diskusjonen her!

 

Jeg kan og si deg, GTX 970 bruker laaaaangt mer enn 50W. Nesten alle 970 kort bruker klar mer enn de oppgitte 150W også. De kommer med unlocka power-limit. De kan fint bruke 250W + uten OC.

 

 

Selvsagt bruker GTX 970 laaaaaaaaaaaaaaaaaaangt mer en 50W, det er implisitt i det som er skrevet tidligere. Et komplett grafikkort med GTX 970 skal normalt bruke rundt 150W ifølge referanse-specs fra Nvidia, selve GPU-chipen bruker nok en del mindre. Og det er selve GPU-chipens TDP vi snakker om i bærbare maskiner, ikke alt som befinner seg rundt, så det kan være greit å prøve å sammenligne på noenlunde likt grunnlag.

Lenke til kommentar

VR er spill, når du skal finne ut hvor bra det er til VR, så tester du til spill, enkelt og greit. Det er spill saken går ut på. Hva kort yter og gjør i andre oppgaver er ikke relevant for saken.

 

R9 M370X yter rundt 100% bedre enn Iris Pro 5200 i veldig mange spill, ikke bare ett. Så det er ikke noe usikkerhet der, den ligger på omtrent 100% bedre. Noe som fortsatt er langt unna GTX 970. Hvis du med "ikke fullt så langt ifra" mente minst 1% bedre enn Intel sin løsning har jeg misforstått deg. Det er helt vanlig norsk, men det har ikke en bestemt betydning. Jeg var heller ikke den eneste som trodde du mente noe annet enn at dedikert GPU er bedre enn integrert. Det er jo det du da mener, noe som er ganske åpenbart.

 

Du har gjerne ikke fulgt så nøye med på det, men Nvidia, AMD og Intel blir tatt med "buksene nede" stadig vekk. Det er ingen som bryr seg, da (nesten) alle vet at tallene de skriver er veldig overdrevne uansett. Folk vet at det er feil, og det er alltid feil, og blir dermed ikke sinte. Det finnes selskaper som faktisk oppgir rette tall da, så man må se på historien. Eksempelvis pleier Apple sine tall å stemme veldig bra, og de er det grunn til å tro. Hvis AMD kommer derimot med en påstand om GPU/CPU ytelse, er det sannsynligvis feil. Det skjer HELE tiden.

 

Jeg skrev at neste generasjon integrert grafikk heller ikke kom til å klare VR. Så svarte du at det er lite sannsynlig. Altså at neste generasjon ikke kommer til å klare VR. Dermed så skrev du at integrert grafikk kom til å klare VR neste generasjon. Utifra den teksten du skrev, så er det den eneste meningen jeg får ut av det. Så da svarte jeg på det. Åpenbart så mener du altså ikke dette. Så da kan vi begge være enige om at integrert ikke kommer til å være bra for VR på en stund.

 

Du skriver at om dedikert grafikkort får doblet ytelsen per TDP, så vil de være nærme og i noen tilfeller slå 970 i benchmarks. For det første, forksjellen mellom NVidia og AMD er stor. De har langt ifra lik ytelse per TDP. Det er derfor alle bruker GTX 950M og 960M. Bortsett fra Apple og et par andre modeller. AMD modellene er rett og slett forferdelige på ytelse/TDP, fordi de er 4 år gamle. Nvidia sine er helt nye. Så dobling i ytelse/TDP for Nvidia eller AMD?

 

Bortsett fra at det ikke er så realistisk at det kommer til å skje (fortsatt mulig), så leser du ikke hva jeg skriver. Et GTX 970 bruker ikke 150W. Det er akkurat derfor jeg skrev det jeg skrev. Den bruker langt mer. Med masse a-er. Alle 970 kort som selges har unlocket power-limit. De bruker fint 250W+ til helt vanlige spilløkter. Det er ikke med overklokking. Det er bare rett ut av pakken, inn i maskinen og starte et spill. Så bruker den så mye. Det er mer riktig å si at den bruker 150W-300W. Den er sjelden nede i 150W og sjelden oppe i 300W. VRAM og annet bruker ikke mye strøm. En forbedring her er jo HBM, hvis du får mobile-chip med det. Det vil kutte VRAM strømbruket for mobile chips en del. Blir et par watt av det.

 

Og når Oculus fyren sier 970, så er det ikke et power-limita 970 kort som bruker maks 150W han snakker om. Han snakker om dem man får i butikken. De som bruker en del mer strøm. Det hadde vært kult om et kort som er mobile og lower mid-end fra AMD kunne slått et upper mid-end desktop kort fra Nvidia på en generasjon. Det bare er ekstremt usannsynlig. 

 

Det virker ikke som om de fleste er klar over det heller, men TDP != strømforbruk. I en bærbar PC er det ofte tilfellet. I en stasjonær bruker de ofte en del mer enn TDP. Det står for Thermal Design Power. Altså hvor stor kjøleløsning som skal designes for kortet. I bærbare gjør de akkurat det. Designer den stor nok, og bruker plassen ellers på andre ting. De har ikke ubegrenset plass. På desktop? Der får du store monsterkjølere som Windforce 3X på GTX 960 kort. Samme som sitter på 980 Ti og holder dem kjølige. Det samme gjelder GTX 970. De kommer med kjølere som kan ta langt mer enn 150W, så godt som alle. Dermed legger de til ekstra strøm-pins og opphever NVidia sin 150W grense og selger dem med langt høyere ytelse. Nvidia GPUer har turbo-frekvenser de og. Har de strøm og ikke er varme, så bruker de den muligheten til ekstra ytelse. Og i alt av tester så er det denne ytelsen du ser. Ikke 150W ytelsen. Så hvis et GTX 970 kort da bruker, si 200W-250W average, så er det langt unna 50W. Så en test her nå, der lå den på 279W, men tror det er litt over hva du kan forvente på avg. All denne ekstra strømmen går og bare til GPU (og varme), ikke til VRAM ol. Litt mer til vifter da.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...