Gå til innhold

Sorry Mac, det blir ingen Oculus Rift på OS X med det første


Anbefalte innlegg

Igjen: du kan ikke drive og sammenligne GPUer med CPUer. Til og med ikke GPUer eller CPUer fra forskjellige industrilinjer kan sammenlignes. CPU-markedet i smarttelefoner har for eks. utrolig gode ytelsesøkninger fra generasjon til generasjon -- så lenge det varer. Det er ei heller slik at jo mindre størrelse du får på nodene automatisk betyr bedre ytelse, men faktum er at mindre node gir mer energieffektivitet, som på sin side åpner opp for muligheten for å øke ytelse.

 

Men selv dette er irrelevant, om vi -- for argumentets skyld -- antar at det du skriver er sant. For til og med da tar du feil. Det er det fordi du rett og slett ikke vet hva du snakker om. Du skriver for eks:

 

 

Jeg sier at det er tvilsomt at de vil bli 30-40%, basert på 14 nm alene. Samsung har jo og brukt 14 nm i sine CPUer. Hvis du ser på ytelsen sammenlignet med forrige generasjon er den bedre, men ikke revolusjonerende bedre med tanke på hvilke fremskritt som gjøres ellers.

 

Exynos 7420 på Samsung Galaxy S6 gir hele 57% bedre ytelse enn Exynos 5422 på Samsung Galaxy S5. Snapdragon 810 (20nm) gir hele 40% bedre ytelse enn Snapdragon 801 (28nm). Det er mye sammenlignet med desktop-markedet, der vi i gjennomsnitt har sett 3% bedre ytelse for hver nye generasjon.

 

 

 

Samsung kunne sikkert hatt høyere klokkefrekvenser på sin SoC. Det hadde derimot gått utover batteritid, som SD 810 eksemplarisk viser. 

 

Igjen, hva er det du snakker om her? 

 

Exynos 7420 klokker helt på til 2,1 GHz i tyngre oppgaver, mens Snapdragon 810 klokker opp til 2,0 GHz. 

 

Videre har for eks. HTC klokket Snapdragon 810 ned til 1,5 GHz, og S6 er likevel nevnverdig bedre i batteritid (selv mtp. mindre batterikapasitet), om vi ser bort i fra skjermoppløsning som en faktor. Til sammenligning hadde Snapdragon 801 på 28nm en klokkehastighet helt opp til 2,3 GHz. Og hvis vi ser på batteritiden på HTC One M8 (Snapdragon 801), så snakker vi om noe sånt som 5 timer mer internettsurfing og 2 timer med videotitting enn M9 -- som er ganske mye. M8 hadde også mindre batterikapasitet.

 

Snapdragon 810 er bare en dårlig designet prosessor; klokkehastighet har ingenting med saken å gjøre.

Endret av La Menthe
Lenke til kommentar
Videoannonse
Annonse

Hvem i all verden bryr seg om Mac?

 

En skulle tro det var et mye større knusende lederlag for Linux folk, for ikke å snakke om en seriøs kjepp i hjulet for SteamOS som nærmest var laget for VR, og mer spesifikt: Oculus Rift. Jeg skjønte det måtte bli noe kødd etter at Facebook kjøpte greiene. Skal bare se på at Oculus Rift kommer med Facebook bloatware eller noe sånt tull på software siden.

Lenke til kommentar

Ja deter jo bare leverandøren av Oculus Rift som taper på dette. Apple brukere representerer jo endel mulige kunder...

 

Vell, først må man se hvor mye av ett marked det er blant Apple brukere.

Når det gjelder spilling så er apple en utrolig liten nisje i forhold til windows spilling.

Lære, programering, industri, sykehus etc etc. Disse programmene vil ikke kommet ut før om ett par år. Og de få som i det hele tatt klarer å klore seg ut på "kort" tid vil ha så få brukere at de vil måles i 0.x promille i forhold til windows spillere/brukere. Det markedet der er ikke ett stort marked.

For å ikke snakke om at spec's på iMac ikke når opp til hva OC har som requirement. Høyeste GPU en mac har er en GTX775m (oppgraderbar til GTX780M). Og det er på en maskin til 20.000,-

 

Nytte/kost avgjørese har blitt utført og Facebook har bestemt seg for å bruke alle resursene for å komme i havn til deadline.

Dessverre så må iOS og Linux vente lit på å få støtte fra OR, men den vil komme etter hvert.

Lenke til kommentar

Igjen: du kan ikke drive og sammenligne GPUer med CPUer. Til og med ikke GPUer eller CPUer fra forskjellige industrilinjer kan sammenlignes. CPU-markedet i smarttelefoner har for eks. utrolig gode ytelsesøkninger fra generasjon til generasjon -- så lenge det varer. Det er ei heller slik at jo mindre størrelse du får på nodene automatisk betyr bedre ytelse, men faktum er at mindre node gir mer energieffektivitet, som på sin side åpner opp for muligheten for å øke ytelse.

 

Men selv dette er irrelevant, om vi -- for argumentets skyld -- antar at det du skriver er sant. For til og med da tar du feil. Det er det fordi du rett og slett ikke vet hva du snakker om. Du skriver for eks:

 

 

Jeg sier at det er tvilsomt at de vil bli 30-40%, basert på 14 nm alene. Samsung har jo og brukt 14 nm i sine CPUer. Hvis du ser på ytelsen sammenlignet med forrige generasjon er den bedre, men ikke revolusjonerende bedre med tanke på hvilke fremskritt som gjøres ellers.

 

Exynos 7420 på Samsung Galaxy S6 gir hele 57% bedre ytelse enn Exynos 5422 på Samsung Galaxy S5. Snapdragon 810 (20nm) gir hele 40% bedre ytelse enn Snapdragon 801 (28nm). Det er mye sammenlignet med desktop-markedet, der vi i gjennomsnitt har sett 3% bedre ytelse for hver nye generasjon.

 

 

 

Samsung kunne sikkert hatt høyere klokkefrekvenser på sin SoC. Det hadde derimot gått utover batteritid, som SD 810 eksemplarisk viser. 

 

Igjen, hva er det du snakker om her? 

 

Exynos 7420 klokker helt på til 2,1 GHz i tyngre oppgaver, mens Snapdragon 810 klokker opp til 2,0 GHz. 

 

Videre har for eks. HTC klokket Snapdragon 810 ned til 1,5 GHz, og S6 er likevel nevnverdig bedre i batteritid (selv mtp. mindre batterikapasitet), om vi ser bort i fra skjermoppløsning som en faktor. Til sammenligning hadde Snapdragon 801 på 28nm en klokkehastighet helt opp til 2,3 GHz. Og hvis vi ser på batteritiden på HTC One M8 (Snapdragon 801), så snakker vi om noe sånt som 5 timer mer internettsurfing og 2 timer med videotitting enn M9 -- som er ganske mye. M8 hadde også mindre batterikapasitet.

 

Snapdragon 810 er bare en dårlig designet prosessor; klokkehastighet har ingenting med saken å gjøre.

Jeg snakker jo om Exynos prossesorene som var i Note 4 og i Galaxy Alpha, sammenlignet med de som er i S6. Da er ikke forskjellen like stor. Mellom SD 801 og 810 var det også en mye brukt SD 805. Du har helt rett i at det ikke kan sammenlignes med Intel. Intel sin ytelsesøkning i forhold er jo latterlig. De kommer ut med CPUer oftere, og med større forbedringer. Note 4 er jo en mobil som har SD 805/Exynos 5433. Er det en mobil som ikke teller? 

 

Hvis det stemmer det du sier om HTC sin mobil så er nok SD 810 et dårlig eksempel ja. Likevel vil høyere klokkefrekvens gi høyere strømforbruk. Er vel derfor HTC satt ned klokkefrekvens, for å ha håp om litt batteri.

 

 

Du skriver: "Det er ei heller slik at jo mindre størrelse du får på nodene automatisk betyr bedre ytelse, men faktum er at mindre node gir mer energieffektivitet, som på sin side åpner opp for muligheten for å øke ytelse."

Det er det som er mitt poeng også. 14 nm betyr ikke automatisk mer ytelse. Alle andre som går over til 14 nm bruker effektiviteten til å senke batteriforbruk fremfor å åpne for mye høyere ytelse. NVIDIA har gått den veien med Maxwell, med arkitektur alene. Hva tilsier at de kommer til å bruke den økte effektiviteten til å klokke kortene høyere? 

 

Hvis ikke de andre bransjene er mulige å bruke som indikatorerer engang, hva kan vi da basere spekulasjonene på? Hvilke tegn er det for at NVIDIA vil øke ytelsen ekstra mye med 14 nm, i forhold til det de har gjort før? Hvordan har 28 nm vært en hemsko for ytelsesutviklingen?

Lenke til kommentar

Jeg snakker jo om Exynos prossesorene som var i Note 4 og i Galaxy Alpha, sammenlignet med de som er i S6. Da er ikke forskjellen like stor. 

 

Nei, det du gjør nå er et desperat forsøk på å ro deg selv i land. Hvorfor skal jeg sammenligne en telefon med en annen som kom ut for en halv -- og ikke hel -- generasjon siden? Det er jo tross alt det som var kjernen i diskusjonen vår: ytelseforskjell fra generasjon til generasjon. S5 til S6; Note 4 til Note 5.

 

Ei heller gir du meg tall på ytelsesforskjellene mellom Exynos-prosessoren i Note 4 (Exynos 5433) og den i S5 (Exynos 5420). Hvorfor du ikke gjør dette er fordi du godt vet at ved å gi meg tallene, så innrømmer du feiltagelsen din. Exynos 7420 er fortsatt rundt 35% kraftigere enn Exynos 5433, noe som altså betyr at det originale argumentet ditt fortsatt har NULL HOLDBARHET. Jeg trenger heller ikke å nevne at Exynos 7420 har bedre batterieffektivtet enn både 7420 og 5433 i tillegg til denne ytelsen.

 

Og det er viktig å huske at dette skjedde på 6 måneder.. Videre er Exynos 5420 til Exynos 7420 en perfekt sammenligningseksempel for en annen grunn: det er snakk om det man kan få ved å gå fra 28nm til 14nm, som jo er det b115242 først skrev om. Du skrev opprinnelig at det er usannsynlig å få til 30-40% ytelsesøkning, når AMD og nVidia får dette til mellom hver generasjon på samme node; 290X er 40% kraftigere enn 7970 -- begge 28nm. Det er noe vi ser gang på gang i grafikkortverdenen.

 

AMD og nVidias utgivelse av 14nm GPUer vil enkelt kunne gi oss 50-60% bedre ytelse samt mer energieffektivtet enn det vi har i dag. Nå er det enda ikke sikkert om de vil hoppe direkte fra 28nm til 14nm, men selv et hopp til 20nm vil uten problemer gi oss 50% bedre ytelse. Du kommer med et annet argument, om at nVidia tidligere har fokusert mer på energieffektivtet enn ytelse. Forklaringen på det er enkelt: nVidia har et grep om GPU-markedet, og trenger derfor bare å gi ut grafikkort med så god ytelse som de allerede har (bedre enn AMDs kort, altså). Dermed kan de fokusere "overskuddet" på for eks. energieffektivtet og ta over flere deler av det mobile markedet på denne måten. Hvorfor tror du for eks. at laptoper med dedikerte skjermkort nesten utelukkende er utstyrt med nVidia-kort?

 

Hvis du prøver deg på flere bortforklaringer eller forsøk på å krangle deg ut av en hengemyr av feilbeskrivelser og uriktige påstander, kan du anse dette som mitt siste innlegg i diskusjonen. Det er ikke morsomt å sitte her og fungere som en retorisk støvsuger.

Endret av La Menthe
Lenke til kommentar

 

Ja deter jo bare leverandøren av Oculus Rift som taper på dette. Apple brukere representerer jo endel mulige kunder...

Vell, først må man se hvor mye av ett marked det er blant Apple brukere.

Når det gjelder spilling så er apple en utrolig liten nisje i forhold til windows spilling.

Lære, programering, industri, sykehus etc etc. Disse programmene vil ikke kommet ut før om ett par år. Og de få som i det hele tatt klarer å klore seg ut på "kort" tid vil ha så få brukere at de vil måles i 0.x promille i forhold til windows spillere/brukere. Det markedet der er ikke ett stort marked.

For å ikke snakke om at spec's på iMac ikke når opp til hva OC har som requirement. Høyeste GPU en mac har er en GTX775m (oppgraderbar til GTX780M). Og det er på en maskin til 20.000,-

 

Nytte/kost avgjørese har blitt utført og Facebook har bestemt seg for å bruke alle resursene for å komme i havn til deadline.

Dessverre så må iOS og Linux vente lit på å få støtte fra OR, men den vil komme etter hvert.

 

 

Dersom Oculus ønsker å fokusere Rift på spillmarkedet, og i tillegg kanskje sliter med å få produktet sitt fort nok ut på markedet, så er det et logisk og fornuftig valg å prioritere Windows-plattformen. 

 

Men når det gjelder GPU-spesifiksajoner på Mac så vil jo dette endre seg i løpet av det året det tar før Rift er klar for markedet. "Høyeste GPU en Mac har" er ikke GTX 775M eller 780M, nei. iMac leveres pr i dag med opptil Radeon R9 M295X, og Mac Pro kan leveres med to stk FirePro D700, som er relativt kraftige greier.

Men når både Nvidia og AMD planlegger å lansere nye GPU-er basert på 16nm-teknologi i omtrent samme tidsrom som Rift blir klar for markedet åpner det for langt bedre grafikkytelse innenfor samme TDP (les: effektforbruk og varmeutvikling) som pr i dag er bestemmende for grafikkløsningene i MacBook Pro, iMac og Mac Pro. Dette vil gi en interessant utvikling, men ikke så mye på grunn av et nisjeprodukt som Oculus Rift, som primært henvender seg til helt andre grupper enn de som typisk bruker Mac.

Lenke til kommentar

Vel,tror nok vi må vente en stund til,og det gjelder nok alle.Å bruke fem år på release,faren med det er at folk er lei før produktet er kommet på markedet.Hadde vi hatt desse brillene for lenge siden,kunne en nå faktisk sett frem til både økonomisk vekst og en videreutvikling for produktet i fremtiden.Jeg ser på dette mest som en publisitetstunt og ikke et produkt for hvermansen.

Lenke til kommentar

 

Jeg snakker jo om Exynos prossesorene som var i Note 4 og i Galaxy Alpha, sammenlignet med de som er i S6. Da er ikke forskjellen like stor. 

 

Nei, det du gjør nå er et desperat forsøk på å ro deg selv i land. Hvorfor skal jeg sammenligne en telefon med en annen som kom ut for en halv -- og ikke hel -- generasjon siden? Det er jo tross alt det som var kjernen i diskusjonen vår: ytelseforskjell fra generasjon til generasjon. S5 til S6; Note 4 til Note 5.

 

Ei heller gir du meg tall på ytelsesforskjellene mellom Exynos-prosessoren i Note 4 (Exynos 5433) og den i S5 (Exynos 5420). Hvorfor du ikke gjør dette er fordi du godt vet at ved å gi meg tallene, så innrømmer du feiltagelsen din. Exynos 7420 er fortsatt rundt 35% kraftigere enn Exynos 5433, noe som altså betyr at det originale argumentet ditt fortsatt har NULL HOLDBARHET. Jeg trenger heller ikke å nevne at Exynos 7420 har bedre batterieffektivtet enn både 7420 og 5433 i tillegg til denne ytelsen.

 

Og det er viktig å huske at dette skjedde på 6 måneder.. Videre er Exynos 5420 til Exynos 7420 en perfekt sammenligningseksempel for en annen grunn: det er snakk om det man kan få ved å gå fra 28nm til 14nm, som jo er det b115242 først skrev om. Du skrev opprinnelig at det er usannsynlig å få til 30-40% ytelsesøkning, når AMD og nVidia får dette til mellom hver generasjon på samme node; 290X er 40% kraftigere enn 7970 -- begge 28nm. Det er noe vi ser gang på gang i grafikkortverdenen.

 

AMD og nVidias utgivelse av 14nm GPUer vil enkelt kunne gi oss 50-60% bedre ytelse samt mer energieffektivtet enn det vi har i dag. Nå er det enda ikke sikkert om de vil hoppe direkte fra 28nm til 14nm, men selv et hopp til 20nm vil uten problemer gi oss 50% bedre ytelse. Du kommer med et annet argument, om at nVidia tidligere har fokusert mer på energieffektivtet enn ytelse. Forklaringen på det er enkelt: nVidia har et grep om GPU-markedet, og trenger derfor bare å gi ut grafikkort med så god ytelse som de allerede har (bedre enn AMDs kort, altså). Dermed kan de fokusere "overskuddet" på for eks. energieffektivtet og ta over flere deler av det mobile markedet på denne måten. Hvorfor tror du for eks. at laptoper med dedikerte skjermkort nesten utelukkende er utstyrt med nVidia-kort?

 

Hvis du prøver deg på flere bortforklaringer eller forsøk på å krangle deg ut av en hengemyr av feilbeskrivelser og uriktige påstander, kan du anse dette som mitt siste innlegg i diskusjonen. Det er ikke morsomt å sitte her og fungere som en retorisk støvsuger.

 

Innså selv i går at jeg prøver å ro meg i land. Du har helt rett i at det var det jeg gjorde, selv om jeg ikke var klar over det selv. Hadde sett mange poster om AMD zen som skulle gi oss AMD prossesorer på nivå med Intel i 2016. Skylake som skulle gi 35% bedre batteritid og 15% mer ytelse samtidig, i forhold til broadwell som allerede er 14 nm. Selv om det tydelig sto at det bare gjaldt Skylake-Y. Dermed tenkte jeg ikke over at 30-40% faktisk er ganske vanlig forbedring i GPU ytelse, selv om jeg leser tester og ser på resultater for hver eneste GPU som kommer ut....

 

Du har nok rett i at 50-60% vil være en mulighet. Maxwell gjorde og at NVIDIA fikk monopol på bærbare high-end grafikkløsninger (vel, med unntak av Apple som ville spare noen dollar på 2012 HW fra AMD). Siden de allerede ligger foran på både ytelse og strømforbruk, kan de nok bruke mye av effektiviteten på ytelse.

 

Beklager at jeg skapte denne hengemyra :) Sjekker vanligvis fakta først, slik at jeg har et grunnlag for det jeg skriver. Ble nok litt for ivrig her og skrev noe som var aldeles feil....

Endret av TKongen
Lenke til kommentar

Du har nok rett i at 50-60% vil være en mulighet. Maxwell gjorde og at NVIDIA fikk monopol på bærbare high-end grafikkløsninger (vel, med unntak av Apple som ville spare noen dollar på 2012 HW fra AMD). Siden de allerede ligger foran på både ytelse og strømforbruk, kan de nok bruke mye av effektiviteten på ytelse.

 

 

Hvilken "2012 HW fra AMD" mener du du Apple har brukt i den oppdaterte MBP 15", som gir 50-70% bedre spillytelse enn forrige versjon med Geforce 750M?

Lenke til kommentar

 

Du har nok rett i at 50-60% vil være en mulighet. Maxwell gjorde og at NVIDIA fikk monopol på bærbare high-end grafikkløsninger (vel, med unntak av Apple som ville spare noen dollar på 2012 HW fra AMD). Siden de allerede ligger foran på både ytelse og strømforbruk, kan de nok bruke mye av effektiviteten på ytelse.

 

 

Hvilken "2012 HW fra AMD" mener du du Apple har brukt i den oppdaterte MBP 15", som gir 50-70% bedre spillytelse enn forrige versjon med Geforce 750M?

 

 

CPU er fremdeles Haswell, så er lov å håpe at det kommer en oppdatering med Skylake til høsten.

 

M370X er i følge brukere på Beyond3D som har hentet ut data fra AMD sin Windows 10 driver en rebranda "Cape Verde". Dette er en GCN 1.0 brikke fra 2012. Tydelig at AMD har dumpet prisene for Apple...  :(

 

Vi er bruker mye CUDA på jobben, og med denne "nedgraderingen" ble dessverre rMBP ubrukelig som arbeidsmaskiner for oss.

 

Skrevet av HKS, bruker her. Litt usikker på hvordan jeg får skikkelig sitat...

50-70% bedre ytelse enn et 750 kort annonsert tidlig i 2013 er langt ifra umulig for et 2012 kort? Et gammelt kort kan fint ha bedre ytelse enn et svak gammel kort. Det betyr ikke at det er nytt!

 

Er det bekreftet hvilket kort det er, har det kommet mer informasjon som tilsier at det ikke er et 2012 kort?

Med mindre det er et uannonsert helt nytt kort fra AMD med ny arkitektur ser jeg ingen måte det kan slå Maxwell på. Ytelse er en ting, men det er mye viktigere med forbruk i forhold til ytelse. Det er jo derfor du ikke stapper GTX 980(uten M) inn i en bærbar.

 

Ellers er jo de nåværende kortene i iMac fra 2012, eller muligens 2013 hvis jeg ikke tar feil. Ser ikke helt hvordan et M370X skal være raskere enn et M290X. Ellers så rater denne siden http://www.notebookcheck.net/AMD-Radeon-R9-M370X.142763.0.htmlikke kortet veldig høyt akkurat. Ingen vet jo hvilket kort det egentlig er og hvordan det yter enda. Likevel er det veldig usannsynlig at det vil være bedre enn et NVIDIA kort. Hvorfor skulle AMD snik-lansere enn ny arkitektur?

Lenke til kommentar

Skrevet av HKS, bruker her. Litt usikker på hvordan jeg får skikkelig sitat...

 

50-70% bedre ytelse enn et 750 kort annonsert tidlig i 2013 er langt ifra umulig for et 2012 kort? Et gammelt kort kan fint ha bedre ytelse enn et svak gammel kort. Det betyr ikke at det er nytt!

 

Er det bekreftet hvilket kort det er, har det kommet mer informasjon som tilsier at det ikke er et 2012 kort?

Med mindre det er et uannonsert helt nytt kort fra AMD med ny arkitektur ser jeg ingen måte det kan slå Maxwell på. Ytelse er en ting, men det er mye viktigere med forbruk i forhold til ytelse. Det er jo derfor du ikke stapper GTX 980(uten M) inn i en bærbar.

 

Ellers er jo de nåværende kortene i iMac fra 2012, eller muligens 2013 hvis jeg ikke tar feil. Ser ikke helt hvordan et M370X skal være raskere enn et M290X. Ellers så rater denne siden http://www.notebookcheck.net/AMD-Radeon-R9-M370X.142763.0.htmlikke kortet veldig høyt akkurat. Ingen vet jo hvilket kort det egentlig er og hvordan det yter enda. Likevel er det veldig usannsynlig at det vil være bedre enn et NVIDIA kort. Hvorfor skulle AMD snik-lansere enn ny arkitektur?

 

 

Det er jo stort sett bare vill tipping ute og går angående AMD R9 M370X. Saken er at AMD ikke beskriver denne grafikkbrikken noe sted, så langt, og det finnes heller ingen uavhengige tester av den - så alt er spekulasjoner, bortsett fra at Apple selv beskriver den som opptil 80% raskere enn Geforce 750M under f.eks videoredigering, 3D-rendring og spill, og 50-70% raskere i en del konkrete spilleksempler.

 

Og nei, jeg regner det som utelukket at et 2012-grafikkort fra AMD kan yte så mye bedre enn et 2013-kort fra Nvidia, innenfor samme eller lavere TDP (batteritiden i den oppdaterte MBP 15" skal være forbedret med 1 time).

 

Det eneste som er bekreftet når det gjelder den oppdaterte grafikkløsningen er betegnelsen «AMD Radeon R9 M370X», og det er altså en uannonsert brikke fra AMD - så langt. Plasseringen av M370X i listen til Notebookcheck virker helt random, når man ser spesifikasjonene som er antydet burde det åpenbart stått langt høyere oppe - men usikkerheten er så stor at det egentlig ikke burde stått i listen i det hele tatt.

 

iMac Retina 5K leveres med R9 M290, R9 M290X eller R9 M295X. Alle disse er så vidt jeg vet lansert i 2014. 

 

Er vel like greit å gi seg med spekulasjonene og vente noen dager eller uker, til spesifikasjoner og tester kommer på bordet, og bitene faller på plass... ;)

Endret av Newton
Lenke til kommentar

 

Skrevet av HKS, bruker her. Litt usikker på hvordan jeg får skikkelig sitat...

 

50-70% bedre ytelse enn et 750 kort annonsert tidlig i 2013 er langt ifra umulig for et 2012 kort? Et gammelt kort kan fint ha bedre ytelse enn et svak gammel kort. Det betyr ikke at det er nytt!

 

Er det bekreftet hvilket kort det er, har det kommet mer informasjon som tilsier at det ikke er et 2012 kort?

Med mindre det er et uannonsert helt nytt kort fra AMD med ny arkitektur ser jeg ingen måte det kan slå Maxwell på. Ytelse er en ting, men det er mye viktigere med forbruk i forhold til ytelse. Det er jo derfor du ikke stapper GTX 980(uten M) inn i en bærbar.

 

Ellers er jo de nåværende kortene i iMac fra 2012, eller muligens 2013 hvis jeg ikke tar feil. Ser ikke helt hvordan et M370X skal være raskere enn et M290X. Ellers så rater denne siden http://www.notebookcheck.net/AMD-Radeon-R9-M370X.142763.0.htmlikke kortet veldig høyt akkurat. Ingen vet jo hvilket kort det egentlig er og hvordan det yter enda. Likevel er det veldig usannsynlig at det vil være bedre enn et NVIDIA kort. Hvorfor skulle AMD snik-lansere enn ny arkitektur?

 

 

Det er jo stort sett bare vill tipping ute og går angående AMD R9 M370X. Saken er at AMD ikke beskriver denne grafikkbrikken noe sted, så langt, og det finnes heller ingen uavhengige tester av den - så alt er spekulasjoner, bortsett fra at Apple selv beskriver den som opptil 80% raskere enn Geforce 750M under f.eks videoredigering, 3D-rendring og spill, og 50-70% raskere i en del konkrete spilleksempler.

 

Og nei, jeg regner det som utelukket at et 2012-grafikkort fra AMD kan yte så mye bedre enn et 2013-kort fra Nvidia, innenfor samme eller lavere TDP (batteritiden i den oppdaterte MBP 15" skal være forbedret med 1 time).

 

Det eneste som er bekreftet når det gjelder den oppdaterte grafikkløsningen er betegnelsen «AMD Radeon R9 M370X», og det er altså en uannonsert brikke fra AMD - så langt. Plasseringen av M370X i listen til Notebookcheck virker helt random, når man ser spesifikasjonene som er antydet burde det åpenbart stått langt høyere oppe - men usikkerheten er så stor at det egentlig ikke burde stått i listen i det hele tatt.

 

iMac Retina 5K leveres med R9 M290, R9 M290X eller R9 M295X. Alle disse er så vidt jeg vet lansert i 2014. 

 

Er vel like greit å gi seg med spekulasjonene og vente noen dager eller uker, til spesifikasjoner og tester kommer på bordet, og bitene faller på plass... ;)

 

Når har tall fra en produsent vært rett noen gang? Ellers er 750m et svært low-end kort. 9 timers batteritid er garantert ikke ved bruk at grafikkortet. Det er med HD graphics aktivert og diskret GPU deaktivert. Maskinen er 2 kg tung. Akkurat det samme som en Razer Blade med GTX 970M. Et GTX 750M gir altså mye thermal headroom for en kraftigere GPU.

 

Hvis AMD sitt 7970 ikke var over 50% kratigere enn et GTX 750m ville jeg krevd pengene tilbake hvis jeg kjøpte det! Gidder ikke å skjekke alle tallene, så på benchmarks for dota 2 på notebookcheck. 750M ligger på 34 fps mot 98 fps for et 7970. 300%. 

 

Folk har skikket i windows 10 driverne til AMD og funnet tegn på at det er 2012 arkitektur det er snakk om, ellers har vi ikke noe å gå ut ifra. Er enig i at rangeringen fra nettsiden er ren grunnløs spekulasjon, og virker altfor lavt.

 

iMac retina ja.... leveres med 2014 GPUer. HVertfall det AMD vil at du skal tro. La oss skjekke disse GPUene:

http://www.notebookcheck.net/AMD-Radeon-R9-M290X.108643.0.html

Samme som HD 8970M?

http://www.notebookcheck.net/AMD-Radeon-HD-8970M.90656.0.html

Som er samme som HD 7970m, bare litt høyere klokket????

http://www.notebookcheck.net/AMD-Radeon-HD-7970M.72675.0.html

Som egentlig er en underklokket 7870???

 

Ble ikke dette kortet lansert tidlig i 2012? 

Det er bare M295X som ikke er et 2012 trippel-rebrand kort. Det er faktisk basert på nyere Tonga arkitektur. M370X plasserer seg utifra navnet under disse Pitchcairn brikkene som er i iMac. Tonga kortet er jo oppgradering, og med oppgraderingsprisene kunne du like godt kjøpt et GTX 970 alene.

 

Hvilken ytelse R9 M370X har lite og ingenting å si.Om det er en 2012 modell, eller et år eller to nyere har noe å si. Det er likevel en ting som er viktigere en alt. Apple fortsetter å selge dårlig HW til sine iMacer. De mest high end produktene du får fra Apple har gamle kort på billigsalg, for å tjene et par ekstra dollar. R9 M370X havner i akkurat samme kategori. Istedenfor å velge kvalitet og gi brukerene kraft, batteritid, effektivitet, lav varme så velger Apple å spare på dollarene. Det er helt greit, men ikke til produkter som selger i 20.000 kr pluss klassen! Der forventes det at du får det beste, du forventer kvalitet fra hvert enkelt Apple produkt. Det gir IKKE disse produktene. Samtidig gjør alle konkurrentene det. Alle andre bruker ekstra penger, og kjøper fra NVIDIA. Ikke Apple. Konsoller til 3500 kr bruker AMD grafikk, fordi NVIDIA er for dyrt. NVIDIA har monopol på grafikk til gamingbærbare i 10.000 kr pluss klassen. Hvordan kan du ikke slakte Apple sin beslutning om AMD, eller være ekstremt skuffet over Apple? Jeg ville aldri kjøpt en bærbar PC til over 10.000 kr med GPU som ikke var Maxwell. En maskin uten Maxwell til over 25.000 kr går inn i boken for drøyeste forsøk på å svindle kunder til å kjøpe dårlig HW. Sammen med extreme gaming PCer som har i7-5960X og et GT 840. Med Apple er det være, fordi du har forventninger om at det skal være bra. At du betaler ekstra for å få det beste. Så sitter du igjen med noe langt under gjennomsnittet. Det kan jo selvfølgelig være at det er bygget på AMD sine nye arkitektur og når folk får maskinene så lurer de på hva dette er, og så finner de ut at det er splitter nye AMD kort. Det ville vært en svært merkelig måte å lansere en ny arkitektur på, ulik noe som er gjort før. Apple er ikke selskapet til å vise frem ny HW heller akkurat... Det er vel likevel en liten sannsynlighet så alt håp er vel ikke ute.

Lenke til kommentar

Når har tall fra en produsent vært rett noen gang? Ellers er 750m et svært low-end kort. 9 timers batteritid er garantert ikke ved bruk at grafikkortet. Det er med HD graphics aktivert og diskret GPU deaktivert. Maskinen er 2 kg tung. Akkurat det samme som en Razer Blade med GTX 970M. Et GTX 750M gir altså mye thermal headroom for en kraftigere GPU.

 

 

 

 

 

Hvis AMD sitt 7970 ikke var over 50% kratigere enn et GTX 750m ville jeg krevd pengene tilbake hvis jeg kjøpte det! Gidder ikke å skjekke alle tallene, så på benchmarks for dota 2 på notebookcheck. 750M ligger på 34 fps mot 98 fps for et 7970. 300%. 

 

Folk har skikket i windows 10 driverne til AMD og funnet tegn på at det er 2012 arkitektur det er snakk om, ellers har vi ikke noe å gå ut ifra. Er enig i at rangeringen fra nettsiden er ren grunnløs spekulasjon, og virker altfor lavt.

 

iMac retina ja.... leveres med 2014 GPUer. HVertfall det AMD vil at du skal tro. La oss skjekke disse GPUene:

http://www.notebookcheck.net/AMD-Radeon-R9-M290X.108643.0.html

Samme som HD 8970M?

http://www.notebookcheck.net/AMD-Radeon-HD-8970M.90656.0.html

Som er samme som HD 7970m, bare litt høyere klokket????

http://www.notebookcheck.net/AMD-Radeon-HD-7970M.72675.0.html

Som egentlig er en underklokket 7870???

 

Ble ikke dette kortet lansert tidlig i 2012? 

Det er bare M295X som ikke er et 2012 trippel-rebrand kort. Det er faktisk basert på nyere Tonga arkitektur. M370X plasserer seg utifra navnet under disse Pitchcairn brikkene som er i iMac. Tonga kortet er jo oppgradering, og med oppgraderingsprisene kunne du like godt kjøpt et GTX 970 alene.

 

Hvilken ytelse R9 M370X har lite og ingenting å si.Om det er en 2012 modell, eller et år eller to nyere har noe å si. Det er likevel en ting som er viktigere en alt. Apple fortsetter å selge dårlig HW til sine iMacer. De mest high end produktene du får fra Apple har gamle kort på billigsalg, for å tjene et par ekstra dollar. R9 M370X havner i akkurat samme kategori. Istedenfor å velge kvalitet og gi brukerene kraft, batteritid, effektivitet, lav varme så velger Apple å spare på dollarene. Det er helt greit, men ikke til produkter som selger i 20.000 kr pluss klassen! Der forventes det at du får det beste, du forventer kvalitet fra hvert enkelt Apple produkt. Det gir IKKE disse produktene. Samtidig gjør alle konkurrentene det. Alle andre bruker ekstra penger, og kjøper fra NVIDIA. Ikke Apple. Konsoller til 3500 kr bruker AMD grafikk, fordi NVIDIA er for dyrt. NVIDIA har monopol på grafikk til gamingbærbare i 10.000 kr pluss klassen. Hvordan kan du ikke slakte Apple sin beslutning om AMD, eller være ekstremt skuffet over Apple? Jeg ville aldri kjøpt en bærbar PC til over 10.000 kr med GPU som ikke var Maxwell. En maskin uten Maxwell til over 25.000 kr går inn i boken for drøyeste forsøk på å svindle kunder til å kjøpe dårlig HW. Sammen med extreme gaming PCer som har i7-5960X og et GT 840. Med Apple er det være, fordi du har forventninger om at det skal være bra. At du betaler ekstra for å få det beste. Så sitter du igjen med noe langt under gjennomsnittet. Det kan jo selvfølgelig være at det er bygget på AMD sine nye arkitektur og når folk får maskinene så lurer de på hva dette er, og så finner de ut at det er splitter nye AMD kort. Det ville vært en svært merkelig måte å lansere en ny arkitektur på, ulik noe som er gjort før. Apple er ikke selskapet til å vise frem ny HW heller akkurat... Det er vel likevel en liten sannsynlighet så alt håp er vel ikke ute.

 

 

Når Apple oppgir slike tall pleier de å stemme rimelig bra, av den enkle grunn at nettopp Apple kan forvente seg så mye mer pepper i media enn alle andre dersom det motsatte var tilfelle. I følge kilden du selv bruker er GT 750M er nå et mid-range kort, og ligger i øvre del av det segmentet.

Nå er det så vidt jeg vet samme CPU med samme Iris Pro 5200 i forrige og oppgradert MBP 15", så nei, jeg tror ikke at bruken av Intel-grafikkløsningen er forklaringen på økt batteritid.

Razer Blade 2015 modell har altså en GTX 970M. Vi snakker TDP på 81 Watt, og prisen for det er naturligvis at maskinen blir veldig, veldig varm, at viftene støyer utrolig mye når maskinen belastes (opptil 59 dBA!!), og at batteritiden virkelig suger (3,5 timer WiFi-surfing - latterlig!). http://www.notebookcheck.net/Razer-Blade-14-Early-2015-Notebook-Review.138997.0.html

Altså skjønner vi - i alle fall jeg - hvorfor Apple ikke valgte en GPU med TDP over 80 Watt for den like tynne og lette MacBook Pro 15". 

Du nevner GTX 750M og "thermal headroom", men jeg tror ikke GTX 750M eksisterer...du mente sikkert GT 750M, som i forrige MBP 15", og den har så vidt jeg kan se TDP på 50 Watt, altså betydelig lavere enn de råeste (samt mest strømslukende og varmegenererende) laptop-GPU-ene. Det gir absolutt mening i en 1,8 cm tykk maskin, som ikke skal svi av omgivelsene eller bråke veldig mye.

 

AMD 7970M har TDP på 100 Watt, så det er meningsløst å dra inn her - forutsetningen er, som jeg sa, "innenfor samme eller lavere TDP".

 

Ja, det er lett å bli forvirret av rebrandingen AMD driver med, i alle fall har jeg mistet oversikten for lenge siden, og navneforvirringen AMD legger opp til er også mye av grunnen til at man ikke vet helt hva man skal forvente av det nye M370X - om det er nytt, eller "nytt"...

 

Det var jo nettopp for å gi brukerne kvalitet og en fornuftig balanse mellom «kraft, batteritid, effektivitet, lav varme» at GT 750M i sin tid ble valgt. Vi vet med rimelig stor sikkerhet at R9 M370X er en god del raskere, og opererer innenfor omtrent samme TDP. Inntil vi faktisk vet hva denne nye (eller "nye") brikken faktisk er godt for er det bare tull å snakke om "dårlig hardware" og alt det andre jåsset du kommer med på basis av en del-spesifikasjon ingen av oss kjenner.

 

Skal man plukke ut en Maxwell-basert GPU i samme TDP-område er vel GTX 850M eller 950M mest aktuelle, så da gjenstår det fortsatt å se hvordan R9 M370X klarer seg mot disse to - som "tilfeldigvis" ser ut til å befinne seg i det omtalte området "50-80% raskere enn GT 750M".

Nå har Apple faksisk basert seg på Nvidia-grafikk i samtlige versjoner av MBP Retina 15" fram til nå, så argumentet ditt om Apple nå vil bruke AMD utelukkende for å spare penger virker heller ikke veldig logisk - det er jo andre mulige forklaringer, som går på helheten i maskinen, og egenskaper når det gjelder OpenGL, OpenCL, video-encoding/-decoding, osv... du vet, ting som ofte er litt mer relevant for Mac-brukere enn spillytelse i DX12... :p

 

Hvem vet - kanskje er M370X basert på AMD sin nyeste arkitektur, og kanskje er Apple først ute, det har faktisk skjedd før....så nei, jeg har ikke planer om å slakte Apples beslutning om å bruke AMD riktig enda...   ;)

Endret av Newton
Lenke til kommentar

 

 

Når Apple oppgir slike tall pleier de å stemme rimelig bra, av den enkle grunn at nettopp Apple kan forvente seg så mye mer pepper i media enn alle andre dersom det motsatte var tilfelle. I følge kilden du selv bruker er GT 750M er nå et mid-range kort, og ligger i øvre del av det segmentet.

Nå er det så vidt jeg vet samme CPU med samme Iris Pro 5200 i forrige og oppgradert MBP 15", så nei, jeg tror ikke at bruken av Intel-grafikkløsningen er forklaringen på økt batteritid.

Razer Blade 2015 modell har altså en GTX 970M. Vi snakker TDP på 81 Watt, og prisen for det er naturligvis at maskinen blir veldig, veldig varm, at viftene støyer utrolig mye når maskinen belastes (opptil 59 dBA!!), og at batteritiden virkelig suger (3,5 timer WiFi-surfing - latterlig!). http://www.notebookcheck.net/Razer-Blade-14-Early-2015-Notebook-Review.138997.0.html

Altså skjønner vi - i alle fall jeg - hvorfor Apple ikke valgte en GPU med TDP over 80 Watt for den like tynne og lette MacBook Pro 15". 

Du nevner GTX 750M og "thermal headroom", men jeg tror ikke GTX 750M eksisterer...du mente sikkert GT 750M, som i forrige MBP 15", og den har så vidt jeg kan se TDP på 50 Watt, altså betydelig lavere enn de råeste (samt mest strømslukende og varmegenererende) laptop-GPU-ene. Det gir absolutt mening i en 1,8 cm tykk maskin, som ikke skal svi av omgivelsene eller bråke veldig mye.

 

AMD 7970M har TDP på 100 Watt, så det er meningsløst å dra inn her - forutsetningen er, som jeg sa, "innenfor samme eller lavere TDP".

 

Ja, det er lett å bli forvirret av rebrandingen AMD driver med, i alle fall har jeg mistet oversikten for lenge siden, og navneforvirringen AMD legger opp til er også mye av grunnen til at man ikke vet helt hva man skal forvente av det nye M370X - om det er nytt, eller "nytt"...

 

Det var jo nettopp for å gi brukerne kvalitet og en fornuftig balanse mellom «kraft, batteritid, effektivitet, lav varme» at GT 750M i sin tid ble valgt. Vi vet med rimelig stor sikkerhet at R9 M370X er en god del raskere, og opererer innenfor omtrent samme TDP. Inntil vi faktisk vet hva denne nye (eller "nye") brikken faktisk er godt for er det bare tull å snakke om "dårlig hardware" og alt det andre jåsset du kommer med på basis av en del-spesifikasjon ingen av oss kjenner.

 

Skal man plukke ut en Maxwell-basert GPU i samme TDP-område er vel GTX 850M eller 950M mest aktuelle, så da gjenstår det fortsatt å se hvordan R9 M370X klarer seg mot disse to - som "tilfeldigvis" ser ut til å befinne seg i det omtalte området "50-80% raskere enn GT 750M".

Nå har Apple faksisk basert seg på Nvidia-grafikk i samtlige versjoner av MBP Retina 15" fram til nå, så argumentet ditt om Apple nå vil bruke AMD utelukkende for å spare penger virker heller ikke veldig logisk - det er jo andre mulige forklaringer, som går på helheten i maskinen, og egenskaper når det gjelder OpenGL, OpenCL, video-encoding/-decoding, osv... du vet, ting som ofte er litt mer relevant for Mac-brukere enn spillytelse i DX12... :p

 

Hvem vet - kanskje er M370X basert på AMD sin nyeste arkitektur, og kanskje er Apple først ute, det har faktisk skjedd før....så nei, jeg har ikke planer om å slakte Apples beslutning om å bruke AMD riktig enda...   ;)

 

 

Mente Gt 750M. Det er jo selvfølgelig et low-end kort. Det har ikke GTX i navnet engang. Det er jo GTX kortene som regnes som gaming kort. Litt usikker på hvordan det regnes som mid-end, selv på den tiden det ble skrevet. Sett i forhold til desktop GPU på den tiden er det hvertfall klart low-end, veldig low end.

 

Er batteritid bestemt utifra GPU og GPU alene? Jeg sa aldri at de fikk økt batteritid av intel GPU. For det første, Apple tester batteritid med web-browsing og videoavspilling i 1080p. Så ser vi på hvordan det fungerer med dedikert GPU i en bærbar: http://en.wikipedia.org/wiki/Nvidia_Optimus

Er Web-browsing og 1080p avspilling noe en Iris pro ikke klarer? På ingen måte! Det er vel rimelig å anta at AMD gjør det samme? Det vil si at GPU er deaktivert under disse testene, og har ingenting å si i disse testene.

 

Dette er tall fra xps 13: http://images.anandtech.com/graphs/graph8983/71676.png

Den har en helt utrolig effektivitet. Blant annet hjelper det at den har en IGZO skjerm, som trekker mindre strøm enn en a-Si skjerm gjør. Wi-Fi brikken kan spille inn osv osv. Hvis AMD teknologien for bytting ikke fungerer her, vil det si at R9 M370X er mer effektiv enn HD graphics. Det ville vært utrolig revolusjonerende, og et mirakuløst. Det er en grunn til at bærbare ikke bruker NVIDIA kortet hele tiden. Det er en grunn til at AMD og har teknologi for deaktivering av kortet.

 

Selvfølgelig bør ikke Apple velge et 970M, det ville jo vært galskap. Jeg sa det bare som et eksempel på at det er mulig. Det samme gjelder med 7970, det var bare for å vise at AMD hadde langt raskere kort enn et gt 750m i 2012. Hvis TDP skal være lik derimot hadde ikke AMD kort som kunne yte 50-70% bedre i 2012. Da må en nok se på nyere kort. Poenget mitt var jo at Apple kan ha satt inn et kort med høyere TDP, uten at det vil vise på de oppgitte batterimålingene.

 

Har Razer Blade virkelig forferdelig batteritid?

http://www.anandtech.com/show/8971/the-2015-razer-blade-review/6

Light testen har OSX fordeler, og med windows ville den vært likt med razer blade på den testen også. Det til tross for at Razer blade har langt mindre batteri! rMBP er heller ikke lettere enn en Razer Blade.

 

Rebrandingen til AMD er ganske kaotisk når det går over så mange generasjoner....

 

Hvilke tall/kilder tilsier at R9 M370X er raskere innenfor samme TDP?

 

Hvis R9 M370X skal ha en sjangs MÅ det være noe helt nytt fra AMD. Ellers er det dårligere uansett. Det er mulig, men tvilsomt. Selv om et selskap har valgt kvalitet før så kan de ikke velge å spare noen dollar? Det er det de har gjort med iMac. Der gjorde de det dårlige valget å gå for 2012 rebrands istedenfor kepler. De fortsetter med det samme, selv om Maxwell er enda mye bedre.

 

Som HSL skrev tidligere i et sitat. De bruker CUDA kjerner på jobben. Siden rMBP ikke har NVIDIA lengre ble de ubrukelige som arbeidsmaskiner. Ser ikke helt hvordan NVIDIA kort er dårligere som arbeidsmakiner enn AMD?

 

Valget i iMac var helt klart dårlig, både i år og i fjor. I fjor var unntaket R9 M295X, som burde vært ute i år. Er det mulig at M370X er noe helt nytt. Ja, det er det, men det er ingen kilder i det hele tatt som har sagt noe i den retningen. Launch av den nye arkitekturen er heller ikke kommet, dermed virker det lite sannsynlig. Det er jo selvsagt en mulighet, så får vel gjerne vente med kritikken av rMBP enn så lenge. Likevel ser det ikke veldig bra ut, og valgene i iMac er allerede dårlige og fortjener kritikk.

Lenke til kommentar

 

Mente Gt 750M. Det er jo selvfølgelig et low-end kort. Det har ikke GTX i navnet engang. Det er jo GTX kortene som regnes som gaming kort. Litt usikker på hvordan det regnes som mid-end, selv på den tiden det ble skrevet. Sett i forhold til desktop GPU på den tiden er det hvertfall klart low-end, veldig low end.

 

Er batteritid bestemt utifra GPU og GPU alene? Jeg sa aldri at de fikk økt batteritid av intel GPU. For det første, Apple tester batteritid med web-browsing og videoavspilling i 1080p. Så ser vi på hvordan det fungerer med dedikert GPU i en bærbar: http://en.wikipedia.org/wiki/Nvidia_Optimus

Er Web-browsing og 1080p avspilling noe en Iris pro ikke klarer? På ingen måte! Det er vel rimelig å anta at AMD gjør det samme? Det vil si at GPU er deaktivert under disse testene, og har ingenting å si i disse testene.

 

Dette er tall fra xps 13: http://images.anandtech.com/graphs/graph8983/71676.png

Den har en helt utrolig effektivitet. Blant annet hjelper det at den har en IGZO skjerm, som trekker mindre strøm enn en a-Si skjerm gjør. Wi-Fi brikken kan spille inn osv osv. Hvis AMD teknologien for bytting ikke fungerer her, vil det si at R9 M370X er mer effektiv enn HD graphics. Det ville vært utrolig revolusjonerende, og et mirakuløst. Det er en grunn til at bærbare ikke bruker NVIDIA kortet hele tiden. Det er en grunn til at AMD og har teknologi for deaktivering av kortet.

 

Selvfølgelig bør ikke Apple velge et 970M, det ville jo vært galskap. Jeg sa det bare som et eksempel på at det er mulig. Det samme gjelder med 7970, det var bare for å vise at AMD hadde langt raskere kort enn et gt 750m i 2012. Hvis TDP skal være lik derimot hadde ikke AMD kort som kunne yte 50-70% bedre i 2012. Da må en nok se på nyere kort. Poenget mitt var jo at Apple kan ha satt inn et kort med høyere TDP, uten at det vil vise på de oppgitte batterimålingene.

 

Har Razer Blade virkelig forferdelig batteritid?

http://www.anandtech.com/show/8971/the-2015-razer-blade-review/6

Light testen har OSX fordeler, og med windows ville den vært likt med razer blade på den testen også. Det til tross for at Razer blade har langt mindre batteri! rMBP er heller ikke lettere enn en Razer Blade.

 

Rebrandingen til AMD er ganske kaotisk når det går over så mange generasjoner....

 

Hvilke tall/kilder tilsier at R9 M370X er raskere innenfor samme TDP?

 

Hvis R9 M370X skal ha en sjangs MÅ det være noe helt nytt fra AMD. Ellers er det dårligere uansett. Det er mulig, men tvilsomt. Selv om et selskap har valgt kvalitet før så kan de ikke velge å spare noen dollar? Det er det de har gjort med iMac. Der gjorde de det dårlige valget å gå for 2012 rebrands istedenfor kepler. De fortsetter med det samme, selv om Maxwell er enda mye bedre.

 

Som HSL skrev tidligere i et sitat. De bruker CUDA kjerner på jobben. Siden rMBP ikke har NVIDIA lengre ble de ubrukelige som arbeidsmaskiner. Ser ikke helt hvordan NVIDIA kort er dårligere som arbeidsmakiner enn AMD?

 

Valget i iMac var helt klart dårlig, både i år og i fjor. I fjor var unntaket R9 M295X, som burde vært ute i år. Er det mulig at M370X er noe helt nytt. Ja, det er det, men det er ingen kilder i det hele tatt som har sagt noe i den retningen. Launch av den nye arkitekturen er heller ikke kommet, dermed virker det lite sannsynlig. Det er jo selvsagt en mulighet, så får vel gjerne vente med kritikken av rMBP enn så lenge. Likevel ser det ikke veldig bra ut, og valgene i iMac er allerede dårlige og fortjener kritikk.

 

 

Notebookcheck har en omfattende rangering av laptop-grafikkort, og de klassifiserer GT 750M som mid-range... men du står selvsagt fritt til å definere din egen klassifisering etter hva som tilfeldigvis passer deg best i dag fredag 22. mai, og kan selvsagt kalle det for hva du vil for din egen del.

 

Neida, ingen har påstått at batteritid er "bestemt utifra GPU alene". Men GPU, hvilken og hvordan den/de brukes, påvirker naturligvis batteritiden. Apple baserer så vidt jeg vet ikke sin løsning for bytte mellom grafikksystem på Nvidia Optimus, så det er ikke helt relevant. Det er vel heller ikke nødvendigvis snakk om hva Iris Pro klarer, men hva som er mest effektivt av Iris Pro eller diskret grafikkbrikke i gitte situasjoner, og hvordan systemet switcher dynamisk mellom de to grafikksystemene.

 

Dell XPS 13 er stømeffektiv ja, og det er heller ikke noe nytt at Broadwell-U gir brukbar gevinst i så måte, og Power Saving mode gjør vel også jobben sin og klokker ned systemet til sneglefart... ;)

 

Ja, Razer Blade har forferdelig batteritid når systemet kjører normalt i Balanced mode, og ikke i Power Saving mode med CPU permanent nedklokket til 800 MHz og diskret grafikk utkoblet. MBP struper heller ikke ytelsen slik Blade gjør når den kjører på batteri.

 

Det som tilsier at R9 M370X er raskere innenfor samme TDP er ytelsestallene Apple selv har oppgitt, og at det er rimelig usannsynlig at det har skjedd noen vesentlig økning i TDP for den dedikerte GPU-en, slik jeg kjenner Apple og deres laptopdesign - jeg tror vi kan se bort fra at Apple gjør som Razer og utsetter brukerne for ubehagelig varme og viftestøy til de grader.

 

HKS sin skuffelse over manglende CUDA-støtte er forståelig men likevel litt spesiell, siden han jobber med "forskning på systemstøtte for heterogene prosesserings arkitekturer (GPGPU) som for eksempel GPU'er fra AMD og Nvidia."

For øvrig bør det ikke komme som noen overraskelse at Apple ikke bryr seg nevneverdig om proprietære CUDA, all den stund Apple har lagt eggene sine i en annen kurv, nemlig det åpne, leverandøruavhengige OpenCL - som opprinnelig ble utviklet av Apple, og nå forvaltes av Khronos Group.

 

I iMac er R9 M295X stadig konkurransedyktig ytelsesmessig i forhold til Geforce GTX 970M og 980M, så det synes jeg er uproblematisk. Valget av Radeon R9 foran Geforce M var vel ellers betinget av at Geforce 8xxM-versjonene som var tilgjengelig i fjor ikke støttet 5K-oppløsning - og at det kanskje er greit å ikke skifte GPU-arkitektur etter bare ett år når det ikke synes å gi noen ytelsesgevinst. For Apple er det OpenGL og OpenCL som gjelder, og spillytelse med DX 11/12 og "vedtatte sannheter" om hva som er de beste gamingkortene i Windows er mindre interessant.

Endret av Newton
Lenke til kommentar

 

 

 

Notebookcheck har en omfattende rangering av laptop-grafikkort, og de klassifiserer GT 750M som mid-range... men du står selvsagt fritt til å definere din egen klassifisering etter hva som tilfeldigvis passer deg best i dag fredag 22. mai, og kan selvsagt kalle det for hva du vil for din egen del.

 

Neida, ingen har påstått at batteritid "er bestemt utifra GPU alene". Men GPU, hvilken og hvordan den/de brukes, påvirker naturligvis batteritiden. Apple baserer så vidt jeg vet ikke sin løsning for bytte mellom grafikksystem på Nvidia Optimus, så det er ikke helt relevant. Det er vel heller ikke nødvendigvis snakk om hva Iris Pro klarer, men hva som er mest effektivt av Iris Pro eller diskret grafikkbrikke i gitte situasjoner, og hvordan systemet switcher dynamisk mellom de to grafikksystemene.

 

Dell XPS 13 er stømeffektiv ja, og det er heller ikke noe nytt at Broadwell-U gir brukbar gevinst i så måte, og Power Saving mode gjør vel også jobben sin og klokker ned systemet til sneglefart... ;)

 

Ja, Razer Blade har forferdelig batteritid når systemet kjører normalt i Balanced mode, og ikke i Power Saving mode med CPU permanent nedklokket til 800 MHz og diskret grafikk utkoblet. MBP struper ikke ytelsen slik når den kjører på batteri.

 

Det som tilsier at R9 M370X er raskere innenfor samme TDP er ytelsestallene Apple selv har oppgitt, og at det er rimelig usannsynlig at det har skjedd noen vesentlig økning i TDP for den dedikerte GPU-en, slik jeg kjenner Apple og deres laptopdesign.

 

HKS sin skuffelse over manglende CUDA-støtte er forståelig men likevel litt spesiell, siden han jobber med "forskning på systemstøtte for heterogene prosesserings arkitekturer (GPGPU) som for eksempel GPU'er fra AMD og Nvidia."

For øvrig bør det ikke komme som noen overraskelse at Apple ikke bryr seg nevneverdig om proprietære CUDA, all den stund Apple har lagt eggene sine i en annen kurv, nemlig det åpne, leverandøruavhengige OpenCL - som opprinnelig ble utviklet av Apple, og nå forvaltes av Khronos Group.

 

I iMac er R9 M295X stadig konkurransedyktig ytelsesmessig i forhold til Geforce GTX 970M og 980M, så det synes jeg er uproblematisk. Valget av Radeon R9 foran Geforce M var vel ellers betinget av at Geforce M-versjonen som var tilgjengelig i fjor ikke støttet 5K-oppløsning - og at det kanskje er greit å ikke skifte GPU-arkitektur etter bare ett år når det ikke synes å gi noen ytelsesgevinst. For Apple er det OpenGL og OpenCL som gjelder, og spillytelse med DX 11/12 og "vedtatte sannheter" om hva som er de beste gamingkortene i Windows er mindre interessant.

 

 Jeg skrev Gt 750M i forhold til desktop GPUer. Den aller laveste desktop GPUen som ble testet i spill var GTX 750. Ser ikke for meg at GTX 750 er svakere enn GT 750M. Så et kort som er svakere enn det svakeste som blir testet.... ser ikke hvordan det kan være mid end. Det kan ha vært mid end i forhold til andre mobile GPUer den tiden det ble sluppet, men jeg skrev i forhold til desktop. 

 

I situasjoner der det trengs svært lit GPU kraft (som Wi-Fi og 1080p playback) er jo HD graphics mest effektiv. Ellers hadde det ikke vært noe poeng å ha den aktivert i maskiner med dedikert GPU. Med mindre du har kilder som sier noe annet, er det ingenting som tilsier at AMD GPU er aktivert. Apple rater og modellen med og uten AMD GPU til å ha samme batteritid. Er ikke det merkelig hvis batteritiden kom fra ny GPU....

 

Du skriver ting du åpenbart ikke har lest noe om. XPS 13 gjør det bedre enn andre broadwell-U laptoper. Broadwell ga den veldig god batteritid. Andre komponenter gjorde den til batterikongen. Du skriver at den underklokker CPU til sneglefart..... La meg sitere:

"and was able to achieve 15 hours of battery life on the light test in balanced power as requested by some of our readers."

Direkte fra Anandtech. 21 minutter mindre enn power saving mode. Da altså for XPS 13. rMPB er og satt til power saving mode. Forstår ikke helt poenget med å bare slenge inn påstander slik som dette....

 

Du sier at apple ikke vil økte TDP... jeg hadde også heller ikke trodd at Apple brukte 2012 GPUer i sin aller fremste toppmodell 5K iMac. Flaggskipet i iMac linjen. Det gjorde de likevel. Selskaper endrer seg, de kan gjøre nye beslutninger.

 

Det med CUDA brukte jeg bare som eksempel siden du skriver at "kanskje AMD er mye bedre på open CL".

 

AMD fikk 2012 kort til å støtte 5K oppløsning. Tror du NVIDIA ikke var i stand til å legge dette til for Kepler kortene sine? Hadde de ingått avtale med Apple hadde de lett fått det til. De orginale AMD kortene fikk og denne støtten lagt til etterpå. Ellers ser jeg ikke helt hvordan ytelsen er den viktigste faktoren. Var vi ikke enige om at et 100W TDP kort ville være dumt? Det er snakk om ytelse/W. Der vinner NVIDIA klart. Hvis du mener at AMD har slik fortrinn i OpenGL og OpenCL må du nesten komme med tester som viser at det er slik. Ellers forstår jeg ikke helt hvorfor du bare drar inn ting som "power saving mode gjør windows PCer til snegler, mens rMBP kjører full speed" osv. bare for å forsvare Apple sine valg. Virker som om du har veldig stor tro på at Apple aldri gjør dårlige valg... Jeg har enda til gode å se tester som viser at disse AMD kortene er gode valg. At Apple har rett, og alle andre produsenter har tatt feil.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...