Gå til innhold

TEST: Apple MacBook Pro 13 med Touch Bar (2016)


Anbefalte innlegg

Vel, tingen er at ved små systemfiler kan man gjerne gjøre grep i OSet. Filsystemer cacher allerede mye inn i RAM, og en kan ta høyde for få store filer heller enn mange små (som uansett er å foretrekke ved nye harddisker). Ved store filer kan man ikke laste alt inn i RAM, og man vil da ha stor gevinst av at filen raskt kan leses.

 

MacBooks har vel aldri hatt topp komponenter over hele fjøla. De har derimot hatt godt testede komponenter som har vist seg å gi "god nok" ytelse uten å ofre batteritid eller bærbarhet (selv om touchbaren ikke går i den retningen...).

 

Grafikkortet har alltid vært litt under toppmodellen, og jeg tror på seneste MBP er det kun lagt ved for å avlasting av videoredigering og andre beregningslaster med OpenCL. Dessuten tror jeg ikke Apple, en av skaperne av OpenCL, liker at Nvidia fokuserer så lite på OpenCL. Programmeringsstøtten til OpenCL under Nvidia er milevis bak AMD. Og jeg tror at hvis Nvidia ville fått et sterkt fotfeste på Mac, ville de fleste OS X-programmer kun komme med CUDA-optimaliseringer etterhvert. Nvidia-kortene gir selvsagt bedre ytelse, men av og til kan man tenke litt langsiktig også.

Du kan ikke predicte alt som skal caches i RAM før det skjer. De gjør jo allerede så mye de kan, men det er dessverre slik at ting må frem og tilbake hele tiden likevel. Som er hele grunnen til at 4K read og latency er så viktig for systemytelse. Det er filer CPU må vente på, og altså du må vente på.

 

Jeg har liten tro på at Apples kontroller bruker mindre strøm enn Samsung sin. Den er og garantert mindre testet enn Samsung sin.

 

Avlaste på et AMD kort som trekker dobbelt så mye strøm er ikke så bra for batteritid.

Lenke til kommentar
Videoannonse
Annonse

Tipper Apple har en taktisk tanke om å ikke gi all makt til Nvidia som du sier. De er allerede fucked på CPU-fronten fordi de er slaver av Intels leveringsproblemer, og vil neppe inn i en situasjon der det er like låst på GPU-fronten. Selvsagt kjipt at det går ut over kundene, men i et langsiktig perspektiv er det ikke sikkert det er så dumt.

 

Dessuten er jo spillytelse kraftig underordnet rendringsytelse på disse maskinene, og der er vel ATI sine proffkort fortsatt fullgode? (må innrømme at jeg ikke følger særlig godt med på dette).

Problemet er at det er for sent. Nvidia har allerede vunnet. De vant med Maxwell. Bare mye lavere strømforbruk enn AMD. Så da sluttet AMD bærbare å selge. Ta en kikk på laptoper nå, alle bruker Nvidia. Og Apple har ikke nok markedsandel til å gjøre en forskjell. Gaming bærbare har latterlige priser nå for toppmodellene. Det er liksom Intel CPU, Nvidia GPU og Samsung SSD. 3 monopoler på de tre dyreste komponentene. SSD kan du sloss med, og Apple er vel de som er nærmest, og lager bedre kontrollere enn 3. part som Silicon Motion og Marvel. De andre derimot? Det er rimelig håpløst.

 

ATI proffkort er fortsatt gode for desktop ol. Strøm er ikke så viktig der, men skal du ha det beste er det igjen Nvidia som teller. Latterlige kort som Tesla P100 som sikkert koster mer enn noe i Apple store. Helt nye raskere Pascal kort med 16GB HBM RAM. 100% monopol, og Nvidia har nok en enorm mengde bestillinger som de sliter med å fylle. Så ja, de kan ta hva de vil. Samme med Samusngs PCIe SSDer. Supply problemer, raskest på markedet uten konkurranse = ta hva de vil. En 2TB koster "bare" 12.000 kr :p

https://www.komplett.no/product/903120/datautstyr/harddiskerssd/ssd-m2/samsung-960-pro-2tb-m2-pcie-ssd#

 

Ingen klarer reelt å utfordre Samsung heller. De lager absolutt alt selv i Sør-Korea. Alle andre driver og outsourcer  ting, og lager litt andre steder osv. Så når de kommer med ny teknologi, må noen andre lære seg teknologien, og så lage komponenter som takler den, og så sette sammen til ferdig produkt osv. Plutselig er du 2-3 år bak den som gjør alt selv. Disse bransjene har lett for å gi ledelsen til et selskap, og de mister den aldri. Og ingen nye kan utfordre dem. Skikkelig kapitalisme mareritt alt sammen.

Endret av TKongen
Lenke til kommentar

Grafikkortet har alltid vært litt under toppmodellen, og jeg tror på seneste MBP er det kun lagt ved for å avlasting av videoredigering og andre beregningslaster med OpenCL. Dessuten tror jeg ikke Apple, en av skaperne av OpenCL, liker at Nvidia fokuserer så lite på OpenCL. Programmeringsstøtten til OpenCL under Nvidia er milevis bak AMD. Og jeg tror at hvis Nvidia ville fått et sterkt fotfeste på Mac, ville de fleste OS X-programmer kun komme med CUDA-optimaliseringer etterhvert. Nvidia-kortene gir selvsagt bedre ytelse, men av og til kan man tenke litt langsiktig også.

 

Dette har nok ikke så mye med OpenCL å gjøre. Apple vet godt at NVIDIA generelt slår knockout på AMD når det kommer til ytelse og effektivitet, men i følge flere kilder var tykkelsen og vekten på maskinen viktigere for Apple samt evnen til å kjøre to 5k-displays. Apple gjør svært mange irrasjonelle valg for tiden, men jeg tviler på at de er så irrasjonelle at de lar en prinsippsak ødelegge for ytelsen. 

 

Power consumption aside—the laptop version of the GTX 1060, Nvidia’s slowest Pascal-based laptop chip, has an 85W TDP where the MacBook Pro’s AMD GPUs are all 35W—Nvidia’s cards support a maximum of four displays. And while Nvidia’s GPUs support DisplayPort 1.3, the Thunderbolt 3 controller and most monitors only support 1.2.

Dette er merkelige kompromisser av Apple, og det hele gjør det bare enda vanskeligere å se hvem disse laptopene egentlig er ment for.

Lenke til kommentar
Gjest Slettet+5132

Du kan ikke predicte alt som skal caches i RAM før det skjer. De gjør jo allerede så mye de kan, men det er dessverre slik at ting må frem og tilbake hele tiden likevel. Som er hele grunnen til at 4K read og latency er så viktig for systemytelse. Det er filer CPU må vente på, og altså du må vente på.

Kjenner du ditt eget OS er det fantatisk hvor mye du kan forutsett bør gå ut i minnet. Husk at filsystemet allerede fungerer på den måten, og skriver ikke alltid tilbake data før det absolutt må.

 

Avlaste på et AMD kort som trekker dobbelt så mye strøm er ikke så bra for batteritid.

Batteritid ved GPU-beregninger er allerede crap. Min XPS15 varer omtrent 20 minutt under hard GPU-beregningsbruk (egetskrevet CUDA-program). 10 vs 20 minutt er ikke noe å hoppe i taket for :p
Lenke til kommentar

Problemet er at det er for sent. Nvidia har allerede vunnet. De vant med Maxwell. Bare mye lavere strømforbruk enn AMD. Så da sluttet AMD bærbare å selge. Ta en kikk på laptoper nå, alle bruker Nvidia. Og Apple har ikke nok markedsandel til å gjøre en forskjell. Gaming bærbare har latterlige priser nå for toppmodellene. Det er liksom Intel CPU, Nvidia GPU og Samsung SSD. 3 monopoler på de tre dyreste komponentene. SSD kan du sloss med, og Apple er vel de som er nærmest, og lager bedre kontrollere enn 3. part som Silicon Motion og Marvel. De andre derimot? Det er rimelig håpløst.

 

...

 

Ingen klarer reelt å utfordre Samsung heller. De lager absolutt alt selv i Sør-Korea. Alle andre driver og outsourcer ting, og lager litt andre steder osv. Så når de kommer med ny teknologi, må noen andre lære seg teknologien, og så lage komponenter som takler den, og så sette sammen til ferdig produkt osv. Plutselig er du 2-3 år bak den som gjør alt selv. Disse bransjene har lett for å gi ledelsen til et selskap, og de mister den aldri. Og ingen nye kan utfordre dem. Skikkelig kapitalisme mareritt alt sammen.

Jeg vet ikke hvor gammel du er, men dette her er noe av det mest kortsiktige jeg har lest. Disruption skjer stadig også i disse bransjene, og gamle konger faller hele tiden. Det skjer bare ikke hvert eneste år.

Lenke til kommentar

Tja, mener at hans eksempler for Nvidia og Intel stemmer jo delvis. AMD forsøker seg og jeg håper inderlig at de lykkes i så mange klasser som mulig med å sette press på Nvidia og Intel. Det hadde vært godt for markedet og prisen hvis flere uten å tenke kunne valgt AMD.

 

Med Samsung vet jeg ikke, syns selv det er mange gode alternativer til Samsung - om enn ikke like hurtig som toppklassen.

Lenke til kommentar

Jeg skjønner hva du mener, men jeg er uenig i at det går an å si så enkelt at monopolene vil falle, fordi det kommer noe nytt alltid. For hvor lenge er det til noe nytt kommer?

 

Det store problemet her er kompleksiteten.  Jeg tror at Intel utvilsomt kunne laget en ny CPU arkitektur fra bunnen av som er bedre enn x86, som betyr alle andre og kan. Problemet er at det koster latterlig mye og tar veldig lang tid. Realistisk sett har altså ingen råd til det. Kina har jo basically kjøpt IBMs RISC nettopp for å prøve på det. Apple som bruker latterlig mye på å legge ut mye av CPU manuelt og endrer mye på ARM arkitekturen, baserer seg fortsatt på ARM. Så hvis Kina og Apple ikke engang har pengene til å lage ny CPU arkitekturer, hvor er CPU revolusjonen som skal komme i nær fremtid? Samme for GPU, men det har jo AMD en sjanse til å klare å komme tilbake hvertfall.

 

Største problemet derimot er transistorer. Er det tenkelig å ha en verden som bruker noe annet? ja. Må vi endre alt vi har laget for å tilpasse oss det? Ja. Det å droppe transistoren er en ekstrem endring altså. Er det sannsynlig at vi om 10 år bruker noe annet enn den tradisjonelle silisium transistoren? Ja.

 

Problemet er. En fabrikk koster gjerne mellom 5-15 milliarder USD. GlobalFoundries har omsetning på 5 milliarder USD og 13 fabrikker. Likevel de er for små til å overleve alene, og har inngått samarbeid med Samsung for å bruke samme design. Dette var altså AMD og IBM sine foundries. For å ikke snakke om R&D Samsung og Intel har begge vokst fra såvidt på topp 20 til 2 og 3 plass på 10 år. Problemet er at det er så mye manuelt arbeid og så dyr testing at uansett om du har flinke folk så MÅ du ha mange, og du MÅ bruke MYE penger på testing. Så om noen nye skal komme med noen revolusjonerende grafen transistorer f.eks så kreves det ekstreme investeringer, og en oppskalering av bedriften til et stort selskap på veldig kort tid. Mange år med minus. Og kanskje, kanskje så vil du klare deg. Hvis TSCM og Samsung ikke var raske nok, så klarer du gjerne å få nok produksjon raskt nok til at du kan overleve. Er de raskt ute derimot er du død, og må selge restene til Samsung/TSCM og tapte gjerne et par hundre milliarder USD(!)

 

Så enig på generelt basis, men kompleksiteten og kapitalkostnadene forbundet med transistorer og CPU/GPU arkitektur er helt latterlige. Det er bare 3-4 selskaper i verden som klarer å leve på det. Se på Japan/Taiwan/Sør-Korea. Alle gikk tungt for elektronikk og Japan/Sør-Korea lagde all elektronikk de kunne tjene en enste krone på. INGEN av dem lagde CPUer eller GPUer. Se på Kina nå. Gjør akkurat det samme, men lager ikke RAM, NAND, GPU, CPU eller har noen foundries. Så det har allerede vært slik lenge. Det finnes ingen bransjer i verden som er så ekstreme som disse på kostnaden på å komme inn i markedet. Selskaper kan lett falle, men det er tilnærmet umulig at noen kommer inn som nye på et par tår hvertfall.

Lenke til kommentar

 

Er dette virkelig et problem, selv for en "poweruser"? Jeg snakket reelt, jeg mener som i en workflow på en laptop?

Samsung 960 Pro er rated for 440K IOPS, ved steady state, som altså skjer når det er mye å gjøre over lengre tid. Da er IOPS redusert til 22K for 960 Pro. En SATA kommer på 1/4 av det igjen (om den SATA SSDen ikke er en Samsung/Intel). IOPS er altså Input/output operations per secound. Da merker du forskjell på hvor god SSDen er. Grunnen til at Intel er så gode på IOPS er fordi de lager stort sett server SSDer, og server kan ha konstant mye arbeid, så steady-state IOPS bestemmer hvor mange klienter de kan betjene.

 

Hvis du ser på Anandtech sin "The destroyer test" så er det simulering av vanlige, tunge oppgaver. Der synker sekvensiell les med 60%. For SSDer som Intel 600p derimot, så synker den 84%. Fra 1600 MB/s til 220 MB/s For å ikke snakke om latency spiksene.

 

For å si det slik, om det ikke er et problem for en power user, så er PCIe SSDer ubrukelige, da ingen trenger dem i så fall. Grunnen til at man har raske SSDer er jo for at ting skal gå kjapt, og at systemet skal klare å opprettholde høy hastighet selv ved tung bruk over lengre tid. Samtidig er det ikke så viktig at vi har slike SSDer som det er i servere.

 

For å si det slik. Når responstiden på SSD er oppe i 200-300 ms, tenkt deg da et spill. Det er få som aksepterer å spille med 200 ms ping. Så PCen blir mindre responsiv ved høy last. Men selvfølgelig hvis du skal bruke rask SSD må og resten av PCen være rask!

 

Og for å si det slik om alt var lagret i RAM ville PCer vært MYE raskere :)

Problemene du skisserer gjelder jo ikke for denne laptopen i "den vanlige verden", de "99%" vil aldri finne et bruksmønster hvor denne SSDen er en flaskehals - aldri. Du kan finne problemer med absolutt alt om du vil, men er det bestandig relevant?

 

Greit å hate Apple osv, men hallo i luken?

Lenke til kommentar

Foreløpig så merker jeg lite til batteriproblematikken. Har ikke fått brukt maskinen så alt for mye da jeg har byttet jobb og det har blitt travle dager. Ender nok med å bruke maskinen på jobb fremover så da får jeg hvertfall testet den litt mer.

 

Men til mitt bruk hjemme med 802.11ac WiFi, Blåtann APTX til hodetelefoner, Safari, TeamViewer, Plex Media Player og litt diverse og lysstyrke på ca 30% så ligger jeg stortsett på 8-timer pluss/minus som er bedre enn jeg hadde med MacBook 12-tommer og som vel er ca det samme som jeg lå på når jeg hadde MacBook Pro 15-tommer med retinaskjerm Late-2013 i sin tid.

 

Har da entry-modellen av MacBook Pro 13-tommer med Touch Bar.

 

 

EDIT:

 

Jeg kan ikke forstå annet enn at de som sliter så voldsomt med batteritiden enten har defekt batteri/battericeller eller at det må være en eller annen bug med programvare/API som gjør at maskinen ikke går i idle eller lignende som den skal. Det kan jo være en bug i macOS Sierra og en eller annen API som påvirker endel brukere, eventuell noe programvare de selv kjører som skaper konflikter/problemer med et eller annet.

Endret av RamGuy
Lenke til kommentar

Helt fantastisk at anmelder ikke nevner noe om den svært reduserte batteritiden (kun 2 timer ved tunge operasjoner) som er en reduksjon opp mot 50% av foregående modell selv tatt i betraktning at de nye komponentene i maskinen er mer energieffektive (med strømforbruket til touchbaren og den oppgraderte skjermen er vi egentlig godt i minus), alle buggene (eks. touchbar fryser, veldig hendig når ESC og andre sentrale knapper er på touchbaren, men dette kan dog løses av updates og blir helt sikkert det), at den store musoverflaten gjør at man ikke har et logisk sted å hvile håndflaten uten å dobbeltklikke, samt at touchbaren per i dag ikke gir noen vesentlige fordeler som ikke kan løses med hurtigtaster utenom den klare fordelen med fingeravtrykksleser.

 

Jeg har hatt de 3 siste modellene med MacBook Pro og skal jeg komme med min klare anbefaling er det å kjøpe den forrige modellen.

 

Før du skal velge hvilken MacBook Pro (eller Mac i det hele tatt) du skal kjøpe, bør du tenke på hva er det jeg egentlig skal bruke den til? Hvis de største kravene er batteritid, brukervennlighet og funksjonalitet, er min soleklare anbefaling å gå for den forrige modellen.

Lenke til kommentar

 

Problemene du skisserer gjelder jo ikke for denne laptopen i "den vanlige verden", de "99%" vil aldri finne et bruksmønster hvor denne SSDen er en flaskehals - aldri. Du kan finne problemer med absolutt alt om du vil, men er det bestandig relevant?

 

Greit å hate Apple osv, men hallo i luken?

 

???????

Du spurte meg spesifikt "Er dette virkelig et problem, selv for en "poweruser"?"  Så da var jeg åpenbart så dum å svare. Så jeg svarte ja, og skrev hvorfor. Så nå mener du jeg leter etter problemer, og hater Apple, fordi jeg svarte på spørsmålet ditt, og svaret var ikke et svar du likte åpenbart. Hvis du ikke vil at jeg skal si det er et problem for powerusere, ikke spør meg. Jeg kommer ikke til å lyge.

 

Du er klar over at filer flyttes fra SSD til RAM? Grunnen er at SSD er for treg. Så du må ALLTID vente på SSD når du aksesserer filer som ikke ligger i RAM. Så si at du åpner Chrome. Med HDD venter du totalt 1000 ms på data. Med SATA SDD venter du 300 ms, med PCI-e så venter du 50 ms. Så det å ha filer på SSD er en flaskehals i seg selv, men det er slik det er. Handler bare om å minske den.

 

Jeg sa heller ALDRI at Mac var dårlig. Jeg vet at hvis du skriver noe kritisk mot Apple produkter så kommer det folk og kaller deg Apple hater, så jeg skrev SPESIFIKT:

 

"Merk jeg sier ikke Mac er dårlig av den grunn, og det er kult at de lager egne kontrollere. Bare synes det er litt merkelig at i det prisområdet Mac ligger så har alle andre GeForce og Samsung SSDer."

https://www.diskusjon.no/index.php?showtopic=1750203&p=23612105

 

Så jeg finner ikke problemer, jeg påpekte at jeg synes det var merkelig. Og så spurte DU meg ut mer om det. Og så svarte jeg da på det. Siden jeg svarte derimot så er jeg åpenbart ute etter å finne problemer og hate Apple.

 

Hvis du ser på hva jeg skriver i SSD tråder anbefaler jeg Crucial MX300, som er en veldig billig SSD, og langt ifra beste SATA SSD engang. Og sier om du skal ha PCI-e SSD så bør du vite at du trenger det, ellers er det ikke vits i å kjøpe.

Endret av TKongen
Lenke til kommentar

Jeg tviler veldig på at Mac har mye dårligere batteritid enn før. Tallene Apple oppgir pleier alltid å stemme, og er normalt veldig gode estimater. Så om noen opplever merkbart dårligere batteritid er jeg enig i at det må være en feil. Det er ekstremt ulogisk at det skal være noe annet.

 

Selvfølgelig om du sammenligner 100% lysstyrke mot 100% så er batteritid dårligere. Sammenligner du 300 nits mot 300 nits derimot. Den KAN bruke mer strøm, men om du har tilsvarende det som var 100% lysstyrke på forrige modell ser jeg ingen grunn til at batteritid skal være nevneverdig forskjellig.

Lenke til kommentar

Jeg tviler veldig på at Mac har mye dårligere batteritid enn før. Tallene Apple oppgir pleier alltid å stemme, og er normalt veldig gode estimater. Så om noen opplever merkbart dårligere batteritid er jeg enig i at det må være en feil. Det er ekstremt ulogisk at det skal være noe annet.

 

Selvfølgelig om du sammenligner 100% lysstyrke mot 100% så er batteritid dårligere. Sammenligner du 300 nits mot 300 nits derimot. Den KAN bruke mer strøm, men om du har tilsvarende det som var 100% lysstyrke på forrige modell ser jeg ingen grunn til at batteritid skal være nevneverdig forskjellig.

 

Uten at jeg skal påstå at det ikke er noe galt med de maskinene som har vært kort levetid, så er det litt rart å si det er "ingen grunn" til at batteritiden skal være nevneverdig forskjellig når forrige versjon hadde 50% større batteri (13-tommer)

 

AtW

Lenke til kommentar

Jeg tviler veldig på at Mac har mye dårligere batteritid enn før. Tallene Apple oppgir pleier alltid å stemme, og er normalt veldig gode estimater. Så om noen opplever merkbart dårligere batteritid er jeg enig i at det må være en feil. Det er ekstremt ulogisk at det skal være noe annet.

 

Selvfølgelig om du sammenligner 100% lysstyrke mot 100% så er batteritid dårligere. Sammenligner du 300 nits mot 300 nits derimot. Den KAN bruke mer strøm, men om du har tilsvarende det som var 100% lysstyrke på forrige modell ser jeg ingen grunn til at batteritid skal være nevneverdig forskjellig.

Dine meninger, synsing og tanker rundt dette har vel akkurat null å si? Folk rapporterer at de har problemer, og om Apple har redusert batteriet kan det jo uten tvil være det. Uansett er noe tydeligvis galt! Om det er software eller hardware får vi snart vite. 

Lenke til kommentar

Jeg baserer utsagnet mitt på tallene til Apple. Apple sier batteritiden er lik, og jeg har aldri sett at tallene deres har vært feil. Så om noen rapporterer mye dårligere batteritid så synes jeg det er mye mer sannsynlig at det er en feil som kan fikses ved en oppdatering enn at maskinen har mindre når den fungerer som normalt.

 

Likevel så må jeg si at jeg ikke var klar over at batteriet var såpass mye mindre. Så du har rett i at det blir feil av meg å si "ingen grunn" AtW. Likevel er jeg fortsatt av den mening at jeg tror Apples tall stemmer og at de som rapporterer problemer vil få disse problemene fikset, og den vil ha normal batteritid igjen.

 

@Espp, hvis meningene mine har 0 å si, hvorfor svarer du meg da? Siden ingen vet hvorfor dette faktisk skjer, er ikke alt vi kan gjøre å spekulere og diskutere hva det er som er årsaken? Jeg sier bare jeg er av den formening at det sikkert er en SW bug som påvirker noen maskiner, som vil bli fikset i en update. Mulig du misforstod hva jeg mente?

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...