Gå til innhold

Se så mye bedre den nye bærbargrafikken er


Anbefalte innlegg

Videoannonse
Annonse

Multicome sine laptoper har ofte veldig kjipe CPU'er mens Alienware kan leveres med de "heftigste" CPU'ene...siden vi ikke vet noe om spesifikasjonene til de andre laptopene testet her, så sier ikke testen meg så mye. Det som er MEST interesant på de nye grafikkbrikkene er hvor mye WATT de trekker på maks ytelse da f.eks Alienware med 4940XM og 880M SLi ligger helt på kanten på hva en 330W adapter kan levere til.

Lenke til kommentar

Må si jeg er litt enig her, går vel ut i fra det er denne det snakkes om:

 

 

Skulle gjerne sett en test på:

 

Multicom Kunshan P651S 15.6" QFHD3840x2160, Intel Core i7-4710HQ, 8GB, 240GB SSD + 1TB 7200rpm, GeForce GTX 970M 3GB, Uten operativsystem, 25mm tynn

 

Desverre er nok GPU litt i underkant for 4k gaming. Så kanskje hardware.no kan gi demostrasjon av 4k og spilling, der man man si "se så mye bedre den nye bærbargrafikken er i 4k".

Lenke til kommentar

 

 

Også i spilltestene våre, Hitman Absolution og Metro 2033, ser vi at 980M-brikken går til topps. Den formelig akterutseiler konkurransen i Metro 2033, mens i Hitman-spillet er ledelsen noe mer edruelig.

 

Enten er teksten her feil ellers er grafene. Såvidt jeg ser vinner Alienware 18 Metro 2033 testen med god margin i 1920x1080. Det samme gjelder i Hitman der Multicom Xishan vinner testen i 1080p.

Lenke til kommentar

 

 

Også i spilltestene våre, Hitman Absolution og Metro 2033, ser vi at 980M-brikken går til topps. Den formelig akterutseiler konkurransen i Metro 2033, mens i Hitman-spillet er ledelsen noe mer edruelig.

Enten er teksten her feil ellers er grafene. Såvidt jeg ser vinner Alienware 18 Metro 2033 testen med god margin i 1920x1080. Det samme gjelder i Hitman der Multicom Xishan vinner testen i 1080p.

Takk for påpekningen. Her ble teksten feil, grafene er riktige.

Lenke til kommentar

Spørsmålet mitt da blir om vi også skal slippe den elendige løsningen på bærbare med Nvidia og Intel grafikk integrert. Elendige drivere, spesielt i Linux, dårligere ytelse siden også Nvidia grafikken blir kanalisert gjennom Intel chipen, og vi sparer omtrent ikke batteri. Uansett, Nvidia klarer vel å regulere GPU bruken, og dermed også strømforbruk, i forhold til ha som skjer på skjermen selv ?

Lenke til kommentar

Et lite ønske: kunne dere lagt inn navn på de mobile grafikkortene i grafene istedenfor/i tillegg til pc-navnet. Ser at det står hvilke pcer har hvilke gpu i teksten, men det gjør det tungvingt hvis man skal lese raskt igjennom artikkelen (måtte lese teksten, så til grafen, så til teksten osv)

  • Liker 1
Lenke til kommentar

Spørsmålet mitt da blir om vi også skal slippe den elendige løsningen på bærbare med Nvidia og Intel grafikk integrert. Elendige drivere, spesielt i Linux, dårligere ytelse siden også Nvidia grafikken blir kanalisert gjennom Intel chipen, og vi sparer omtrent ikke batteri. Uansett, Nvidia klarer vel å regulere GPU bruken, og dermed også strømforbruk, i forhold til ha som skjer på skjermen selv ?

Kjenner ikke til strømtrekket hvor den ligge i dvale, mens Intel-løsningen opererer, men en fullskala GTX 980 trekker usle 8W ved normal Idle-situasjon. Jeg ville nok tro at deres bærbare versjoner trakk enda litt mindre, pga litt deaktivert kjerne og muligens noe mer effektiv strømlevering.

 

Du kunne kanskje spart et par watt ved å la kortet gå helt i dvale (hvor mye er helt ukjent), men totalt sett så er det nok ikke store greiene vi snakker om.

 

Hvis vi f.eks estimerer 5-6W Idle-bruk fra en slik brikke, og Intel sin bare har f.eks 2-3W Idle-bruk, og nvidia-kortet kan gå 100 % i dvale (0W), så blir forskjellen 3W spart. Med et batteri på 77 Wh, så vil dette tilsvare 3,9 % kortere batterilevetid. Alle monner drar, og er nok lett verdt å kunne velge dette, om man har trøbbel med løsningen.

 

(det er ikke mulig å velge i BIOS hva du skal bruke fast?)

Endret av Andrull
Lenke til kommentar

 

 

 

Også i spilltestene våre, Hitman Absolution og Metro 2033, ser vi at 980M-brikken går til topps. Den formelig akterutseiler konkurransen i Metro 2033, mens i Hitman-spillet er ledelsen noe mer edruelig.

Enten er teksten her feil ellers er grafene. Såvidt jeg ser vinner Alienware 18 Metro 2033 testen med god margin i 1920x1080. Det samme gjelder i Hitman der Multicom Xishan vinner testen i 1080p.

Takk for påpekningen. Her ble teksten feil, grafene er riktige.

 

Teksten er fortsatt feil!

GTX980M vinner ingen av de nevnte testene i 1080p!

Det er vel ingen som kjøper en gamingbærbar for @ kjøre i 768p vel?

Lenke til kommentar

Kan ikke se noe feil i teksten.

 

 

Også i spilltestene våre, Hitman Absolution og Metro 2033, ser vi at 980M-brikken gjør det bra. Den formelig akterutseiler konkurransen i Hitman Absolution, mens i Metro-spillet er ledelsen noe mer diskutabel.

 

Noe som stemmer med grafene. Det sies at 980m brikken er langt kraftigere enn konkurransen, som stemmer korrekt 980m er langt kraftigere enn 780m elelr de andre. Og siden Alienware-maskinen ikke har noen, så går det ikke ann å si noe om ytelsen der er høyere.

At metro-ledelsen er diskutabel er også helt korrekt å skrive. Det er diskutabelt, og alle med øyne som kan lese av en graf skjønner hva det gjelder.

Lenke til kommentar

En test som viser spill-grafikk 24/7 i døgnet til ting går adundas er vel lite realistisk scenario, samtidig som det er lite givende og tar lang tid. Men om hw.no tar seg råd til et svindyrt termisk kamera (tviler sterkt på at det skjer med det første), så kunne de sett hvordan temperaturen fordeler seg rundt i komponentene rundt.

Et billig alternativ er en liten laserpunkt-måler (IR), og så måle de viktigste stedene, som nærliggende kondensatorer, GPU, PCB rundt og MOSFETs til CPU og GPU, samt de vanlige stedene som hvor varmt det er ved håndledd og under bla. Dette kan da gjøres ett et par timer med "spilling" (bare å sette noen benchmarks på repeat)

Lenke til kommentar

En test som viser spill-grafikk 24/7 i døgnet til ting går adundas er vel lite realistisk scenario, samtidig som det er lite givende og tar lang tid.

 

Mulig jeg har litt andre forventninger enn de som kjøper seg spill-bærbar. Men det kan godt hende det holder med en 8-timers hard grafikk-tortur-test og se hvordan det påvirker maskinen. Det er IKKE et urealistisk scenario i det hele tatt :)

Langtids tortur-test kan imidlertid avdekke svakheter i kvalitet som man ellers ikke vil merke før det har gått et par måneder. Det blir en balansegang. Hvor mye ressurser kan man bruke på en test.

 

 

Et billig alternativ er en liten laserpunkt-måler (IR), og så måle de viktigste stedene, som nærliggende kondensatorer, GPU, PCB rundt og MOSFETs til CPU og GPU, samt de vanlige stedene som hvor varmt det er ved håndledd og under bla. Dette kan da gjøres ett et par timer med "spilling" (bare å sette noen benchmarks på repeat)

 

Høres ut som en lur løsning. Intelligent bruk av riktig teknologi er nok en smart vei å gå :)

 

 

Edit: Samtidig bør man også teste mekanisk kvalitet på vifter, støvansamling over tid etc. Kjøleløsningen kan fort blir mye dårligere etter noen måneder i bruk. Holdbarhet på kjølepasta etc. Det er mye som inngår i byggekvalitet.

Endret av Visjoner
Lenke til kommentar

 

 

Mulig jeg har litt andre forventninger enn de som kjøper seg spill-bærbar. Men det kan godt hende det holder med en 8-timers hard grafikk-tortur-test og se hvordan det påvirker maskinen. Det er IKKE et urealistisk scenario i det hele tatt :)

8 timer er helt innenfor ja. :)

 

Men lengre torturtester (altså over flere dager, uker i ett strekk) er nok noe urealistisk. Joda, man kan kanskje fremprovosere noe, men så må man huske på at det også kan fremprovosere problemer som aldri ville skjedd hvis man bare hadde f.eks 8-timers-økter. Men igjen, det får bli en vurdering og smakssak.

 

At det er interessant å vite er jeg helt helt enig i. For om PC X klarer å holde koken dobbelt så lenge som PC Y, så vil det kunne si litt om kvaliteten. Selv om det ikke nødvendigvis hadde hatt betydning i et realistisk scenario. Problemet er nok fortsatt at slik testing fort kan ta tid, LANG tid.

 

Ta f.eks brukeren War. Han bytter jo ut skjermkort på reklamasjon på daglig basis (bokstavelig talt). Fordi de ikke takler den kontinuerlige bruker over tid, men tipper nok han fort må vente en stund med en belastning som nok overgår hva et spill eller benchmark klarer å hente ut av GPUen.

Lenke til kommentar

Kan ikke se noe feil i teksten.

 

 

 

Også i spilltestene våre, Hitman Absolution og Metro 2033, ser vi at 980M-brikken gjør det bra. Den formelig akterutseiler konkurransen i Hitman Absolution, mens i Metro-spillet er ledelsen noe mer diskutabel.

 

Noe som stemmer med grafene. Det sies at 980m brikken er langt kraftigere enn konkurransen, som stemmer korrekt 980m er langt kraftigere enn 780m elelr de andre. Og siden Alienware-maskinen ikke har noen, så går det ikke ann å si noe om ytelsen der er høyere.

 

At metro-ledelsen er diskutabel er også helt korrekt å skrive. Det er diskutabelt, og alle med øyne som kan lese av en graf skjønner hva det gjelder.

 

"Den formelig akterutseiler konkurransen i Hitman Absolution, .."

 

Skurrer litt med at den ikke er raskest i 1080p testen.

 

Helt enig at 980M er en god brikke, både på ytelse og strømforbruk, det forandrer ikke at den ikke er raskest i 1080p i Hitman i testen det viser til.

Lenke til kommentar

Hmm... Du har rett i at det 860m brikken av en eller annen grunn gjør det så mye bedre enn alle de andre i 1080p på hitman, tross mye svakere. Det skal jo egentlig ikke være mulig, så her ligger det nok noe under. :hmm:

 

Når svakeste plutselig drar fra alle i en slik test så synes jeg HW.no bør revurdere testen eller prosedyrerene når dette er gjort. Slik det er nå, så kan man nesten tro at W230s er raskere i noen tester og dårligere i andre. Selv om jeg ser på den eldre testen av maskinen, så gjorde den det plutselig mye bedre enn andre kraftigere løsninger her.

 

Så her er nok ikke problemet tekst, men enten graf eller hele testen.

Endret av Andrull
Lenke til kommentar

 

Men lengre torturtester (altså over flere dager, uker i ett strekk) er nok noe urealistisk. Joda, man kan kanskje fremprovosere noe, men så må man huske på at det også kan fremprovosere problemer som aldri ville skjedd hvis man bare hadde f.eks 8-timers-økter. Men igjen, det får bli en vurdering og smakssak.

 

 

Jeg tror testing over "urealistisk" lange økter og økt stress er en vanlig måte å emulere langtids-holdbarhet, ihvertfall finnes det metoder for å emulere "aksellerert tid" for å si noe om langtidsholdbarhet. Det er en veldig relevant test for såkalte "spill-bærbare" som ofte knekker totalt sammen ved moderat spilling over lengre perioder, altså ikke bare interessant å vite, men helt nødvendig for å kunne si noe som helst vettugt om kvaliteten på maskinen man velger å "anbefale" ;)

Lenke til kommentar

Stress test er viktig etter mi meining.

Har erfaring med bærbar som ikkje var laga for lang tid med speling. Hadde ein Dell XPS M1710 som vart bytta grafikkort(Go 7950 GTX) i heile fire gonger før eg ba om ny maskin eller pengane tilbake. Enda opp med ein Alienware M17x R2 som erstatning.

Gav beskjed til Dell heilt i starten at temperatur på grafikkortet var for høg. Men fekk berre beskjed om at det var normalt...

Endret av Gazer75
  • Liker 2
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...