Simen1 Skrevet 2. november 2011 Rapporter Del Skrevet 2. november 2011 Men hvis vi skulle ta en prissammenlignen mellom core i5 2500k mot Opteron 6174 og vi skulle si at begge skulle gi lik ytelse/pris/effektforbruk? Jeg skjønner ikke hvorfor du sammenligner desktop prosessorer med serverprosessorer i helt andre prisklasser, optimert for helt andre typer belastning og sokler enn det vi finner på desktop. (Personlig skulle jeg gjerne hatt en arbeidsstasjon med 2-4 billige Opteron 6128 så fremt det fantes overklokkbare hovedkort, men det gjør det ikke) Muligens det er spillene som er laget for 1024*768 oppløsing er det slik at prosessoren blir mest belastet, fordi det er nok basert på Intel skjermkort tar en del av prosessoren. Det blir litt som å teste hvordan en Lamborghini yter på en teflonbelagt vei i vakuum. Totalt irrelevant for brukerne. Prosessorene bør testes i sitt rette element, så nært normalt bruksmønster som mulig for å gi best mulig inntrykk av hvordan de yter nettopp i normale bruksmønster for normale brukere. Statistisk er det veldig mange som spiller med oppløsninger i størrelseorden 1600x900 til 1920x1200 så de burde konsentrere seg om å teste det. En annen ting er at ingen med vettet i behold kjøper en slik prosessor for å kjøre det sammen med et 5 år gammelt skjermkort, eller quad SLI GTX 580. Pris og alder på skjermkortet bør stå i stil til prosessoren. Gjerne 2-3 forskjellige skjermkort litt over og under prisklassen til prosessoren. Skjermoppløsningen bør også stå i stil til realistiske forhold. CPU 2000 kr + GPU 1000 kr 1600x900, 1920x1080 CPU 2000 kr + GPU 2000 kr 1600x900, 1920x1080 og 2560x1440 CPU 2000 kr + GPU 3000 kr ________, 1920x1080 og 2560x1440 1 Lenke til kommentar
MiRaCL Skrevet 2. november 2011 Rapporter Del Skrevet 2. november 2011 Synd at AMD må kline til med en 8 kjerne cpu for å konkurere med en 4 kjerne cpu.. Godt å se at min W3520(920) yter såpass bra enda Lenke til kommentar
big_glasses Skrevet 2. november 2011 Rapporter Del Skrevet 2. november 2011 Noen som vet hvordan FX 8159 yter i Blender eller i andre render program? Eller som kan linke meg til en test med ytelsen i rendering Lenke til kommentar
BAT Skrevet 2. november 2011 Rapporter Del Skrevet 2. november 2011 Tom's Hardware Dette er testet stock Lenke til kommentar
Mixy Skrevet 2. november 2011 Rapporter Del Skrevet 2. november 2011 Dette var en skuffelse ja, jeg skjønner godt hva tofagerl mener. Dette er AMDs toppmodell, og i flere av testene klarer ikke denne 8-kjerners prosessoren å hamle opp med intels snart 3 år gamle 4-kjerner, i7-920. Den bruker i tillegg skremmende mye strøm som er et klart steg i gal retning. Lenke til kommentar
blackbrrd Skrevet 2. november 2011 Rapporter Del Skrevet 2. november 2011 Men hvis vi skulle ta en prissammenlignen mellom core i5 2500k mot Opteron 6174 og vi skulle si at begge skulle gi lik ytelse/pris/effektforbruk? Jeg skjønner ikke hvorfor du sammenligner desktop prosessorer med serverprosessorer i helt andre prisklasser, optimert for helt andre typer belastning og sokler enn det vi finner på desktop. (Personlig skulle jeg gjerne hatt en arbeidsstasjon med 2-4 billige Opteron 6128 så fremt det fantes overklokkbare hovedkort, men det gjør det ikke) Muligens det er spillene som er laget for 1024*768 oppløsing er det slik at prosessoren blir mest belastet, fordi det er nok basert på Intel skjermkort tar en del av prosessoren. Det blir litt som å teste hvordan en Lamborghini yter på en teflonbelagt vei i vakuum. Totalt irrelevant for brukerne. Prosessorene bør testes i sitt rette element, så nært normalt bruksmønster som mulig for å gi best mulig inntrykk av hvordan de yter nettopp i normale bruksmønster for normale brukere. Statistisk er det veldig mange som spiller med oppløsninger i størrelseorden 1600x900 til 1920x1200 så de burde konsentrere seg om å teste det. En annen ting er at ingen med vettet i behold kjøper en slik prosessor for å kjøre det sammen med et 5 år gammelt skjermkort, eller quad SLI GTX 580. Pris og alder på skjermkortet bør stå i stil til prosessoren. Gjerne 2-3 forskjellige skjermkort litt over og under prisklassen til prosessoren. Skjermoppløsningen bør også stå i stil til realistiske forhold. CPU 2000 kr + GPU 1000 kr 1600x900, 1920x1080 CPU 2000 kr + GPU 2000 kr 1600x900, 1920x1080 og 2560x1440 CPU 2000 kr + GPU 3000 kr ________, 1920x1080 og 2560x1440 Det du fort vil se når du gjør testene som du har beskrevet her er at mange prosessorer ser prikk like ut i f.eks 1920x1080 med samme skjermkort. Da burde man vel bare kunne velge den billigste? Logikken ovenfor feiler på det punkt at prosessoren er den delen i PC-en man gjerne bytter sist. Da er det greit å kunne finne den RÅ CPU-ytelsen for å kjøpe den som yter best i forhold til pris, sånn at når spillene om f.eks 2 år er mer CPU-krevende enn spillene i dag, så trenger du kun å bytte GPU. CPU-ytelse er forsåvidt blitt mindre og mindre viktig i spill, det er skjermkortet som betyr mest. Mao, man kommer veldig langt med f.eks 2500k til ca 1500kr. (Det er fortsatt overkill). AMD sin nyeste generasjon hadde jeg ikke kjøpt pga dårlig ytelse i forhold til pengene og strømforbruk (med tilhørende kjøleproblemer og støy). Lenke til kommentar
Kimm0n0 Skrevet 2. november 2011 Rapporter Del Skrevet 2. november 2011 Disse prosessorene er knall i servere og er kjempefine i arbeidsstasjon. Eneste store minuset er strømforbruket. Men AMD har en veldig bra teknologi som bare kommer til å bli bedre og bedre når de utvikler videre på den... Lenke til kommentar
hobgoblin Skrevet 2. november 2011 Rapporter Del Skrevet 2. november 2011 Tror forskjellen vi ser her er at Intel tenker tradisjonelt, mens AMD prøver å gå nye veier. Om jeg forstår tanken bak korrekt, så har AMD en ide om at flytt-tall skal gjøres på GPU. Men dette vil kreve OS og slikt som er klar over tanken, eller programmer som er spesifikk laget med det som mål. På en måte har ting snudd 180 siden AMD lanserte en 64-bit utvidelse av X86, mens Intel prøvde å lage en ren 64-bit arkitektur. Nå er det AMD som hopper ut på dypet og håper dem vinner på det, mens Intel prøver å få mest mulig trykk ut av eksisterende kode. Lenke til kommentar
Karamell2 Skrevet 2. november 2011 Rapporter Del Skrevet 2. november 2011 Litt merkelig å teste med Asus Crosshair V Formula, når ryktene har gått i snart en måned om umodne bios og halvkompatible hovedkort. (Gigabyte/Asus). Og Just Cause/BC2 er litt gammalt. Lenke til kommentar
-alias- Skrevet 2. november 2011 Rapporter Del Skrevet 2. november 2011 (endret) CPU-ytelse er forsåvidt blitt mindre og mindre viktig i spill, det er skjermkortet som betyr mest. Mao, man kommer veldig langt med f.eks 2500k til ca 1500kr. (Det er fortsatt overkill). Slik jeg ser det tar du generelt feil samtidig som du isolert sett har rett. Det er vel vanskelig å utnytte et moderne skjermkort med en CPU som er en eller 2 generasjoner eldre enn skjermkortet. Dermed har nok Simen1 rett i sin oppstilling. Siste versjon skjermkort krever siste versjon CPU for å få ut sitt potensiale på en effektiv måte, enkelt sagt. Endret 2. november 2011 av -alias- Lenke til kommentar
LMH1 Skrevet 2. november 2011 Rapporter Del Skrevet 2. november 2011 Dermed har nok Simen1 rett i sin oppstilling. Siste versjon skjermkort krever siste versjon CPU for å få ut sitt potensiale på en effektiv måte, enkelt sagt. Nå er det vel CPU sin oppgave, og gi oppgave til skjermkortet, ram for å laste spillet. Er nok slik at prosessoren gjør lite av jobben hvis skjermkortet klarer oppgaven. Er det noen som gi litt detaljer hva prosessoren faktisk gjør i spill, kanskje den pakker ut data til ram eller noe slikt? Lenke til kommentar
Simen1 Skrevet 2. november 2011 Rapporter Del Skrevet 2. november 2011 Det du fort vil se når du gjør testene som du har beskrevet her er at mange prosessorer ser prikk like ut i f.eks 1920x1080 med samme skjermkort. Da burde man vel bare kunne velge den billigste? Ja! (Seriøst, jeg mener det) Logikken ovenfor feiler på det punkt at prosessoren er den delen i PC-en man gjerne bytter sist. Da er det greit å kunne finne den RÅ CPU-ytelsen for å kjøpe den som yter best i forhold til pris, sånn at når spillene om f.eks 2 år er mer CPU-krevende enn spillene i dag, så trenger du kun å bytte GPU. Det man bytter sjeldnest er vel skjerm, høyttalersett, PSU, kabinett og deretter hovedkort. Sats gjerne på to prosessorer og to skjermkort i levetiden til ett hovedkort, hvis man skal henge godt med i svingene på de nyeste spillene hele tiden. Hvis det blir for tett og dyrt så går man gjerne for ny prosessor, hovedkort og skjermkort samtidig f.eks med 2-3 års mellomrom. Kjøp PC for å spille spillene som er på markedet nå, ikke for spillene som er forventet å komme i framtida. Man vet ingenting om hvilken maskinvare de vil kreve for å kjøre godt. Legger man f.eks noen hundrelapper ekstra i prosessoren for å være "framtidssikker" så er det slett ikke sikkert at det vil være nok til det nye spillet. Eventuelt kan den rimeligere prosessoren vise seg å være mer enn nok. Det er alt for mye usikkerhet rundt "framtidssikring" av PCer. Kjøp noe for nåtiden og oppgrader bare hvis det er nødvendig når nye spill lanseres. Ny prosessor og nytt skjermkort kan påregnes i levetiden til et hovedkort, men ikke kjøp før du har lest ytelsetester og vet om du faktisk trenger det i det nye spillet. Tror forskjellen vi ser her er at Intel tenker tradisjonelt, mens AMD prøver å gå nye veier. Om jeg forstår tanken bak korrekt, så har AMD en ide om at flytt-tall skal gjøres på GPU. Men dette vil kreve OS og slikt som er klar over tanken, eller programmer som er spesifikk laget med det som mål. Jepp, det er en litt dristig strategi. Jeg håper det går bra fordi kjøring av kritiske og ytelsekrevende ting på GPU kan gi enorme ytelseøkninger, sammenlignet med å forbedre prosessorene. Foreløbig leder Nvidia på GPGPU, men AMD kommer med nytt design på nyåret (Radeon HD 7900-serien) som bytter ut VLIW4 med CGN, som skal være mye mer GPGPU-vennlige kjerner. Håper den strategien fungerer bra, for heltallsdelen av bulldozer (Integer) er slett ikke så verst. Den delte FPU-delen trekker ned totalinntrykket. På en måte har ting snudd 180 siden AMD lanserte en 64-bit utvidelse av X86, mens Intel prøvde å lage en ren 64-bit arkitektur. Nå er det AMD som hopper ut på dypet og håper dem vinner på det, mens Intel prøver å få mest mulig trykk ut av eksisterende kode. Intels rene 64bit arkitektur (Itanium) har veldig lite med desktop å gjøre. Intels 64bit påbygning av x86 er minst like mye lappverk som AMDs. Husk at AMD var først ute med 64 bit og prosessorene ga svært konkurransedyktig ytelse og pris til spillere og entusiaster i sin tid. Det tok lang tid før Intel klarte å mekke sammen noe 64bit lappverk på sin Pentium 4 og ytelsen i 64 bit var ennå dårligere enn i 32 bit. Det var først med Core 2 Duo de fikk 64 bit lappverket til å yte bra. Netburst egnet seg rett og slett ikke. Core 2 Duo arvet faktisk mindre fra Pentium 4 enn fra Pentium 3. Pentium 4 ble et blindspor. Core 2 Duo ble som kjent en suksess, men først og fremst på grunn av 32 bit ytelsen, selv om 64 bit også ga god ytelse. Det var først et par år etter Core 2 Duo at 4 GB ram og 64 bit OS begynte å bli vanlig. Lenke til kommentar
hobgoblin Skrevet 2. november 2011 Rapporter Del Skrevet 2. november 2011 På en måte har ting snudd 180 siden AMD lanserte en 64-bit utvidelse av X86, mens Intel prøvde å lage en ren 64-bit arkitektur. Nå er det AMD som hopper ut på dypet og håper dem vinner på det, mens Intel prøver å få mest mulig trykk ut av eksisterende kode. Intels rene 64bit arkitektur (Itanium) har veldig lite med desktop å gjøre. Intels 64bit påbygning av x86 er minst like mye lappverk som AMDs. Husk at AMD var først ute med 64 bit og prosessorene ga svært konkurransedyktig ytelse og pris til spillere og entusiaster i sin tid. Det tok lang tid før Intel klarte å mekke sammen noe 64bit lappverk på sin Pentium 4 og ytelsen i 64 bit var ennå dårligere enn i 32 bit. Det var først med Core 2 Duo de fikk 64 bit lappverket til å yte bra. Netburst egnet seg rett og slett ikke. Core 2 Duo arvet faktisk mindre fra Pentium 4 enn fra Pentium 3. Pentium 4 ble et blindspor. Core 2 Duo ble som kjent en suksess, men først og fremst på grunn av 32 bit ytelsen, selv om 64 bit også ga god ytelse. Det var først et par år etter Core 2 Duo at 4 GB ram og 64 bit OS begynte å bli vanlig. 1. Om jeg husker rett så endte Intel opp med å lisensiere 64-bit instruksutvidelsen fra AMD. Og selv om Itanium ikke var rettet mot desktop i første omgang så var det vel ett sterkt hint fra Intel at det var veien fremover for alle deres produkter, helt til AMD slapp kombo-cpuene og en fikk muligheten til å kjøpe inn 32-bit nå og oppdatere til 64 via en reinstallasjon av os nærmest. 2. tror deler av halehenget på 64-bit desktop var pga Windows. XP-64 og XP-32 gikk ikke helt sammen om jeg husker rett. og Vista er ett kapitel for seg. Virker som det først med Win7 at ett Windows OS som kan håndtere både 32 og 64 på en installasjon er på plass, og som brukerne er villige til å omfavne. Lenke til kommentar
Simen1 Skrevet 2. november 2011 Rapporter Del Skrevet 2. november 2011 (endret) Ja, Windows har hengt litt etter på x86-64. XP 64 bit var et glimrende OS i seg selv, men mangelen på drivere gjorde det trøblete for mange. Det skal forsåvidt ikke Microsoft ha skylden for. Det var driverprodusentenes skyld. Mulig jeg misforstå deg litt på rekkefølge, men slik var det omtrent: 2001: Intel Itanium ren 64 bit, ikke x86, kun high end server 2003: AMD med x86-64 utvidelse (32 og 64 bit om hverandre) 2004: Intel koiperer AMDs x86-64 utvidelse (32 og 64 bit om hverandre) med elendig 64 bit ytelse 2006: Intel lanserer Core 2-serien med ytelsefiks for AMDs x86-64 utvidelse (32 og 64 bit om hverandre) 2009: Microsoft lanserer Windows 7 og gjør x86-64 bit utgavene standard hos OEM. Det gjør at bruken av x86-64 utvidelsene stiger drastisk. Dette sammenfaller med at 4 GB ram begynner å bli vanlig. Intel Itanium med sin rene IA64 arkitektur har levd sitt eget liv helt på siden av dette. Det har fortsatt ingenting med desktop å gjøre. Endret 2. november 2011 av Simen1 Lenke til kommentar
blackbrrd Skrevet 2. november 2011 Rapporter Del Skrevet 2. november 2011 (endret) 1. Om jeg husker rett så endte Intel opp med å lisensiere 64-bit instruksutvidelsen fra AMD. AMD og Intel gjorde en deal for mange år siden hvor de kan bruke hverandres x86-patenter uten å måtte betale for det. Det er en grunn til at det er SSE-støtte på AMD prosessorer osv. Endret 2. november 2011 av blackbrrd Lenke til kommentar
CustomTP Skrevet 2. november 2011 Rapporter Del Skrevet 2. november 2011 10-20w?! Hadde det enda vært så lite... En folderigg med kombinasjonen i7 2600K klokket til 4.6GHz & P8Z68-V PRO trekker 180 Watt fra veggen med 100% load. Med Buldozer i riggen vil den trekke 440 Watt, som er en økning på 260 Watt Hehe.. Så at det ikke var snakk om 10-20w, men heller 250-300w. Men igjen hvorfor er dette et tema? Er det fordi noen er så bevisst på miljøet og forbruket, eller er det fordi det er en merknad på hvordan psu man velger ved kjøp av ny pc eller oppgradering? Ikke at jeg skal starte en diskusjon ang dette, men er litt nysgjerrig på hvorfor dette er negativt på en test. Lenke til kommentar
blackbrrd Skrevet 2. november 2011 Rapporter Del Skrevet 2. november 2011 10-20w?! Hadde det enda vært så lite... En folderigg med kombinasjonen i7 2600K klokket til 4.6GHz & P8Z68-V PRO trekker 180 Watt fra veggen med 100% load. Med Buldozer i riggen vil den trekke 440 Watt, som er en økning på 260 Watt Hehe.. Så at det ikke var snakk om 10-20w, men heller 250-300w. Men igjen hvorfor er dette et tema? Er det fordi noen er så bevisst på miljøet og forbruket, eller er det fordi det er en merknad på hvordan psu man velger ved kjøp av ny pc eller oppgradering? Ikke at jeg skal starte en diskusjon ang dette, men er litt nysgjerrig på hvorfor dette er negativt på en test. Strømforbruk, varme, avkjøling og støy er stikkordene. Økt strømforbruk - krever dyrere PSU og gir mer varm Mer varme - krever bedre avkjøling (dyrere) Bedre avkjøling gir gjerne mer støy (større vifter, må kjøre fortere) 1 Lenke til kommentar
Simen1 Skrevet 2. november 2011 Rapporter Del Skrevet 2. november 2011 For min del er viftestøyen hovedproblemet. Hvis jeg må ha ny PSU så kan det også være en kjøps-stopper. Om prosessoren holder 40 eller 80 grader bryr jeg meg katta i bare den går stabilt. Lenke til kommentar
efikkan Skrevet 2. november 2011 Rapporter Del Skrevet 2. november 2011 Så i prinsippet kunne man hatt 2 stk Phenom II X6 prosessorer så ville de gitt langt bedre ytelse? Nå har Opteron 6174 langt lavere effektforbruk. Til typisk server-bruk ja, til det meste av skrivebordsbruk er det totalt bortkastet. Har bare en liten morsom bemerkning angående CPU tester i spill. (Gjelder alle sider jeg har sett) Intel er overlegent best på 1024*768 og dårligere oppløsning. Hvem bruker slike oppløsninger? Er de mer relevante for forbrukerene enn f.eks en brødskive med ost? Neppe.... Hadde vært greiere med flere oppløsninger og settings som er relevante og kanskje 2 forskjellige skjermkort. Ved slike oppløsninger blir CPU en stor begrensning, men det er totalt irrelevant siden ingen i sin rette forstand spiller på denne oppløsningen med slik maskinvare. Det man bytter sjeldnest er vel skjerm, høyttalersett, PSU, kabinett og deretter hovedkort. Sats gjerne på to prosessorer og to skjermkort i levetiden til ett hovedkort, hvis man skal henge godt med i svingene på de nyeste spillene hele tiden. Hvis det blir for tett og dyrt så går man gjerne for ny prosessor, hovedkort og skjermkort samtidig f.eks med 2-3 års mellomrom. Kjøp PC for å spille spillene som er på markedet nå, ikke for spillene som er forventet å komme i framtida. Man vet ingenting om hvilken maskinvare de vil kreve for å kjøre godt. Legger man f.eks noen hundrelapper ekstra i prosessoren for å være "framtidssikker" så er det slett ikke sikkert at det vil være nok til det nye spillet. Eventuelt kan den rimeligere prosessoren vise seg å være mer enn nok. Det er alt for mye usikkerhet rundt "framtidssikring" av PCer. Kjøp noe for nåtiden og oppgrader bare hvis det er nødvendig når nye spill lanseres. Ny prosessor og nytt skjermkort kan påregnes i levetiden til et hovedkort, men ikke kjøp før du har lest ytelsetester og vet om du faktisk trenger det i det nye spillet. Til spillbruk så har det relativt lite for seg å bytte CPU, spesielt siden sokler endrer seg. De siste 4+ årene har CPU-utviklingen stått relativt stille mens skjermkortene har utviklet seg veldig raskt, samtidig har spill blitt mindre og mindre avhengige av CPU. Så min anbefaling er å kjøpe en CPU kraftig nok til hele levetiden av maskinen (litt kraftigere enn "behovet" i dag), men samtidig legge pengene i skjermkort. Men det er et veldig godt prinsipp å kjøpe maskinvare etter dagens behov, for det er tross alt mye billigere å kjøpe et nytt relativt kraftig skjermkort om to år fremfor å kjøpe et superkort nå som skal holde til da. Tror forskjellen vi ser her er at Intel tenker tradisjonelt, mens AMD prøver å gå nye veier. Om jeg forstår tanken bak korrekt, så har AMD en ide om at flytt-tall skal gjøres på GPU. Men dette vil kreve OS og slikt som er klar over tanken, eller programmer som er spesifikk laget med det som mål. Jepp, det er en litt dristig strategi. Jeg håper det går bra fordi kjøring av kritiske og ytelsekrevende ting på GPU kan gi enorme ytelseøkninger, sammenlignet med å forbedre prosessorene. Foreløbig leder Nvidia på GPGPU, men AMD kommer med nytt design på nyåret (Radeon HD 7900-serien) som bytter ut VLIW4 med CGN, som skal være mye mer GPGPU-vennlige kjerner. Håper den strategien fungerer bra, for heltallsdelen av bulldozer (Integer) er slett ikke så verst. Den delte FPU-delen trekker ned totalinntrykket. Dere er inne på noe, flyttallsdelen av CPUen utgjør en veldig stor del og "koster" mye, så det er logisk å redusere antall flyttalsenheter. Det bemerkningsverdige er at hver "kjerne" hos AMD fremdeles tar større plass enn hos Intel, så noen dårlige designvalg har de gjort der. Jeg ser frem til en god analyse av pipeline for å se om Bulldozer sine moduler har en liten svakhet i designet ved deling av fpu eller om hele implementasjonen er dårlig. Jeg synest uansett det er en dårlig tendens at pipeline ser ut til å bli lenger. Uansett blir det feil strategi å skalere med flere kjerner for skrivebordet. Jeg er mest bekymret for utviklingen videre, den står praktisk talt stille i dag. ARM vil ikke gi reell konkurranse i dette segmentet før om 4-5++ år, og vil dessuten ha de samme problemene når klokkefrekvensene blir høye. Det er på tide at både Intel og AMD tenker nytt i form av hvordan en pipeline implementeres, jeg kunne sett for meg en CPU som gjorde mer threading direkte og alt av større beregninger på SIMD. (men det er ønsketenkning fra min side) Lenke til kommentar
sannheten_666 Skrevet 2. november 2011 Rapporter Del Skrevet 2. november 2011 (endret) Det blir litt som å teste hvordan en Lamborghini yter på en teflonbelagt vei i vakuum. Totalt irrelevant for brukerne. Prosessorene bør testes i sitt rette element, så nært normalt bruksmønster som mulig for å gi best mulig inntrykk av hvordan de yter nettopp i normale bruksmønster for normale brukere. Statistisk er det veldig mange som spiller med oppløsninger i størrelseorden 1600x900 til 1920x1200 så de burde konsentrere seg om å teste det. En annen ting er at ingen med vettet i behold kjøper en slik prosessor for å kjøre det sammen med et 5 år gammelt skjermkort, eller quad SLI GTX 580. Pris og alder på skjermkortet bør stå i stil til prosessoren. Gjerne 2-3 forskjellige skjermkort litt over og under prisklassen til prosessoren. Skjermoppløsningen bør også stå i stil til realistiske forhold. CPU 2000 kr + GPU 1000 kr 1600x900, 1920x1080 CPU 2000 kr + GPU 2000 kr 1600x900, 1920x1080 og 2560x1440 CPU 2000 kr + GPU 3000 kr ________, 1920x1080 og 2560x1440 Eksempel: cpuA gir 20 fps flere enn cpuB i lav oppløsning, mens den gir 5 - 0 fps mer i høy oppløsning. Prisen er lik for begge cpu`ene. Man kan argumentere fram og tilbake om at spilleren ikke kommer til å bruke de lave oppløsningene osv, men det er allikevel to store innvendinger: Produsenten som har produsert den beste CPU`en får ikke uttelling for det, og for de fleste gamere går det to skjermkort pr. CPU. Med et skjermkort som er tilnærmet dobbelt så raskt som det gamle, så vil valget som tidligere virket ubetydelig, plutselig ha stor betydning. Jeg har sett du har argumentert flere ganger for å teste i høy oppløsninger, men skulle gjerne hatt en konkret grunn til hvorfor det er bedre. Hva kan tester i høy oppløsning gi av informasjon som ikke tester i lav oppløsning kan? Endret 2. november 2011 av hardrock_ram Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå