Gå til innhold

RYKTE: Ny AMD-arkitektur skal gå Intels Hyper-threading i næringen


Anbefalte innlegg

6 integer pipelines betyr derimot at opptil 6 matteoperasjoner fra samme thread kan utføres samtidig hvis de ikke har avhengigheter. Nytteverdien av dette vil være veldig begrenset uten en god prefetcher og OOO. Prefetcher er nok snart den mest kompliserte delen av en CPU, men det er også ekstremt viktig for å få god ytelse til typisk desktop-bruk. En kjerne uten OOO vil ikke duge til stort annet en tallknusing, og da er gjerne GPUer et bedre alternativ.

Ryktene jeg leste mente de skulle gå bort fra OOO og heller ivareta ytelsen med økte klokkehastigheter (default 6 GHz+ sto det) og ivareta energieffektiviteten med 4-trådet finkornet SMT. Jeg vet, ryktene må tas med mange klyper salt, men har du noen formening om "min" forklaring gir mening? Eller er det mest sannsynlig BS jeg har plukket opp?

Lenke til kommentar
Videoannonse
Annonse

Ryktene jeg leste mente de skulle gå bort fra OOO og heller ivareta ytelsen med økte klokkehastigheter (default 6 GHz+ sto det) og ivareta energieffektiviteten med 4-trådet finkornet SMT. Jeg vet, ryktene må tas med mange klyper salt, men har du noen formening om "min" forklaring gir mening? Eller er det mest sannsynlig BS jeg har plukket opp?

x86 er et veldig komplisert instrusjonsset sammenlignet med for eksempel ARM eller PPC, så at de fjerner OoO høres veldig rart ut, det er fult mulig at de gjør den veldig enkel, eller at de reduserer størrelsen på "OoO-vinduet". Intel har et "vindu" på 192 instruksjoner hvis jeg husker rett.

Et annet problem med x86 er at dekoderne er veldig kompliserte, og det går mye strøm med der.

 

Jeg er også skeptisk til om de kommer til å bruke 4-way SMT, det høres mye ut for en x86 pipeline. Intel bruker 4-way SMT på Xeon Phi (knights Ferry), men grunnen til dette er for å skjule latens på minnekontrolleren.

 

Uansett så er de figurene som er "lekket" ut fra Zen nå ikke detaljerte nok til at vi kan si så mye om arkitektur og ytelse.

  • Liker 2
Lenke til kommentar

 

 

 

Dette er CPUer, ikke GPUer. Det er veldig forskjellig. Eksempelet er jo ikke relevant. Veldig mange programmer bruker bare en kjerne, og mange bruker to. Det å utnytte 4 er sjeldent, mye brukt i spill. Over 4 kan du lage en liste over program som støtter det, er ikke veldig mye av det. Hvis du ser på tester så slår dual core i3 med HT FX 8350 i spilltester.

 

Du kan vel og forklare hvordan en Core-M med grunnfrekvens 0,8 Ghz kan oppnå like gode resultater som en i5-U i mange tester?

Grunnen er jo at den bruker Hyperboost, som bare booster en kjerne, opp til samme frekvens som i5-U kjører på.

 

Så hvis relevante programmer for deg er GTA 5, så har du rett. Hvis du har et mer normalt bruksmønster, så vil du nok finne ut at de fleste programmer bruker 1-2 kjerner. Single og dual-core ytelse er ekstremt viktig.

 

Du kan ikke generalisere slik. I de fleste spilltester vil en 8350 fortsatt være best, blant annet bortimot 10fps høyere i BF4.

 

 

Les teste http://www.techspot.com/review/943-best-value-desktop-cpu/page6.html

 

Jeg generaliserer ikke, på ingen måte. Jeg ville bare ikke ramse opp 100 spill i en post, derfor måtte jeg bruke eksempler. Leser og hver test av spill som kommer ut på Techspot. De har test av selve spillet, og senere kommer performance test som alltid inneholder CPU ytelse. i3 vinner alltid, men hvis du er interessert får du finne alle de testene selv.

 

Ellers for programmer: http://www.anandtech.com/show/9117/analyzing-intel-core-m-performance

Viser Core-M kan klare å matche i5 U i ytelse. i5-U er likevel klart anbefalt foran Core-M og er gjennomsnittlig klart raskere. Er bare for å vise at mange programmer er single core. Det er en kjerne som blir boostet i Core-M, med mindre de har gjort noe spesielt med teknologien sin for Core-M som ikke står på anadtech.

Lenke til kommentar

 

Hvis du ser på tester så slår dual core i3 med HT FX 8350 i spilltester.

 

Det må i såfall være gamle spill der bare en kjerne utnyttes. FX-serien yter svært bra i moderne spill som BF4 der alle kjernene får delta.

 

http://www.techspot.com/review/943-best-value-desktop-cpu/page5.html

 

FX slår i3 i spill som GTA 5 som bruker alle 8 kjerner. Det er svært unormalt, som betyr at i3 vinner de fleste tester. Kan godt være BF4 multiplayer utnytter FX bedre, men det testes ikke. Er singleplayer som testes, fordi det er likt hver gang. HVis du vet at du skal spille mye BF4 multiplayer, eller streame velg for all del FX. For så godt som alle andre spill derimot vinner i3.

Lenke til kommentar

 

 

Hvis du ser på tester så slår dual core i3 med HT FX 8350 i spilltester.

 

Det må i såfall være gamle spill der bare en kjerne utnyttes. FX-serien yter svært bra i moderne spill som BF4 der alle kjernene får delta.

 

http://www.techspot.com/review/943-best-value-desktop-cpu/page5.html

 

FX slår i3 i spill som GTA 5 som bruker alle 8 kjerner. Det er svært unormalt, som betyr at i3 vinner de fleste tester. Kan godt være BF4 multiplayer utnytter FX bedre, men det testes ikke. Er singleplayer som testes, fordi det er likt hver gang. HVis du vet at du skal spille mye BF4 multiplayer, eller streame velg for all del FX. For så godt som alle andre spill derimot vinner i3.

 

Jo du generaliserer, og sammenligner epler med bananer. 

 

Ved samme entrådet ytelse pr kjerne, vil en 8 kjerner somregel være raskere en enn dualcore. Virker som du prøver å trøste deg med at konfirmasjonspengene dine ikke rakk til mer enn en i3.

  • Liker 1
Lenke til kommentar

 

 

 

Hvis du ser på tester så slår dual core i3 med HT FX 8350 i spilltester.

 

Det må i såfall være gamle spill der bare en kjerne utnyttes. FX-serien yter svært bra i moderne spill som BF4 der alle kjernene får delta.

 

http://www.techspot.com/review/943-best-value-desktop-cpu/page5.html

 

FX slår i3 i spill som GTA 5 som bruker alle 8 kjerner. Det er svært unormalt, som betyr at i3 vinner de fleste tester. Kan godt være BF4 multiplayer utnytter FX bedre, men det testes ikke. Er singleplayer som testes, fordi det er likt hver gang. HVis du vet at du skal spille mye BF4 multiplayer, eller streame velg for all del FX. For så godt som alle andre spill derimot vinner i3.

 

Jo du generaliserer, og sammenligner epler med bananer. 

 

Ved samme entrådet ytelse pr kjerne, vil en 8 kjerner somregel være raskere en enn dualcore. Virker som du prøver å trøste deg med at konfirmasjonspengene dine ikke rakk til mer enn en i3.

 

 Hav er det jeg generaliserer? Testen viser kalrt at i3 gjør det bedre i mange spill. Hvis du vil se enda flere tester er det bare å søke dem opp, sånn som Battlefield 4 test: http://www.techspot.com/review/734-battlefield-4-benchmarks/page6.html

På 4GHz er den 1 fps raskere. Som sagt kan multiplayer sikkert gjøre en forskjell i dette spillet. Vil gjerne se en rekke tester du har som viser at FX er bedre da? Du bare slenger ut generalisering mot meg, mens jeg sitter her med bevisene.

 

Problemet med FX er at de ikke har singelcore ytelsen til i3. Den kompanserer med flere kjerner. i3 er dual core og bedre enn FX i selv quad core spill.

 

Lurer på hvem som virker som de er i konfirmasjonsalderen? Veldig saklig setning du kommer opp med. Hva jeg har har ingenting med ytelsene til det produktet å gjøre. I motsetning til deg har jeg beviser for mine påstander, mens du må synke ned til å kommentere hva jeg har eller ikke.

 

Prisforskjellen er dessuten på 500 kr, ikke akkurat en stor forskjell (selv om FX er 50% dyrere). Ellers har jeg en CPU som slår begge disse, jeg prøver ikke å forsvare min egen CPU her. Den vet jeg er bedre enn begge. Jeg bare sier at i3 nå har passert AMD for å illustrere hvor langt de faktisk ligger bak.

Lenke til kommentar

Selv om spill/programmer ikke drar nytte av mer enn 4, er det kjekt å ha flere. Bruksmønsteret mitt endret seg etter jeg fikk 8. Trodde ikke jeg hadde bruk for, men plutselig går det an å gjøre flere ting samtidig. Så om noe bare bruker 4, går jeg ikke i bios og skrur av resten :) De får andre ting å styre med.

Det finnes et knippe spill som bruker mer enn fire kjerner, men de fleste kjører bra på fire kjerner så lenge det er ikke er for mye annet som belaster samtidig.

 

Regelen for spille-CPU er som følger:

1) Ytelse per kjerne er hovedfaktoren, siden bare én kjerne jobber mot GPUen.

2) Ytelsen begrenses av all annen last som forstyrrer kjernen som jobber med GPUen.

Så for spilling trenger du en CPU som er raskest mulig per kjerne, men som har nok andre kjerner til å ta unna alt som ikke har med rendering å gjøre. Det burde ende all diskusjon om hvorvidt AMDs FX-CPUer er egnet til spilling.

 

Til en arbeidsmaskin er definitivt mange gode kjerner å foretrekke, og overgangen fra en sekskjerne fra Intel til en ussel firekjerne merkes godt. Som du sier er det lett å tilvenne seg en kraftigere maskin. Men selv om mange kjerner er nyttig, så er ikke AMDs Bulldozer-/Piledriver-kjerner gode nok til å utkonkurrere en firekjerne fra Intel.

 

Ryktene jeg leste mente de skulle gå bort fra OOO og heller ivareta ytelsen med økte klokkehastigheter (default 6 GHz+ sto det) og ivareta energieffektiviteten med 4-trådet finkornet SMT. Jeg vet, ryktene må tas med mange klyper salt, men har du noen formening om "min" forklaring gir mening? Eller er det mest sannsynlig BS jeg har plukket opp?

For det første er ikke produksjonsprosessen klar ennå. Så vidt jeg kan se er disse ryktene fra i fjor eller tidligere, på et tidspunkt som er alt for tidlig til at selv AMD kan vite om de kan kjøre CPUene på 6 GHz. Ryktet i seg selv må altså være ville spekulasjoner. Det må store forbedringer til for å kjøre på slike klokkefrekvenser, så jeg forblir skeptisk selv om jeg aldri skal utelukke det helt.

 

OoOE er en ekstremt viktig del av CPUenes utvikling. Det handler ikke bare om tilgjengelighet av data i cache(hvor misses kan koste hundrevis av klokkesykler), men også å fremskynde beregninger som er avgjørende for branching. Branch misprediction er noe av det mest kostbare en CPU sliter med og det kan være ekstremt med branching i uoptimalisert kode. F.eks. til spilling kan dette være et stort tap, mens f.eks. til videoenkoding kan den totale ytelsen opprettholdes med SMT. Til generell desktop-bruk vil ikke dette være et smart designvalg.

 

Som HKS er inne på har Haswell et instruksjonsvindu på 192 instruksjoner, Sandy-Bridge 168 og Nehalem 128. Dette er én av faktorene som bidrar til litt høyere ytelse for Haswell (per klokk) enn Sandy-Bridge. 192 instruksjoner høres kanskje mye ut, men det er snakk om mikroinstruksjoner(ikke x86-instruksjoner), så det er ikke mange kodelinjene. AMD må dra noe veldig nytt opp av hatten dersom de skal kutte ut OoOe og komme bra ut i forhold til Intel.

  • Liker 1
Lenke til kommentar

OoOE er en ekstremt viktig del av CPUenes utvikling. Det handler ikke bare om tilgjengelighet av data i cache(hvor misses kan koste hundrevis av klokkesykler), men også å fremskynde beregninger som er avgjørende for branching. Branch misprediction er noe av det mest kostbare en CPU sliter med og det kan være ekstremt med branching i uoptimalisert kode. F.eks. til spilling kan dette være et stort tap, mens f.eks. til videoenkoding kan den totale ytelsen opprettholdes med SMT. Til generell desktop-bruk vil ikke dette være et smart designvalg.

 

Som HKS er inne på har Haswell et instruksjonsvindu på 192 instruksjoner, Sandy-Bridge 168 og Nehalem 128. Dette er én av faktorene som bidrar til litt høyere ytelse for Haswell (per klokk) enn Sandy-Bridge. 192 instruksjoner høres kanskje mye ut, men det er snakk om mikroinstruksjoner(ikke x86-instruksjoner), så det er ikke mange kodelinjene. AMD må dra noe veldig nytt opp av hatten dersom de skal kutte ut OoOe og komme bra ut i forhold til Intel.

Det du nevner med mikroinstruksjoner er faktisk veldig viktig. x86 er et veldig komplisert instruksjonsset, og det ville vært veldig ineffektivt å designe en CPU for dette. X86 instruksjonene blir derfor oversatt til prosessorens interne språk, kjent som mikrofonen. På Haswell har Intel fire dekodere, tre som er enkle, og dekoder 1 mikrooperasjon per klokke og en komplisert dekoder som kan dekode fire mikrooperasjoner per klokke. Dette puttes videre inn i en dekodingskø som har plass til 56 mikrooperasjone. denne køen er koblet både til en cache for mikrooperasjoner (for å unngå å dekode mye brukt kode flere ganger) som igjen snakker med branch predictor.

 

I denne køen for mikrooperasjoner gjør prosessoren optimeringer. Du har bland annet mikrooperasjon-fusion som prøver å kombinere instruksjoner. Etter det er ferdig optimert pushes det inn i OoE Scheduler som gjør som efikkan har beskrevet i posten over. Denne delen av CPU kalles front-end, og det er her det bortimot umulig å ta igjen Intels erfaring og forsprang. Her er det flere år med erfaringer, forskning og millioner av ingeniør-timer. Front-end er også perfeksjonert over mange CPU generasjoner.

  • Liker 1
Lenke til kommentar

Det finnes et knippe spill som bruker mer enn fire kjerner, men de fleste kjører bra på fire kjerner så lenge det er ikke er for mye annet som belaster samtidig.

 

Regelen for spille-CPU er som følger:

1) Ytelse per kjerne er hovedfaktoren, siden bare én kjerne jobber mot GPUen.

2) Ytelsen begrenses av all annen last som forstyrrer kjernen som jobber med GPUen.

Så for spilling trenger du en CPU som er raskest mulig per kjerne, men som har nok andre kjerner til å ta unna alt som ikke har med rendering å gjøre. Det burde ende all diskusjon om hvorvidt AMDs FX-CPUer er egnet til spilling.

 

Til en arbeidsmaskin er definitivt mange gode kjerner å foretrekke, og overgangen fra en sekskjerne fra Intel til en ussel firekjerne merkes godt. Som du sier er det lett å tilvenne seg en kraftigere maskin. Men selv om mange kjerner er nyttig, så er ikke AMDs Bulldozer-/Piledriver-kjerner gode nok til å utkonkurrere en firekjerne fra Intel.

 

 

Utrolig mye gnål når det gjelder FX og spill , sannheten er at selv om ytelsen er lavere så er det absolutt ikke katastrofalt dårligere så lenge man sikter på mid - end ytelse. En typisk forskjell mellom den beste Intel Cpu'en og FX 8350 er på omtrent 10 til 15Fps i mange spill og det mener jeg personlig ikke er så katastrofalt dårlig når du får 40-50fps på en FX 8350 og et 280 skjermkort.

 

Så fult mulig å spille spill med FX , men ikke forvent å ha den aller beste ytelsen.

  • Liker 1
Lenke til kommentar

Og du sier selvfølgelig ikke dette fordi du tilfeldigvis eier en 8350?

 

Personlig erfaring teller altså ikke?

Poenget mitt er at jeg kan spille det meste glatt uten at den 10 til 15fps forskjellen (eller mer avhengig av oppsett) merkes i det hele tatt og at FX'ene på ingen måte er ubrukelige til å spille med.

Men ja, ytelsemessig er de underlegne Intel og dette er ikke noe jeg engang betviler , men situasjonen er ikke "SÅ" ille som man kan tro utifra det som sies , min personlige erfaring er at jeg per dags dato kun har hatt trøbbel med 1 spill og det var pga Cool n Quiet som ga meg langt lavere ytelse med dette påslått en av.

Endret av Malvado
  • Liker 1
Lenke til kommentar

Dette blir for usaklig. Spørsmålet som har vært seriøst diskutert er ikke om en FX-CPU kan brukes til spilling, men om den får god nytte av sine kjerner til spilling. "Unnskyldningen" som går igjen her og en rekke andre steder er at FX-CPUer skal få det bedre når "spill utnytter flere kjerner bedre", som om det var spillutvikleres feil at de var for dårlig til å optimalisere for flere kjerner.

 

Hverken Direct3D (12) eller OpenGL støtter at flere kjerner kommuniserer med GPUen samtidig, og det er heller ikke slik kommunikasjonen foregår. Selv om det kunne vært teoretisk mulig å få til (ref. CUDA) så har det begrenset nytteverdi til spill. Det er uansett store begrensninger i GPUens evne til å motta kommandoer. Mange CPU-kjerner som sender køer med operasjoner for samme rendering hadde ikke hatt noen hensikt uansett.

  • Liker 1
Lenke til kommentar

Dette blir for usaklig. Spørsmålet som har vært seriøst diskutert er ikke om en FX-CPU kan brukes til spilling, men om den får god nytte av sine kjerner til spilling. "Unnskyldningen" som går igjen her og en rekke andre steder er at FX-CPUer skal få det bedre når "spill utnytter flere kjerner bedre", som om det var spillutvikleres feil at de var for dårlig til å optimalisere for flere kjerner.

 

Hverken Direct3D (12) eller OpenGL støtter at flere kjerner kommuniserer med GPUen samtidig, og det er heller ikke slik kommunikasjonen foregår. Selv om det kunne vært teoretisk mulig å få til (ref. CUDA) så har det begrenset nytteverdi til spill. Det er uansett store begrensninger i GPUens evne til å motta kommandoer. Mange CPU-kjerner som sender køer med operasjoner for samme rendering hadde ikke hatt noen hensikt uansett.

 

Hva er det egentlig du mener er usakelig?

Å komme med den personlige erfaringen jeg har om at Cpu'en og Gpu'en yter greit nok for min del og at selv om den ikke greier å oppnå like mye ytelse som en god Intel Cpu så er den aldeles ikke ubrukelig? 

Er det det at jeg ikke er med og sier at Cpu'en  er ubrukelig til spilling som man nesten kan tro utifra postene til de som stadig vekk påpeker svakhetene til cpu'en som er det som er usakelig?

 

Nå er ikke FX serien til Amd cpu'er som per dags dato jeg vil anbefale til noen som skal kjøpe seg en ny pc , men for oss som allerede sitter på en så gjør de jobben sin helt ok selv om det er soleklart at en bedre cpu vil yte langt bedre.

 

De nyere cpu'ene til Amd kan trolig rette på mange av de feilene som Bulldozer Arkitekturen har , om det ikke skjer så vil trolig Amd forsvinne ut av markedet om de ikke allerede har det før 2016/17.

  • Liker 1
Lenke til kommentar

Det er liten grunn til å tro noe hardt på AMD de kommende årene. I bestefall lowrange og HTPC segmentet kan de hevde seg, siden de har ekskludert seg selv fra å selge dyre produkter. De er pretty much sluttkjørt sånn som jeg ser det og dette kommer av feil valg og utvikling i en årrekke, ikke noe som nettopp har begynt.

Lenke til kommentar

Det er liten grunn til å tro noe hardt på AMD de kommende årene. I bestefall lowrange og HTPC segmentet kan de hevde seg, siden de har ekskludert seg selv fra å selge dyre produkter. De er pretty much sluttkjørt sånn som jeg ser det og dette kommer av feil valg og utvikling i en årrekke, ikke noe som nettopp har begynt.

 

Litt naivt å komme med denne påstanden, når vi ikke vet hva fremtiden bringer! Selv om bulldozer feilet, så tror du at ZEN vil feile? Vi for heller vente på se, istedet for å være så negativ som deg hele tiden.

  • Liker 1
Lenke til kommentar

Sjansen for at de kommer med noe enormt comeback nå er hva? 1 promille?

Etter nesten 10 år som en betydelig dårligere leverandør har pengebingen krympet kraftig.

Jeg er ikke særlig negativ, bare realistisk. Og jeg har eid flere AMD cpu-er enn Intel bare så det er sagt.

Det er bare det at det pusher ikke markedet fremover om du kjøper det dårligste produktet bare for å støtte den produsenten.

Kjøp alltid det beste så vil det pushe markedet mye mer i utvikling.

Lenke til kommentar
Det er bare det at det pusher ikke markedet fremover om du kjøper det dårligste produktet bare for å støtte den produsenten.

Kjøp alltid det beste så vil det pushe markedet mye mer i utvikling.

Enig i at det er veldig lite sannsynlig AMD tar tronen fra i7 Extreme-serien i overskuelig fremtid, men de kan potensielt gi ok konkurranse i lavere prissjikt. Det trengs.

 

På den andre siden er jeg ikke helt enig i at å kjøpe det beste bestandig pusher markedet mest. Nå som Intel har en nær monopol situasjon på CPU så har de veldig lite incentiv til å utvikle noe voldsomt. De kan ta seg en pust i bakken, redusere R&D budsjettene og trenger ikke stresse for å holde tidsplaner. Se for eksempel på hvor tregt det har gått fremover for i5 og i7-seriene. Ørsmå endringer i spesifikasjoner på 4 år og Broadwell ser ikke ut til å endre på det.Hadde dette vært 15 år siden når AMD og Intel kriget som verst hadde ytelsen blitt ca 5 ganger bedre på 4 år, den gang representert av hovedsaklig økte klokkefrekvenser. I dag kunne det vært mer en kombinasjon av klokkefrekvenser, flere kjerner, mer cache, minnestacking osv.

Lenke til kommentar

 

Det er liten grunn til å tro noe hardt på AMD de kommende årene. I bestefall lowrange og HTPC segmentet kan de hevde seg, siden de har ekskludert seg selv fra å selge dyre produkter. De er pretty much sluttkjørt sånn som jeg ser det og dette kommer av feil valg og utvikling i en årrekke, ikke noe som nettopp har begynt.

Litt naivt å komme med denne påstanden, når vi ikke vet hva fremtiden bringer! Selv om bulldozer feilet, så tror du at ZEN vil feile? Vi for heller vente på se, istedet for å være så negativ som deg hele tiden.

 

Det som er naivt er å tro at AMD kan klare å ta igjen ~8 års forsprang fra Intel over natten når vi så langt har ingenting som tyder på det. Det blir i samme kategori som å tro at du kan tjene penger på tipping, for du kan vinne, ikke sant?

 

Kjøp alltid det beste så vil det pushe markedet mye mer i utvikling.

Riktig, hvis folk slutter å kjøpe underlegne produkter så vil produsenten presses til å lage noe bedre. Vi bidrar ikke til reell konkurranse ved å kjøpe underlegne produkter i sympati.

Lenke til kommentar

 

 

 

 

 

AMD kan virkelig trenge en suksess nå, så jeg håper den klarer å levere.

Jeg håper virkelig det, Intel trenger virkelig konkurranse. Det har ikke akkurat skjedd så mye nytt og virkelig interessant på CPU fronten siden Sandy Bridge.

 

Jo det har det. Du har bare ikke fulgt med.

 

Forøvrig kan man ta slike rykter med et båtlass salt. AMD klarer nok ikke levere varene denne gangen heller. Mid og high-end tror jeg de er sluttkjørt.

Er og litt usikker hvordan en HT teknologi skal gi dem en sjangse. AMD er jo kjent for å ha mange kjerner allerede, derfor har de ikke trengt slik teknologi. Usikker på hvordan AMD plutselig skal knuse i enkjernes ytelse.

Hva er ponget med enkjerners ytelse dersom alle relevante programmer kan unytte flere tråder og kjerner?

Per kernel/kjerne er AMD sine GPUer bedre enn Nvidia sine. Men Nvidia gjør det bedre enn AMD.

 

 

Dette er CPUer, ikke GPUer. Det er veldig forskjellig. Eksempelet er jo ikke relevant. Veldig mange programmer bruker bare en kjerne, og mange bruker to. Det å utnytte 4 er sjeldent, mye brukt i spill. Over 4 kan du lage en liste over program som støtter det, er ikke veldig mye av det. Hvis du ser på tester så slår dual core i3 med HT FX 8350 i spilltester.

 

Du kan vel og forklare hvordan en Core-M med grunnfrekvens 0,8 Ghz kan oppnå like gode resultater som en i5-U i mange tester?

Grunnen er jo at den bruker Hyperboost, som bare booster en kjerne, opp til samme frekvens som i5-U kjører på.

 

Så hvis relevante programmer for deg er GTA 5, så har du rett. Hvis du har et mer normalt bruksmønster, så vil du nok finne ut at de fleste programmer bruker 1-2 kjerner. Single og dual-core ytelse er ekstremt viktig.

 

 

 

Dersom du er en gjennomsnittsforbruker merker du liten forskjell på moderne CPUer uansett. Dersom en CPU oppleves som treg, kjører du ett tyngre program som sannsynligvis kan utnytte (eller burde utnytte) flere kjerner.

Alternativt kjører du veldig mange programmer, og da går det raskere med flere kjerner da også.

 

Ting går forsåvidt fremover også. Det er ikke veldig vanskelig å legge til støtte for flere kjerner i moderne programmeringsspråk, når de fleste maskiner også har flere kjerner enn tidligere er det lite grunn til ikke å gjøre det.

Lenke til kommentar

 

Kjøp alltid det beste så vil det pushe markedet mye mer i utvikling.

Riktig, hvis folk slutter å kjøpe underlegne produkter så vil produsenten presses til å lage noe bedre. Vi bidrar ikke til reell konkurranse ved å kjøpe underlegne produkter i sympati.

 

 

Denne tommelfingerregelen går vel strengt tatt ut vinduet når vi snakker om det som nå i nesten alle henseender er et monopol i High-end segmentet. Jeg tror nesten heller Intel ville fått fingeren ut om folk sluttet å kjøpe deres beste cpu'er (Ikke at det kommer til å skje selvfølgelig). Men da fordi kundene på sett og vis forteller dem at det vi har er "godt nok", vil dere ha oss til å kjøpe nytt og bedre må det være en reell og betydelig ytelses-økning.

 

Det er ny grunn som brytes nå. Med AMD så og si ute av spill på CPU siden må Intel trå forsiktig i forhold til konkurransetilsynet i USA. Nå som vi har fasiten ser vi at dette var "too little, too late". Og FTC må utvilsomt være klar over det.

 

Jeg tror heller ikke AMD kan trekke noen joker ut av ermet på det nåværende tidspunkt. Og etter eget utsagn har de ikke en gang tenkt å prøve. De går vel nå for å konkurrere mot i5, men gjør jo ikke akkurat en veldig god jobb med det en gang. Ikke klarer de heller å konkurrere på pris. Det er nesten så man venter at dem skal trekke frem effektbruken som et pluss: "Spar penger på å slippe å kjøpe panelovn!". :p

  • Liker 1
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...