Gå til innhold

Nye Intel-brikker kan gi opp til 50 prosent raskere Windows-respons


Anbefalte innlegg

Videoannonse
Annonse

 

 

Om Readyboost. Har aldri sett den helt store gevinsten av det på en Win7 PC. Selv om jeg har dedikert en Kingston SSD til formålet, så synes jeg ikke det gjør noen gigantisk forskjell.

Du har en dedikert ssd til readyboost?

Virkelig?

 

 

Ja, det er på en rævgammel PC (Core2Duo, og gamle Win7 som OS).

 

Det er en rimelige eldre Kingston SSD kjøpt fra Clas Ohlsson. Men, JA på en SSD. Merker nesten ingen forskjell. SSD'en er 40 Gigabyte, så det er derfor jeg har giddet eksperimentere med det. Men, jeg synes ikke ReadyBoost er til å bli klok på. Den er partisjonert i 2 partisjoner. Og siden minnepenner på den tiden ikke var særlig større enn 8/16 Gigabyte, så syntes jeg at 8 Gigabyte Readyboost partisjon på den 40 Gig SSD'en burde være rikeslig, og det burde jo også være hurtigere enn en fra en minnepenn.

 

Ellers er resten av samme SSD partisjonert med en 20 Gig partisjon for "Pagefile" (les: Swap-fil)

Når Windows er laget for å drive med så mye forskjellig swap'ing, så forventer en at det er laget skikkelig. Det synes jeg da altså at det ikke er.

 

PC'en føles ikke merkbart bedre med eller uten disse 8 Gig ReadyBoost SSD partisjonen slått på.

 

 

Kjører du Windows 7 fra en SSD og bruker en annen SSD som readyboost?

Lenke til kommentar

Som jeg skrev i et av innleggene før. Kanskje jeg hadde redigert inn det som tilleggsinfo litt i etterkant da. Så kjører jeg:

 

C-disk  på snurredisk 2,5" 7200 rpm WD Black (var en HGST før kloning av aldringshensyn), utprøving gjort på HGST-disken når den var sprellfersk.

 

Swap C-disk på SSD 20 Gig partisjon

ReadyBoost på samme SSD 8 Gig partisjon

 

Kan jo hende partisjonene er for store for at Windows skal ta glede av dem. Uansett så synes jeg det likevel blir et designmessig bomskudd for Microsoft, å ikke finne på å benytte uutnyttet plass til litt diskgymnastikk som hever brukeropplevelsen på en eller annen måte.

 

Synes det rett og slett er en alt for tam holdning og at det vitner om lite fantasi-/genimodus fra selskapet MS.

 

8 Gig RAM på denne øh.. "Riggen"  :wee:

 

Brukeren skal jo bare nyte opplevelsen. Så skal ingeniørene legge til rette for best mulig nytelse. Dersom jeg som bruker legger til rette noen snasne SSD'er til Swap og til ReadyBoost, så bør Windowzen være såpass elastisk at den utnytter ting bra. Jeg skal bare plugge disker inn, dedikere de til Windowz, så bør Windowz ordne opp resten synes jeg.

 

Skal jeg som bruker belære Microsoft ?!!

 

For meg kan de pokker gjøre hva de vil. Bare de finner på noe fint slik at vi brukere kan nyte opplevelsen. For eksempel så kunne Windows målt og sett at så så mange Gigabyte ikke er i bruk særlig ofte. Så kunne den lastet det meste som lot seg laste, laste inn i en RAM-disk som mellomlagret kopier til SSD for trygghetens skyld. Alt bør skje automagisk.

Endret av G
Lenke til kommentar

RAM er hurtigere enn SSD. Og når man snakker om eldgamle Intel CPU'er som fremdeles holder ganske bra mål til mye forskjellig bruk, med unntak av blytunge spilltitler..

 

 

Edit:

*Bump* (om du ikke fikk med deg dette):

 

 

Skal jeg som bruker belære Microsoft ?!!

 

For meg kan de pokker gjøre hva de vil. Bare de finner på noe fint slik at vi brukere kan nyte opplevelsen. For eksempel så kunne Windows målt og sett at så så mange Gigabyte ikke er i bruk særlig ofte. Så kunne den lastet det meste som lot seg laste, laste inn i en RAM-disk som mellomlagret kopier til SSD for trygghetens skyld. Alt bør skje automagisk.

Endret av G
Lenke til kommentar

Jeg skjønner ikke hvordan dette skal gi såpass ytelsesøkning når det å faktisk skru av speed step knapt vises på benchmarks. (Altså full guffe hele tiden)

Spørs hva du gjør. I burst workloads har den svært mye å si. Se på Webxrt testene f.eks. Til Core-M f.eks er denne teknologien veldig god. Det har ganske mye å si om du laster inn nettsider på 2,4 Ghz kontra 800 Mhz.

 

Selvfølgelig, du kunne kjørt CPUen på maks frekvens hele tiden, men er jo kipt for strømforbruket. Også for ytelsen. Maksfrekvens funker bare for godt kjølte desktop CPUer.

 

Epic fail (click) bait

 

Hvem har strømsparing på uansett?  :rofl:

Dette har ingenting med strømsparingmodus å gjøre. Hvis du ikke setter manuell klokkefrekvens vil selv en desktop i5/i7 ha nytte av dette. Ikke mye, men litt. Så dette er ikke noe click bait, bortsett fra tallet de oppgir. 50% er å gå litt langt.

 

Det finnes andre folk i verden, enn dere som er vannkjølte overklokkede desktop CPUer. Eller "bærbare" som veier 5kg og har 2 timer batteritid. Denne teknologien er spesielt god for Skylake-Y og Skylake-U. Hvis det ikke er tydelig allerede er det der Intel bruker pengene, og forbedringene kommer for tiden. Ikke til desktop i7 CPUer. Hvis du skal ha noe kraftig CPU er det jo bare å droppe LGA 1151 og 1150.

  • Liker 3
Lenke til kommentar

"It does lead to some pretty big gains in task completion, if the workloads are bursty and short enough for it to make a difference. It can't increase the absolute performance of the processor, but it can get it to maximum performance in a much shorter amount of time, as well as get it back down to idle quicker. Intel is billing it as improved responsiveness, and it's pretty clear that they have achieved that." - Brett Howse, AnandTech

 

Hvorfor skal vi sitte å synse når andre vet?

 

Og skal man diskutere effekten av Speed Shift må man nesten sette seg inn i hva teknologien gjør først.

 

http://anandtech.com/show/9751/examining-intel-skylake-speed-shift-more-responsive-processors

Lenke til kommentar

 

Det er jo bare et simpelt eksperiment, uten mål og mening. Synes det er litt artig jeg å kjøre Windows i skammekroken for fancy funksjonalitet som ikke stiller opp for hva de har lovet.

 

Microsoft burde skrive Windows på ny synes jeg, og gjøre minnehåndtering bedre. Sikkert alltid bittelitt å vinne på å skrive koden fra bunnen av framfor å spare på "200 år gammelt slagg" fra Windows-generasjon til generasjon.

 

C-bokstav disken til Win7 kjører selvfølgelig på snurredisk. Synes det har sin sjarm jeg. Så det er tilleggsinfo, utover at jeg kjører C-diskens swap-fil på SSD.  :wee:

Samt den "harry ReadyBoost" finessen også der.

 

Artig med eksperimenter.

Readyboost har ikke mye for seg, men i visse tilfeller kunne det hjelpe på. 

Om C disk er meget treg (les. 5400rpm eller mindre) og du har lite ram (les. 1-2GB) vil readyboost kunne gi deg økt ytelse etter at du har trent den opp med de oppgavene du gjør ofte. Men for din pc, med 8 GB ram og 7200 rpm vil du neppe kunne merke noe forskjell. Muligens på oppstart av (store) programmer du starter ofte, men stort sett ikke noe annet.

 

Når det gjelder å skrive om Windows på nytt så tror jeg nok du mangler litt innsikt i hva det innebærer.

Lenke til kommentar

Man vet aldri når man trenger max ytelse, men man vet godt når man trenger at det er mer batteri igjen i PCen :p

(regner med det du skrev her var sarkasme, men jeg skriver dette for å poengtere poenget med teknologien)

 

Målet er jo at du virtuelt skal ha max klokkefrekvens alltid når det trengs. Uten at det skal gå utover batteriet. 

 

Og jeg skal love deg en ting, i laptoper vil du IKKE ha maks frekvens til enhver tid. Det er oppskriften på dårlig ytelse. Laptoper har en varmebegrensning, beskrevet som TDP (nei, det er ikke hvor mye strøm CPUen bruker hvis noen lurte). Dynamisk klokkefrekvens er jo det som lar CPUen overstige dette tallet. Bruke mer strøm enn den burde, mer enn den klarer. Fordi du gjør det i et intervall. Maks klokkefrekvens på en Core-M vil jo si 800 Mhz f.eks. Sett den i en ytelsestest med en kald Core M. Bruk f.eks Webxrt som benchmark, som responderer svært godt med denne teknologien. Det skal ikke mye til å forstå at den Core-Men med maks klokkefrekvens hadde blitt knust.

 

Uansett hva AMD kommer med, så kommer de ikke til å ha en sjangse mot Intel i laptop-markedet. På dette tidspunktet har Intel alt for mange funksjoner for å gjøre CPUene dynamiske. Skrur av ekstremt mye under lite bruk, og klokker ekstremt mye opp, og raskt opp når det trengs.

 

Skylake bringer jo og enda høyere turbofrekvenser for alle kjernene enn forgjengeren. Som videre øker effekten av dette. Det å bestemme ytelsen til en Intel CPU blir bare vanskeligere og vanskeligere, da enkle benchmarks ikke dekker hvordan den faktisk oppfører seg i mange tilfeller. Folk sier jo at Core-M er utrolig svak. I realiteten så har den mange likheter med i5-5300U, noe som prisen også viser. Det er langt ifra en Atom eller Pentium CPU med nytt navn og litt høyere turbo akkurat. Så folk dømmer Core-M til å være svak og dårlig. Hvis du gjør slik som anandtech har gjort og tester i Dota 2 så har du helt rett, men i WebXRT er den på samme nivå som en i5-5300U plutselig. Hva er nærmest vanlig bruk for en Core-M PC? Spoiler: Det er ikke DOTA 2.

 

Ytelsen kommer altså veldig an på bruk, og teknologier som dette, avhengig av bruk kan hjelpe godt på responsiviteten til PCen. Akkurat som at du booter fra en Intel NVMe SSD.

 

Hvis du ser på anandtech sitt review av 5X så kan den faktisk bli slått av nexus 5 i ytelse. De to A57 kjernene underklokker mye etter kun to minutter, og slås av etter 12 min. Over alt annet er det nok varme som vil ha mest å si for ytelsen på de fleste enheter fremover. Da er bruken av turbo frekvenser noe du MÅ være god på for å levere et bra produkt. En utrolig viktig ting med frekvenser er jo nettopp å raskt kunne bytte mellom dem, for å være så effektiv som mulig. Det er derfor denne teknologien er viktig.

  • Liker 1
Lenke til kommentar

 

 

Det er jo bare et simpelt eksperiment, uten mål og mening. Synes det er litt artig jeg å kjøre Windows i skammekroken for fancy funksjonalitet som ikke stiller opp for hva de har lovet.

 

Microsoft burde skrive Windows på ny synes jeg, og gjøre minnehåndtering bedre. Sikkert alltid bittelitt å vinne på å skrive koden fra bunnen av framfor å spare på "200 år gammelt slagg" fra Windows-generasjon til generasjon.

 

C-bokstav disken til Win7 kjører selvfølgelig på snurredisk. Synes det har sin sjarm jeg. Så det er tilleggsinfo, utover at jeg kjører C-diskens swap-fil på SSD.  :wee:

Samt den "harry ReadyBoost" finessen også der.

 

Artig med eksperimenter.

Readyboost har ikke mye for seg, men i visse tilfeller kunne det hjelpe på. 

Om C disk er meget treg (les. 5400rpm eller mindre) og du har lite ram (les. 1-2GB) vil readyboost kunne gi deg økt ytelse etter at du har trent den opp med de oppgavene du gjør ofte. Men for din pc, med 8 GB ram og 7200 rpm vil du neppe kunne merke noe forskjell. Muligens på oppstart av (store) programmer du starter ofte, men stort sett ikke noe annet.

 

Når det gjelder å skrive om Windows på nytt så tror jeg nok du mangler litt innsikt i hva det innebærer.

 

 

 

Jo, jeg har en ganske grei forståelse for at slikt er "banebrytende" og irriterende for brukermassene. En gang så bør de vel optimalisere framfor å bare prakke dårlig kode på bedre og bedre CPU'er.

 

Den beste eksekverbare koden får man vel om ting er CPU optimalisert, siden ingen CPU-modell er lik en annen, så må en slik tilnærming føre til å måtte kompilere for hver programvareinnstallasjon. Det er likevel gjort noen grep for å slippe å måtte gjøre dette litt på bekostning av ytelse. I Linux-verdenen så var det ihvertfall slik før, at mye ble kompilert for den hardware som du hadde å kjøre Linux med.

 

Det går også an å dypdykke ned på maskinkodenivå, og få ting enda mer optimalisert. Men, da kan du ikke bruke koden så lett om igjen på en annen CPU eksempelvis. Også er det svært tidkrevende å kode på den måten, så det blir unngått om man kan slippe unna med det. Jeg er ikke programmerer, så det skorter litt på kunnskapen.

 

Også når man først er på høynivåkode, så møter man andre utfordringer. Man har gått i fra en 16-bits til 32-bits, og nå over på 64-bits arkitektur.

 

Det gjør at CPU'ene kan regne med betydelig større tall, eller hvordan man skal si dette.

 

Også har man liknende oppdeling på filsystemet, som setter begrensninger for hvor store harddisker du kan benytte.

 

De fleste har sikkert over flere år fått med seg at å være bakoverkompatibel gjør at man må drasse på mye gammel drittkode, som fint kunne vært parkert om brukerne ble med på det.

 

Akkurat her vet jeg for lite til hvordan ting er løst.

 

Utover det så ser jeg jo for meg at mye kode må omskrives om det skal legges til rette for noe helt nytt. Det er sikkert millioner vis av linjer med kode eller milliarder linjer i et operativsystem.

 

Det er ikke sikkert de er nødt å skrive om alle disse linjene. Men det må de likevel gjøre for en stor brorpart av kode som ligger på bunnen i systemet. Men, det er jo også der det store ytelsespotensiale ligger, og også der man kunne plassert noen genistreker inn.

 

Mulig det får konsekvenser for drivere til hardware også, men det har jeg ikke greie på.

 

Slik tenker nå jeg.  :wee:

 

Brukerne må jo til stadighet tilpasse seg forandringer likevel. Jeg tror ihvertfall jeg ikke er alene om å kunne ønske gammelt slagg dit peppern gror.

 

Hvem er så brukerne? Jo det er ikke bare meg og deg som sitter som sluttbruker, men også all slags maskinvare- og programvareprodusenter. De skal også være klar for forandringene. Også har du bedrifter da, som er en annen brukergruppe enn konsumenter ofte. Selv om ting nok også viskes litt ut der, alt etter hvilken type bedrift man snakker om.

Endret av G
Lenke til kommentar

Av det jeg har sett på nettet i en artikkel som har tatt opp mange tilfeller der et selskap bestemte seg for å skrive all den dårlige gamle koden på ny, så har det gått skikkelig dårlig. For langt mindre programvare enn MS sitt Windows. Jeg tror ikke omskriving av store deler av koden for Windows er et alternativ engang.

 

Se på ytelsestester mellom OSX og Windows. Det er jo minimal forskjell. Så jeg ser ikke at Windows er så forferdelig optimalisert jeg. Det har jo mye mer å si hvor optimalisert programmene er enn OSet (AC:Unity). Hva har mest å si i en test som Google Octane? Linux/OSX/Windows? nope. Det er nettleser som har noe å si.

 

Det med å legge ting over i RAMen så lenge du har plass som Linux gjør er jo bra for ytelse, selv om SSDer gjør forskjellen mindre der. Men er det bra for laptop? Å bruke strøm til å ha RAMen full til enhver tid og lese og skrive mye fra og til den?

  • Liker 1
Lenke til kommentar

Det er jo bare et simpelt eksperiment, uten mål og mening. Synes det er litt artig jeg å kjøre Windows i skammekroken for fancy funksjonalitet som ikke stiller opp for hva de har lovet.

 

Microsoft burde skrive Windows på ny synes jeg, og gjøre minnehåndtering bedre. Sikkert alltid bittelitt å vinne på å skrive koden fra bunnen av framfor å spare på "200 år gammelt slagg" fra Windows-generasjon til generasjon.

 

C-bokstav disken til Win7 kjører selvfølgelig på snurredisk. Synes det har sin sjarm jeg. Så det er tilleggsinfo, utover at jeg kjører C-diskens swap-fil på SSD.  :wee:

Samt den "harry ReadyBoost" finessen også der.

 

Om du skal kjøre en teknologi i skammekroken så må du først sette deg inn i hva teknologiens formål er og hvem den er myntet på.

 

For det første ble dette lansert for en stund siden, sammen med Vista. Den gangen var det ikke unormalt med maskiner med 512MB RAM og 5400 eller til og med 4200 RPM disker. Ved å legge på 1GB ReadyBoost på en slik maskin kunne ytelsen i enkelte tilfeller femdobles.

 

Videre kan man på W7 benytte opp til 8 ReadyBoost enheter, hvilket også vil øke ytelsen enda mer, spesielt etter som RB er mer effektivt på W7.

 

Men, om du har 4GB RAM eller mer, så er ikke RB ment for deg. Og sitter du med 16GB RAM, en SSD eller en rask spinner så er det i alle fall ikke noe for deg. For da har du ikke noen av de problemstillingene ReadyBoost er ment å løse. Men at den ikke er relevant for deg betyr ikke at den ikke har en effekt eller ikke holder hva den lover.

  • Liker 2
Lenke til kommentar

Jo, jeg har en ganske grei forståelse for at slikt er "banebrytende" og irriterende for brukermassene. En gang så bør de vel optimalisere framfor å bare prakke dårlig kode på bedre og bedre CPU'er.

 

Den beste eksekverbare koden får man vel om ting er CPU optimalisert, siden ingen CPU-modell er lik en annen, så må en slik tilnærming føre til å måtte kompilere for hver programvareinnstallasjon. Det er likevel gjort noen grep for å slippe å måtte gjøre dette litt på bekostning av ytelse. I Linux-verdenen så var det ihvertfall slik før, at mye ble kompilert for den hardware som du hadde å kjøre Linux med.

 

Det går også an å dypdykke ned på maskinkodenivå, og få ting enda mer optimalisert. Men, da kan du ikke bruke koden så lett om igjen på en annen CPU eksempelvis. Også er det svært tidkrevende å kode på den måten, så det blir unngått om man kan slippe unna med det. Jeg er ikke programmerer, så det skorter litt på kunnskapen.

 

Også når man først er på høynivåkode, så møter man andre utfordringer. Man har gått i fra en 16-bits til 32-bits, og nå over på 64-bits arkitektur.

 

Det gjør at CPU'ene kan regne med betydelig større tall, eller hvordan man skal si dette.

 

Også har man liknende oppdeling på filsystemet, som setter begrensninger for hvor store harddisker du kan benytte.

 

De fleste har sikkert over flere år fått med seg at å være bakoverkompatibel gjør at man må drasse på mye gammel drittkode, som fint kunne vært parkert om brukerne ble med på det.

 

Akkurat her vet jeg for lite til hvordan ting er løst.

 

Din fokus på legacy kildekode er litt underlig. Etterslepet med legacy i dette tilfellet ligger mer på cpu enn i kildekode. Du trenger ikke kjøre 8 bits kode på dagens prosessor, men du kan. 

 

Hvis du tror at kjerneni windows er ineffektiv pga legacy kode så tar du rett og slett feil.

Windows sin kjerne er faktisk ganske effektiv, så en omskriving av den vil være helt idiotisk på flere plan. Det er derfor det kun anbefales av forumbrukere og andre uten reel kunnskap om teamet.

 

I Linux kan du kompilere alt selv om du vil. Jeg har selv brukt Gentoo som mitt primære OS i et par år, men din tiltro til at optimalisert kompilering for spesifikk prosessor øker ytelsen er overdreven. 

Ytelsesøkning du får i Gentoo er mer relatert til at du kun kompilerer de delene du trenger. Kjernen tilpasses hardware og blir dermed endel mindre (dog ikke mye). Programmer blir kompilert men kun nødvenig kompabilitet mot 3. part. etc

Men det sagt, ytelsesforskjellen er minimal.

 

Hovedfordelen med 64bits arkitektur er ikke at man kan regne med større tall, men at adresseområdet for minne økes kraftig. 

 

Om du derimot kjører intense beregninger (noe vanlige brukere omtrent aldri gjør) vil kompilering med støtte for fult instruksjonsett og optimalisering for spesifikk prosessor ha noe for seg.

  • Liker 1
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...