Gå til innhold

TEST: Intel Pentium 4 "Prescott"


Anbefalte innlegg

Knikk Knakk: Ringer det ikke en liten bjelle når Prescott blir raskere i oppgaver den det er lite eller ikke noe branching og opp til 16% tregere i oppgaver med mye branching?

 

Det burde vel tilsi at når Prescott får branch missprediction så har det langt mer å si enn for Northwood? Eller mener du at det kun kommer av høyere delay mot cachen (som er dobbelt så stor)?

 

Det du sier er at Intel la inn dobbelt så mye L2 cache og at det førte til lavere IPC... Synes det blir litt rart at Intel skulle gjøre noe slikt...

Lenke til kommentar
Videoannonse
Annonse

mad_arab og snorreh: Dere snakker forbi hverandre med utgangspunkt i to forskjellige definisjoner av "skalering". Jeg så dette allerede ved første skalerings-posten dere hadde, og regnet med dere ville klare opp i det ganske fort, men siden det ikke har skjedd prøver jeg meg med en tolkning.

 

mad_arab tenker på skalering som en arkiteturs evne til å gradvis øke i klokkefrekvens etterhvert som tiden går og produksjonsteknikken forbedres. Northwood har, som mad_arab påpeker, "skalert" fra 1.6 til 3.4 GHz og har altså ikke noen problemer med dette.

 

snorreh tenker på skalering som en arkitekturs økte yteevne sett i forhold til økt klokkefrekvens. En prosessor med 100% effektiv skalering vil yte dobbelt så mye ved 2 GHz som ved 1 GHz. Northwood "skalerer", som snorreh påpeker, langt fra 100% effektivt, og har i forhold til f.eks. A64 "problemer" med dette.

 

mad_arabs skalering er noe som først ses over tid, mens snorrehs skalering er noe som kan beregnes selv med én prosessor (ved å kjøre den på forskjellige klokkefrekvenser og måle relativ ytelse), gitt tilstrekkelig bred benchmark-suite.

 

Konklusjon: Begge har rett på sin måte, og diskusjonen fører ingensteds hen. ;)

 

Edit: Typo, og ekstra avsnitt om måling av skalering...

Endret av Pureblade
Lenke til kommentar
Det er vel ikke noen flere deler som har blitt gjort dårligere?

Cache har dobbel delay. P3 og P4 var totalt forskjellige arkitekturer. Nytter ikke å sammenligne pipeline lengder på de to.

 

Siemen1: Tror du blander cache-miss og misspredict. Jeg ser uansett ikke helt hva du skal frem til, kan jo være meg som er treg (sitter her å koser meg med feber). Dessuten fører det bare til unødvendig regnearbeid å ta hensyn til om en får cache-miss eller cache-hit. Det er bedre å abstrahere bort de detaljene sånn at en kun ser effekten av lengre pipeline. Delay til Lx cache og RAM er noe NW må gjennom også. Eneste forskjell der er at delay er dobbelt så stor til cache, som igjen underbygger min teori. Jeg bereget kun endringen som resultat av å strekke pipelinen. Det er altså en diskusjon hvorvidt ytelses tapet i Prescott skyldes lengre pipeline eller tregere cache. Prøv og bregn den en gang til er du snill. Kanskje vi finner ut av det til slutt.

 

Edit: Intel lager altså en CPU som har en rekke forbedringer og to elementer som bidrar til lavere IPC. (så langt vi vet) Hvor vanskelig er det å se at dette i hovedsak skyldes DOBBEL delay til cache? Jeg står fortsatt ved beregningene for pipeline bidraget. Selv om jeg vet at der er en del pipeline hazards som ikke er med i beregningen, men det er ingen her som er med på tankegengen så langt så det er ingen grunn til å begynne å presentere mindre viktige 3. ordens effekter før i alle fall noen er med på 2. ordens effektene.

Mulig du har god greie på hvordan cpuer er bygd opp, men på dette punktet tror jeg du tar feil. Dobbelt dealy burde delevis veies opp av dobbelt cache, men egentlig kan jeg ikke fatte hvorfor intel har dobla dealyen på cachen.

Lenke til kommentar
mad_arab og snorreh: Dere snakker forbi hverandre med utgangspunkt i to forskjellige definisjoner av "skalering". Jeg så dette allerede ved første skalerings-posten dere hadde, og regnet med dere ville klare opp i det ganske fort, men siden det ikke har skjedd prøver jeg meg med en tolkning.

 

mad_arab tenker på skalering som en arkiteturs evne til å gradvis øke i klokkefrekvens etterhvert som tiden går og produksjonsteknikken forbedres. Northwood har, som mad_arab påpeker, "skalert" fra 1.6 til 3.4 GHz og har altså ikke noen problemer med dette.

 

snorreh tenker på skalering som en arkitekturs økte yteevne sett i forhold til økt klokkefrekvens. En prosessor med 100% effektiv skalering vil yte dobbelt så mye ved 2 GHz som ved 1 GHz. Northwood "skalerer", som snorreh påpeker, langt fra 100% effektivt, og har i forhold til f.eks. A64 "problemer" med dette.

 

mad_arabs skalering er noe som først ses over tid, mens snorrehs skalering er noe som kan beregnes selv med én prosessor (ved å kjøre den på forskjellige klokkefrekvenser og måle relativ ytelse).

 

Konklusjon: Begge har rett på sin måte, og diskusjonen fører ingensteds hen. ;)

 

Edit: Typo

Meget riktig!

Lenke til kommentar
mad_arab og snorreh: Dere snakker forbi hverandre med utgangspunkt i to forskjellige definisjoner av "skalering". Jeg så dette allerede ved første skalerings-posten dere hadde, og regnet med dere ville klare opp i det ganske fort, men siden det ikke har skjedd prøver jeg meg med en tolkning.

 

mad_arab tenker på skalering som en arkiteturs evne til å gradvis øke i klokkefrekvens etterhvert som tiden går og produksjonsteknikken forbedres. Northwood har, som mad_arab påpeker, "skalert" fra 1.6 til 3.4 GHz og har altså ikke noen problemer med dette.

 

snorreh tenker på skalering som en arkitekturs økte yteevne sett i forhold til økt klokkefrekvens. En prosessor med 100% effektiv skalering vil yte dobbelt så mye ved 2 GHz som ved 1 GHz. Northwood "skalerer", som snorreh påpeker, langt fra 100% effektivt, og har i forhold til f.eks. A64 "problemer" med dette.

 

mad_arabs skalering er noe som først ses over tid, mens snorrehs skalering er noe som kan beregnes selv med én prosessor (ved å kjøre den på forskjellige klokkefrekvenser og måle relativ ytelse), gitt tilstrekkelig bred benchmark-suite.

 

Konklusjon: Begge har rett på sin måte, og diskusjonen fører ingensteds hen. ;)

 

Edit: Typo

Godt presisert. Jeg vil legge til, som jeg også har sagt tidligere, at jeg ser ytelsesgevinsten på intervallet northwood har vært igjennom som såpass signifikant at jeg mener det er meningsløst å snakke om skaleringsproblemer, uansett definisjon.

Lenke til kommentar
Godt presisert. Jeg vil legge til, som jeg også har sagt tidligere, at jeg ser ytelsesgevinsten på intervallet northwood har vært igjennom som såpass signifikant at jeg mener det er meningsløst å snakke om skaleringsproblemer, uansett definisjon.

Enig med at det er meningsløst å klage på en arkitektur som har dårlig effektivitets-skalering (snorreh), dersom den er designet slik at frekvens-skaleringen (mad_arab) veier opp for det.

 

Men jeg ser ikke noe dumt i å diskutere de to typene skalering hver for seg, så lenge man holder tungen rett i munnen. Det ultimate hadde jo vært en prosessor som skalerer godt på begge måtene, og selv om det aldri vil oppnås, er det jo en så god tilnærming som mulig som er ønskelig.

 

A64 har (relativt) god effektivitets-skalering og dårlig frekvens, så det er naturlig at AMD jobber med å øke frekvensen. Tilsvarende har P4 NW (relativt) god frekvens og dårlig effektivitets-skalering, så det er naturlig at Intel vil jobbe med sistnevnte ved arkitektur-oppgraderinger (som f.eks. NW -> Prescott).

Endret av Pureblade
Lenke til kommentar
Knikk Knakk: Ringer det ikke en liten bjelle når Prescott blir raskere i oppgaver den det er lite eller ikke noe branching og opp til 16% tregere i oppgaver med mye branching?

 

Det burde vel tilsi at når Prescott får branch missprediction så har det langt mer å si enn for Northwood? Eller mener du at det kun kommer av høyere delay mot cachen (som er dobbelt så stor)?

La oss få dette klart ja. Det er værre for Prescott å få en misspredict FORDI den her dobbel delay til cache, og delvis også fordi den har lengre pipeline, men jeg påstår altså at hovedproblemet er delay til cache. Da spesielt til L2 cache siden mange misspredict vil føre til at data må hentes her.

 

Det du sier er at Intel la inn dobbelt så mye L2 cache og at det førte til lavere IPC... Synes det blir litt rart at Intel skulle gjøre noe slikt...
Det kan virke litt rart ja. Jeg har omtalt det tidligere i tråden.

 

Det er riktig at Intel ikke velger tregere og større cache fordi dette vil gi dårligere ytelse, men en kan bare spekulere i hvorfor cache er så treg som den er. Enten er det for å tillate større hastigheter eller så er det planer om å kutte ned på forsinkelsen i senere steppinger. Kanskje en kombinasjon. Størrelsen på cache medfører også en økt forsinkelse, men jeg mener å ha lest en plass at denne forsinkelsen ikke er forventet fordobles når en fordobler størrelsen. Konklusjon: Noe av den økte forsinkelsen i cache skyldes at Intel har lagt inn en ekstra slack som enten skyldes dårlig CMOS prosess og vil bli redusert, eller det er en nødvendighet for å nå høye frekvenser.

Cache timingene på Prescott ser for meg ut som en DDR500 brikke med dårlig timings som kjøres på DDR400 hastighet med samme timings. Det blir liksom feil, mne retter seg vel opp skal du se.

 

Edit: masse quote rot :/

Endret av Knick Knack
Lenke til kommentar
Knick knakk: Kanskje prescott lider under at ved en miss prediction så må den hente i verste fall 50 % mer data fra cache minnet enn en northwood. Kombinert med elendig cache gjør dette sitt. Det blir altså en kombinasjon hvor 2 ting forverrer hverandre fryktelig.

Du er sikkert inne på noe, jeg har ikke så god oversikt at jeg kan utdype det noe mer.

Lenke til kommentar
Enig med at det er meningsløst å klage på en arkitektur som har dårlig effektivitets-skalering (snorreh), dersom den er designet slik at frekvens-skaleringen (mad_arab) veier opp for det.

Jeg er enig på at det er liten vits å diskutere disse tingene hver for seg. Kombinerer dem så får man totalytelsen. Den er mye mer interresant. Men selv det er ikke hele bildet synes jeg. Varmeutviklingen og pris er jo også to meget viktige faktorer.

 

Jeg er ikke så skuffet av hverken ytelsen eller prisen, men desto mer skuffet over varmeproduksjonen. De som mener dette ikke har noen sammenheng med ytelsen må tenke om igjen. Man kan nemlig ikke bare øke varmeproduksjonen (= øke hastigheten på chip'en) ubegrenset. Hverken ved å lansere nye og varmere CPU'er eller ved å overklokke. Per i dag så er har prescott farlig høy varmeproduksjon og er egentlig varme-begrenset. Ikke IPC-begrenset eller MHz-begrenset som andre her fokuserer mye på.

Lenke til kommentar

http://www.legitreviews.com/Reviews/prescott_cooling_2.shtml

 

____________________________________________________________________

http://www.legitreviews.com/phpBB2/viewtopic.php?t=130

 

I'm trying to get some O/C'd temps for you all, but I don't think it's going to happen in time. I can run 4.01GHz (250FSB x 16), but not with stability. I've taken then Vcore from 1.35 all the way to 1.61 and still getting crashes when looping burn-in on sandra. Idle temps are 53 and I'm getting low 60's when she restarts on the Hydrocool 200ex on Turbo mode.

 

It's getting hot in here!

 

____________________________________________________________________

 

 

Er vel ikke så mye å tilføre der nei.

Lenke til kommentar

Det er nok ikke varmen som er den direkte begrensningen, heller at HK ikke klarer å levere nok strøm (ref: siste post).

 

Siemen1: For øyeblikket er vel Prescott egentlig begrenset i strømtilførselen, altså i HK / socketen. Når Socket T og FMB 2.0 kommer ser det ut til at varme blir begrensningen ja. Jeg er derfor meget spent på hva Intel klarer å få til på dette punktet.

Lenke til kommentar
Det er nok ikke varmen som er den direkte begrensningen, heller at HK ikke klarer å levere nok strøm (ref: siste post).

 

Siemen1: For øyeblikket er vel Prescott egentlig begrenset i strømtilførselen, altså i HK / socketen. Når Socket T og FMB 2.0 kommer ser det ut til at varme blir begrensningen ja. Jeg er derfor meget spent på hva Intel klarer å få til på dette punktet.

Det er vel egentlig to sider av samme sak:

 

**** Elektrisk energi inn = varmeenergi ut ****

 

Spenningsregulatorene har en gitt max-strøm, mens varmeproduksjonen ikke har noe absolutt max. Man tyner bare på hvilke kjøleløsninger man kan bruke. Så jam det er forsåvidt strømbegrenset nå, men det kan fikses på med FMB 2.0 som du sier. Problemet er bare at da blir ting ennå varmere. Hvor skal dette ende? Jeg synes det er uholdbart per i dag, og det lover i hvertfall ikke bra for dagens steppinger de neste månedene. Særlig om de ikke kommer med noen drastiske forbedringer. (noe jeg har litt hardt for å tro at skjer i det nærmeste)

Lenke til kommentar
Det er vel egentlig to sider av samme sak:

 

**** Elektrisk energi inn = varmeenergi ut ****

For så vidt riktig, men varme begrensning er ikke det samme som strømbegrensning. For det første er det to uavhengige enheter som håndterer disse to problemene. Dessuten vil en varm chip kreve mer effekt (høyere spenning) for å operere på samme frekvens som en kald chip pga. økt motstand i kretsen, høyere termisk støy og større lekkasjestrømmer. Dette er jo grunnen til at ekstrem kjøling men f.eks flytende nitrogen fungerer så bra. De nevnte effektene er vesentlig redusert rundt -196C.

Lenke til kommentar
Det er vel egentlig to sider av samme sak:

 

**** Elektrisk energi inn = varmeenergi ut ****

For så vidt riktig, men varme begrensning er ikke det samme som strømbegrensning. For det første er det to uavhengige enheter som håndterer disse to problemene.

Jepp, var det ikke akkurat det jeg sa da?

 

Dessuten vil en varm chip kreve mer effekt (høyere spenning) for å operere på samme frekvens som en kald chip pga. økt motstand i kretsen, høyere termisk støy og større lekkasjestrømmer. Dette er jo grunnen til at ekstrem kjøling men f.eks flytende nitrogen fungerer så bra. De nevnte effektene er vesentlig redusert rundt -196C.

Det er vel ganske grunnleggende kunnskap om overklokking at høyere spenning og/eller lavere temperaturer gjør at den klokker bedre... :roll:

Lenke til kommentar

Får håpe dere ikke praktiserer like lettvinnt omgang med Arkhimedes lov også, og begynner å gå på vannet. Ta ihvertfall redningsvest på.

Han der Ohm var en gløgg kar som burde etterforskes nærmere. For ikke å snakke om W.E.Weber, N.Tesla M.Faraday og en rekke andre som forsket og la grunnlaget for forståelse, bruk av elektroner og EMK (ElektroMmotorisk Kraft).

 

Vil enda engang påpeke at det er motstanden som skaper varme i en elektrisk krets :thumbup: Det gjelder RI (indre motstand) også; batteriet/PSU blir varm.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...