Gå til innhold

Intel med 1333FSB til høsten


Anbefalte innlegg

Videoannonse
Annonse

Oppgraderingen av QX6700 til Q6700 innebærer nok enn reduksjon i TDP fra 130W. Er det noen som har lest noe om hvor mye TDP skal reduseres?

 

Ellers så er det jo spennende med fremskyndinga av de raskere modellene. Lurer på hvorfor de har fått sånn hastverk nå før sommeren :hmm: Kan det skyldes at de vet hvilken konkurranse de møter på firekjerne til sommeren? Det skal bli spennende å finne ut av! Skulle ønske jeg kunne skru tiden fram og ta en sniktitt på tester. :p

Lenke til kommentar

Det sto ikke mye detaljer om testene, f.eks hvilke Photoshop-tester som er kjørt, detaljer om divX-kodinga, om HL2 er målt på spillbare oppløsninger, skjermkort, osv. Jeg synes det høres litt for fantastisk ut at 14% høyere klokkehastighet, 50% mer L2 cache og en forbedret divisor skal gjøre så mye for ytelsen som de to første resultatene der. Det virker som et veldig finplukket utvalg av tester.

 

Divisoren er vel en enhet man prøver å få kompilatorer til å bruke minst mulig til fordel for multiplikatorer og SSE-enhetene. (Rett meg om jeg tar feil)

Lenke til kommentar
Vil spill som støtter dual automatisk støtte quad og ha en betydlig nytte av det? Vil en for eksempel kunne kjøre OS på kjerne 1 og spillet med 100% på kjerne 2,3 og 4?

8403721[/snapback]

Det er i utgangspunktet OSet som fordeler arbeidet mellom kjernene, men det kan overstyres av programmer/spill. Fordelingen 1 til OS og 3 til spill tror jeg er dårlig dersom spillet virkelig kan ta i bruk 4 kjerner. Da vil kjerne nr 1 gå ~95% på tomgang i stedet for å bruke overskuddskraften.

 

Spill som støtter 2 kjerner utnytter ikke automatisk de ekstra kjernene. Spillet må skrives spesielt for å fordele oppgavene mellom flere tråder. For spillprodusentene er det en vanskelig og noen ganger umulig oppgave å fordele oppgavene ganske jevnt. Noe som betyr at man ikke får doblet ytelsen av å doble antall kjerner. I dagens spill varierer ytelsegevinsten av å gå fra 1 til 2 kjerner fra bare noen prosent til mange titalls prosent. Overgangen fra 2 til 4 kjerner blir ennå vanskeligere å balansere oppgavene på så der kan vi nok vente mindre ytelsegevinster enn fra 1 til 2 kjerner.

Lenke til kommentar
Det sto ikke mye detaljer om testene, f.eks hvilke Photoshop-tester som er kjørt, detaljer om divX-kodinga, om HL2 er målt på spillbare oppløsninger, skjermkort, osv. Jeg synes det høres litt for fantastisk ut at 14% høyere klokkehastighet, 50% mer L2 cache og en forbedret divisor skal gjøre så mye for ytelsen som de to første resultatene der. Det virker som et veldig finplukket utvalg av tester.

 

Divisoren er vel en enhet man prøver å få kompilatorer til å bruke minst mulig til fordel for multiplikatorer og SSE-enhetene. (Rett meg om jeg tar feil)

8403677[/snapback]

 

Og du tror ikke AMD finplukket sitt valg for deres "Barcelona" ytelses-påstander?

Vil tro begge selskapene plukker ut de testene som favoriserer deres prosessorer, for å få dem i et litt sterkere lys. (Edit, ellers er jeg glad over at Intel faktisk kommer med egentlige tall (om ikke så detaljert enda), og ikke bare ord, som bla Barcelona.)

 

Synes Intels svar på Quad FX, Skulltrail (kult kodenavn), ser spennendes ut. Får bare håpe at Skulltrail blir 2 ganger LGA 775, DDR2/DDR3 og 4 ganger PCI-E 16x. Da vil nok to slike Penryn prosessorer gi to Agena FX konkurranse, tror jeg.

Endret av el_salvad
Lenke til kommentar

Alle er nok veldig nøye med valg av tester, men med unntak av divX testen var det egentlig ikke så veldig oppsiktsvekkende resultater. Kanskje var det den nye divisoren eller så kan det jo være at testen utnytter SSE4? Om programmet har en divisjon i critical path uten mulighet for å eksekvere kode ved siden så behøver det ikke være mange divisjoner for at det kan påvirke ytelsen dramatisk. Cache kan også være en liten luring i slike sammenligninger, ofte har et gitt program veldig stegvis forbedring om en plotter mot cache størrelse så om et slikt steg lå mellom 4MB og 6MB for denne testen så kan det forklare mye.

 

Hvis vi antar lineær skalering av kentsfield til 3.33GHz får vi disse tallene:

 

           Core 2(Kentsfield 3.33GHz)     Penryn based (3.33GHz)
DivX                   33                         18            +83%  
Half-Life2            171                        213            +25%
Cinebench            1760                       1935            +10%
MainConceptH.264       77                         73             +5.5%
Photoshop CS2          92                         91             +1.1%

 

Virker egentlig ganske normalt. Cache kan forklare HL scoren (minne og chipset kan ha virket inn også) og i DivX testen er det ett eller annet som er vesentlig forbedret, muligens i kombinasjon med en god boost fra økt cache.

Endret av Anders Jensen
Lenke til kommentar
Kanskje var det den nye divisoren eller så kan det jo være at testen utnytter SSE4?

8404385[/snapback]

Ja, det kan det være. Det tenkte jeg ikke på. Jeg ser det står DivX* 6.6 Alpha with VirtualDub 1.7.1. Det kan jo være nettopp SSE4 de har laget støtte for i den alpha-versjonen. I så fall er det nok et nært samarbeid på gang mellom Intel og DivX inc. (DivX inc får vel neppe tilgang til SSE4 hardware å teste/debugge på uten et nært samarbeid med intel) Uansett så er det imponerende hvis SSE4 står for mesteparten av den ytelseøkningen på 84% (i forhold til en hypotetisk kentsfield på 3,33GHz).

Lenke til kommentar
Det er fint at Intel fortsetter med å forbedre cpuene sine.

 

Forøvrig er jeg litt kritisk til en del slike tester, der gjerne resultater er velutplukket og gjerne "trikset" litt med for å fremheve en eller flere modeller.

8405539[/snapback]

 

Her er faktisk et Intel-confidential bilde som viser testoppsett og resultater. Er vel bare å vente på Barcelona tall nå. Litt rart at Penryn, som skal lanseres en god stund etter Barcelona, kommer opp med faktiske spesifikasjoner og resultater før vi har fått vite noen særlige "konkrete" ting om Barcelona.

 

http://img407.imageshack.us/img407/7863/in...rynperfsrr2.jpg

Endret av el_salvad
Lenke til kommentar
Her er faktisk et Intel-confidential bilde som viser testoppsett og resultater. Er vel bare å vente på Barcelona tall nå. Litt rart at Penryn, som skal lanseres en god stund etter Barcelona, kommer opp med faktiske spesifikasjoner og resultater før vi har fått vite noen særlige "konkrete" ting om Barcelona.

 

http://img407.imageshack.us/img407/7863/in...rynperfsrr2.jpg

8406140[/snapback]

Nå ble jeg ikke mye klokere av det bildet, men det ser ut til at cpuen drar stor nytte av mer L2-cache. Husk at testene er av tidlige versjoner av produktene, og de endelige spesifikasjonene eller ytelsen får vi ikke se på en god stund ennå.

 

De få detaljene som har kommet om Barcelona virker spennende, men jeg venter og ser.

Lenke til kommentar
  • 2 måneder senere...
Og du tror ikke AMD finplukket sitt valg for deres "Barcelona" ytelses-påstander?

Povray testen du sikter til, eller Intels påfølgende Povray stunt som presset AMD til å komme med SPEC testene? THG har sikkert noe interessant stoff om temaet.

 

Når det gjelder Divx benken tror jeg denne er alt annet enn representativ. Jeg holder en knapp på SSE4, eller i realiteten en kodeoptimalisering, som kunne gitt omtrent like mye ytelsesøkning på en C2D. Det er ingen hemmelighet at mange applikasjoner er dårlige til å utnytte SSE generellt sett, og det vil forundre meg mye om enkoding/dekoding er noe unntak. Hvis jeg har rett, så synes jeg vel dette er markedsføring av det suspekte slaget.

 

Når det gjelder de andre var det beskjeden ytelsesøkning, hvor økt cache kan foklare forskjellen alene. Jeg synes derfor det er vanskelig å avgjøre effekten av divisoren her.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...