Gå til innhold

Haswell kan bli siste byggevennlige Intel-CPU


Anbefalte innlegg

Dette har flere teknologer forutsett for mange år siden. Fremtiden ligger i GPU ikke CPU.

2000x tiendeklassinger eller 5x femteårs ingeniørstudenter fra NTNU, hvem er mest nyttige?

Det er absolutt oppgaver en GPU egner seg langt bedre enn en CPU til, og det er oppgaver der en GPU vil gi en brøkdel av ytelsen en CPU leverer, å påstå at vi ikke vil trenge få, raske kjerner i fremtiden er like ignorant som å påstå at man ikke vil trenge mange, trege kjerner i fremtiden.

 

EDIT:

Er vell litt at de færreste oppgraderer cpu i dag, oppgraderer du bytter du gjerne hovedkort også.

Jeg byttet faktisk hk på mit amd system men beholdt cpu. 6 kjerne versjonen er fortsatt grei nok.

For bærbare med bundlet cpu/ gpu er faktisk oppgraderinger mer relevant.

Dette vil også skape problemer for produsentene. spesielt når cpu og gpu er bundlet, du må da ha mer på lager.

Jeg kan forestille meg at det blir interessant når man kan velge mellom 4x Maximus VII-modeller:

En med i5-prosessor uten overklokkingsstøtte til 2000 kr

En med i7-prosessor uten overklokkingsstøtte til 2500 kr

En med i5-prosessor med overklokkingsstøtte til 2700 kr

En med i7-prosessor med overklokkingsstøtte til 3200 kr

 

De eneste som vil tjene på noe slikt er Intel selv.

Endret av arni90
Lenke til kommentar
Videoannonse
Annonse

Jeg er mer bekymert for servermarkedet.Mange som velger å bygge sine systemer for hånd og få et optimalt system for individuelle formål.Ikke spør meg hvorfor, men dette minnner meg om Apple.

2011 påvirkes ikke, tror at servere, arbeids starsjoner og spill starjonære smelter sammen til ett produkt over tid.

Er også mulig at intel snur på denne om de føler et marked for cpu med sokler. starsjonære og store kraftge bærbare.

Lenke til kommentar

2000x tiendeklassinger eller 5x femteårs ingeniørstudenter fra NTNU, hvem er mest nyttige?

Det er absolutt oppgaver en GPU egner seg langt bedre enn en CPU til, og det er oppgaver der en GPU vil gi en brøkdel av ytelsen en CPU leverer, å påstå at vi ikke vil trenge få, raske kjerner i fremtiden er like ignorant som å påstå at man ikke vil trenge mange, trege kjerner i fremtiden.

 

Ingeniør og elektrikkstudenter fra MiT som er vel mer kompetente en ingeniørstudentene fra NTNU.

  • Liker 1
Lenke til kommentar

Dette har flere teknologer forutsett for mange år siden. Fremtiden ligger i GPU ikke CPU.

 

GPU og CPU kan ikke sammenlignes. Det er derfor Intel ikke dropper x86, men heller lager en GPU-dataknekker under terminologien "co-processor".

 

GPU er gjerne godt til å gjøre aritmetiske operasjoner, og er ihvertfall god til å rasterisere grafikk, men det ville være veldig håpløst å kjøre et operativsystem på en GPU.

 

Forhåpentligvis så fester man RAM til cpu/gpu. Det er da ikke negativt, tenk på båndbredden!

 

Hva mener du med "fester"? RAM er allerede knyttet til prosessoren gjennom en minnebus.

  • Liker 1
Lenke til kommentar

Jeg så en interessant gjetning i denne tråden. Og det er at disse hovedkortene med påloddete CPU'er vil bli rimeligere å kjøpe enn slik vi handler de løst i dag.

 

1. Tenk på de volum som nå kommer til å komme for en utvalgt (gitt) hovedkortmodell.

 

2. Tenk på at fram til da har de likevel krympet samtlige tilleggsfunksjoner man har på et hovedkort.

 

3. Tenk på hvor kraftige komponenter må bli fram til da.

 

Mye valuta for pengene med andre ord. Hovedkortene vil sannsynligvis også krympe noe til da.

 

Det også gir rimeligere produksjonsprosesser når alt blir mindre og man kan lage mer av det per wafer. Regner med at mange andre integrerte kretser på et hovedkort også må lages på wafer likevel. Dersom man får ned størrelser, får smartere logikk mellom de forskjellige "hjernene" på hovedkortet, må jo bare bli fett for forbruker dette.

 

Regner også med at kvalitet og kompatibilitetsspørsmål tenkes ekstra grundig igjennom før et slikt produkt lanseres på markedet.

Endret av G
Lenke til kommentar

Programmererjobben er dyr og vanskelig nok i dag. Å gjøre det xxx-ganger vanskeligere tror jeg ikke er noe alternativ engang. Ja, i hvert fall ikke for hvermansen sine maskiner (windows/OSX/Ubuntu etc.).

Det er i hvert fall motsatt vei av hva jeg tror vi ønsker. Bedre å gjøre det lettere å skrive programmer, og så heller kjøre på med kraftigere maskinvare. Vi har så mye computing-kraft at dette ikke er noe problem.

 

I de tilfellene der man trenger såpass spesialisert programvare, maskinvare og ytelse, så kan man jo alltids gå bort fra x86-platformen.

Lenke til kommentar

Jeg så en interessant gjetning i denne tråden. Og det er at disse hovedkortene med påloddete CPU'er vil bli rimeligere å kjøpe enn slik vi handler de løst i dag.

 

1. Tenk på de volum som nå kommer til å komme for en utvalgt (gitt) hovedkortmodell.

 

2. Tenk på at fram til da har de likevel krympet samtlige tilleggsfunksjoner man har på et hovedkort.

 

3. Tenk på hvor kraftige komponenter må bli fram til da.

 

Mye valuta for pengene med andre ord. Hovedkortene vil sannsynligvis også krympe noe til da.

 

Det også gir rimeligere produksjonsprosesser når alt blir mindre og man kan lage mer av det per wafer. Regner med at mange andre integrerte kretser på et hovedkort også må lages på wafer likevel. Dersom man får ned størrelser, får smartere logikk mellom de forskjellige "hjernene" på hovedkortet, må jo bare bli fett for forbruker dette.

 

Regner også med at kvalitet og kompatibilitetsspørsmål tenkes ekstra grundig igjennom før et slikt produkt lanseres på markedet.

Det er nok absolutt potensiale for rimeligere maskinvare ja. :) Og en helt naturlig del av utviklingen av noe som skal være enklest, minst og billigst mulig i innkjøp. Reparasjon blir det mindre av i dag for rimelig elektronikk, og mange bytter bare PC når det er problemer.

 

Entusiastseriene fokuserer derimot ikke på enklest og minst, men best ytelse, kompatibilitet og er gjerne også for de som faktisk KAN og VIL fikse sine egne maskiner selv, og vil derfor forbli uforandret en stund til.

Endret av Andrull
  • Liker 1
Lenke til kommentar

CUDA er jo ett bibliotek, den vanskeligste delen av det rent tekniske er jo allerede gjort.. Du må bare lære å bruke det. Det er bare en ny måte og tenke på, alt som er nytt er vanskelig, i starten. Og programmering er gjort ekstremt lett, vi sitter ikke akkurat med hullkort lenger. C, C++ osv.. er litt mer manuelt, men C#, Java, PHP og Python iallefall er jo stappfulle av hjelpermidler, utrolig lett og komme i gang og lage relativt kompliserte programmer i disse språkene med minimal kunnskap.

Lenke til kommentar

Ingeniør og elektrikkstudenter fra MiT som er vel mer kompetente en ingeniørstudentene fra NTNU.

Mitt poeng er at man kan ikke erstatte kvalitet med kvantitet (og motsatt,) men hva er ditt poeng?

Fremtiden er APUer, altså prosessorer som har både få, raske kjerner og mange trege kjerner.

@Gavekort, vel det er vel nok fordi ett operativsystem ikke er designet for en GPU. Hadde de skrevet ett OS i C++ med CUDA tror jeg vi kunne fått litt andre resultater.

Jeg tror derimot ikke at et OS skrevet i CUDA hadde gitt bedre resultater enn et OS skrevet i x86. Rett og slett fordi det er veldig mange typer oppgaver som ikke skalerer bra over flere prosessortråder.

 

Si at du skal skrive et program som finner Fibonacci-tall (uten å bruke Binets formel): da sitter du med kode som er avhengig av de to foregående verdiene for å generere neste verdi i følgen. Selv uten å ta med i beregningen at en x86-kjerne i en 2500k vil være istand til å generere flere tall per klokkefrekvens enn en GPU-kjerne i GTX 680 er det innlysende at 2500k vil gjøre jobben 3 ganger fortere, så tar man med i beregningen at GPUer har langt høyere latency-verdier på alle områder (minneoperasjoner, pipeline, etc.) og at x86-prosessorer kan behandle flere bits (større tall) i en operasjon, så er det plutselig snakk om at en CPU vil gjøre dette flere titalls ganger raskere enn en GPU.

Lenke til kommentar

@Gavekort, vel det er vel nok fordi ett operativsystem ikke er designet for en GPU. Hadde de skrevet ett OS i C++ med CUDA tror jeg vi kunne fått litt andre resultater.

 

Jeg tror ikke du har satt deg inn i hvordan en CPU og en GPU (m. CUDA/OpenCL) fungerer.

 

En GPU er ikke raskere fordi det er en bedre prosessor, en GPU er raskere fordi den er god til å jobbe med store og simple operasjoner, slik som artimetikk, rasterisering eller vektorer. En GPU har mange ganger flere 'executions units' som gjør en GPU glimrende til parallellprosesser, men om du skal ha en sekvensiell 'execution' så er CPU overlegen i ytelse.

 

Så har vi slike ting som minnelatency og hvordan en GPU jobber med minnet. Vi har også instruksjonssett i en CPU som gjør operasjoner mer effektivt på hardware-nivå, fremfor en GPU som gjerne må jobbe rundt problemet for å komme til samme løsning.

 

Poenget mitt er at en GPU IKKE er raskere enn en CPU, den er bare bedre til å utføre ren dataknekking. Intel produserer to forskjellige CPU-arkitekturer (Itanium og x86) og en GPU co-prosessor, Nvidia produserer ARM-prosessorer og AMD eier ATI. Så du kan jo spørre deg selv hvorfor vi fortsatt bruker de "treige" prosessorene om vi allerede har et svært fundament til et GPU operativsystem.

Lenke til kommentar

Zero fucks where given!

 

Jeg har til dags dato enda ikke byttet prosessor uten å bytte hovedkort, så dette er stortsett bare gode nyheter for meg :)

 

Jeg oppgraderer også sjeldent nok til at det gir mening å bytte hovedkort samtidig som man bytter CPU. Men, jeg synes det er ganske kjekt å kunne velge fritt blant hovedkort, også velge akkurat den prosessoren jeg vil ha. Hvis alle hovedkort leveres ferdig med CPU, så kan du nok være sikker på at ikke alle hovedkort vil leveres med alle CPU-alternativene. I beste fall vil jeg tro at vi snakker to, kanskje tre alternativer på noen få hovedkort, mens resten kun leveres med ett alternativ.

 

I praksis vil det nok bli slik at billige hovedkort leveres med low end CPUer, og dyre hovedkort med high-end.

Lenke til kommentar

Hvor er det dere har det fra at vi skal fjerne CPU'en? Jeg har sagt at GPU er fremtiden aldri at CPU skal fjernes. Jeg påpeker bare at GPU er den delen som før fokuseres på fordi den har mest potensiell prosessorkraft. I en verden hvor en CPU blir som en slags "south bridge" på hovedkortet som egentlig ikke er SÅÅ virktig..

Lenke til kommentar

Hvor er det dere har det fra at vi skal fjerne CPU'en? Jeg har sagt at GPU er fremtiden aldri at CPU skal fjernes. Jeg påpeker bare at GPU er den delen som før fokuseres på fordi den har mest potensiell prosessorkraft. I en verden hvor en CPU blir som en slags "south bridge" på hovedkortet som egentlig ikke er SÅÅ virktig..

 

Selvsagt er en CPU viktig. Vi har jo allerede en perfekt kombinasjon der GPU er assistenten til CPU. CPU må fortsatt bli sterkere for å holde opp med nye programmer, spill og arbeidsrutiner. GPU må fortsatt bli sterkere for å knuse data og ordne kompleks grafikk.

 

Hvorfor skal vi snu alt på hodet?

 

Tror du at du hadde klart å utnytte datamaskinen din med et GTX 680 og en Pentium III?

Endret av Gavekort
Lenke til kommentar

Helt idiotisk å lodde fast prosessor på hovedkortet..

Hva om jeg tilfeldigvis "griller" prosessoren, da må jeg jo bytte begge deler.

Som vanlig finner både Intel og Microsoft opp idiotiske løsninger.., kun for å melke forbrukerene for mest mulig uten tanke på miljø og hva kundene mener..Det kalles mafiametoder..

Lenke til kommentar

Min personlige spåkule sier at hovedkort vil bli mindre og mindre viktig etterhvert som vi får mindre produksjonsteknikk. Det er mulig, selv med dagens teknologi å ha en form for SoC i prosessoren, der lyd, grafikk, NB og SB vil ligge i samme chip, og at hovedkortet ikke kommer til å bli noe annet enn et brett med porter til flere minnemoduler og IO-enheter.

  • Liker 2
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...