Gå til innhold

Haswell kan bli siste byggevennlige Intel-CPU


Anbefalte innlegg

@Gavekort, vel det er vel nok fordi ett operativsystem ikke er designet for en GPU. Hadde de skrevet ett OS i C++ med CUDA tror jeg vi kunne fått litt andre resultater.

OS er ikke det mest krevende, problemet er at programmer er løkker og if statements, mesteparten av en moderne cpu brukes på å hantere while og if, gpu er spesialisert på og gjøre den samme beregningen på store mengder data,

Ingen branch prediction, lite cache osv.

 

Hadde vært gøy å kjørt en versjon av superpi som skalerte på mange kjerner, enkelt hver ny tråd får et nytt tall fra hovedfunksjonen og sett hvordan cuda stilte mot en cpu.

Lenke til kommentar
Videoannonse
Annonse

Selvsagt er en CPU viktig. Vi har jo allerede en perfekt kombinasjon der GPU er assistenten til CPU. CPU må fortsatt bli sterkere for å holde opp med nye programmer, spill og arbeidsrutiner. GPU må fortsatt bli sterkere for å knuse data og ordne kompleks grafikk.

 

Hvorfor skal vi snu alt på hodet?

 

Tror du at du hadde klart å utnytte datamaskinen din med et GTX 680 og en Pentium III?

 

Vi skal snu alt på hode fordi det er slik vi kommer oss fremover. Så det du mener i prinsippet er at når vi har kommet til det punktet i teknologien at vi kan utnytte kvantefysikk i kommersiell PC'er så er det en dårlig idé for da må alt snus på hode? Vel slike tankeganger holde vitenskap og teknologi tilbake frykt for endring og stahet.

 

Dette er frem i tiden, det er ikke snakk om idag eller i morgen men om noen år. med 14 nm teknologien vil de kunne lage gode prosessorer til en billigere penge, og istedenfor å fortsette og utvikle til CPU så flyttes utviklingen over mot GPU vil ikke det være noe problem at CPU blir behandlet som en slags "south bridge" og at CPU er en assistent til GPU'en.

Lenke til kommentar

Selv om jeg bare regner reperasjoner innad i nærmeste vennekrets så har jeg byttet ganske mange hovedkort som har blitt ødelagt, og da er det veldig kjedelig å måtte kjøpe ny prosessor i tillegg om prosessoren er helt i orden (noe den ofte er), og ytelsen er helt godkjent.

Jeg oppgraderte som nevnt hk siden det gamle hadde en del svakheter og støttet kun 16 gb ram (noen render krever mer)

Så ingen hensikt i å oppgrader min 6 core cpu siden buldoser ikke er så mye raskere og jeg regnet med at amd jobbet med saken.

 

HK røk etter en månded så jeg returnerte det.

I denne settingen ville jeg måtte ut med mer for hk+cpu men produsent tapte på å måtte bytte begge delene.

Tror det er betydelig mer feil på hovedkort en cpu.

Lenke til kommentar

Dette kom jo ikke som noen bombe. Fremtidens desktop, i den grad de vil eksistere, vil bli like modulær og service vennlig som en iPad. Det må den for å skalere opp ytelse og senke pris. Miniatyrisering er faktor nummer en for å skalere opp ytelse og det er dermed gitt at gså desktop vil gå i retning av SoC, men på veien dit skal en via ymse chipper i stadig minkende antall som blir stadig tettere plassert for å øke hastigheten på signaleringen. Neste er at RAM og SSD kommer loddet på HK. Før de om sider bare stables oppå hverandre i en chip. For servere er det allerede lansert at både NIC og små switcher skal integreres på samme chip som CPU. Kan vel vente at desktop vil få tilsvarende løsninger.

  • Liker 1
Lenke til kommentar
Zero fucks where given!Jeg har til dags dato enda ikke byttet prosessor uten å bytte hovedkort, så dette er stortsett bare gode nyheter for meg :)
Jeg oppgraderer også sjeldent nok til at det gir mening å bytte hovedkort samtidig som man bytter CPU. Men, jeg synes det er ganske kjekt å kunne velge fritt blant hovedkort, også velge akkurat den prosessoren jeg vil ha. Hvis alle hovedkort leveres ferdig med CPU, så kan du nok være sikker på at ikke alle hovedkort vil leveres med alle CPU-alternativene. I beste fall vil jeg tro at vi snakker to, kanskje tre alternativer på noen få hovedkort, mens resten kun leveres med ett alternativ.I praksis vil det nok bli slik at billige hovedkort leveres med low end CPUer, og dyre hovedkort med high-end.

Et relevant poeng, om du kjører en billig filserver ønsker du støtte for mange disker og raid 5, cpu trenger kun kjøre raidet, OS og utility programmer.

 

Er alerede et problem at Dull og andre merkevare levrandører krever at du kjøper en monster pc om du ønsker dediket skjermkort.

 

På jobben bruker vi en del 3d modeller, det programmet som viser dem funker dårlig med det innebygde skjermkortet, (mulig det funker med intel4000) mens et skjermkort til 5-600 går greit, men disse maskinene trenger ikke en I7,

Har kun kjøpt komplett pcer etter noen erfaringer med dette.

 

Regner med at intel dropper annet en 2011 for starsjonære i fremtiden. Trenger kun å få ut noen billigere hovedkort samt noen billigerere prosessor modeller så trender de ikke andre sokeler.

Lenke til kommentar

Vi skal snu alt på hode fordi det er slik vi kommer oss fremover. Så det du mener i prinsippet er at når vi har kommet til det punktet i teknologien at vi kan utnytte kvantefysikk i kommersiell PC'er så er det en dårlig idé for da må alt snus på hode? Vel slike tankeganger holde vitenskap og teknologi tilbake frykt for endring og stahet.

 

Dette er frem i tiden, det er ikke snakk om idag eller i morgen men om noen år. med 14 nm teknologien vil de kunne lage gode prosessorer til en billigere penge, og istedenfor å fortsette og utvikle til CPU så flyttes utviklingen over mot GPU vil ikke det være noe problem at CPU blir behandlet som en slags "south bridge" og at CPU er en assistent til GPU'en.

 

Jeg er ikke i mot å snu alt på hodet fordi jeg er redd for forandringer, jeg er i mot det fordi det ikke gir noen mening.

 

Jeg vet ikke hvorfor du fortsetter å si at GPU skal stå i fokus, for GPU er helt klart ikke egnet til å gjøre jobben til en CPU. Hva skal CPUen assistere en GPU med når CPUen klart må gjøre alt arbeidet? GPU er ikke fremtiden, GPU er en spesialisert prosessor og har ingen magiske fordeler, bare en annen metode å arbeide på. Hvorfor skal en spesialisert prosessor være sentralisert når vi allerede har en enhet som er laget for å være en Central Processing Unit og kan utnytte det GPUen kun er god til, trignonometri og dataknusing. Det heter "riktig verktøy til riktig jobb".

Endret av Gavekort
  • Liker 3
Lenke til kommentar

Dette med stadig større integrasjon er nok en helt nødvendig utvikling. Skal man krympe størrelse så er dette veien å gå. I en mellomfase så vil noen entusiaster få lide litt, men i det lange løp er utfallet gitt. Dette vil også senke prisene etterhvert som RAM og andre moduler blir stadig mer integrert.

 

Man kan jo se motsatt på det og spørre hvem som ønsker en mobiltelefon med CPU-sokkel, vannkjøling og separate rammoduler?

Lenke til kommentar

dette blir vel en dum ting og gjøre siden mestparten av de som faktisk vil kunne bytte ut hovedkort å prosessor enkeltvis sitter på Intel prosessorer. Da mister de nok hele entusiastmarkedet så å si.

Selv bruker jeg AMD men ennå så bytter jeg aldri ut hovedkort og CPU samtidig, kjøper vanligvis nytt så snart det kommer noe som er bedre enn det jeg har allerede.

Lenke til kommentar
Gjest Slettet-Pqy3rC

Jaja, vil de skyte seg selv i foten så da de bare gjøre det for min del :)

 

Tja... se på dagens skjermkort hvor RAM og GPU er fastloddet. Jeg har ikke hørt så mye klaging rundt temaet, ingen har ytret ønske om å fritt kunne velge GDDR eller GPU variant.

 

Folk vil nok tilpasse seg.

Endret av Slettet-Pqy3rC
Lenke til kommentar

Tja... se på dagens skjermkort hvor RAM og GPU er fastloddet. Jeg har ikke hørt så mye klaging rundt temaet, ingen har ytret ønske om å fritt kunne velge GDDR eller GPU variant.

 

Folk vil nok tilpasse seg.

Faktisk på et gammelt vga kort på 386sx pcen min kjøpte jeg ekstra ram til. Kostet to hundre eller slik, dual in line pacage dvs tradisjonelle integrerte kretser.

På skjermkort er det ingen standard for busser selv ikke innenfor samme model serie, de billigere har smalere buss. masse ulike ram typer også innenfor samme model serie. er også plass og kjølings problemer. Også det faktumet at kraftigere skjermkort har mer nytte av mer ram en billig versjoner.

For dyrere raid kontrollere er det vanlig med en so-dim slot for cache.

 

For bærbare med felles cpu og gpu ville det vært relevant å få oppdatert gpu på et senere tidspunkt.

Spesielt når neste konsoll generasjon kommer og gpu kravene gjør et hopp oppover.

Lenke til kommentar

Det står jo:

 

Lodd på bærbar, modul for stasjonær :)

http://www.tomshardware.com/reviews/resurrection,573-2.html

mer trolig med et mini kretskort som går ned i noe som ligner på en cpu socket. da det tar mindre plass og er lettere å kjøle.

Etter det jeg forsto var tanken med pentium 3 cpu kortet at du kunne ha level 2 cache som egene brikker på kortet sammen med cpu. Pentium 2 cpuer hadde ofte level 2 cache i en egen minnemodul ved siden av cpu.

Lenke til kommentar

Man kan jo se motsatt på det og spørre hvem som ønsker en mobiltelefon med CPU-sokkel, vannkjøling og separate rammoduler?

Entusiaster? ;)

Århundrets julegave ville vært om noe slikt skjedde. Skulle gjerne hatt muligheten til å kunne bytte skjermtype selv, prosessor, minnebrikke/flashmodulen, RAM, kamera, og kanskje også deksel/kjøler.

 

Det hadde jo vært genialt å kunne bytte ut delene, ja da slipper du å bytte mobil annenhver år, eller hvert år. Du kan bare bytte ut det du trenger. Skulle gjerne hatt litt mer RAM, litt mer lagringsplass (uten å måtte bruke SD-kort), og kanskje en litt mer høyoppløst AMOLED-skjerm. Resten er jo helt tilfredstillende, og det er visse ting som prioriteres mer enn andre. Er litt spent på hva som hadde skjedd om jeg hadde loddet av den nåværende flash-brikken, og byttet den ut med en større. :p

 

Den dagen mainstream-markedet og entusiastmarkedet tilnærmet smelter sammen, er den dagen entusiastmarkedet dør ut. Om Apple hadde kuttet ut (dog allerede svært senvre) muligheten til å gjøre modifikasjoner på maskinene sine, og dette hadde skjedd med "PC-markedet", så vet jeg ikke helt hva som hadde skjedd men entusiastmarkedet, men noe stusselige greier hadde det uansett blitt. Kanskje vi bare må bli flinkere til å lodde og skrive ny drivere selv...

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...