Gå til innhold

Jobber med kombinert CPU/GPU


Anbefalte innlegg

Videoannonse
Annonse

For å være helt ærlig så tror jeg skjermkortene er i en slags gullalder nå, fordi man ser at grafikken blir "revolusjonerende" for hver nye generasjon som kommer. Men jeg tror at man før eller senere kommer til et punkt der man egentlig ikke kan se, eller bry seg om hvor mange millioner polygoner, eller hvor detaljerte texturene er lenger. Og da vil salgsargumentene først og fremst være størrelse(skjermkortet mitt er per i dag et forbanna monster på over en kilo :/ ), strømforbruk, og støy. Og jeg tror derfor at cpu/gpu i en sokkel vil være en god ting.

 

Noter dog at jeg snakker om et godt stykke fram, ikke sommern 2007 eller noe slikt.

Lenke til kommentar

Jeg vet ikke hvordan fremtiden blir men jeg ser frem til mer konkurranse på cpu-markedet uansett hvordan eller hvem som gjør det.

 

Skjønner ikke hvorfor folk er redde for å få gpu og cpu sammenslått, det kommer nok veldig lenge til å være mulig til å kjøpe de delene hver for seg. Tror markedet for sammenslåtte enheter er mer rettet mot vanlige folk og bedrifter som ikke har behov for high-end grafikk eller prossesor ytelse.

Lenke til kommentar
jeg har ikke trua på dette som den kresene forbruker jeg er. Men, skal man tjene penger på å lage prosessorer, etz, så må man selge i MANGE kvantum... og oss som bygger selv etz er særforbrukere med et utrolig lite marked, og det markedet Produsenten ville brydd seg minst mulig om(hadde jeg vært produsent og tenkte "fortjeneste").

Så du mener det ikke er noe fortjeneste å hente på produkter som Athlon64 FX-serien, Core 2 Extreme-serien, Geforce 7900-serien, Radeon X1950-serien osv? At produsentene nærmest driver veldedighet når de selger disse løsningene?

 

Problemet jeg ser i vårt tilfelle(vi som bygger), er at utvalget vil bli SVÆRT begrenset. Man tjener ikke penger på å selge i lite kvantum uten at prisen blir stiv, og det beste eksempelet vi har i dag er extrem-utgavene av prosessorer fra Intel og AMD. Disse tjener selskapet minimalt på, og er der kun for skryt etter min mening. Lages jo i veldig begrenset antall også... noe som skyter prisene i været.

Det samme vil eventuelt hende med CPU&GPU sammensmelting... fordi det må lages så mange forskjellige kombinasjoner, og vi vil få noen helvetes priser.

7133590[/snapback]

Det er jo ikke noe problem å lage mange kombinasjoner. I dag har vi ulike hastighetssorteringer, ulik mengde L2 cache, ulikt antall CPU-kjerner, ulikt antall pipelines, ulik klokkehastighet på GPU, ulikt antall minnebusser osv.

 

Bare for å ta noen av: Hvis man sorterer CPU/GPU i 6 ulike CPU-hastigheter og 6 ulike GPU-hastigheter så har man hele 36 varianter fra en og samme brikke. Ta med det at enkelte shaders og enkelte L2 cacher kan ha defekter og må kuttes ned for å være salgbare så har vi 4 ganger så mange varianter. Fra en eneste kjernedesign.

Lenke til kommentar
jeg har ikke trua på dette som den kresene forbruker jeg er. Men, skal man tjene penger på å lage prosessorer, etz, så må man selge i MANGE kvantum... og oss som bygger selv etz er særforbrukere med et utrolig lite marked, og det markedet Produsenten ville brydd seg minst mulig om(hadde jeg vært produsent og tenkte "fortjeneste").

Så du mener det ikke er noe fortjeneste å hente på produkter som Athlon64 FX-serien, Core 2 Extreme-serien, Geforce 7900-serien, Radeon X1950-serien osv? At produsentene nærmest driver veldedighet når de selger disse løsningene?

7134256[/snapback]

Om du bytter ut veldedighet med markedsføring så treffer du nok spikeren kraftig på hodet. Både faste og variable kostnader ved å levere en low-yield SKU er svært høye. Selv om de har et dekningsbidrag på noen tusen kroner per enhet så hjelper det lite når volumet er lavt.

Lenke til kommentar

Jeg tror faktisk ikke at markedet som består av bygg-PC-selv folk er så lite lenger, jeg. Se f.eks på hvordan Nvidia kjører store reklamekampanjer om at du bør kjøpe to kort i SLI, og anbefaler at du kjøper andre komponenter til systemet ditt som er "SLi-ready". Det tyder jo på at det ikke er et lite marked. Ikke nå lenger. De hadde vel neppe hatt så mye reklame for det dersom alle bare går og kjøper en OK PC på Elkjøp uansett.

 

For å være helt ærlig så tror jeg skjermkortene er i en slags gullalder nå, fordi man ser at grafikken blir "revolusjonerende" for hver nye generasjon som kommer. Men jeg tror at man før eller senere kommer til et punkt der man egentlig ikke kan se, eller bry seg om hvor mange millioner polygoner, eller hvor detaljerte texturene er lenger. Og da vil salgsargumentene først og fremst være størrelse(skjermkortet mitt er per i dag et forbanna monster på over en kilo :/ ), strømforbruk, og støy. Og jeg tror derfor at cpu/gpu i en sokkel vil være en god ting.

Noter dog at jeg snakker om et godt stykke fram, ikke sommern 2007 eller noe slikt.

Den dagen spill ser ut som dagens animasjonsfilmer eller bedre ingame uten problember, skal jeg slutte å bry meg, og gråte av glede :) Forøvrig så må jeg få si at det antakeligvis blir et godt stykke frem i tid, ja. Animasjonsfilmer og spesialeffekter i filmer forbedres og utvikles jo stadig, så det blir stadig mer å "ta igjen" for grafikken i spill, hvis man måler det opp mot det. Man kan jo spekulere i om man noen sinne vil kunne spille et spill i real-time med et detaljnivå som tilsvarer det man ser f.eks. i Sherk-filmene. Om man gjør det en vakker dag, så er jeg sikker på at den animasjonsfilmen som kommer ut på det tidspunktet vil se mye bedre ut enn i dag. Det er det jo nesten nødt til, ellers er det ikke noen vits i å lage animasjonsfilmer lenger - hvis man kan oppnå samme detaljnivå i real-time. Da kan man jo bare starte et spill på PC-en hvor du virkelig kan "spille filmen"...

Tok litt av her... sry. :)

Lenke til kommentar
,23/10-2006 : 19:58]Jeg tror faktisk ikke at markedet som består av bygg-PC-selv folk er så lite lenger, jeg. Se f.eks på hvordan Nvidia kjører store reklamekampanjer om at du bør kjøpe to kort i SLI, og anbefaler at du kjøper andre komponenter til systemet ditt som er "SLi-ready". Det tyder jo på at det ikke er et lite marked. Ikke nå lenger. De hadde vel neppe hatt så mye reklame for det dersom alle bare går og kjøper en OK PC på Elkjøp uansett.

 

For å være helt ærlig så tror jeg skjermkortene er i en slags gullalder nå, fordi man ser at grafikken blir "revolusjonerende" for hver nye generasjon som kommer. Men jeg tror at man før eller senere kommer til et punkt der man egentlig ikke kan se, eller bry seg om hvor mange millioner polygoner, eller hvor detaljerte texturene er lenger. Og da vil salgsargumentene først og fremst være størrelse(skjermkortet mitt er per i dag et forbanna monster på over en kilo :/ ), strømforbruk, og støy. Og jeg tror derfor at cpu/gpu i en sokkel vil være en god ting.

Noter dog at jeg snakker om et godt stykke fram, ikke sommern 2007 eller noe slikt.

Den dagen spill ser ut som dagens animasjonsfilmer eller bedre ingame uten problember, skal jeg slutte å bry meg, og gråte av glede :) Forøvrig så må jeg få si at det antakeligvis blir et godt stykke frem i tid, ja. Animasjonsfilmer og spesialeffekter i filmer forbedres og utvikles jo stadig, så det blir stadig mer å "ta igjen" for grafikken i spill, hvis man måler det opp mot det. Man kan jo spekulere i om man noen sinne vil kunne spille et spill i real-time med et detaljnivå som tilsvarer det man ser f.eks. i Sherk-filmene. Om man gjør det en vakker dag, så er jeg sikker på at den animasjonsfilmen som kommer ut på det tidspunktet vil se mye bedre ut enn i dag. Det er det jo nesten nødt til, ellers er det ikke noen vits i å lage animasjonsfilmer lenger - hvis man kan oppnå samme detaljnivå i real-time. Da kan man jo bare starte et spill på PC-en hvor du virkelig kan "spille filmen"...

Tok litt av her... sry. :)

7134605[/snapback]

Ja, som du selv sier så kan det nok ta en stund...

 

En av de kraftigste maskinene i verden. (ikke kraftigste men en av de i toppklassen) bruke 11timer på å rendre en frame av animasjonsfilmen monsterbedriften. (dete var altså under de værste scenene, da de rendret håret til han blå fyren :p)

 

Edit: Maskinen het "render farm" og er nok langt ifra liten. :D

 

Så at et skjermkort klarer samme oppgaven, bare noen hundre ganger raskere blir vell en stund til vi får se. ;)

 

EDIT: Mente selvfølgelig ikke 1FPS, men som du sier, ca 0,000025 FPS. :innocent:

Endret av andrull
Lenke til kommentar
Man kan jo begynne å lure på om ikke VIA skal hive seg med på sammensmeltings-kappløpet også. De har jo både eksisterende CPUer, GPUer og brikkesett og trenger ikke "finne opp hjulet på nytt" (les CPU) slik nvidia må.

7132401[/snapback]

Ja, du sier noe. VIA burde jo ha forutsetninger til å gjøre noe her. Men det er nok for mange i dette markedet allerede, og flere sammenslåinger vil nok skje i fremtiden.

 

Det virker ikke som de prøver så veldig hardt å spare plass på hovedkortene i dag. Det er jo mange produsenter som fortsatt samler på eldgamle porter som floppy, PATA, parallell, seriell og PS2.

Jepp. Det hadde vært bedre om de kunne legge ved noen overganger istedet. Det er også alt for mange forskjellige PCI-spor - PCI, PCI-X og to-fire PCI Express (1x, 4x, 8x og 16x). Fire skjermkort og... Fortsetter det slik, må de vel snart begynne å bruke baksidene også... He-he. Hvis det hadde vært mulig. ;)

 

Det må jo bli veldig upraktisk hvis CPU og GPU smelter sammen. Hvis du bestemmer deg for å sikfte "skjermkortet" må du jo skifte CPUen også.

7132695[/snapback]

Nei, det tror jeg ikke blir tilfellet. Hvis du skal sette inn et bedre skjermkort, kan du nok slå av det innebygde i BIOS. Men på bærbare kan det sikkert hende at du blir låst til det innebygde skjermkortet. På den annen side er det vel slik allerede nå, for de fleste bærbare.

Endret av Prognatus
Lenke til kommentar

De kan jo alltids lage HK med 12 16X PCIe spor hvis de vil. Men for den vanlige forbrukeren vil nok dette bli lite aktuelt. Svaret er som alltid: gjør det mindre, nye, mer moderne løsninger kommer til å bli tilgjengelige, slik som flerkjerne prosessorer med egne grafikk kjerner. Og jeg jubler, og blir deprimert på samme tid. Det er vel noen år til dette skjer....

Lenke til kommentar

Jeg vil takke alle debattantene her for en meget interessant diskusjon av et spennende tema. Selv har jeg aldri lagt skjul på at jeg er en stor tilhenger av integrasjon på alle nivåer, og synes det virker svært fornuftig å integrere også GPU på CPU. Slike løsninger er langt ifra noe nytt (f.eks. RMI Alchemy Au1200), men de har foreløpig bare vært tilpasset lav-ende/embedded-delene av markedet.

 

Nå som etterhvert prosessor-ytelsen nærmer seg tilstrekkelig for de aller fleste normale bruksområder, så tror jeg utviklingen i fremtiden går over i å designe mer fleksible og elegante løsninger og da vil graden av integrasjon også være sentral. Drømmen om et skikkelig system-on-chip virker ikke lenger så fjern som man først turde håpe på :)

 

Man kan jo begynne å lure på om ikke VIA skal hive seg med på sammensmeltings-kappløpet også. De har jo både eksisterende CPUer, GPUer og brikkesett og trenger ikke "finne opp hjulet på nytt" (les CPU) slik nvidia må.

7132401[/snapback]

Sant nok, VIA har alt som trengs og vel så det. Nå har de sjansen til å vise hva de er gode til, altså integrering, og levere banebrytende produkter lenge før deres mye større konkurrenter.

 

Det var ikke mange klager på at det ble umulig å bytte ut FPU når FPU ble smeltet sammen med en ALU CPU-kjerne for et drøyt tiår siden.

 

Slik tror jeg det kommer til å bli med CPU og GPU også.

7132750[/snapback]

Og som du nevner lengre oppe; det var svært få klager på at FPU ble integrert back in the days da 386 var det store. Eneste klagen jeg har hørt om er fra noen Intel sjefer som ville ha muligheten til å selge FPU som ekstrautstyr...

7132974[/snapback]

Hehe, bra sagt! :yes:

Endret av snorreh
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...