Gå til innhold

Slik blir AMDs neste «Llano»-prosessorer


Anbefalte innlegg

Videoannonse
Annonse

Stilig.

 

Men tenk på alle protestene mot integrerte buss-løsnnger, da - ja, /er/ virkelig markedet klar for en effektiv og rask løsning med høy ytelse og lave produksjonskostnader - på dette tidspunktet? Og blir ikke dette /forferdelig/ vanskelig å programmere på? Utallige internett-eksperter mener så! :roll:

 

Helt seriøst, folkens, dette er en total blindvei når det gjelder prosessor-løsninger! Se bort! Vend om i tide!

Lenke til kommentar

Stilig.

 

Men tenk på alle protestene mot integrerte buss-løsnnger, da - ja, /er/ virkelig markedet klar for en effektiv og rask løsning med høy ytelse og lave produksjonskostnader - på dette tidspunktet? Og blir ikke dette /forferdelig/ vanskelig å programmere på? Utallige internett-eksperter mener så! :roll:

 

Helt seriøst, folkens, dette er en total blindvei når det gjelder prosessor-løsninger! Se bort! Vend om i tide!

Er du ironisk?

Lenke til kommentar

Men vi får se da, om det blir "Llano" for liten, og "Llano" for stor. Tror det har stort marked i nettbrett, spesielt når Windows 8 kommer om rundt et år +/-.

 

Disse prosessorene er ikke det minste effektgjerrige sammenlignet med prosessorer i typiske nettbrett. Det fremgår jo av artikkelen at de vil bruke rundt 100 watt. Du vil nok aldri se en slik prosessor i et nettbrett. Da måtte du hatt det gigantiske batteriet i en egen ryggsekk, eller nøyd deg med bare et par minutters batteritid før du igjen måtte lade. Med rundt 100 watt effekt ville nettbrettet også hatt behov for en stor vifte og tilhørende kjøleribber.

 

Denne prosessoren og grafikkortet bruker rundt 200 ganger mer strøm enn prosessoren og grafikkortet i f.eks. en iPad eller nettbrett med på nVidias Tegra-prosessor.

Lenke til kommentar

Stilig.

 

Men tenk på alle protestene mot integrerte buss-løsnnger, da - ja, /er/ virkelig markedet klar for en effektiv og rask løsning med høy ytelse og lave produksjonskostnader - på dette tidspunktet? Og blir ikke dette /forferdelig/ vanskelig å programmere på? Utallige internett-eksperter mener så! :roll:

 

Helt seriøst, folkens, dette er en total blindvei når det gjelder prosessor-løsninger! Se bort! Vend om i tide!

Er du ironisk?

..det er ironisk ment. De som har sagt det samme de siste ti årene omtrent ord for ord har ikke vært ironiske.

 

For eksempel: mens gpgpu løsninger (høy-nivå logikk i parallell på et skjermkort - videreføring av shader-logikk) blir brukt selv i proffesjonelle prosjekt, så saksøker intel Nvidia slik at de ikke skal lage gpu/prosessor kjerner med integrerte kretser.

 

Vi kunne ha snakket om kompakte fler-kjerne cpuer med et integrert instruksjonssett for 3d-grafikk. Der minnet "3d-kortet" kunne ha brukt ville være mangfoldige ganger kjappere enn det vi har på de kjappeste skjermkortene vi har nå. For flere år siden. Men nei - dette var totalt ubrukelig.

 

Når løsningen på Ps3en (Cell) benytter seg av en tilsvarende integrert buss for å øke den praktiske prosesseringsytelsen - så er dette også håpløse greier som aldri vil kunne bli så bra som en PC, osv, osv.

 

Det ville vært mulig å lage en kompakt bærbar med høyere prosessorkraft enn en Alienware boks, ned på et par chiper. Men nei - uinteressant.

 

Men det som har vært tilfelle er at prosessor-konstruksjon har vært holdt igjen på grunn av at "industrien" ikke har vært klare til å legge periferikort-businessen død helt enda. Det er også grunnen til at ION chipsettet til Nvidia har vært satt ut mot netbook markedet heller enn skalert for laptoper og stasjonære bokser (for eksempel kjølet med ribber uten monster-vifter, osv).

 

Og det er selvsagt tilfelle at Llano blir prosessorer for liten heller enn stor. Og selvfølgelig at det vil bli integrert i et større hovedkort system -- som strengt tatt ikke ville være nødvendig.

 

...Jeg tror det vil ta så lang tid før det blir gjort noe fremgang på det området at PCer veldig fort ikke vil være interessante lenger. Over netbook-løsninger, konsoller og håndholdte maskiner.. Netbooks fordi de vil ha høy nok prosessorkraft til å matche en stasjonær PC. Konsoller fordi det vil være mulig for et selskap å pushe ny teknologi på en beskyttet platform. Og håndholdte fordi reduserte instruksjonssett ikke er beskyttet teknologi som intel kan saksøke folk hvis de bruker..

 

Men PC generellt vil forsvinne ut. Og bra er det.

Lenke til kommentar

Disse er jo rettet mot desktop markedet.

Men de har og jobber med flere modeller rettet mot andre enheter.

 

Det genialte med dette er at folk kan kjøpe dette heller enn maskiner der man har integrert skjermkort i hovedkortet, og det kan oppgraderes, både i forhold til CPU og GPU siden de begge er i samme enheten.

Skal man oppgradere en PC med integrert skjermkort må man kjøpe skjermkort, men det er ikke alle slike maskiner som er fornuftige å ha skjermkort i.

 

Disse produktene er som folk kanskje forstår ikke rettet mot spillemaskiner, men mer mainstream markedet som er mye større.

 

Har for egen del vurdert en bitteliten maskin til å legge bak TVen som inneholder en slik løsning, men har ikke råd før i slutten av mnd/neste mnd.

(skal handle en del komponenter samtidig.)

 

http://en.wikipedia.org/wiki/AMD_Fusion#

Lenke til kommentar

..problemet er det at det ikke lønner seg - om man tenker på ytelse osv - å produsere dedikerte skjermkort lenger til veldig spesifikke oppgaver. Tidligere var det veldig dyrt å lage en buss med delt minne over flere enheter. Nå kan en få dette i en og samme chip. Så problemet er løst.

 

Samtidig er det mest effektive anti-aliasing metodene for eksempel basert på høynivå-logikk, som man må slite veldig med å kunne bruke på shader-logikken man har på skjermkort ("en pixel-shader" er en prosessor med begrenset logikk og minne). Slik at oftere og oftere blir det nødvendig å ha en grafikk-maskin som avhenger av operasjoner på skjermkort og prosessor, om en skal få best mulig resultat. "Deferred rendering", som dukker opp i stort sett det meste nå er generellt sett en slik teknikk, der man reduserer grafikk-konteksten med "høynivå" programmer som krever cpu-logikk. "Morphological Anti-aliasing", er basert på høynivå-logikk som ikke kan kjøres umodifisert (..eller egentlig i det hele tatt) på shader-logikk.

 

Samtidig øker en ikke grafikk-kort ytelsen uendelig med å oppgradere skjermkortet heller. Bytte grafikk-kontekst, og oppdatere minne, osv, er en dyr operasjon. Og samtidig er det tilfelle at shader-logikk selvsagt kan kjøres motsatt vei - på cpu - slik at om det er mulig å lage en prosessor-løsning med flerkjerner som deler minne direkte med relativt raske mindre prosessorer - så er det usannsynlig mye kjappere enn det vi har på skjermkort nå..

 

..um.. :p ..så på Norsk: delte skjermkort/prosessorløsninger vil nok bli "spillmaskiner", eller de PCene med høyest ytelse veldig, veldig fort nå.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...