Gå til innhold

Intel melder om gode tall


Anbefalte innlegg

Videoannonse
Annonse

Liker overhode ikke utvikling innenfor styrkeforholdet cpu og gpu (mener økonisk, ikke teknologisk), vet jo at AMD har hatt 15 kvartal med store underskudd (15 utfra hva min avdanka hukommelse sier), og satt akkurat og leste leste denne artikelen om nvidia. Det var ikke særlig oppløftende lesing.

 

Skrekksenarie for meg er Intel enerådende huff.

 

Edit:

 

Selvsagt teknologisk også, er jo som pokkern når selv amd bruker I7 965 for å teste 5870 i crossfireX.

Endret av Osse
Lenke til kommentar

AMD klarer seg likevel meget godt på skjermkortfronten, så jeg tror nok de skal klare å holde prosessordelen gående en god stund til. Med PHII klarte de å (ut)konkurrere med hele Intels Core2-serie, som også var målgruppen. Det lover godt, og fikk AMD litt inn i kikkerten for folk igjen. Det er kun i toppsjiktet at Intel har ledelsen, og nå når de skitne avtalene er dømt, så kanskje AMD får innpass i ferdigbyggede og bærbare systemer på en rettferdig måte.

 

Jeg tror nok vi er inne i en litt annerledes tid. Før gjaldt det å ha så rask prosessor som mulig, for det var alltid den som var den begrensende faktoren. Nå har utviklingen av CPU kommet så langt at den i de fleste system faktisk vil være for rask, og sitte å vente på tregere komponenter som feks harddisken.

 

Etter hvert som SSD blir mer og mer vanlig tror jeg vi kan se for oss en trend der en kutter litt ned på kostnaden på CPU'en for å legge litt mer i feks en SSD. Om dette fortsetter så lover det godt for AMD. Men vi får vel bare vente og se...

Lenke til kommentar

Jeg er da helt klar over alle skitne triks som Intel har brukt markedsmessig. Og de dommer som er kommet i disse saker endrer ikke vesentlig på fremtidsutsiktene for AMD.

 

Og det er godt at AMD gjør det brukbart på grafikkfronten, men jeg har inga ønske om en nvidia undergang, og at AMD skal overleve på det. Med kun 11,5 % markedsandel på cpu ser det meget mørkt ut også for AMD.

 

Og det at det er mørke skyer for både AMD og Nvidia er ikke oppløftende i det hele tatt.

 

Og jo AMD er konkuransedyktig opp til mellomklassen, største skjær i sjøen er I5 750.

 

Vidre kommer nå AMD med grafikkort og teknologi, eyefinity, som kanskje AMDs egne cpu'er ikke er i stand til å utnytte fullt ut. Jeg har ikke sedd tester ennå som bekrefter eller avkrefter dette, men på multigpu og meget høy oppløsning så kreves det mye av CPU også, og tester tilsier at her kommer I7 sterkt inn i bilde.

 

Beste løsningen for disse skrekksenarier er fushion mellom AMD/Nvida, værste senarie er fushion mellom Nvida og Intel.

 

Jaja, er ikke enkelt å være nesten sykelig opptatt av den tekologiske og økonomiske situasjonen i nerde markede :)

Lenke til kommentar

Det er vel kanskje ikke dommene i seg selv som endrer ting, men at AMD faktisk har mulighet til å tre inn i nye markedsposisjoner som de har vært utestengt fra i lang tid. Så får tiden vise om de faktisk klarer å utnytte dette.

 

Jeg leste gjennom artikkelen om Nvidia, som sliter litt helt i topp-sjiktet, men det virker som om de fremdeles klarer seg bra. De har jo utviklet grafikkkort på gammel teknologi, så når de går over til 40nm så vil jeg nok regne med at de er ganske konkurransedyktige mot AMD.

 

i5 og i7 er ikke hyggelig for AMD, spesielt ikke førstnevnte. Men så er dette 2. generasjons CPU basert på 45nm fra Intel, mens PHII er førstegenerasjon fra AMD. Men om ikke AMD klarer å ta igjen Intel på teknologifronten, så ser det mørkt ut med en gang 32nm kommer på banen.

 

På mulit-gpu og høy oppløsning så klarer selv ikke den kraftigste i7 å dra for fullt, så GPU har kommet langt med tiden.

 

En fusjon mellom Nvidia og Intel ser jeg på som lite sannsynlig, da de ikke har så godt forhold til hverandre. At Nvidia og AMD går sammen har jeg faktisk ikke tenkt over. Men jeg kan godt se for meg at Nvidia også kan satse på CPU-markedet.

AMD har likevel en fordel når det kommer til framtiden med CPU og GPU og sammensmeltningen av disse, da de har erfaring fra begge leirer. Intel lager elendige grafikkløsninger.

 

Jeg er kanskje for optimistisk, men jeg ser ikke for meg totalt monopol for Intel på CPU eller AMD på GPU.

Lenke til kommentar
Jeg leste gjennom artikkelen om Nvidia, som sliter litt helt i topp-sjiktet, men det virker som om de fremdeles klarer seg bra. De har jo utviklet grafikkkort på gammel teknologi, så når de går over til 40nm så vil jeg nok regne med at de er ganske konkurransedyktige mot AMD.

 

___________________

 

En fusjon mellom Nvidia og Intel ser jeg på som lite sannsynlig, da de ikke har så godt forhold til hverandre. At Nvidia og AMD går sammen har jeg faktisk ikke tenkt over. Men jeg kan godt se for meg at Nvidia også kan satse på CPU-markedet.

AMD har likevel en fordel når det kommer til framtiden med CPU og GPU og sammensmeltningen av disse, da de har erfaring fra begge leirer. Intel lager elendige grafikkløsninger.

 

Nvidia sliter grovt med overgangen til 40nm, de høye herrer påstår arkitekturene ikke spiller godt på lag med produksjonsteknikken og gir miserable yields.

ikke for å snakke om at de nå ligger langt bak Ati som faktisk har vært på 40nm siden 4770.

spørsmålet er om de flopper neste arkitektur også, da kan det skje artige ting med markedet.

 

anngående nvidia og cpu, er det nettop det 300 serien er et forsøk på.

de sier selv den ikke vil bli en GPU, det er vistnok en cGPU. bygger på CUDA/Tesla delen av treet i steden for å satse på det som gav de posisjonen sin i utgangspunktet. spennende valg, da de ikke tjener penger på det enda, og markeddet er nær mikroskopisk.

Lenke til kommentar

Ja har lest dette, og Nvidia har mange gode poeng, pokkern at AMD og Nvidia ikke kan fushionere, er eneste koseltasjonen jeg ser som kan ha mulighet til å gi Intel ordentlig konkuranse, særskilt hvis Larrabee eller hva pokkern den grafiske saken til Intel heter, blir brukbar.

 

Håper rett og slett at en slik sammenslåing blir et fakta, og det fort.

Endret av Osse
Lenke til kommentar
Ja har lest dette, og Nvidia har mange gode poeng, pokkern at AMD og Nvidia ikke kan fushionere, er eneste koseltasjonen jeg ser som kan ha mulighet til å gi Intel ordentlig konkuranse, særskilt hvis Larrabee eller hva pokkern den grafiske saken til Intel heter, blir brukbar.

 

Håper rett og slett at en slik sammenslåing blir et fakta, og det fort.

Men da får du jo et ganske stort monopol på skjermkortfronten. Ser ikke det heller som helt positivt.

Lenke til kommentar
Nvidia sliter grovt med overgangen til 40nm, de høye herrer påstår arkitekturene ikke spiller godt på lag med produksjonsteknikken og gir miserable yields.

Tja, de sliter ikke noe mer med overgangen til 40nm enn hva andre har gjort. Det er ikke bare nVIDIA som har hatt tvilsomme yields på 40nm for å si det sånn. GT218, GT216 og GT215 har slett ikke dårlige yields.

 

ikke for å snakke om at de nå ligger langt bak Ati som faktisk har vært på 40nm siden 4770.

spørsmålet er om de flopper neste arkitektur også, da kan det skje artige ting med markedet.

Langt bak? Veeel... AMD lanserte 4770 i mai med elendige yields. Noe som skyltes TSMC sine problemer med 40nm prosessen (AMD og nVIDIA bruker samme prosess hos TSMC)

nVIDIA begynte å shippe 40nm produkter to måneder etter AMD, OEM-kunder fikk GT218, GT216 og GT215 slutten av juni.

 

anngående nvidia og cpu, er det nettop det 300 serien er et forsøk på.

de sier selv den ikke vil bli en GPU, det er vistnok en cGPU. bygger på CUDA/Tesla delen av treet i steden for å satse på det som gav de posisjonen sin i utgangspunktet. spennende valg, da de ikke tjener penger på det enda, og markedet er nær mikroskopisk.

Tror ikke du bør lese for mye informasjon ut av informasjonen som er gitt om Fermi. Du må også huske at denne informasjonen ble presentert på en konferanse for GPGPU-kunder og forskningspartnere. Fermi-arkitekturen er i aller høyeste grad tunet for grafikk også.

Husk at en grafikkprosessor er en ekstremt parallell CPU, som har blitt mer og mer programmerbar etterhvert som ting har utviklet seg.

Lenke til kommentar
Jeg tror nok vi er inne i en litt annerledes tid. Før gjaldt det å ha så rask prosessor som mulig, for det var alltid den som var den begrensende faktoren. Nå har utviklingen av CPU kommet så langt at den i de fleste system faktisk vil være for rask, og sitte å vente på tregere komponenter som feks harddisken.

 

Etter hvert som SSD blir mer og mer vanlig tror jeg vi kan se for oss en trend der en kutter litt ned på kostnaden på CPU'en for å legge litt mer i feks en SSD. Om dette fortsetter så lover det godt for AMD. Men vi får vel bare vente og se...

Jeg tror intel allerede har insett dette for godt over et år siden, og sansynligvis har det som et av grunnlagene for at de lagde x25-M, som er den definitivt beste forbruker-SSDen på ytelse, og med prisene etter Gen2 ble sluppet også best på ytelse/pris/kapasitet forhold.

 

For de fleste som ikke spiller nyere spill eller gjør workstation type oppgaver vil en maskin med Athlon II x2 250 + 785G hovedkort + 4GB DDR3 + x25-M gen2 80GB + kabinett m. strøm til totalpriis ca 4300-4500kr levere ytelse som vil føles som en 20.000 kroners maskin. For de som vil spille litt kan da et 5750 kort gjøre de aller fleste spill godt spillbare på 1680x1050 med akseptabel kvalitet for bare ca 1000kr mer. Folk som vil hyle om at 80GB er lite kan så vurdere om 80GB for systemdisk ikke bør holde for de fleste, og så og si alle har snurredisker liggende, og om ikke koster ikke 500GB-1TB mye å putte etterpå.

Lenke til kommentar

Samtidig har Intel nettopp gått til søksmål mot AMD.

 

Dette søksmålet som er i USA kan sees på som ett svar på Søksmålet AMD har mot Intel i Europa:

 

Intel sues AMD

Intel's legal eagles are suing AMD in America as part of its defence in an antitrust case it has already lost in Europe.

 

The AMD versus Intel antitrust fight is going for a rematch in the US courts and it appears that Chipzilla is getting mean right from the start.

http://www.theinquirer.net/inquirer/news/1.../intel-sues-amd

Lenke til kommentar
Nvidia sliter grovt med overgangen til 40nm, de høye herrer påstår arkitekturene ikke spiller godt på lag med produksjonsteknikken og gir miserable yields.

Tja, de sliter ikke noe mer med overgangen til 40nm enn hva andre har gjort. Det er ikke bare nVIDIA som har hatt tvilsomme yields på 40nm for å si det sånn. GT218, GT216 og GT215 har slett ikke dårlige yields.

 

sant nok, men jeg skulle likt å se hva slags yields de har på fermi, ikke 210\220.

nå tar jeg nyheter fra the inquirer med en klype salt, men de første forsøkene på 40nm ble sagt å ha gitt langt dåligere yields en hva man tradisjonelt har fått fra nye produksjonsfasiliteter.

de pekte til at arkitekturen ikke likte den "høye" strømlekasjen fra 40nm produksjonsteknikken til TSMC.

 

har du noen kilder på hvilke yields nvidia har på fermi?

 

ikke for å snakke om at de nå ligger langt bak Ati som faktisk har vært på 40nm siden 4770.

spørsmålet er om de flopper neste arkitektur også, da kan det skje artige ting med markedet.

Langt bak? Veeel... AMD lanserte 4770 i mai med elendige yields. Noe som skyltes TSMC sine problemer med 40nm prosessen (AMD og nVIDIA bruker samme prosess hos TSMC)

nVIDIA begynte å shippe 40nm produkter to måneder etter AMD, OEM-kunder fikk GT218, GT216 og GT215 slutten av juni.

 

når jeg sier langt bak mener jeg at nvidia fortsetter i kjent stil med kjempebrikker og kjempeytelse.

som er kjempefint. men nå leverer faktisk ati temmelig hardcore ytelse med 5870, til en pris de kan fire på, fordi brikkene er designa for GFX kraft. de kan helt sikkert rulle ut 5890 på kort varsel skulle behovet melde seg. nvidia har pengeproblemer. de har levert mange brikker, men profitten har ikke vært det den burde være.

de er nå på hæla, og må konkurere med et meget agressivt ati. slikt skader lommeboka, og nvidia har en småskada lommebok fra før.

 

anngående nvidia og cpu, er det nettop det 300 serien er et forsøk på.

de sier selv den ikke vil bli en GPU, det er vistnok en cGPU. bygger på CUDA/Tesla delen av treet i steden for å satse på det som gav de posisjonen sin i utgangspunktet. spennende valg, da de ikke tjener penger på det enda, og markedet er nær mikroskopisk.

Tror ikke du bør lese for mye informasjon ut av informasjonen som er gitt om Fermi. Du må også huske at denne informasjonen ble presentert på en konferanse for GPGPU-kunder og forskningspartnere. Fermi-arkitekturen er i aller høyeste grad tunet for grafikk også.

Husk at en grafikkprosessor er en ekstremt parallell CPU, som har blitt mer og mer programmerbar etterhvert som ting har utviklet seg.

 

det store spørsmålet er jo hvor mye silisium som går med på dedikert gpgpu.

pris/ytelse

pris/produksjonskostnader

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...