Gå til innhold

Nvidia hardt ut mot AMD og Intel


Anbefalte innlegg

Videoannonse
Annonse

I forhold til high-end grafikk og heftige spillopplevelser er det ingen tvil om at separate løsninger fremdeles er veien å gå. De integrerte løsningene til Intel og AMD er rettet mot dem som kun bruker pcen til andre ting, som vanlig nettbruk, kanskje se på en film og pusle litt med en hjemmeside. Jeg tror ikke at hverken AMD eller Intel sier at du f.eks. kan kjøre Crysis på full fitjar med de integrerte løsningene heller.

 

Selv har jeg fått mindre og mindre sansen for nvidia, og regner med at jeg har kjøpt mitt siste nvidia-kort, nå som AMD åpner opp driverne og tilbyr like features på alle plattformer samtidig.

Lenke til kommentar

Jeg må si meg delvis enig med nVidia jeg også. x86-CPU og GPU er ganske så forskjellige, så det skal godt gjøres å få dette til bra.

 

Jeg er også spent på hvordan Havoc blir i forhold til PhysX, og hvilke konsekvenser dette får for spillindustrien. Det kan føre til at vi får spill som kun går bra på den ene eller den andre, og det ser jeg på som negativt når vi egentlig burde fått standardisert dette. Det burde vel vært en standardspesifikasjon slik at spillutviklere kunne laget spill uavhengig av implementasjon, og så hadde det blitt nVidia, AMD og Intel sitt problem.

Lenke til kommentar
I forhold til high-end grafikk og heftige spillopplevelser er det ingen tvil om at separate løsninger fremdeles er veien å gå. De integrerte løsningene til Intel og AMD er rettet mot dem som kun bruker pcen til andre ting, som vanlig nettbruk, kanskje se på en film og pusle litt med en hjemmeside. Jeg tror ikke at hverken AMD eller Intel sier at du f.eks. kan kjøre Crysis på full fitjar med de integrerte løsningene heller.

 

Selv har jeg fått mindre og mindre sansen for nvidia, og regner med at jeg har kjøpt mitt siste nvidia-kort, nå som AMD åpner opp driverne og tilbyr like features på alle plattformer samtidig.

Jeg tror også fusjonering av CPU og GPU kun vil bli til lowend segmentet som Filthpig skriver. Det vil nok ta lang tid før vi får se high end CPU\GPU. Dessuten tror jeg ikke dedikert gpu grafikk vil forsvinne fra AMD eller Intel heller.

Lenke til kommentar

Å så sjokkert jeg ble. Nvidia sier deres løsning er bedre enn AMDs og Intels. Uttalelsen er ikke verdt fem flate øre uannsett om Nvidia har et poeng eller ei. Intel og AMD planlegger å lansere en løsning som de sier vil gjøre «eksterne» GPU unødvendig, og Nvidia produserer nettopp «eksterne» GPUer. Dette er vel nærmest noe de er forpliktet til å si.

Lenke til kommentar

Hele poenget med å integrere gpu og cpu på samme brikke har så vidt jeg har fortstått mer med lavt strømforbruk enn høy ytelse å gjøre. At man får litt mindre fleksibilitet tviler jeg på at har så mye å si. Skifte av hardware skjer "aldri" på bærbare og egentlig forholdsvis skjeldent i største delen av markedet for dekstop segmentet. Det har altså forholdsvis lite å si om det ikke går ann skifte ut gpu.

Lenke til kommentar
Å så sjokkert jeg ble. Nvidia sier deres løsning er bedre enn AMDs og Intels. Uttalelsen er ikke verdt fem flate øre uannsett om Nvidia har et poeng eller ei. Intel og AMD planlegger å lansere en løsning som de sier vil gjøre «eksterne» GPU unødvendig, og Nvidia produserer nettopp «eksterne» GPUer. Dette er vel nærmest noe de er forpliktet til å si.

 

Skjønner deg veldig godt.

Jeg håper da at de også vil produsere CPU uten sammensmelting (grafikk).

Hvis de skulle slutte med det, så vil det koste oss dyrt pga. "eksterne" løsningen er mye bedre ytelsemessig på dette tidspunktet.

 

Og da spør man seg selv hvor lenge må vi vente før de interne løsingnen er dritt bta?

Lenke til kommentar
Gjest Slettet-Pqy3rC

Som flere andre sier, nVidia blir vel en smule innhabile når det gjelder påstander om hva som er best av deres egne og andres løsninger.

 

De kunne ha spart seg dette.

Lenke til kommentar
Ja de kunne godt spart seg dette. Men de får oppmerksomhet, og det er nettop det de ønsker.

 

Ja. Det som jeg lurer på er hvorfor Nvidia ikke ønsker at man skal kunne kjøre SLI på så mange hovedkort som mulig stabilt? Da kunne man enkelt fått satt opp beste CPU med beste GPU på beste hovedkort...

Lenke til kommentar

ja det kan meget godt hende at vi lever i den siste gode pc tia, før alt blir tatt over av nvidbox, playstation3000, xbox3, og alle de andre låste hardwareboksene som spillutgiverne heller vil at du skal spille på, profitten er jo mye høyere med de boksene så da kan jo ikke de (storkapitalen) la oss sitte og velge ut hvilken hardware produsent vi vil kjøpe fra.

 

de som blir markedsledende fra nå av og fremover vil sitte i en posisjon som ikke er lett for en nybegynner å ta del i, at det blir færre produsenter av hardware ser vi allerede, kansje en cpu produsent vil tippe over og måtte legge ned snart...

Lenke til kommentar
Som flere andre sier, nVidia blir vel en smule innhabile når det gjelder påstander om hva som er best av deres egne og andres løsninger.

 

De kunne ha spart seg dette.

Nei, Nvidia kunne nok ikke ha spart seg for det. I forhold til egne aksjonærer er de nødt til å ta til motmæle og stadfeste tiltro til egen teknologi og fremtid. Derimot kunne endel nettsteder etc. spart seg fra å publisere og bruke tid på slikt.

Lenke til kommentar
Gjest Slettet-Pqy3rC
Som flere andre sier, nVidia blir vel en smule innhabile når det gjelder påstander om hva som er best av deres egne og andres løsninger.

 

De kunne ha spart seg dette.

Nei, Nvidia kunne nok ikke ha spart seg for det. I forhold til egne aksjonærer er de nødt til å ta til motmæle og stadfeste tiltro til egen teknologi og fremtid. Derimot kunne endel nettsteder etc. spart seg fra å publisere og bruke tid på slikt.

 

Tja, det er neppe smart av aksjonærer å lytte for mye til hva selskaper mener om seg selv. Det er omtale fra tredjepart og generell kjennskap til markedet som vanligvis styrer aksjonærene.

 

Selvskryt kan imidlertid påvirke interne prosesser dersom det ikke gjøres for ofte og/eller pompøst. Det er lurt at ansatte har tro på det de driver med. Det er imidlertid sjelden at slikt med hensikt publiseres utad.

Lenke til kommentar

Jeg vil tro, som mange andre her, at det primært er low end gfx chips som blir integrert? Disse som tidligere lå å egen brikke på hovedkortet i integrerte løsninger?

 

Hvor store chips må til for å få plass til en CPU med samme muligheter/ytelse som en quad-core cpu og grafikkytelse tilsvarende ett 4870 kort (for ikke å snakke om X2?)? Og hvor stort blir det eventuelle effektforbruket hvis man antar dagens produksjonsstørrelse (45nm)? Det blir vel ikke praktisk å kjøle i det heletatt...

 

Core 2 Quad q9x00 + 4870 er jo 1776 millioner transistorer. (og da uten onboard ram?)

Endret av MrLee
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...