Gå til innhold

ATI R580 bilder og specs


Anbefalte innlegg

Videoannonse
Annonse

Kortene burde egentlig få med seg egen strømforsyning som allerede et par produsenter har begynt å gjøre, på den måten slipper man å måtte oppgradere strømforsyninga hver gang man kjøper seg et kraftigere skjermkort.

 

Håper at Ati greier å finne en bra løsning på støy / varmeutvikkling problematikken da den er en nokså viktig faktor i tillegg til ytelsen og bildekvaliteten på skjermkortet.

Lenke til kommentar
Kortene burde egentlig få med seg egen strømforsyning som allerede et par produsenter har begynt å gjøre, på den måten slipper man å måtte oppgradere strømforsyninga hver gang man kjøper seg et kraftigere skjermkort.

5351880[/snapback]

 

Det er jeg egentlig helt uenig med. Det bør være et valg for de som ikke ønsker å bytte strømforskyning, men tenk på det ekstra kabelrotet? særlig på datapartyer. Må være utrolig morsomt å komme hjem fra TG og finne ut at du har glemt igjen strømforskyninga til skjermkortet der..

 

Får håpe for ATI at dette ikke er noen papirlansering nei, kan jo hende det blir ATI kort på meg igjen :-)

Lenke til kommentar

Syntest det hørtes ille ut å måtte ha 550 W kun til skjermkortene i et Corssfire oppsett. Dessuten må jo et slikt kort utvikle en god del varme når det trekker 450 W alene.

 

Håper virkelig at dem begynner å prioritere strømsparende teknoligi snart.

 

Det hadde også hvert fint å se bilde av referanse kjøleren.

Endret av Dj_eLmO
Lenke til kommentar

Rimelig strenge krav til strømforsyning.

 

450 Watt og 30 A.

 

550 Watt og 38 A ved crossfire...i grenseland for mange av dagens psu`er.

 

Hadde ikke vært meg imot, hvis de hadde utviklet et versjon skjermkort som fikk all strøm gjennom en egen adapter som du legger på utsiden av kabinettet.

 

Da kunne folk ha valgt om de vil ha en ekstra kabel på utsiden , eller ny psu!

Lenke til kommentar

Pokker for et strømforbruk!! :ermm:

 

Hadde håpet at det kom til å bli lavere....

 

Her ligger nok nvidia et hestehode forran. 7800GTX på 550Mhz (og 110nm prosess) bruker omtrent det samme som ATi på 625MHz med 90nm low-K (R520)

 

30A på +12V krever en ganske voksen PSU

 

Høres på meg som om ATi virkelig pusher det de har for å prøve å slå nVidia... Får bare håpe at det ikke blir "backfire" denne gangen og.... :p

Lenke til kommentar

Det kortet var ikke lite heller da, får vell dobbel kjøling og koster vell en del også da. plusser du på det at omtrent alle må kjøpe ny strlmforsyning blir det litt i dyreste laget (serlig hvis du har en som du har gitt 1000 kr for).

 

Den høye frekvensen på kjernen er nok blant de største synderene. selv om dette kortet skulle klokke bra kommer veld ig få til og kunne utnyte det da kortet kommer til og brenne opp psu relativt fort.

Lenke til kommentar
Kortene burde egentlig få med seg egen strømforsyning som allerede et par produsenter har begynt å gjøre, på den måten slipper man å måtte oppgradere strømforsyninga hver gang man kjøper seg et kraftigere skjermkort.

5351880[/snapback]

Det hadde jo vært lettere om de hadde unngått effektøkningen. Da hadde man sluppet både å kjøpe ny PSU og å levere med en egen PSU og alt kabelrotet og støyen det medfører.

 

Nå som produsentene av skjermkort har fått øynene opp for stillegående løsninger så bør vel også GPU-produsentene følge etter og lage noen serier med lavt strømforbruk.

 

PS. Til alle sammen, husk fysikken:

Effekt = Strøm * Spenning. F.eks 8 A * 12V = 96W.

Elektrisk effekt inn = Varme-effekt ut f.eks 96W elektrisk inn = 96W varme ut.

Temperatur på GPU = Romtemperatur + (Varme-effekt * kjøleevnen til kjøleren). F.eks 22'C + (96W * 0,5 grader C per W) = 22 + 48 = 70'C.

Lenke til kommentar
Kortene burde egentlig få med seg egen strømforsyning som allerede et par produsenter har begynt å gjøre, på den måten slipper man å måtte oppgradere strømforsyninga hver gang man kjøper seg et kraftigere skjermkort.

5351880[/snapback]

Det hadde jo vært lettere om de hadde unngått effektøkningen. Da hadde man sluppet både å kjøpe ny PSU og å levere med en egen PSU og alt kabelrotet og støyen det medfører.

 

Nå som produsentene av skjermkort har fått øynene opp for stillegående løsninger så bør vel også GPU-produsentene følge etter og lage noen serier med lavt strømforbruk.

 

PS. Til alle sammen, husk fysikken:

Effekt = Strøm * Spenning. F.eks 8 A * 12V = 96W.

Elektrisk effekt inn = Varme-effekt ut f.eks 96W elektrisk inn = 96W varme ut.

Temperatur på GPU = Romtemperatur + (Varme-effekt * kjøleevnen til kjøleren). F.eks 22'C + (96W * 0,5 grader C per W) = 22 + 48 = 70'C.

5352139[/snapback]

 

Fint innlegg.

Men når det gjelder toppkortene så kommer nok ikke produsentene til å bry seg så veldig, det er jo tross alt entusiaster som kan punge ut 5000-7000Kr for toppkortene så en tusenlapp til eller to spiller jo egentlig ikke noen rolle...

Men igjen så hadde jo en ekstern strømforsyning til kortene hjulpet en del...

 

Regner med at mainstream kortene kommer til å bli langt bedre ytelse / effekt messig.

Lenke til kommentar
Syntest det hørtes ille ut å måtte ha 550 W kun til skjermkortene i et Corssfire oppsett. Dessuten må jo et slikt kort utvikle en god del varme når det trekker 450 W alene.

 

Håper virkelig at dem begynner å prioritere strømsparende teknoligi snart.

 

Det hadde også hvert fint å se bilde av referanse kjøleren.

5352038[/snapback]

 

Det står ikke noe om at skjermkortet trenger 450W ALENE. Ati kom vel med noen slike utalelser på forrige generasjon også. Folk ragerte akkurat likt da, men det viste seg at det var kravet i et TYPISK system totalt. Så jeg tror nok fint vi kan slappe av om vi har en ok strømforsyning. Jeg bare nekter å tro at et skjermkort kan bruke 450 W alene.

Lenke til kommentar
Skal Nvidia komme med en ultra versjon av sitt 7800?

5352269[/snapback]

Nei... Men omtrent samtidig med R580 så kommer nVidia med 90nm versjonen av 7800 (G70). Hva det endelige navnet kommer til å bli er enda ikke bestemt. Brikken har iallefall kodenavnet G71, og er basert på en 90nm low-k prosess.

 

Foruten en krymping til 90nm er det også gjort noen andre "forbedringer" fra G70

Lenke til kommentar
Skal Nvidia komme med en ultra versjon av sitt 7800?

5352269[/snapback]

Nei... Men omtrent samtidig med R580 så kommer nVidia med 90nm versjonen av 7800 (G70). Hva det endelige navnet kommer til å bli er enda ikke bestemt. Brikken har iallefall kodenavnet G71, og er basert på en 90nm low-k prosess.

 

Foruten en krymping til 90nm er det også gjort noen andre "forbedringer" fra G70

5352297[/snapback]

 

.. og det går rykter om et kort med to brikker i (SLI-teknologi) som toppkort ;)

Lenke til kommentar

Bli med i samtalen

Du kan publisere innhold nå og registrere deg senere. Hvis du har en konto, logg inn nå for å poste med kontoen din.

Gjest
Skriv svar til emnet...

×   Du har limt inn tekst med formatering.   Lim inn uten formatering i stedet

  Du kan kun bruke opp til 75 smilefjes.

×   Lenken din har blitt bygget inn på siden automatisk.   Vis som en ordinær lenke i stedet

×   Tidligere tekst har blitt gjenopprettet.   Tøm tekstverktøy

×   Du kan ikke lime inn bilder direkte. Last opp eller legg inn bilder fra URL.

Laster...
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...