Gå til innhold

AMD har lansert kraftkaren «Fury X» og nye Radeon-kort


Anbefalte innlegg

Videoannonse
Annonse

Jeg er ganske sikker på at 94% mindre plass er målt i overflateareal og ikke volum. Det er dermed misvisende, fordi hbm bygges jo i høyden. Dermed blir arealet lite, men ikke nødvendigvis volumet. Det er en reduksjon, men den er ikke så stor.

 

Det er ikke uvisst hvorfor de kommer med 4 gb. Generasjon 1 av HBM støtter ikke mer enn 4 gb VRAM. Vi må vente til 2016 kortene før vi får HBM over 4 gb.

  • Liker 5
Lenke til kommentar

Kan bli veldig spennende å se nvidia og amd sin priskrig framover. Nvidia har et ganske så godt forsprang nå. Det som er dumt er at man nå nesten må kjøpe riktig skjerm til riktig GPU produsent, med tanke på adaptive sync teknologien.

 

Den idiotien har du bare ett selskap å takke for.

  • Liker 5
Lenke til kommentar

 

Det som er dumt er at man nå nesten må kjøpe riktig skjerm til riktig GPU produsent, med tanke på adaptive sync teknologien.

 

Den idiotien har du bare ett selskap å takke for.

Bare så synd at vi ikke kan gjøre annet en og la pengene gå til konkurrenter. når firmaene kommer med sære egenutviklet løsninger som de ikke vil dele. .

 

Jeg har lagt inn bestilling på 1 stk Fury X bare for og støtte AMD... for og få bedre konkurranse.. men Nvidia har dessverre alt for mange utviklere ombord i forhold til unike Nvidia funksjoner.

  • Liker 7
Lenke til kommentar

Det blir helt garantert nye GPU-er i fra både Nvidia og AMD på nyåret (2016). Da kommer de endelig over på 14 eller 16 nm teknologi avhengig og Samsung eller TMSC skal produsere disse henholdsvis.

I og med Oculus og Vive (HTC) heller ikke er på banen før trolig på nyåret for Oculus, og kanskje senhøsten for Vive, så vil jeg vente med å oppgradere maskinparken.

Med mer energigjerrige GPU-er så er det svært mye å hente i økt ytelse.

Jeg stiller i "godtebutikken" først i tidlige 2016. Jeg tror at det er da jeg vil få mest "bang for the buck"!

Dessuten vil Skylake være levert i fra Intel.

Sparegrisen skal fetes opp til da!

Jeg er imidlertid spent på hvor mye Fury vil yte. Håper det har en hysterisk ytelse, slik at Nvidia må legge på mer kull! :-)

Lenke til kommentar

Det blir helt garantert nye GPU-er i fra både Nvidia og AMD på nyåret (2016). Da kommer de endelig over på 14 eller 16 nm teknologi avhengig og Samsung eller TMSC skal produsere disse henholdsvis.

I og med Oculus og Vive (HTC) heller ikke er på banen før trolig på nyåret for Oculus, og kanskje senhøsten for Vive, så vil jeg vente med å oppgradere maskinparken.

Med mer energigjerrige GPU-er så er det svært mye å hente i økt ytelse.

Jeg stiller i "godtebutikken" først i tidlige 2016. Jeg tror at det er da jeg vil få mest "bang for the buck"!

Dessuten vil Skylake være levert i fra Intel.

Sparegrisen skal fetes opp til da!

Jeg er imidlertid spent på hvor mye Fury vil yte. Håper det har en hysterisk ytelse, slik at Nvidia må legge på mer kull! :-)

 

Følger deg på denne strategien, gjorde min siste investering på stasjonær pc i 2004 (ifbm Half Life 2), nå blir det Vive eller Rift og matchende hardware. Vil forøvrig velge AMD hvis mulig da jeg håper det bidrar til økt konkurranse.

Lenke til kommentar

Noen offisielle tall fra AMD med Fury X, 80% bedre FPS average og 65% bedre minimum FPS vs. 290X FarCry4@4k...

 

Nano blir 175W, så da tror jeg ytelsen er godt over 980 og enda litt til vs. 290X, meget interessant at den legger seg der, til nå er ytelsesgapet og prisgapet her for stort vs. TI, så nano blir nok velkomment kort for mange...

 

PS: Fury X påstås å være på lager allerede hos enkelte nettbutikker i UK, så da er det grunn til å tro at man kan få lommebok light snart for mange, også i norge..

 

Slenger med bilde av Fury X dualGPU også, siden artikkelen mangler mye offisiell info og bilder, så får vi hjelpe dem litt....

post-72177-0-71330700-1434540790_thumb.jpg

post-72177-0-41879800-1434540802_thumb.jpg

post-72177-0-20208300-1434540831_thumb.jpg

  • Liker 1
Lenke til kommentar

Jeg har lagt inn bestilling på 1 stk Fury X bare for og støtte AMD... for og få bedre konkurranse.. men Nvidia har dessverre alt for mange utviklere ombord i forhold til unike Nvidia funksjoner.

 

Hvor har du lagt inn bestilling? Finner den ikke på Prisjakt

Lenke til kommentar

 

Kan bli veldig spennende å se nvidia og amd sin priskrig framover. Nvidia har et ganske så godt forsprang nå. Det som er dumt er at man nå nesten må kjøpe riktig skjerm til riktig GPU produsent, med tanke på adaptive sync teknologien.

 

Den idiotien har du bare ett selskap å takke for.

De fleste selskap vil nok gjort akkurat det samme.

Da AMD kom ut med den første 64-bit prosessoren, så kostet de over 5000 Kroner for toppmodellen.

Jeg er ganske så sikker AMD hadde priset seg ut hadde de hatt et slikt grep på markedet også. Kanskje ikke med engang fordi de ligger så pass etter. "It's just business"

Lenke til kommentar

 

Bare så synd at vi ikke kan gjøre annet en og la pengene gå til konkurrenter. når firmaene kommer med sære egenutviklet løsninger som de ikke vil dele. .

Litt som Mantle mener du? (Som nå heldigvis er dødt og begravet...)

Mantle var ikke låst til AMD. Både Nvidia og Intel kan fint implementere ståtte for Mantle, det er fritt tilgjengelig. Men DX12 er for nå den bedre løsningen, men AMD har planer om å videre utvikle Mantle. Deres planer er at Mantle skal oppdateres oftere slik at det ligger før DX, så DX må leke "catch up". Mantle blir nok aldri stort utbrett, men det er nyttig for å hjelpe å pushe DX

Lenke til kommentar

håper på det beste fra amd,  170w tdp.....for den minste,  ikke bra alså

 

Nå vet jeg ikke om du er klar over at dette er toppkortene til Amd og at de har en ytelse mellom 1.5x til 2x (nano) per watt i forhold til 290x?

Så mens 290x bruker 240-270 watt så vil et nano kort gi langt bedre ytelse mot at det trekker langt mindre watt...

 

Og når jeg ser noen påstå at Amd sin "mantle" utvikling var noe herk så må jeg nesten påpeke at om Amd ikke hadde utviklet Mantle og faktisk påpekt hvor mye ytelse som man faktisk ikke fikk utnyttet pga Microsoft sin "Dx11 er bra nok" holdning for en stund siden, så hadde trolig DX12 med de ytelseforbedringene som har blitt gjort ( til samtlige skjermkort og apu'er) ikke blitt gjort før kanskje om noen år.

Så spiller ingen rolle om mantle er død og begravet når man har en arvtager som kommer på banen snart og som faktisk gir alle skjermkortprodusentene og Apu produsentene økt ytelse.

 

Når det gjelder Tek og denne artikkelen så synes jeg den er både mangelfull , sent ute , og viser at artikkelforfatter ikke har forståelse for hvordan HBM og teknologien fungerer , her bør man skjerpe seg litt da man har kunnet undersøkt om hvorfor HBM1 ikke kunne sørge for mer minnemengde og utdypet langt mer når det gjelder hvilke skjemkort som kommer.

Og så har man jo mangelen på bilder av skjermkortene , feilbilder og en del informasjon som mangler , ta gjerne en titt på trådene på forumet der man faktisk får litt mer info og på sweclockers : https://www.diskusjon.no/index.php?showtopic=1649562&&page=22

  • Liker 1
Lenke til kommentar

 

Jeg har lagt inn bestilling på 1 stk Fury X bare for og støtte AMD... for og få bedre konkurranse.. men Nvidia har dessverre alt for mange utviklere ombord i forhold til unike Nvidia funksjoner.

Hvor har du lagt inn bestilling? Finner den ikke på Prisjakt

Han skriver det bare for å være kul ;)
  • Liker 2
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...