Gå til innhold

Her er Nvidias GTX 1060


Anbefalte innlegg

Videoannonse
Annonse

 

For høyt priset! Nvidia sine kort blir bare dyrere og dyrere... Snart så priser dem seg ut av markedet av ren grådighet!

Ja herre gud!

 

$10 dyrere enn RX 480 8GB...

For de $10 får du bedre ytelse og lavere energiforbruk! Sikkelig grådige Nvidia altså...  :roll:

 

FE koster $299, og pascal imponerer ikke i DX12! http://www.guru3d.com/articles_pages/total_war_warhammer_directx_12_pc_graphics_performance_benchmark_review,6.html

Endret av Koven
Lenke til kommentar

 

 

For høyt priset! Nvidia sine kort blir bare dyrere og dyrere... Snart så priser dem seg ut av markedet av ren grådighet!

Ja herre gud!

 

$10 dyrere enn RX 480 8GB...

For de $10 får du bedre ytelse og lavere energiforbruk! Sikkelig grådige Nvidia altså... :roll:

FE koster $299, og pascal imponerer ikke i DX12! http://www.guru3d.com/articles_pages/total_war_warhammer_directx_12_pc_graphics_performance_benchmark_review,6.html

Synn de ikkje tester BF1 alpha dx12 ;)

Lenke til kommentar

Nå ble rx 480 plutselig overflødig. Hvis prisen blir identisk, hvem i all verden er så merketrofast at de tviholder på AMD? Dette er i mine øyne skikkelig krise for konkurransen.

Fravær av konkurranse er et sunnhetstegn i denne sammenhengen og tyder at NVIDIA er mer eller mindre fair.

 

Aktørene som kun var i det for pengene er for lengst borte siden investorer har avviklet driften i de selskaper de hadde interesser i.

 

Konkurranse er feks bra i daglivarehandelen og først og fremst pga to faktorer. De omhandler varer man skal kjøpe om og om igjen og det omhandler varer man må ha. Blir det én aktør der kan det gå ut over utvalg, kvalitet og pris. Dessuten så selger de ulike salgsleddene der mer eller mindre lik vare til forskjellig pris og under ulike konsepter.

 

Grafikkort er ikke en vare man må ha. 9 av 10 brukere greier seg i dag med integrert grafikk. NVIDIA har levert produkter i toppklasse de siste 10 årene og pris/ytelse og ytelse/watt har sjelden vært bedre. Dette i en situasjon nesten uten konkurranse.

 

Se tilbake på 90-tallet. Da var det 10-15 grafikkort med ulike grafikkchiper i testene i datidens magasiner og over halvparten av kortene i test var produkter som aldri burde ha sett dagens lys. Da som nå så trengte man ikke alt skrotet, man trenger den ene aktøren som leverer i ypperste klasse enten det er effektgjerrige kort i inngangsnivå eller om det er high end.

 

Se tilbake til begynnelsen av 80-tallet. Konkuransen for salg av komputer og videospill for hjemmemarkedet var intens. "Alle" ville ha sin del av kaka og kvaliteten på produktet stupte, det ble bokstavelig talt en konkurranse i å underby hverandre på produksjonstid og kvalitet, noe som resulterte i at troverdigheten til produktene og aktørene stupte og hele markedet kollapset.

 

Det har ikke vært vært mindre konkurranse i markedet for grafikkort, komputere og konsoller og utviklingen er fremdeles bedre enn for 20-30 år siden. Det er ikke mange som tenker på at mikroprosessorer i produkter helt frem til begynnelsen av 90-tallet var designet på slutten av 70-tallet, dog produsert i en mer effektiv produksjonsprosess og med noe økning av frekvensen de opererte på. Dette var i en tid med mye konkurranse og det ble fremdeles solgt 10 år gamle design med lite interesse for å komme med noe nytt. Det kom stadig nye produkter i hyllene, men innmaten var omtrent som museumsgjenstander. Selv Neo Geo var basert på Motorola 68k og Z80, begge eldgamle museumsgjenstander selv i 1990. Det var først da PC og PSX took av på 90-tallet at utviklingen eskalerte. På PC kommer det stadig nye prosessorer og GPU-er, det benyttes ikke 10-15 år gamle brikker i ny innpakning. Tenk om NVIDIA hadde bestemt seg for å lage GPU med 1 million transistorer 10-15 år på rad og ikke gått fremover annet enn å øke frekvensen bittelitt og ned med effektbruken.

 

Når det gjelder grafikkort i forbrukersegmentet trenger man ikke konkurranse på det nåværende tidspunkt. Dersom NVIDIA backer ut på utvikling eller pris vil de kanibalisere eget salg fordi det for de fleste av deres tilbakevendede kunder ikke svarer seg å bytte ut eksisterende kort med nye. De som har fulgt med på 90- og 2000-tallet vet at tre fjerdedeler av de teknologibedrifter som kanibaliserte eget salg ikke lenger eksisterer. Etterspørselen forsvant og det var ikke lenger vits i å ha arbeiderne i jobb.

 

Det er legitimt å tro at de fleste bedriftsledere i teknologisegmentet har fått med seg fadesen til AMIGA i perioden 87-1992. Ledelsen bokstavelig talt stengte ned avdelingen for research and development slik at et chipset som egentlig burde ha vært ferdig i 1989 fremdels ikke var lansert i 1993 og da det var "ferdg" så var ytelse og spesifikasjoner så likt datidens PC at det måtte ytterligere forbedringer til for å komme i ønsket posisjon.

 

Den som sover på tronen, mister den. Det er ingen umiddelbar nødvendighet for konkurranse når det kommer til utvikling og produkjson av grafikkort. Det er faktisk større sjanse for at det hele blir avviklet fordi stadig flere av de potensielle kunder sier seg fornøyd med integrert grafikk enn at det skal bli bruk for konkurranse.

 

Flere aktører bidrar til et potensielt større marked, men i de fleste tilfeller hvor man har såkalt konkurranse i et voksende marked så vil flere av aktørene kun være der for å hente profitt fra naive kunder og ikke for å tilby produkter som utfordrer markedslederen.

 

Intel og NVIDIA gjør en utmerket jobb og innfrir produktmessig. Det er rett og slett sørgelig at AMD forsøker å konkurrere i begge disse segmentene uten å ha levert på ti år? Joda, det hender at de booster ytelsen et par hakk, men med en effektbruk som ikke ligner grisen verken på prosessorer eller grafikkort. I disse miljøfokuserte tider brude AMD fått produksjonskarantene til de greide å levere noe som ikke er mer varmeovn enn GPU/CPU.

 

Konkurranse ved utvikling av GPU gir et mindre oversiktlig marked og medfører større sjanse for at mannen i gata ender opp med et dårlig produkt. Hvis det er 10 utviklere av GPU, hvordan i alle dager skal folk som ikke er spesielt interessert hva mulighet til å velge riktig kort når hver enkelt lover gull og grønne skoger i egen markedsføring? Å markedsføre dårligere produkt grenser til svindel. AMD burde ikke fått selge sine kort i ei glanset og fargesprakende innpakning da det er misvisende og kan lure folk til å tro at kvaliteten er bedre enn den er. Det burde kommet i grå eske og med en stor rød sticker. "Advarsel! Middelmådig grafikkort med høy effektbruk. Egner seg bedre som varmeovn på kalde dager."

 

Konkurransen er over for denne gang, NVIDIA vant og kunder flest har derfor et egnet produkt. Den dagen NVIDIA ikke lenger "leverer" vil det bli holdt en ny konkurranse.

Endret av BadCat
  • Liker 1
Lenke til kommentar

 

Ja herre gud!

$10 dyrere enn RX 480 8GB...

For de $10 får du bedre ytelse og lavere energiforbruk! Sikkelig grådige Nvidia altså...  :roll:

 

FE koster $299, og pascal imponerer ikke i DX12! http://www.guru3d.com/articles_pages/total_war_warhammer_directx_12_pc_graphics_performance_benchmark_review,6.html
FE vil på 1060 bare selges direkte fra Nvidia i en begrenset periode.

Asus, eVGA, MSI, etc, vil selge kort som begynner fra $249.

 

DX12 påstanden din ser jeg på som trolling.

  • Liker 1
Lenke til kommentar

 

 

For høyt priset! Nvidia sine kort blir bare dyrere og dyrere... Snart så priser dem seg ut av markedet av ren grådighet!

Ja herre gud!

 

$10 dyrere enn RX 480 8GB...

For de $10 får du bedre ytelse og lavere energiforbruk! Sikkelig grådige Nvidia altså...  :roll:

 

FE koster $299, og pascal imponerer ikke i DX12! http://www.guru3d.com/articles_pages/total_war_warhammer_directx_12_pc_graphics_performance_benchmark_review,6.html

 

 

Tredjepart-kortene som kommer den 19 Juli er priset til $249. FE koseter $299, men det er ingen som tvinger deg til å kjøpe de. 

 

Warhammer er et spill AMD har hjulpet til med å lage, så selvfølgelig har de lagt inn mest mulig hindringer for ytelsen på Nvidia kort.

Endret av LoveAmiga
Lenke til kommentar

 

 

 

For høyt priset! Nvidia sine kort blir bare dyrere og dyrere... Snart så priser dem seg ut av markedet av ren grådighet!

Ja herre gud!

 

$10 dyrere enn RX 480 8GB...

For de $10 får du bedre ytelse og lavere energiforbruk! Sikkelig grådige Nvidia altså... :roll:

FE koster $299, og pascal imponerer ikke i DX12! http://www.guru3d.com/articles_pages/total_war_warhammer_directx_12_pc_graphics_performance_benchmark_review,6.html

Synn de ikkje tester BF1 alpha dx12 ;)

 

Er det kjent om det kommer til å være en Nvidia eller AMD logo «på» dette spillet?

Lenke til kommentar

 

 

 

 

For høyt priset! Nvidia sine kort blir bare dyrere og dyrere... Snart så priser dem seg ut av markedet av ren grådighet!

Ja herre gud!

 

$10 dyrere enn RX 480 8GB...

For de $10 får du bedre ytelse og lavere energiforbruk! Sikkelig grådige Nvidia altså... :roll:

FE koster $299, og pascal imponerer ikke i DX12! http://www.guru3d.com/articles_pages/total_war_warhammer_directx_12_pc_graphics_performance_benchmark_review,6.html
Synn de ikkje tester BF1 alpha dx12 ;)

Er det kjent om det kommer til å være en Nvidia eller AMD logo «på» dette spillet?
Vet ikkje, og bryr meg ikkje :)

Koser meg med bf1 alpha :D

Lenke til kommentar

 

Tredjepart-kortene som kommer den 19 Juli er priset til $249. FE koseter $299, men det er ingen som tvinger deg til å kjøpe de. 

 

Warhammer er et spill AMD har hjulpet til med å lage, så selvfølgelig har de lagt inn mest mulig hindringer for ytelsen på Nvidia kort.

 

 

Sjekk gjerne fakta først :

 

Total War : Warhammer er laget av : Creative Assembly og utgiver er Sega.

Warhammer 40.000 Dawn of War 3 er laget av : Relic Entertainment  og utgiver er Sega.

 

Så 2 forskjellige utviklere og 2 forskjellige motorer som står bak spillene , Dawn of War 3 bruker Essence Engine og siden de 2 første spillene ble sponset av Nvidia kan man anta at det siste også er det eller har sine fordeler på Nvidia kort : http://www.geforce.com/games-applications/pc-games/warhammer-40000-dawn-of-war-ii

 

Jeg tror du må slutte å anta at spillutviklere legger ut direkte hindringer på spillene de lager , i noen tilfeller er det konkrete ting som kan slåes av ( Nvidia sin Hairworks eksempelvis , men den støttes faktisk på Amd sin side også ) , men å legge ut konkrete feller for å ødelegge ytelsen fullstendig er bare tull og jeg ønsker gjerne å se konkrete bevis på at bransjen holder på med dette.

At noen spill faktisk har fordeler siden Nvidia / Amd har bistått dem med hvordan de kan utnytte skjermkortene maksimalt og ikke minst gitt dem økonomisk støtte i forhold til et konkret skjermkort betyr ikke at det andre skjermkortet nødvendigvis vil komme dårlig ut av det , det finnes mange konkrete eksempler på både Nvidia Titler og Amd titler der "konkurrenten" faktisk yter bedre enn de som ga teknisk hjelp og økonomisk støtte til utviklingen av spillet.

 

I andre tilfeller krever faktisk både Amd / Nvidia at logoen deres taes i bruk om spillet benytter seg av funksjoner som PhysX for eksempel ,men uansett så tror jeg de som jobber med å teste spill er flinke nok til å velge et balansert utvalg av spill som kan gi et godt helhetsbilde på hvor bra skjermkortene yter.

Lenke til kommentar

 

Tredjepart-kortene som kommer den 19 Juli er priset til $249. FE koseter $299, men det er ingen som tvinger deg til å kjøpe de. 

 

Warhammer er et spill AMD har hjulpet til med å lage, så selvfølgelig har de lagt inn mest mulig hindringer for ytelsen på Nvidia kort.

 

Sjekk gjerne fakta først :

 

Total War : Warhammer er laget av : Creative Assembly og utgiver er Sega.

Warhammer 40.000 Dawn of War 3 er laget av : Relic Entertainment  og utgiver er Sega.

 

...

Fakta ja...

I følge Guru3D som har gjort testen så har tydeligvis AMD vært sentrale i DX12 utvidelsen.

 

Total War: WARHAMMER is now DX12 compatible, and the graphics dev team has been working in close concert with AMD’s engineers on the implementation. This title is an AMD Evolved title and thus ws optimized with AMD.

 

 

Ut i fra konklusjonen ser det også ut som at AMD har fått de til å "glemme" MSAA støtten, og bare støtte MLAA som er en AMD optimert. Det er uansett sikkert en feiltakelse, det er vel bare Nvidia som gjør slike "onde" ting, eller hva?  ;)

This is an AMD title and the benchmark does enforce mandatory MLAA as MSAA is mysteriously missing. And yes, MLAA is better suited (well optimized) for AMD cards. 

 

 

Så... Min konklusjon.

 

Her tester de en pre-release av en DX12 patch utviklet i tett samarbeid med AMD. Synes Nvidia-kortene gjør det overaskende bra på et så tidlig stadie. 980 Ti/Titan X har bortimot identisk ytelse med Fury X, og GTX 1080 er i en klasse for seg selv.

Lenke til kommentar

 

Konkurranse ved utvikling av GPU gir et mindre oversiktlig marked og medfører større sjanse for at mannen i gata ender opp med et dårlig produkt. Hvis det er 10 utviklere av GPU, hvordan i alle dager skal folk som ikke er spesielt interessert hva mulighet til å velge riktig kort når hver enkelt lover gull og grønne skoger i egen markedsføring? Å markedsføre dårligere produkt grenser til svindel. AMD burde ikke fått selge sine kort i ei glanset og fargesprakende innpakning da det er misvisende og kan lure folk til å tro at kvaliteten er bedre enn den er. Det burde kommet i grå eske og med en stor rød sticker. "Advarsel! Middelmådig grafikkort med høy effektbruk. Egner seg bedre som varmeovn på kalde dager."

Problemet hvis AMD fjernes fra markedet, blir nvidia alene de kan øke prisen ennå mere.

Men ja enig det burde stå informert om. AMD skjermkort er mere for film\lett spilling.

Er kanskje ikke direkte varmeovn men GTX 1060 trekker mindre strøm og gir bedre ytelse enn RX 480 er det noe som ikke stemmer.

Lenke til kommentar

Er kanskje ikke direkte varmeovn men GTX 1060 trekker mindre strøm og gir bedre ytelse enn RX 480 er det noe som ikke stemmer.

Nå har ikke energiforbuket til GP106 blitt testet enda, men ser vi på "performance per watt" på GP104 vs. Polaris 10 så ligger Pascal-arkitekturen i en klasse for seg selv.

Polaris matcher derimot Maxwell Gen2 ganske bra.

  • Liker 2
Lenke til kommentar

RX 480 ligger allerede på ytelsesnivå eller bedre. sammenligna med gtx 980 i samtlige DX12 og Vulkan spel. 480 har ein meir avansert arkitektur med sine async compute engines og schedulers. Det krever plass på chipen og strøm for å drives. Nvidia har ein enkel arkitektur, noko som gjer dei fordel i effektivitet med DX11 og OpenGL, som ikkje benytter seg av dei ekstra features som AMDs arkitektur har tilgjengelig. Enklere arkitektur åpner og opp for høgare klokkefrekvens, siden det er mindre som kan gå galt.

 

Eg trur at 1060 vil være et bra kjøp for dagens spel. Men eg trur at framtidige DX12 og Vulkan spel kan gi AMD ein fordel. Kanskje dette blir ein radeon hd 7970 vs gtx 680 lignende situasjon. Då gtx 680 lanserte så var den 20% raskere enn 7970. Benchmarker du samme kortene i dag så er 7970 den klare vinneren. Ganske solid ytelsesøkning kun med nye drivere i dette tilfellet.

 

BTW til dei som klager på at AMD korta trekker for masse strøm frå pcie, så har AMD nylig sluppet betadriver som fikser problemet.

  • Liker 1
Lenke til kommentar

 

RX 480 ligger allerede på ytelsesnivå eller bedre. sammenligna med gtx 980 i samtlige DX12 og Vulkan spel. 480 har ein meir avansert arkitektur med sine async compute engines og schedulers. Det krever plass på chipen og strøm for å drives. Nvidia har ein enkel arkitektur, noko som gjer dei fordel i effektivitet med DX11 og OpenGL, som ikkje benytter seg av dei ekstra features som AMDs arkitektur har tilgjengelig. Enklere arkitektur åpner og opp for høgare klokkefrekvens, siden det er mindre som kan gå galt.

Så du mener RX 480 kan få 2 Ghz merke? På GPU?

Da det er særlig ramhastighet\buss vet ikke hvorfor AMD prioriter det?

 

For merker vertfall eldre skjermkort er AMD vesentlig tregere HD 7970 OC eller R9 280x en f.eks GTX titan på beregning av teksturer i starten av spillet.

 

Så lurer på hvordan RX 480 OC vil bli. Om den kunne bli hete RX 490 i teorien.

Da jeg trenger minst kort som kan konkureres mot GTX 1070 OC. Om jeg skal få noe fordel å oppgradere.

Vil helst styre unna nvidia da muligens de kortene ikke kommer å overklokke like bra. Da det er kjent en grunn for GTX 1080 finnes.

Og eyefinity er muligens bedre på AMD skjermkort en nvidia surrund.

Lenke til kommentar

RX 480 ligger allerede på ytelsesnivå eller bedre. sammenligna med gtx 980 i samtlige DX12 og Vulkan spel

Ikke alle. Nå er uansett ikke utvalget av DX12 spill særlig bra, men RX 480 ligger vel bak GTX 980 i Rise of Tomb Raider. Ganske likt i Warhammer og Ashes Of The Singularity. I Hitman gjør RX 480 det bedre.

 

480 har ein meir avansert arkitektur med sine async compute engines og schedulers. Det krever plass på chipen og strøm for å drives. Nvidia har ein enkel arkitektur, noko som gjer dei fordel i effektivitet med DX11 og OpenGL, som ikkje benytter seg av dei ekstra features som AMDs arkitektur har tilgjengelig. Enklere arkitektur åpner og opp for høgare klokkefrekvens, siden det er mindre som kan gå galt.

Konklusjonene dine stemmer ikke helt. Moderne brikker slår av (power gating) logikk som ikke brukes.

 

Eg trur at 1060 vil være et bra kjøp for dagens spel. Men eg trur at framtidige DX12 og Vulkan spel kan gi AMD ein fordel.

Det gjenstår å se. Pascal-arkitekturen har uansett full støtte for asynchronous compute hvis du er bekymret for dette. Ikke at jeg tror det har så mye å si, men hvis man først vil begynne å pirke på hva som kanskje kommer i fremtiden så ville jeg også tatt med i betraktningen at AMD sine GPUer ikke implementerer feature level 12_1 av DX12.

 

 

BTW til dei som klager på at AMD korta trekker for masse strøm frå pcie, så har AMD nylig sluppet betadriver som fikser problemet.

De har flyttet over strømtrekk fra PCIe slotten til 6-pin strømkontakten, men de er fremdeles utenfor PCIe spesifikasjonene.

Men, jeg er enig med deg at det ikke er noe problem. På 3. parts kort som er det jeg ville anbefale folk å kjøpe har de garantert designet et bedre power management.

 

Generelt sett vil jeg være skeptisk til å anbefale både Nvidia og AMD sine referansedesign. 3. parts design er vanligvis bedre.

  • Liker 1
Lenke til kommentar

 

 

RX 480 ligger allerede på ytelsesnivå eller bedre. sammenligna med gtx 980 i samtlige DX12 og Vulkan spel. 480 har ein meir avansert arkitektur med sine async compute engines og schedulers. Det krever plass på chipen og strøm for å drives. Nvidia har ein enkel arkitektur, noko som gjer dei fordel i effektivitet med DX11 og OpenGL, som ikkje benytter seg av dei ekstra features som AMDs arkitektur har tilgjengelig. Enklere arkitektur åpner og opp for høgare klokkefrekvens, siden det er mindre som kan gå galt.

Så du mener RX 480 kan få 2 Ghz merke? På GPU?

Da det er særlig ramhastighet\buss vet ikke hvorfor AMD prioriter det?

 

For merker vertfall eldre skjermkort er AMD vesentlig tregere HD 7970 OC eller R9 280x en f.eks GTX titan på beregning av teksturer i starten av spillet.

 

Så lurer på hvordan RX 480 OC vil bli. Om den kunne bli hete RX 490 i teorien.

Da jeg trenger minst kort som kan konkureres mot GTX 1070 OC. Om jeg skal få noe fordel å oppgradere.

Vil helst styre unna nvidia da muligens de kortene ikke kommer å overklokke like bra. Da det er kjent en grunn for GTX 1080 finnes.

Og eyefinity er muligens bedre på AMD skjermkort en nvidia surrund.

 

Eg har då aldri påstått at RX480 kan nå 2GHz. Det eg sa var at arkitekturen til nvidia er bedre for høge klokkehastighet og amd sin arkitektur er meir avansert og har fleire features. Trur du må lese om igjen ka eg skreiv.

 

Korfor i alle dager synest du det er rettferdig å sammenligne et R9 280X mot et GTX Titan? Kortet ligger i ein totalt forskjellig prisklasse.

 

Du må nok vente til 4 kvartal i år eller begynnelsen av 2017 for å konkurranse frå AMD med Vega arkitekturen mot toppkorta til Nvidia.

Lenke til kommentar
Men, jeg er enig med deg at det ikke er noe problem. På 3. parts kort som er det jeg ville anbefale folk å kjøpe har de garantert designet et bedre power management.

 

Generelt sett vil jeg være skeptisk til å anbefale både Nvidia og AMD sine referansedesign. 3. parts design er vanligvis bedre.

 

Men hvorfor kommer de ikke med vifter som blåser varmen ut på baksiden av kortet?

Det er jo prakstisk, slik at ved SLI slipper problemet med varme kort.

Referensedesign er bedre på crossfire\SLI.

Men 3 part design er bedre på overklokking.

Lenke til kommentar

Hvor fikk du de talla ifra? De kom med det billigste 8GB kortet til 2790kr.

Nei, RX480 kom på markedet til 2790kr. Så jeg synes det er rimelig å anta at 1060 kommer til 2900-3000kr

Jeg fikk de tallene fra å gå inn på komplett.no et par timer etter at RX480 ble lagt ut. Der var de fleste lagt ut til 3299.

Lenke til kommentar

MSRP på 249 og FE utgaven skal koste 299? Om 1070/1080 lanseringen er noe å gå etter så vil vel 299 bli minstepris. Så det vil koste mer enn rx480 og yte mer enn 480. Prisen på rx480 her til lands er helt på trynet og overasker meg ikke om nettbutikkene skal ha 4000kr for ett 1060 når det kommer.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...