Gå til innhold

RYKTE: Har AMD omsider fått has på varmeproblemene sine?


Anbefalte innlegg

 

 

Nå ER jo faktisk en del g-syncskjermer bedre enn freesyncskjermene da. Kanskje ikkje alle, men en del. Noen freesyncskjermer er laget billigere også, altså det er ikkje bare g-syncmodulen som er forskjellen.

 

 

Byggekvalitet vil alltid variere fra produsent og modell til modell. Men G-Sync er på ingen måte bevist å være en bedre teknologi. Faktisk har AMD vist at inputlag kan være rundt ett ms mindre på FreeSync. Ikke at jeg av den grunn vil utrope FreeSync som vinner, men det er ihvertfall ikke motsatt vei på scaler siden.

 

Her er nesten samme, om ikke identisk panel i en FreeSync og G-Sync skjerm. Samme produsent, og veldig like i utførelsen. Men FreeSync versjonen har innebygde høyttalere som gjør den litt bredere. Og derfor må den også kunne heises litt høyere for å kunne settes i portrett modus. I tillegg har den støtte for DVI/HDMI/MHL som G-Sync modellen ikke har. Det eneste G-Sync modellen har som FreeSync'en ikke har er Nvidias stereoskopiske 3D. Hva skal man med det på en monitor som Nvidia nekter å støtte? Så om man forsaker ekstra porter og høyttalere (som jeg uansett ikke bruker). Kan man enda påstå at stereoskopisk 3D (som jeg heller ikke bruker) er verdt 1800Kr mer?

Lenke til kommentar
Videoannonse
Annonse

 

Det er veldig tydelig at AMD har hatt en annen fokus i det siste, og at det kommer til å betale seg nå! Du kan ikke nekte for at spillemarkedet havner i AMD sin favør fremover!

 

Hvorfor kommer det til å betale seg nå?

 

Hvorfor havner spillmarkedet i AMD sin favør? Jeg ser ingen grunner til dette.

Det kommer til å betale seg pga at når spillutviklere skal lage multiplattformspill, så blir dette designet rundt konsollene og dermed en AMD GPU. Det vil da si at de fleste spill fremover kommer til å være optimalisert for AMD GPU'er. Dette ser du litt av allerede, men kommer til å bli enda tydligere fremover.

 

AMD kommer nok også til å satse på flere svakere kjerner enn én kraftig i fremtiden hvor hver kjerne samarbeider på en mye bedre måte enn XFire eller SLI idag. Kan på en måte sammenlignes med RAID oppsett hvor flere GPU kjerner vil fremstå som én GPU for utvikler. Dette ligger nok litt lenger frem, men det kommer.

 

Når man da kan benytte mindre GPU kjerner enn store, så vil man få mye bedre yield pr. waffer som igjen senker prisene og øker fortjenesten til AMD.

 

Jeg kommer ihvertfall til å kjøpe en AMD GPU neste gang jeg oppgraderer.

Lenke til kommentar

 

 

Å kjøre 980TI på 1500 er null stress.

 

Jeg kjører 1500 på stock spenning, jeg klarer 1575 med spenningøkning. Det er under vann også, så at det skal dø selv på stock spenning er utenkelig for min del. Kortet er dog litt varmt, ca 50¤C under load. 45¤C ved folding

Så du sier at du kan overkloke 57.5% stabilt uten problemer over lang tid og dette uten at du må øke spenninger? Da må du virkelig ha et gull kort.

Men uansett så antar jeg at kortet trekker mer strøm , en 57,5% økning i hastighet vil trolig også øke Wattage i en viss grad.

Han skriver 1500mhz på stock spenning, eller hva leser du?

 

 

Jeg skjønner at dere ikke gidder lese mine "Wall of text" innlegg i diskusjonen med TK på forrige sidene. Men om dere hadde gjort det, så ville dere sett at jeg tar opp myten om Maxwells "fantastiske" overklokkings-egenskaper. Jeg kan ikke fatte at ingen har gjort det før.

 

Men uansett, i første omgang har det lite for seg å diskutere hva man kan få til av frekvenser med et custom loop vannkjølings oppsett til 6000Kr +++. Og så sammenlikne det mot luftkjølte eller til og med AIO kort som Fury DUO. Nå, Fury serien har jo vist seg å være håpløs å overklokke uansett, så det er en enkel seier til Maxwell.

 

Men når folk referer til 1500MHz som en 50% overklokking, så får jeg nesten lyst til å rive ut håret. Mine kort ligger på 1281MHz for det meste. Om jeg legger inn custom bios og vannkjøler så det aldri bikker under 1500MHz. Så er det fremdeles ikke overklokket mer enn:

 

1500-1281= 219MHz

219/1281x100= 17,1%

 

Med custom bios og vannkjøling vil man derimot sikre at kortet ikke dypper like langt ned i frekvens som ellers. Men til syvende og sist så er det bare % frametimes som egentlig er interessant.

 

En 17% overklokk for et kort på 1000MHz er tross alt "bare" 170MHz til sammenlikning med de 219MHz som mitt kort må booste ekstra for å kunne kalles en lik overklokk i prosent.

Lenke til kommentar
Gjest Slettet-RnjNn5NbHl

Det er ingen her som skriver mere enn 3 setninger som er nøytrale å kun ser på fakta.

 

 

personlig bryr jeg meg ikke om hvor mye watt en gpu er, jeg bryr meg kun om kraft fohold til pris for den prisen jeg er villig til å bruke, og så lenge du ikke går for top modeller, vinner AMD som oftest det, ved visse untak, eks. viss tid etter 900 serien til Nvidia kom.

 

generelt sett er det veldig likt mellom Nvida og AMD, ved untakk av hvor mye de selger. noe som mest er fordi Nvidia er bedre på reklame og hva venner eller folk på forum sier, som en eller annen grunn ofte blir Nvidia. tipper de igjen sier det på grunn av at de har det selv eller de er påvirket av Nvidia i media og internett.

Lenke til kommentar

 

 

Skjønner ikke at AMD har ryktet for å være problematisk med varme. Kjøpte et r9 280x lett brukt med kjøler fra Asus for 1500kr for 2 år siden. Dette er fremdeles på "recommended" på samme spill som Nvidia 970 og holder seg jevnt på rundt 80 grader under spill. Allikevel ser de fleste jeg kjenner på AMD som om det var pesten. Noen som kan forklare meg hva som er så grusomt med AMD?

Der er en del i nvidia leiren som ikke ser forskjell på tall og virkelighet!

 

 

Virkeligheten de siste par generasjonen er jo at Nvidia sine kort har vært klart bedre på de aller fleste områder. Ikke mye å diskutere det.

Selv i de generasjonene AMD (ATi) har vært overlegne, har Nvidiahatt høyest markedsandeler.

Lenke til kommentar

 

Først strømforbruk igjen. For det første så bruker du "maximum" grafen, og den sier noe om effektbruk kun når du kjører Furmark, det blir jo fullstendig feil, og ikke minst uinteressant. Du må lese forklaringen over grafene. Og om du også kikker litt nøyere, så finner du i grafen din også et Colorful GTX970 "turbo" som trekker 270W i Furmark, altså bare 50W mindre enn R9 290 fra den grafen. "Peak" er Metro spillet, og angir rett og slett bare det høyeste trekket i løpet av benchmarken. Igjen ganske uinteressant om kortet trekker 253W i ett sekund, om average gjennom hele spilløkten er 231W. Det er "Average" strøm trekk vi skal kikke på. Så hvis du ser her, så ser du at et R9 390 som er 1% overklokket, i gjennomsnitt trekker 68W mer enn et referanse GTX970. Når vi hører folk snakke om ytelse per Watt, så må vi vel nesten få lov til å anvende det prinsippet ikke bare når det gjelder Nvidia vel? Så jeg sier at; om skjermkortet yter 4-9% bedre, så må det vel også få "lov" til å trekke 4-9% mere strøm? Det er egentlig ganske rundhåndet av meg, siden vi vet at de siste wattene man gir et skjermkort gir mindre og mindre ytelse per Watt. Om vi så tar og trekker fra den strømmen de ekstra 4GB med minne trekker, ~25W har jeg lest. Så ser vi at forskjellen ikke egentlig er så vannvittig stor i forhold til ytelse ihvertfall. Men, selv om det ikke er rettferdig å "straffe" 390 for å ha mer VRAM, så er riktignok de ~25 Watte'ene der fremdeles. Og de må finne en vei ut av kabinettet. Kanskje innløpsviften(e) må spinne på 800rpm i stedet for 700rpm. Men det er i stor grad den største ulempen med hele Watt diskusjonen. 50W ekstra begynner først å bli plagsomt i 3 - 4SLI/CFX.

 

Når det gjelder hvilke spill som brukes til benchmarks, så sier det seg selv at vi ikke kan teste GTX980ti med "Loderunner". Spillene må være kurante, det må være spill folk faktisk spiller, og de skal selvfølgelig ikke favorisere den ene arkitekturen mer enn den andre. Et spill TPU har droppet er ProjectCARS som ikke bare hadde en egen AA metode designet for Nvidia, men som de utrolig nok også brukte under benchmark, og det slo vannvittig ut i Nvidias favør. Så du ser, det var ikke snakk om å bytte ut til noe som favoriserte AMD. Det var omvendt. Wolfenstein er også droppet, Nvidias skjermkort yter utrolig mye bedre enn AMDs tidligere generasjoner i det. AMDs svake OpenGL ytelse har vært kjent lenge, så selv mener jeg de kanskje burde beholdt Wolfenstein. Om ikke for annet enn å gi AMD et spark i baken i forhold til OpenGL ytelse. Men på den andre siden, så er ikke OpenGL spill spesielt aktuelt for folk med Windows. Så å beholde en benchmark som forskyver resultatet for de 95% andre spillene, er kanskje heller ikke riktig. Men som jeg sa; TPU tester mange nok spill til at gjennomsnittet ikke flytter seg så voldsomt basert på en eller to titler. Men poenget mitt har uansett vært at det ser ut som at AMD yter bedre i nyere spill. Og de har jo ikke byttet ut "Nvidia titler" med gamle "AMD titler", har de vel? Om AMD yter bedre i nye titler, så er det fordi de er nye, ikke designet for AMD. Med mindre du regner med porteringer fra PS4 og XBOne. Som absolutt er designet for AMD hardware. ;) Skal vi laste AMD for at spillprodusentene prioriterer konsoller?

 

Når det gjelder 7970/280X vs. 680/770. Ja, ytelsen var nesten identisk. Så gikk det 2,5 år. Og slik er fasit i dag. 770 gir 81% av ytelsen til et 380X Strix i 1080p. Mens et 280X gir 97% av ytelsen til 380X Strix. Hvis du tar 770s 81% og plusser på 19,75%, så ender du opp på 280Xs 97%. 280X er altså 19,75% raskere enn 770. I 1440p er 280X 23,75% raskere enn GTX770. Du ser datoen for testene på toppen av hver side..

 

780ti kostet 700USD ved launch. Og dyttet dermed prisen på 780 ned fra 650USD til 500USD. Ihvertfall i henhold til Wikipedia som bruker bit-tech som kilde. Hvis du ser på lanseringsdatoer, så ser du da at jeg ikke har halt eksempelet mitt ut av ræva.

 

Resten av innlegget ditt henger slik jeg ser det på at du har en konspirasjonsteori om at TPU plutselig har byttet ut til bare AMD vennlige titler. I så fall er det du som har noe å bevise, ikke jeg..

 

Edit:

 

Glemte å kommentere linken din til overklokket resultat for GTX970. Jeg foreslår at du kikker litt nøyere på den artikkelen selv. Forfatteren påstår at han har overklokket GTX970 til 1318MHz. Det må jo i så fall være historiens dårligste overklokking av et GTX970? Jeg tipper han har økt "typical" fra 1178MHz til 1318MHz, og så har kortet boostet godt over det, uten at han har fått det med seg.

 

Poenget mitt, som du kanskje ikke tok. Er at Nvidia "lyver" når de sier at kortet demmes kjører på 1050MHz, men "typisk" booster til 1178MHz dersom strøm og temperatur tillater det. Som jeg viste i denne linken, så kjører et referanse GTX970 helt opp til 1252MHz, og helt ned til 910MHz (i Furmark).

 

AMD har også dynamisk frekvens. Jeg har sett det bli påstått at AMDs R9 390 er helt nede i 800MHz under load dersom det blir for varmt eller trekker for mye strøm (som ofte nok er den samme tingen). Men AMD setter altså sin øvre grense i stein (1000MHz for referanse). Så om vi skal sammenlikne likt, så må vi også vite den samme informasjonen for begge parter. Og det gjør vi altså ikke. Linken jeg ga fra Anandtech er så nærme vi egentlig kommer. I det vi da i det minste har en slags øvre grense for Nvidia kortet også, siden de aldri så det over 1252MHz. Og jeg mener altså at det uansett er dette tallet som er det viktigste når det kommer til overklokking. Hvem bryr seg om kortene lunter på 900MHz i noen tilfeller? Alt vi trenger bry oss om, er hvordan denne frekvensen omsettes til spillopplevelse. Om det er riktig at R9 390 kjører ned til 800MHz i heavy load scenarioer. Så kunne AMD ha oppgitt det som 390'ens frekvens, "men det booster til 1000MHz under riktige forhold." Om vi da skulle oppgitt overklokkingen i prosent slik som det gjøres på Nvidias kort. Så er et R9 390 som booster til 1200MHz faktisk 50% overklokket. Skjønner du problemet?

 

Jeg skrev for en stund tilbake her på forumet en "analyse" av overklokking av 970 vs 390. Jeg skal se om jeg finner den igjen heller..

 

 

Helt enig i at average er det en må se på, skulle sett litt bedre gjennom grafene.

 

Likevel, la oss bruke average tall, samme tallene som du har skrevet i innlegget ditt og.

163W * 1.41 = 231W

Altså trekker R9 390 41% mer strøm enn GTX 970. Så ser ikke helt hvor 4-9% kommer inn.

Det at R9 390 har 8 GB VRAM er sant, men det er AMD sitt problem, ikke mitt problem. Det er deres dårlige avgjørelse å legge til 4 GB VRAM som ikke påvirker benchmarks. Det at AMD har gjort dette endrer ikke hvordan virkeligheten er. Dessuten tviler jeg på at den bruker 25W, da de 4GBene ikke brukes så mye akkurat. Ville tro VRAM bruker mindre strøm når den ikke brukes hvertfall. Hadde vært kjipt for bærbare om det ikke var tilfellet. Åpenbart trekker de noe strøm, det kommer du jo ikke unna.

 

Men som jeg har skrevet tidligere: Har du et vanlig størrelse kabinett med grei kjøling så har du rett. 68W er ikke veldig mye, og ikke veldig merkbart. Det eneste stedet jeg har sagt det betyr noe er for ITX ol :)

 

Du har helt rett angående det du skriver om OC. Jeg ville ikke sagt Nvidia lyver. Jeg ville tippe Nvidia gjør det ganske likt som Intel når de setter tallene sine. En Intel Core-M kan jo overklokkes over 100%. Samtidig kan du og si det er en underklokket i5-XXXXU. Det som bestemmer grunnfrekvensen er TDP. Hvis du har kjøling som tar vekk akkurat 4.5W og kjører full load i 30 minutter så skal frekvensen være lik oppgitt grunnfrekvens. Variasjoner oppstår siden chiper er forskjellige selvfølgelig.

 

Det samme gjelder nok for Nvidia. Frekvensen de oppgir er basert på at kjøreren ikke tar vekk mer enn 145W, eller at den ikke får mer en 145W inn. Boost frekvensen er nok det den maksimalt kan gå opp til med en power limit. Likevel, hvem kjøper et slikt GTX 970 kort? Ingen. Jeg tror ikke de finnes engang. De har alle langt høyere power limit, og langt bedre kjøler. Det gjør at de har mye headroom til å booste opp til høye frekvenser, noe som er reklamert fra Nvidia sin side i form av GPU boost 2.0. Tallene Asus/Gigabyte/Evga/Msi osv putter på kortene derimot er jo helt klart feil. Det er likevel ikke Nvidia sitt ansvar, det er ikke de som lyver.

 

Men selv om det er vanskelig å måle OC i prosent for Maxwell kort, så kan en jo alltids se på hvor stor økning i avg. fps de har i spill, fordi det hjelper helt klart å overklokke kortene, med riktig kjøling og power limits osv.

 

Angående benchmarks:

TPU fjernet Nvidia titler, ja. Det er det som er problemet. De har nå masse nøytrale + en del light AMD bias titler. De har ingen skikkelig counter med Nvidia bias i listene sine. Og problemet er akkurat det at de har så mange titler. Dermed er det ingen ekstreme spill, men en god del som har klar tendens til å gå mot AMD.

 

Jeg tror ingen seriøse nettsider velger ut spill for å fremheve noen som helst. Jeg tror ikke TPU har gjort det heller. Jeg bare konstaterer at de har gjort endringer i listen sin. Det har gjort at AMD kort relativt sett yter bedre enn Nvidia nå. Som følge av fjerning av titler som favoriserer Nvidia slik at du står igjen med stort sett AMD og mye nøytralt. Jeg tror på ingen måte noen har gjort dette med vilje for å favorisere en produsent. Se f.eks Linus Tech Tips. De har hatt 4 episoder av scrapyard wars. De skal finne komponenter billigst mulig, som yter best mulig. Benchmark for GPU er alltid tomb raider. Jeg har enda til gode å se en sesong der noen har engang tenkt på å dra inn et Nvidia kort. Det er alltid AMD, selv om det kan være vanskelig å skaffe seg et kort, så blir det alltid AMD. Hvorfor? Fordi AMD kort gjør det klart bedre i Tomb Raider. Du har og Ryse, Shadow of Mordor osv.

 

Du kan jo og lett se at gamle kort yter likt helt til de endret testen. Så ser du plutselig med den nye at 7970 drar fra 680. Det betyr ikke at 7970 har blitt relativt sett bedre over tid og at AMD kort holder seg bedre over tid. GTX 970 falt og mye mot 290X/390. Plutselig var det en god ytelsesseier til 290X/390 som ikke var der før. Samme gjelder alle Nvidia kort. Det er det som er årsaken til de resultatene du drar frem. AMD kort ble ikke 4-9% raskere over natten.

 

Var ikke klar over at 780 kostet så mye før... Vel, jeg har aldri forsvart 780 og 780 Ti. Når de kom husker jeg at jeg tenkte: "Nvidia utnytter posisjonen som ytelseskongen ganske mye med de prisene". Kommer aldri til å forsvare de kortene. Fra et ytelse/pris perspektiv har de alltid vært dårlige, og jeg håper virkelig folk ikke kjøpte dem for noe annet enn at de ville ha det beste (som er helt ok). Uansett om du bruker gamle eller nye testen synes jeg de var dårlige kjøp. Du trenger ikke overbevise meg om det :p Jeg er veldig enig med deg der. Det betyr likevel ikke at alle Nvidia kort er slik, bare fordi to kort er slik :)

 

Tror ellers jeg har fått sagt alt jeg har å si om akkurat dette nå :) Det å vurdere hva som er AMD titler, om testen er bra eller ikke, er det nøytralt osv blir vanligvis bare en lang og unødvendig diskusjon uten enighet uansett.

Lenke til kommentar

Tkongen : Inntjeningen til Amd er trolig omtrent 100 dollar per PS4 som selges :http://www.theinquirer.net/inquirer/news/2308282/amd-makes-more-profit-than-sony-on-the-ps4

 

Med 30 til 40 millioner enheter PS4 så kan man jo gange dette med 100 og man sitter igjen med 3000.000.000 dollar eller hele 30 Milliarder Norske kroner om jeg ikke tar helt feil og det kun ved salget av PS4, tar man med Xbox One som jeg vil anta Amd også tjener greit på så blir det en del penger.

 

Hvor du personlig tar "brødsmuler fra" vet jeg ikke , men om du har bedre kilder enn det jeg har på inntjeningen per PS4 / Xbox one som blir solgt så kom gjerne med dem.

 

Det er også viktig å huske på at produksjonen av brikkene til Amd koster penger og bruttoen de sitter igjen med kan være lavere, det er estimert å være 15 $ som er fortjenesten sin slik jeg forstår det. Men 15 dollar per brikke etter at Amd har betalt for kostnadene er ikke småpenger for et selskap som AMD som trenger sårt pengene og vi må huske på all gjelden selskapet har.

 

Trolig så tror jeg at oppfattningen av at dette er "lommerusk" er Nvidia sine uttalelser om saken, som er både feilaktige og ikke minst trolig en del av PR kampanjen til Nvidia for å gi PS4 / Xbox One mindre valør enn de virkelig har.

Jeg tror faktisk at mange av de som sitter med en PS4 / Xbox one ikke engang er klar over at det er en Amd Apu der inne og det kan godt være at den stasjonære pcen er Nvidia fordi det er så bra...

 

Uansett så tror jeg en del feilinformasjon er ute og går som man bør se tettere inn i sømmene og mye tyder på at DX12 kan være en akilleshæl for Nvidia om arkitekturen ikke endres på 10xx kortene.

Jeg så det var ca 55 millioner solgte konsoller totalt. Tar man 15 USD per konsoll og deler på antall kvartaler så har det avg. gikk en inntekt på 83 millioner USD per kvartal. Revenue er jo et tall på totale inntekter. Totale inntekter er altså på 100 USD per enhet. Så må en trekke fra 85 før man får profit. Altså er revenue for konsoll på:

55 millioner * 100 USD / 10 kvartaler = 550 millioner USD.

 

Det er jo over revenue for både Q1 2015 og 2016. I 2016 var den på 460 millioner USD, i 2015 var det 532 millioner USD. Dette er tall for bare computing and graphics avdelingen.

 

Overser jeg noe stort her? Jeg får hvertfall ikke disse tallene til å matche... Så kan jeg ikke mye om økonomi heller.

 

Likevel, hvis det er sant at AMD tjener 83 millioner USD per kvartal på konsoller i gjennomsnitt så er jo det helt klart veldig mye, og ikke brødsmuler.

 

Kortet er dog litt varmt, ca 50¤C under load. 45¤C ved folding

Eg må spørre, er 45-50 grader verkeleg "litt varmt"? Eg ville jo tenkt at ein hadde svært mykje å gå på då, har det med at du driver med folding 24/7 å gjere?

 

Nvidia har selv hatt flere referansekort som klokker seg til å ligge på 80C alltid. Det er ikke et problem å kjøre grafikkort på denne temperaturen, Nvidia selv har jo tross alt satt det som target!

Lenke til kommentar

Kort om FreeSync/G-Sync:

FreeSync er ikke noe AMD kom med. Det er et navn på Adaptive-Sync standarden der både AMD og Nvidia bidrar. Så det er noe som er utviklet mange, sammen. Nvidia bruker også dette uten ekstra brikke i laptoper. Intel kan og bruke det selvfølgelig. Det at Nvidia fortsetter med brikker er selvfølgelig veldig kritikkverdig, de bør gå over til vanlig adaptive syn med en gang. Får bare håpe at AMD/Nvidia/Intel går for forskjellige navn og gjør en liten SW ting som gjør alle inkompatible med hverandre. Ingen burde ha noe navn. De bær ikke være FreeSync eller G-Sync. Bare Adaptive-Sync. 

 

 

 

 

Det er veldig tydelig at AMD har hatt en annen fokus i det siste, og at det kommer til å betale seg nå! Du kan ikke nekte for at spillemarkedet havner i AMD sin favør fremover!
 

Hvorfor kommer det til å betale seg nå?
 
Hvorfor havner spillmarkedet i AMD sin favør? Jeg ser ingen grunner til dette.

Det kommer til å betale seg pga at når spillutviklere skal lage multiplattformspill, så blir dette designet rundt konsollene og dermed en AMD GPU. Det vil da si at de fleste spill fremover kommer til å være optimalisert for AMD GPU'er. Dette ser du litt av allerede, men kommer til å bli enda tydligere fremover.

AMD kommer nok også til å satse på flere svakere kjerner enn én kraftig i fremtiden hvor hver kjerne samarbeider på en mye bedre måte enn XFire eller SLI idag. Kan på en måte sammenlignes med RAID oppsett hvor flere GPU kjerner vil fremstå som én GPU for utvikler. Dette ligger nok litt lenger frem, men det kommer.

Når man da kan benytte mindre GPU kjerner enn store, så vil man få mye bedre yield pr. waffer som igjen senker prisene og øker fortjenesten til AMD.

Jeg kommer ihvertfall til å kjøpe en AMD GPU neste gang jeg oppgraderer.

 

Det er mulig at det blir tilfellet ja. Spørs jo hvor gode disse portene er selvfølgelig. Vi har og eksempler på porter som kjører mye bedre på Nvidia enn AMD. Noen som husker AC:Unity? Så det blir spennende å se.

 

Det med den forbedrede måten å håndtere multi-GPU, er ikke det en del av DX12? I så fall vil jo Nvidia kunne gjøre akkurat det samme. Noe som kan bety lavere priser fra begge parter, da det er riktig som du sier om yields. Disse store brikkene har ikke så bra yields som langt mindre brikker vil ha. De vil vel ellers bare øke fortjeneste om det blir billigere for AMD kontra Nvidia?

 

Jeg ser heller ikke at dette er en grunn til å velge AMD nå. Det er i så fall noe som skjer i fremtiden. Det en velger nå bør jo være det som er best akkurat nå. Eller det som er best av Polaris/Pascal i din prisgruppe.

 

 

Selv i de generasjonene AMD (ATi) har vært overlegne, har Nvidiahatt høyest markedsandeler.

 

Det har vært mange generasjoner der AMD har vært over Nvidia, og fortsatt selger dårligere. Eksempelvis 7000-serien. Når 200-serien kom var det og veldig mange gode kjøp der, til tross for at ytelse ikke var banebrytende. Problemet til AMD er at de må ligge litt over Nvidia for å kunne selge litt mindre. AMD kan ikke ligge likt med Nvidia for å klare seg, de må alltid ligge over. Noe som er problematisk. De fortjener absolutt bedre salg hvis en ser objektivt på produktene deres.

Lenke til kommentar

Kort om FreeSync/G-Sync:

FreeSync er ikke noe AMD kom med. Det er et navn på Adaptive-Sync standarden der både AMD og Nvidia bidrar. Så det er noe som er utviklet mange, sammen. Nvidia bruker også dette uten ekstra brikke i laptoper. Intel kan og bruke det selvfølgelig. Det at Nvidia fortsetter med brikker er selvfølgelig veldig kritikkverdig, de bør gå over til vanlig adaptive syn med en gang. Får bare håpe at AMD/Nvidia/Intel går for forskjellige navn og gjør en liten SW ting som gjør alle inkompatible med hverandre. Ingen burde ha noe navn. De bær ikke være FreeSync eller G-Sync. Bare Adaptive-Sync. 

 

 

 

 

Det er veldig tydelig at AMD har hatt en annen fokus i det siste, og at det kommer til å betale seg nå! Du kan ikke nekte for at spillemarkedet havner i AMD sin favør fremover!

 

Hvorfor kommer det til å betale seg nå?

 

Hvorfor havner spillmarkedet i AMD sin favør? Jeg ser ingen grunner til dette.

Det kommer til å betale seg pga at når spillutviklere skal lage multiplattformspill, så blir dette designet rundt konsollene og dermed en AMD GPU. Det vil da si at de fleste spill fremover kommer til å være optimalisert for AMD GPU'er. Dette ser du litt av allerede, men kommer til å bli enda tydligere fremover.

 

AMD kommer nok også til å satse på flere svakere kjerner enn én kraftig i fremtiden hvor hver kjerne samarbeider på en mye bedre måte enn XFire eller SLI idag. Kan på en måte sammenlignes med RAID oppsett hvor flere GPU kjerner vil fremstå som én GPU for utvikler. Dette ligger nok litt lenger frem, men det kommer.

 

Når man da kan benytte mindre GPU kjerner enn store, så vil man få mye bedre yield pr. waffer som igjen senker prisene og øker fortjenesten til AMD.

 

Jeg kommer ihvertfall til å kjøpe en AMD GPU neste gang jeg oppgraderer.

 

Det er mulig at det blir tilfellet ja. Spørs jo hvor gode disse portene er selvfølgelig. Vi har og eksempler på porter som kjører mye bedre på Nvidia enn AMD. Noen som husker AC:Unity? Så det blir spennende å se.

 

Det med den forbedrede måten å håndtere multi-GPU, er ikke det en del av DX12? I så fall vil jo Nvidia kunne gjøre akkurat det samme. Noe som kan bety lavere priser fra begge parter, da det er riktig som du sier om yields. Disse store brikkene har ikke så bra yields som langt mindre brikker vil ha. De vil vel ellers bare øke fortjeneste om det blir billigere for AMD kontra Nvidia?

 

Jeg ser heller ikke at dette er en grunn til å velge AMD nå. Det er i så fall noe som skjer i fremtiden. Det en velger nå bør jo være det som er best akkurat nå. Eller det som er best av Polaris/Pascal i din prisgruppe.

 

AC:Unity er nok en av de verste eksemplene du kunne ha dratt frem, med tanke på hvor dritt den porten var for både AMD og NVIDIA, det stappfult med NVIDIAs gameworks...

 

AMD har alltid vært best på å støtte eldre kort og få klart å dra ut så mye ytelse som mulig gjennom drivere, noe som er klart som dagen hvis man ser på benchmarks av nyere spill med de nyeste driverne mellom AMD og NVIDIA. Så uansett om Polaris/Vega ikke når helt opp til Pascal til å begynne med så er det veldig sannsynlig at du kommer til å kunne ta nytte av fremtidige teknologier fra AMD som ser mye mer lovende ut i motsettning til NVIDIA.

Endret av samobil
  • Liker 1
Lenke til kommentar

 

 

Det er veldig tydelig at AMD har hatt en annen fokus i det siste, og at det kommer til å betale seg nå! Du kan ikke nekte for at spillemarkedet havner i AMD sin favør fremover!

 

Hvorfor kommer det til å betale seg nå?

 

Hvorfor havner spillmarkedet i AMD sin favør? Jeg ser ingen grunner til dette.

Det kommer til å betale seg pga at når spillutviklere skal lage multiplattformspill, så blir dette designet rundt konsollene og dermed en AMD GPU. Det vil da si at de fleste spill fremover kommer til å være optimalisert for AMD GPU'er. Dette ser du litt av allerede, men kommer til å bli enda tydligere fremover.

 

AMD kommer nok også til å satse på flere svakere kjerner enn én kraftig i fremtiden hvor hver kjerne samarbeider på en mye bedre måte enn XFire eller SLI idag. Kan på en måte sammenlignes med RAID oppsett hvor flere GPU kjerner vil fremstå som én GPU for utvikler. Dette ligger nok litt lenger frem, men det kommer.

 

Når man da kan benytte mindre GPU kjerner enn store, så vil man få mye bedre yield pr. waffer som igjen senker prisene og øker fortjenesten til AMD.

 

Jeg kommer ihvertfall til å kjøpe en AMD GPU neste gang jeg oppgraderer.

 

Thank you! Nokon som har forstått det. (Har du sett dette på AdoredTV kanalen på youtube kanskje? :))

 

Spillutviklere er late. Viss dei kan utvikle spillet ein gong og kjøre det på alle platformer (XBox, PS4, Wii og PC) så gjer dei det. AMD har APUene sine på alle konsollene så åpenbart vil utviklerene optimalisere spillene i forhold til AMD sin hardware.

 

DX12 og Vulkan åpner opp for asynchronous compute (frå mantle), noko som auker ytelsen kraftig på AMD sine GPUer på grunn av den parallelle arkitekturen dei har på GPUane. Det er derfor AMD eiger i alle dei nye DirectX 12 og Vulkan spillene. NVidia kan ikkje få denne ytelsesauken på grunn av at arkitekturen er bygd totalt rundt singlethreading access til GPUen. DX12 og Vulkan er ein oppgradering som kun gagner AMD positivt, gitt dagens situasjon og AMD er milevis foran NVidia med arkitekturen sin på dette området. Spillutviklerene vil dra nytte av async compute på konsollene for å kunne utnytte APUen til sitt fulle. Disse optimaliseringene vil også brukes på pc-versjonene av spillene. Då sliter Nvidia med å holde tritt.

  • Liker 1
Lenke til kommentar

Tkongen : Kan du være så snill å sette deg i det minste litt inn i Freesync før du kommer med en blunder på at det er nøyaktig det samme som adaptive sync, fakta er at det er forskjell da programvaren til Amd passer på drivernivå at den informasjonen som blir sent til skjermen fører til at spillet fungerer uten "lagging" eller treghet (dette er en veldig grov forenkling fra min side).

Freesync er selvsagt ikke mulig uten at man har en skjerm som støtter Adaptive sync.

 

http://support.amd.com/en-us/search/faq/214

http://support.amd.com/en-us/search/faq/216

http://support.amd.com/en-us/search/faq/224

 

Freesync er ikke Adaptive sync , freesync bruker derimot programvare for å utnytte Adaptive sync for å gi de som eier et Amd skjermkort en så bra opplevelse som mulig uten tearing.

  • Liker 2
Lenke til kommentar

Ingen som har postet litt rykte benchmarks enda?

 

duo.png

duo2.png

 

 

 

Hva hadde skjedd med nummerene om man hadde overklokka begge max?

980ti @ 1500-1550mhz

Duo @ 1100mhz ?

 

Kan fortelle at jeg er oppe i ca 115fps i 1080p på Heaven med ett Titan X @ ~1530mhz til sammenlikning.

 

2stk stock Titan X gir ca 130fps i The division med ultrasettings og 1080p til sammenlikning.

 

Bare gamle spill da. Give moren DX12.

  • Liker 1
Lenke til kommentar

 

 

...

Bare gamle spill da. Give moren DX12.
SLI og Crossfire fungerer generelt sett dårlig i DX12, med unntak av "Ashes of Singularity" som har eksplisitt støtte for multi-GPU.
Viktig å merke at man ikkje kan ha aktivert sli ved bruk av multigpu i spillet. Litt tungvint å deaktivere sli for å spille dette spillet. Har hatt dette spillet siden starten av beta. Ytelsen med multigpu og 8 kjerner cpu er helt topp. Spillet elsker heftig hardware. Litt synn at dette ikkje er et spill jeg digger :p
Lenke til kommentar

 

 

som flere påpeker er NVIDIA's kort bedre en AMD's målt i pref/watt osv....

 

Jeg var NVIDIA fan på xxxx seriene.. (før de gikk over til 3 tall.)

Men så begynte jeg og følge utvikling osv.

 

Nvidia:

G-Sync (låst til eget forbruk)

Quda (låst til eget forbruk)

osv osv.. lista er LANG.. (selv om quda blir åpnet opp litt nå siste stunden)

Stort sett alt krever lisensiering eller er 100% låst

 

AMD:

Freesync (gratis for alle som ønsker)

mantel SDK (Gratis for alle og bruke også mulig for Nvidia og bruke gratis, med noen få linjer i driverene som AMD slapp)

generelt alt AMD utvikler blir sluppet gratis for andre produsenters bruk, (noen få ting krever lisensiering som cpu/gpu arkitekter.)

 

 

så skal man følge utvikling og ønske om konkurranse er det bare AMD som spiller med åpene kort på GPU siden.

Med kun to aktører er dette for forbrukerens del mer teoretisk enn noe annet. Det er i praksis to produsenter som er aktuelle for denne teknologien, og de har valgt hver sin løsning. Kjøper man en Freesync skjerm så er den i praksis løst til AMD osv.

 

Jeg forstår argumentasjonen og fordelene med OS-løsninger, men når man diskuterer om man skal velge den ene eller andre løsningen så er "gratis for alle som ønsker" egentlig ikke mye til argumentasjon.

 

Hadde det vært mer enn to aktuelle produsenter av skjermkort der den/de andre hadde gått for Freesync så ville det vært mer relevant.

 

Jeg er selvfølgelig enig i at det hadde vært best om en skjerm hadde støttet begge produsenter, men enn så lenge er ikke det tilfellet uansett.

 

 

Nvidia valgte å ikke vente på at scalere til monitor skulle komme med støtte for VESAs "adaptive sync" (som det forøvrig var AMD som foreslo skulle innlemmes i DP standarden) og lagde derfor sin egen; G-Sync modulen. Dette ga Nvidia nærmere 1 års forsprang på løsninger med adaptive sync.

 

Spol frem et år, og scalere med støtte for adaptive sync er blitt hyllevare for alle monitor produsenter. AMD har lagd en åpen standard som alle kan benytte om de vil. Inkludert Nvidia. Faktisk gikk en talsperson for Nvidia ut og sa at de kom til å støtte FreeSync. Men det ble raskt dementert av en annen talsperson, og vi kan nok trygt anta at førstnevnte neppe jobber i Nvidia lenger. :p

 

Intel har sagt at deres neste generasjon IGP'er kommer til å ha støtte for adaptive sync. Da er spørsmålet; kommer de til å lage en tredje standard? Kjøpe lisens og HW fra Nvidia? Eller bruke den frie standarden, som ikke bare er klar og utprøvd, men som har mange flere modeller på markedet en G-Sync modellene?

 

For øyeblikket, så låser man seg i praksis til en skjermkort produsent, ja. Men det er 100% Nvidias skyld. Og om du kjøper en FreeSync skjerm, så er det stor sjanse for at den i fremtiden kan arves av en laptop med Intel CPU og nyte FreeSync der også, når man oppgraderer til en ny skjerm.

 

Om G-Sync i det hele tatt skal overleve, må Nvidia enten ta over 100% av skjermkort markedet. Eller de må tilpasse den til hyllevare scalere og gjøre lisensen gratis. Eller de må bevise at G-Sync gir mer verdi. Om de er smarte, så åpner de lisensen. Hvis ikke kommer G-Sync til å dø ut, og dermed bli husket som en Nvidia fiasko (dårlig PR), i stedet for en banebrytende teknologi som de var først ute med å implementere.

 

I rettferdighetens navn skal jeg ta med at Nvidia aldri hadde noe valg om støtte FreeSync. De hadde rett og slett malt seg inn i et hjørne. Om Nvidias skjermkort plutselig kunne brukes med FreeSync skjermer (som bare er en driver oppdatering unna). Så hadde de fått en rimelig stor haug med missfornøyde skjermprodusent kunder. Som ikke hadde blitt kvitt sine lagre med G-Sync skjermer, siden de er dyrere og ikke gir noe mer..

 

Jeg kjenner bakgrunnen til teknologien og hva som skiller dem. Jeg har heller ikke tenkt å gå inne på en diskusjon omkring hvilke løsninger som har hvilke fordeler og ulemper.

 

For alt det der betyr lite, men mindre aller blir prinsippfaste, skaper en stor bevegelse og presser nvidia over på åpen adaptive sync.

 

Det jeg poengterer er at de punktene du listet opp over i praksis ikke er vesentlige i det hele tatt (foruten prinsippbevegelsen ovenfor). Det er to skjermkortprodusenter, det er to teknologier som leverer adaptive synk funksjonalitet. Og man må ha en skjerm som passer til skjermkortet. Freesync kan være så åpen du bare vill, du er fremdeles i praksis låst til AMD om du kjøper en slik skjerm. Intel er i denne sammenheng ikke relevant i det hele tatt.

 

Uansett hvorfor det er slik, man er i praksis låst om man velger den ene eller andre teknologien. Og, dette vil med stor sannsynlighet ikke endres før det er på tide å bytte ut skjermen og i alle fall skjermkortet du kjøper i dag.

  • Liker 1
Lenke til kommentar

 

For alt det der betyr lite, men mindre aller blir prinsippfaste, skaper en stor bevegelse og presser nvidia over på åpen adaptive sync.

 

Det jeg poengterer er at de punktene du listet opp over i praksis ikke er vesentlige i det hele tatt (foruten prinsippbevegelsen ovenfor). Det er to skjermkortprodusenter, det er to teknologier som leverer adaptive synk funksjonalitet. Og man må ha en skjerm som passer til skjermkortet. Freesync kan være så åpen du bare vill, du er fremdeles i praksis låst til AMD om du kjøper en slik skjerm. Intel er i denne sammenheng ikke relevant i det hele tatt.

 

Uansett hvorfor det er slik, man er i praksis låst om man velger den ene eller andre teknologien. Og, dette vil med stor sannsynlighet ikke endres før det er på tide å bytte ut skjermen og i alle fall skjermkortet du kjøper i dag.

 

Det er ingenting som hindrer Intel eller Nvidia til å utvikle egen programvare som kan utnytte Adaptive sync teknologien på de skjermene som støtter dette , ved å velge en lignende løsning som Amd kan man unngå de samme problemene som Vsync byr på , altså tearing , lag osv.

  • Liker 1
Lenke til kommentar

 

AMD kommer nok også til å satse på flere svakere kjerner enn én kraftig i fremtiden hvor hver kjerne samarbeider på en mye bedre måte enn XFire eller SLI idag. Kan på en måte sammenlignes med RAID oppsett hvor flere GPU kjerner vil fremstå som én GPU for utvikler. Dette ligger nok litt lenger frem, men det kommer.

Når man da kan benytte mindre GPU kjerner enn store, så vil man få mye bedre yield pr. waffer som igjen senker prisene og øker fortjenesten til AMD.

 

Jeg kommer ihvertfall til å kjøpe en AMD GPU neste gang jeg oppgraderer.

 

Thank you! Nokon som har forstått det. (Har du sett dette på AdoredTV kanalen på youtube kanskje? :))

 

Spillutviklere er late. Viss dei kan utvikle spillet ein gong og kjøre det på alle platformer (XBox, PS4, Wii og PC) så gjer dei det. AMD har APUene sine på alle konsollene så åpenbart vil utviklerene optimalisere spillene i forhold til AMD sin hardware.

 

DX12 og Vulkan åpner opp for asynchronous compute (frå mantle), noko som auker ytelsen kraftig på AMD sine GPUer på grunn av den parallelle arkitekturen dei har på GPUane. Det er derfor AMD eiger i alle dei nye DirectX 12 og Vulkan spillene. NVidia kan ikkje få denne ytelsesauken på grunn av at arkitekturen er bygd totalt rundt singlethreading access til GPUen. DX12 og Vulkan er ein oppgradering som kun gagner AMD positivt, gitt dagens situasjon og AMD er milevis foran NVidia med arkitekturen sin på dette området. Spillutviklerene vil dra nytte av async compute på konsollene for å kunne utnytte APUen til sitt fulle. Disse optimaliseringene vil også brukes på pc-versjonene av spillene. Då sliter Nvidia med å holde tritt.

 

 

Mtp markedsandelen til Nvidia på PC markedet så er dette noe spill utviklerene ikke vil ignorere. Nvidia hjelper også utviklerene med å optimalisere spill. Men dårlige hastverk porter, som nok Quantium Break faller inn under, vil gjerne ha en fordel på AMD GPU'er. Det er et spill som visnok ikke bruker async compute.
 
Parallelle arbeidsoppgaver er nettopp hva GPU'er generelt er sterke på. Det er derfor dem har så mange kjerner (CUDA cores hos Nvidia og stream processors hos AMD) og hvorfor ytelsen skalerer såpass bra med med antall shader ALU'er, TMU'er og ROP'er. Async compute vil hjelpe med å utnytte disse kjernene mer effektivt, lignende hyperthreading for CPU, men å si at det øker ytelsen kraftig er å si at at disse kjernene har vært og er kraftig underbrukt uten async compute, noe ihvertfall jeg syns virker lite trolig. 
Det er forsatt for tidlig til å si noe definitivt om alt dette.
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...