Jump to content

Emile the rat

Medlemmer
  • Content Count

    3256
  • Joined

  • Last visited

Community Reputation

1774 :)

Profile Information

  • Kjønn
    Mann

Recent Profile Visitors

11980 profile views
  1. Kjempe kult at noen tar utfordringen Må innrømme at du har godt syn for detaljer Arkene på kortavlen var det eneste jeg la merke til ved første øyekast Men så er spørsmålet, er dette merkbart når man spiller. Ville du klart å skille native og DLSS dersom du spilte spillet uten å vite om det var brukt native eller DLSS. Selv hadde jeg ikke hatt sjans, så all cred til de som klarer det
  2. Noen mener at DLSS gir dårligere bilde enn native oppløsning. Derfor utfordret jeg den påstanden med screenshot av native oppløsning vs DLSS, for å se om folk faktisk ser forskjell, om DLSS virkelig er dårligere enn native som enkelte hevder. Derfor la jeg ut screenshot, så kan folk bedømme selv
  3. Enig, håper denne teknologien virkelig kommer på banen nå som AMD henger seg på, og nye konsoller støtter RT. Vi trenger konkurranse nå så teknologien går fremover For denne teknologien er vireklig fremtiden når det kommer til oppskalering
  4. Ser du for upvotes for dette, så ønsker å debunke myten om at native er bedre enn DLSS. Utfordrer deg til å faktisk se forskjell mellom native 3440x1440 og DLSS oppskalert fra 1280x540. Quality settings som er brukt i Control: Preset: ultra, SSAO: on, Global Reflections: high, Film Grain og Motion Blur: off. Ray Tracing: ultra. Til alle som mener at native alltid vil være bedre, ingen av bildene er komprimert. Utfordrer de som mener at DLSS 2.1 er dårligere enn native å peke ut hvor de ser forskjell, jeg kan som sagt ikke se forskjell Utenom på fps som er vesentlig lavere uten DLSS Klipp 1: Native 3440x1440 Klipp 1: 1280x540 rendering DLSS 2.1 Klipp 2: Native 3440x1440 Klipp 2: 1280x540 rendering DLSS 2.1 Klipp 3: Native 3440x1440 Klipp 3: 1280x540 rendering DLSS 2.1 Klipp 4: Native 3440x1440 Klipp 4: 1280x540 rendering DLSS 2.1 Fps er noe varierende fordi jeg måtte gå inn og ut av settings for hvert screenshot, men til info får RTX 3090 i snitt rundt 45% høyere ytelse i Control med RTX 3090 når Ray Tracing er på (med mitt oppsett). Vet denne posten blir litt off-topic, men tenkte den var nyttig som dokumentasjon om noen er usikre på hvordan DLSS påvirker bildekvaliteten. Vet at supersamling, DLSS og RT er teknologier som er relevante for både AMD og Nvidia, og tenker at dette derfor kan være informativt for å debunke noen myter som er på nettet rundt denne teknologien PS: Dette er ikke innhold fra Nvidia sin reklamebrosjyere, men brukererfaring tatt med mitt eget oppsett. Sjekk profil for specs.
  5. Hurra for kreative løsninger Her er hva jeg bruker det fancy displayet til: recorded-13598411910712 (convert-video-online.com).webm Noen bruker skjermkort til folding mens jeg bruker det til ostespising
  6. MSI skjermen er god i forhold til prisen, men det er som regel alltid noen baksider. - Høy refresh rate på slike skjermer (denne er VA uten varialbel overdrive) vil nok gi smearing på høy refresh rate. - Du mister som sagt g-sync, men dette er kun viktig om man har nvidia GPU. - Noen reviews har klaget på dårlig brightness uniformity, så det vil nok være noe backlight bleed. På disse punktene tror jeg nok Predator skjermen er en bedre gaming skjerm, den er også IPS. men alt er relativt, MSI skjermen er ikke dårlig, men når man først skal legge ut så mye er ikke veien opp til X34P så lang
  7. Skal du først kjøpe ultrawide på black friday er dette en bedre deal https://www.komplett.no/product/959477/datautstyr/skjermer/skjermer/acer-34-predator-curved-led-g-sync-x34p
  8. Bryr meg fordi fakta og tall er viktig. Jeg kunne moderert meg til at man kan være merkebevisst uten å være fanboy. Går mer på at jeg er imot brukere som benekter faktiske tall og benchmark, og kommer med alternative fakta fordi de er merkebevisst, er de brukerene jeg går til livs på. Hvorfor bryr jeg meg? Fordi jeg er imot at folk sprer feilinformasjon og alternative fakta. Rett skal være rett, selv hvor dødelig fornærmet man måtte bli Diskusjon er gøy, men en polarisert diskusjon hvor «politisk korrekthet» er viktigere enn fakta misliker jeg. Men i likhet med sikkert deg også er jeg glad for at AMD endelig konkurrerer i topsjiktet igjen Det kan (ren ønsketenking fra min side) få frem større generasjonsløft og rimeligere priser ved neste generasjon, men det får tiden vise. Nvidia har hatt en stygg tendens de to siste generasjonene til å vise ta at de kan ta akkurat det de vil for sine produkter.
  9. Søkte opp definisjonen på ad hominems nå, som sier følgende: «attacks the characteristics or authority of the writer without adressing the substance of the argument». Hvis jeg hadde brukt ad hominems ville jeg ikke begrunnet hvorfor jeg kaller noen fanboys, men det har jeg. Veldig mange ganger også, kan gjøre det igjen, Jeg har vært veldig tydelig på at de jeg kaller fanboys er personer på forumet her som nekter å anerkjenne alle benchmarks, tall og tester hvor 6800 XT kommer dårligere ut. Hver gang jeg eller andre har jeg lagt ut kilder hvorfor Big Navi kommer dårligere ut, benektes dette og avfeies som «fake news». Det er en tydelig holdning hos flere brukere her at alle kilder hvor AMD kommer dårligere ut er fake, og det er på det grunnlaget jeg mener at noen er fanboys. Jeg mener at enhver bruker som ikke annerkjenner offisielle benchmarks og tall (dersom de ikke går i deres favør), og heller baserer sine utsagn på enkelttilfeller, og nekter for alle andre resultater er en fanboy, om det så gjelder AMD, Intel eller Nvidia. Jeg har ikke brukt ad homines, men jeg har kun outet brukere for å være særdeles partiske, og outet brukere som nekter å annerkjenne tester eller kilder som sier dem imot. Men jeg ser at det derimot er veldig populært og henge meg ut, og at alle AMD tilgengerene er raske med å like innleggene så fort det er en fornærmelse, uthenging, latterliggjøring eller personangrep mot meg, fordi det tydeligvis ikke er greit at jeg legger fakta på bordet hvor Ampere kommer bedre ut. Innlegget ditt her, hvor du beskylder meg for ad hominems, og høster likes fra likesinnede og partiske brukere, beviser hele poenget mitt. Jeg hadde ikke kalt noen fanboys om de baserte sine meninger på kilder (og da alle kilder, ikke kilder hvor man luker ut alt som ikke passer sitt syn eller ønske). Kaller ingen fanboys bare man kan akseptere eller annerkjente kilder selv om man på personlig grunnlag ikke liker utfallet. Men brukere som er merkelojale og derfor nekter å godta eller annerkjenne tester hvor det merket de er lojal til gjør det dårligere, er per definisjon en fanboy, uavhengig av hvor lite du ønsker å høre det ordet. Jeg må få bruke et negativt ladd ord, når det faktisk passer. Minner også om yttringsfrihet, så jeg har min fulle rett å bruke ordet, dersom jeg mener noen er strekt merkelojale, subjektive og partiske i sine ytringer.
  10. Word, opplevd det samme selv. Til Benchmarks kjører jeg 2100mhz core, 4000mhz@cl16 på minne og 5.3 på alle CPU kjerner. Men skal jeg game må jeg ned på 2050mhz core, 4000mhz@cl17 og 5.2 på alle kjerner for at det skal være stabilt i spill over flere timer. Så benchmarks er en ting, mens relativ ytelse i spill er noe annet ja
  11. Nei, ikke såvidt jeg har opplevd etter DLSS 2.0 kom.
  12. Tull, har testet DLSS 2.1 i Control, og selv i font på dokumenter (i spillet) ser jeg ikke forskjell på native 1440p og oppskalert DLSS. Kan ta screenshot når jeg kommer hjem, så får vi se om du ser for forskjell
  13. Den grafen ser helt lik ut for 3080. Her er Asus 6800 XT STRIX OC på 2700 Mhz: Og her er MSI 3080 Suprime X på 2100 Mhz: Sammenlignet med referansekort, så er det faktisk like mye å hente på overklokk i spill med både Big Navi og Ampere. At det kun er 5% å hente som Noreng hevder stemmer ikke, la oss se på de faktiske tallene fra Guru3D. Witcher 3: 6800 XT OC 9.6% over referanse 3080 OC 9.7% over referanse Strange Brigade 6800 XT OC 9.1% over referanse 3089 OC 8.8% over referanse Far Cry New Dawn 6800 XT OC 8.1% over referanse 3080 OC 8.3% over referanse Shadow of the Tomb Raider 6800 XT OC 10.2% over referanse 3080 OC 8.1% over referanse Les kommentaren over hvis du ikke tror meg. Det er så og si like mye å hente på overklokking hos både Big Navi og Ampere. Myten om at den høye klokke frekvensen er en fordel for Big Navi kan vi legge dø, når 3080 oppnår likt ytelseshopp med overklokk i spill.
  14. I og med at RT har blitt et stort salgsargument for next gen konsoll, vil vi vel se stadig mer av det i kommende spill. Å ikke ta høyde for at RT og DLSS blir standard i de fleste kommende aaa spill tror jeg er dumt.
  15. Neppe. I Firestrike øker ytelsen betraktelig med høy core clock. Et overklokket 6800 XT kan score høyere enn 3090 i FireStrike, men den ytelsen kan ikke overføres til spill, for jeg har ikke sett noen benchmarks som konkluderer med at 6800 XT er i nærheten av 3090, selv når overklokket. Syntetisk benchmarkytelse kan ikke overføres til ren gamingytelse uten å skalere. Så 10% bedre ytelse i Heaven vil ikke tilsvare det samme i spill. Jeg kan få vesentlig høyere score i Heaven med overklokk på mitt 3090, men i spill ser jeg ikke samme gevinsten. Har du derimot en kilde på påstanden din?
×
×
  • Create New...