Gå til innhold

NVIDIA GeForce RTX 30xx tråden


Nizzen
Melding lagt til av Jarmo

Vennligst ikke ta AMD vs. Intel diskusjoner i denne tråden :)

Anbefalte innlegg

1 hour ago, gthaman said:

Begynner å bli litt bekymret for PSU og 3090 faktisk.

Vil en AX1200i holde til det (kjøres sammen med 10980xe @ 4.8ghz) tro? 

Eller må jeg fikse meg en 1500w+? 

Spørsmålet er om du skal kjøre både cpu og gpu på max noen gang, eller om du bare skal spille spill. Skal du bare spille spill, så er ikkje 1200w noe problem. Med 7980xe @ 4700mhz og 2x 2080ti, så drar jeg 950w fra veggen i Battlefield V i 4k.

Firestrike på combine testen, så trekker det ganske mye mere, men har ikkje sjekket på lenge.

 

Jeg har 1300w, og tror ikkje 1200w får noe som helst problemer i de få tilfellene du måtte trekke ALT på max noen få ganger.

  • Liker 1
Lenke til kommentar
Videoannonse
Annonse
Emile the rat skrev (1 time siden):

Jeg merker forskjell på 144hz og 200hz, så jeg antar at man også merker forskjell på 250hz, med det sagt er det ingen point å kjøre på høyere hertz enn skjermen tar.

 

Ok, jeg skal gi meg på den, men for meg er iallfall hele poenget med et nytt skjermkort å sette opp innstillingene til ultra, og deretter sette seg ned å nyte et spill med flott grafikk. :)

Hvis noen mener at det er bedre å spille i 720p med 600 fps, så skal ikke jeg legge meg opp i det. :p

Lenke til kommentar
Splitter skrev (2 minutter siden):

Ok, jeg skal gi meg på den, men for meg er iallfall hele poenget med et nytt skjermkort å sette opp innstillingene til ultra, og deretter sette seg ned å nyte et spill med flott grafikk. :)

Hvis noen mener at det er bedre å spille i 720p med 600 fps, så skal ikke jeg legge meg opp i det. :p

Hvorfor ikke begge deler, høy refresh rate og ultra innstillinger. 

For første gang føler jeg det er litt realistisk.

600 fps er helt pointless, har aldri sett pointet med høyere refresh rate enn monitoren tar, hører input lag nevnes over, men eyecandy er også viktig ;) 

Lenke til kommentar
4 hours ago, Tangent said:

Effekt (Watt)= Spenning (Volt) x Strøm (I ampere)

Svaret blir 12 x 62= 744 Watt.  Dette skurrer vel litt......

Guttungen har et Corsair RM650i PSU med en I7-8700 CPU... Har ikke noen reservasjoner mot å dytte et 3080 kort på den.....

Har til og med kjørt 2x1070Ti på den....

Utgangsstrøm +3.3V - 25 A
+5V - 25 A
+12V - 62 A
-12V - 0.8 A
+5VSB - 3 A

https://www.komplett.no/product/915833/datautstyr/pc-komponenter/stroemforsyning/enheter/corsair-tx750m-750w-psu#technical-details

Lenke til kommentar

Vi trenger to verdier for å regne ut motstand, spenning, strøm og effekt.

Vi vet at effekten for 3080 er 320W og at spenningen er 12V. Ut fra det kan man bruke formel I = P / V og R = V / I til å regne ut at strøm er 26.666 A og motstand er 0.45 Ohm.

(Jeg tror muligens at det brukes U i stedet for V i Norge, men det er over 20 år siden jeg studerte elektronikk og all faglitteratur jeg har brukt etter det har vært på engelsk. Uansett er det snakk om spenning. Nei, ikke den type dere føler nå før utgivelse, omtaler og bestilling av kort).

Dere skal være innenfor med PSU, selv med overklokket prosessor så lenge grafikkortet ikke belaster mer enn halvparten av hva PSU kan levere av strøm. Det er spenningsregulering på selve kortet, så hva som skjer på kortet blir litt i dypeste laget for denne tråden og er i grunnen irrelevant å vite for en vanlig bruker.

De færreste trenger å bekymre seg for PSU så lenge de ikke stresstester CPU og GPU samtidig over lange tidsintervaller eller kjører simulering.

Quote

Computer simulation is the process of mathematical modelling, performed on a computer, which is designed to predict the behaviour of or the outcome of a real-world or physical system.

Under 650W 80+ Gold hadde jeg ikke vurdert å bruke sammen med 3080. Hvis jeg skulle anbefale noe ville det være 850W Gold/Platinum/Titanium. Sjekk ut hva produsenten anbefaler for det aktuelle kortet. For ROG Strix RTX 3080 er 750W anbefalt. 

Man skal ikke se bort fra at 3080 ROG Strix kan komme opp i 400W. Jeg vet at tidligere utgaver ROG Strix med 250W TDP kommer opp i 300W. 

Hvis det blir kjøp av kort kommer jeg til å benytte 1000W 80+ Gold.

Jeg ser at mange er bekymret for om PSU holder, men det er få som nevner om kabinettet holder. Her skal det tas unna 500-700W. Jeg tror at flere vil få utfordringer med kabinettet enn med PSU. Sørg for å sjekke jevnlig at filteret for inntaksvifter ikke går tett, for da går kjøleegenskapene et visst sted.

Endret av BadCat
  • Liker 2
Lenke til kommentar
8 hours ago, PaladinNO said:

AMD har lenge hatt problemer med driverne sine, spesielt ved multi-skjermsoppsett. Ironisk, siden de var de første med 6-skjermer (Eyefinity), noe Nvidia ennå ikke har klart tilsvarende.

Har hatt ett AMD skjermkort (mens det ennå var ATi Radeon; HD 5870), og der ble jeg stort sett møtt med svart skjerm ved oppstart av "Nvidia - the way it's meant to be played"-titler.

Det er en pågående meme fortsatt.

Hadde også engang i tiden ATI kort.  Mitt siste AMD var  ett 6870. Det var det så mye problemer med at jeg har hatt Nvidia siden det. Men er likevel ikke blindt produkt lojal. Hvis AMD på ett tidspunkt lager bedre kort enn Nvidia kjøper jeg gjerne det. Men det har vært såpass lenge siden de har lagd kort som har vært interessante for meg. Big Navi tror jeg vil skuffe de som venter med å kjøpe RTX 3000 serien i påvente av denne.

Men som sagt. Kanskje neste generasjon vil de komme nærmere.

Lenke til kommentar

Outstanding GeForce RTX 3080 and RTX 3090 Samples May Be Hard To Come By. ->  https://www.tomshardware.com/news/outstanding-geforce-rtx-3080-rtx-3090-samples-will-be-hard-to-come-by

* The German publication's sources claim that 30%, 60% and 10% of the GeForce RTX 3080's dies belong to the Bin 0, Bin 1 and Bin 2, respectively. The data is reassuring since it suggests that the majority of consumers should get a good sample, unless you're one of the unlucky ones to fall inside the 30%.

Lenke til kommentar
6 minutes ago, -=HellBound=- said:

Outstanding GeForce RTX 3080 and RTX 3090 Samples May Be Hard To Come By. ->  https://www.tomshardware.com/news/outstanding-geforce-rtx-3080-rtx-3090-samples-will-be-hard-to-come-by

* The German publication's sources claim that 30%, 60% and 10% of the GeForce RTX 3080's dies belong to the Bin 0, Bin 1 and Bin 2, respectively. The data is reassuring since it suggests that the majority of consumers should get a good sample, unless you're one of the unlucky ones to fall inside the 30%.

Så vi må kjøpe 5-6 stk 3090 for å være sikker på å få et god eksemplar? :p

 

Blir mange hundre tusen ubrukelige komplett.no poeng da :D

Endret av Nizzen
  • Liker 1
Lenke til kommentar
3 hours ago, Emile the rat said:

Jeg merker forskjell på 144hz og 200hz, så jeg antar at man også merker forskjell på 250hz, med det sagt er det ingen point å kjøre på høyere hertz enn skjermen tar.

Tipper en del kommer til å kjøpe nye skjermer med høyere oppløsning eller refresh rate etter å ha oppgradert til 3000-serien, Ampere er virkelig ikke laget for, eller ment for 1080p eller skjermer med lav refresh rate ;) Blir nok en bølge av folk som skal bytte ut skjermene sine etter å ha kjøpt 3080.

Tenker det går mer på at de som er vante 60Hz gamere ikke er så sensitive på Hz som de som alltid har vent seg til fordelene man har med det. Om et bilde tar 16 millisekunder eller 3 millisekunder er det nok mest de som er vant til raske skjermer som merker best. De fleste bør dog merke det litt på inputlag på våpen osv.

Selv gleder jeg meg til å komme forbi 60Hz "gjerdet".
  

2 hours ago, Splitter said:

Ok, jeg skal gi meg på den, men for meg er iallfall hele poenget med et nytt skjermkort å sette opp innstillingene til ultra, og deretter sette seg ned å nyte et spill med flott grafikk. :)

Hvis noen mener at det er bedre å spille i 720p med 600 fps, så skal ikke jeg legge meg opp i det. :p

Det er jo som andre ting. Liker man raske rundetider på rudskogen så kjøper man ikke en myk amerikaner. Andre som verdsetter myk søndagskjøring foretrekker andre kvaliteter.

Endret av Theo343
  • Liker 1
Lenke til kommentar
Theo343 skrev (18 minutter siden):

Tenker det går mer på at de som er vante 60Hz gamere ikke er så sensitive på Hz som de som alltid har vent seg til fordelene man har med det. Om et bilde tar 16 millisekunder eller 3 millisekunder er det nok mest de som er vant til raske skjermer som merker best. De fleste bør dog merke det litt på inputlag på våpen osv.

Selv gleder jeg meg til å komme forbi 60Hz "gjerdet".

Bare å glede seg, når jeg er på lan har jeg ingen problem med å peke ut hvem som spiller på 60hz, det er ganske tydelig. Samme med konsoll, ser ut som spillet lagger, helt fryktelig å se på når man har spilt på skjerm med høyere hertz.

Hvis Doom testen til IGN er korrekt, så yter jo faktisk 2080ti SLI bedre enn 3080, ikke lett å vite hva som gir best fps på sikt....

  • Liker 1
Lenke til kommentar
  • Jarmo låste denne emne
  • Jarmo gjenåpnet denne emne
  • Uderzo klistret denne emne
  • Evil-Duck avklistret denne emne

Bli med i samtalen

Du kan publisere innhold nå og registrere deg senere. Hvis du har en konto, logg inn nå for å poste med kontoen din.

Gjest
Skriv svar til emnet...

×   Du har limt inn tekst med formatering.   Lim inn uten formatering i stedet

  Du kan kun bruke opp til 75 smilefjes.

×   Lenken din har blitt bygget inn på siden automatisk.   Vis som en ordinær lenke i stedet

×   Tidligere tekst har blitt gjenopprettet.   Tøm tekstverktøy

×   Du kan ikke lime inn bilder direkte. Last opp eller legg inn bilder fra URL.

Laster...
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...