Gå til innhold

6u4rdi4n

Medlemmer
  • Innlegg

    3 362
  • Ble med

  • Besøkte siden sist

Innlegg skrevet av 6u4rdi4n

  1. knopflerbruce skrev (18 timer siden):

    Her var det litt kjølig... :p

    Jeg byttet akkurat 0.5mm thermal pads med et lag kjølepasta. Det skulle vel gå greit, gjør det ikke? En halv millimeter er jo så tynt at det nesten ikke er noe mellomrom å fylle i utgangspunktet.

    Forøvrig snakker vi VRAM-chips på et skjermkort her.

    Her er det ikke kjølig om dagen!

    Tror det skulle gå fint, men er vel bare en måte å finne ut av det på? Avhengig av hvilket kort det er snakk om, så kan man jo lese av VRAM temperatur i HWiNFO64.

    Dragonlove skrev (13 timer siden):

    Nåja, mulig det flyter bort når det blir varmt.

    Da skal den være bra tyntflytende 😛

  2. Det er varmt, men ikke unormalt for disse korta. Powercolor føler jeg har vært mer nevnt på overclock.net, men det gjelder nok i stor grad om ikke like mye for andre produsenter også. Sapphire, MSI, XFX osv. Problemet er at brikkene på dissa korta drar mye strøm og de er fysisk ganske store, noe som fører til at de er mer kresne på en god "mount". Skulle vel nesten ha skrudd på kjølerene på disse korta med moment skrutrekker...

  3. PantZman skrev (2 timer siden):

    Glemte å nevne modell ja. Powercolor 6900 XT Red Devil.

    Spørs om jeg må prøve meg på en repaste og evt slike skiver. Har du noen forslag til hvor jeg kan få kjøpt passende skiver? Usikker på om jeg har noe som er egnet.

    Red Devil har dukket opp en del i 6900 XT tråden på overclocked.net. Repaste har ofte fiksa biffen. Tja, det var det da. Selv har jeg liggende en del fra gamle vannblokker etc der det har fulgt med ekstra. 

    Men å finne en haug med skiver til en ok pris på nett burde ikke være noe problem. 

  4. PantZman skrev (14 timer siden):

    Er det vanlig med stor forskjell mellom GPU Hot Spot (Junction temp) og GPU temp (Current Temp) på 6900XT?

    Lar jeg SOTTR stå i "display & graphics" menyen uten vsync/freesync (+15% PL, 323W) når GPU Hot Spot ca 95C mens GPU tempen bare er 65C ved ca 2750RPM (De andre temperaturene ligger også rundt 60~65C).

    Fjerner jeg støtten som forhindrer GPU sag bikker hot spot 100C med viftene på full pupp (3200 eller 3300 RPM).

    Ved standard 281W PL når hot spot nesten 90C og GPU 62C ved 2350~2400 RPM.

    Burde jeg prøvd en repaste?

    Ikke uvanlig med stor avstand mellom GPU temp og hotspot temp. Dette er store konsentrerte brikker som trekker en del strøm. 

    Kortet ditt er en veldig god kandidat for repaste! 

    Hvilken modell har du? Kan hende det også hadde vært en god kandidat for skivemod. Legge til 1mm nylon skiver på skruene som er rundt kjernen. 

  5. Står det bare G-Sync eller G-Sync Ultimate, så er det en ekte G-Sync skjerm med scaler fra Nvidia. 

    Nvidia har vel forsåvidt alltid en oppdatert liste over skjermer som både har G-Sync eller er testet og merket G-sync Compatible, så man kan jo også benytte seg av den for å sjekke. 

    • Innsiktsfullt 1
  6. Intel hadde et utsagn for lenge siden om at de skulle støtte adaptive sync, altså VESA standarden. Regner ikke med at de har fått bort i fra dette. 

     

    Nå har jo ikke Intel sluppet grafikkort ennå, så hvordan de faktisk er i praksis må vi jo bare vente og se. 

    HD Ready vs HD blir en dårlig sammenligning da dette dreier seg jo egentlig bare om oppløsning. 

    Som nevnt over her, så er G-sync compatible at skjermen støtter VESA adaptive sync, men den er testet og godkjent av Nvidia (at den holder en viss standard, blant annet frekvensområdet som er aktivt. Feks 45Hz til 144Hz).

    En ekte G-Sync skjerm bruker modul fra Nvidia til å håndtere signalene og er vel på papiret egentlig bedre.

    Er nok delte meninger der, men min erfaring er at jeg ikke merker forskjell i opplevelse fra G-Sync skjermen jeg hadde (Asus ROG Swift PG279Q) og Freesync skjermen jeg har nå (Gigabyte Aorus FI27Q-X) når det gjelder tearing, input lag og følelse av jevnt bilde. 

  7. Alle skjermer som er merket med Freesync støtte er vel egentlig adaptive sync skjermer. Gjelder vel også for de skjermene som er merket som G-Sync compatible/kompatibel, og ikke bare G-Sync. Rett meg gjerne hvis jeg tar feil.

    Har hatt en G-Sync skjerm sammen med diverse Nvidia kort i noen år, men har nå i snart et år brukt en Freesync skjerm med AMD kort og har egentlig ikke lagt merke til noen forskjell i følelse mellom teknologiene. 

    • Innsiktsfullt 1
  8. Rekkefølge har veldig lite å si. Med normal flow vil temperaturen på vannet bli tilnærmet det samme i hele loopen.

    Reservoar kan man fint klare seg uten, men de gjør det mye enklere å fylle på vann og få luft ut av systemet. Samt at et reservoar plassert bra i forhold til pumpa, gjerne pumpe og reservoar i ett, så får du lett vann til pumpa og unngår å kjøre den tørr.

    Kjøp en blokk som skal passe til LGA 1700. Det enkle er ofte det beste av en grunn.

  9. FortvilaFaenskap skrev (17 timer siden):

    På tanke med alt dette «spetakelet» ang new world og GPU power draw, hva er innafor på et xfx 6900 xt kort ? 
     

    Da kortet har kun 2x8pin kan det bli problemer med kablene om kortet konstant drar mer en 300W ? Hørt at det ikke anbefales mer en 150w per 8 pin. Har cable mods så usikker på om kvaliteten på de er like gode som orginalkablene. 

    150W er vel maks for en 8 pin PCI-E kabel i følge standarden. Du skal ha ganske dårlige kabler hvis ikke 8 PCI-E kabelen din tåler vesentlig mer enn det.

     

    6900 XT så vel som Nvidias 3000 serie kan ha noen litt stygge spikes, men det hadde du nok merket allerede hvis ikke strømforsyningen din var i stand til å håndtere det.

  10. N o r e n g skrev (1 time siden):

    Jepp, nøyaktig 😁

    Eller hvordan AMDs infinity cache vil ha større problemer med å henge med når spill faktisk begynner å bruke VRAM-intensive effekter, som allerede synliggjøres ved at ytelsen faller mye hardere på RDNA2 enn Ampere når du aktiverer effekter med "volumetric" i navnet.

    Ikke vært borte i. Har du noe data på det? Kunne vært interresant å se over 🤔

  11. idleman_2 skrev (På 14.4.2021 den 22.00):

    Bare tenkte å stille et spørsmål til dere ->

    Vannblokker -> Hvor mange av dere har opplevd sprekker i plexi glass rundt gjengene i plexi på fittings ?

    Demonterte min vannkjølte rigg og fant flere blokker med sprekker  ved gjengene til fittings...

    Blir jo litt skremt av det og nesten angrer på at en ikke bestilte acetal isteden.

    Hva tenker dere om dette problemet

    Ikke unormalt. Ikke opplevd sprekker i vannblokk, men har opplevd sprekker i pumpetopp i akryl. Akryl er jo et veldig sprøtt materiale.

  12. HKS skrev (11 minutter siden):

    Han baserer det isåfall i stor grad på fantasien?

    Bloggere som blant annet Moore's Law Is Dead sin å slenge ut masse påstander, mye av disse påstandene er bare kvalifisert gjetting, og når det nærmer seg lansering og mer fakta kommer på bordet så peker han tilbake på de få punktene han klarte å gjette riktig på, og ignorerer majoriteten av feilaktige påstander han har kommet med. Det var veldig tydelig rundt han ville gjetting av spesifikasjoner rundt Nvidia og Ampere for et års tid siden...

    For oss som faktisk jobber opp mot flere av de store bedriftene, og sitter på litt mer informasjon så er det ganske festlig å følge med på... :D

     

    PS! Hvis du ser på den teoretiske ytelsen på en 512EU versjon av DG2, og gir Intel all tvil til gode, og regner med at de slår RDNA2-arkiteturen både i effektivitet og klokkefrekvens så vil ytelsen ligge et sted rundt Radeon 6700XT.

    Jeg jobber kanskje som kjent av enkelte her litt med GPGPU workloads, og de versjonene Intel selv mener skal konkurrere med high-end Ampere-brikker fra Nvidia er en 2048EU versjon av DG2 (de er kjent som Xe-HPC)...

     

    Samme for meg hvor ytelsen havner så lenge de kan konkurrere i et segment. Selvfølgelig er det spennende å se hvor de havner ytelsesmessig, men i dag er vel kanskje det mest spennende hva den faktiske prisen ender opp på!

×
×
  • Opprett ny...