Gå til innhold

Kraaketaer

Medlemmer
  • Innlegg

    55
  • Ble med

  • Besøkte siden sist

Innlegg skrevet av Kraaketaer

  1.  

    Du trenger ihvertfall ikke betale 1100kr for 2x8gb DDR4 ram.

    Trenger jo en del ram når man programmerer av og til da :p + Ekstra mange faner i chrome!

    Det ble vel heller siktet til at det RAM-settet der er latterlig dyrt uten å gi noe merkbart igjen for pengene? 16GB DDR4-sett får du ned mot 700 kroner. Jeg ville gått for 2400-2800mHz (mer er overpriset, mindre er unødvendig tregt) og ikke høyere timings enn CL15. Ut over det er merke og annet ("kjøling" osv) stort sett uviktig.

  2. Hva med 4k\8k støtte er det for krevende for APU?

    Å dra 4k\8k youtube filmer problemfritt?

     

    Litt evig optimistik 10 gigabit\2.5 gigabit lan kommer på AMD?

    Vil det antas linux støtte ut av boksen eller er dette låst i windows 10?

     

    Er ganske mange spørsmål frem til vi kommer til AMD Zen.

    Men fremdeles er dette håp det er vits å vente istedenfor å oppgradere am3+ lga 1155 eller sokkel 1366\2011.

     

    Lurer på pris da mange sier hvis AMD kan konkurere mot intel vil prisene blir stive i starten.

    Men hvor stive om AMD eller intel blir billigst gjenstår å se?

     

    Med tanke på at Intels 4,5W Kaby Lake-prosessorer dekoder 4k HEVC Main10 uten problem, og at AMD annonserer HW-dekoding av både HEVC (hvis hovedformål er bedre kompresjon ved høyere oppløsninger) og VP9 regner jeg med dette er helt uproblematisk.

     

    10GBE kan helt sikkert dukke opp - det er opp til hovedkortprodusentene å sette inn de nødvendige kontrollerne, PCIe-kanalene er der. B350-brikkesettet virker dog ikke som det best egnede for dette (og situasjonene hvor en APU-basert PC har behov for 10GBE er vel også relativt få). Det kommer nok etter hvert når Zen er ute. Det største hinderet i dag er nok at Intel har de soleklart beste 10GBE-kontrollerne, og jeg nekter å tro at de ser blidt på at disse brukes på AMD-hovedkort (og ingen hovedkortprodusent er interessert i å gjøre Intel sinte ...).

     

    Å vente akkurat nå er vel uansett lurt, om du ikke må ha nytt utstyr innen jul. Kaby Lake kommer i verste fall til å yte som overklokket Skylake, med bedre videokodeker som en bonus. At Zen (sannsynligvis) kommer omtrent samtidig, og kan være noenlunde konkurransedyktig, gjør det desto mer interessant. Om ikke annet vil Intel for første gang på mange år ha en grunn til å konkurrere på pris.

    • Liker 2
  3. Så nissen kommer ikke å kjøpe A12-9800 hvis den er like god som i5 6500 bare billigere?

    Tror nok hvis denne viser seg å konkurere er ikke all håp over for AMD Zen.

     

    Men dette blir nok en budsjett løsning vil jeg tro.

    Cpu ytelse er det viktigste, håper apuen er raskere en RX 450.

     

    #1: Hvordan relaterer dette til hvorvidt Zen er en brukbar arkitektur eller ikke? Disse APUene har ingenting med Zen å gjøre, annet enn at de deler sokkel og brikkesett. Dette er en videreutvikling av Excavator, AMDs forrige arkitektur, og de er produsert på 28nm, ikke 14. At Zen (gjennom AM4-plattformen) ville ha støtte for PCIe 3, NVMe og USB 3.1 er ingen nyhet.

     

    #2: APUen kommer etter all sannsynlighetikke til å være like rask som/raskere enn en (til nå ikke lansert) RX 450. Hvorfor? Minnebåndbredde. Selv om RX 450 skulle ha samme antall grafikkjerner (512) klokket ~likt eller under, vil den garantert støtte GDDR5-minne, og garantert over en 128-bits (eller bredere) minnebuss. DDR4-2400 i dual channel (også 128-bits) kan ikke måle seg mot dette.

     

    Så kommer spørsmålene om hvorvidt RX 450 vil være en "høstet" Polaris 11-brikke (med deaktiverte kjerner) eller en rebrand av en tidligere GCN-brikke med passelig antall kjerner for å holde prisene lave. Det siste er mer sannsynlig med tanke på at dette er kort som i beste fall vil toppe tusenlappen i pris - spesielt når RX 460 produseres på den unge (og dermed dyre) 14nm-prosessen. Om RX 450 blir en "RX 460 light" vil den lett slå enhver iGPU - spesielt en iGPU produsert på en tre år eldre produksjonsprosess.

    • Liker 1
  4. Må si jeg er positivt overrasket over spesifikasjonene på APUene, spesielt med tanke på tidligere generasjoner. Excavators eneste opptreden på FM2+-plattformen (Athlon x4 845) stopper på 3,8GHz (med null rom for overklokking), og har samme TDP (65W) uten integrert grafikk. Normalt ville dette gjort meg skeptisk til at CPUen klokker ned mye under tung CPU+GPU-belastning (ytelsestester av Skull Canyon-NUCen viser dette veldig bra), men med basefrekvens på 3,8GHz burde ikke dette være et alt for stort problem. De må ha optimalisert arkitekturen betydelig, med tanke på tidligere publiserte AMD-slides hvor Excavator er _mindre_ effektiv enn Kaveri over ~20W per modul. Om dette stemmer fortjener de en runde applaus.

     

    Jeg regner med at mye av ytelsesøkningen kommer av DDR4-oppgraderingen, ettersom Excavator i seg selv ikke har mye bedre IPC enn Kaveri. De økte frekvensene hjelper selvsagt også - når Excavator på 3,8GHz kan matche Kaveri på 4,1 (A10-7870k) burde Excavator på 4,2 ta noen steg i riktig retning. Men frekvensene alene forklarer ikke forbedringen.

     

    Er også spent på hvordan cache er lagt opp i disse APUene. Har de implementert en L3-cache, som de skal på Zen? Eller har de i alle fall gjort L2-cachen like stor som på Kaveri, for å fjerne denne flaskehalsen fra x4 845?

     

     

    Og et lite pirk: "... NVMe og (endelig!) SATA Express." Jeg regner med og-et skulle vært flyttet etter parentesen der? Eller mener journalisten faktisk at SATAe-støtte er en etterlengtet funksjon?  :confused:

    • Liker 1
  5. "De siste årene har vi stor-oppdatert testbenken vår omtrent hvert halvannet år. Om vi følger denne strategien videre vil det i så fall passe med Intels slipp av Cannonlake-plattformen i 2017, men vi vet også at Kaby Lake står på trappene for en sen 2016-lansering. Om denne viser seg å kunne være en betydelig oppgradering for testriggen vår vil vi selvsagt vurdere å oppgradere."

     

    Vurderer dere også en AMD Zen-basert testrigg? Ikke at jeg tror Zen kommer til å nå helt opp til Core-arkitekturen når det kommer til IPC, men om AMD holder det de lover med 40% forbedring og lanserer en 8-kjerners/16-tråders ~4,5GHz toppmodell - noe som ikke vil være overraskende med tanke på tidligere modeller fra den kanten - kan dette bli gøy. Ikke minst for DX12, men også for å ha et sammenligningsgrunnlag som er noe mer interessant enn "hvilken Intel-plattform bør jeg velge?"

    • Liker 1
  6.  

     

    Jeg syns alltid det er interessant å se hvordan Tek.nos journalister forholder seg til priser - spesielt midt oppi det pågående valutakjøret.

     

    Hvorfor er 380X dyrt sammenlignet med 380 og 960? Fordi sistnevnte fremdeles selges etter innkjøpspriser fra før kronekursen gikk i dass. Veiledende dollarpris for 380X er $229 - 30 dollar eller 15% høyere enn 380 ($199). Gitt matchende kronekurs for innkjøp ville 380X dermed kostet 2300.- mot 380s 2000.- - 200 kroner mer enn 960, og med betydelig bedre ytelse. Om en måned eller to vil dette antageligvis korrigere seg etter hvert som eldre varer går ut av lager, og plutselig er AMD langt bedre stilt.

     

    Gode journalister ville vært klar over dette.

    380: 180 $:

    http://www.newegg.com/Product/Product.aspx?Item=N82E16814125794&cm_re=r9_380-_-14-125-794-_-Product

    960: 170 $:

    http://www.newegg.com/Product/Product.aspx?Item=N82E16814487091&cm_re=gtx_960-_-14-487-091-_-Product

    R9 390 280 $:

    http://www.newegg.com/Product/Product.aspx?Item=N82E16814131672R&cm_re=r9_390-_-14-131-672R-_-Product

    GTX 970 290 $:

    http://www.newegg.com/Product/Product.aspx?Item=N82E16814487076&cm_re=gtx_970-_-14-487-076-_-Product

     

    380X retail price 230$, som er akkurat i midten av 380 og 390, 50$ hver retning. For NVIDIA blir det 60 $ hver retning.

     

    Med matchende priser havner altså 380X 600 kroner over 960, ikke 200 kr som du skriver. Bare en liten forskjell på 300%. Hvis du ser på innlegget mitt tidligere så sier altså en side som tester og baserer seg på dollarpriser at kortet koster for mye.

     

    Gode journalister skriver tester som er relevant for forbrukere. Ikke hva de kunne forventet seg om de bodde i USA. Det blir bare dumt. Gode journalister skriver og tester basert på aktuell pris, ikke hypotetisk pris i fremtiden. Hvis du f. eks se på telefoner som LG G4 og Galaxy S6 er de langt ned i pris fra tidligere, mens iPhone er relativt likt. Likevel er det ingen som tar med det i testene, "Denne telefonen blir sannsynligvis mye billigere om 6 mnd". 

     

    De har tom skrevet i en notis i slutten at de kommer til å følge med å se når den får pris i butikken og justere karakter om prisen blir lavere enn satt utsalgspris. Så her tar de ekstra ansvar for å følge opp saken videre, selv om de strengt tatt ikke må. Ville du ikke sagt det var et tegn på god journalistikk?

     

     

    Man kan ikke sammenligne veiledende priser med faktiske butikkpriser - spesielt ikke på produkter som har vært ute lenge nok til å gå merkbart ned i pris. Dette gjelder både 380 og 960. Veiledende pris for begge to er $199. Sier jeg at det ikke spiller noen rolle at de faktisk er billigere i dag? Nei. Men sjansen for at 380X vil se tilsvarende priskutt i løpet av kort tid (eller iaf. førjulstilbud) er ekstremt stor.

     

    Er GTX 970 et bedre kjøp med dagens norske priser? Helt klart. Er GTX 960 et bedre valg, til lavere pris? Tja - det yter så og si likt med R9 280, som er billigere. Å konkludere så bredt og avvisende som "velg Nvidia" basert på prisen på lanseringsdagen er svak journalistikk. Og det er en liten stemme inni meg som sier at om dette var et Nvidia-kort ville konklusjonen heller vært i retning av "Dagens priser i norske nettbutikker ligger noe over veiledende pris, og til denne prisen vil vi ikke anbefale dette kortet. Skulle dette endre seg, eller prisen synke under..." osv. Jeg sier ikke at dette er bevisst fra journalistens side, men AMDs image som "lavprismerke" er blitt litt for innprentet hos mange i senere år.

    • Liker 2
  7. Jeg tipper han velger å forholde seg til reelle priser, og ikke gjetning om hvordan det kan og ikke kan være i framtiden.

     

    AtW

     

    En ting er å forholde seg til prisene slik de er nå, en annen er å gi en anbefaling basert utelukkende på pris uten å ta for seg den ytterst spesielle situasjonen vi er i akkurat nå når det gjelder priser på importerte varer.

     

    Greit nok at man bør unngå overdrevne spekulasjoner, men en journalists oppgave er tross alt å opplyse. Da må man ta med alle relevante opplysninger.

    • Liker 3
  8.  

    Hadde det vært snakk om et lite ytelsegap fra før så hadde det vært én ting, men når det er snakk om et produkt som plasserer seg i det største ytelsegapet i hele sortimentet så forstår ikke jeg problemet med det.

    Problemet er, som jeg skriver i testen, at det yter langt svakere enn GTX 970 men koster nesten det samme.

     

     

    Dette har du rett i - per i dag. Men hvordan forholder du deg til det jeg sier i min forrige post?

  9. Jeg syns alltid det er interessant å se hvordan Tek.nos journalister forholder seg til priser - spesielt midt oppi det pågående valutakjøret.

     

    Hvorfor er 380X dyrt sammenlignet med 380 og 960? Fordi sistnevnte fremdeles selges etter innkjøpspriser fra før kronekursen gikk i dass. Veiledende dollarpris for 380X er $229 - 30 dollar eller 15% høyere enn 380 ($199). Gitt matchende kronekurs for innkjøp ville 380X dermed kostet 2300.- mot 380s 2000.- - 200 kroner mer enn 960, og med betydelig bedre ytelse. Om en måned eller to vil dette antageligvis korrigere seg etter hvert som eldre varer går ut av lager, og plutselig er AMD langt bedre stilt.

     

    Gode journalister ville vært klar over dette.

    • Liker 3
  10. Vil anbefale på det sterkeste ny PSU viss du ikke vet hva du har fra før! (ja, det kan være en av god kvalitet, eller en med ukjent merke)

    Så jeg vil anbefale deg å kikke på tråden min her ang ny PSU.

    Du vil kanskje ikke gå for en som koster alt for masse? Men allikevel være en smule fremtidsrettet? Da er Evga SuperNova G2 serien å anbefale, her får du også 10års garanti når du registrer deg hos Evga. Ang størrelse på PSUen, så ville jeg gått for minst 750W, 850W er også kjekt å ha. Men viss du er 100% sikker på at du aldri kommer til å overstige 4-500W, så skal dog 650W holde! 

    PCen min bruker maks 400W, men jeg har allikevel en PSU på 1000W, for du vet aldri, samt PSUen aldri blir kjørt på maks som gjør at denne lever lenge!

     

     

     

    Tenkte jeg bare kunne linke til deg disse PSUene.

     

    650W

     

    750W

     

    850W

     

     

    Er noen stykker her på Forumet som har fått svidd komponenter av dårlig PSU, som meg som fikk svidd et skjermkort og rambrikker pga dårlig PSU, dette var dog en Chieftec. Du har også en annen her inne som jeg trur fikk svidd komponenter for mange tusen kroner, Christian her på forumet.

     

    Dette er fullstendig overkill for den typen PC som beskrives her. Med en ~140W GPU og en CPU som i verste fall trekker rundt ~100W (dog sannsynligvis mye mindre) klarer OP seg finfint med en 450W PSU - og vil fremdeles ligge fint plassert innenfor effektivitetskurven selv under spilling. Kvalitet og effektivitet er langt viktigere enn overdreven makseffekt. Dessverre er det dog vanskelig å finne PSUer under 500W med høyere rating enn 80plus Gold. Jeg er dog enig i at Supernova G2-serien er verd å se på - men 550W-utgaven ville være langt bedre for OP enn en kraftigere en. Mer enn nok effekt, mer enn god nok kjøling, stillegående og velbygget. Fikk til og med 10/10 fra JonnyGuru, som virkelig ikke er vanlig (http://www.jonnyguru.com/modules.php?name=NDReviews&op=Story6&reid=440)

     

    https://prisguiden.no/produkt/evga-supernova-550-g2-239002

    • Liker 1
  11. Jeg gjorde en lignende, dog ganske uvettig oppgradering for et par måneder siden: Da ytelsen på mitt HD 6950 fra 2011 begynte å bli for svak bestemte jeg meg for å gå all inn og oppgradere til et Fury X - i en PC som ellers er fra 2008.

     

    Jepp, du leste riktig - et skjermkort til 7000,- i en seks år gammel PC. Galskap? Ja, absolutt. Men plattformoppgraderingen kommer senere. Mine erfaringer så langt? Unntatt noe PSU-trøbbel (som i at min gamle 850-watter fra 2008 tok kvelden under stresstesting av det nye kortet)  fungerer det helt strøkent. Og nei, jeg er ikke CPU- eller RAM-limited i særlig mange tilfeller. Noen, selvsagt. Men de fleste av mine tester (i 2560x1440) matcher stort sett de benchmarks jeg har sett rundt om på nettet. Ingen bugs, ingen inkompatibilitet, ikke noe tull. Fungerer finfint både i W7 og W10. Dette på et Asus Rampage Formula X48-hovedkort med PCIe 1.0 og DDR2-RAM.

     

    OP: Det er verd å merke seg at selv om gjennomsnittlig strømforbruk på de fleste skjermkort i dag er lave, så var de desto lavere for fem-seks år siden. Radeon HD 4870 er et 140W-kort. Et GTX 960 bruker nok ca tilsvarende av dette, men dette er i snitt - Maxwell-arkitekturen justerer strømstyrke og frekvenser på milisekundnivå, og selv om gjennomsnittlig strømforbruk er lavt kan dermed maksimalt (dog over svært kort tid) være høyt (GTX 980, med 165W TDP, har spikes over 300W). Dette kan gamle PSUer slite med. Å bytte til en ny (og mer effektiv) PSU er uansett verd pengene.

    • Liker 2
  12. AMD har dessverre hatt veldig dårlig timing de siste årene, kombinert med at Nvidias hype-maskin har kunnet kjøre for full maskin etter at den imponerende Maxwell (2)-arkitekturen ble sluppet. Det er likevel ikke til å skyve under en stol at 7970 GHz Edition var bedre enn GTX 680 (det er tross alt en grunn til at arkitekturen fremdeles er i bruk i dag), men likevel tapte i salg sammenlignet med Nvidia. AMD har også gjentatte ganger skutt seg selv i foten ved å bruke elendige, bråkete og ineffektive referansekjølere. Det hadde virkelig vært interessant å se hvordan et R9 290(X) oppførte seg med kjøleren fra et GTX 780, for eksempel. Samtidig er det vanskelig å benekte at Nvidia i sine to siste generasjoner av kort har hatt ganske store teknologiske forsprang - som også har vist seg i ytelsen (noe AMD bare delvis har klart å korrigere med driverforbedringer over tid.

     

    Nå skal det sies at jeg ikke har eid et Nvidia-skjermkort så lenge jeg har bygget mine egne PCer, men jeg har alltid vært storfornøyd med AMD/ATIs kort. Jeg byttet nettopp ut et Radeon HD 6950 - kjøpt i 2011! - som fremdeles hang ok med på nyere spill selv i 2560x1440 (med reduserte innstillinger, naturligvis, i tillegg til at jeg ikke er ekstremt kravstor). Oppgraderte til et Fury X, og har ikke angret på det i ett sekund. Driverproblemer har jeg aldri sett noe til, ei heller andre måter som ting ikke har fungert som de skulle. Det er likevel vanskelig å komme unna at AMDs drivere har langt høyere overhead enn Nvidias - noe som heller ikke er overraskende med tanke på størrelsesforskjellen på de to selskapene. På den annen side leder dette meg til å tro at Fury X er en tryggere investering pr. i dag enn et 980 ti - sjansen for at AMD får hentet ut 10-20% mer av kortet gjennom driveroptimalisering er langt større enn hos Nvidia.

     

    Mange av AMDs problemer kan ledes direkte tilbake til det å være et mindre selskap, med færre ressursser. Spesielt innen driverutvikling har dette mye å si - de har mindre evne til å samarbeide med spillutviklere (både gjennom økonomiske incentiver og teknisk samarbeid), samtidig som de tydelig sliter med å utvikle like gode drivere som Nvidia, i alle fall på like kort tid. Jeg ser for meg at det samme er årsaken til problemene innen både Linux, OpenGL og OpenCL - færre ressursser gjør at de har mindre mulighet til å fokusere på nisjemarkeder. Dermed blir Windows og DirectX fokus. På den annen side har de også lagt betydelige ressursser i alternative prosjekter - gjerne åpne alternativer til proprietære Nvidia-produkter - som FreeSync, HSA og åpne alternativer til PhysX o.l. Hvorvidt disse satsningene har vært den riktige veien å gå kan nok diskuteres lenge, men det er samtidig lite tvil om at satsninger på åpne løsninger og fritt tilgjengelige teknologier må være veien å gå for dem i konkurranse med Nvidia.

     

    Jeg har ganske store forhåpninger til Fury Nano - både når det gjelder ytelse og strømforbruk - men håper bare det prises noen lunde konkurransedyktig (likt med GTX 980, for eksempel?).

     

    Samtidig har jeg også store forhåpninger om at AMD tar med seg noe av lærdommen innen strømsparing fra utviklingen av Carrizo over til Arctic Islands - en Fury (X)-arvtager på 14nm med 6GB (8?) HBM med halvert strømforbruk hadde ikke vært å kimse av.

    • Liker 1
  13. Skal vel ha noe til overs.

     

    Supernova G2 850w, 4790k, HD 4600, ett par hdd'er og ssd. 

     

    Du har en 850W PSU for et oppsett uten dedikert grafikk? Jøss. Tør jeg spørre hva tanken bak dette oppsettet var? Med tanke på at et slikt oppsett, selv under maks belastning på alle komponenter (som aldri vil skje irl) aldri vil nærme seg 200W ligger du ganske kraftig utenfor PSUens sweet spot når det kommer til effektivitet, i alle fall - jeg tviler på at du jevnlig overstiger 20% belastning på PSUen. Og mtp. prisen på Supernovaen din kunne du for de samme pengene fått en langt mer effektiv og 100% vifteløs Seasonic SS400FL (med Seasonics tilhørende fantastiske byggekvalitet og levetid). Hva fikk deg til å gå for Supernovaen?

  14. Greia er at en strømforsyning har ikke alle wattene på samme ledning ut av den. Derfor må man ha strømforsyning med flere nominelle watt enn man bruker.

     

    150 watt ekstern forsyning, 4570s 65 watt prosessor.

     

    Det er definitivt en sannhet med modifikasjoner. Flertallet av moderne høykvalitets PSUer har én massiv 12V-rail, og henter 5V og 3.3V fra denne med DC-DC-omformere. Enkelte har to 12V-rails og henter fremdeles 5V og 3.3V fra 12V1. Og ettersom omtrent alt som brukes av strøm på moderne PCer er 12V kan man dermed utnytte dette mer eller mindre optimalt. Ikke er det spesielt vanskelig å sammenligne forventet effektforbruk for en PC med hva en PSU kan levere på de forskjellige linjene heller. I ditt tilfelle stemmer det nok. Regner med du har en eller annen intern DC-DC-omformer/micro-PSU som tar seg av 12/5/3.3V?

     

    Har Cooler Master V850. I følge kalkulator på nett trenger jeg 616watt.

    4690K overklokket til 4,6 (turbo)

    GTX 780TI

    6 vifter

    4 7200RPM disker + 1 SSD + 1 DVD/RW

     

    Har planer om SLI, trenger da 802 watt. Om PSU greier det er jeg ikke sikker på.

     

    Det er her slike spørsmål blir interessante, og i min erfaring overdriver de fleste kalkulatorsider ganske kraftig. Først og fremst er det ekstremt usannsynlig at et spill kontinuerlig vil drive kortet ved maks effekt. Det er stor forskjell på effektforbruk ved spililng vs. såkalte "power viruses" som for eksempel FurMark. I tillegg vil du nok svært sjeldent oppleve kombinasjonen 100% CPU + 100% GPU + full last på alle disker, i alle fall over lengre perioder enn et par sekunder. Å enkelt plusse sammen max effektforbruk på alle komponenter blir dermed ganske overdrevent - spesielt med SLI/CF.

     

    Om man ser på AnandTechs test av 780TI driver de der 2 stk. i SLI med en overklokket i7 4960X (130W TDP) i FurMark på 652 watt (556W i Crysis 3). Din PSU holder med andre ord i lange baner for SLI - du vil nok ligge rundt 600W maks under spilling med SLI, som plasserer deg veldig fint i effektivitets-sweet spot'en til strømforsyninga, og med en betydelig sikkerhetsmargin ift. å slite ut PSUen.

     

    Husk at effektivitetskurva , DB-kurva og fanless-kurva spiller en rolle her.. 

    Noen kjøper 2x hva man trenger for å ligge effektivt eller for å slippe vifta ( ofte i samme slengen) 

    Har 

    8x 1400w ( hotswap) 

    3x 1500w 

    4x 1200w

    8x 860w

    10x 700w

    5x 500w 

    1x 430

     

    Litt liten skala når 15 av mine må på "over 900w" ? 

     

    Jepp, er akkurat de faktorene jeg er interessert i å høre folks tanker rundt :) Nå høres det jo også ut som du har PCer litt utenom det vanlige :p Men spesielt hvordan folk forholder seg til effektivitetskurver og den slags er det som interesserer meg. Får inntrykk av at mange enten mangler kunnskaper her eller ikke helt forstår prioriteringene sine, og heller velger en "kraftigere" PSU av lavere kvalitet fremfor en som passer til ens bruk og har høykvalitets komponenter, god 80+-rating, osv.

     

    Å kjøpe 2x "det man trenger" for å ligge effektivt blir jo også litt på kanten - får inntrykk av at mange tror "det man trenger" er max belastning, og ender dermed opp med at de i det meste av bruken ligger langt under optimal effektivitet - da vil det være bedre å sikte seg inn på ~70-80% PSU-load ved maks, slik at man i flest mulig bruksscenarioer ligger godt innenfor de ~30-70% hvor effektiviteten gjerne er best.

     

    Det å beregne PSU etter "fanless-kurven" er jo også et interessant eksperiment - man velger bevisst å plassere seg utenfor optimal effektivitet (er vel få PSUer som ikke kobler inn vifta etter ~30%), heller enn å kjøpe en faktisk vifteløs PSU med bedre effektivitet i de områdene man bruker. Med mindre man kombinerer dette med å kjøpe en billig, lavkvalitets PSU (som tross alt er noe av det dummeste man kan gjøre), hvorfor ikke like godt kjøpe en passende spesifisert vifteløs PSU? De har jo gjerne 80+ platinum eller titanium også.

     

    AX1500I, En snill sjel sendte den til meg  :love:

     

    5820K og 980 sli, trekker ca 680 watt var det vel. :)

     

    Vel, du slipper iaf. bekymre deg for dårlig effektivitet selv om du knapt topper 40% load med det vidunderet av en strømforsyning! :D Hører du noe til vifta i den? Og hva slags belastning trekker den 680W under? Spill? 3DMark? FurMark? Syns det hørtes mye ut for det oppsettet, men enkelte ikke-referanse 980-kort ligger vel nærmere 250W enn standard 165W TDP takket være kraftigere strømtilførselskretser og mer aggressiv boosting.

     

    Evga Supernova 750 watt gold. Core i5 3570K@4,5Ghz, GTX 980 overklokket, 1stk 120GB SSD, 1tk 500GB SSD og 1stk 2TB snurre disk samt noen vifter som ikke bruker særlig med strøm. Tror nok dette skal holde til SLI også når behovet er der.

     

    Ja, du burde være greit innenfor der. Alltid spennende med SLI med GTX 970/980 - takket være PowerTune trekker en GTX 980 jo opp mot 250-300W under 100% load, men kun i millisekunder av gangen, for så å gå ned så lavt at snittet over tid blir ca. TDP. Har sett enkelte argumentere med at man dermed burde tenke ut fra at kortet kontinuerlig trekker 300W, som blir ganske latterlig - men man bør definitivt ha en PSU som er kraftig nok, og evt. kan yte litt over spec. Ut fra TDP (77W CPU + 165W GPU (gitt at det er en ca. referanse 980) + ~60-70W for disker, hovedkort osv.) kan oppsettet ditt nok fint drives av en ~300W PSU, men den ville nok tatt kvelden relativt fort om den ikke kunne håndtere millisekunder med ~400W under tung bruk. Samtidig, når SLI rendrer annenhver frame pr. kort burde de aldri være under maksimal belastning samtidig, så sjansen for at de millisekundlange ~250W-toppene for to kort skal sammenfalle er nok mikroskopisk. Igjen, ut fra TDP alene kunne man drevet 980 SLI med en ~500W PSU, men jeg ville nok lagt på 150-200 watt for å være trygg. 750W er med andre ord mer enn nok :) (Som Christian Thorkildsen skrev over bruker hans 980 SLI-oppsett med en betydelig mer strømkrevende CPU 680W.)

  15. Jeg har i flere år hatt inntrykk av at mange (meg selv inkludert sist jeg bygde PC) har store problemer med å beregne hvor kraftig PSU de trenger, og gjerne da ender opp med å kjøpe alt for kraftige modeller hvor de selv ved intensiv bruk ikke når 50% belastning. Spesielt med tanke på at både prosessorer og grafikkort i det siste har blitt mye mer strømgjerrige er jeg interessert i å se hva slags strømforsyninger folk bruker.

     

    Om du svarer på poll'en, legg gjerne igjen en kommentar med kjapt oppsummerte specs på PCen (CPU, GPU, andre store strømtrekk).

     

    Selv sitter jeg her med en aldrende Cooler Master Real Power Pro 850W. Den var ganske overkill selv da jeg kjøpte PCen - med CrossFire og 4 3.5" harddisker - og nå, etter at GPUene har blitt byttet ut med én for noen år siden, og diskene er nede i 1 HDD og 1 SSD, når jeg nok ikke over 40% belastning selv med Prime95 og FurMark gående.

     

    CPU: Intel C2Q9450 @ 3.2GHz (~90W i HWMonitor under full OCCT-load på alle kjerner)

    GPU: AMD Radeon 6950 (200W TDP, overklokket ~5%)

    Asus Rampage Formula-hovedkort, X48-chipsettet er mindre strømgjerrig enn de fleste.

    1 SSD, 1 HDD.

     

    Jeg kunne altså klart meg fint med en ~400W PSU per i dag, evt.~500W for å være helt på den sikre siden. Fullstendig overkill her i gården altså. Hva med dere?

  16.  

    Dere klarte ikke å finne et mer sexistisk illustrasjonsbilde å ha på skjermen? Virkelig? Bildeteksten kunne like godt vært "Denne TVen er veldig bra til å se porno på, sier artikkelforfatteren."

    Aner virkelig ikke hva som feiler slike som deg. AT du klarer og bli opphisset og vri dette bilde til noe med sex??? Er jo en robot.

    Seriøst burde du Søke hjelp. IKKE SIKKERT ALLE HAR LIKE SYKE TANKER OPPI HODET SOM DEG... klovn

     

     

    Haha, du er jo søt du da. Eller traff jeg en nerve? Hersketeknikkene har du i alle fall ikke særlig dreisen på. Jeg må si det er et ganske fatalistisk standpunkt å innta når man i praksis sier at bilder og bildebruk ikke kan analyseres eller kritiseres.

     

    Eller er du faktisk uenig i at det der er en seksualisert fremstilling av en kvinne-analog? Det vil jeg gjerne se deg fremme noen rasjonelle argumenter for. Ja, det er en robot. Men om poenget var å ha et bilde av en robot, hvorfor brukes ikke like godt et bilde av R2-D2 eller Wall-E? Et bilde av en kjent filmrobot ville i alle fall hatt en logisk kobling til å være illustrasjonsbildet i en TV-test. Om poenget er en "nøytral," "vi må ha noe på skjermen, så se på denne kule roboten"-illustrasjon, hvorfor har den en utforming så lik såkalt "kvinnelig" anatomi (les: det heteronormative skjønnhetsidealet for kvinner)? Og hvorfor er den stilt opp i en slik positur? Er den mest logiske måten å vise frem en humanoid robot på å stille den opp på alle fire med rumpa i været? Jeg sliter i alle fall med å se det. Pornoestetikken her er åpenbar.

     

    Det der er i praksis det nærmeste artikkelforfatteren kan komme å poste mykporno på tek.no-nettverket. Og å avvise at det er et bevisst valg, det må jo være toppen av naivitet.

    • Liker 1
  17. Det er ganske godt gjort å konsekvent omtale en ny standard for skjermgrensesnitt for "en ny kabel." Ikke minst ettersom den nye standarden skal kunne bruke DP 1.2-kabler så lenge de er laget etter VESA-spec. Det er med andre ord ikke en ny kabel i det hele tatt, men en ny standard for bildeoverføring både på verts- og mottakersiden med hovedfokus på nyere og raskere brikker på hver ende som takler høyere datahastigheter - og dermed øker båndbredden med 50%. Her viser journalisten virkelig enorm forståelse for temaet som skrives om.

    • Liker 2
  18. "Hei. Jeg er journalist i en teknologipublikasjon, og når en merkelig "feil" dukket opp i en tjeneste jeg bruker valgte jeg å skrive en clueless artikkel om dette heller enn å kontakte kundeservice eller prøve å se etter en måte å korrigere feilen på." Because that makes total sense.

     

    Du har altså ikke fått med deg Spotify Connect? Når flere enheter er knyttet til samme konto må man velge én enhet å spille av til. Ikonet for dette er et grønt symbol som dukker opp i nedre høyre hjørne av avspillingsvinduet på enheten (samme plass som volumkontrollen). Trykk på den, velg riktig enhet, problem solved. Og ja, Spotify virker bare på én enhet pr. konto til samme tid - det er tross alt en personlig tjeneste, ikke et familieabonnement.

     

    Ja, dette er nytt, og man har kanskje ikke blitt introdusert eksplisitt for det. Men det er en BRA funksjon, og gjør at man ikke trenger tredjepartsprogramvare for å styre spotify på en annen enhet. At en journalist er såpass UI-analfabet at han ikke klarer å pønske ut dette må i så fall tas på egen kappe. Idiotisk artikkel.

    • Liker 1
  19. Jeg liker å tro at jeg er bedre enn de som vanligvis beskylder journalister for å være kjøpt og betalt, men dette er latterlig dårlig.

     

    "Telefonen får også støtte for den nye, lynraske 802.11 ac-standarden for trådløst nettverk, som den første i verden." Ehm, say say what? SG4, HTC One, og det meste annet med Snapdragon 800 eller 600 har støtte for AC-nettverk. Vær så snill, gjør noe annet enn å bare gjengi pressemeldinger.

     

    Og å kalle denne en "Supermobil"? I beste fall tvilsomt, når forskjellen til produkter som har vært på markedet i et halvt år er så liten.

     

    SG5 ser ut som en helt ok oppgradering, men de kunne spart seg S4+. Mer spent på neste HTC og Sony Z2.

    • Liker 2
  20. Må si dette gjør meg litt skeptisk. Ikke bare fordi Lenovos mobiltelefoner så langt er uinspirerende midt-på-treet-modeller uten design, sjarm, ytelse eller funksjoner som skiller seg ut, men også fordi Motorolas to siste modeller var det stikk motsatte. Jeg klarer bare ikke å tro at de kommer til å fortsette i den retningen. Jeg regner med essensen av Moto X og Moto G om et års tid har druknet i et forsøk på å friske opp Lenovo. Og mobilverdenen blir et fattigere sted. Om bare Lenovo var like gode på å utvikle mobiler som de var til å lage PCer...

  21. Jeg har i dag en liten selvbygget filserver stående her hjemme, som jeg leker med tanken på å oppgradere til en stue-PC. I utgangspunktet er den ikke kraftig nok til det, men med et OK skjermkort tenker jeg at den burde holde til avspilling av film og serier, streaming, litt surfing, og torrents i bakgrunnen.

     

    Dagens specs:

    -Intel Atom D525 (1.8GHz dual core m/hyper threading)

    -integrert grafikk

    -4GB DDR3

    -450W strømforsyning

    -2*750GB HDD

    -2*2TB HDD

    -Windows 7 Pro

     

    Det hele sitter i et Fractal Node 304-kabinett og kjøles kun av kabinettvifter. I tillegg er strømforsnyningen ganske gammel (og av et crappy no-name-merke), og har ikke PCIe-strømkontakter (alle unødvendige ledninger ble kuttet for å forbedre luftflyten i et tidligere kabinett).

     

    Jeg vil altså kjøpe meg et skjermkort. Det må

    a) være billig (absolutt maks. 1000.-, men gjerne under 500.- inkludert frakt)

    b) kunne spille av video i 1080p i ymse formater

    c) ikke kreve ekstern strøm

    d) aller helst være passivt avkjølt.

     

    Utenom det bør det kanskje nevnes at hovedkortet er et mini-itx med kun PCIe x4 (med åpning i sporet så x16-kort får plass). Det er med andre ord ingen vits i noe overdrevent kraftig. Og nevnte jeg at jeg aller, aller, aller helst vil ha AMD-skjermkort? Det vil jeg altså. Rooting for the underdog, altså.

     

    Jeg vipper litt mellom flere alternativer her.

    Ultrabudsjettalternativet: https://prisguiden.no/produkt/xfx-radeon-hd-5450-1gb-lp-heatsink-150946

    Et lite steg opp: http://www.komplett.no/xfx-radeon-hd-6450-1gb-ddr3/634365

    Litt mer moderne: https://prisguiden.no/produkt/xfx-radeon-r7-240-2gb-passive-low-profile-195509

    Overkill/fremtidssikring: https://prisguiden.no/produkt/xfx-radeon-r7-250-1gb-passive-195506 (evt. 2GB-varianten).

     

    Det er selvsagt R7-250-kortet som frister mest - men har jeg egentlig bruk for det? Vil jeg få merkbart mer ut av det enn f.eks. et HD 6450 selv over PCIe x4? Og er det verd prisforskjellen? Eller burde jeg heller gå for noe billig i dag, og så heller legge i noen flere kroner når serveren en dag skal oppgraderes?

     

    Jeg ser også at det er noen hundrelapper å spare på å gå for skjermkort med vifte, som f.eks. https://prisguiden.no/produkt/sapphire-radeon-r7-250-2gb-195515

    Dette kortet ser ut til å være perfekt, bortsett fra viften - dette er en PC som kommer til å være påslått 24/7, og jeg vil at den skal vare. Er det verd å bekymre seg over at kortet er med vifte?

     

    En annen idé er å bytte ut PSUen og hive inn et gammelt HD 4850 som jeg har liggende - men ut fra bl.a. videocardbenchmark.net yter dette dårligere enn et R7 250 (240 er såvidt dårligere enn dette igjen), og med et MYE høyere strømforbruk. Er det verd å vurdere?

     

    Takker på forhånd for alle svar.

     

     

    Tl;dr: Trenger awesome/billig skjermkort til filserver/media-PC. PLZ HLP!

×
×
  • Opprett ny...