Gå til innhold

Kraaketaer

Medlemmer
  • Innlegg

    55
  • Ble med

  • Besøkte siden sist

Innlegg skrevet av Kraaketaer

  1. AM4 skal ha support til og med 2020. Hvis 3850x får 16/32 vil kanskje TDP bli på rundt 200w. Da blir det isåfall opp til VRM ytelsene hvordan ytelsene blir. Har 2700x og Crosshair VI selv og har hatt over 200w fra CPU med kun en av to mulige 6(?)pin tilkoblet.

    Det der henger ikke særlig på greip. Nåværende 16c32t Threadripper-prosessorer på 14nm har 180W TDP, og det er med dobbelt antall minnekanaler og en særdeles strømkrevende Uncore (1920X-en i husets arbeidsstasjon fordeler 60-80W til Uncore under full belastning, rundt 100-110 til kjernene). Anandtech regnet seg frem til at prosessoren i denne demonstrasjonen sannsynligvis lå på rundt 75W strømforbruk(!), og samtidig enten har en langt større IPC-forbedring enn forventet, eller matcher klokkefrekvensen til en i9-9900K (4.7GHz all-core boost). (En tredje mulig forklaring er mindre forbedringer av begge disse og en stor økning i utnyttelsesgraden for SMT.) Om AMD kan drive 8 kjerner rundt 4.7GHz ved 75W på 7nm kan vi fint forvente 16 kjerner rundt 100-110W så lenge de holder seg rundt 3.5GHz eller så. Om din 2700X trekker 200W går jeg ut fra at den er overklokket (eventuelt Precision Boost Overdrive)? Hvis ikke burde du sjekke hva som er galt med oppsettet ditt, for unntatt visse spikes skal så store sprang over TDP ikke forekomme.

     

     

    AMD har lovet AM4-støtte til 2020, så gitt BIOS-oppdateringer fra produsentene skal alt fungere i alle hovedkort. Dette gjør det også umulig for dem å slippe AM4-prosessorer med TDP langt over tidligere standarder, da det vil bryte med designstandardene for AM4-plattformen. De har allerede løftet dette taket med 2700X, så å løfte det videre virker lite sannsynlig. En mulig omvei er at >8-kjerners prosessorer slippes til en "AM4+"-variant e.l. (hvor kraftigere VRM er hovedforskjellen), men det virker lite sannsynlig. Ytelsen vil bli "dårligere" mtp. at X370/B350 allerede ikke støtter Precision Boost 2 eller XFR2 (og vi vet lite om hvilke forbedringer som kommer på dette feltet med 3000-serien og X570/B550), men selv på et A320-hovedkort skal alle støttede prosessorer møte grunnleggende spesifikasjoner, så base/(enkjerne-)boost-frekvens etc. skal være det samme.

  2.  

     

     

    "Tilgjengelighet her til lands vites foreløpig ikke." Med tanke på at Gigabyte-laptoper ikke selges i Norge(/norden) er det vel relativt på det rene at den ikke kommer hit. Synd. Gigabyte lager noen av de mest attraktive laptopene der ute for oss som vil kunne spille på farten uten å kjøpe en SUV for å transportere PCen.

    Gigabyte selges i Norge...
    Hardware, ja. Men laptoper? Nei. Ikke i noen anerkjente butikker, i alle fall.
    Multicom blant annet

     

    Igjen, sjekk ut "utvalget" deres. To modeller, P35X og P37X (begge Skylake-modeller og nedpriset, tilsynelatende utgående). Og en Aorus X7. Ingenting annet. Med andre ord: Gigabyte-laptoper selges for alle praktiske formål ikke i Norge. Gigabyte (ikke Aourus) har pr. dags dato 12 Kaby Lake-utstyrte laptoper på sine norske nettsider (Gigabyte.no). Ingen av disse er tilgjengelige gjennom norske forhandlere.

     

    Moralen er: Gigabyte anser tydeligvis ikke det norske/nordiske markedet som stort/interessant nok til å produsere tastaturer med nordiske bokstaver og nordisk Windows.

  3.  

    "Tilgjengelighet her til lands vites foreløpig ikke." Med tanke på at Gigabyte-laptoper ikke selges i Norge(/norden) er det vel relativt på det rene at den ikke kommer hit. Synd. Gigabyte lager noen av de mest attraktive laptopene der ute for oss som vil kunne spille på farten uten å kjøpe en SUV for å transportere PCen.

    Gigabyte selges i Norge...

     

    Hardware, ja. Men laptoper? Nei. Ikke i noen anerkjente butikker, i alle fall.

  4. Lurer på om de som allerede har betalt kommer til å bli skuffa?

    Selvsagt kommer de til å bli det. Ut fra størrelsen på batteriet har det en ubetydelig kapasitet sammenlignet med den jevne smarttelefon, og et så lite solcellepanel ville uansett kreve mange timer direkte sollys for å lade det opp i merkbar grad. At klokka i tillegg er diger og stygg hjelper virkelig ikke saken.

  5. Ett tips dere kan se ut til å trenge (blant annet sett i en rekke iFixit-guider, som her: https://www.ifixit.com/Teardown/Microsoft+Surface+Pro+3+Teardown/26595#s66222):dekk sprukne skjermer med overlappende lag klar pakketeip, kontaktplast e.l.. Dette holder dem mer sammen, gir sugekoppene bedre feste, og ikke minst holder det glass-splintene unna fingertuppene. Det gjør reparasjonsarbeidet _mye_ lettere.

  6. Er det noen fordel å bruke en stor varmluftpistol uten dyser?

    Selv foretrekker jeg å bruke varmluftloddebolt eller sette på mindre dyser på en liten varmluftpistol for å få mer kontrollert punktoppvarming.

    Elektronisk temperaturregulering er også en fordel for å unngå å smelte/skade plast eller LCD.

    Punktoppvarming er vel i de fleste tilfeller i slike reparasjoner nettopp det du ikke vil ha? Jevn, "snill" oppvarming av hele den relevante komponenten (batteri, LCD-panel) er jo det som både sikrer at delen ikke blir skadet og at alt limet løsner likt. Elektronisk temperaturregulering er nok definitivt en fordel, men da begynner vi vel fort å snakke loddestasjoner i noen-tusen-kronersklassen? Eventuelt har man jo "risposer" som iFixits iOpener, som varmer opp ting på en betydelig mildere måte.

     

     

    Til artikkelforfatter: Et tips jeg har sett gjentatt utallige ganger for å lettere fjerne sprukne glasskjermer er å teipe over overflaten med vanlig gjennomsiktig pakketape. Dette lar sugekopper få bedre feste, samtidig som det holder glassplintene unna fingertuppene, og holder sprukne paneler sammen under demontering selv når makt må brukes.

  7. Dette må være en av de lekreste telefonene jeg har sett på lenge - de har virkelig truffet spikeren på hodet med den mattsvarte finishen. Minner meg på et vis om den gummierte baksida på min gamle HTC Hero, way back when. Har savnet den typen finish på telefoner helt siden da. Jeg kan vanligvis ikke utstå gull eller annen unødvendig pynt, men dette ble sjokkerende smakfullt. Hadde ikke vært meg imot om detaljene var grå/"gunmetal" heller da. Men klager ikke.

     

    Det jeg derimot klager på er å selge en telefon med en Snapdragon 400 i 2017. Greit nok at den ble lansert for et halvt år siden, men kom igjen HTC! Dette er en SoC som ble lansert i slutten av 2014, og var i full sirkulasjon for tre år siden! Og selv da var den en midrange-chip! Hva er det de tenker på? Jeg bruker en telefon fra de dager selv, en Xperia Z2, men denne har i det minste Snapdragon 800, som er minst dobbelt så rask på alle områder. Tross dette er den latterlig, uholdbart treg, og i ferd med å pensjoneres. Nei takk. Til den prisen, eller kanskje 500,- mer, burde de få inn en SD 652 eller lignende. Det hadde vært noe.

    • Liker 1
  8. Er det bare jeg som syns karakteren til slutt ikke på noe vis samsvarer med konklusjonen i testen? Greit nok at "i utgangspunktet OK" lydkvalitet og tilsynelatende god og komfortabel konstruksjon kanskje ikke er 2/10, men det ligger en viss kognitiv dissonans i det å si at et produkt er som å velge mellom pest og kolera og deretter gi det 6/10. Hvis det bare var pest, ville det da fått 7-8? Eller er det valgfriheten som trekker opp?

    • Liker 1
  9. Jeg liker at dere i en artikkel om å reparere noe (som dere selv påpeker flere steder i tidligere artikler er miljøvennlig) kaster en ødelagt del i restavfallet. Flott. Det er helt sikkert ingen miljøskadelige stoffer som slippes ut når et skjermpanel går gjennom en forbrenningsovn. Neida. Gjennomtenkt!

     

    (Og ja, det finnes mye shady innen "e-avfallshåndtering", men Norge er blant de beste landene på dette, så hvorfor ikke i det minste prøve?)

    • Liker 2
  10. ~350,- i frakt, ~2-3 uker uten mobil før den kommer dit (og garantibehandlingen i det hele tatt kan begynne, før den så eventuelt skal repareres og sendes tilbake), ingen forbrukerlovgivning å støtte seg på, og notorisk upålitelige nettbutikker. Er dette som gjør meg skeptisk.

     

    På den annen side virker jo telefonen lett reparerbar, om bare reservedelene blir tilgjengelige.

  11. Så dere hadde ingen problemer med frakt, toll e.l.? Og det tok ca. en uke fra bestilling til levering? Det høres jo i så fall veldig bra ut!

     

    Ganske skuffet over at OnePlus har offisielle nettbutikker i omtrent hele Europa, men ikke Norge. Vurderer å bestille med reshipping fra Tyskland (bedre ift. garanti og slikt enn å bestille fra kina), men er usikker på hvor sikkert det er. Sverige hadde vært enda bedre, men har så langt ikke funnet en eneste reshipping-tjeneste der.

  12. Jeg har en mistanke om at en av grunnene til at MS ikke har lansert denne med kaby lake, er at de slet noe jævlig med strømoptimalisering for spes. skylake. Surface pro 3 hadde også problemer her, og alt ble ikke fikset før den gikk ut av produksjon. 

    Tror derfor at de har brukt en del tid på optimalisering mot kjent plattform her, i stedet for å kaste seg etter en ny generasjon, for så å gå i samme fella på nytt.

    ... og det er egentlig positivt.

    R&D tar tid, ja, men uansett utviklingstid ville det vært veldig merkelig om de oppdaterte m3- og i5-versjonene til Kaby Lake, for så å vente X måneder før i7-versjonen (med Iris-grafikk) ble tilgjengelig (ettersom ingen KBL med Iris-grafikk eksisterer ennå). Denslags er svært dårlig business, og gir den jevne kunde et svært dårlig inntrykk. "Hei, jeg så at Surface har blitt oppdatert, jeg vil gjerne ha den kraftigste utgaven." "Så flott! Det er bare ett problem - akkurat den utgaven er ikke oppdatert ennå. Kom tilbake om noen måneder!" Neste stopp for denne kunden ville 90% sannsynlig være Eplehuset.

  13. Ja, skal være enig i at GTX 9 serie er litt antiklimaks i dag, men jeg mistenker at de sparer 10 serien til en større refresh til våren. Legg merke til at de bare lanserte en ekstra versjon av surface book. De lanserte ikke en ny Surface Book 2 serie.

    Igjen, ingen kan oppgradere til et produkt som ikke eksisterer. Første Pascal-GPU under 100W ble lansert for to dager siden, og begge disse har 75W TDP. GTX 965 er en 50W GPU. Jeg nekter å tro det er mulig å kjøle en 75W GPU i et så tynt chassis, ergo må de vente på en eventuell GTX 1040. Som ennå ikke engang er på ryktebørsen, langt mindre tilgjengelig for salg.

  14.  

     

    Det er jo en del å utsette på maskinvaren når det verken er USB Type-C, og forrige generasjons grafikk. Forstår i og for seg at de ikke får på plass Kaby Lake, når de sterke variantene av denne serien, ikke er lansert enda.

     

    Likevel er det mest kritikkverdige her, prisen. Den er mer enn i overkant høy for laveste konfigurasjon. Samtidig ser en jo hvor høyt i pris noen av de proffe skjermene ligger på, så blir artig å se om disse kan sammenligne.

     

    Det mest prisverdige er designet. Der har teamet gjort en helt formidabel jobb. Ser langt bedre ut enn iMac, både utseendemessig og funksjonelt. Elsker uansett trenden med at Microsoft ønsker å innovere. Surface Book, Hololens, 3D Paint, Surface Studio. Langt mer spennende enn hva som foregår hos naboene for tiden.  :)

    USB C kommer nok, men overgangen er flytende jevnt over industrien. Innen neste generasjon slippes vil det aller meste av utstyr man vil koble til fremdeles være USB-A uansett. Så jeg tror ikke dette vil bli noen showstopper for denne, men det er klart at det med fordel kunne vært USB-C om man ser litt på sikt.
    Enig, de skulle imidlertid hatt en miks, 1-2 USB-C og resten USB3. En såpass dyr maskin vil du ha lenge og da bør den være fremtidsrettet.

     

    På visse måter er jeg enig, men samtidig ikke - om alt man vil ha er "riktig kontakt" holder det jo i lange baner med en overgang eller en hub med riktig tilkobling (dette er kanskje spesielt nyttig med tanke på den upraktiske plasseringen av portene på Surface Studio. Når det gjelder overføringshastigheter finnes det eksepsjonelt få USB-baserte enheter som holdes tilbake av USB 3.0 (enn så lenge).

     

    Om det som savnes derimot er mer moderne overføringsprotokoller kan jeg si meg enig i dette. Dette er tross alt en relativt high-end maskin for produksjon av diverse innhold. Det finnes nok av gode USB-baserte DAS-enheter om man trenger masselagring (med RAID eller SSDer om man vil ha gode hastigheter), men USB 3.0 er likevel magert. Thunderbolt 3 ville gitt muligheter for f.eks. 10GBit Ethernet (for selskaper som har sentraliserte masselagringsløsninger, noe som bare blir vanligere), daisy-chaining av skjermer, lagringsenheter, huber og annet, and the list goes on.

     

    Samtidig er det nok mange - også blant businessbrukere - som klarer seg fint med GBE-nettverk, USB 3.0 for lagring og en sømløs, integrert enhet. Man skal ikke undervurdere verdien av enkle løsninger.

  15. "Skjermen er ellers en ganske imponerende sak med hele 3200 x 2000 i oppløsning, noe som betyr samme 16:10-format som Apple praktiserer på sine Macbook-er."

     

    Oppløsningen er 3000x2000, og skjermformatet er 3:2. Check your facts.

     

    En 13,5" skjerm i 3:2 er forøvrig 19x28,5 cm - tilnærmet identisk med et A4-ark (21x29,7 cm). Med over 260 dpi nærmer det seg også tettheten for høykvalitets utskrifter. Alt i alt et solid grunnlag for en god skjerm å gjøre produktivt arbeid på.

     

     

    La Menthe (og andre): Joda, en Pascal-GPU ville vært bedre - men så ble det eneste alternativet i tilnærmet samme klasse, GTX 1050 (- Ti) lansert bokstavelig talt for to dager siden. Og tilgangen er tilnærmet null. Ingen mobil (MXM) variant er nevnt, langt mindre lansert ennå. Forøvrig har GTX 965M en TDP på ca 50W (http://www.notebookcheck.net/NVIDIA-GeForce-GTX-965M.134120.0.html), noe som er ~33% lavere enn noen Pascal-brikke så langt. De kunne sikkert gått for en spesialtilpasset brikke (som i forrige modell, men som ville vært avsindig dyrt pga. produksjonskostnader og utviklingstid med nye arkitekturer og produksjonsproesser) eller en underklokket/delvis deaktivert GTX 1050, som de da ville de fått pes for å "strupe" ytelsen på.

     

    GTX 965m virker per nå som det beste alternativet - så får vi heller vente på en oppdatering senere.

    • Liker 2
  16. "(...) men har i motsetning til iMac fast strømkabel."

     

    Nope. Finnes en rekke promobilder som viser Surface Studio bakfra uten strømkabel tilkoblet, og det er tydelig en standard 3-pols jordet IEC C14-plugg (samme som på alle stasjonære strømforsyninger). De har simpelthen vært lure nok til å lage en spesialtilpasset kabel som går i ett med designet - i likhet med Apple. Detaljfokus, det kan jeg like.

     

    Ellers er det ingen tvil om at hele Surface-serien er dyre, og dyrere jo lengre opp i modellene du klatrer, men så er de premium-maskiner i tillegg. Hvor mange AIO-maskiner finner du med oppløsning langt over 4K (ca dobbelt hvis man teller pixler), touch- og pennefunksjonalitet, en kraftig GPU (joda, kunne vært bedre (en fullverdig GTX 1060 har vel ca samme TDP som 980m?), og et skjermformat som faktisk gir mening? For ikke å snakke om enhetsvis fargekalibrering etter både sRGB og DCI-P3, og et design som ikke står tilbake for noe? Jeg sier ja takk, all the way.

    • Liker 1
  17. 27 tommer og bare 8K? De burde jo minst hatt 32K på såpass stor skjerm.

    Pixel-idiotien vil ingen ende ta.

    Det er forskjell på en tech-demo som sier "se hva vi kan" og et produkt de mener å selge. Dog, om bildeteksten øverst i artikkelen er noe å gå etter sliter tek.no-journalistene også med dette skillet.

     

    Jeg føler jeg har litt hakk i plata her, men jeg tror flertallet av mine kommentarer på tek.nos artikler handler om faktafeil, feiltolkninger eller andre misforståelser Ja ja. Denne var i alle fall begredelig på dette området.

     

    Feilsiteringen av AnandTech er allerede påpekt av andre. Journalisten synes heller ikke å forstå hva "båndbredde" betyr i denne sammenhengen - det har ingenting med PC-ytelse å gjøre, men handler om overføringen fra PC til skjerm. Dette sier ingenting om ytelsen som kreves f.eks. for å prosessere et spill i 8k. Displayport 1.3/1.4 har en maksimal båndbredde på 32.4Gbps - 1/4 av hva 8k/10b i 120Hz ifølge AT ville kreve uten komprimering (og dette er uten overhead i overføringen og ekstra HDR-data regnet med). Konseptskjermen har også åtte DP-kabler tilkoblet, det sier jo sitt.

     

    På den annen side støtter DP1.4 DSC (komprimering), som muliggjør overføring av 8k10b60Hz eller 4K10bHDR120Hz, noe som da ville kun kreve to kabler (om man er villig til å ofre HDR).

     

    Det sier vel sitt når journalisten bruker formuleringer som "en monitor som kan takle 8K med 120 bilder i sekundet og full HDR-funksjon." Huff.

    • Liker 2
  18. Skjermkort er alltid det man får mest ut av å oppgradere, gitt at CPU og resten ikke er helt begredelige. Prosessoren din burde du fint kunne bruke i noen år til.

     

    Hvilken oppløsning (og refresh rate) er skjermen din? 1080p 60/120/144? 2560p? I alle tilfeller vil en GTX 1070 være en strålende oppgradering om du har pengene - om du planlegger å beholde kortet noen år. Med tanke på at ditt nåværende kort er fem generasjoner gammelt antar jeg det. Om du uansett planlegger å oppgradere igjen innen et par år ville jeg gått for GTX 1060. Om du spiller på 1080p60 og ikke planlegger innkjøp av ny skjerm innen noen år ville jeg nok også holdt meg til GTX 1060.

  19.  

     

    Håper dette blir bra. Vi trenger amd.

    Indeed. Jeg er optimistisk om Zen, men har til nå vært skeptisk til en ny generasjon 28nm APUer. Om ytelsen er rundt det de sier og strømforbruket er på/under TDP har de fått til mer enn jeg trodde var mulig. Gleder meg til å se tester, ikke minst av 35W-utgavene!
    I følge notebookreview bruker faktisk X4 845 marginalt mindre strøm i gjennomsnitt (ikke maksimalt) enn Intels nærmeste match på pris, G4400. Disse er forholdsvis like i ytelse (ca like ved spilling, og X4 845 litt bedre på produktivitet). AMD har altså klart å redusere strømforbruket betraktelig med Excavator, og det er for meg et meget lovende tegn for hva Zen muligens klarer å gjøre. Jeg prøver å ikke la meg rive med for mye, men det er ikke til å stikke under stol av visse parametre har blitt kraftig forbedret den siste tiden. Følger med i spenning videre :)

     

     

    AMD er dessverre ikke like strenge på å holde CPU/APUer innenfor TDP som Intel er. Det spørs selvsagt på belastningen, men Eteknix målte 100W forskjell mellom idle og Aida64 CPU stress-belastning, og AnandTech målte 74W idle-load (Prime95 og OCCT). Dette er dog system-wide strømforbruk inkludert PSU-tap, hovedkort, minne og andre komponenter i begge tilfellene, så noe mindre er nok mer riktig, men Intels alternativer er langt lavere i samme testing med ~tilsvarende oppsett.

     

    Noe av dette kommer nok av at AMD ikke throttler produktene sine etter TDP like strengt som Intel gjør (noe som åpner for enormt strømforbruk i "strømvirus" som Prime95), heller enn faktisk ineffektivitet i arkitekturen, men forskjellene er likevel iøynefallende. Og så må vi huske at ingen CPU bruker 0W ved idle. Så for å holde seg innenfor TDP måtte målingene vært lavere enn 65W.

  20. Det er interessant at journalisten som dekker dette ikke vet forskjellen på en skjerm med støtte for større fargerom (DCI-P3 i dette tilfellet) og HDR. Joda, HDR-standarden for TV har større fargerom enn det som er vanlig. Men DCI-P3-støtte sier ingenting om lysstyrke eller kontrastnivå, som HDR stiller krav om. Om iPhone 7 hadde HDR-støtte ville Apple sagt det. Samtidig er Apples skjermer typisk fantastisk kalibrert, og de har det eneste mobile operativsystemet med fungerende fargestyring, slik at sRGB-innhold vises korrekt selv på skjermer med større fargerom. At kameraene samtidig støtter samme fargerom gjør dette til spennende greier.

    • Liker 2
  21. Stemmer de sammenligningene mot i5 6500/T er jo dette imponerende av AMD. Solid ytelsesløft siden forrige generasjon (near 2.4x perfomance/watt, better branch prediction, prefetch improvements, lower latency).

    Er ikke det der utsagn om Zen? De har i så fall lite med Bristol Ridge å gjøre.

     

    Google skal jo komme med VP10 snart?

    VP10 er inkorporert i AV1, og vil ikke lanseres som en egen kodek (https://en.wikipedia.org/wiki/VP9#VP10). AV1 er planlagt ferdig i slutten av 2016 eller begynnelsen av 2017 - og HW-kompatibilitet tar en god stund etter dette. HEVC og VP9 har vært i bruk et år eller mer, og det er først nå HW-støtten for begge virkelig er på plass. Softwaredekodere er alltid nødvendig når kodekene er nye. 

     

    De kunne spandert på seg litt flere PCIe lanes i prosessorene.

     

    Jeg synes 8 Gen3 lanes er litt for lite selv i en "mainstream" prosessor (Intel har 16). Skal du ha en sikkelig NVMe SSD og en GPU blir det da kun 4 lanes per enhet, og det er for dårlig.

     

    Ellers så får vel integrert grafikk en "boost" grunnet bedre båndbredde på DDR4 minne.

    Det er dog verdt å merke seg at GPU i disse brikkene ikke er basert på "Polaris", eller også kjent som GCN 4.0. Dette er GCN 3.0.

    Enig der, med NVMe-støtte er 8x PCIe litt for lite. Kanskje de satser på å drive NVMe via chipsetet? Båndbredden halveres, men så er ikke dette en high-end-plattform, så det har muligens mindre å si? Ser ikke for meg at alt for mange kjøper en 950 Pro eller lignende til en 2-2500-kroners APU-plattform (med mindre de har veldig spesielle behov). Burde passe ypperlig til Intels nye billige 600p-disker. AMD tenker vel også at APU-plattformen primært er for PCer uten dedikert grafikk - kanskje ikke det vanligste her til lands, men vanlig i mange ikke-vestlige markeder (for ikke å nevne OEM og bedrifts-PCer).

     

    Og ja, som du sier er det verd å få med seg at dette er GCN 3.0. Ytelsesforskjellene er ikke natt og dag, men det har selvsagt litt å si. Samtidig er det GCN 3 med kraftig oppdatert encode/decode, så en direkte overføring er det ikke.

×
×
  • Opprett ny...