Gå til innhold

zlpw0ker

Medlemmer
  • Innlegg

    1 845
  • Ble med

  • Besøkte siden sist

Innlegg skrevet av zlpw0ker

  1. syar2003 skrev (8 minutter siden):

    Software kommer ikke rundt en hw begrensning (derimot kan sw omgå en/flere begrensninger med noe som er disablet i en driver) . Skjerm 5 og 6 trenger sine egne unik videostrøm for å vise separat innhold .
    Du har altså alle 6 skjermene tilkoplet DP i en og samme daisy chain en utgang på samme 1080 kort ? Eller brukes flere utganger ?
    Støtter alle skjermene DisplayPort 1.2 MST (MultiStreamSupport) og støtter skjermkortet og utgangen MST så har man med nvidia fremdeles en begrensning på 4 display (eventuelt 5) mener jeg. Ref https://levvvel.com/multi-monitor-video-card/

    Litt usikker på hva behovet ditt er , er det SLI , surround view eller produktivitet.
    Litt som siste innlegget viser til her: https://www.nvidia.com/en-us/geforce/forums/geforce-graphics-cards/5/126868/6-monitors-and-up-do-i-need-sli-or-not-for-6-moni/

    For å ha egen desktop/bilde på en skjerm må denne være satt opp med en egen videostrøm som støttes fra hardware og i driver. Har fremdeles ikke et totalbilde av det fysiske oppsettet ditt. Ellers er det kanskje jeg som er treg.. ;)  

    2x 2160p skjermer fra Dell,2x 3440x1440p skjermer fra dell,asus pg279q som hovedskjerm og nr#6 Dell u2515h.

    Meninga med skjermene gaming på 27" og produktivitet på begge 34" når det er nødvendig samt med pg279q og de 2x uhd skjermene blir brukt til overvåking av intern temp alt av PC utstyr og nettverkovervåking.

    Jeg prøvde først ut SLI på mine 2x1080, men fant fort ut at det ikke ville fungere med spilling og produktivitet som jeg hadde sett for meg så jeg droppa SLI bridgen. Hadde jeg ikke brydd meg om at hver skjerm skal ha eget skjermbilde så hadde det ikke vært noe mer å snakke om eller.

     

    Alle Skjermer har sine videostrømmer/output på skjermkortet der ingen deler 1 output på gpu'n. Så ja,brukes flere utganger:)
    er MST rettet mott daisy-chaining eller?

  2. syar2003 skrev (5 minutter siden):

    Er den sjette skjermen din klonet skjermbilde  i adaptere etc eller er den et eget display ?
    Du sier ikke noe om oppsettet ditt (hardware). Windows 10 støtter inntil 10 display native.

    Korrekt,den 6e skjermen kloner skjermbilde til skjerm nr5. Ingen skjermer koblet til noen adapter/HDMI spliiter, all direkte koblet til en video out. Alle bruker DP. De er også et eget display.

    Oppsett:W10,2x 1080 GPU'er. Problemet er jo ikke støtten for 10 native monitorer, men heller muligheten for å ha et bilde i hver skjerm. i settings-->background til hver skjerm. Hadde det bare vært mulighet for å øke med mer enn 5 skjermbilder der så hadde jeg ikke trengt en tredjepart sw 

  3. Så jeg har fått testa ut DisplayFusion 30 day trial en liten stund, og jeg merket med engang at CPU gikk opp til 70% utlization og gjorde OSet laggete/ubrukelig og RAM util til 70% av 32 GB. Dette er når jeg har tatt i bruk 6 skjermer. Er ingen grunn til at det skal ta så mye ressurser når jeg har gjort endringer på noen grunnleggende settings i displayfusion SW'et.

    Displayfusion 6 skjermer bakgrunn config fungerer bra til fler enn 5 skjermer, men når det tar så mye ressurser har jeg ingen interesse i å bruke det.

    Hadde vært fint hvis noen kunne ha stengt tråden

  4. Emile the rat skrev (10 minutter siden):

    Dagens skjermkort er på slutten av sin levetid. Nye skjermkort er forventet i løpet av året, så derfor er dette et veldig dårlig tidpunkt å kjøpe PC.

    joa,men så er er de nye RTX korta rumored til ha helt nye 12pin power connectors som krever helt nye PSUer så. Men håper det virkelig bare er FE GPUene isåfall.

  5. Comma Chameleon skrev (8 minutter siden):

    TV titting og spilling her (mye statiske elementer på spill). Ikke er eneste problem.

     

    Og mye mer avslappende å bare plugge i og bruke tvn normalt framfor alt styret.

    Hvor lenge spiller du av gangen a?
    samme spørsmål gjelder for tv titting.

    jeg har lyst på OLED kvalitet, men ikke hvis TVen gir innbrenning ved pause på spill/serier på 2-3t eller film pause.

    Er heller ikke interesert i å ta flere forhåndsregler slik som at jeg bekymrer meg for statiske elementer når jeg spiller i flere timer av gangen.

    Så på en YT video der ene personen hadde statisk bilde på OLED i 24timer og man ser at det allerede har gitt svak innbrenning.

    • Liker 1
  6. NULL skrev (3 timer siden):

    Relevante her er vel i praksis to ting: Hva en plattform støtter og hva som ellers ligger til grunn i de offisielle DDR4-spesifikasjonene fra JEDEC. I praksis kan man ha en høyere standard fra JEDEC, men hvis ikke plattformen støtter det, vil det uansett være snakk om overklokking.

    JEDEC lister DDR4-3200 som det høyeste. Hva som videre er relevant for om man følger den offisielle spesifikasjonene, er verdiene for timing og latency. En plattform og minnemoduler kan være klassifisert for høyere verdier. Intel har vel imidlertid - tradisjonelt sett - sjeldent gått ut over de offisielle JEDEC-spesifikasjonene.

    Strengt tatt kan man vel også si at "MHz" ikke er det riktige å bruke her, ettersom man for - eksempelvis - DDR4-3200 har 400 MHz-klokkehastighet, men antallet overføringer per sek er det man vil vise til - da 3200 Megatransfers/sec (flere operasjoner utføres per klokkesyklus).

    Jeg regner jo med at det gjelder de offisielle specsa.
    Du kan bruke 2133Mhz eller PC4-19000 f.eks. som du sier for å snakke om hastigheten.. Men er mer kjent å si 3200 Mhz enn PC speeds

  7. Trond HB skrev (14 timer siden):

    Bildene i første post er helt forvrengte og stemmer ikke. At Sony har begynt å kalle telefonene sine Mark II er vel for å vise at kameradivisjonen har blitt mere involvert i utviklingen av mobiltelefonene. Dette utvidede samarbeidet startet m. Xperia 1 & 5.

    200302.Sony-xperia-1II-_a.jpg

    Det bildet ser jo mye bedre ut, og ikke så tykk, men syns de kunne ha valgt 5000 ah batteri.

    Fortsatt idiotisk navn på telefon som er bestemt av Sony.

  8. Trond HB skrev (11 timer siden):

    Lønner seg bestandig å sjekke fakta før en slenger ut påstander. Den har 802.11ax. Står klart og tydelig i spesifikasjonene på Sony sine sider. At den er så tykk stemmer vel heller ikke. Har akkurat samme tykkelsen som Samsung S20, 7,9 mm.

    Når det gjelder navnet så har de begynt å følge praksisen til Sony sin kamera-avdeling. 

    men første innlegg i denne tråden når jeg elser over trådløse standardarder så står det ikke ax.

    Det er fult mulig det ikke stemmer, den bare ser så tykk ut på bildene her.

    Det gir ikke mening å navngi telefon fordi kamera avdeling til Sony har standarder for sine kameraer.

  9. For et fordelig navn på en telefon Xperia 1 II, hva blir neste da a? 1 III eller xperia 2 II??  for en dårlig valg av reboot av Xperia linja. 
    og hvorfor ser den telefon ut på bildet så utrolig tykk ut, ser ut som den har plass til Zerolemon 20k batteri jo. Ser jo ut som telefon er tykkere enn Nokia 5110. Er jo andre tynnere modeller som har 5000 Ah batteri kapasitet

    Det er jo også helt tåpelig at telefon ikke får 802.11ax standarden.

    Og hva er det Sony holder på, gjør det mulig at en ps4 kontroller kan kobles opp til en liten skjerm, ser jo ikke engang hvor mobilen er jo. Akkurat som gamere virkelig kommer til å spille ps4 spill på en  6.5" med uhd oppløsning når de fleste kan spille på en 65" TV som har ordentlig HDR og ikke no mobil HDR gimmick.

    Det eneste som er bra med den telefon er jo de gir deg mulighet for ekstra SD kort, noe andre rett og slett ikke bryr seg om lengre.

  10. Mariabella skrev (4 minutter siden):

    Hei, jeg tenker på lisens for livstid. Ingen årlig abonnement. Kun engangsbetaling for hele pakken.

    Da må du nok kjøpe Home & Student versjon. Du får word,excel ,powerpoint som standalone for 1399. Ellers fins det sikkert muligheter ebay eller scdkey greysite sidene.

×
×
  • Opprett ny...