Gå til innhold

Ko_deZ

Medlemmer
  • Innlegg

    578
  • Ble med

  • Besøkte siden sist

Innlegg skrevet av Ko_deZ

  1. Forsikre deg aller først om at ledningene til sigarett-tenneren takler strømmen. Det er ikke helt uhørt at disse smelter/tar fyr når noen ukritisk har koblet til kraftige kjøle"bag"er og setevarme-tepper. En laptop kan jo trekke mye strøm, spesielt om den står og går samtidig som batteriet lades. En slik lader er kanskje 80% effektiv. En laptop som har 90W strømforsyning vil trekke (90/13)/0.8 er nesten 9 ampere. Dersom motoren ikke går, og med tap i kabler så kan spenningen bli ned imot 10V, som vil gi 12A. Det er fryktelig mye strøm. Mange har gjerne mest av 10A sikringer i sikringsskapet, og ikke mer enn 25A til vaskemaskin og slikt.

    Varmen som utvikles er resultat av strøm i ampere og motstand i kablene. Spenningen har altså ikke noe med varmen å gjøre.

     

    -Ko_deZ-

  2. Jeg vil anbefale billig-kort uten dekoder (TechnoTrend eller kloner av dette er bra). Det er mange fordeler med dette, men først og fremst er du ikke avhengig av MPEG2 signal for at det skal fungere. At det er begrensninger i minnebuss eller annet når det kommer til dekoding er ikke riktig. Dette var et problem for mange år siden, når man bare hadde 233MHz CPU (dette husker jeg godt). Idag er det ikke noe problem for en CPU å dekode DVD (samtlige DVD programmer gjør dette, også VLC og windows mediaplayer), og DVD formatet er det samme som satelitt og digitalt bakkenett.

     

    De medfølgende programmene til kortene har ofte dårlige codecer til å dekode mpeg2. Dscaler er en utmerket MPEG2 dekoder. Til PC skjerm trenger du også de-interlacer. VLC har dette innebygget, men ffdshow har også dette. Tror at kanskje dscaler nå har deinterlacer innebygget, men er ikke sikker. Hardware dekodere har skjelden de-interlacer, og du vil derfor vanligvis få halve oppløsninga.

     

    emacoolit: Bruker Linux? Alt er ikke filer alltid vettdu =) Det å gjøre opptak fra satelitt eller andre allerede digitale kilder krever ikke koding av signalet. Man bare lagrer det direkte på disk. Derfor er ikke encoder noe man vanligvis trenger.

     

    Når det kommer til DV video, så er dette i praksis bare MJPEG, altså en haug med jpeg bilder etter hverandre. Det er derfor ikke noe problem å redigere DV video. Det er når man skal lage DVD av dette at en encoder ville vært kjekt, men om man gjør det live, eller må vente en times tid eller slikt ekstra har ikke så mye å si når filmen er redigert.

     

    -Ko_deZ-

  3. Du har ikke skjønnt helt riktig...

     

    Om det dekodes hardware eller i CPU er ikke så nøye. Dekodingen er overgangen fra komprimert bilde til ukomprimert bilde. Et kort uten hardware dekoder lar CPU gjøre all jobben. Bakdelen er mer prosessorbruk, fordelen er at andre codecer enn mpeg2 støttes, slik at når mpeg4 kommer på satelitt, så vil det fungerer bra. Det samme med HD.

     

    Med DV kamera så bør du bruke firewire, da taper du ikke kvalitet.

     

    -Ko_deZ-

  4. 1 : MS har i mine øyne ikke det beste produktet. Hvorfor bruker jeg det da..?

    Jo, fordi jeg liker å spille på datamaskinen min og det er flere produkter som er til windows som jeg rett og slett ikke fins til apple/linux.

    6404369[/snapback]

    Jeg kan også legge til at jeg har opplevd at det ikke er noe valg når det gjelder dataprodukter:

    - En jobb jeg søkte på krevde å få alle dokumenter i Word-format (Jeg kunne brukt OpenOffice, men dog, det er ingen åpen standard).

    - I hjemme-PC tilbud har jeg blitt påkrevd å ha Windows som OS.

    - En del bedrifter som samarbeider må i mange tilfeller bruke felles programvare. Ofte finnes den kun for Windows.

    6404384[/snapback]

     

    Angående hjemmePC så er dette er strengt tatt ikke rart. En hjemme-PC er jo ikke din, men jobben sin. Den blir først din når du etter tre år kjøper den ut. At arbeidsgiver kan kreve at du benytter Windows på PCen de eier er jo ikke vanskelig å forstå, spesielt dersom Windows også benyttes til daglig arbeid på jobben.

    Det er mange som tror de eier hjemme-PCen, men det er altså feil. At de fleste bedrifter driter i hva du gjør med den er en ting, men du kan nok utmerket godt miste jobben dersom arbeidsgiver finner ut at du benytter "jobb-PCen" til pornosurfing og warez.

     

    -Ko_deZ-

  5. Eller det er fordi den senderen har stått der til testing siden lenge før det var snakk om MPEG4 =)

    Vet ikke hvor mange år, men det er mange.

    Om det vil fungere i nye bakkenettet er ikke helt sikkert, men godt mulig. Dersom det er et budget card, der dekodingen foregår på CPU, så vil det også fungere med MPEG4, må bare ha ny codec. Dersom det er full feature kort, så har det innebygget MPEG2 dekoder, og vil derfor ikke fungere med MPEG4, med mindre du bruker linux da, for da kan du likevel hente ut transportstrømmen og dekode på CPU.

    Håper det gav litt oppklarende info? www.linuxtv.org har bra info om hva som gjelder for hvilke kort.

     

    -Ko_deZ-

  6. Til gjengjeld vil PCen ha 1/60 av regnekraften til de tre skjermkortene =) Spesialisert hardware (i skjermkortenes tilfelle, regneoperasjoner) er alltid mer effektivt. Ikke uten grunn at man får dedikerte mpeg2 encodere som trekker 0.5W, mens man må ha en 1Ghz Athlon (ca 50W?) maskin til å encode samme videoen med lavere kvalitet.

     

    -Ko_deZ-

    6272854[/snapback]

    Spesialisérte prosessorer vil alltid være på den måten. Men jeg vil likevel tro at en CPU egner seg bedre enn GPU til fysikk.

    6272938[/snapback]

     

    Da er jeg redd at du tar feil. Fysikk er matematisk beregninger, akkurat slik som 3D grafikk. CPU er ikke bra egnet til slikt i det hele tatt. Den har for få tråder, og bruker for mange klokker på de forskjellige matematiske operasjonene. CPU er laget for å eksekvere datakode. Den er god til å gjøre genrelle oppgaver. CPU er bra på løkker, if setninger og looper og slikt. GPU er fryktelig treg på spesielt "if" forespørsler, til gjengjeld kan den utføre like mange matematiske kalkulasjoner samtidig som den har antall pixel shadere (det er pixel shaderene som brukes til gpgpu). Når den i tillegg normalt bruker ferre klokker på en operasjon i forhold til CPU, så blir det raskere, og til tider adskillig raskere. Bakdelen er at det er litt krøkkete å programmere. Er ikke uten grunn at en store selskaper som jobber med databehandling av absurd store datamengder og data kalkulasjoner kjøper inn super-computere med massevis av nvidia 7800 og ikke en haug med CPUer. 1000 timer ekstra programmering, men det tjenes inn på ved at 1000 timers kalkulasjon på CPU tar 100 timer på skjermkortene. Min kjære studerer på UIO, og det hun skulle lage på master oppgaven var 40 (!) ganger raskere på GPU enn CPU.

     

    -Ko_deZ-

  7. For å få litt info om hva dagens GPUer kan brukes til, så søk på gpgpu (general purpose gpu). Grunnen til at de ble hetende GPU er fordi at de kan programmeres. Blandt annet matematiske beregninger vil kunne gå 20 ganger raskere på GPU enn på CPU. Prinsippet er enkelt. Lag en texture som inneholder alle tallene du skal regne på. Lag et filter som inneholder den matematiske formelen du skal kjøre på alle tallene, og kjør filteret på texturen. Les ut resultatet. Effekten av dette er dramatisk bedre parallellisering, og absurd raske utregninger. Man kan utmerket godt lage mange texturer og kjøre egne filtre på hver av dem, om man skal regne ut forskjellige ting. Skal man bare gjøre en utregning, så tjener man lite på det dog. Man får kjøpt super-computere idag med hundrevis av grafikk-kort for å gjøre slikt arbeid. Det er klart at dette også lar seg gjøre å bruke til fysikk.

     

    -Ko_deZ-

  8. Det værste som finnes er når man er midt inne programmering av ett eller annet litt tungt materiale, og strømmen går. Jeg lar min UPS løsning stå i laptopen. Jeg bruker den stort sett aldri i batterimodus uansett, og 1 time batteritid eller 2 har lite å si, jeg vil bare få lagret arbeidet mitt før jeg skrur av.

     

    -Ko_deZ-

  9. Det stemmer vel ikke helt. Den SNR de snakker om der er hvor mye forvrengning (støy) som oppstår på grunn av det digitale signaled. Denne SNR er altså et fast tall for alle digitale utganger på 24bit. 16bit er vel 96dB eller noe slikt. Dette er helt unaturlige tall, og gjelder kun så lenge signalet faktisk er digitalt. I det øyeblikket signalet blir analogt så vil nok SNR bli ett helt annet tall.

     

    SNR har forøvrig ingenting med signalforsterkning å gjøre, men signalkvalitet, selv om SNR etter en forsterker alltid er dårligere enn før. Uansett så forsterker en forsterker både lyd og støy like mye, i og med at den umulig kan skille ut og se hva som er støy og hva som er signal.

     

    -Ko_deZ-

  10. Hev kjøpet. Dette må du gjøre overfor webshop. Ring dem først, godkjenner de ikke så send kravet om heving som rekommandert brev til dem. Ring dem igjen og hør om de godkjenner nå før du går til forbrukerrådet. Dersom de fremdeles nekter, så har du skriftlig bevis på at du krever å heve kjøpet, og dokumentasjon på at de har mottatt brevet. Da har du en sterk sak. Det faktum at du ikke har hatt laptopen mer enn 50% av perioden sier meg at du bør få igjen hele beløpet du betalte for laptopen.

     

    Får jeg anbefale en Dell Inspiron 9400?

     

    -Ko_deZ-

  11. Stort sett alle som kjøper plasma idag kjøper HD ready skjermer. Dette betyr at de klarer å nedskalere fra HD oppløsninger til sin egen oppløsning. Altså verdiløst. Det får man til å gjøre til sin gamle TV også.

     

    Det virker for meg som at skjermen din har en oppløsning på 1024x852, , men med ikke kvadratiske pixler (de er bredere enn de er høye) noe som er akkurat nok til å kunne takle vanlig PAL signal (pal widescreen er 1024x576). Du vil miste endel bildekvalitet der også riktignok, siden bildet må interpoleres i høyden. Denne skjermen har altså litt bedre oppløsning enn den vanlige plasma skjermen, som har 848x480. Det er jo tross alt ikke nok til å vise den oppløsningen vi har på TV her hjemme idag engang.

     

    Jeg jobber med TV til daglig, og er lei av folk med plasma som klager over bildekvalitet. Plasma suger bildekvalitetsmessig, det er det ikke noe man får gjordt noe stort med. Eneste fordelen de har over LCD er størrelse/pris. For meg teller kvalitet mer enn kvantitet, og var jeg deg hadde jeg forsøkt å levere inn i igjen skjermen og forsøkt å bytte mot en LCD skjerm.

    Skal man kjøpe skjerm idag så er det fysisk oppløsning som teller, og den bør være minst 1280x720. De aller fleste LCD skjermer har mer enn dette, de aller fleste plasma har som regel vesentlig mindre.

     

    For de som kan leve med lerret, er beste pris/ytelse på projektor. Disse er billigere, tar mindre plass, bedre bildekvalitet, større bilde, mindre strømforbruk, bedre til å vise PC bilder osv osv. Det vil være min utlimate anbefaling, men det er jo ikke alle som vil ha noe slikt i stua.

     

    -Ko_deZ-

  12. Har forresten funnet to alternativer...

     

    Det dyreste, men da kommer det nok til nytte senere

    http://www.komplett.no/k/ki.asp?sku=311089

     

    Grei pris, men kan vel kastes når det digitale bakkenettet kommer

    http://www.komplett.no/k/ki.asp?sku=121297

    5760683[/snapback]

     

    Vil anbefale deg å vente med DVB-T kort. Kjøp noe billig one isteden. De kortene som er ute idag er laget for MPEG-2, mens det ikke er avgjordt hva som skal gå i bakkenettet. Antagelig blir det MPEG-4. De billigste kortene lar CPU dekode signalet, noe som vil gjøre det mulig å også takle MPEG-4. Problemet blir å få tak i software som gjør dette, og å få til dekryptering dersom bakkenettet blir kryptert, noe jeg er relativt sikker på at det blir.

     

    -Ko_deZ-

  13. Det er litt dumt å si at AMD ikke har støtte for HT. HT står både for HyperThreading og HyperTransport, og både AMD og Intel prosessorer skryter av HT, uten at det betyr det samme.

     

    HT hos intel betyr at hver kjerne kjører to tråder. På grunn av lang pipeline får man en god ytelsesøkning her. AMD med sin kortere pipeline ville ikke fått samme fortjeneste av dette. På grunn av at HT hos Intel kjører to tråder, ser hver kjerne ut som to CPUer, og dobbeltkjerne ser ut som 4 CPUer, selv om det strengt tatt bare er to av dem.

     

    Hos AMD betyr HT HyperTransport, som er en patentert teknologi AMD bruker til seriell kommunikasjon. Dette brukes internt mellom kjerner og slikt i CPUen, og jeg tror også mellom flere CPUer når man kjører med flere CPUer på ett hovekort.

     

    Det er altså riktig at du ser to CPUer.

    For å teste om OS utnytter begge, så kan du laste ned prime95. Dette er et program som kjører en enkelt tråd. Dersom du åpner oppgavebehandling (task manager), og går på Ytelse (Performance), så burde du se at den ene av de to CPU usage grafene går til topps når du starter prime95. Dersom du ser to CPU usage vinduer der, så er egentlig det bevis nok for at begge kjernene er gjenkjent.

     

    Ellers så har det kommet mange gode tips her. ASrock kortet er vel ikke kjent for brukervenlighet, men pris/ytelse. Det er altså en god ide å følge oppskriftenene. Jeg synes også det er litt dumt å skylde på hovedkortet når det relativt åpenbart er svakheter med driver-software og operativsystem som forårsaker de fleste problemene her.

     

    -Ko_deZ-

  14. Jeg har nå fulgt alle rådene dere har kommet med, dealet med Dell på en i9400, og dette ble resultatet, prisen er 16800 spenn: Dell1.doc

     

    Dessverre viste det seg at de ikke kunne levere 7800 go graphics før i midten av april, som er en ganske håpløs lang leveringstid. Derfor kom selgeren med et tilbud på en XPS, som jeg kommer til eventuelt prute mer på (blant annet er harddiskhastigheten feil). Han vil ha 18500 for dette: Dell2.doc

     

    Spørsmålet til dere er som følger: Hva hadde dere gjort i min situasjon? XPSen har jo en mye kraftigere prosessor, selgeren mente at den hadde bedre skjerm men det ser ut som skjermen er den samme. Minnet på XPSen har jo lavere busshastighet, og det har også prosessoren. Det ser forresten ut som XPSen har et annet grafikkort (GO 7800 GTX). Er det noen som vet noe om dette, eller har sett noen tester?

     

    Jeg vet virkelig ikke hva jeg skal gjøre. Jeg vurderer også å vente enda lenger.. :cry:

    5722669[/snapback]

     

    XPS har single core prosessor, som er like bra i spill som dual core for øyeblikket. Idet spill kommer og støtter dual core vil dette forandre seg seff.

     

    Go 7800 vs GTX er 16 pipelines vs 24 pipelines, og en mye høyere klokkefrekvens. GTX er et veldig mye fetere skjermkort. For spill er nok XPS det beste valget, så lenge du kan leve med en mindre skjerm.

     

    -Ko_deZ-

  15. Det stemmer. Microsoft har en bug i SP2 til XP som gjør at USB2.0 enheter sørger for at CPU ikke klarer å gå ned i beste strømspare-modus. Det hjelper ikke å la være å koble til USB dongler og skru av bluetooth, for maskinen har en intern USB hub, og det er alt som skal til. USB 1.0 og 1.1 enheter har ingen slike problemer, og ei heller linux. Problemet er tilstede i XP, noe som vil si at det skal gjelde samtlige laptoper med USB2.0 og windows XP, også med AMD processorer.

     

    Det er en slags fix tilgjengelig, gjennom å endre noe greier i registry, men det funker ikke etter maskinen har vært i sleep mode, så det er en halvgod løsning.

     

    Det beste vil være å bytte til linux. Rykter jeg har lest snakker om 20% lenger batteritid.

     

    -Ko_deZ-

  16. Tådløs overføring av strøm er da ganske gamelt, Nikola Tesla klarte det for nermere hundre år siden.

     

    Hadde noen drømmer om det her for en 2 - 3 år siden.

    5677729[/snapback]

     

    Litt effektiv tårdløs overføring av strøm, evtuelt enerig hadde jo vært litt koselig, er jo ganske begrensede brulsområder i dag. Tenkt deg følgende -> vi tapetiserer månen med atomkraftverk, og sender enerigien voer til jorda trådløst :)

     

    AtW

    5678306[/snapback]

     

    Jah, som i Sim City 3000 eller hva det nå het. Du kunne sende ut en satelitt med solceller, og få energien ned via ei parabolantenne. Problemet oppstod når denne "strålen" av energi bommet på parabolen og sveipet over byen... Ikke bra...

     

    -Ko_deZ-

  17. Hvordan får dere til å prute hos dell? Jeg har ringt inn et par ganger, og selgerne har virket totalt uinteressert i senke prisen ei eneste krone. Har ikke disse selgerne provisjon?

     

    Jeg har jobbet som selger i telenor selv og anså meg for å være en dyktig selger, regnet derfor med at det skulle by på få problemer å få prisen ned noen kroner. Men dengang ei...

    5677170[/snapback]

     

    Det hjelper å være velinformert. Finne frem PCer fra konkurrenter med nogenlunde lik spec og presentere for selgeren, og så la selgeren foreslå 9400 for deg, ikke spørre om 9400 direkte. Deretter uttrykke din skepsis til latitude serien, men du MÅ ha dual core (ingen andre som har dual core). Kanskje avslutte med at om prisen er riktig så vil du nok kunne vurdere 9400.

    Du må ikke tenke som en kunde, men som en selger. Selgeren vil gjerne selge, men lemper ikke på pris (og da sikkert også provisjon) med mindre han må. Hva slags kunder ville du gitt rabatt? Noen som vet alt om 9400, og som sikkert kjøper 9400 uansett, eller en som er på skeptisk utkikk etter en maskin og kun kjøper 9400 om du flesker til med et bra tilbud?

     

    "all den unødvendige programvaren kan du jo fjerne" er bra :thumbup:

     

    -Ko_deZ-

  18. Hvordan endte dette? Fikk du bilde på TV skjermen?

     

    Det er litt viktig å skjønne at en TV har en fast oppløsning, i motsetning til data-skjermer. En TV vil alltid vise 768x576 (1024x576 i WS), noe som gjør at dersom du sender 1280x768 så vil dette bli komprimert til å være 768x576 før det blir sendt til TVen. Teksten vil ikke bli ordentlig tydelig før du klarer å velge riktig oppløsning i windows (768x576), noe som ikke er akkurat trivielt å få til. Når man endelig får det til, så er oppløsningen så liten at man egentlig ikke kan bruke det til noe fornuftig. TV-out er en sak som egentlig kun kan brukes til film og enkelte spill.

     

    -Ko_deZ-

×
×
  • Opprett ny...