Gå til innhold

Ko_deZ

Medlemmer
  • Innlegg

    578
  • Ble med

  • Besøkte siden sist

Innlegg skrevet av Ko_deZ

  1. Som sagt, kapasiteten til ogg 320 er høyere enn det dynamiske området vi får fra 99.9% av alle cder i dag. Det vil derfor være uhørbare forskjeller mellom ogg 320 og flac/wav/andre lossless og ukomprimerte formater. Annet enn rent teoretiske avvik. Selv 160kbit ogg vorbis som er på standard spotify har en dynamisk kapasitet som overgår det meste av loudness war sine "ødelagte" mastringer som vi får på de fleste popsanger.

     

    Uansett, dette var bare en motpunkt til de som hater på ting fordi det er populært å hate på dem - i dette tilfellet - kvaliteten på spotify.

    Nå er du på to jorder her. Hvis man sammenligner to signal, så ser man på forskjellen mellom dem, ikke den opprinnelige kvaliteten. Hvis et studio, som du helt riktig påpeker, herper musikken med å redusere dynamikken, så er det helt irrelevant for hvor godt kodeken klarer å gjenskape lyden fra rådata.

     

    WAV, FLAC og andre lossless formater er per definisjon perfekte, siden de er uten tap, og nøyaktig laget slik av studio. Dette har ingen ting med kvaliteten på selve lyden å gjøre, hvilket er en subjektiv sak. De gjengir helt 100% nøyaktig det studio spyttet ut. Det er overhodet ingen mulighet for noe lossy format (Ogg, MP3 AAC osv.) å ha bedre lyd enn kilden det er komprimert fra. Å si at Ogg takler mye større dynamikk gir ingen mening, for det er umulig å få bedre dynamikk enn kildematerialet. Alt hva Ogg får til, vil nødvendigvis alle lossless formater gjøre bedre.

     

    Det som faktisk er poenget her, er at det er umulig for vanlige mennesker å høre forskjell på komprimert lyd av høy bitrate og ukomprimert lyd, og det er uavhengig av codec.

  2. Flimzes: En komprimert versjon kan aldri bli bedre enn kilden som komprimeres. Spotify og de andre får riktignok stort sett digitale versjoner fra rettighetshaverene, men de får CD versjonen. Rettighetshaverene ønsker ikke å gi bort bedre versjoner enn de selv selger, for da kan de ikke cashe inn på høyere kvalitet senere. Dermed kan man med 99.5% sikkerhet si at ingen Ogg du finner på nettet har høyere lydkvalitet enn original fra CD. Derimot så klarer vi heller ikke høre forskjell på den høye kvaliteten, så det gjør ingen forskjell. Alle lyttetester jeg har lest har nøyaktig lik fordeling mellom MP3 256, Ogg 320 og CD.

  3. Takk for innspill. Ebay utgår pga frakt-tid. Alle telebutikker jeg har vært innom har kun mobiltelefoner og iphone deksler. De som driver med parabol har ikke RP versjonen av koblingene, så de passer ikke =( Noen forslag for telebutikker som kan føre noe slikt?

  4. Hei

     

    Holder til i Oslo området, og skulle gjerne hatt tak i en overgang fra N til RP-SMA. Antenna mi har N kobling, og det eneste jeg finner av overganger fra N til SMA er til vanlig SMA, mens routeren min har den vanlige RP-SMA kontakten.

     

    Er det noen som har overgang N->RP-SMA eller SMA->RP-SMA, eller vet hvor jeg kan kjøpe det i Oslo området? Jeg kan bestille online, men ville gjerne ha det idag.

  5. 1. Nostradamus var født i 1503. Hvordan kunne han da spå samme året han var født? http://en.wikipedia....iki/Nostradamus

     

    2. Hvordan forklarer du denne forumtråden fra 28 november 2012 der de sier at et slikt qoute ikke er å finne på google? http://www.godlikepr...sage2064952/pg1

     

    3. Hvordan kan det ha seg at selv om brukeren som startet tråden sier " I was having fun, that is all it is." når han blir konfrontert med at qoutet ikke var å finne på google?

     

    4. Tror du det kan være en øreliten sjanse for at du her bare har trodd blindt på noe som noen har fortalt deg? Eventuelt noe du har funnet på internett? Så kommer du her og presenterer det som fakta uten å sjekke kilder først?

     

    Nice burn!

    • Liker 1
  6. Når det gjelder kabel-TV er det sløsing av båndbredde, og avhengig av hvor mange kanaler kanskje umulig å ta opp hos hver klient ALT som går på tv. Å gjøre det i alle første-linje servere kunne vært aktuelt, men det virker bare veldig ineffektivt. Multicasting + VoD virker mye mer effektivt. Eventuelt multicasting og mulighet for å "ta opp" programmer som har gått eller kommer til å gå via filoverføring til klientens PVR.

    Når det gjelder satelitt er det en annen sak, men der er du også begrenset av båndbredden fra parabolen på hvor mye du kan ta opp samtidig. Jeg har ikke fulgt med på båndbredden til paraboler, men med 24/7 opptak av digital video av HD oppløsning med f.eks. 50mbps til en 256GB SSD vil gi en forventet levetid på >20 år.

    Om du har et ekstremt oppsett som lar deg ta i mot 1Gbps med videostrømmer vil det ta deg ca 30 minutter å fylle en 256GB SSD, eller ca en time (litt over) for en 512GB SSD. Med 24 fulle overskrivinger om dagen kan du buffre 1Gbps av forrige times videostrømmer til en 512GB SSD, og forventet minimum levetid (basert på NAND) vil være ca 208 dager (men basert på bevis fra BAT på forumet kan en god SSD klare en slik last >5 ganger så lenge så lenge den er i aktiv bruk). Klarer du å kutte det til 100Mbps kan du gjøre det samme i 2080 dager = 5,7 år.

    Slår du på stortromma og går for en 512GB SLC SSD kan du bruke det til å buffre 1Gbps uten problemer.

    Du vil forresten ikke klare å ta i mot 1Gbps med video fra mange strømmer til en HDD, du vil da trenge RAID.

     

    Google indexing, Ebay databaser, osv bruker SSDer ala disse: Node-basert: ioDrive2 Duo, ioDrive Octal, TMS RamSan-70, eller for SAN type løsninger: TMS RamSan-6300. Disse koser seg med slike typer workloads, men koster helt andre beløper enn forbruker-SSDer.

     

    Innlegget over er unøyaktig om jeg er snill. De mest brukervennlige løsningene fra kabel-leverandører er vanligvis følgende: En server med jalla mye RAM tar opp hele programmer, klipper strømmen opp etter EIT data. Denne serveren benyttes til å holde programmet og støtte trick play mens programmet spilles (pause, play og spooling). Deretter overføres hele strømmen til en lagringsserver dersom en eller flere har valgt å ta opp programmet. Det skjer med en stor del av programmene. Har 30000 seere villet ta opptak av Farmen, så har alle i praksis samme kopien, men man må velge å ta opptak for å få se programmet siden av rettighetshensyn (blah). Dette gir en rekke fordeler, siden man har en skikkelig server med backup, mye mindre kostnader til set-top-bokser, mye mindre folk på kundeservice, og generelt en mye hyggeligere arbeidsdag. Samtidig sparer man penger, fordi noen sikkelige servere og lagringsløsninger koster langt mindre enn førti millioner set-top bokser med PVR (noen kabelleverandører er enda større). Jeg har skrevet programvaren til flere slike løsninger, en av dem mer eller mindre alene, så jeg har litt erfaring fra emnet.

     

    Båndbredde fra parabolen? Fra parabolen kommer L-bånd. Det går fra 950 til 2100Mhz, og kan greit ha total båndbredde på 5Gbit, på hver polaritet, i hvert KU-frekvensbånd. Samtlige kan mottas med ett enkelt hode dersom du henter ut alle kombinasjonene av vertikal/horisontal og høyt/lavt frekvensbånd. Båndbredde er ikke problemet, men prisen er det. Derfor blir det i dette tilfellet billigere å supplere kundene med subsidierte PVR bokser enn å sende opp en ny satelitt. Det er også langt billigere å ha snurre-disker i en slik PVR boks, som er forklaringen på hvorfor alle har akkurat det. Når det i tillegg legges til at vanlig bitrate for HD er 7-20Mbit, så sier det seg selv at enhver harddisk er rask nok, så hvorfor betale mer? Noen set-top-bokser har attpåtil to eller tre tunere slik at man kan ta opp opptil flere programmer mens man ser på noe helt annet.

     

    Når du begynner å ramse opp en tilkobling på 1Gbit og du gjør opptak av alt, så snakker du om hjemmebruk, som i all ærlighet ikke har noe som helst med mitt opprinnelige innlegg å gjøre. SSD disker er ikke nødvendigvis bare i bruk i hjemmet. Folkene hos diverse kabel og IP leverandører sitter og sikler på disse diskene og håper de skal kunne øke hastigheten på lagringssystemene sine uten å måtte kjøpe flere. Da er SSD fristende, men har vært umulig å benytte seg av til systemer som lagrer unna mye video for eksempel. Databasefolk vil gjerne ha det slik at databasen kan skrives til disk oftere, og youtube har sikkert lyst på slike til å mellomlagre kunders videoer mens de rekoder dem. I slike situasjoner så vil du ha latterlig lang levetid og driftssikkerhet, og der vil disse diskene være glimmers.

  7. For endel formål vil lenger levetid enn 11 måneder være interessant. Jeg kan peke på en god del forskjellige bruksområder hvor dette ville passet glimrende. Ta f.eks de nye løsningene til kabel-leverandørene, hvor du kan "ta opp" programmer. De lagrer alle strømmmene som går gjennom systemet sitt, og gir deg tilgang til en periode av dem. Alt lagres. Fra en satelitt kan det komme flere Gbit/s med video data. Om alt skal lagres kontinuerlig så vil en SSD ikke leve lenge. Andre bruksområder er Google sin indexering, ebay sine auksjoner osv osv. Mange databaser jobber sabla hardt.

  8. Siden det er snakk om temperatur og tid, så vil du mest sansynlig kunne bruke stekeovnen til det. Det du helst vil unngå er å smelte opp loddetinn da, så hold deg under smeltepunktet på tinnet, som normalt ligger på 180-190 grader. Plasten vil muligens ikke være happy med dette, men et døgn på 150 grader kan kanskje gå bra? Hvis disken uansett er død, så hadde jeg lagt et par lag med stekepapir, og snurret film =)

  9. HW gjør samme feilen som alltid, og jeg tenker at det er på tide å nevne det nå. Man ser i første test at klokkefrekenvensen faktisk er forskjellig på de forskjellige kortene. Når et kort er klokket 0.5% høyere enn oppgitt, så _må_ man trekke fra dette på samtlige målinger. I HW sine målinger vil alltid et kort som har høyere bitrate får kortere responstid på minnet f.eks. Marginene her er så små at dette vil gi et stort utslag. Avhengig av testen og måleteknikken som benyttes så vil dette kunne gi ingen eller stort utslag, så det å trekke fra 0.5% vil ikke alltid være riktig, men man har ikke noe bedre valg med mindre man faktisk reduserer frekvensen til 100 på alle kort.

    • Liker 1
  10. Hvorfor leveres ikke tv apparatene ferdig kalibrerte fra leverandør? De trenger jo bare en måling så kan de sette verdiene som standard på alle tvene de produserer av den serien......

    To årsaker. Alle paneler er forskjellige. De må kalibreres hver for seg, og helst uavhengig for hver pixel om mulig. De dyreste PC monitorene til Dell kommer med et ark som viser kalibrerings-verdier for skjermen, og jeg har til gode å se to som har samme resultat.

    Hovedårsaken er nok kanskje at folk ikke vil ha en perfekt kalibrert skjerm. Skru opp fargemetning og kontrast, så ser skjermen bedre ut i butikken på veggen ved siden av konkurrenter.

    • Liker 1
  11. Dette er jo veldig enkelt. Hvis en bedrift begynner med kartellvirksomhet for å unngå konkurs, så er bedriften i praksis utkonkurrert. Det er da andre bedrifter som klarer å levere samme vare til lavere pris eller av bedre kvalitet, eventuelt har bedre markedsførings-stab, eller alle de tre. Uansett hva det skyldes, så burde da denne dødsdømte bedriften få lov å gå konkurs. Det er slik et fritt marked skal fungere, de beste lever videre. Så har man problemet som oppstår dersom det blir monopol situasjoner, men jeg tviler på at dette vil skje i nærmeste fremtid innen optiske drev.

  12. Nå har ikke jeg sett denne TVen men skal nå en del til før den slår en god plasma på sortnivå.

     

    En helt annen sak. Hvis ikke denne kan henge på veggen er det skivebom

     

    Det hadde jeg ikke vært så sikker på, gode LCDer er allerede på nivå med plasma (dog ikke de beste plasmaene), og OLED har en måte å virke på som gjør det mye lettere å ha godt sortnivå.

     

    AtW

    Det er en sannhet med modifikasjoner. En LCD har maksimalt 1:1600 i kontrastforhold. Måten LCD får bedre sortnivå er å dempe bakgrunnsbelysning. Den kanskje beste filmscenen jeg vet å teste dette på er The Rock, når de tar seg inn i Alcatraz og kommer opp av vannet med hodelyktene på. I en slik scene vil plasma ha langt mer lysstyrke i det hvite, og langt bedre sort. Det samme vil OLED ha. Grunnen er at OLED og plasma i praksis fungerer likt. De har begge pixler som avgir lys i seg selv, ulikt fra LCD som alltid har lys på hver pixel, men som kan åpne og lukke for å slippe gjennom forskjellige mengder (ikke ulikt persienner). Hva dette betyr i praksis er at når pixlene i en LCD er sorte, så stoppes mest mulig lys av LCD panelet, mens på plasma og OLED så vil rett og slett lyset skrus av. Det blir ikke mørkere enn ingen lys, dermed like bra sortnivå.

    Det er en ting som forstyrrer dette. For at en pixel skal være sort så må den gjøre to ting. Først og fremst må den ikke gi fra seg lys. I tillegg må den ikke reflektere lys. En pixel som i utgangspunktet er hvit vil i en opplyst stue se hvit ut selv om den ikke avgir lys selv. Jeg tror at OLED og plasma nok er veldig like på dette området også.

    • Liker 1
  13. Hadde egentlig tenkt å la denne trollinga gli forbi, men etter å ha lest dine andre poster synes jeg du fortjener det.

    Kan diskutere alt jeg vil, Ko_deZ skal på død og livet undervurdere menneskets potensialet.

    Input lagen i Windows trodde jeg var et kjent fenomen. Hva får deg til å tro at jeg bruker Windows? Du om det ...

     

    Jeg har aldri sagt at du bruker windows, jeg har sagt at windows, som alle andre operativsystem, har input-lag. Hvis du leser posten min så vil du se det.

     

    Kan vel nevne at forsvarsrefleksen i mennesket er på godt under 10ms og at det er gjort tester på at øyet kan oppdage objekter på så lite som 1/200(220?) av sekundet. Det ble for øvrig ikke gjort tester raskere enn dette i den artikkelen jeg leste, om du har tenkt å poengtere med at begrensingen går der.

     

    Det første du snakker om her, 10ms, er reflekser som ikke krever at hjernen er involvert, f.eks refleksen man får når man dunker på kneet.

    Det du sier med øyet er helt riktig, og det kan oppdage langt kortere input også, det du mangler i uttalelsen din er det faktum at hjernen trenger ca 190ms på å reagere på visuell input (og ca160 på lydinput). Dermed blir det nærmest uvesentlig hvor kort blinket er siden hjernen uansett trenger veldig lang tid på å analysere det du ser. Du kan lese mer om det på wikipedia, slå opp Mental chronometry. Hvis du vil late som du kommer med en ekspertuttalelse på dette så vil jeg anbefale deg å lese om mer enn en enkelt test gjort på dette området.

     

    Vet meget godt at spillmusene har 1ms delay minimum. Jeg skrev "godt under" fordi du virker som et all-vitende mirakel som på død og livet skal korrigere alt (bare på morro i guess).

    På internett finnes det jo alltid noen som vet alt det er å vite om universet og dets mysterier uansett så.

     

    Åja, det gir mening. Det var en god grunn til å påstå noe helt på jordet i det som forsøker å være en seriøs diskusjon.

     

    Vil for øvrig bemerke at det finnes lydkort som du kan justere bufferen på langt under 100ms og at man kan høre/se forskjeller under 50ms når det kommer til synkroniseringen av lyd og bilde.

     

    Selvsagt finnes det. Hvordan skulle ellers musikere kunne jobbe? Skulle de ha monitor-lyd som var vesentlig forsinket fra når de spiller? Analogt fungerer det, men dagens lydkort, f.eks fra Focusrite (hvor jeg har to 10kanals lydkort fra forøvrig) som bruker firewire kan ha utrolig kort bufferstørrelse, og dermed veldig lav forsinkelse på operativsystem som tillater dette.

    Ikke minst, så hører og ser man selvsagt forskjell, det jeg snakket om var hva hjernen klarer å kompansere for uten at det ser unaturlig ut. Det skjønner du om du leser det jeg skrev og ser det i sammenhengen det står i.

     

    Vil for øvrig bemerke at det finnesTakk for meg og ha det gøy med dine 50ms (+ internett delay). Den tjensten blir hvertfall jeg å stå over.

     

    Jeg skal ikke benytte tjeneste, ei heller si den blir bra eller dårlig, det eneste jeg sier er at nettverkslag på 15ms vil du kunne kompansere for ved å skru av double buffering f.eks, og det vil man nok kunne gjøre siden man mest sansynlig overfører data med oppfriskningsrate som tilsvarer refresh-rate på skjermen eller en brøkdel av den.

     

    Edit: Ooops, 1000hz muser er standard spill-utstyr i dag. 1ms er uansett lik 0 for et menneske i dag, på samme måte som at 10ms er overkommelig, men ikke optimalt.

     

    Ooops? Leste du posten min? Nok troll-kakking, nå får jeg gjøre noe fornuftig.

  14. Angreretten sier at man har lov til å prøve produktet. Ting som plastemballasje som må tas av for at produktet skal kunne testes skal man kunne åpne uten at det påvirker angreretten. Som Herr Brun indikerer så tror jeg ikke NetShop har hjemmel til å redusere summen. Jeg vil faktisk påstå at det her har vært gjort mer enn det som kan forventes i og med at han har renset den etter at den ble testet. Alternativet hadde vært at han sendte den tilbake med en brukt original varmepasta, noe som ville krevd at NetShop måtte renset den selv først. Jeg mener at varmepasta må kunne regnes som en ting som må brukes og ødelegges for i det hele tatt å kunne teste produktet, og dermed ikke kan kreves retur av i samme stand som den ble mottat.

  15. I grunnen ikke noe i veien med argumentasjonen, men jeg tror du undervurderer ytelsen til lokale klienter. Husk at i mange tilfeller vil en klient lokalt gi tilnærmet umiddelbar feedback i grensesnittet. La oss inkludere i "grensesnittfeedback" ting som bevegelse av muspekeren, klikkelyd og minianimasjoner på grensesnittelementer som knapper og slikt. Lyden er foreksempel ikke avhengig av noen framebuffer og øvrige animasjoner som ikke krever mye prosessorkraft og ressurser vil oppdateres i neste frame. Og så opplever man en forsinkelse før selve effekten i spillet inntreffer. Når spillet streames vil man få en stor forsinkelse mellom handling og grensesnittfeedback.

    Det er dette vi ofte refererer til som "inputlag" og det er helt uakseptabelt i actionspill som Battlefield og Call of Duty og en kilde til stor irritasjon i strategispill også.

    Les første par setningene i innlegget mitt. Jeg snakker om en mer gjennomsnittlig PC.

    Det du sier om lyd er faktisk helt feil, og jeg skal forklare hvorfor. Først vil jeg bare nevne at dette er noe jeg jobber med til daglig, og for øyeblikket implementerer vi profesjonelle video encodere (h264 og andre kodeker) som skal selges til firma av typen Telenor, Get, Globecast, altså noen av de virkelig store.

     

    Hjernen vår er en sabla fantastisk sak. På grunn av at lyd beveger seg ganske seint, mens lys beveger seg veldig fort, så er den vant til at lyden kommer en stund etter vi ser hendelsen. På 33 meters avstand har man 100ms delay på lyden i det virkelige livet, rett og slett fordi lyden beveger seg 330m/s (sånn omtrentlig). Vi legger allikevel ikke merke til at lyden er forsinket, for hjernen fikser opp i det automagisk. Kommer derimot lyden før "bildet", så går det helt galt. Vi kan fint ha 30ms delay på lyden, men kommer den 5ms for tidlig så ser det feil ut med en gang om man ser på TV. Samme gjelder selvsagt for en PC. I tillegg finnes det et output buffer på lydkortet hvor man kopierer over lyden som skal spilles ut. Ofte kan dette bufferet være på opptil 100ms på ikke-kritiske ting. Det du sier med umiddelbar respons er derfor ikke riktig, det er hjernen din som lurer deg.

     

    Over til windows grensesnitt. Der kjøres det double buffering for å hindre rivning i bildet ved flytting av vinduer osv i Aero i windows 7. Antar du bruker det. Det er to ting som spiller inn her, begge er konkrete og meget rigide begrensninger som man ikke kan komme rundt. Hvis du har en skjerm på 1920x1080x24bit@60Hz, så har du en bitrate til skjermen på minst 1920*1080*3*60 = 373MB/s. Altså godt over 3 gigabit/s som går i HDMI/DVI kabelen. Dette er en fysisk begrensning. Med den hastigheten så tar det nødvendigvis 1/60 av et sekund å overføre bildet til skjermen. Man kommer ikke rundt det. Men før man i det hele tatt begynner å overføre bildet, så vil må man rendre det. Hvis du kjører 60fps rendring, så tar det også 1/60s.

     

    Du må gjerne påstå at skjermen tegner bildet mens det overføres, men det faller på sin egen urimelighet hvis du tenker på det. Hadde det vært tilfelle med en LCD skjerm så hadde ikke 3D briller virket f.eks. Dermed så vet vi at bildet først blir vist etter at det både er rendret og overført. I tillegg så kan man anta at bildet rendres og blir liggende en periode i buffer før det overføres. Tenker du over det også så forstår du at det må være slik, hvis ikke måtte skjermkortet aldri hatt fps dips for å kunne servere bilder raskt nok. I verste fall er bildet klart like etter et nytt bilde har blitt begynt overført, og det må dermed vente 1/60s på at forrige bilde skal bli ferdig overført. Dermed er vi med litt uflaks oppe i 3/60s. Dette er helt enkle tekniske og fysiske begrensninger, og det er ingen vei rundt dem overhodet. 3/60s er forøvrig 1/20s = 50ms.

     

    For å være kort. Dette er ting jeg _kan_, som i at jeg faktisk lager utstyret som gjør denne jobben. Jeg tuller ikke, det er så mye forsinkelse, hjernen vår er bare for god til å la oss legge merke til det. Vi vender oss også til slikt når vi bruker datamaskin. Ikke la deg lure dog, det er alltid delay.

     

    Jeg kan gå detaljert gjennom hvordan en mus, USB laget, og moderne CPU interrupts fungerer, samt gå gjennom opptil flere modeller for OS oppbygning og driver-håndtering av input og output data, hvor jeg har skrevet opptil flere selv, de aller fleste er realtime drivere som er vesentlig raskere og mer optimalisert en en gjennomsnittlig windows driver pga mitt arbeids natur. Det er også input lag, og det er mer enn du ønsker å tro. Hvis du vil få en opplevelse av dette så kan du gjøre noe så enkelt som å fyre opp en linux installasjon med realtime kernel. Det er merkbart mindre lag fra input devices enn med en vanlig kjerne, noe som forøvrig overrasket meg litt pga min manglende innsikt.

     

    Og i dag er det allerede problematisk ved 5ms forsinkelser i e-sporten, dette går aldri bra.

    Ko-deZ, feil. Bildene maskinen genererer er så og si umiddelbar. Eneste som hemmer dette er skjermen, men en spillskjerm i dag har så og si 0 delay. Det samme gjelder input lag. Den er godt under 1ms.

     

    Jeg følger også med på e-sport en god del. Ja du har rett, 5ms er kritisk i e-sport, men det er snakk om 5ms ekstra, ikke 5ms totalt. I en situasjon hvor to personer har helt like PCer, men den ene har en mus med 5ms mindre lag, så har nødvendigvis den personen en fordel. Det er altså ikke snakk om total lag, men spesifikk lag per enhet. At det er godt under 1ms input lag høres ut som du har fått fra en markeds-avdeling.

     

    Denne karen her har gjort jobben sin, og funnet ut omtrentlig hva normalt lag på input for en windows maskinen hans er:

    http://answers.micro...57-04ea0474199a

    Jeg er ikke overrasket

     

    Som sagt, det er mer enn man tror. Tar man for seg en datamus, så har den en gitt oppfriskningsrate som normalt er 125Hz (Noen av de virkelig gode har 1000Hz, men det kan neppe kalles normalt, og det er fortsatt 1ms bare der i samplingen. Det er altså _ikke_ under 1ms internt i musa engang. Dvs at det per default er 8ms lag, og det er før USB laget. Bruker du USB1, så er det 11Mbit, og normal delay er noen millisekunder der også, men er du på samme hub som f.eks et USB nettverkskort, så vil det bli datakollisjon, og delay kan øke drastisk. Også, ved 11Mbit, så tar det nødvendigvis 1ms bare å fysisk overføre data fra buffer i ene enden til buffer i andre enden. I tillegg må buffrene fylles opp, og man må sende start og stopp melding over USB protokollen siden det er en asynkron protokoll.

     

    Igjen, hjernen din er for smart, og vet ditt eget beste, så den lurer deg. Det finnes ikke en PC i verden som ikke må følge fysiske regler, og når man i tillegg legger til tiden det tar å reagere, for operativsystemet å bryte inn hver gang det skjer et tastetrykk osv, så burde det være veldig åpenbart for alle som leser dette innlegget at det Antoweif sier ikke er basert på hverken fysiske lover, elektronisk kunnskap, eller noe annet enn synsing. Dersom noen her kan tilbakevise det jeg sier, så vil jeg svært gjerne lære noe nytt, men først vær vennlig å lese det jeg skriver og forsøk å forstå det.

  16. Alright, jeg forenklet det litt for mye kanskje. Når jeg sa spille med 60fps mente jeg med umiddelbar respons i grensesnittet.

     

    Det er nok noen turbaserte strategispill og andre lavtempospill som kan bruke en slik tjeneste, men jeg mener alikevel at det vil kun slå an på steder med svært høy befolkningstetthet. Kommer ping noe særlig over 50ms ville irritasjonen av input lag bli problematisk.

     

    Det finnes ikke noe som heter umiddelbar respons, det finnes kun varierende delay. La oss ta en ikke helt topp moderne PC (som nok er mer sansynlig at vil benytte en slik løsning), som spiller Crysis f.eks.

     

    Ved full oppløsning og endel goodies på vil den kanskje være nede i 30fps ved masse action. Double buffering er skrudd på, men ikke triple buffering, så er vi realistiske. Det vil i dette tilfelle ta 33ms å rendre en frame, og ved 60Hz skjerm-refresh rate vil det kunne overføres kanskje så seint som 16ms etter det er ferdig rendret. Selve skjermen har ganske kort sort-hvit delay, men trenger litt tid på å tegne bildet, så vi kan nok legge på 10ms i skjermen også. Et middelmådig tastatur som bruker USB 1.1 vil kanskje trenge 10ms på å overføre tastetrykk til datamaskinen, mens operativsystemet nok bruker 2-3 ms på å plukke opp tastetrykket og formidle det til software. I tillegg må prosessoren faktisk behandle tastetrykket i spillet og beregne hva som skal skje videre, samt be skjermkortet om å tegne den nye scenen som nå utspiller seg. I praksis så snakker vi om godt over 50ms delay allerede. Kanskje tastaturet til og med er trådløst?

     

    Det er riktig at det vil bli enda litt høyere med denne løsningen, men det er kanskje snakk om dobling fra 50ms til 100ms på det meste vil jeg tro. Det er ikke snakk om en overgang fra 1-2ms til 50-60ms, økningen er prosentvis langt mindre enn som så.

     

    PS. Tallene er tatt litt ut av lufta, basert på litt kvalifisert gjetning og enkel hoderegning, så ikke heng meg for dem.

  17. Inntil vi har komunikasjon som er raskere enn lyset vil dette være begrenset til spill som ikke er berørt av ping/lagg/nettverksforsinkelse. Ihvertfall utenfor de største byene. Skal du ha 60fps må ping ligge under 16ms. Jeg bor i Oslo og pinger sjeldent bedre enn 20ms til spillservere som står i byen.

     

    30fps kan funke i strategispill og da må ping være under 32ms. Det er vanskelig å oppnå under noen få mil.

     

    Dette er en misforståelse. Ved ping på 20ms så vil det ta minst 20ms fra du trykker en knapp til endringen skjer på skjermen. I endel spill går det greit, i andre blir det vanskelig. Siden behandling av knapp-trykket og overføringen av bildet også tar litt tid så blir den enda lenger enn de nevnte 20ms. Derimot så kan man utmerket sende 60fps over en linje med 5 sekund ping så lenge båndbredden er stor nok. Da vil all data for de neste 2,5 sekundene være på veg mot deg, og alle dine kommandoer siste 2,5 sekunder være på veg til serveren (pluss litt igjen). Det blir vanskelig å spille med slik lagg, men det kan likevel være 60fps som overføres.

     

    Norge kan ikke delta med denne typen teknologi da vi har for dårlig infrastruktur.

     

    Et eksempel er følgende:

    Latency fra klient til server er for høy da mellomledd skaper pakkefeil grunnet dårlig kabel eller at den totale hastigheten er for lav til å kjøre data raskt nok, hvis noen andre er på nettet og skal ha data på samme linje.

     

    GG norsk infrastruktur.

     

    Dette er en sannhet med modifikasjoner. Ja, mange vil ha problemer med dette, men nei, _hele_ norge har ikke for dårlig infrastruktur. I tillegg vil dette være et typisk tilfelle hvor Nvidia vil sette prosesserings-noder rundt i nettverket til de store operatørene, så vegen til nærmeste node kan kanskje i noen tilfeller bety et par-tre hopp fra hjemme. Et stort flertall av norske bredbåndskunder vil med stor suksess bruke et slikt system.

     

    Man slipper å ha krafig hardware hjemme, men der stopper også fordelene for bruker. De som drifter har imidlertid flere fordeler som f.eks økt inntjening (månedsbeløp), redusert piratkopiering, redusert utviklingskost (kun en plattform) og monopolisering. Hver stor utgiver vil kjøre egen tjener med sine produkter og de som ønsker flere spill må nok ha relativt kraftig budsjett.

     

    Dette da selvsagt i tillegg til de tekniske barnesykdommene en vil oppleve (latency etc). Dette er utvilsomt fremtiden nettopp fordi det gir mulighet for større inntjening.

     

    Er helt enig i at dette nok blir fremtiden, men det er helt klart flere fordeler. Man vil kunne fortsette å spille spillet på paden når man drar hjemmefra f.eks, og kanskje etterhvert til og med bruke mobil og pad, og andre PCer som status-skjermer eller ekstra informasjon i spillet man spiller. Mulighetene er endeløse.

  18. Simen: Du har helt rett om rettigheter, og jeg snakker da selvsagt om de rettighetene jeg kan ha, men jeg vil ha alle dem :-p

     

    Nå har jeg enten vært heldig med fotografene, eller god til å velge, men jeg har alltid fått veldig gode bilder av fotografer, og ja, det er det jeg betaler for og det jeg får, så der er jeg fornøyd.

     

    Samtidig så får en fotograf en hel bråte situasjonsbilder som ikke egner seg på veggen, men som er svært artige i kollasjer, fotoalbum eller for fremtidig ydmykelse (av seg selv eller andre, begge deler er essensielt ved store anledninger), og disse vil jeg ha. Det er overraskende mange ganger slike bilder er brukbare. Disse bildene er overhodet ikke nyttige for fotografen, og blir heller ikke redigert og ordnet. Selvsagt påstår ikke jeg da at det er et fotografbilde, dog jeg kan muligens si at jeg fikk lov å grave i forkastet bunken. Alle fornuftige mennesker innser og vet at enhver bryllupsfotograf tar en million jallabilder for hvert gullbilde. Hvorfor så mange fotografer er usikre og nervøse på dette punktet skjønner jeg ikke.

  19. La meg også legge til at rettighetene for bildene jeg betaler for, skal jeg ha. Når jeg betaler en snekker for å gjøre en jobb, så skal jeg ha produktet jeg betalte for. Betaler jeg en maler for å male huset, så skal jeg ha retten til å vise det frem. Betaler jeg en kunstner for å male et bilde for meg, så er det mitt. Men skulle jeg betale en fotograf for å ta bilder for meg så skal fotografen ha rettighetene? Det gir ingen mening, og er uakseptabelt for meg. Som kunde kan jeg velge, og det gjør jeg. Jeg innser at de fleste som poster her og som er fotografer ikke er enige, og det har dere all rett til.

     

    Rogkas: Å kalle meg useriøs er jaggu på kanten. Hva er en seriøs kunde? En som betaler for det han vil ha, og vil ha det han betaler for? Alternativet er en kunde som ikke vil betale, og/eller ikke har tenkt gjennom hva han vil ha. Er en seriøs kunde rett og slett en som tar imot bildene du tar og betaler for det han får uten å stille spørsmål og krav? Uansett så har jeg nå nok et navn på listen over hvem jeg ikke skal ha som fotograf.

    edit:kommafeil

  20. Man kan da utmerket herpe et jpeg bilde også. Uansett, jeg vil ikke gjøre jobben til fotografen, det betaler jeg ham for, men jeg betaler ham også for å ta en bråte bilder, og dem vil jeg ha. Det jeg hadde vært positiv til ville vært at fotografen "signerer" bildene slik andre kunstnere gjør med en signatur i et hjørne eller noe slikt for å "gå god" for et bilde.

  21. Hvis jeg betaler en fotograf for å ta bilder så vil jeg ha både ha et utvalg redigerte bilder til stueveggen, og samtlige RAW bilder til å leke med selv. Alt annet er komplett uaktuelt. At ikke andre stiller samme kravene skjønner jeg ikke. Det har dog iblandt vært vanskelig å få tak i fotografer som er villige til dette, men det er jo deres valg. Jeg går da bare til neste navn på lista. Jeg har også sett veldig gode og veldig dårlige fotografer. Den bransjen er som alle andre full av genier og idioter.

  22. Det finnes mange gode objektiver man kan bruke på NEX serien, riktignok med konverterings-adaptere. Cannon, Nikon, alle Sony og Zeiss objektiver, noen herlige og ikke minst billige objektiver fra Minolta (Denne er ganske fin, men ikke veldig billig: http://www.slrgear.com/reviews/showproduct.php/product/274/cat/42). Alt passer på kameraet om du kjøper et adapter. Les litt om det, så skal du se du finner et objektiv du vil like. Skal du ha god ytelse ved lite lys så må du nesten kjøpe et med fast brennvidde (ikke zoom). Husk at dette gir svært lite depth of field når man slipper inn mest mulig lys (kan ha fokus på nesetippen, og så vil øynene være litt ute av fokus), det er baksiden av medaljen.

×
×
  • Opprett ny...