Gå til innhold

josse

Medlemmer
  • Innlegg

    49
  • Ble med

  • Besøkte siden sist

Innlegg skrevet av josse

  1. Jeg er også svært fornøyd og har brukt det både på telefon og tablet siden det kom ut.

     

    Men en ting plager meg: Når man har både engelsk og norsk språk aktivert vil etthvert trykk på "i" medføre den engelske "I". Dette skjer selvom teksten rundt er på norsk, og det er midt i en setning.

     

    Min måte å omgå dette på har vært å slå av engelsk på telefonen, men jeg skulle gjerne sett at den hadde bedre autodeteksjon for akkurat dette. Er det noen som har funnet en løsning på dette problemet?

  2. Jeg ble av en eller annen merkelig grunn positivt overrasket til PDF-leseren, og leser mange PDF-er på Kindle'n (original, ikke DX). Men for de fleste PDFer kreves det at man trykker på skriftstørrelsesknappen og velger en av landscape-modusene.

    Det kommer nok veldig ann på PDF dokumentet. Veldig mange vitenskapelige artikler er satt i to kolonner, og i landscapemodus blir man nødt til å bla litt fram og tilbake for å få lest all teksten som er på en side,

     

    Heller ikke Amazon sin konvertering håndterer dette på noen god måte.

     

    Siden dette er løsbart i software kan man jo håpe at det blir bedre, og jeg ser virkelig fram til å kunne lagre kommentarer til teksten på denne måten!

  3. Jeg følger opp Moskus sin flotte test, med noen kommentarer jeg postet på et annet forum (terrengsykkel.no) for noen uker siden.

    Av min tante fikk jeg et Amazon Kindle lesebrett til jul, det kom faktisk litt på forskudd og jeg har nå brukt det i ca to ukers tid, og lest tre bøker fra perm til perm. Siden jeg vet det er flere teknolgientusiaster på forumet, tenkte jeg å dele mine erfaringer her:

     

    For å begynne med konklusjonen: Jeg har trua på at dette i stor grad kan erstatte boken. Skjermen, som ikke er en vanlig skjerm, men e-blekk er utrolig god å lese på, og jeg glemmer fullstendig at jeg ser på en skjerm og ikke papir. Det oppleves virkelig som bokstavene er trykket, og står "ut" fra bakgrunnen. Siden skjermen ikke er bakgrunnsbelyst krever den like mye leselys som man trenger til en vanlig bok.

     

    Knappene for å bla framover og bakover er plassert der de burde, og brettet er lite og lett nok til at man fint kan holde det i en hånd mens man leser, og samtidig gir lille Ellinor (3mnd) tåteflaske med den andre.

     

    Kjøp av bøker fra Amazons nettsider er selvsagt lekende lett, og de kommer dalende over 3G (ikke Wi-Fi) i løpet av få sekunder.

     

    Positive ting:

    • Fantastisk skjerm.
       
    • Lang batterilevetid (1-2 uker)
       
    • Lading via USB kabel, og bare det.
       
    • Mange gratis e-bøker tilgjengelig.
    • Word/PDF/HTML/etc. dokumenter kan konverteres til ett mer passende format via epost og havne rett på brettet. (Dette koster dog noen få cent, så vil man spare penger kan man bruke USB kabel i stedet.)
    • Stort utvalg av bøker hos Amazon. De fleste koster mellom 5 og 15 USD. Fagbøker koster fort 30USD++.
    • Bokmerker og notater lagres automatisk hos Amazon.

    Negative ting:

    • PDF leseren er ikke noe god. Man kan laste opp PDFer direkte, men det er ingen zoom-funksjon, slik at dokumenter formatert for A4/Letter blir fryktelig små. Funker i et nødsfall.
    • Bøkene man kjøper fra Amazon er kopibeskyttet i ett properitært format, og kan ikke selges, lånes eller gis bort til andre.
    • Bøkene på Amazon er ofte like billige i paperback som på Kindle -- uten frakt
    • Magasiner/avsiser man kjøper fra Amazon har ikke bilder eller figurer i Norge.
    • Ingen norske bøker eller aviser er tilgjengelig. (Tekstunge aviser som Morgenbladet og Le Monde Dimplomatique hadde egnet seg brillefint på Kindle.)
    • En overraskende stor del av flyturer i Norge består av takeoff og landing, perioder hvor man nok ikke skal sitte å flashe lesebrettet sitt.
    • Den innebygde Wikipedia leseren er ikke særlig god. Det er ikke Hitch Hikers Guide riktig enda.

    For meg er den dårlige PDF-leseren den største skuffelsen. Som forsker leser jeg ganske mange artikler i PDF-format i løpet av uken, og det hadde vært fantastisk å kunne lagre disse på brettet sammen med notatene mine. Det finnes en større utgave (Kindle DX) med 9.7" skjerm hvor dette nok er bedre, men denne er bare tilgjengelig i USA.

     

    Jeg ser for meg at for vanlig skjønnlitteratur vil jeg i stor grad gå over til lesebrettet i året som kommer. På godt og vondt fyller man ikke opp bokhyllene med enda flere bøker, og jeg slipper ihvertfall å vise fram hvor mange søplete fantasy-paperbacks jeg faktisk har lest

    • Liker 1
  4. Vi er to jenter som har tenkt oss på en sykkeltur fra Bodø og nedover kystriksveien. Planen er å komme så langt som mulig på en uke før vi tar toget hjem.

    Vi regner med å sykkel ca 15 km/t og er forholdsvis godt trent.

     

    PROBLMET er at vi ikke har peiling på hvor langt vi kommer på en dag! :)

    Noen som har noen råd om hvor langt vi kan klare og sykle på en dag? Evt tips og gode råd?

     

    Dette høres ut som det kan bli en fin tur!

     

    Merk at det er tunneler på Kystriksveien hvor det er forbudt å sykle, og meningen er at man skal ta ferge rundt. Alternativet er å sykle gjennom tunnelene, men da ville jeg i det minste hatt lys på sykkelen.

     

    Hvor langt dere sykler på en dag er selvsagt avhengig av hvor man timer dere vil sitte på sykkelen om dagen, dette er det jo greit å ha snakket om på forhånd. Men man kan f.eks. ta "økter" på 3 timer, med en lang pause i mellom, og forsøke å legge inn to eller tre slike økter på en dag. Med 15 km/t i snitt burde det da være mulig å gjøre unna ca. 100km om dagen uten å slite seg helt ut. Det kan være lurt å legge inn en hviledag eller to i løpet av uken også.

     

    Dersom dere ikke er vant til å sitte i timesvis på sykkelen, kan stølhet bli et større problem enn utmattelse etterhvert som dagene går. Gnagsår på "unevnelige steder" skal man også være oppmerksom på, sørg for å ha gode sykkelbukser, ikke bruk truse under sykkelbuksen, og bruk en velegnet krem. (Gode sykkelbutikker har egne kremer mot sittesår.)

  5. Personlig har jeg store problemer med at Cuda er kun for nvidia. Har du gjort deg noen tanker om OpenCL?

     

    ref. http://www.khronos.org/opencl/

     

    Gratulerer med graden! Hvis avhandlingen din er tilgjengelig på nett hadde det vært flott med en lenke.

     

    Avhandlingen ligger her.

     

    Når det gjelder OpenCL har jeg svært stor tro på det. Ut i fra manualen er det veldig likt CUDA, hvis både AMD/ATI og Nvidia får ut fungerende SDKer i løpet av våren 2009 tror jeg vi har en vinner.

     

    Likevel skal man ikke se helt bort i fra at de platformspesifikke språkene vil overleve. GPUer er stadig mer interessant i embedded markedet, og der tar man gjerne et platformspesifikt språk for å få ut de siste 10% med ytelse.

  6. Går det mot noen standardisering av språk for massivt parallelle maskiner med flere adresserbare minnenivåer eller er det alt for tidlig til at noen har begynt med det enda? Jeg synes de tidlige GPGPU alternativene gjenspeiler et alt for snevert tankesett rund dette fagområdet. Poenget ser ut til å være å få mest mulig ut av en spesifikk serie GPU enklest mulig, men om 2 år så er jo den innsatsen tapt. Og om 5-7 år har vi antagelig ikke GPU lengre.

     

    Det er et veldig godt spørsmål du tar opp der. Hovedproblemet er at alle eksisterende programmeringspråk gir en illusjon av et stort kontinuerlig minneområde. Cuda har løst dette ved egne cudaMalloc-funksjoner som allokerer minne på GPU, dette er jo en mulighet som skalerer til enda flere minneområder også. Men programmereren har det hele og fulle ansvar for å holde styr på hvilke pekere som peker til hvilket minne.

     

    Men man kunne tenke seg språk som hadde egne nøkkelord og runtime støtte for dette, men det skal mye til for et nytt språk å komme på banen.

     

    Når det gjelder levetiden til språk så er det vanskelig å spå. Nvidia sier selv de har et 20-års perspektiv på Cuda, og at vi har noe som likner på GPU om 5 år er jeg helt sikker på. Til spill er det rett og slett så overlegent en vanlig CPU (både i absolutt ytelse, og i ytelse/watt) at maskiner vil fortsette å ha dem.

  7. Hva slags utdannelse har du som grunnlag, da?

    Jeg har gått informatikk og matematikk på Universitet i Oslo helt fra bunnen av, begynte i 1997. Tok hovedfag (rett før det ble mastergrader) i 2003, i studieretningen "beregningsorientert matematikk". Deretter jobbet jeg ett år i industrien, før jeg begynte på doktorgraden.

     

    Skal man drive med 3D-programmering og forskning er det helt nødvendig å kunne en god del matematikk, i tillegg til informatikken.

  8. Er det mulig for oss dødlige å lage programmer som bruker GPU til å regne ut ting?

     

    Tenkte bare jeg skulle prøve å lage noe som SuperPI og sjekke resultatet jeg får på CPU og så CPU + GPU bare for moroskyld :D

    Siden artikkelen handler om meg, kan jeg jo forsøke å svare på noen spørsmål også.

     

    Med CUDA (og etterhvert OpenCL) er det mulig for vanlig dødelige C/C++ programmerer å relativt enkelt programmere GPUen. Det som derimot ikke er så lett er å utnytte ytelsen.

     

    På en GPU programmerer du massevis av tråder som jobber i parallell, oppgaven din bør helst kunne deles opp i flere titusenvis tråder som jobber (nesten) uavhengig av hverandre. Skal du regne ut Pi trenger du en algoritme for det som lar hver enkel tråd regne ut deler av summen, og til slutt må du addere sammen resultatet fra alle trådene.

     

    Det finnes teknikker for begge deler, men helt trivielle er de ikke.

     

    Et lettere "Hello World" eksempel enn Pi vil f.eks. være et Gaussfilter over et bilde, eller matrise-matrise multiplikasjon.

  9. Jeg var tilstede på demonstrasjonen, og må innrømme at den nye 3D teknologien (InTRU3D) ser veldig bra ut. Likevel er det ikke perfekt, jeg følte en viss svimmelhet når jeg brukte brillene, og det ser helt klart best ut når man er rett foran lerretet.

     

    Brillene vi fikk utdelt var laget av plast, og ikke papir som gamle rød-grønn briller, men de var fortsatt veldig skranglete. Slår dette an kommer det sikkert bedre tredjepartsbriller.

     

    Begge sekvensene de viste oss var også ganske mørke, i fangetårn fra Kung-Fu Panda, og ved solnedgang på Monsters vs. Aliens. Jeg håper dette er tilfeldig, men skulle gjerne sett noen ala "fosefallscenen" fra Cars i dette formatet.

  10. Hadde vært kult om noen fikk det til, men...

    Ingen har levert noe som kan kjøres på GPUen (annet enn gfx) og det virker som om det ikke er nok penger i det til å utvikle det heller.

    Eller kanskje det bare ikke er mulig å få til skikkelig?

    Det finnes da hundrevis av applikasjoner som benytter GPU til noen annet enn redering av (trekantbasert) grafikk.

    Dette har vært et aktivt forskningsfelt i en del år nå, og både AMD og NVidia lager dedikert hardware til dette.

     

    Se gpgpu.org og Wikipedia sin GPGPU side. Det har også vært et SINTEF prosjekt finansiert av Norges Forskningsråd som har forsket på dette.

     

    Folding@HOME har forøvrig hatt GPU klient siden 2006.

  11. hva blir prisen da? koster rundt 30dollar for vær dvd... og hvordan skal du få den til å reagere med sykkelen? i dvd spilleren?

    8519647[/snapback]

    Det er et relativt kostbart system. Rullen (som man altså setter sykkelen sin på og som er koblet til en Windowsbasert PC) koster drøyt 6000,-. I tillegg koster hver enkelt DVD rundt 200,- Så trenger man selvsagt en sykkel til å sette på rullen også.

     

    Målgruppen for systemet er "seriøse syklister" som trener mye, og som har penger til å svi av på hobbyen sin.

  12. En viktig faktor, som få har nevnt her, et er at busshastigheten mellom CPU og GPU er forsvinnende liten i forhold til antall FLOPS på GPUen på en standard PC. (I praksis gir ikke PCIe 16x mer enn 1GiB/S mellom CPU og GPU.) Ettersom både GPUer og CPUer blir kraftigere blir dette mer og mer en flaskehals.

     

    På PS3/XBox 360 (på akademisk: heterogene arkitekturer), med delt, raskt minne er denne hastigheten betydlig høyere (XBox: 20GiB/S GPU<->RAM, 10 GiB/S CPU<-> RAM; PS3: 15GiB/S GPU->Cell, 20 GiB/S Cell->GPU.)

     

    Dette gir i mye større mulighet til å bruke både GPU og CPU sammen (or dermed styrken) til begge prossesorene til å lage nye algoritmer som gir mer realistisk grafikk. Hvis vi antar 720p oppløsning og 60FPS gir 20GiB/S muligheten til å kommunisere 75 float verdier/pixel mellom CPU og GPU. Dagens løsning gir bare 3.75 floats/pixel.

     

    Denne økte båndbredden alene er god nok grunn til å putte GPU og CPU på samme chip. I tillegg er det store kostnadsbesparelser på sluttprisen til et system dersom man klarer seg med en brikke.

     

    Selvbygg av PC markedet er heldigvis forsvinnende lite, og jeg håper virkelig ikke "entusiaster" vil stå i veien for nødvendig innovasjon fordi de på død og liv skal sette GPUen i kabinettet selv.

  13. For å forsette linkingen til andre som allerede har nevnt dette, Matt Pharr snakket om heterogene arktitektuer på årets Graphics Hardware konferanse, Interactive Rendering in the Post-GPU Era.

     

    Jeg har dog snakket med ATI ingenører som hever at de vet like lite som oss om hva ATI/AMD sammenslåingen betyr, og at de foreløpig ikke jobbet på samarbeidsprosjekter med AMD. (Derimot jobbet de tre GPU generasjoner framover.)

  14. Disse ryktene gikk også da Computex startet i starten av juni. Charlie Demerjian fra The Inquirer skrev en liten kronikk den gangen som forklarer hvorfor dette gir mening for begger parter.

     

    I korte trekk går kronikken ut på at GPUer blir stadig mer programmerbare og likner på CPUer, mens CPUer får flere og flere pipelines og søtte for SIMD operasjoner. En moderne CPU/GPU i 2010 kan godt tenkes å være en hybrid av begge deler. Det gir mening for begge parter (ATI og AMD) å slippe å bygge opp kompetansen selv for å lage denne hybriden.

     

    Husk også at Justin Rattner fra Intel på IDF05 spådde at en CPU i 2015 ville kunne ha hundrevis av kjerner.

     

    Intel har penger og allerede kunnskap om massivt parallelle arkitekturer (Intel Paragon) , så det gir ikke like mye mening for dem å kjøpe opp en stor GPU produsent. Jeg synes derimot det er mere interessant hva NVidia vil gjøre framover, det er vel også derfor de satser stadig mer mot det mobile markedet.

  15. Ps! Lurte på noe her: F.eks 2x6800U(256MB) i SLI, er det lik teoretiske 512MB for GPU i maskina di da? Eller siden fordelinga er skeiv i SLI (40/60?), får du ikke utnytte de siste MB med RAM på det ene SLI kortet ditt?

    Minnet på skjermkortet brukes (primært) til å mellomlagre teksturer før de blir lagt på pikslene. Siden begge skjermkortene rendrer de samme objektene trenger de også de samme teksturene. Det er altså ikke mer enn 256MB effektivt på GPU'ene dine.

  16. Har et prosjekt på skolen om hvordan dataen kommer til å bli om 15-20 år...

    Hvordan tror dere at den kommer til å utvikle seg de neste årene?

    Skriv deres meninger her :mrgreen:

     

    Under IDF i vår ble det løftet litt på sløret rundt Intels framtidige planer. Det ble uttalt at man ser for seg hundresvis av kjerner på CPUen allerede i et tiårsperspektiv (Extremetech).

     

    Dersom man ser på Cell eller en moderne CPU+GPU maskin er det vel også nærliggende og anta at man vil ha en antall vektorprosseseringskjerne i tillegg til de generelle kjernene.

     

    Samtidig, til alle dere som tror det vil være voldsomt store endringer på 15 år; husk at Pentium M (og dens etterfølgere som havne på desktopen) er etterkommere etter Pentium Pro som kom i 1995. Det er ikke utenkelig at denne arkitekturen vil være med oss i enda 10 år.

     

    I et 15 års perspektiv er det mer natulig å tenke evolusjon en revolusjon. Selv har jeg brukt personlige datamaskiner siden 1984, og kan ikke peke på en enkel revelusjonerende ny teknologi, snarere har man forfinet det som til enhver tid er der.

     

    Internett var selvsagt en revolusjon, men det var ingen ny teknologi som gjorde at det tok av på den måten det gjorde, snarere bedre bruk av eksisterende teknologi.

     

    Jeg vil tro at det framover blir stadig viktigere med integrering og konvergens av teknologien, og mindre fokus på hva slags konkret hardware som ligger i bunn.

  17. Jeg er i markedet etter en ny LCD TV, i størelsesorden 27"-32" tommer. I 30"++ klassen ser det ut som om de er tre TV'r med ganske like spesifikasjoner som er mulig å få til under 15K.

     

    De er:

    Spesifikasjonsmessig ser de ganske like ut. Men har noen synspunkter på hvilken som gir best bildekvalitet?

  18. Nå er jeg litt fersk her, men har sett iblant at dere snakker (les skriver) om sx antall pipes eller pipelines. Hva er dette egentlig? Hvilken rolle spiller de på skjermokrtet og deres funksjonaliet? Er det bare noen av disse kortene som har disse "pipene", eller gjelder dette alle?

     

    Aller først, disse "pipene" blir kun brukt når det er rendring av 3D grafikk som skjer. Dette er vanlig i spill, men Windows/X11 bruker idag ikke denne biten av skjermkortene. (Mac OS X gjør det til en viss grad, og det samme ventes i Windows Longhorn.)

     

    Når det skal tegnes opp en scene (frame) blir først geometri sendt til skjermkoret, stort sett består denne geometrien av trekanter, og flerfoldige tusen av dem. Skjermkortet vil deretter omdanne trekantene til piksler, legge på tekstur og gjøre eventuelle lysberegninger.

     

    Dette er operasjoner som er veldig lett og paralellisere, og skjermkortet er derfor utstyrt med et antall helt like prosessorer som er optimalisert for disse beregningen. Ettersom hver slik prossessor er pipelinet snakker man altså om pipelines på skjermkort.

     

    Idag har et vanlig skjermkort ofte to forskjellige sett pipelines, en som alle vertexene (punkter) i geometrien går gjennom, et et sett pipelines som alle pikselene går gjennom etter at geometrien har blitt rastrert.

     

    Ettersom det (vanligvis) er flere piksler en vertexer har kortene som regel flere fragment (piksel)-pipes enn vertex-pipes. F.eks. har et GF6800 kort idag 6 vertex pipelines og 16 fragment pipelines.

     

    Det spekuleres i om neste generasjons kort vil ha generelle pipelines som kan beregne både vertex og piksler.

     

    Man kan altså (nesten) se på skjermkortet som en n-kjerne prosessor.

  19. Er det ikke slik at grafikk prosessorer bruker både 64, 128 og 256 bit i dag?

    Båndbredden til minnet til GPU varierer fra 64-256 bit idag.

     

    Selve prosseseringen (altså den beregningen som skjer i hvert vertex og fragment (pixel)-shader) kan idag være på maksimalt 4*32 bit = 128bit. (Hver pipeline kan behandle opptil fire kanaler i 32 bits flyttall).

  20. Hva er best norske blader for en som skal arbeide med faget. Hvis det finnes noe bra da  :p -

    Hva er ev. beste alternativ på engelsk?  PC World?

     

    Det er også mulig å se litt lenger enn til blader som står på Narvesen. Hva med f.eks:

    • *
    ;login fra Usenix
    * ACM Queue
    * IEEE Computer magazine

    Alle disse er laget for folk som jobber profesjonellt som driftere/system administratorer, noe som og gjør de litt mer krevende å lese.

  21. Ser at du er relativt ny her, men dette var litt artig kommentar. Knick Knack er antakelig en av de som har brukt mest tid på å fordype seg i low-level prosessor-design her på forumet, og så forteller du ham hva Moores lov går ut på. Hihi!

     

    For øvrig har den opprinnelige "loven" bare indirekte med transistortetthet å gjøre også, om jeg husker rett. Den går vel på antallet transistorer som er lønnsomt å inkludere i en chip, eller noe deromkring.

     

    Jeg ble registrert som forumbruker i 2001, og har lest forumet omtrent daglig siden før den, men velger stort sett ikke å engasjere meg, men mindre det er en tråd med mer eller mindre saklig innhold (slik som denne). Jeg bryr meg mer om korrekt innhold, enn hva slags "karma" den som poster har.

     

    Nå var jeg litt kjapt, og tok ikke dobbeltbetydningen av utsagnet til knick-knack, noe jeg beklager. Men likefullt var det feil bruk av Moores law jeg påpekte, noe knick-knack var enig i.

     

    Fra Moores law entryen på Wikipedia har jeg hentet disse forskjellige formuleringene av Moores law:

     

    * Moore's original statement, made in 1965 while he was Director of Fairchild Semiconductor's Research and Development Laboratories, was published in a paper in the 35th Anniversary Issue of Electronics magazine. The complexity for minimum component cost has increased at roughly a factor of two per year. Certainly over the short term this rate can be expected to continue, if not increase. The press soon dubbed this "Moore's Law".

     

    * The most popular formulation is of the doubling of the number of transistors on integrated circuits (a rough measure of computer processing power) every 18 months. At the end of the 1970s, Moore's Law became known as the limit for the number of transistors on the most complex chips.

     

    * It is also common to cite Moore's law to refer to the rapidly continuing advance in computing power per dollar cost.

     

    * A similar progression has held for hard disk storage available per dollar cost - in fact, the rate of progression in disk storage over the past 10 years or so has actually been faster than for semiconductors—although, largely because of production cost issues, hard drive performance increases have lagged significantly.

     

    * Another version claims that RAM storage capacity increases at the same rate as processing power. However, memory speeds have not increased as fast as CPU speeds in recent years, leading to a heavy reliance on caching in current computer systems.

×
×
  • Opprett ny...