Gå til innhold

Ko_deZ

Medlemmer
  • Innlegg

    578
  • Ble med

  • Besøkte siden sist

Innlegg skrevet av Ko_deZ

  1. Jeg har testet ut android på telefonen min, og min største bekymring med tanke på det er at android ikke støtter multitasking. Det er jo katastrofe imo.

     

    Browseren og brukergrensesnittet er helt fabelaktig dog, men jeg kan ikke leve med en telefon hvor jeg ikke kan bytte mellom GPSen og browseren min som jeg vil. Tenker det blir verre på en PC, om enn det er en liten en.

  2. WTF. 1GB minne i bruk uten at noe kjører? Ikke rart bedrifter ikke tar ibruk Vista.

     

    Uansett, hvis det er standarden, så er 2GB RAM for lite rett og slett. Oppgrader til 4GB (3GB om maskinen ikke støtter 4GB. Selv om det står den støtter 2 så støttes normalt 3GB)

     

    I maskinen det her er snakk om så må det være to ting på gang. Hvis harddisken jobber hele tiden, så må noe være galt. Ikke engang den indexeringen til Vista skal kjøre disken fullt _hele_ tiden.

    1. Reinstaller hvis du finner ut hvordan. Butikken skal kunne hjelpe deg med det. De har tross alt levert en maskin du ikke kan bruke fornuftig.

    2. Fortsatt feil? Kjøre en sjekk av harddisken. De fleste PC leverandører har en "test suite" program sak som du kan brenne på en CD og starte opp. Da booter du ikke fra Harddisken, så dermed kan den testes skikkelig.

     

     

    Det andre problemet er RAM. Hvis du bare har 1GB å bruke til programmer så sliter du rett og slett. Oppgrader RAM uansett. Skaff deg 1 eller 2 GB mer. Det er verd hver en krone.

     

     

     

     

    1GB i bruk? Goodness! Noen skulle hatt sparken i det firmaet!

  3. Å øke størrelsen på swap filen er skjelden en ting som øker ytelsen på maskinen. Hvis windowsen din bruker mer enn 2GB+2GB minne (dette er altså snakk om 4 milliarder byte), så er det noe feil ett sted.

     

    Min erfaring er at beste måten å fikse slike problemer på er å installere windows på nytt, og hoppe over alle disse programmene fra leverandøren. Med min Dell fikk jeg faktisk en windows recovery som ikke inneholdt alle disse tulleprogrammene i utgangspunktet.

     

    Som et forsøk, la det første du gjør når du logger inn i windows være å sjekke hvor mye minne som er brukt. Hva grensen for galskap er i Vista har jeg ingen anelse om, men på Linux maskinen min, med nyeste KDE og fancy flashy effekter a'la det Vista har, så bruker maskinen omtrent 80MB minne etter oppstart, og da starter jeg opp både databaseserver, webserver og annet som jeg har kjørende i tillegg. Kanskje noen her har en anelse på hva fornuftig minnebruk ved oppstart er i Vista?

     

    Hvis det er latterlig høyt, noe jeg forventer at det er, så bør du gjøre noe med det uansett. Om du ikke vil reinstallere, så slett så mye du kan av programmer, og skru av så mye du tør av services. Kjør deretter to-tre forskjellige virus scannere og både ad-aware og spybot.

     

    Du er selvsagt også hjertelig velkommen til Linux verdenen om du ønsker det. Hører Suse fungerer bra for mange for tiden =)

  4. Dette er da ikke vanskelig å finne ut av.

     

    http://en.wikipedia.org/wiki/Zend_Technologies

    og enda mer interessant og kjent:

    http://en.wikipedia.org/wiki/Zend_Framework

     

    Zend er IKKE php, har ikke vært PHP, og kommer ikke til å bli PHP. Zend var riktignok de som pushet PHP5 til å bli releaset før det burde ha vært (slik jeg har forstått det), men mer relevant, de lager systemer basert på PHP, og har vært en av de store kontributørene til PHP. Zend bygger sine systemer enten på PHP eller lager utviklingsverktøy til å utvikle PHP applikasjoner.

     

    Det tar 10 sekunder å søke etter Zend på Wikipedia. Hvorfor ikke bare ta et raskt søk får man sier det ene og andre man ikke har peiling på?

     

    -Ko_deZ-

  5. Snevert marked ja. Hvor mange ser du for deg at er villige til å betale 15k for noe et kort til 4k kan gjøre tilnærmet like bra (i noen tilfeller bedre til og med)? Jeg jobber et sted der Tesla, Quadro, FireGL og andre kort flyter mer eller mindre fritt (såpass fritt at en server ble utstyrt med et relativt nytt FireGL kort siden det var det dårligste kortet tilgjengelig), og kan forsikre deg om at det er svært få tilfeller der Tesla er verd prisforskjellen. Seismiske analyser er en av dem, men det er ikka akkurat en stor del av befolkningen som driver med det hjemme...

     

    Dette er forøvrig en helt annen diskusjon :p

  6. 1,4 milliarder transistorer. Skjermkortet Matrox Millennium G400, som på sin tid faktisk var et brukelig 3D kort, og et sinnsykt bra 2D kort, hadde 9 millioner transistorer. http://www.512bit.net/matrox.html

     

    Jeg kan med relativt stor sikkerhet si at den delen av skjermkortet som tar seg av selve utsignalet til skjerm ikke utgjør en vesentlig del av kretsene. Skulle jeg gjettet så ville jeg sagt at de utgjør mindre enn 0.01% av transistorene. Antagelig kan de delene av GPUen også disables så de ikke trekker strøm og genererer varme selv om det antagelig ikke ville gjordt noen reell forskjell heller.

     

    En ting er i alle fall helt sikkert, NVidia setter ikke opp en helt egen produksjon kun til bruk for Tesla. Det ville vært altfor dyrt til et så snevert marked.

  7. Jeg har sett disse tesla kortene i aksjon, og det er ingen tvil om at det er skikkelige saker nei.

    Dog kan nøyaktig samme operasjonene utføres med vanlige nvidia skjermkort.

     

    Den store forskjellen er i RAM på kortet. Det som tynger ned GPU utregninger er overføring av data til og fra skjermkortet. Jo RAM man har, dess enklere blir det å fortsette utregninger på datasett uten å måtte kopiere dem tilbake til vanlig RAM. Sett at man har to 1GB sett med data, og man må regne ut noe på det ene, så på det andre settet, for så å regne dem sammen. Har man nok RAM til begge datasettene, så så kan de bare ligge på kortet hele tiden.

     

    Tesla kortene er i praksis skjemkort med mye ram og ingen skjerm-utgang. Jobber man med mindre datasett, så vil et vanlig skjermkort gjøre nøyaktig samme nytten, til en brøkdel av prisen.

     

    Poenget mitt er at disse tesla kortene ikke raskere enn vanlige skjermkort, de har bare mer minne og ingen skjermutgang. Det er den samme prosessoren.

     

    Sjekk ytelsestallene på Tesla C1060 Computing Processor Wikipedia og sammenlign med GTX 280 Wikipedia. Der ser man at clock, stream processors, Gflops og alt annet er identisk untatt RAM. Faktisk så er RAMen raskere på skjermkortet siden det er mindre av det, og kan derfor i enkelte situasjoner være raskere enn Tesla kortet.

     

    Det nvidia gjør med disse Tesla kortene er å gjenbruke skjermkort-kjernen til å lage et uanstendig mye dyrere produkt. Fortjenesten på Tesla kortene er nødvendigvis mye høyere enn på vanlige skjermkort i og med at det er samme kjernen, og tilnærmet samme kretskortutlegg. Det er ferre komponenter på tesla kortet, men mer RAM. RAMen er klokket lavere dog, så det er ikke sikkert den er veldig mye dyrere enn 280 kortet i utgangspunktet. Prisforskjellen er dramatisk dog. Via google fant jeg Tesla til 1545.99$, og 280 kort til under 400$. Det kan umulig være sånn at RAMen på Tesla kortet utgjør stor nok pris og ytelsesforskjell til at det forsvarer en 300% prisøkning fra 280.

     

    Så for de som ønsker å leke seg med Cuda (er gratis etter hva jeg har forstått), så anbefales det å bruke 280 kort. Kanskje til og med et par-tre stykker :new_woot:

  8. Er ikke alltid nok med backup:

     

    http://en.gentoo-wiki.com/outage-10-08.html

     

    De viktigste punktene å huske med en backup er:

    1. Hold den oppdatert.

    2. Ha den dobbelt

    3. Ha den et annet sted

     

    Alle punktene er viktige, men 3 lett å glemme og er spesielt viktig. Sett at man har to backups av alle bildene på DVD, En på loftet og en i kjelleren. I tillegg alt på en stasjonær PC. All den jobben med backup blir totalt bortkastet når huset brenner ned til grunnen. Oppbevar ALLTID kopi av alle bildene hos familie/venner eller i bankboks/postboks.

  9. Bruker de fortsatt KHTML? Trodde de hadde gaatt over til forken WebKit i KDE4 jeg. :ermm:

    KHTML er kilden til webkit. Safari og Nokia sin mobil-webbrowser er begge basert på KHTML. Bugfixer fra de nevnte er backported til KHTML, på like linje med at webkit har hentet koden og fixene fra Safari. En overgang fra KHTML til webkit vil nok derfor utarte seg som svært lite spennende for brukeren. Javascript-motoren er ikke del av webkit eller khtml, og det er den som gjør at disse html parserne og rendrerne kan skilles fra hverandre.

  10. knutern, ro ned litt.

     

    Dersom Asus reklamerer med overklokking, og det hverken i Bios eller manual kommer tydelig frem, så skal dette godkjennes som RMA. Da er det per definisjon riktig bruk av hovedkortet, og Asus må ta det på sin kappe. Står det derimot i bios eller andre steder ( må være tydelig og klart ) at dette kan føre til skade på hovedkort eller andre komponenter, så kommer du ingen veg med RMA.

     

    Det viktigste poenget her er at det må være tydelig. Jeg antar at Asus på en eller annen måte gjør det klart for brukeren at dette er risky business, mest sansynlig i bios, men gjerne også i liten tekst ett eller annet sted. Liten tekst på et bortgjemt sted er ikke godt nok, stor tekst og en "I accept the risk" knapp i bios før du får lov å herje med instillinger er en helt annen sak. Forbrukerrådet tar forøvrig gjerne slike saker.

     

    -Ko_deZ-

  11. hvis man skal konkurrere med/mot Windows så bør det komme noe som er mere lik windwos en linux.

     

    greit nok med linux ( som er nærmeste konkurrent) . problemt er at det likevel er lit for langt fra windows.

     

    her er det ikke bare urensede som teller, menogså kompalitet 0.l.

    greit nok med alternative programmer ( som gjør det samme) . prblemt er at de fleste vil ha noe som gjør det samme på eksakt lik måte som Microsot programmene .

    open office er et alternativ , men det er ikke eksakt likt microsoft office og er ikke bra nok for mange

     

    så er det enkelte ting som man kan gjør på ekte Windows som ikke går an på linux.

     

    men hvem er det son har skylden for det ?

    der er ikke bare Microsoft sin skylde

     

    For all del, hvis du vil ha noe som gjør eksakt det MS programmer gjør, så må du ha MS programmer. Det ville vært mer enn uhøflig å kopiere programvare i utseende og funksjon!

    Men vent, er det ikke det MS har gjordt siden dag 1? Hva med alle andre? Selvsagt kopierer man funksjonalitet som fungerer. Og så dropper man ting som ikke fungerer, og forhåpentligvis forbedrer der man kan. Alle kopierer litt fra hverandre, og MS har kopiert _mye_ fra andre også, ikke tro noe annet.

     

    Av den grunn vil det vil _aldri_ bli likt. Derimot vil det bli gratis. Gratis som i å ikke måtte betale noe som helst, _uten_ å piratkopiere!

     

    For mine gamle foreldre så gjør det ikke noe om bold knappen er litt lenger til høyre enn i MS produktene, de har nemlig aldri satt seg inn i å bruke dem. Begynner man fra scratch, så er linux like enkelt som windows, men det er _gratis_. Gratis som i å ikke måtte betale _noe som helst_. Gratis altså! Noen har satt seg ned og laget noe som er bedre enn windows på veldig mange måter, og tar _ikke_ betalt for det. Fabelaktig. La meg gjenta. GRATIS!

     

    Og om du setter deg ned og bruker noen dager av din dyrebare tid foran dataskjermen, så tror jeg du vil innse at det faktisk er mange ting på linux som er smartere enn i windows. Faktisk er de fleste ting enklere å bruke og å lære seg. Spør min gamle mor.

     

    For all del, bruk gjerne pengene dine på MS produkter, så skal jeg la være. Så er vi begge glade, men jeg litt mindre fattig =)

     

    -Ko_deZ-

  12. Flere enn meg som har Windows ME assosiasjoner med Vista?

     

    Kanskje du bør prøve Vista før du uttaler deg ? ME var et system som kjørte DOS i bakgrunn. Det bør vel si sitt.

     

    Jeg har prøvt Vista, og ja, det gir meg ME assosoiasjoner. Nei, jeg tenker da ikke på at det ligger DOS til grunn ( som også gjelder windows 98, det relevante å sammenligne ME med om man sammeligner vista og XP ), men det faktum at Vista i praksis ikke gjør bruken av PC enklere for mine gamle foreldre. Vista er en unødvendig og i mine øyne unyttig windows versjon, på lik linje med ME. Vista har også feilet hardt på bedriftsmarkedet. Her kan tall fra MS si hva de vil, men faktum er at de aller fleste dataansvarlige i store eller mellomstore firma helst ikke vil ta i vista med ildtang. Det finnes alltig hederlige unntak, men at MS pynter på vista-salgstallene ved å selge Vista med option for å bytte til XP uten at det havner i salgsstatistikken tilsier kjempeflopp. Noe slikt har aldri blitt gjordt før.

     

    Altså, ja, Vista gir meg ME _assosiasjoner_.

     

    -Ko_deZ-

  13. Synes ikke det er rart at Gmail er i beta jeg. Alle som synes noe annet burde forsøke å bruke Gmail i Opera, Firefox, IE, konqueror, Safari, Chrome osv. Den fungerer nemlig ikke likt. Dersom man slenger inn at man bør teste Linux, BSD, MAC, Sun og andre operativsystemers versjoner av browserene, så blir forskjellen enda større.

     

    Det skjer hele tiden saker og ting på Gmail som har gjordt blandt annet Opera som jeg bruker mye mer lik oppførselen i IE og Firefox. Jeg antar at frem til de har klart å få gmail "lik", eller tilnærmet "lik", i de fleste browsere, så vil det hele være i beta. Google docs fungerer ikke i Opera engang =(

     

    Når det er sagt, så er det langt ifra dumt å bruke gmail med IE og Firefox. Det fungerer glimrende. Det samme gjelder Opera, selv om noe av funksjonaliteten kan oppføre seg litt annerledes, og kanskje se litt rart ut i forhold til slik det skulle være. Funksjonalitetsmessig dog, så er alt i orden også i Opera, og jeg tror det samme gjelder konqeror, chrome og safari også.

  14. Bygg serverpark nær boligområder. Selg varmen.

     

    Du er svært opptatt av dette skjønner jeg =)

     

    Det å selge varmen er en god ide, men bare i omtrent 1/3 av året, litt avhengig av hvor og når. Resten av året så må varmen sendes andre veier.

    Et annet problem er hvordan dette boligområdet skal kunne benytte seg av varmen. Vannbåren varme i gulv er en sabla fin løsning, men langt ifra alle har denne muligheten. Å legge opp til radiatorer rundt forbi er heller ikke hverken billig eller effektivt. Jeg tror ikke at varmen fra en serverpark i seg selv vil kunne gi høy nok temperatur til radiatorer, og da må man til med varmepumper osv. Teoretisk sett så kan man få veldig god effektivitet på varmepumper dersom man får inn en høy temperatur, og pumpen er laget for dette. Desverre så er de aller fleste vann-vann varmepumper laget for å gå på ca 4 grader, og spesiallagede varmepumper vil være svært kostbart. Varmeutviklingen fra et slikt serverrom vil også være varierende.

    Så, etter å ha spredt fjernvarme til diverse hus, installert varmepumper osv overalt, og fått utnyttet denne energien, så kommer det en revolusjonerende ny teknologi som gjør varmeutviklingen på servere til 1/10, og plutselig har vi en situasjon der en haug med husstander står uten godt nok varmeanlegg. Altså må alle ha en eller annen form for backup.

    At det kan la seg gjøre enkelte steder, ja absolutt, men jeg ville gjerne sett tall på dette før jeg gikk til det skrittet og valgte en slik løsning.

     

    Det første steget er i mine øyne å kutte energisløsningen på en økonomisk forsvarlig måte. En sabla enkel måte kan være noe så enkelt som å hente kjøling fra elver, vann, sjø eller energibrønner. En dyp energibrønn vil ganske enkelt kunne ta imot 20kW, og koster ikke mer enn rundt 100k å borre og klargjøre. Ingen behov for varmepumpe eller noe annet, bare en sirkulasjonspumpe og en radiator med vifte. I fjellhallen i Gjøvik står det en serverpark som får kjøling fra den lokale elva hele vinteren, og delvis om sommeren (slik jeg forstod det). Det er et bra initiativ.

     

    Å bygge ved sjøen er en grei løsning. Problemene med at saltvann herper alt kan kompanseres for vha varmevekslere osv. Ved å sette opp et system med flere varmevekslere slik at man kan bytte ut deler uten nedetid, samt å budsjettere med relativt hyppig bytte av "slitedeler" kan man fort se om det vil lønne seg.

     

    Det man også kanskje bør tenke på er at varme elektroniske komponenter er mindre effektive og utvikler mer varme enn komponenter som er kjølige. Dersom man klarer å holde serverrom-temperaturen på 4 grader så skulle også strømforbruket til serverne teoretisk sett bli lavere. Når man også ser på at levetiden på komponenter blir lenger ved lavere temperaturer, så ser man fort at kjøling fra vannkilder eller energibrønner med lave temperaturer kan være svært gunstig.

     

    Ko_deZ

  15. Btw kan jeg gå til krig mot google da? Eller er de fremdeles en del av et land?

     

    Det kommer an på om de ligger på landets kontinentalsokkel. Ligger de på den (med på så mener jeg over), så er de en del av landet, akkurat som Norges oljerigger er en del av Norge. Ligger de derimot i internasjonale farvann, da er de nettopp det: Internasjonale. Men de er fremdeles ikke per definisjon et eget land. Men det er fremdeles fullt mulig å gå dra en liten terroraksjon mot dem.

     

    Det blir også feil å si at du skal gå til krig, ettersom du heller ikke er et eget land. Med mindre du er statsleder da.

     

    Dersom de er 11 kilometer fra land, så er de definitivt ikke i internasjonalt farvann. Da må de være minst 12 nautiske mil, som er 22,22km, fra land. Ellers er det også riktig at de må være utenfor kontinentalsokkelen for å være in internasjonalt farvann.

     

    http://en.wikipedia.org/wiki/High_seas

     

     

    -Ko_deZ-

  16. Litt teori først.

     

    I gode gamle dager trodde man at 640k med ram var _mer_ enn nok, og mappet skjermkort-minnet og diverse over det. Dvs at om du skrev til minneaddresse 800k, så skrev du rett til skjermkortet, og det du sendte dit ble vist på skjermen.

     

    I all klokskaps navn, så fant Intel og andre ut at "dette var jaggu en god idé, la oss gjøre det igjen". Denne gangen på nøyaktig samme måte (omtrent). Intelprosessorer har forøvrig 36bit minneaddressering (ikke 32 bit), så dette skulle ikke være nødvendig, men det de gjorde var altså å si at 4. GB med minne er DMA område. Dvs at om du har 1-3GB, så går det fint, men på litt eldre chipsets så vil en eventuell 4. GB med ram også fungere fint, men du vil ikke kunne nå denne. Det er på grunn av at de minneaddressene oversettes til DMA. Hvis du skriver hit, så kan ting ende opp på skjermen, harddisk, random PCI kort, sendes på nettverkskortet, eller rett og slett herpe hardware med å kjøre syke instillinger på random steder.

     

    Løsningen på dette har vært å mappe den 4. GB med minne til å bli 5.GB. Altså, har du 4GB med minne eller mer, så brukes fortsatt den 4. til DMA osv, mens den egentlige 4. GB blir mappet til å fungere som den 5. GB med minne.

     

    Hvilke konsekvenser får dette? Jo, konsekvensen er at man må switche minnebanker. Minneadresseringen går fortsatt gjennom northbridge, og 32 bit begrenser minnehåndteringen til 4GB. Hvis man skal nå 5. GB med minne, så må man altså swappe noe greier etter hva jeg har forstått. Det er her moroa begynner, og som du har erfart, så fungerer det bra så lenge du ikke installerer enkelte drivere eller kjører med mindre enn 4GB med ram. Enkelte drivere er nemlig ikke skrevet til å håndtere denne minne-swappingen, og vil mer enn gjerne tryne PCen din ved å skrive til minneaddresser som er helt høl i hue når det har blitt foretatt en slik minneswapping. Ergo, blåskjerm og grundig tryning.

     

    Jeg var under den oppfatning at vanlig software ikke ville ha disse problemene, bare drivere, men det er mulig at det kan skje tullball der også.

     

    La meg påpeke at dette er noe jeg skriver ut ifra hukommelsen. Jeg leste om dette da jeg ville oppgradere laptopen min til 4GB ram uten at det stod at den støttet det. Etter litt lesing innså jeg at det var bortkastet med den 4. GB med minne, så jeg kjøpte 1x1GB og 1x2GB, og fikk i alle fall 3 GB minne.

     

    Hvis det jeg har skrevet her ikke bare er bulls*** (jeg har jo bare leste dette en gang selv), så kan det forklare alle problemene du har hatt, og løsningene du har funnet. I tillegg så låter det faktisk ganske sansynlig må jeg si, og mer så etter å ha lest gjennom hva som har skjedd i din situasjon her og hvilke løsninger du har funnet.

     

    Forresten så er det gjerne sånn at chipsettet remapper 4.GB til å bli 5.GB, og ikke CPU. Jeg mener jeg leste at dersom du kjører 8GB på et chipset som ikke støtter remapping, så vil du kunne bruke 7GB av dem, men den 4.GB med minne vil brukes til DMA som vanlig. Med andre ord så kan en god del folk faktisk bruke langt mer enn de 2 GB som står spesifisert, de har bare valgt å spesifisere 2GB slik at de slipper en haug med sinte support-telefoner for å forklare hvorfor det "mangler" en GB med minne.

     

    -Morgan-

  17. Med mindre jeg tar helt feil, så har det såkalte internet2 ingenting med dette å gjøre. Er ikke det et slags "internnett" mellom amerikanske forsknings og utdanningsinstitusjoner?

     

    De konklusjonene som kommer frem her er ganske "selfølgelige" egentlig. Hvis en person klarer å få en DNS til å tro at www.vg.no skal gå til ip xxx.xxx.xxx.xxx og ikke 193.69.165.21 (som er vg sin server-ip), og lager en tilnærmet eksakt kopi av den siden, så vil det være bortimot umulig for brukere å kjenne igjen.

     

    Dersom personen både herper DNS lookup table på en DNS server og setter inn en annen IP for en sertifikat-utsteder, og samtidig sender en nettbank som bruker disse sertifikatene til en annen IP, så vil et "man in the middle" angrep være gjennomførbart uten særlig store problemer.

     

    Selvsagt kan man route ftp.uninett.no og rtsp.video.server.com til andre adresser også. Alt som ikke er IP i browseren eller andre programmer oversettes jo av DNS servere. Sluttbrukeren vil ikke på noen måte vite at noe er galt med mindre han kjenner den egentlige IP addressen, og sjekker om den samsvarer med det han får fra DNS. Dersom den som gjør ugjerningen ikke er proff nok kan det jo bli veldig enkelt å oppdage feilen også såklart. Den største risikoen er kanskje at noen overstyrer adressene til f.eks ad-servere, slik at man får porno-reklame og trojanere på VG i steden for det vanlige skvipet. Det kan fort bli mye mer møkk på folks maskiner når vanlige og "trygge" websider utmerket godt kan inneholde hva som helst.

  18. NRKbeta.no sitt "mantra" er følgende:

     

    The only way to control your content is to be the best provider of it.

     

    Hvis man må gjennom tungvind registrering osv. for å laste ned noe gratis, og websidene i tillegg renner som tjære gjennom weben, så er det en stor selvfølge at folk ikke er interessert i å benytte seg av tilbudet. NRKbeta kunne ikke hatt mer rett, og det blir mer og mer aktuelt.

     

    -Morgan-

×
×
  • Opprett ny...