Gå til innhold

Preben01

Medlemmer
  • Innlegg

    27
  • Ble med

  • Besøkte siden sist

Innlegg skrevet av Preben01

  1. Hvis jeg har tolket dokumentasjonen til mysql riktig, så vil FULL TEXT indeksering av TEXT kun indeksere ord (A-Z). Jeg trenger å tvinge den til å reindexere hele tabellen, og inkludere < og > .... slik at jeg kan søke etter <img f.eks.

     

    Jeg trodde FULL TEXT indekserte alt i utf8, hvis dette stemmer bør jo alle disse:

    http://www.tony-franks.co.uk/UTF-8.htm

     

    være søkbar.

     

    Det jeg ønsker å oppnå er noe ala;

    select * from tabell where MATCH() AGAINST ('<img');

     

    Mulig?? Kan jeg indexere på andre måter, og få til det samme kanskje?

  2. Jeg så nettopp escala på youtube:

     

    Og kombinasjonen klassisk musikk med trommer tok jo helt av.

    Er det noen som aner hvor jeg kan finne mer slik musikk?

    Prøvd filmmusikk men blir for rotete.

     

    Stykket de spiller heter Palladio. Som de har lagt trommer på.

    For de som har spotify er :

     

    http://open.spotify.com/track/4pwtNy6zThCUAC2q1qEu9v

     

    en miks som jeg liker meget godt!

     

     

    Vet dere om mer slik musikk?

    - prebs

  3. Vanlig A-sertifikat krever ikke allverdens mattekunnskaper! Ikke mye direkte matematikk der (i hvert fall ikke da jeg tok lappen i 1989...).

    De mest omfattende fagene er vel navigasjon, meteorologi og lover og bestemmelser. Det er dog meget overkommelig!

    Sjekk disse sidene for mer informasjon.

    Lykke til!!

    :cool:

     

    Tusen takk for tilbakemelding. Meget bra forum på den siden som besvarte en del andre spørsmål. Takk!

  4. Hei,

     

    Vurdere sterkt å ta PPL-A, småfly sertifikat med en kollega.

    Men er litt spent på hvor mye matte som er involvert. Er det noen som har et godt svar på det?

    Og hva i pensum til PPL-A som var de største kneikene å overkomme/forstå ?

     

    -preben

  5. Her er koden jeg bruker for å sette en klient cookie:

     

    use CGI;
    $query = new CGI;
    $cookie = $query->cookie(-name=>'MY_COOKIE',
    		 -value=>'BEST_COOKIE=chocolatechip',
    		 -expires=>'+4h',
    		 -path=>'/');
    print $query->header(-cookie=>$cookie);

     

    Men den printer bare ut på siden:

    Set-Cookie: MY_COOKIE=BEST_COOKIE%3Dchocolatechip; path=/; expires=Mon, 
    25-Feb-2008 06:49:03 GMT Date: Mon, 25 Feb 2008 02:49:03 GMT Content-Type: text/html;
    charset=ISO-8859-1

     

    Hvorfor det? Skal den ikke legge det i headeren, og kjøre requestet?

    Jeg har prøvd mye forskjellig kode for å sette en cookie, og jeg får det bare ikke til.

     

    Noen som har prøvd? Virker det hos dere?

  6. Jeg har planer om og lage et lite system for og administere apache fra en webside.

    Det er jo egentlig ikke store problemet da jeg bare trenger å lese og skrive til config filene til Apache. Men det som er litt vrient: Apache'n som skal administreres kjører på ekstrern server. Så hvordan koble til den eksterne servern, lese og skrive til en fil, samt restarte apache ?

     

    Planen er også og lage en funksjon for å legge til/slette brukere i mysql. Noen tips her ?

    Du har kanskje lyst å sjekke ut webmin for dette prosjektet ditt også. Den gjør nettopp det å administrere apache sine konfig filer, men også såå mye mer smile.gif

  7.  

    Tillater den kun nye ikke-eksisterende hasher å bli lagt inn da? og failer om den har duplikat ?

    Forstår jeg deg riktig da?

     

    1) Hvor stor fysisk dataplass tar databasen?

    2) Har du indekser? #2 er inne på noe.

    3) Hvor sterk er serveren det ligger på

    4) Er det flere servere?

     

     

    1. 1 gig

    2. Ja har indexer på hash som er hva jeg spør etter i queryen.

    3. En grei maskin en 2ghz med 1gig minne. Det er kun dev. boks, og prod vil bli raskere

    4. Nei, det er kun 1 maskin. Men jeg har vært innom tanken og kanskje spre importen over flere bokser..

     

    Takk for svar :)

     

    Løste det med å sette hash som primary key, derfor failer queryen når den har duplikater (så handler jeg erroren i perl). Og så sourcet jeg inn filer. Og da gikk ting 1/100 av tiden . :)

    Sikkert ikke beste måte å gjøre det på , men det er superraskt og funker.

  8. Sett hash-kolonnen din UNIQUE. Dette gjøres ved hjelp av ALTER TABLE. http://dev.mysql.com/doc/refman/5.0/en/alter-table.html

     

    Tillater den kun nye ikke-eksisterende hasher å bli lagt inn da? og failer om den har duplikat ?

    Forstår jeg deg riktig da?

     

    1) Hvor stor fysisk dataplass tar databasen?

    2) Har du indekser? #2 er inne på noe.

    3) Hvor sterk er serveren det ligger på

    4) Er det flere servere?

     

     

    1. 1 gig

    2. Ja har indexer på hash som er hva jeg spør etter i queryen.

    3. En grei maskin en 2ghz med 1gig minne. Det er kun dev. boks, og prod vil bli raskere

    4. Nei, det er kun 1 maskin. Men jeg har vært innom tanken og kanskje spre importen over flere bokser..

     

    Takk for svar :)

  9. Hei,

     

    jeg har testet både LWP, LWP::Simple og WWW::Mechanize for å prøve å få fatt i cookien som en webside gir meg.

    Men det ser ut som den kun skriver den aller siste cookien til fil, og ikke alt. Har prøvd med > og >> uten hell.

     

    Hvis jeg går inn via firefox, og bruker cookie editor så er det en rekke flere cookier der enn hva perl klarer å produsere. Og jeg vet den setter X antall cookies når requestet jeg kjører blir kjørt.

     

    Er følgende mulig?

     

    --

     

    my $mech = WWW::Mechanize->new(

    cookie_jar => {}

    );

     

    my $url = "http://www.webpage.com";

    my $response = $mech->get( $url );

     

    Jeg finner ikke ut hvordan jeg skal printe cookiene fra Mechanize sitt cookie jar...

  10. Jeg har en database som øker med omlag 1 000 000 records hver dag, i en tabell. Alle radene har en hash som baserer seg på innholdet, som også gjør at jeg ikke legge inn samme data to ganger.

     

    Nå er databasen 25 millioner rader, og preformance messig merker du at ting skjer.

    Siden jeg bruker hash verdien før jeg legger inn data, så har jeg indexert denne raden.

    Men det går treigt , og tar meg ca 50 minutter for å importere 300.000 records.

     

     

    Ok, så hva er problemet? Vel, importeringen av data tar for lang tid. Jeg vet det er store datamengder, men hva er den RASKESTE måten å importere 2-300.000 linjer med data inn i en mysql base, samtidig som jeg sjekker uniknessen?

     

    Jeg luker vekk en del duplikater allerede på perlnivå ved å bruke en perl-hash, men det som tar tid er den kontinuerlige kryssjekken med mysql om dataen ligger der fra før.

     

    Gangen i det hele er..

     

    <perl>kjære mysql, har du data XYZ (sha1 hash verdi)?

    <mysql>tenke ... hmm.. tenke....

    <mysql>nei ..

    <perl> ah oki.. da legger jeg inn denne ene raden ....

     

    <perl> 1 down, 299.999 to go ...

     

    Det må da finnes en bedre måte? Hvor du får lagt inn store mengder data, men samtidig sjekker at det ikke legges inn data som er der ifra før.

     

    Håper noen mysql guruer der ut kan hjelpe meg litt her...

     

    Thanks ;)

  11. Hei,

     

    Jeg har satt opp en CRON jobb i ubuntu LAMP som kjører en gang i timen. Den kjører da et perl script som gjør en massiv importeringsjobb som kan ta alt ifra 20 til 50 minutter.

     

    Spørsmålet mitt er egentlig om CRON er smart nok til å "merke" at en jobb den satt igang en time tidligere fremdeles kjører og ikke executer ny importeringsrunde før den første er ferdig? Det er ikke noe problem for meg å lage logikk i perl scriptet for dette ... men hadde vært interessant å visst.

     

    Thanks

  12. Er det noen som aner hvordan man kan printe en count() statement i perl?

     

    $sth = $dbh->prepare("select count(id) from tabellnavn");
    $sth->execute();
    $result = $sth->fetchrow_hashref();
    print $result->{count(id)}   # <--- det funker ikke ....
    

     

    resultatet av spørringen ser slik ut:

     

    +-----------+

    | count(id) |

    +-----------+

    | 1391210 |

    +-----------+

     

    Hvordan får jeg det inn til en scalar? Any idea?

     

    Thanks,

    Prebs

  13. www katalogen er vel rot i web-området ditt, slik at startside vil være:

    http://www.dittdomene.com/index.hml

     

    For å bruke script i cgi-bin, trenger du bare å legge på denne katalogen i stien:

    http://www.dittdomene.com/cgi-bin/myscript.cgi

     

    Husk å chmod'e script til 755 før du prøver å kjøre de via browser.

     

     

    og ...

     

    #!/usr/bin/perl

    print "Content-type: text/html\n\n";

     

    i toppen av fila

  14. En ting som ikke er nevnt, som oftest er viktigst - er applikasjonssikkerheten. Det nytter ikke med SSL eller annen teknologi så lenge applikasjonen er skrevet med sikkerhetshull. OS er også uten betydning når applikasjonslaget svikter. Sårbarheter som SQL-injection (ref. tidligere innbrudd på hw), XSS, XXE, CRLF-injection, C null-bye injection, shell command injection, feil i input validering mm, vil ofte kunne føre til at en angriper kan overta hele applikasjonen, serveren og bedriftens nettverk.

     

    Når det gjelder hashing, så er utvilsomt salting en god rutine!!

    En hashet MD5 verdi av passordet "test", vil kunne ha samme verdi på flere brukere. Derfor er en unik identifikator brukt for å generere to ulike hash verdier fra samme passord. Da er det plutselig ikke så enkelt å gjøre brute force angrep.

     

    Husk at SSL kan i noen tilfeller gjøre applikasjonsangrep usynelige. Og at brannmurer som oftest ikke har mulighet å se, eller gjøre noe med slike applikasjonsangrep. (Dog, noen har kommet med slik teknologi)

     

    Og en generell regel for web-sikkerhet må være at validering av input (f.eks tekst en bruker kan legge inn) bør gjøres på serverside. En rekke applikasjoner gjør validering med javascript, og dette er lett å manipulere. Mangel på input-validering er oftest grunn nok til at angripere klarer å overta en web-applikasjon.

     

    Eksempelet under er kodet i ASP, men nøyaktig samme gjelder for php og andre språk;

     

    Tenk følgende kode:

     

    <%
    
    dim epost
    epost = request.querystring("epost")
    
    %>

     

     

    Denne vil hente variabelen "[email protected]" fra url feltet.

    Her skjer det ingen validering av input, og er derfor lett å angripe.

    Og denne lille kodesnutten er nok til at mange av angrepsklassene over er mulige.

     

    Så pass på at utvikleren validere input, kan IT-sikkerhet (litt i allefall), og spør om applikasjonen har blitt testet for sikkerhetshull. Evnt. la sikkerhetsselskaper teste løsningen for deg.

  15. Det ser ut som den overtar DNS'en på den lokale maskinen.

    Og bruker IP'ene;

    NameServer = 85.255.115.XX,85.255.112.1XX

     

    Førstnevnte er fra " Kharkiv, Kharkivs'Ka Oblast'" i Ukraina

    Nederste er fra " Foster City, California"

     

    Det er liten sjangse for at han ønsker å bruke deres DNS, så det er godt mulig at den er hijacket. Så alt han surfer på går via deres DNS. Dette betyr at når han går inn på f.eks. www.ebay.com, og spør da DNS'ene over så vil han kunne bli sendt til en fake ebay side, uten å kunne detektere det.

     

    Jeg kjenner personlig ikke til denne registry-nøkkelen, men slik som jeg ser det - er det godt mulig at det er nettopp dette den er brukt til.

     

    Lignende virus/ormer som gjør dette bruker ofte å legge inn ting i hosts filen også, som en backup.

     

    Du kan sjekke:

    c:\windows\system32\drivers\etc\hosts

     

    Hvis du prøver å åpne denne i notepad, kan du se om det er gjort noen oppføringer der.

×
×
  • Opprett ny...