Gå til innhold

[Løst]Hente ned alle dokumenter ifra en server, på en gang.


badmuslim

Anbefalte innlegg

Skrevet

Har noen en ide til hvordan jeg kan få alt innhold ifra en nettadresse, lastet ned automatisk? La oss si det ligger 50 bilder på samme nettadresse, og jeg ikke ønsker å klikke meg inn på alle sammen..

 

Beklager viss feil post

Videoannonse
Annonse
Skrevet

Ok, nå har jeg testet den. Men de filene jeg vil ha er ikke indeksert eller linket til. De ligger bare med påfølgende nummer. Det er bare en lagringsplass for dokumenter som hentes inn i andre websider og lignende.

 

muligheter?

Skrevet

Mener du at de ligger sånn domain.com/bilde001.jpg domain.com/bilde002.jpg? Vet ikke helt om jeg skjønner, kanskje du kan si linken eller et eksempel.

Skrevet

Ok... det jeg hadde gjort var å kjørt et script som genererer urlene... altså alle IDene... også ville jeg lagret linkene i en fil. F.eks slik:

http://www.domain.com/gem/servlet/getGemObject?id=1

http://www.domain.com/gem/servlet/getGemObject?id=2

http://www.domain.com/gem/servlet/getGemObject?id=3

http://www.domain.com/gem/servlet/getGemObject?id=4

 

så åpnet denne fila i HTTrack Website Copier som vil laste ned fra alle linkene... Er sånn jeg har pleid å gjøre det i hvertfall... men kan jo hende det finnes noen programmer som gjør alt i ett.

Skrevet (endret)

Med wget og bash (standard på *nix, kan bruke cygwin på windows) er dette trivielt:

wget http://www.domain.com/gem/servlet/getGemObject?id={1..99}

Vil laste ned sidene med url ...?id=1 til og med ...?id=99.

Endret av jonnor

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...