Gå til innhold

Hvordan laste ned en hel webside?


Anbefalte innlegg

Skrevet

Hei!

 

Jeg har laget en rss-klient og tenkte å få den til å laste ned websidene når maskinen er idle og bandbredden ikke er i bruk. Det ser ikke ut til at det finnes en enkel måte å gjøre dette på. Må jeg laste ned htmldokumentet og gå igjennom dette for å finne linkene og laste de ned? Finnes det en enklere måte?

Videoannonse
Annonse
Skrevet

Dette blir ekstremt avansert om du skal laste ned;

* bilder

* CSS som inneholder linker til andre css filer, bilder, etc

* iframes

* javascript

* etc

 

En mulighet er å bruke WebBrowser kontrollen. Kanskje den har noe funksjonalitet for å .Save()'e hele siden?

Skrevet

Ja det ble ikke så lett det her..

 

fant ut at jeg kunne bruker webbrowser.execwb OLECMDID_SAVEAS for å lagre hele siden som mht (web arkiv), da får jeg med det meste. En side tar faktisk 600 KB.. begynner å skjønne hvorfor firefox sluker minne :) En annen ting er at det virker som webbrowsern alikevel vil hente ting på nettet. Prøvde å kutte nettforbindelsen for da å se hvordan siden ble seende ut og da var det endel bilder som ikke var der. Fungerte fint i IE når jeg satte den i offline modus. Ser ikke ut som man kan stille inn offlinemodus i webbrowserkontrollen. Får forske litt videre på dette. Takk for hjelpen :)

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...