Alexen Skrevet 22. november 2007 Skrevet 22. november 2007 Hei! Jeg har laget en rss-klient og tenkte å få den til å laste ned websidene når maskinen er idle og bandbredden ikke er i bruk. Det ser ikke ut til at det finnes en enkel måte å gjøre dette på. Må jeg laste ned htmldokumentet og gå igjennom dette for å finne linkene og laste de ned? Finnes det en enklere måte?
Alexen Skrevet 22. november 2007 Forfatter Skrevet 22. november 2007 Den bruker jeg for å hente html-koden, men jeg finner lissom ingen downloadentirewebpagewithimagesandotherflashyshit-metode
j000rn Skrevet 22. november 2007 Skrevet 22. november 2007 Dette blir ekstremt avansert om du skal laste ned; * bilder * CSS som inneholder linker til andre css filer, bilder, etc * iframes * javascript * etc En mulighet er å bruke WebBrowser kontrollen. Kanskje den har noe funksjonalitet for å .Save()'e hele siden?
Alexen Skrevet 23. november 2007 Forfatter Skrevet 23. november 2007 Ja det ble ikke så lett det her.. fant ut at jeg kunne bruker webbrowser.execwb OLECMDID_SAVEAS for å lagre hele siden som mht (web arkiv), da får jeg med det meste. En side tar faktisk 600 KB.. begynner å skjønne hvorfor firefox sluker minne En annen ting er at det virker som webbrowsern alikevel vil hente ting på nettet. Prøvde å kutte nettforbindelsen for da å se hvordan siden ble seende ut og da var det endel bilder som ikke var der. Fungerte fint i IE når jeg satte den i offline modus. Ser ikke ut som man kan stille inn offlinemodus i webbrowserkontrollen. Får forske litt videre på dette. Takk for hjelpen
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå