Stop guessing what′s working and start seeing it for yourself.
Anmelden oder registrieren
Q&A
Question Center →

Semalt Hints: Hoe webpagina's te schrapen

De kans is groot dat u in een vergelijkbare situatie bent beland waarin u moet wachten voor sommige afbeeldingen of bestanden die van een website moeten worden gedownload en het duurt te lang. De meerderheid van ons raakt geïrriteerd door dergelijke vertragingen. Dus u vraagt, is het mogelijk om een hele webpagina te downloaden en deze lokaal op te slaan voor directe toegang? Nou ja, het is mogelijk met de downloader van de Surfoffline-website. Wat nog beter is, is dat u volledige toegang heeft tot alle stukjes inhoud van de website. Daarom kunt u dergelijke bestanden elders exporteren door alleen maar te kopiëren en plakken.

Wat doet het?

Deze tool werkt gedeeltelijk als een browser omdat deze via een internetverbinding toegang heeft tot internet om de door u gewenste inhoud te verkrijgen. De gebruiker is dan vrij om te selecteren welke websites moeten worden gedownload en welk type inhoud in elk daarvan moet worden gedownload. Wat nog belangrijker is, is dat het programma tegelijkertijd tot 100 bestanden kan downloaden. Als dat niet genoeg is, kunt u een project maken waarmee u de download kunt plannen voor maximaal 400000 bestanden.

Ondersteunde internettechnologieën

Vanwege de vele beschikbare webgerelateerde technologie en programmeertalen, is het bijna onmogelijk om één enkele methode te gebruiken om alle webpagina's te oogsten. Ook dit springt over door verschillende technologieën te integreren die in staat zullen zijn om om te gaan met verschillende webformaten van HTTP naar FTP internetprotocollen. Het maakt het ook mogelijk om websites te downloaden via het beveiligde protocol HTTPS en om verbindingen via proxyservers te ondersteunen.

Voor het geval u op een website werkt waarvoor HTTP of FTP-authenticatie, u hoeft zich geen zorgen te maken want het programma ondersteunt deze ook. Het is belangrijk om te weten dat JavaScript, Macromedia Flash evenals CSS en CSS2 parsing ook wordt ondersteund.

Waarom Surfoffline-website-downloader?

Het programma wordt geleverd met een ingebouwde browser, waarmee u een voorbeeld van de site kunt bekijken waarop u wilt werken en waarmee u snel de verschillende soorten bestanden kunt identificeren die u wilt downloaden voor het geval u niet wilt downloaden de hele site.

Met de mogelijkheid om de ripper van de website te gebruiken, kunt u inhoud filteren volgens uw behoeften en opgeven of u ook wilt downloaden van gelinkte sites.

Met de ingebouwde webserver kunt u gedownloade bestanden en webpagina's delen met andere computers en op afstand werken, omdat u eenvoudig toegang hebt tot de gegevens van een andere computer.

Het zou een nogal nutteloze taak zijn om webpagina's alleen online te downloaden om ongeorganiseerde inhoud te krijgen. Dit is de reden waarom de Surfoffline-website-downloader een wizard voor het exporteren van bestanden bevat. Hiermee kunt u de exacte locatie opgeven waar de gedownloade bestanden lokaal worden opgeslagen. De tool gaat een stap verder en bereidt de gegevens voor op schrijven op verwijderbare media.

Als u geïnteresseerd bent in het maken van CHM-bestanden (Microsoft Help-indeling), exporteert de tool automatisch hele sites met hun gedownloade gegevens in één CHM-bestand dat gemakkelijk kan worden gedistribueerd. Dit kan ook worden gedaan als u MHT-bestanden nodig heeft die handiger zijn voor kleine webpagina's.

View more on these topics

Post a comment

Post Your Comment

Skype

semaltcompany

WhatsApp

16468937756

Telegram

Semaltsupport