Wil je een online website gewoon offline kunnen bekijken? Een website downloaden dus?
HTTrack
Het compleet downloaden van een website kan met de opensource tool HTTrack Website Copier. Het principe is eenvoudig, je hebt een website op het internet ergens en deze wil je volledig downloaden naar jouw computer. Waarom? Misschien wil je de website demonstreren op een lokatie waar geen internet verbinding is? Misschien wil je een backup maken van de website omdat de site vervangen zal gaan worden? Misschien wil je van een dynamische dot Net of PHP met MySQL website een platte HTML website maken? Hoe dan ook, een tool die de website online kan omzetten naar lokale HTML bestanden met CSS en JS verwijzingen. De gratis tool heet HTTrack.
HTTrack is er in 2 smaken, eentje voor Windows 2000/XP/Vista/Seven gebruikers en eentje voor Linux/Unix/BSD. Die van windows heet officieel eigenlijk WinHTTrack en de Linux versie heet WebHTTrack. De versie die je hieronder kunt downloaden betreft de windows versie.
De tool scant de website die je opgeeft en converteert alle pagina’s naar HTML pagina’s. Bij het scannen volgt de opensource tool alle interne links en kan zodoende alle pagina’s ophalen. Je kunt echter ook opgeven dat de tool maar 1 of 2 niveau’s diep mag gaan. Maar daarnaast biedt de tool nog veel meer opties zoals doorgaan met downloaden na afbreken download, filter op bestandstype (bijvoorbeeld geen PDF documenten downloaden die gelinkt worden), een timeout instellen voor zeer trage sites, ook sites downloaden die achter een logincode zitten, ondersteuning voor IPv6 en https, en meer. HT Track is ook beschikbaar in het nederlands.
Download hieronder versie 3.43-9D van deze website scraper / site downloader. Dit betreft de windows install versie (er is ook een portal versie).