Jūs pageidaujate ne tik straipsnio ar individualaus vaizdovisa Interneto svetainė. Kuo paprasčiausias būdas tai viskas sifonuoti?
Šiandieninė klausimų ir atsakymų sesija pateikiama su "SuperUser" - "Stack Exchange", bendruomenės valdoma Q & A grupių asociacija.
Vaizdas yra "GoodFon" tapetai.
Klausimas
SuperUser skaitytojas Joe turi paprastą užklausą:
How can I download all pages from a website?
Any platform is fine.
Kiekvienas puslapis nėra išimtis. Joe yra misijoje.
Atsakymas
"SuperUser" autorius Axxmasterr siūlo paraiškos rekomendaciją:
https://www.httrack.com/
HTTRACK works like a champ for copying the contents of an entire site. This tool can even grab the pieces needed to make a website with active code content work offline. I am amazed at the stuff it can replicate offline.
This program will do all you require of it.
Happy hunting!
Mes galime nuoširdžiai rekomenduoti HTTRACK. Tai brandi programa, kuria atliekamas darbas. Ką apie archyvus ne "Windows" platformose? Dar vienas autorius, Jonik, siūlo kitą subrendusią ir galingą priemonę:
Wget is a classic command-line tool for this kind of task. It comes with most Unix/Linux systems, and you can get it for Windows too (newer 1.13.4 available here).
You’d do something like:
wget -r --no-parent https://site.com/songs/
Norėdami sužinoti daugiau, žr. Wget vadovą ir jo pavyzdžius arba pažiūrėkite į šiuos dalykus:
- https://linuxreviews.org/quicktips/wget/
- https://www.krazyworks.com/?p=591
Ar turite ką nors įtraukti į paaiškinimą? Garsas išjungtas komentaruose. Norite skaityti daugiau atsakymų iš kitų "Tech-savvy Stack Exchange" vartotojų? Patikrinkite visą diskusijų temą čia.