![](http://parsviva.parsaspace.com/parsviva-post-image/wget.jpg)
همه ما در ويندوز بانرمافزارهاي دريافت وبسايت كار كردهايم، دستكم اسمWebZip ياWebsiteDownloader بهگوشمان خورده است و كمابيش با كارشان آشنايي داريم.اما براي دريافت كامل يك وبسايت در لينوكس چطور ميتوان اين كار را كرد؟
براي دريافت كامل يك وبسايت، بهمنظور مشاهده آفلاين يا هر چيز ديگري، با كمك wget ميتوان كار را پيش برد، اين دستور را ببينيد:
wget $
ُ-recursive-
--no-clobber
--page-requisites
--html-extension
--convert-links
--restrict-file-names=windows
--domains website.org
--no-parent
www.website.org/tutorials/html/
اين دستور وبسايت زير را به طور كامل دانلود ميكند.
www.website.org/tutorials/html/
انتخابهايي (Option) كه در اين دستور استفاده كرديم، بدين شرح است:
recursive -- : تمام وبسايت را دانلود كن.
domains website.org-- : لينكهاي خارج از دومين website.org را دنبال نكن.
page-requisites --: تمام عناصر موجود در صفحه را دريافت كن (تصاوير، css و از اين دست چيزها).
html-extension --: فايل را با پسوند .html ذخيره كن.
convert-links--:لينكها را طوري تبديل كن كه بشود بهطور آفلاين ازشان استفاده كرد.
restrict-file-names=windows --: اسم فايلها را طوري عوض كن كه در ويندوز هم كار كنند.
no-clobber--:هيچ فايلي را بازنويسي نكن (در مواردي بهكار ميرود كه دانلود قطع شده باشد و بخواهد مجدداً از سر گرفته شود).
no-parent --: يعني مسيرهاي بالاتر از/tutorials/html را باز نكن.