loading...
بهترین اس ام اس
بهنام علیپور بازدید : 84 یکشنبه 16 آبان 1389 نظرات (0)



همه ما در ويندوز بانرم‌افزارهاي دريافت وب‌سايت كار كرده‌ايم، دست‌كم اسمWebZip ياWebsiteDownloader به‌گوشمان خورده است و كمابيش با كارشان آشنايي داريم.اما براي دريافت كامل يك وب‌سايت در لينوكس چطور مي‌توان اين كار را كرد؟
براي دريافت كامل يك وب‌سايت، به‌منظور مشاهده آفلاين يا هر چيز ديگري، با كمك wget مي‌توان كار را پيش برد، اين دستور را ببينيد:

‌wget $

ُ-recursive-

 --no-clobber 

   --page-requisites 

    --html-extension 

  --convert-links  

    --restrict-file-names=windows 

     --domains website.org 

   --no-parent 

       
www.website.org/tutorials/html/ 

اين دستور وب‌سايت زير را به طور كامل دانلود مي‌كند.

www.website.org/tutorials/html/

انتخاب‌هايي (Option) كه در اين دستور استفاده كرديم، بدين شرح است:

recursive -- : تمام وب‌سايت را دانلود كن.

domains website.org-- : لينك‌هاي خارج از دومين website.org  را دنبال نكن.

 page-requisites --: تمام عناصر موجود در صفحه را دريافت كن (تصاوير، css و از اين دست چيزها).

html-extension --: فايل را با پسوند .html ذخيره كن.

 convert-links--:لينك‌ها را طوري تبديل كن كه بشود به‌طور آفلاين ازشان استفاده كرد.

restrict-file-names=windows --: اسم فايل‌ها را طوري عوض كن كه در ويندوز هم كار كنند.

 no-clobber--:هيچ فايلي را بازنويسي نكن (در مواردي به‌كار مي‌رود كه دانلود قطع شده باشد و بخواهد مجدداً از سر گرفته شود).

 no-parent --: يعني مسيرهاي بالاتر از/tutorials/html  را باز نكن.



ارسال نظر برای این مطلب

کد امنیتی رفرش
اطلاعات کاربری
  • فراموشی رمز عبور؟
  • آرشیو
    آمار سایت
  • کل مطالب : 517
  • کل نظرات : 0
  • افراد آنلاین : 7
  • تعداد اعضا : 0
  • آی پی امروز : 30
  • آی پی دیروز : 168
  • بازدید امروز : 52
  • باردید دیروز : 300
  • گوگل امروز : 0
  • گوگل دیروز : 0
  • بازدید هفته : 52
  • بازدید ماه : 52
  • بازدید سال : 4,498
  • بازدید کلی : 43,621