डब्ल्यूजीटी उपयोगिता तुम्हाला लिनक्स कमांड लाइनच्या सहाय्याने वेब पेजेस, फाईल्स व वेबसाईट्स डाऊनलोड करण्याची परवानगी देते.
आपण साइटवरून डाउनलोड करण्यासाठी स्वतः एक एकल wget कमांड वापरू शकता किंवा अनेक साइट्सवर एकाधिक फायली डाउनलोड करण्यासाठी इनपुट फाइल सेट करू शकता.
मॅन्युअल पृष्ठाच्या अनुसार wget वापरला जाऊ शकतो अगदी जेव्हा वापरकर्त्याने सिस्टीममधून लॉग आउट केले असते. हे करण्यासाठी आपण nohup कमांड वापरु.
डब्ल्यूजीटी युटिलिटी जोडणी थांबे असतानाही डाउनलोड करण्याचा पुन्हा प्रयत्न करेल, जेव्हा जोडणी रिटर्न होईल तेव्हा शक्यतो तेथून बाहेर पडेल.
आपण संपूर्ण वेब साइट wget वापरुन डाउनलोड करू शकता आणि स्थानिक स्रोतांकडे निर्देशित करण्यासाठी दुवे रूपांतरित करू शकता जेणेकरून आपण वेबसाइट ऑफलाइन पाहू शकता.
खालील प्रमाणे wget ची वैशिष्ट्ये आहेत:
- HTTP, HTTPS आणि FTP वापरून फायली डाउनलोड करा
- डाउनलोड पुन्हा सुरू करा
- डाउनलोड केलेल्या वेब पृष्ठांमध्ये सापेक्ष केलेल्या URL मध्ये निरपेक्ष दुवे रुपांतरित करा जेणेकरून वेबसाइट ऑफलाइन दिसू शकतील
- HTTP प्रॉक्सी आणि कुकीज समर्थन
- सतत HTTP कनेक्शन समर्थन
- आपण लॉग इन नसतानाही पार्श्वभूमीत चालवणे शक्य आहे
- लिनक्स व विंडोज वर काम करते
Wget वापरणे वेबसाइट डाउनलोड कसे
या मार्गदर्शकासाठी, मी तुम्हाला माझे वैयक्तिक ब्लॉग कसे डाउनलोड करावे ते दर्शवेल.
wget www.everydaylinuxuser.com
Mkdir कमांडद्वारे आपल्या मशीनवर आपले स्वत: चे फोल्ड तयार करणे योग्य आहे आणि नंतर cd कमांडचा वापर करून फोल्डरमध्ये पुढे जाणे योग्य आहे.
उदाहरणार्थ:
mkdir रोजिलिनक्शुझर
सीडी
wget www.everydaylinuxuser.com
परिणाम एकच index.html फाईल आहे. त्याच्या स्वत: च्या वर, ही फाईल बर्याचदा निरुपयोगी आहे कारण सामग्री अद्याप Google वरून काढली जाते आणि प्रतिमा आणि स्टाईलशीट अद्यापही Google वरच आहेत
पूर्ण साइट आणि सर्व पृष्ठे डाउनलोड करण्यासाठी आपण खालील कमांड वापरू शकता:
wget -r www.everydaylinuxuser.com
हे पेजेस मोठ्या प्रमाणात 5 स्तरांपर्यंत पोहोचते.
5 पातळी खोल साइटवरून सर्वकाही मिळविण्यासाठी पुरेसे होऊ शकते. खालील प्रमाणे आपण स्तरांवर जाण्याची इच्छा निश्चित करण्यासाठी -l स्विचचा वापर करू शकता:
wget -r -l10 www.everydaylinuxuser.com
आपण असीम पुनरावृत्ती इच्छित असल्यास आपण खालील वापरू शकता:
wget -r -l inf www.everydaylinuxuser.com
आपण 0 सह inf देखील बदलू शकता ज्याचा अर्थ समानच आहे.
आणखी एक समस्या आहे आपण सर्व पृष्ठे लोकल मिळवू शकता परंतु पृष्ठांमधील सर्व दुवे अजूनही त्यांच्या मूळ ठिकाणावर निर्देश करतात. पृष्ठांवर दुव्यां दरम्यान स्थानिक पातळीवर क्लिक करणे शक्य नाही.
आपण -k स्विच वापरून या समस्येचे भान येऊ शकता जे पृष्ठांवरील सर्व दुवे त्यांचे स्थानिकरित्या डाऊनलोड केलेल्या समांतर निर्देशाप्रमाणे दर्शवते:
wget -r -k www.everydaylinuxuser.com
जर आपण एखाद्या वेबसाइटचे संपूर्ण मिरर घेऊ इच्छित असाल तर आपण खालील स्विचचा वापर करू शकता जो -r -k आणि -l स्विच वापरण्याची आवश्यकता दूर करते.
wget -m www.everydaylinuxuser.com
म्हणून आपल्याकडे आपली स्वत: ची वेबसाइट असेल तर आपण हे एक सोप्या आज्ञा वापरून पूर्ण बॅकअप तयार करू शकता.
पार्श्वभूमी कमांड म्हणून wget चालवा
आपण पार्श्वभूमी आज्ञा म्हणून चालवण्यासाठी wget मिळवू शकता जेणेकरून तुम्हास फाइल्स डाऊनलोड केल्यावर टर्मिनल खिडकीवर आपले कार्य चालू ठेवता येईल.
फक्त खालील आदेश वापरा:
wget -b www.everydaylinuxuser.com
आपण अर्थातच स्विच एकत्र करू शकता. साइटवर मिरर करताना पार्श्वभूमीत wget आदेश चालविण्यासाठी आपण खालील कमांडचा वापर कराल:
wget -b -m www.everydaylinuxuser.com
आपण हे पुढीलप्रमाणे सुलभ करू शकता:
wget -bm www.everydaylinuxuser.com
लॉगिंग
आपण पार्श्वभूमीमध्ये wget कमांड चालवत असल्यास आपल्याला स्क्रीनवर पाठविलेले कोणतेही सामान्य संदेश दिसणार नाहीत.
आपण लॉग फाईलवर पाठविलेले सर्व संदेश मिळवू शकता जेणेकरुन आपण पूव कमांडचा वापर करून कोणत्याही वेळी प्रगती तपासू शकता.
Wget आदेश पासून लॉग फाइलकरिता माहिती आउटपुट करण्यासाठी खालील आदेशचा वापर करा:
wget -o / path / to / mylogfile www.everydaylinuxuser.com
उलट, नक्कीच नाही लॉगींग करणे आवश्यक आहे आणि स्क्रीनवर कोणतेही उत्पादन नाही. सर्व आउटपुटना वगळण्यासाठी खालील आदेश वापरा:
wget -q www.everydaylinuxuser.com
एकाधिक साइटवरील डाउनलोड करा
आपण अनेक भिन्न साइट्सवरून डाउनलोड करण्यासाठी इनपुट फाइल सेट करू शकता
आपल्या पसंतीच्या संपादक किंवा अगदी कॅट आदेश वापरून फाइल उघडा आणि फाइलच्या प्रत्येक ओळीवरून डाउनलोड करण्यासाठी साइट्स किंवा दुवे सूचीबद्ध करणे प्रारंभ करा.
फाइल जतन करा आणि नंतर पुढील wget आदेश चालवा:
wget -i / path / to / inputfile
आपल्या स्वत: ची वेबसाईट बॅकअप किंवा ट्रेनमध्ये वाचण्यासाठी काहीतरी शोधण्याव्यतिरिक्त, आपण संपूर्ण वेबसाइट डाउनलोड करू इच्छित नाही असे संभव नाही.
आपण प्रतिमांसह एकच URL डाउनलोड करण्याची किंवा झिप फाइल्स, आयएसओ फाइल्स किंवा प्रतिमा फायली यासारखी फाइल्स डाउनलोड करण्याची अधिक शक्यता आहे.
ते लक्षात ठेवून आपण इनपुट फाइलमध्ये खालील टाइप करण्याची गरज नाही कारण वेळ घेणारी वेळ आहे:
- http://www.myfileserver.com/file1.zip
- http://www.myfileserver.com/file2.zip
- http://www.myfileserver.com/file3.zip
आपल्याला मूळ URL नेहमीच असेल तर माहित असेल तर आपण फक्त इनपुट फाइलमध्ये खालील निर्दिष्ट करू शकता:
- file1.zip
- file2.zip
- file3.zip
त्यानंतर आपण wget आदेशखालील भाग म्हणून मूलभूत URL प्रदान करू शकता:
wget-B http://www.myfileserver.com -i / path / to / inputfile
पुन्हा प्रयत्न करा पर्याय
आपण इनपुट फाईलमध्ये डाऊनलोड करण्यासाठी फाईल्सची रांग सेट केली असेल आणि फाईली डाऊनलोड करण्यासाठी आपला संगणक संपूर्ण रात्रभर सोडल्यास आपण पहिल्या फाइलवर अडकले आहे हे शोधून काढण्यासाठी आणि सकाळ खाली यावे, तेव्हा आपण पूर्णपणे नाराज होईल. संपूर्ण रात्र पुन्हा प्रयत्न करत आहे
खालील स्विचचा वापर करून तुम्ही पुन्हा प्रयत्न करू शकता:
wget -t 10 -i / path / to / inputfile
आपण -T स्विचसह वरील कमांडचा वापर करू इच्छित असाल ज्यामुळे आपल्याला सेकंदामध्ये वेळसमाष्टिकरण करण्यास खालीलप्रमाणे परवानगी मिळते:
wget -t 10-T 10 -i / path / to / inputfile
वरील आदेश 10 वेळा पुन्हा प्रयत्न करेल आणि फाइलमधील प्रत्येक दुव्यासाठी 10 सेकंदासाठी जोडण्याचा प्रयत्न करेल.
जेव्हा आपण आपल्या 4 जीगाबाइट फाईल्सच्या 75% आंशिक डाऊनलोड करण्याआधी फक्त आपल्या कनेक्शनच्या ड्रॉपडाइझरसाठी धीमा ब्रॉडबँड कनेक्शनवर डाउनलोड केले असेल तेव्हा हे खूपच त्रासदायक आहे.
आपण खालील आदेशाचा वापर करून डाउनलोड करणे थांबविले जेथे पुन्हा प्रयत्न करण्यासाठी आपण wget वापरू शकता:
wget -c www.myfileserver.com/file1.zip
जर आपण सर्व्हरला हँडिंग करीत असाल तर होस्टला हे खूप पसंत नसेल आणि एकतर ब्लॉक किंवा आपल्या विनंत्या मारू शकतात.
आपण प्रतिक्षा कालावधी निर्दिष्ट करू शकता जो खालील प्रमाणे प्रत्येक पुनर्प्राप्ती दरम्यान किती प्रतीक्षा करणे निर्दिष्ट करते:
wget -w 60 -i / path / to / inputfile
वरील कमांड प्रत्येक डाउनलोड दरम्यान 60 सेकंद वाटतील. हे उपयोगी आहे जर आपण एका स्त्रोताकडून बरेच फाइल डाउनलोड करत आहात.
काही वेब होस्ट कदाचित वारंवारता शोधू शकतात आणि तरीही आपण अवरोधित करतील. आपण खालीलप्रमाणे प्रोग्राम वापरत नसल्याची प्रतीक्षा करण्यासाठी आपण प्रतीक्षा कालावधी यादृच्छिक बनवू शकता:
wget --random-wait -i / path / to / inputfile
डाउनलोड मर्यादा संरक्षण
बर्याच इंटरनेट सेवा प्रदाता आपल्या ब्रॉडबँड सेवेसाठी अजूनही डाउनलोड मर्यादा लागू करतात, खासकरून जर तुम्ही शहराबाहेर असाल
आपण एक कोटा जोडू शकता जेणेकरून आपण ती डाउनलोड मर्यादा लावू नये. आपण असे करू शकता खालील प्रकारे:
wget -q 100 मीटर -i / path / to / inputfile
लक्ष्यात घ्या -q आदेश एकाच फाइलसह कार्य करणार नाही.
म्हणून जर आपण 2 गीगाबाईट आकाराची फाइल डाउनलोड केली तर, -q 1000m वापरून फाइल डाउनलोड करणे थांबवणार नाही.
कोटा केवळ साइटवरून पुन्हा डाउनलोड करताना किंवा इनपुट फाइल वापरताना लागू होतो.
सुरक्षिततेद्वारे प्राप्त करणे
काही साइट्सना आपण डाउनलोड करू इच्छित असलेल्या सामग्रीमध्ये प्रवेश करण्यास सक्षम होण्यासाठी लॉग इन करणे आवश्यक आहे.
आपण वापरकर्तानाव आणि संकेतशब्द निर्दिष्ट करण्यासाठी खालील स्विच वापरू शकता.
wget --user = yourusername --password = yourpassword
जर एखाद्याने ps कमांड चालवला तर मल्टी युजर सिस्टीमवर लक्ष ठेवा ते आपले युजरनेम आणि पासवर्ड पाहण्यास सक्षम असतील.
इतर डाऊनलोड पर्याय
पूर्वनिर्धारितपणे -r स्विच सद्यरित्या अंतर्भूत माहिती डाउनलोड करेल आणि डिरेक्ट्री निर्माण करेल.
आपण निम्न स्विच वापरून एकाच फोल्डरमध्ये डाउनलोड करण्यासाठी सर्व फायली मिळवू शकता:
wget -nd -r
याच्या उलट डिरेक्ट्री निर्माण करण्यास सक्ती करा जे खालील आदेशचा वापर करून प्राप्त करणे शक्य आहे:
wget -x -r
काही फाइल प्रकार डाऊनलोड कसे
जर आपण एखाद्या साइटवरून पुनरावुतपणे डाउनलोड करायचे असल्यास परंतु आपण केवळ एक विशिष्ट फाइल प्रकार जसे एमपी 3 किंवा एखादे चित्र जसे पीजीएन डाउनलोड करू इच्छित असाल तर आपण खालील सिंटॅक्स वापरु शकता:
wget -A "* .mp3" -आर
याच्या उलट विशिष्ट फाइल्स दुर्लक्ष करणे आहे. कदाचित आपण एक्झेकेट्स डाउनलोड करू इच्छित नाही. या प्रकरणात, आपण खालील वाक्यरचना वापरेल:
wget -R "* .exe" -आर
क्लिगेट
एक फायरफॉक्स ऍड-ऑन क्लायगेट नावाचे आहे. आपण खालील प्रकारे Firefox मध्ये हे जोडू शकता.
Https://addons.mozilla.org/en-US/firefox/addon/cliget/ ला भेट द्या आणि "फायरफॉक्स जोडा" बटणावर क्लिक करा.
तो दिसेल तेव्हा स्थापित करा बटण क्लिक करा आपल्याला फायरफॉक्स पुन्हा सुरु करावे लागेल.
क्लॅगेट वापरण्यासाठी आपण भेट देऊ इच्छिता त्या पृष्ठावर किंवा फाइलला भेट द्या आणि उजवीकडे क्लिक करा. कॉन्टेक्स्ट मेनूमध्ये क्लिगेट असे नाव दिसेल आणि "wget to copy" आणि "copy to curl" पर्याय असतील.
"Wget to copy" पर्यायावर क्लिक करा आणि टर्मिनल विंडो उघडा आणि नंतर राइट क्लिक आणि पेस्ट करा. योग्य wget आदेश चौकटीत पेस्ट केले जाईल.
मूलभूतपणे, हे आपले स्वत: चे आदेश टाईप करण्याची मुभा देतो
सारांश
मोठ्या संख्येने पर्याय आणि स्विचेस म्हणून wget कमांड.
म्हणूनच हे wget चा स्वहस्ते पृष्ठ वाचून खालील टर्मिनल विंडोमध्ये टाईप करा:
मनुष्य wget