Linux
Tips |
|
Webサイトを一括ダウンロードするには
北浦訓行
2003/2/20
|
ブロードバンドの普及によって、巡回ソフトでWebサイトをダウンロードして、後でまとめて見るという使い方をする人は減ったかもしれない。しかし、インターネットに接続できない外出先で資料として見たり、自分のWebページをバックアップしたりするために、Webサイトを一括ダウンロードすることはあるだろう。このような場合にもwgetコマンドを利用することができる(編注)。
編注:Webサイトの一括ダウンロードをひんぱんに行うと、相手サイトに負荷をかけることになるので注意すること。 |
wgetコマンドでWebサイトを一括ダウンロードするときは、-rオプションを付ける。デフォルトでは、5階層までを一括してダウンロードしてくれる。wgetを実行したディレクトリにホスト名(URL)と同じディレクトリが作成され、その下にファイルがダウンロードされる。
$ wget -r http://www.example.jp/
--15:33:01-- http://www.example.jp/
=> `www.example.jp/index.html'
www.example.jp をDNSに問いあわせています... 完了しました。
www.example.jp[xxx.xxx.xxx.xxx]:80 に接続しています... 接続しました。
HTTP による接続要求を送信しました、応答を待っています... 200 OK
長さ: 997 [text/html]
100%[=================================>] 997 973.63K/s ETA 00:00
15:33:02 (973.63 KB/s) - `www.example.jp/index.html' を保存しました [997/997] |
ダウンロード結果を確認すると、以下のようになっている。
$ ls
www.example.jp ←wgetで指定したURLと同じディレクトリが作成される
$ tree
.
`-- www.example.jp
|-- english
| |-- index.html
(省略) |
-lオプションを使うと、ダウンロードする階層を変更することもできる。例えば、7階層までダウンロードする場合は、以下のようにする。
$ wget -r -l 7 http://www.example.jp/ |
また、~/.wgetrcというファイルを作成し、
としておくと、デフォルトで7階層までダウンロードしてくれるようになる。
Linux Squareフォーラム Linux Tipsカテゴリ別インデックス |
Linux & OSS 記事ランキング
本日
月間