最近のサイトは昔より複雑になっているので、意外に大変ですねえ。。
ここは静的なページで構成されているので、サクッと取得出来ました。
% wget -r -l 1 -k -p http://jibun.atmarkit.co.jp/lskill01/rensai/tool10/05/01.html
-r は再帰的に取得、-l num は取得する階層の深さです。-k はリンクをロー
カルコピー間の相対リンクに変換し、-p は画像やそのほかの補助ファイル
もダウンロードしてページを完全構築します。
次に http://gihyo.jp/dev/serial/01/testlink
を試しましたが、ちょっ
と無理ですねえ。やり方あるんでしょうか。GetHTMLW
でも出来ませんでした。
そういえば、ダイヤルアップ時代には波乗野郎
をよく使ってました。懐か
しいなあ。
参考情報: ITmedia Biz.ID:Wgetでオンライン保管資料をローカルコピー
追記(2010-07-22):
Firefox アドオン ScrapBook
を教えてもらいました。GetHTMLW よりは良
い感じです。