最近のサイトは昔より複雑になっているので、意外に大変ですねえ。。

ここは静的なページで構成されているので、サクッと取得出来ました。

% wget -r -l 1 -k -p http://jibun.atmarkit.co.jp/lskill01/rensai/tool10/05/01.html

-r は再帰的に取得、-l num は取得する階層の深さです。-k はリンクをロー
カルコピー間の相対リンクに変換し、-p は画像やそのほかの補助ファイル
もダウンロードしてページを完全構築します。

次に http://gihyo.jp/dev/serial/01/testlink を試しましたが、ちょっ
と無理ですねえ。やり方あるんでしょうか。GetHTMLW でも出来ませんでした。

そういえば、ダイヤルアップ時代には波乗野郎 をよく使ってました。懐か
しいなあ。

参考情報: ITmedia Biz.ID:Wgetでオンライン保管資料をローカルコピー

追記(2010-07-22):
Firefox アドオン ScrapBook を教えてもらいました。GetHTMLW よりは良
い感じです。