>>950
2の方が良い、with使ってるし
url.rstrip('\r\n') は、url.strip()でいいんでないかな

dst = (''.join([dstdir , url.split('/')[-1]]))は、dst = dstdir + url.split('/')[-1]でいいんでないかな

あとダウンロードした後にスリープ入れた方がいいんでないかな、time.sleep(0.1)くらい
サイトによっては、あんまり速く連続でアクセスするとロボットと思われて蹴られるよん

あとはurllib.request使うよりもhttplib2とかRequestsとかBeautifulSoup使った方がいいんでないかな
スクレイピングの解説なんかではこれらのライブラリ使ってるんだよね

ちなみに私はhttplib2使ってます
http://diveintopython3-ja.rdy.jp/index.html の14 HTTPウェブサービスで詳しく解説してます
レスポンス確認したりできるし、リクエストヘッダーを追加できるし、キャッシュも利用できる
サイトによってはリクエストヘッダーのRefererがセットされていないと蹴られたりするんだよね