2ちゃんねるに貼ってある画像リンクを追い、
jpgをかき集めるスクリプトを作ってみました。
http://www.ninnin.net/
※perlとwgetが必要です。
※Windows,Macでは動きません。
2ちゃん画像落としまくりスクリプト
11
NGNGNGNG
windows で perl も wget も動くはずだが。
31
NGNG fork 使ってるからActive perlでは動かないのですよ。
cygwin上なら動くかも(ためしてないけど)
cygwin上なら動くかも(ためしてないけど)
41
NGNG 追記:
MacOS Xなら動きますよ
(10.1ならwgetを入れなきゃだめだけど)
MacOS Xなら動きますよ
(10.1ならwgetを入れなきゃだめだけど)
5名無しさん@お腹いっぱい。
NGNG グロ画像コワイヨ(;´д`)
61
NGNG 例えばモー娘板で
一回スクリプトを実行すると
約800枚の画像が収集できます。
一回スクリプトを実行すると
約800枚の画像が収集できます。
NGNG
UNIX板的にはどうかと思うがサンクス1
NGNG
Σ(゚д゚lll)ガーン
アイドル画像板でやったら最初の画像が葉っぱ隊だった
しかも何かループしてて同じ画像だけ取ってるっぽい。
42枚しか収集できなかった。
アイドル画像板でやったら最初の画像が葉っぱ隊だった
しかも何かループしてて同じ画像だけ取ってるっぽい。
42枚しか収集できなかった。
9UNIX すごい。
NGNG MacOS X ですがやってみました。
こんなこともできるんですね。目からウロコです。
中にはとても重たいサーバーがあるので、可能であれば
タイムアウトのパラメータも追加されるとうれしいです。
(30秒以上反応が無かったらスキップして次、など)
perl スクリプトとか詳しくないのに勝手言っちゃってすいません。
こんなこともできるんですね。目からウロコです。
中にはとても重たいサーバーがあるので、可能であれば
タイムアウトのパラメータも追加されるとうれしいです。
(30秒以上反応が無かったらスキップして次、など)
perl スクリプトとか詳しくないのに勝手言っちゃってすいません。
NGNG
cygwinのperlでも動いた。
ただ $down デフォルトは、せめて2くらいに
しておいた方が良くないかい? もしくは固定とか。
サーバに申し訳なくて5は指定出来ん。
ただ $down デフォルトは、せめて2くらいに
しておいた方が良くないかい? もしくは固定とか。
サーバに申し訳なくて5は指定出来ん。
NGNG
mpegも落としたいが....
醤油みたけど直すのメンドイな
醤油みたけど直すのメンドイな
NGNG
こういうのは自分で書いた方が良さげ。
131
NGNG14名無しさん@お腹いっぱい。
NGNG ガ━━(゚Д゚;)━━ソ!
よろこびいさんで半角板いったらなんもなかった
よろこびいさんで半角板いったらなんもなかった
NGNG
おおお、すごいね。ガンガン落とせるよ。でも鯖の負荷がすごそう
なのでsage進行の方が良いかな…。
ところで、これで落とした画像を閲覧するスクリプトとか、
どうやって作るんだろう? 手動でeeで見てるんだけど、再帰的に
.jpgファイルを見るスプリプト?とかありそうなんですが。
なのでsage進行の方が良いかな…。
ところで、これで落とした画像を閲覧するスクリプトとか、
どうやって作るんだろう? 手動でeeで見てるんだけど、再帰的に
.jpgファイルを見るスプリプト?とかありそうなんですが。
16名無しさん@XEmacs
NGNG やっぱ wget を fork して…ってのはみんな書くのね(笑)
ウチの環境だと wget は 2 個くらい fork するのが一番
効率が良かったかなぁ。
# fork しすぎると timeout して、
# まともに取れなかったりして…
>15
find ./ -name '*.jpg' -exec display \{\} \;
とか?
XEmacs の dired も、よく使いますけど。。。
ウチの環境だと wget は 2 個くらい fork するのが一番
効率が良かったかなぁ。
# fork しすぎると timeout して、
# まともに取れなかったりして…
>15
find ./ -name '*.jpg' -exec display \{\} \;
とか?
XEmacs の dired も、よく使いますけど。。。
NGNG
迷惑画像URLリストとか、どこかにないでしょうか。
フィルタリングしたいですよね。
フィルタリングしたいですよね。
NGNG
find ./ -name '*.jpg' |xargs ElectoricEyes
NGNG
半角板のDATってどこにあるす? つーか何もないのはおかしいよね。
NGNG
>>15
スクリプトじゃないけどgqviewとかpicviewとかじゃだめなん?
スクリプトじゃないけどgqviewとかpicviewとかじゃだめなん?
21124
NGNG こんなことができるのは常時接続の人たちですか?
23名無しさん@お腹いっぱい。
NGNG24名無しさん@お腹いっぱい。
NGNGhttp://とか
ttp://
みたいにあえてコピペ用になってる物も
落とせる?
25名無しさん@お腹いっぱい。
NGNG261
NGNG271
NGNG28名無しさん@XEmacs
NGNG 半角っていえば、天使とか鳥とかの半角用語?を含むURLをサポートしたスクリ
プト書いた人居る?漏れは諦めた(w
これ、できたら結構凄いよな…
プト書いた人居る?漏れは諦めた(w
これ、できたら結構凄いよな…
NGNG
>>28
同意。ぜひ1にはがんばってもらいたい。
同意。ぜひ1にはがんばってもらいたい。
30名無しさん@Vi
NGNG たしかに画像フィルタは便利かもしれませんが、
個人的にはこのスクリプトは画像をダイジェストできることに
特化して欲しいです。
できれば追加して欲しい機能
1.URL は違うけどファイル名が同じ場合のファイル処理
2. キーワードを追加( tp:// とか http:// など)
3.スレッドのスキップ(先頭から50個目のスレッドから開始など)
4. いっそのこと MPEG ファイルも対象に。
スレッドのスキップはスクリプトに追加して作ってみました。
もし希望があれば送ります。>1
個人的にはこのスクリプトは画像をダイジェストできることに
特化して欲しいです。
できれば追加して欲しい機能
1.URL は違うけどファイル名が同じ場合のファイル処理
2. キーワードを追加( tp:// とか http:// など)
3.スレッドのスキップ(先頭から50個目のスレッドから開始など)
4. いっそのこと MPEG ファイルも対象に。
スレッドのスキップはスクリプトに追加して作ってみました。
もし希望があれば送ります。>1
NGNG
スレをどこまで読んだか記憶して、次回はそれ以降だけを読むとか、
落としたファイルのアドレスを記録しておいてそのファイルは二度と落とさないとか
そういう機能がないと、毎日同じファイルをダウンしてきてしまうと思うのですが
どうよ?
落としたファイルのアドレスを記録しておいてそのファイルは二度と落とさないとか
そういう機能がないと、毎日同じファイルをダウンしてきてしまうと思うのですが
どうよ?
321
NGNG33名無しさん@お腹いっぱい。
NGNG コレ使うとスレの荒れ度がわかるね
荒れてるスレは死体画像多い。
あとなぜかペットの画像も多いNE!
荒れてるスレは死体画像多い。
あとなぜかペットの画像も多いNE!
34名無しさん@お腹いっぱい。
NGNG wgetでいいじゃん。
35名無しさん@お腹いっぱい。
NGNGNGNG
OSXにwget入れるのに小1時間かかりました。
でも成功、すごいぞUNIX、ありがとう>1
でも成功、すごいぞUNIX、ありがとう>1
NGNG
>32
そっか、俺は落としてきたファイルを
別ディレクトリに移動して整理していたんだが、
そうすると、また同じやつを落としてきてしまうんだな。
死体画像とかも残しておかないと、
また同じ死体画像を落としてきてしまうのだな。
そっか、俺は落としてきたファイルを
別ディレクトリに移動して整理していたんだが、
そうすると、また同じやつを落としてきてしまうんだな。
死体画像とかも残しておかないと、
また同じ死体画像を落としてきてしまうのだな。
38名無しさん@お腹いっぱい。
NGNG >>28 その辺の隠語は限られているから、単純置換じゃダメかな…
391
NGNG40名無しさん@XEmacs
NGNG >38
単純置換は無理っぽいですね。隠語はちょこちょこ増えてるみたいですし、
URLは省略されたりクイズで記述されたりもするので(w
単純置換は無理っぽいですね。隠語はちょこちょこ増えてるみたいですし、
URLは省略されたりクイズで記述されたりもするので(w
NGNG
おいおいおいおいおい、2ch内とはいえ下手なスパイダー
動かすのはやめてくれ。転送量も鯖の負荷も増える。
やりたいやつは公開なんかしないで、自分で作ってひっそりと
やってくれ。
動かすのはやめてくれ。転送量も鯖の負荷も増える。
やりたいやつは公開なんかしないで、自分で作ってひっそりと
やってくれ。
42名無しさん@お腹いっぱい。
NGNG >>41
すいてる時間帯でもダメ?
すいてる時間帯でもダメ?
NGNG
>>42
まず、datファイルをgetして、それを元にすればよいかと思われ。
まず、datファイルをgetして、それを元にすればよいかと思われ。
44名無しさん@お腹いっぱい。
NGNG MacOSXの人って結構いるんだなぁ。
そういう漏れも。
そういう漏れも。
45名無しさん@お腹いっぱい。
NGNGNGNG
>>44-46
スレ違い。
スレ違い。
48名無しさん@お腹いっぱい。
NGNG 同名のファイルがあった場合、ファイルサイズを調べて一致しなかったら
後ろに_01とか付けて保存するのは出来ませんか?
後ろに_01とか付けて保存するのは出来ませんか?
491
NGNG >>48
できます。
その方法も考えたのですが、結局やりませんでした。
いらないかな?と思って。
同じような要望が多ければ導入を検討します。
wgetのオプションの中にそんな機能があった気がしますので、
ご自分で改造してみてはいかがでしょう。
$optionsにオプションを突っ込んでwget実行サブルーチンを
呼んでるだけですので。
できます。
その方法も考えたのですが、結局やりませんでした。
いらないかな?と思って。
同じような要望が多ければ導入を検討します。
wgetのオプションの中にそんな機能があった気がしますので、
ご自分で改造してみてはいかがでしょう。
$optionsにオプションを突っ込んでwget実行サブルーチンを
呼んでるだけですので。
50名無しさん@お腹いっぱい。
NGNG 試しにやってみたけどいい感じだぁよ、ありがとう。>1
要望とか考えると結局Iria先生みたくなるんだろうけど期待しちゃうよ。
なにってcronで動かしておけるから昼間だけの時限モノとか拾える可能性
あるってだけでピンコたんピキーンなれるし。
ただこの板でやるなら負荷、転送量減らしは最初に考慮する必要あるかと。
引っ越し間際のスレなんて生データで300kb以上になるのを毎回引っ張る
のはやはり問題だと思うので、ツモって来たdat fileはローカルに保存して
再利用する方向で進めてはどうか。
同名異URI処理は取り敢えず後にしないと、考え無し厨房が全開で走らせる
と思われ。
要望とか考えると結局Iria先生みたくなるんだろうけど期待しちゃうよ。
なにってcronで動かしておけるから昼間だけの時限モノとか拾える可能性
あるってだけでピンコたんピキーンなれるし。
ただこの板でやるなら負荷、転送量減らしは最初に考慮する必要あるかと。
引っ越し間際のスレなんて生データで300kb以上になるのを毎回引っ張る
のはやはり問題だと思うので、ツモって来たdat fileはローカルに保存して
再利用する方向で進めてはどうか。
同名異URI処理は取り敢えず後にしないと、考え無し厨房が全開で走らせる
と思われ。
NGNG
ねぇねぇ、これからもいじる気ある?>1
マジでcronで走らせてグロ画像getterになろうと思うだけどいぢっていい?
perl なんてしばらくいじってないから思い出すとこからはじめるけど。
マジでcronで走らせてグロ画像getterになろうと思うだけどいぢっていい?
perl なんてしばらくいじってないから思い出すとこからはじめるけど。
NGNG
途中で切れちゃう画像とかあるんですが、どこをいじればいいですか?
$limit = 3
$down = 2
で使ってますが。
$limit = 3
$down = 2
で使ってますが。
531
NGNG >>50
datのタイムスタンプをチェックして再利用するようにしようかなぁ
ご意見ありがとう。転送量軽減を目指します。
>>51
ぜひいぢってください
>>52
117行目のwgetのオプション設定で調整できると思います。
-t や -w の値を調整すると良いかも。参考ページはこちらあたりをどうぞ
http://seagull.cs.uec.ac.jp/~horiuc-m/wget.html
datのタイムスタンプをチェックして再利用するようにしようかなぁ
ご意見ありがとう。転送量軽減を目指します。
>>51
ぜひいぢってください
>>52
117行目のwgetのオプション設定で調整できると思います。
-t や -w の値を調整すると良いかも。参考ページはこちらあたりをどうぞ
http://seagull.cs.uec.ac.jp/~horiuc-m/wget.html
NGNG
自分でSocket開いてRange: bytesヘッダとか使ってくれ。
つーかこういうもんはまともになってから公開してくれ
つーかこういうもんはまともになってから公開してくれ
55名無しさん@お腹いっぱい。
NGNG FreeBSDでこのソフト使いました。
jpg/以下にたくさんのファイルがきましたが、
この中から、最適なファイルを絞り込むのはむづかしいですね。
タグ情報等から、分類できないのかなあ?
もしくわ、winみたいに、一つ一つのファイルを簡単に表示
できたらまだいいかも。(サムネーム表示?)
今gimp使って、いっこいっこ開いてるけど、
もっと楽にファイル情報しらべれないかな?
jpg/以下にたくさんのファイルがきましたが、
この中から、最適なファイルを絞り込むのはむづかしいですね。
タグ情報等から、分類できないのかなあ?
もしくわ、winみたいに、一つ一つのファイルを簡単に表示
できたらまだいいかも。(サムネーム表示?)
今gimp使って、いっこいっこ開いてるけど、
もっと楽にファイル情報しらべれないかな?
56名無しさん@お腹いっぱい。
NGNG 今のままじゃ、ファイル名による絞り込み
しかできないよ。
しかできないよ。
NGNG
・・・ここは本当にUNIX板なのか・・・鬱
NGNG
Gimp…… 絶句
NGNG
つーか誰かがこのスクリプトをcronで定期的に実行して
作成されたjpglistをどっかで公開すりゃいいんだよね
それを元にiriaなりwgetなりで落とせばいい
そうすりゃ負荷はかからんし
作成されたjpglistをどっかで公開すりゃいいんだよね
それを元にiriaなりwgetなりで落とせばいい
そうすりゃ負荷はかからんし
60名無しさん@XEmacs
NGNG >59
それおもろいね。
っつーか、 jpg をある程度の大きさごとにアーカイブしといてくれ(w
ってコレはアクセスが集中してダメかにゃ。
それおもろいね。
っつーか、 jpg をある程度の大きさごとにアーカイブしといてくれ(w
ってコレはアクセスが集中してダメかにゃ。
61XV
NGNG A.ディレクトリ毎にサムネイル表示
xv [-dir 画像があるディレクトリ]
^v
^n .xvpics
^u
B.一気にサムネイル作成
cd ベースのディレクトリ
find [こっちで書いてもいいし] -type d -exec mkdir {}/.xvpics \;
xv [そしたらこっちもか、やっぱやめ]
^v
^e
C.見ているファイルを消す
見る
^d
^d
D.ファイルを移動する
^v
フォーカス戻す
^v
好きなようにDnDする
E.マスク外す
適当に範囲選択
f
アローキーで位置変更
Shift+アローキーで範囲伸縮
拡大は Ctrl+マウス
Alt+j
Shift押しながらパス入力
xv [-dir 画像があるディレクトリ]
^v
^n .xvpics
^u
B.一気にサムネイル作成
cd ベースのディレクトリ
find [こっちで書いてもいいし] -type d -exec mkdir {}/.xvpics \;
xv [そしたらこっちもか、やっぱやめ]
^v
^e
C.見ているファイルを消す
見る
^d
^d
D.ファイルを移動する
^v
フォーカス戻す
^v
好きなようにDnDする
E.マスク外す
適当に範囲選択
f
アローキーで位置変更
Shift+アローキーで範囲伸縮
拡大は Ctrl+マウス
Alt+j
Shift押しながらパス入力
NGNG
6355
NGNGNGNG
6555
NGNG すばらしい。感動した!有難う。
66名無しさん@お腹いっぱい。
NGNG グロ画像多すぎ。ホモ画像思わみてしまいかなりへこんだ。
67名無しさん@お腹いっぱい。
NGNG Listアップするためのサーバーでも借りましょうかね。
NGNG
Navi2chで取得したdatを使うようにできたらうれしいな
6968
NGNG あ,Navi2chで m a m i して,awkで抜いて,wgetすればいいだけか…
NGNG
>>55
XV の Visual Schnauzer とか使うのが一般的なんじゃないの?もっとも最近
の Linux の distribution なんかには XV の入っていない例もあるようだけ
ど。ちなみにわたくしは xv 3.10a に各種 patch を当てて、FLMASK とかの復
元もできるようにしたのを使ってる。Linux でも *BSD でも特に問題なくコン
パイルできると思うけど?
XV の Visual Schnauzer とか使うのが一般的なんじゃないの?もっとも最近
の Linux の distribution なんかには XV の入っていない例もあるようだけ
ど。ちなみにわたくしは xv 3.10a に各種 patch を当てて、FLMASK とかの復
元もできるようにしたのを使ってる。Linux でも *BSD でも特に問題なくコン
パイルできると思うけど?
NGNG
XV って未だに使い方よくわかんない…
メンドーなので、なんでもかんでも ImageMagick …
メンドーなので、なんでもかんでも ImageMagick …
NGNG
>>70
既出
既出
NGNG
GQviewとか。
NGNG
キーボードマクロで+mamiするのをcronでまわしておくと、
便利というか迷惑というか。
便利というか迷惑というか。
75名無しさん@お腹いっぱい。
NGNG 便利と思うがなんであがらないのかな?
ということで定期あげ。
ということで定期あげ。
NGNG
ところで、画像集めた後の話だが、
同じ様な画像がたーくさんディスクの肥しになって
欝にならないか?
そんな時は、dupmerge
http://people.qualcomm.com/karn/code/dupmerge/
(QualcommのPhilip Karn作)
洩れは、
find . -name "*.[GgJj][IiPp][FfEeGg]*" -o -name "*.[Mm][Pp][EeGg]*" | dupmerge
みたいにして使ってるよ。
同じ様な画像がたーくさんディスクの肥しになって
欝にならないか?
そんな時は、dupmerge
http://people.qualcomm.com/karn/code/dupmerge/
(QualcommのPhilip Karn作)
洩れは、
find . -name "*.[GgJj][IiPp][FfEeGg]*" -o -name "*.[Mm][Pp][EeGg]*" | dupmerge
みたいにして使ってるよ。
NGNG
NGNG
shell で書けるからね。
NGNG
>> 76
どうせなら iname 使え
どうせなら iname 使え
NGNG
そりでは修正
find . -iname "*.[gjm][ip][feg]*" | dupmerge
find . -iname "*.[gjm][ip][feg]*" | dupmerge
NGNG
NGNG
>>81
使えるわけないじゃん
使えるわけないじゃん
NGNG
>>82 >> 77
じゃ、充実してないじゃん
じゃ、充実してないじゃん
NGNG
どうせ焼く時は使わない
85名無しさん@お腹いっぱい。
NGNG あげます、あげます
86名無しさん@お腹いっぱい。
NGNG お前ら、最近どうですか?
87名無しさん@お腹いっぱい。
NGNG どの板も、途中でDLが止まってしまうのだよ。なんでだ??
88名無しさん@お腹いっぱい。
NGNGNGNG
FAT でどうやって hardlink 作るんだ?
NGNG
確か2000以降だっけかな、忘れた
NGNG
NTFSならhard linkもsymbolic linkもできるよ。
あんまり使われてないのはFATだと使えないからかも。
あんまり使われてないのはFATだと使えないからかも。
NGNG
symbolic linkをjunctionという、らしい。
ただこいつを使うと、WindowsのExplorerでさえ
摩訶不思議な挙動を示すことがあるというくらい、
ろくに使われてない機能。
ただこいつを使うと、WindowsのExplorerでさえ
摩訶不思議な挙動を示すことがあるというくらい、
ろくに使われてない機能。
NGNG
思いつきとしか思えない機能追加が多いからな。
だったら DOS のころから linkfile をサポートしといてほしい。
だったら DOS のころから linkfile をサポートしといてほしい。
NGNG
DOSでFATでもハードリンク作れるYO!
ただし、chkdsk.exeにクロスリンクと言われてしまう、諸刃の剣。
素人にはお勧めできない。ってやつだ。
ただし、chkdsk.exeにクロスリンクと言われてしまう、諸刃の剣。
素人にはお勧めできない。ってやつだ。
95名無しさん@お腹いっぱい。
NGNG こえーーー
NGNG
>>94
確かに間違いでは無いな(笑)
確かに間違いでは無いな(笑)
NGNG
age て みた
98名無しさん@お腹いっぱい。
NGNG やっぱり前回履歴に対応して欲しいなぁ。
毎日cronで走らせたいヨ。
毎日cronで走らせたいヨ。
NGNG
>>92
俺使ってる。でもあれってsymlinkというのは詐欺だろう。
join(DOS)とかFreeBSDのunion fs & mountみたいのと言った方が正確
かな。で、俺が見つけてる不具合は
1.Explorerやインストーラの空き容量計算がmountに対応できてないので、
インストーラで(空きがあっても)「ねーよ」と弾かれたりする
2.MoveFile() APIがmountを考慮してないので、src/destが同じドライブ
名だけど別ボリュームの場合、ファイル移動に失敗する(API直/cmd.exe
Explorer全滅)
だな。
一応どっちも回避方法があるし、従来アプリは1.に対応できんというのは
仕方がない所でもあるんだが、2.はどう考えても(仕様変更への)追従ミス。
# 同一ボリューム内の移動の場合、ディレクトリエントリだけの書き換え
# で高速化してるんだが、同一ボリュームかどうかの判定にsrc/destの
# ドライブ文字しか見てないという。アホ。
俺使ってる。でもあれってsymlinkというのは詐欺だろう。
join(DOS)とかFreeBSDのunion fs & mountみたいのと言った方が正確
かな。で、俺が見つけてる不具合は
1.Explorerやインストーラの空き容量計算がmountに対応できてないので、
インストーラで(空きがあっても)「ねーよ」と弾かれたりする
2.MoveFile() APIがmountを考慮してないので、src/destが同じドライブ
名だけど別ボリュームの場合、ファイル移動に失敗する(API直/cmd.exe
Explorer全滅)
だな。
一応どっちも回避方法があるし、従来アプリは1.に対応できんというのは
仕方がない所でもあるんだが、2.はどう考えても(仕様変更への)追従ミス。
# 同一ボリューム内の移動の場合、ディレクトリエントリだけの書き換え
# で高速化してるんだが、同一ボリュームかどうかの判定にsrc/destの
# ドライブ文字しか見てないという。アホ。
100名無しさん@お腹いっぱい。
NGNG 100
101名無しさん@お腹いっぱい。
NGNG ある板のある日の<a href="...">を一括表示してくれるようなサイトない?
つくろうかな…。
つくろうかな…。
102名無しさん@お腹いっぱい。
NGNG >>101
作って!
作って!
NGNG
>102
つくりはじめた。rawmodeを使おうかとも思ったけど、index.htmlをtidyでXHTMLに
変換してからXSLTで加工(XHTML to XML)して、XMLで日別にサーバ側に蓄積して、
CGIでXML選んでXSLTかまして(XML to HTML4)出力、みたいな感じにすることにした。
なんとなく。
とりあえず最初のXSLTまで書けましたわ。
つくりはじめた。rawmodeを使おうかとも思ったけど、index.htmlをtidyでXHTMLに
変換してからXSLTで加工(XHTML to XML)して、XMLで日別にサーバ側に蓄積して、
CGIでXML選んでXSLTかまして(XML to HTML4)出力、みたいな感じにすることにした。
なんとなく。
とりあえず最初のXSLTまで書けましたわ。
104名無しさん@お腹いっぱい。
NGNG age
NGNG
>103
すばらしいあげ
すばらしいあげ
106101
NGNG >>105
ども。マ板でもちょっと書いたんだけど、できました。
2ちゃんねるの 技術系/ニュース系 板の、URL流し読みサイト。
これ http://moso.borogrammers.net/newlin/ なんだけどどうかしら?
表示例↓
http://moso.borogrammers.net/newlin/read.cgi?board=news&yyyy=2002&mm=01&dd=23
ども。マ板でもちょっと書いたんだけど、できました。
2ちゃんねるの 技術系/ニュース系 板の、URL流し読みサイト。
これ http://moso.borogrammers.net/newlin/ なんだけどどうかしら?
表示例↓
http://moso.borogrammers.net/newlin/read.cgi?board=news&yyyy=2002&mm=01&dd=23
107名無しさん@お腹いっぱい。
NGNGNGNG
109名無しさん@お腹いっぱい。
NGNG スレがばらばらに表示されるので、日付順、スレ順などのソートがあると嬉しいです。
110109
NGNG あと、大量のリストを眺める作業になるので、スレタイトルは左揃えにしたほうが
視点の移動が少なくて良いんじゃないかと思います。
視点の移動が少なくて良いんじゃないかと思います。
111名無しさん@お腹いっぱい。
NGNG .datの形式変わった?
112106
NGNG 本業でヘロヘロになってました。109さんご意見どうも。
>スレがばらばらに表示されるので、日付順、スレ順などのソートがあると嬉しいです。
トップ画面に「発言日が最近のURLほど上に表示する」と「スレッド番号+発言番号
でソートして表示する」というラジオボタンをつけました。
>あと、大量のリストを眺める作業になるので、スレタイトルは左揃えにしたほうが
>視点の移動が少なくて良いんじゃないかと思います。
確かにそうですね。左揃えにしました。スレッドでソートした場合、かなり見易くなったの
ではないかと思います。
URLは相変わらず http://moso.borogrammers.net/newlin/ です。
>スレがばらばらに表示されるので、日付順、スレ順などのソートがあると嬉しいです。
トップ画面に「発言日が最近のURLほど上に表示する」と「スレッド番号+発言番号
でソートして表示する」というラジオボタンをつけました。
>あと、大量のリストを眺める作業になるので、スレタイトルは左揃えにしたほうが
>視点の移動が少なくて良いんじゃないかと思います。
確かにそうですね。左揃えにしました。スレッドでソートした場合、かなり見易くなったの
ではないかと思います。
URLは相変わらず http://moso.borogrammers.net/newlin/ です。
113106
NGNG114名無しさん@お腹いっぱい。
NGNGNGNG
NGNG
>>1のスクリプトは、いまや改造しないとそのままでは使えないですね。
117名無しさん@お腹いっぱい。
NGNG >>116,117
2ch のシステムはよく知らないんだけど現在では subject.txt と .dat
は直接見れないんだよね? read.cgi から raw モードで取得するのかな。
その辺りを書き換えればオッケー。
2ch のシステムはよく知らないんだけど現在では subject.txt と .dat
は直接見れないんだよね? read.cgi から raw モードで取得するのかな。
その辺りを書き換えればオッケー。
NGNG
monazilla ML 入るが吉。
NGNG
使えなくなってるね…
121116
NGNG >>117
118が書いてるように、今は $ita/subject.txt が見られないようだから、
まずオリジナルスクリプトの subject.txt は subback.html にでも
しないといけない。
また、subback.html を参照するようにしたら、データナンバーの取り出し方も
変えないといけないね。いろいろなやり方があるだろうが、例えば
http://love.2ch.net/morningcoffee/subback.html
だったら
<a href="1014421686/l50">6: 中澤裕子ファン倶楽部 96 (977)</a>
みたいなスレッドのリストが得られて、要はこの中の 1014421686 を
切り出したいわけだから、38行目と60行目
($data_no) = split /\<\>/ , $_;
は、
@data = split /\//;
$data_no = $data[0];
$data_no =~ s%\D%%g;
とでもすれば $data_no に 1014421686 が入って、
あと、40行目の $target は、conf.txt に
$host = 'http://love.2ch.net/';
$categ = '/morningcoffee/';
を追加しといて
$target = "$host"."test/read.cgi"."$categ"."$data_no";
として使っているが、もっとエレガントなやり方があったら誰か教えて著。
118が書いてるように、今は $ita/subject.txt が見られないようだから、
まずオリジナルスクリプトの subject.txt は subback.html にでも
しないといけない。
また、subback.html を参照するようにしたら、データナンバーの取り出し方も
変えないといけないね。いろいろなやり方があるだろうが、例えば
http://love.2ch.net/morningcoffee/subback.html
だったら
<a href="1014421686/l50">6: 中澤裕子ファン倶楽部 96 (977)</a>
みたいなスレッドのリストが得られて、要はこの中の 1014421686 を
切り出したいわけだから、38行目と60行目
($data_no) = split /\<\>/ , $_;
は、
@data = split /\//;
$data_no = $data[0];
$data_no =~ s%\D%%g;
とでもすれば $data_no に 1014421686 が入って、
あと、40行目の $target は、conf.txt に
$host = 'http://love.2ch.net/';
$categ = '/morningcoffee/';
を追加しといて
$target = "$host"."test/read.cgi"."$categ"."$data_no";
として使っているが、もっとエレガントなやり方があったら誰か教えて著。
NGNG
123名無しさん@お腹いっぱい。
NGNG124名無しさん@お腹いっぱい。
NGNG wgetでダウンロードしたファイルを
ダウンロードしたYYYYMMDDという形式で
保存するにはどうすればいいのでしょう。
同じ名前でファイルが毎週更新されるので
cronでそのままで回すのでは上書きされて
しまいます。
ダウンロードしたYYYYMMDDという形式で
保存するにはどうすればいいのでしょう。
同じ名前でファイルが毎週更新されるので
cronでそのままで回すのでは上書きされて
しまいます。
125名無しさん@Emacs
NGNGNGNG
-O --output-document=FILE FILE に文書を出力します。
NGNG
128名無しさん@Emacs
NGNG >>128
% wget http://xxx.xxx.xxx/???.jpg -O `date +%Y%m%d`.jpg
(´-`).。oO(>>127 がすでに答えてくれているけど…なんでだろう?)
% wget http://xxx.xxx.xxx/???.jpg -O `date +%Y%m%d`.jpg
(´-`).。oO(>>127 がすでに答えてくれているけど…なんでだろう?)
NGNG
NGNG
ほしゅ
NGNG
捕手
NGNG
なんとなく
NGNG
ほしゅ
NGNG
どるどれい?
NGNG
sage
NGNG
おーい
137名無しさん@お腹いっぱい。
NGNG ある日付以降の書きこみに書かれているURLのみを
落としたいとかできるでしょうか?
落としたいとかできるでしょうか?
138名無しさん@お腹いっぱい。
NGNG あげとこう
NGNG
さげとこう
NGNG
一個のディレクトリに画像ファイル1400個置いてますが
gimvでみるときに極端に速度が遅いです
数が多いとよくないんですね
どーにかなりませんか?
gimvでみるときに極端に速度が遅いです
数が多いとよくないんですね
どーにかなりませんか?
NGNG
何が悪いかをつきとめて、それを直す。
NGNG
>>140
UNIXのファイルシステムは
一つのディレクトリにファイルがいっぱいあると遅いと
聞いたことがあるな
(だからメールキューは複数のディレクトリに分かれてるらしい)
1400個くらいなら関係ないのかもしれんけどね
詳しい人フォローレスたのむ
UNIXのファイルシステムは
一つのディレクトリにファイルがいっぱいあると遅いと
聞いたことがあるな
(だからメールキューは複数のディレクトリに分かれてるらしい)
1400個くらいなら関係ないのかもしれんけどね
詳しい人フォローレスたのむ
NGNG
>142
(だから2chのスレッドは足切り制限があるらしい)
(1つの板に数千のスレがあった時代は重かったなぁ…)
脱線スマソ
(だから2chのスレッドは足切り制限があるらしい)
(1つの板に数千のスレがあった時代は重かったなぁ…)
脱線スマソ
144名無しさん@お腹いっぱい。
NGNG age
145名無しさん@お腹いっぱい。
NGNG うーん、誰も保守しようとか言う気はないの?
ないよね。
ないよね。
NGNG
147名無しさん@お腹いっぱい。
NGNG チョトおしえてください。
IEからなら
http://pc.2ch.net/test/read.cgi/unix/1003833552/
が見えるんですけど、wgetを使ってこのページをダウンロードしようとしても、
できないんです。どうやればいいんですか?
IEからなら
http://pc.2ch.net/test/read.cgi/unix/1003833552/
が見えるんですけど、wgetを使ってこのページをダウンロードしようとしても、
できないんです。どうやればいいんですか?
NGNG
wget http://pc.2ch.net/test/read.cgi/unix/1003833552/
でできるが…?
でできるが…?
149名無しさん@お腹いっぱい。
NGNG て優香、wget使わなくても、httpget使えば便利じゃない?
と思って、httpget落とそうとしたけど、内部エラーで落とせない・・・
http://www.onicos.com/staff/iz/release/
と思って、httpget落とそうとしたけど、内部エラーで落とせない・・・
http://www.onicos.com/staff/iz/release/
NGNG
NGNG
どうせやるなら、以前にもちょっと話出てたけど、一人が落としたファイルをどっかの鯖に
キャッシュしといて他の人はそっちから落とせるようなの作ろうよ。そうすれば2ちゃんの
負荷も減るし、うpろだの負荷も減るし、ソッコーで消されたファイルもキャッシュに残って
るしで、うっはうはーじゃん。
キャッシュしといて他の人はそっちから落とせるようなの作ろうよ。そうすれば2ちゃんの
負荷も減るし、うpろだの負荷も減るし、ソッコーで消されたファイルもキャッシュに残って
るしで、うっはうはーじゃん。
NGNG
どうせなら落としたファイルがP2Pで共有されるようにするとか
NGNG
154名無しさん@お腹いっぱい。
NGNGNGNG
NGNG
>>153
て優香、datファイルを落とせるならそうしたいんだけど、やりかた
教えてーな。
たしかどっかでdatファイルは落とせなくなったとか聞いたような気がしたんで、
htmlをそのまま落としてマッチングしてるんだけど・・・
て優香、datファイルを落とせるならそうしたいんだけど、やりかた
教えてーな。
たしかどっかでdatファイルは落とせなくなったとか聞いたような気がしたんで、
htmlをそのまま落としてマッチングしてるんだけど・・・
157153
NGNG >>156
http://pc.2ch.net/test/read.cgi/unix/1003833552/
だったら
http://pc.2ch.net/unix/dat/1003833552.dat
でいけるのではないと?
>たしかどっかでdatファイルは落とせなくなったとか聞いたような気がしたんで、
>htmlをそのまま落としてマッチングしてるんだけど・・・
これは俺も聞いたことあるけど、閉鎖騒動の時あたりじゃないの?
俺はそれよりあとに2ch来たからよく知らないけど、
read.cgiにアクセスするより、datファイルに直接アクセスしたほうが、負荷は減るらしい、と聞いたこともある。
http://pc.2ch.net/test/read.cgi/unix/1003833552/
だったら
http://pc.2ch.net/unix/dat/1003833552.dat
でいけるのではないと?
>たしかどっかでdatファイルは落とせなくなったとか聞いたような気がしたんで、
>htmlをそのまま落としてマッチングしてるんだけど・・・
これは俺も聞いたことあるけど、閉鎖騒動の時あたりじゃないの?
俺はそれよりあとに2ch来たからよく知らないけど、
read.cgiにアクセスするより、datファイルに直接アクセスしたほうが、負荷は減るらしい、と聞いたこともある。
158153
NGNG >>156
とりあえず、俺の作ったdatファイルだけ落とすスクリプトも張っておこう。
粗末なシェルスクリプトだが...
#!/bin/sh
PATH=/usr/local/bin:/usr/bin:/bin:/usr/local/sbin:/usr/sbin:/sbin
DATE=`date +%Y%m%d_%H%M%S`
if [ "$1" ] && [ "$2" ] && [ "$3" ] && [ "$4" ] ;then
:
else
echo "useage: ./get.sh [dat|subject] [dir] [host] [ita] [waittime] [wget-flag]"
exit
fi
HOMEDIR=/home/hoge/documents/data
TARGET=$1
DIR=$2
HOST=$3
ITA=$4
LOGFILE=./wget_log.txt
if [ "$5" ];then
WAIT=$5
else
WAIT=3
fi
とりあえず、俺の作ったdatファイルだけ落とすスクリプトも張っておこう。
粗末なシェルスクリプトだが...
#!/bin/sh
PATH=/usr/local/bin:/usr/bin:/bin:/usr/local/sbin:/usr/sbin:/sbin
DATE=`date +%Y%m%d_%H%M%S`
if [ "$1" ] && [ "$2" ] && [ "$3" ] && [ "$4" ] ;then
:
else
echo "useage: ./get.sh [dat|subject] [dir] [host] [ita] [waittime] [wget-flag]"
exit
fi
HOMEDIR=/home/hoge/documents/data
TARGET=$1
DIR=$2
HOST=$3
ITA=$4
LOGFILE=./wget_log.txt
if [ "$5" ];then
WAIT=$5
else
WAIT=3
fi
159153
NGNG # -c tuchuukara
# -N time stamp
WGETFLAG="-t 3 -a${LOGFILE} -P./dat -U "Hogella/1.0" -nd $6"
if ! [ -d ${HOMEDIR}/${DIR} ] ;then
echo ${HOMEDIR}/${DIR} no such directry\!
exit
fi
/bin/test -d ${HOMEDIR}/${DIR}/dat || mkdir ${HOMEDIR}/${DIR}/dat
/bin/test -d ${HOMEDIR}/${DIR}/old_dat || mkdir ${HOMEDIR}/${DIR}/old_dat
/bin/test -d ${HOMEDIR}/${DIR}/subject || mkdir ${HOMEDIR}/${DIR}/subject
cd ${HOMEDIR}/${DIR}
test -f ${LOGFILE} || touch ${LOGFILE}
printf "###\n###\n### DATE=${DATE} \n### args=$* \n###\n###\n" >> ${LOGFILE}
if [ ${TARGET} = subject ];then
rm -f subject.txt
wget -a${LOGFILE} -U "Hogella/1.0" http://${HOST}/${ITA}/subject.txt
cp subject.txt ./subject/subject.${DATE}.txt
# -N time stamp
WGETFLAG="-t 3 -a${LOGFILE} -P./dat -U "Hogella/1.0" -nd $6"
if ! [ -d ${HOMEDIR}/${DIR} ] ;then
echo ${HOMEDIR}/${DIR} no such directry\!
exit
fi
/bin/test -d ${HOMEDIR}/${DIR}/dat || mkdir ${HOMEDIR}/${DIR}/dat
/bin/test -d ${HOMEDIR}/${DIR}/old_dat || mkdir ${HOMEDIR}/${DIR}/old_dat
/bin/test -d ${HOMEDIR}/${DIR}/subject || mkdir ${HOMEDIR}/${DIR}/subject
cd ${HOMEDIR}/${DIR}
test -f ${LOGFILE} || touch ${LOGFILE}
printf "###\n###\n### DATE=${DATE} \n### args=$* \n###\n###\n" >> ${LOGFILE}
if [ ${TARGET} = subject ];then
rm -f subject.txt
wget -a${LOGFILE} -U "Hogella/1.0" http://${HOST}/${ITA}/subject.txt
cp subject.txt ./subject/subject.${DATE}.txt
160153
NGNG elif [ ${TARGET} = dat ];then
echo "---> DATE = ${DATE}"
mkdir old_dat/${DATE}
rm -f subject.txt
wget -a${LOGFILE} http://${HOST}/${ITA}/subject.txt
echo "---> got subject file"
sleep 1
echo -n "---> dat file... "
for DAT in `cat ./subject.txt | cut -f1 -d.` ;do
echo "--->TARGET is ${DAT}" >> ${LOGFILE}
echo -n "${DAT}"
wget ${WGETFLAG} http://${HOST}/${ITA}/dat/${DAT}.dat
if [ -f ./dat/${DAT}.dat.1 ];then
echo "---> file moved to old_dat dir" >> ${LOGFILE}
mv ./dat/${DAT}.dat ./old_dat/${DATE}
mv ./dat/${DAT}.dat.1 ./dat/${DAT}.dat
echo -n "_ "
elif [ -f ./dat/${DAT}.dat ];then
echo -n ". "
else
echo -n "X "
fi
sleep ${WAIT}
done
echo " "
echo "---> all done" >>${LOGFILE}
echo "---> all done"
fi
echo "---> DATE = ${DATE}"
mkdir old_dat/${DATE}
rm -f subject.txt
wget -a${LOGFILE} http://${HOST}/${ITA}/subject.txt
echo "---> got subject file"
sleep 1
echo -n "---> dat file... "
for DAT in `cat ./subject.txt | cut -f1 -d.` ;do
echo "--->TARGET is ${DAT}" >> ${LOGFILE}
echo -n "${DAT}"
wget ${WGETFLAG} http://${HOST}/${ITA}/dat/${DAT}.dat
if [ -f ./dat/${DAT}.dat.1 ];then
echo "---> file moved to old_dat dir" >> ${LOGFILE}
mv ./dat/${DAT}.dat ./old_dat/${DATE}
mv ./dat/${DAT}.dat.1 ./dat/${DAT}.dat
echo -n "_ "
elif [ -f ./dat/${DAT}.dat ];then
echo -n ". "
else
echo -n "X "
fi
sleep ${WAIT}
done
echo " "
echo "---> all done" >>${LOGFILE}
echo "---> all done"
fi
161153
NGNG HOMEDIR=/home/hoge/documents/data
を適当に書き換えて
mkdir $HOMEDIR/test-dir
./get.sh dat test-dir pc.2ch.net unix 3
で使えると思う(freebsd以外は不明)。
2度目からは
./get.sh dat test-dir pc.2ch.net unix 3 -c
で差分だけとってこれる。
を適当に書き換えて
mkdir $HOMEDIR/test-dir
./get.sh dat test-dir pc.2ch.net unix 3
で使えると思う(freebsd以外は不明)。
2度目からは
./get.sh dat test-dir pc.2ch.net unix 3 -c
で差分だけとってこれる。
NGNG
あらほんと。
で、にちゃんの鯖に負担かけないように、前回収得した所からの差分だけ
拾いたいんだけど、どうやるの?
で、にちゃんの鯖に負担かけないように、前回収得した所からの差分だけ
拾いたいんだけど、どうやるの?
NGNG
うーん、
cgiから差分だけ拾うのと、datを全部拾って差分を調べるのとではどっちがいいんだろ?
てか、dat拾う方がいいんだろうなぁ。作りなおしてみるか。
cgiから差分だけ拾うのと、datを全部拾って差分を調べるのとではどっちがいいんだろ?
てか、dat拾う方がいいんだろうなぁ。作りなおしてみるか。
164153
NGNG >>162
wgetのオプションで俺が使えると思うのは。
-c ファイルサイズを見て、増加分だけダウンロードする。
-N タイムスタンプを見て、ファイルが更新されていたら、(ファイルすべて)をダウンロードする。
-nc ファイルが存在したら、ダウンロードしない。(接続もしない)
-t 3 失敗したときの再トライ回数(デフォルトは20なので、3ぐらいに設定したほうがよいと思う)
-x ディレクトリを作って、URLを再現する
(例 http://pc.2ch.net/unix/dat/0000000.dat → ./pc.2ch.net/unix/dat/000000.dat )
-nd -xの逆、ディレクトリを作らない。(-rは同時に-xが有効になるけど、-ndをつけるとディレクトリを作らない)
-i link.txt ファイルからURLを読み込んでダウンロードする。
-nv ダウンロードメッセージをいくらか静かにする。
-A acclist,
--accept=acclist acclistで指定した拡張子(?)のみダウンロードする。,で区切る(?)
-U "Mozilla/4.0" ユーザーエージェントをちょろまかす。
-P PREFIX
--progress=dot ダウンロード中のメッセージスタイルを変更。
-o hoge.txt ログファイル(上書きしてしまう)
-a hoge.txt ログファイル(追加から書く)
-r リンクをたどり、再起的に取る(ただし、別のホストはダウンロードしない)
-w 3 再起的にとる場合のダウンロードしたときの待ち時間
--no-parent 再起的にダウンロードする際、親ディレクトリから上はダウンロードしない。
-nd
wgetのオプションで俺が使えると思うのは。
-c ファイルサイズを見て、増加分だけダウンロードする。
-N タイムスタンプを見て、ファイルが更新されていたら、(ファイルすべて)をダウンロードする。
-nc ファイルが存在したら、ダウンロードしない。(接続もしない)
-t 3 失敗したときの再トライ回数(デフォルトは20なので、3ぐらいに設定したほうがよいと思う)
-x ディレクトリを作って、URLを再現する
(例 http://pc.2ch.net/unix/dat/0000000.dat → ./pc.2ch.net/unix/dat/000000.dat )
-nd -xの逆、ディレクトリを作らない。(-rは同時に-xが有効になるけど、-ndをつけるとディレクトリを作らない)
-i link.txt ファイルからURLを読み込んでダウンロードする。
-nv ダウンロードメッセージをいくらか静かにする。
-A acclist,
--accept=acclist acclistで指定した拡張子(?)のみダウンロードする。,で区切る(?)
-U "Mozilla/4.0" ユーザーエージェントをちょろまかす。
-P PREFIX
--progress=dot ダウンロード中のメッセージスタイルを変更。
-o hoge.txt ログファイル(上書きしてしまう)
-a hoge.txt ログファイル(追加から書く)
-r リンクをたどり、再起的に取る(ただし、別のホストはダウンロードしない)
-w 3 再起的にとる場合のダウンロードしたときの待ち時間
--no-parent 再起的にダウンロードする際、親ディレクトリから上はダウンロードしない。
-nd
165153
NGNG >>164
失敗。
wgetのオプションで俺が使えると思うのは。
-c ファイルサイズを見て、増加分だけダウンロードする。
-N タイムスタンプを見て、ファイルが更新されていたら、(ファイルすべて)をダウンロードする。
-nc ファイルが存在したら、ダウンロードしない。(接続もしない)
-t 3 失敗したときの再トライ回数(デフォルトは20なので、3ぐらいに設定したほうがよいと思う)
-x ディレクトリを作って、URLを再現する
(例 http://pc.2ch.net/unix/dat/0000000.dat → ./pc.2ch.net/unix/dat/000000.dat )
-nd -xの逆、ディレクトリを作らない。(-rは同時に-xが有効になるけど、-ndをつけるとディレクトリを作らない)
-i link.txt ファイルからURLを読み込んでダウンロードする。
-nv ダウンロードメッセージをいくらか静かにする。
-A acclist,
--accept=acclist acclistで指定した拡張子(?)のみダウンロードする。,で区切る(?)
-U "Mozilla/4.0" ユーザーエージェントをちょろまかす。
-P PATH PATHを基準にファイルを保存
--progress=dot ダウンロード中のメッセージスタイルを変更。
-o hoge.txt ログファイル(上書きしてしまう)
-a hoge.txt ログファイル(追加から書く)
-r リンクをたどり、再起的に取る(ただし、別のホストはダウンロードしない)
-w 3 再起的にとる場合のダウンロードしたときの待ち時間
--no-parent 再起的にダウンロードする際、親ディレクトリから上はダウンロードしない。
失敗。
wgetのオプションで俺が使えると思うのは。
-c ファイルサイズを見て、増加分だけダウンロードする。
-N タイムスタンプを見て、ファイルが更新されていたら、(ファイルすべて)をダウンロードする。
-nc ファイルが存在したら、ダウンロードしない。(接続もしない)
-t 3 失敗したときの再トライ回数(デフォルトは20なので、3ぐらいに設定したほうがよいと思う)
-x ディレクトリを作って、URLを再現する
(例 http://pc.2ch.net/unix/dat/0000000.dat → ./pc.2ch.net/unix/dat/000000.dat )
-nd -xの逆、ディレクトリを作らない。(-rは同時に-xが有効になるけど、-ndをつけるとディレクトリを作らない)
-i link.txt ファイルからURLを読み込んでダウンロードする。
-nv ダウンロードメッセージをいくらか静かにする。
-A acclist,
--accept=acclist acclistで指定した拡張子(?)のみダウンロードする。,で区切る(?)
-U "Mozilla/4.0" ユーザーエージェントをちょろまかす。
-P PATH PATHを基準にファイルを保存
--progress=dot ダウンロード中のメッセージスタイルを変更。
-o hoge.txt ログファイル(上書きしてしまう)
-a hoge.txt ログファイル(追加から書く)
-r リンクをたどり、再起的に取る(ただし、別のホストはダウンロードしない)
-w 3 再起的にとる場合のダウンロードしたときの待ち時間
--no-parent 再起的にダウンロードする際、親ディレクトリから上はダウンロードしない。
166153
NGNG WINDOWSのiriaとか見たいに、帯域制限してダウンロードすることができないか、
は調べたことあるけど、方法が見つからなかった。wgetではできないのでは無いかと思う。
代わりには、-wで制限するか、スクリプトの中にsleepを入れる方法があると思う。
あと画像ファイルを落とすとき、-x と -nc を組み合わせて使ったら、同一のファイルをダウンロードする問題はなくなると思う。
>>158-160の欠点は、あぼーんでlogが詰まったら、不適切なところから、ダウンロードを開始してしまうため、
変なdatファイルを作ってしまう。これは-Nですべてをダウンロードしなおせばいいけど、負荷が増える。
>>163
うーん、-nc -x オプションで、すでにダウンロードしてあるファイルをダウンロードしないようにするか、
もしくはwgetで何バイト目からを指定して、別ファイルにダウンロードすることができるような、オプションがあるかも..
は調べたことあるけど、方法が見つからなかった。wgetではできないのでは無いかと思う。
代わりには、-wで制限するか、スクリプトの中にsleepを入れる方法があると思う。
あと画像ファイルを落とすとき、-x と -nc を組み合わせて使ったら、同一のファイルをダウンロードする問題はなくなると思う。
>>158-160の欠点は、あぼーんでlogが詰まったら、不適切なところから、ダウンロードを開始してしまうため、
変なdatファイルを作ってしまう。これは-Nですべてをダウンロードしなおせばいいけど、負荷が増える。
>>163
うーん、-nc -x オプションで、すでにダウンロードしてあるファイルをダウンロードしないようにするか、
もしくはwgetで何バイト目からを指定して、別ファイルにダウンロードすることができるような、オプションがあるかも..
167153
NGNG >>162
wget -c で増加分をダウンロードできるらしいです。
これは、ダウンロード途中でコネクションが切れたりして、
あとからその続きからダウンロードしたい場合にも使えるようです。
遠くのftpサーバとかに使えます。
wget -c で増加分をダウンロードできるらしいです。
これは、ダウンロード途中でコネクションが切れたりして、
あとからその続きからダウンロードしたい場合にも使えるようです。
遠くのftpサーバとかに使えます。
NGNG
NGNG
このスレでやるな。
NGNG
>>169
何を?なぜ?
何を?なぜ?
1711
NGNG dat落ちするかとおもったけど
なんかまたあがってきてるんで
ひさびさにバージョンアップしようかな
というか、つかってる人(使う人)とかいるんでしょうか?
なんかまたあがってきてるんで
ひさびさにバージョンアップしようかな
というか、つかってる人(使う人)とかいるんでしょうか?
NGNG
NGNG
>>172
君のPCの時計ずれてない?
君のPCの時計ずれてない?
NGNG
NGNG
NGNG
>>174
いやこんなんでたから。
ゴミレススマソ。
---
get2ch_v006/get2ch.pl
tar: get2ch_v006/get2ch.pl: time stamp Jan 7 21:00 2003 is 85213 s in the future
get2ch_v006/get2chrc.txt
tar: get2ch_v006/get2chrc.txt: time stamp Jan 7 21:00 2003 is 85213 s in the future
get2ch_v006/readme.txt
tar: get2ch_v006/readme.txt: time stamp Jan 7 21:00 2003 is 85213 s in the future
get2ch_v006/subback2subhash.pl
tar: get2ch_v006/subback2subhash.pl: time stamp Jan 7 21:00 2003 is 85213 s in the future
いやこんなんでたから。
ゴミレススマソ。
---
get2ch_v006/get2ch.pl
tar: get2ch_v006/get2ch.pl: time stamp Jan 7 21:00 2003 is 85213 s in the future
get2ch_v006/get2chrc.txt
tar: get2ch_v006/get2chrc.txt: time stamp Jan 7 21:00 2003 is 85213 s in the future
get2ch_v006/readme.txt
tar: get2ch_v006/readme.txt: time stamp Jan 7 21:00 2003 is 85213 s in the future
get2ch_v006/subback2subhash.pl
tar: get2ch_v006/subback2subhash.pl: time stamp Jan 7 21:00 2003 is 85213 s in the future
NGNG
NGNG
て優香、wget使わなければforkしなくていいからActivePerlでも使えるようになるし、
Irvineでも使えばwgetよりはるかに効率的に収集できるし。
あーあ、UNIX板で気付いちゃいけないことに気付いちゃったよ。
Irvineでも使えばwgetよりはるかに効率的に収集できるし。
あーあ、UNIX板で気付いちゃいけないことに気付いちゃったよ。
NGNG
萌え板を監視するスクリプトも( ゚д゚)ホスィ…
NGNG
NGNG
>>178
soretteCUI?
soretteCUI?
182179
NGNG 説明不足でした。
こんな感じの掲示板です。
http://www9.xdsl.ne.jp/~w2web/moe/moelinks.html
萌々ぼ〜どって言うのかな?
ソノテの人の画像アップ掲示板として広く使われてるみたいです。
欲しいのは画像をいっきに落とす・・ですが
できたら全てのページをログも含めてHDに保存できるのが好ましいです。
こんな感じの掲示板です。
http://www9.xdsl.ne.jp/~w2web/moe/moelinks.html
萌々ぼ〜どって言うのかな?
ソノテの人の画像アップ掲示板として広く使われてるみたいです。
欲しいのは画像をいっきに落とす・・ですが
できたら全てのページをログも含めてHDに保存できるのが好ましいです。
NGNG
NGNG
NGNG
wgetでpostできるようにするパッチあるよ
ttp://pluto.im.uec.ac.jp/~sekita-n/prog/
CGIを激しく呼び出してアク禁喰らっても知らないけど
ttp://pluto.im.uec.ac.jp/~sekita-n/prog/
CGIを激しく呼び出してアク禁喰らっても知らないけど
NGNG
>>184
cgiを読んだら、POSTを送ることでページをめくるようになってた。
perlだったら直接サーバと繋いで、POSTを直接送ればできるのでは?
またはhttp://hoghoge/moemoe.cgi?page=3でページを直接指定して(GETでも)ページを開けるらしい。
ところでwgetでPOSTを送ることってできないよね?(wget厨ですまそ)
cgiを読んだら、POSTを送ることでページをめくるようになってた。
perlだったら直接サーバと繋いで、POSTを直接送ればできるのでは?
またはhttp://hoghoge/moemoe.cgi?page=3でページを直接指定して(GETでも)ページを開けるらしい。
ところでwgetでPOSTを送ることってできないよね?(wget厨ですまそ)
NGNG
curl使え
NGNG
NGNG
⊂⌒~⊃。Д。)⊃
NGNG
その萌え萌えなんちゃらってやつな、moemoe.htmlと同じディレクトリにある
moemoe.logってのがログファイルだからそれ落とせ。画像のURLも載ってるから。
CGI叩くのやめれ。
moemoe.logってのがログファイルだからそれ落とせ。画像のURLも載ってるから。
CGI叩くのやめれ。
192名無しさん@お腹いっぱい。
NGNG >>172
なんかデリられてるみたいなんで差異うpキボンヌ、クレクレ君でスマソ
なんかデリられてるみたいなんで差異うpキボンヌ、クレクレ君でスマソ
NGNG
>>187 w3m
NGNG
NGNG
>>193
それだ!
それだ!
NGNG
NGNG
NGNG
NGNG
>>198
あらほんと。
-cと-nc一緒に書いちゃってるけど、一応動いてるし、ダウンロードの
速さからして差分だけ落としてるように思ふ。
て優香、汚いソースを丁寧に読んでくれてありがd
datは差分だけ落としてるから連続ダウソも大丈夫かと思ったが、
やっぱヤバイかね?間隔あけた方がいいかな?
あらほんと。
-cと-nc一緒に書いちゃってるけど、一応動いてるし、ダウンロードの
速さからして差分だけ落としてるように思ふ。
て優香、汚いソースを丁寧に読んでくれてありがd
datは差分だけ落としてるから連続ダウソも大丈夫かと思ったが、
やっぱヤバイかね?間隔あけた方がいいかな?
NGNG
あと、wgetのダウンロード速度が遅くていらつくんだけど、なんか解決方法
ありませんか?
ありませんか?
NGNG
>>199
いや、ちょっとmonazilla関係のスレをよんでたら、
いかにサーバの負荷を減らすかいろいろ考えられていて、
この、datファイルを総ざらいするのも極力避けた方がいいかと思ってきた。
やるとしても、負荷の低い時間帯にかなり間隔を開けて行った方が良いかと...
>ダウンロードの
>速さからして差分だけ落としてるように思ふ。
-ncはすでにファイルが存在したら、ダウンロードしないので、ダウンロードされていない可能性は?
いや、ちょっとmonazilla関係のスレをよんでたら、
いかにサーバの負荷を減らすかいろいろ考えられていて、
この、datファイルを総ざらいするのも極力避けた方がいいかと思ってきた。
やるとしても、負荷の低い時間帯にかなり間隔を開けて行った方が良いかと...
>ダウンロードの
>速さからして差分だけ落としてるように思ふ。
-ncはすでにファイルが存在したら、ダウンロードしないので、ダウンロードされていない可能性は?
NGNG
>>201
今 -nc消したやつをうpしたよ。
だけど、-nc消したらなんだか速度が遅くなったような・・・
あと、日時がバグってるのはアーカイバーがおかしいらしいことが分かったよ。
だからキニシナーイ
>datファイルを総ざらいするのも極力避けた方がいいかと思ってきた。
なるほど。一応スレのレス数見て更新されてるか確認してから各スレの差分をダウソ
するようにしてるけど。もっと負荷を減らす方法ないでつかね?
cronで回すなら、10秒おきに更新されてるスレを1スレずつ巡回みたいなことも考えられるけど。
>-ncはすでにファイルが存在したら、ダウンロードしないので、ダウンロードされていない可能性は?
一応ダウンロードされてるようだが・・・謎。
まぁ直したし。
今 -nc消したやつをうpしたよ。
だけど、-nc消したらなんだか速度が遅くなったような・・・
あと、日時がバグってるのはアーカイバーがおかしいらしいことが分かったよ。
だからキニシナーイ
>datファイルを総ざらいするのも極力避けた方がいいかと思ってきた。
なるほど。一応スレのレス数見て更新されてるか確認してから各スレの差分をダウソ
するようにしてるけど。もっと負荷を減らす方法ないでつかね?
cronで回すなら、10秒おきに更新されてるスレを1スレずつ巡回みたいなことも考えられるけど。
>-ncはすでにファイルが存在したら、ダウンロードしないので、ダウンロードされていない可能性は?
一応ダウンロードされてるようだが・・・謎。
まぁ直したし。
NGNG
>>202
速度で判断するより、wgetのログをちゃんと見た方がはっきりするかと...
速度で判断するより、wgetのログをちゃんと見た方がはっきりするかと...
NGNG
NGNG
(´-`).。oO(画像掲示板から落とした方が簡単なのに、なんでだろう…)
NGNG
こんなのもあったり
http://j2ch.free-city.net/
http://j2ch.free-city.net/
NGNG
NGNG
NGNG
NGNG
この画像掲示板はPOSTじゃないと見れないみたいなんですが、w3m等の
POSTがしゃべれるツールで画像をダウンロードする方法が分からないのですが、
分かる方いらっしゃいませんか?
ttp://sss.direct.ne.jp/nuke/bbs.cgi
POSTがしゃべれるツールで画像をダウンロードする方法が分からないのですが、
分かる方いらっしゃいませんか?
ttp://sss.direct.ne.jp/nuke/bbs.cgi
NGNG
NGNG
NGNG
ぷ
NGNG
>>210
上のほうで出てるパッチを当てたwgetだとこんな感じ?
#!/bin/bash
url="http://hoge.com/hoge/imgboard.cgi??page="
img="/hoge/img-box/"
lastpage=10
i=0
while [ $i -lt $lastpage ]
do
i=`expr $i + 1`
echo $url$i >> list.txt
done
wget -r -w 1 -I $img -i list.txt -o wget.log
rm -f list.txt
上のほうで出てるパッチを当てたwgetだとこんな感じ?
#!/bin/bash
url="http://hoge.com/hoge/imgboard.cgi??page="
img="/hoge/img-box/"
lastpage=10
i=0
while [ $i -lt $lastpage ]
do
i=`expr $i + 1`
echo $url$i >> list.txt
done
wget -r -w 1 -I $img -i list.txt -o wget.log
rm -f list.txt
NGNG
保守
NGNG
>>241
普通に
wget "http://hoge.com/hoge/imgboard.cgi?page=2"
でもいけない?
>>215
それはやめとけ。
下手したら悪禁になるかもしれないらしい
普通に
wget "http://hoge.com/hoge/imgboard.cgi?page=2"
でもいけない?
>>215
それはやめとけ。
下手したら悪禁になるかもしれないらしい
217山崎渉
NGNG (^^)
218名無しさん@お腹いっぱい。
NGNG219あぼーん
NGNGあぼーん
220あぼーん
NGNGあぼーん
NGNG
222218
NGNG あれ?確かに見つかりませんね...。
って、鯖ごと落ちてる?
昨日まではアクセスできたのにな。今日話題になってるSQLPの影響かなぁ?
って、鯖ごと落ちてる?
昨日まではアクセスできたのにな。今日話題になってるSQLPの影響かなぁ?
NGNG
224218
NGNG >>221
たった今、鯖が復帰していることを確認しますた。よろしくおながいします。
いちお、間借りしたところは、
The site gobo.free-city.net is running Apache/1.3.27 (Unix) on FreeBSD
なので今回の騒ぎで落ちちゃったわけではなさそうですが。
たった今、鯖が復帰していることを確認しますた。よろしくおながいします。
いちお、間借りしたところは、
The site gobo.free-city.net is running Apache/1.3.27 (Unix) on FreeBSD
なので今回の騒ぎで落ちちゃったわけではなさそうですが。
NGNG
どうやらUAをいじらないとdatファイルを直接getできなくなったらしいが
226山崎渉
NGNG (^^)
227あぼーん
NGNGあぼーん
228名無しさん@お腹いっぱい。
NGNG ↑山崎、必死だな(笑
229名無しさん@お腹いっぱい。
NGNG UNIX コマンドだと標準で巡回コマンド付いてきますが、何か?
NGNG
Mac OS 10.2 のターミナルで実行しました
そしたら、
pl {-input <binary_file>} {-output <binary_file>}
Reads ASCII PL from stdin (or serialized file if -input specified)
and writes ASCII PL to stdout (or serialized file if -output)
なんて出ちゃって、もうわかりませぬ
どうかおしえてください。。。
おながいします。。。
そしたら、
pl {-input <binary_file>} {-output <binary_file>}
Reads ASCII PL from stdin (or serialized file if -input specified)
and writes ASCII PL to stdout (or serialized file if -output)
なんて出ちゃって、もうわかりませぬ
どうかおしえてください。。。
おながいします。。。
231あぼーん
NGNGあぼーん
232名無しさん@お腹いっぱい。
NGNG おお!
このスレまだ存在してたのか。
息が長いな。
山崎先生のおかげですね。
このスレまだ存在してたのか。
息が長いな。
山崎先生のおかげですね。
233名無しさん@お腹いっぱい。
NGNG >>185 のページ見れないんですが、引越し先知ってる人います?
NGNG
>>233
とりあえずWayBack Machineで拾えた
とりあえずWayBack Machineで拾えた
235あぼーん
NGNGあぼーん
236名無しさん@お腹いっぱい。
NGNG age?
237あぼーん
NGNGあぼーん
238あぼーん
NGNGあぼーん
239あぼーん
NGNG あぼーん
NGNG
ホッシュ
NGNG
242名無しさん@お腹いっぱい。
NGNG あけました おめでとう
NGNG
このスクリプト使ってみたよ。
板一枚で 7500 くらい画像がとれた。終わるのに丸一日かかったけど…。
板一枚で 7500 くらい画像がとれた。終わるのに丸一日かかったけど…。
NGNG
濃淡分布や周波数分布なんか使って、グロ画像や
虹板に紛れ込んだ三次元画像(これもグロ画像か…)を取り除きたいなぁ。
グロ画像は「怖くてみられないグロ画像を鑑定するスレ」があったね、
それを学習データにして……
マンドクセ
虹板に紛れ込んだ三次元画像(これもグロ画像か…)を取り除きたいなぁ。
グロ画像は「怖くてみられないグロ画像を鑑定するスレ」があったね、
それを学習データにして……
マンドクセ
NGNG
NGNG
...
NGNG
NGNG
NGNG
NGNG
保守
251名無しさん@お腹いっぱい。
NGNGNGNG
>>251
責任を負っかぶることをものともしない猛者。
責任を負っかぶることをものともしない猛者。
253名無しさん@お腹いっぱい。
NGNG エロエロage
NGNG
何だ山崎渉か
256名無しさん@お腹いっぱい。
2005/04/05(火) 17:11:38 umu
257login:root ◆GrsqjXpGxE
2005/04/17(日) 22:09:41258login:root ◆GrsqjXpGxE
2005/04/17(日) 22:15:48 ウワーーーーーン
早速だが>>1よ。質問がある!
ディレクトリにある conf.txt は変更する必要があるのか?
$ita = 'http://choco.2ch.net/ainotane/';
$dir = './jpg';
$limit = 999;
$down = 2;
$ita は、2ちゃんの板のアドレスでおkなんだな?
早速だが>>1よ。質問がある!
ディレクトリにある conf.txt は変更する必要があるのか?
$ita = 'http://choco.2ch.net/ainotane/';
$dir = './jpg';
$limit = 999;
$down = 2;
$ita は、2ちゃんの板のアドレスでおkなんだな?
2005/04/17(日) 22:34:37
>>258
1じゃないけど、おkだ
1じゃないけど、おkだ
260名無しさん@通りすがり ◆.q7T9q3bHY
NGNG261名無しさん@お腹いっぱい。
2005/07/09(土) 14:24:53 test
2005/07/09(土) 21:05:19
このスレまだあったのか。。。
懐かしい
懐かしい
263名無しさん@お腹いっぱい。
2005/07/17(日) 01:12:01 ああ、ずっとあるぜ
2005/08/15(月) 02:33:24
イメージサーチャーモナー?
ttp://www.abars.biz/search/
ttp://www.abars.biz/search/
2005/11/13(日) 22:53:23
一度でもdownloadしたファイルをmd5sumしてsum値のリストどっかテキスト
に保存しといて、同じsum値のファイルを二度とdownloadしないように
してくれる重複避け機能を追加してください。
に保存しといて、同じsum値のファイルを二度とdownloadしないように
してくれる重複避け機能を追加してください。
2007/11/13(火) 23:55:48
vdvdvdv
nfdfdnfdn
fhffhh
jrtyjr
yteryery
yeryer
nfdfdnfdn
fhffhh
jrtyjr
yteryery
yeryer
268名無しさん@お腹いっぱい。
2008/02/22(金) 11:12:57 保守する必要ある?
269名無しさん@お腹いっぱい。
2009/08/01(土) 09:16:08 何だこのスレw
2010/11/18(木) 21:04:12
よし!!
2011/08/27(土) 20:43:51.62
渋の画像ぶっこ抜きスクリプト、要る?
2011/09/09(金) 20:42:51.45
てーすと
2011/10/06(木) 00:30:03.20
てst
10年以上更新してたのか
2013/02/13(水) 15:50:37.06
283名無しさん@お腹いっぱい。
2013/03/22(金) 21:42:30.18 _
|O\
| \ キリキリ
∧|∧ \ キリキリ
ググゥ>(;⌒ヽ \
∪ | (~)
∪∪ γ´⌒`ヽ
) ) {i:i:i:i:i:i:i:i:}
( ( ( ´・ω・)、
(O ⌒ )O
⊂_)∪
|O\
| \ キリキリ
∧|∧ \ キリキリ
ググゥ>(;⌒ヽ \
∪ | (~)
∪∪ γ´⌒`ヽ
) ) {i:i:i:i:i:i:i:i:}
( ( ( ´・ω・)、
(O ⌒ )O
⊂_)∪
284名無しさん@お腹いっぱい。
2013/10/13(日) 00:05:36.16 懐かしい
2014/07/14(月) 17:55:10.21
286島本町で凄惨なイジメを受けて廃人になった方へ
2014/08/06(水) 20:02:47.91 >大阪府三島郡島本町の小学校や中学校は、暴力イジメ学校や。
島本町の学校でいじめ・暴力・脅迫・恐喝などを受け続けて廃人になってしもうた僕が言うんやから、
まちがいないで。僕のほかにも、イジメが原因で精神病になったりひきこもりになったりした子が何人もおる。
教師も校長も、暴力やいじめがあっても見て見ぬフリ。イジメに加担する教師すらおった。
誰かがイジメを苦にして自殺しても、「本校にイジメはなかった」と言うて逃げるんやろうなあ。
島本町の学校の関係者は、僕を捜し出して口封じをするな
>島本町って町は、暴力といじめと口裏合わせと口封じの町なんだな
子供の時に受けた酷いイジメの体験は、一生癒えない深い傷になるなあ
「暴力とイジメと口裏合わせと口封じ」の町やそういう町に巣食うヤクザ・チンピラ・ゴロツキ・不良・
いじめっ子・ダニ・ノミ・シラミなどを監視して非難するのは暮らしやすい町を作るのに必要だ
島本町の学校でいじめ・暴力・脅迫・恐喝などを受け続けて廃人になってしもうた僕が言うんやから、
まちがいないで。僕のほかにも、イジメが原因で精神病になったりひきこもりになったりした子が何人もおる。
教師も校長も、暴力やいじめがあっても見て見ぬフリ。イジメに加担する教師すらおった。
誰かがイジメを苦にして自殺しても、「本校にイジメはなかった」と言うて逃げるんやろうなあ。
島本町の学校の関係者は、僕を捜し出して口封じをするな
>島本町って町は、暴力といじめと口裏合わせと口封じの町なんだな
子供の時に受けた酷いイジメの体験は、一生癒えない深い傷になるなあ
「暴力とイジメと口裏合わせと口封じ」の町やそういう町に巣食うヤクザ・チンピラ・ゴロツキ・不良・
いじめっ子・ダニ・ノミ・シラミなどを監視して非難するのは暮らしやすい町を作るのに必要だ
287名無しさん@お腹いっぱい。
2017/12/29(金) 08:49:24.14 誰でも簡単にパソコン1台で稼げる方法など
参考までに、
⇒ 『宮本のゴウリエセレレ』 というブログで見ることができるらしいです。
グーグル検索⇒『宮本のゴウリエセレレ』
26UOUCYMZ2
参考までに、
⇒ 『宮本のゴウリエセレレ』 というブログで見ることができるらしいです。
グーグル検索⇒『宮本のゴウリエセレレ』
26UOUCYMZ2
288名無しさん@お腹いっぱい。
2018/05/22(火) 05:12:44.99 知り合いから教えてもらったパソコン一台でお金持ちになれるやり方
時間がある方はみてもいいかもしれません
グーグルで検索するといいかも『ネットで稼ぐ方法 モニアレフヌノ』
A4Y4N
時間がある方はみてもいいかもしれません
グーグルで検索するといいかも『ネットで稼ぐ方法 モニアレフヌノ』
A4Y4N
2023/09/28(木) 05:34:11.87
今は別のスクリプトで5chが落ちまくりという
2023/10/20(金) 11:11:11.81
やっほー、これはうれしい驚きだ!
291名無しさん@お腹いっぱい。
2024/03/27(水) 20:38:37.01 要するに太ったらダメな人間はいないと思ってないんだろうね
スケート靴込でもなるだろうし
詐欺に気を使ってるとかない?
スケート靴込でもなるだろうし
詐欺に気を使ってるとかない?
292名無しさん@お腹いっぱい。
2024/03/27(水) 20:49:38.09 双日って他のやつが世の中心は自由主義だよ
それ言い出したらどこも変わらんやろ...
それ言い出したらどこも変わらんやろ...
293名無しさん@お腹いっぱい。
2024/03/27(水) 21:08:25.55294名無しさん@お腹いっぱい。
2024/03/27(水) 21:31:40.23 子供手当とか配偶者控除とか金持ちのほうが勝てる可能性が高そう
レスを投稿する
ニュース
- 【速報】トランプ大統領、中国の習近平国家主席を「国賓」として招待することに ★2 [ニョキニョキ★]
- 日本と中国を結ぶ12航空路線で全便欠航 中国人に最も人気の海外旅行先は日本から韓国に [ぐれ★]
- 米中電話会談、トランプ氏は「米国側は中国にとっての台湾問題の重要性を理解する」 [1ゲットロボ★]
- 【東京・足立の車暴走】赤信号無視か 危険運転致死傷疑いも視野に捜査 逮捕された職業不詳の男性(37)は精神疾患で通院歴も ★3 [ぐれ★]
- 【音楽】「なんでこんなバカが国のトップなの?」 若者に人気のバンド「GEZAN」のマヒトゥ・ザ・ピーポーが高市総理に苦言 [シャチ★]
- 【国際】トランプ氏、来年4月に中国を訪問する招待を受け入れる 習氏も国賓で訪米へ 電話会談 [ぐれ★]
- 【岸田朗報】鰻(ウナギ)、ガチで3年以内に1匹1000円以下へ!!!! [782460143]
- 【実況】博衣こよりのえちえち朝こよ🧪
- 習「中国とアメリカは軍国主義(日本)を倒した仲間。勝利の成果を守るために協力すべきだ」とトランプに呼び掛け。高市早苗、終了。 [153490809]
- シャコがデカかったらヤバイよな
- 専門家「社会不安や不満が高まると、人々は原因を単純化し外集団を脅威として捉えやすくなります」政権批判か?😡 [399259198]
- 【急募】巨人の人的補償プロテクトリストWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWW
