>>128
% wget http://xxx.xxx.xxx/???.jpg -O `date +%Y%m%d`.jpg
(´-`).。oO(>>127 がすでに答えてくれているけど…なんでだろう?)
2ちゃん画像落としまくりスクリプト
128名無しさん@Emacs
NGNGNGNG
NGNG
ほしゅ
NGNG
捕手
NGNG
なんとなく
NGNG
ほしゅ
NGNG
どるどれい?
NGNG
sage
NGNG
おーい
137名無しさん@お腹いっぱい。
NGNG ある日付以降の書きこみに書かれているURLのみを
落としたいとかできるでしょうか?
落としたいとかできるでしょうか?
138名無しさん@お腹いっぱい。
NGNG あげとこう
NGNG
さげとこう
NGNG
一個のディレクトリに画像ファイル1400個置いてますが
gimvでみるときに極端に速度が遅いです
数が多いとよくないんですね
どーにかなりませんか?
gimvでみるときに極端に速度が遅いです
数が多いとよくないんですね
どーにかなりませんか?
NGNG
何が悪いかをつきとめて、それを直す。
NGNG
>>140
UNIXのファイルシステムは
一つのディレクトリにファイルがいっぱいあると遅いと
聞いたことがあるな
(だからメールキューは複数のディレクトリに分かれてるらしい)
1400個くらいなら関係ないのかもしれんけどね
詳しい人フォローレスたのむ
UNIXのファイルシステムは
一つのディレクトリにファイルがいっぱいあると遅いと
聞いたことがあるな
(だからメールキューは複数のディレクトリに分かれてるらしい)
1400個くらいなら関係ないのかもしれんけどね
詳しい人フォローレスたのむ
NGNG
>142
(だから2chのスレッドは足切り制限があるらしい)
(1つの板に数千のスレがあった時代は重かったなぁ…)
脱線スマソ
(だから2chのスレッドは足切り制限があるらしい)
(1つの板に数千のスレがあった時代は重かったなぁ…)
脱線スマソ
144名無しさん@お腹いっぱい。
NGNG age
145名無しさん@お腹いっぱい。
NGNG うーん、誰も保守しようとか言う気はないの?
ないよね。
ないよね。
NGNG
147名無しさん@お腹いっぱい。
NGNG チョトおしえてください。
IEからなら
http://pc.2ch.net/test/read.cgi/unix/1003833552/
が見えるんですけど、wgetを使ってこのページをダウンロードしようとしても、
できないんです。どうやればいいんですか?
IEからなら
http://pc.2ch.net/test/read.cgi/unix/1003833552/
が見えるんですけど、wgetを使ってこのページをダウンロードしようとしても、
できないんです。どうやればいいんですか?
NGNG
wget http://pc.2ch.net/test/read.cgi/unix/1003833552/
でできるが…?
でできるが…?
149名無しさん@お腹いっぱい。
NGNG て優香、wget使わなくても、httpget使えば便利じゃない?
と思って、httpget落とそうとしたけど、内部エラーで落とせない・・・
http://www.onicos.com/staff/iz/release/
と思って、httpget落とそうとしたけど、内部エラーで落とせない・・・
http://www.onicos.com/staff/iz/release/
NGNG
NGNG
どうせやるなら、以前にもちょっと話出てたけど、一人が落としたファイルをどっかの鯖に
キャッシュしといて他の人はそっちから落とせるようなの作ろうよ。そうすれば2ちゃんの
負荷も減るし、うpろだの負荷も減るし、ソッコーで消されたファイルもキャッシュに残って
るしで、うっはうはーじゃん。
キャッシュしといて他の人はそっちから落とせるようなの作ろうよ。そうすれば2ちゃんの
負荷も減るし、うpろだの負荷も減るし、ソッコーで消されたファイルもキャッシュに残って
るしで、うっはうはーじゃん。
NGNG
どうせなら落としたファイルがP2Pで共有されるようにするとか
NGNG
154名無しさん@お腹いっぱい。
NGNGNGNG
NGNG
>>153
て優香、datファイルを落とせるならそうしたいんだけど、やりかた
教えてーな。
たしかどっかでdatファイルは落とせなくなったとか聞いたような気がしたんで、
htmlをそのまま落としてマッチングしてるんだけど・・・
て優香、datファイルを落とせるならそうしたいんだけど、やりかた
教えてーな。
たしかどっかでdatファイルは落とせなくなったとか聞いたような気がしたんで、
htmlをそのまま落としてマッチングしてるんだけど・・・
157153
NGNG >>156
http://pc.2ch.net/test/read.cgi/unix/1003833552/
だったら
http://pc.2ch.net/unix/dat/1003833552.dat
でいけるのではないと?
>たしかどっかでdatファイルは落とせなくなったとか聞いたような気がしたんで、
>htmlをそのまま落としてマッチングしてるんだけど・・・
これは俺も聞いたことあるけど、閉鎖騒動の時あたりじゃないの?
俺はそれよりあとに2ch来たからよく知らないけど、
read.cgiにアクセスするより、datファイルに直接アクセスしたほうが、負荷は減るらしい、と聞いたこともある。
http://pc.2ch.net/test/read.cgi/unix/1003833552/
だったら
http://pc.2ch.net/unix/dat/1003833552.dat
でいけるのではないと?
>たしかどっかでdatファイルは落とせなくなったとか聞いたような気がしたんで、
>htmlをそのまま落としてマッチングしてるんだけど・・・
これは俺も聞いたことあるけど、閉鎖騒動の時あたりじゃないの?
俺はそれよりあとに2ch来たからよく知らないけど、
read.cgiにアクセスするより、datファイルに直接アクセスしたほうが、負荷は減るらしい、と聞いたこともある。
158153
NGNG >>156
とりあえず、俺の作ったdatファイルだけ落とすスクリプトも張っておこう。
粗末なシェルスクリプトだが...
#!/bin/sh
PATH=/usr/local/bin:/usr/bin:/bin:/usr/local/sbin:/usr/sbin:/sbin
DATE=`date +%Y%m%d_%H%M%S`
if [ "$1" ] && [ "$2" ] && [ "$3" ] && [ "$4" ] ;then
:
else
echo "useage: ./get.sh [dat|subject] [dir] [host] [ita] [waittime] [wget-flag]"
exit
fi
HOMEDIR=/home/hoge/documents/data
TARGET=$1
DIR=$2
HOST=$3
ITA=$4
LOGFILE=./wget_log.txt
if [ "$5" ];then
WAIT=$5
else
WAIT=3
fi
とりあえず、俺の作ったdatファイルだけ落とすスクリプトも張っておこう。
粗末なシェルスクリプトだが...
#!/bin/sh
PATH=/usr/local/bin:/usr/bin:/bin:/usr/local/sbin:/usr/sbin:/sbin
DATE=`date +%Y%m%d_%H%M%S`
if [ "$1" ] && [ "$2" ] && [ "$3" ] && [ "$4" ] ;then
:
else
echo "useage: ./get.sh [dat|subject] [dir] [host] [ita] [waittime] [wget-flag]"
exit
fi
HOMEDIR=/home/hoge/documents/data
TARGET=$1
DIR=$2
HOST=$3
ITA=$4
LOGFILE=./wget_log.txt
if [ "$5" ];then
WAIT=$5
else
WAIT=3
fi
159153
NGNG # -c tuchuukara
# -N time stamp
WGETFLAG="-t 3 -a${LOGFILE} -P./dat -U "Hogella/1.0" -nd $6"
if ! [ -d ${HOMEDIR}/${DIR} ] ;then
echo ${HOMEDIR}/${DIR} no such directry\!
exit
fi
/bin/test -d ${HOMEDIR}/${DIR}/dat || mkdir ${HOMEDIR}/${DIR}/dat
/bin/test -d ${HOMEDIR}/${DIR}/old_dat || mkdir ${HOMEDIR}/${DIR}/old_dat
/bin/test -d ${HOMEDIR}/${DIR}/subject || mkdir ${HOMEDIR}/${DIR}/subject
cd ${HOMEDIR}/${DIR}
test -f ${LOGFILE} || touch ${LOGFILE}
printf "###\n###\n### DATE=${DATE} \n### args=$* \n###\n###\n" >> ${LOGFILE}
if [ ${TARGET} = subject ];then
rm -f subject.txt
wget -a${LOGFILE} -U "Hogella/1.0" http://${HOST}/${ITA}/subject.txt
cp subject.txt ./subject/subject.${DATE}.txt
# -N time stamp
WGETFLAG="-t 3 -a${LOGFILE} -P./dat -U "Hogella/1.0" -nd $6"
if ! [ -d ${HOMEDIR}/${DIR} ] ;then
echo ${HOMEDIR}/${DIR} no such directry\!
exit
fi
/bin/test -d ${HOMEDIR}/${DIR}/dat || mkdir ${HOMEDIR}/${DIR}/dat
/bin/test -d ${HOMEDIR}/${DIR}/old_dat || mkdir ${HOMEDIR}/${DIR}/old_dat
/bin/test -d ${HOMEDIR}/${DIR}/subject || mkdir ${HOMEDIR}/${DIR}/subject
cd ${HOMEDIR}/${DIR}
test -f ${LOGFILE} || touch ${LOGFILE}
printf "###\n###\n### DATE=${DATE} \n### args=$* \n###\n###\n" >> ${LOGFILE}
if [ ${TARGET} = subject ];then
rm -f subject.txt
wget -a${LOGFILE} -U "Hogella/1.0" http://${HOST}/${ITA}/subject.txt
cp subject.txt ./subject/subject.${DATE}.txt
160153
NGNG elif [ ${TARGET} = dat ];then
echo "---> DATE = ${DATE}"
mkdir old_dat/${DATE}
rm -f subject.txt
wget -a${LOGFILE} http://${HOST}/${ITA}/subject.txt
echo "---> got subject file"
sleep 1
echo -n "---> dat file... "
for DAT in `cat ./subject.txt | cut -f1 -d.` ;do
echo "--->TARGET is ${DAT}" >> ${LOGFILE}
echo -n "${DAT}"
wget ${WGETFLAG} http://${HOST}/${ITA}/dat/${DAT}.dat
if [ -f ./dat/${DAT}.dat.1 ];then
echo "---> file moved to old_dat dir" >> ${LOGFILE}
mv ./dat/${DAT}.dat ./old_dat/${DATE}
mv ./dat/${DAT}.dat.1 ./dat/${DAT}.dat
echo -n "_ "
elif [ -f ./dat/${DAT}.dat ];then
echo -n ". "
else
echo -n "X "
fi
sleep ${WAIT}
done
echo " "
echo "---> all done" >>${LOGFILE}
echo "---> all done"
fi
echo "---> DATE = ${DATE}"
mkdir old_dat/${DATE}
rm -f subject.txt
wget -a${LOGFILE} http://${HOST}/${ITA}/subject.txt
echo "---> got subject file"
sleep 1
echo -n "---> dat file... "
for DAT in `cat ./subject.txt | cut -f1 -d.` ;do
echo "--->TARGET is ${DAT}" >> ${LOGFILE}
echo -n "${DAT}"
wget ${WGETFLAG} http://${HOST}/${ITA}/dat/${DAT}.dat
if [ -f ./dat/${DAT}.dat.1 ];then
echo "---> file moved to old_dat dir" >> ${LOGFILE}
mv ./dat/${DAT}.dat ./old_dat/${DATE}
mv ./dat/${DAT}.dat.1 ./dat/${DAT}.dat
echo -n "_ "
elif [ -f ./dat/${DAT}.dat ];then
echo -n ". "
else
echo -n "X "
fi
sleep ${WAIT}
done
echo " "
echo "---> all done" >>${LOGFILE}
echo "---> all done"
fi
161153
NGNG HOMEDIR=/home/hoge/documents/data
を適当に書き換えて
mkdir $HOMEDIR/test-dir
./get.sh dat test-dir pc.2ch.net unix 3
で使えると思う(freebsd以外は不明)。
2度目からは
./get.sh dat test-dir pc.2ch.net unix 3 -c
で差分だけとってこれる。
を適当に書き換えて
mkdir $HOMEDIR/test-dir
./get.sh dat test-dir pc.2ch.net unix 3
で使えると思う(freebsd以外は不明)。
2度目からは
./get.sh dat test-dir pc.2ch.net unix 3 -c
で差分だけとってこれる。
NGNG
あらほんと。
で、にちゃんの鯖に負担かけないように、前回収得した所からの差分だけ
拾いたいんだけど、どうやるの?
で、にちゃんの鯖に負担かけないように、前回収得した所からの差分だけ
拾いたいんだけど、どうやるの?
NGNG
うーん、
cgiから差分だけ拾うのと、datを全部拾って差分を調べるのとではどっちがいいんだろ?
てか、dat拾う方がいいんだろうなぁ。作りなおしてみるか。
cgiから差分だけ拾うのと、datを全部拾って差分を調べるのとではどっちがいいんだろ?
てか、dat拾う方がいいんだろうなぁ。作りなおしてみるか。
164153
NGNG >>162
wgetのオプションで俺が使えると思うのは。
-c ファイルサイズを見て、増加分だけダウンロードする。
-N タイムスタンプを見て、ファイルが更新されていたら、(ファイルすべて)をダウンロードする。
-nc ファイルが存在したら、ダウンロードしない。(接続もしない)
-t 3 失敗したときの再トライ回数(デフォルトは20なので、3ぐらいに設定したほうがよいと思う)
-x ディレクトリを作って、URLを再現する
(例 http://pc.2ch.net/unix/dat/0000000.dat → ./pc.2ch.net/unix/dat/000000.dat )
-nd -xの逆、ディレクトリを作らない。(-rは同時に-xが有効になるけど、-ndをつけるとディレクトリを作らない)
-i link.txt ファイルからURLを読み込んでダウンロードする。
-nv ダウンロードメッセージをいくらか静かにする。
-A acclist,
--accept=acclist acclistで指定した拡張子(?)のみダウンロードする。,で区切る(?)
-U "Mozilla/4.0" ユーザーエージェントをちょろまかす。
-P PREFIX
--progress=dot ダウンロード中のメッセージスタイルを変更。
-o hoge.txt ログファイル(上書きしてしまう)
-a hoge.txt ログファイル(追加から書く)
-r リンクをたどり、再起的に取る(ただし、別のホストはダウンロードしない)
-w 3 再起的にとる場合のダウンロードしたときの待ち時間
--no-parent 再起的にダウンロードする際、親ディレクトリから上はダウンロードしない。
-nd
wgetのオプションで俺が使えると思うのは。
-c ファイルサイズを見て、増加分だけダウンロードする。
-N タイムスタンプを見て、ファイルが更新されていたら、(ファイルすべて)をダウンロードする。
-nc ファイルが存在したら、ダウンロードしない。(接続もしない)
-t 3 失敗したときの再トライ回数(デフォルトは20なので、3ぐらいに設定したほうがよいと思う)
-x ディレクトリを作って、URLを再現する
(例 http://pc.2ch.net/unix/dat/0000000.dat → ./pc.2ch.net/unix/dat/000000.dat )
-nd -xの逆、ディレクトリを作らない。(-rは同時に-xが有効になるけど、-ndをつけるとディレクトリを作らない)
-i link.txt ファイルからURLを読み込んでダウンロードする。
-nv ダウンロードメッセージをいくらか静かにする。
-A acclist,
--accept=acclist acclistで指定した拡張子(?)のみダウンロードする。,で区切る(?)
-U "Mozilla/4.0" ユーザーエージェントをちょろまかす。
-P PREFIX
--progress=dot ダウンロード中のメッセージスタイルを変更。
-o hoge.txt ログファイル(上書きしてしまう)
-a hoge.txt ログファイル(追加から書く)
-r リンクをたどり、再起的に取る(ただし、別のホストはダウンロードしない)
-w 3 再起的にとる場合のダウンロードしたときの待ち時間
--no-parent 再起的にダウンロードする際、親ディレクトリから上はダウンロードしない。
-nd
165153
NGNG >>164
失敗。
wgetのオプションで俺が使えると思うのは。
-c ファイルサイズを見て、増加分だけダウンロードする。
-N タイムスタンプを見て、ファイルが更新されていたら、(ファイルすべて)をダウンロードする。
-nc ファイルが存在したら、ダウンロードしない。(接続もしない)
-t 3 失敗したときの再トライ回数(デフォルトは20なので、3ぐらいに設定したほうがよいと思う)
-x ディレクトリを作って、URLを再現する
(例 http://pc.2ch.net/unix/dat/0000000.dat → ./pc.2ch.net/unix/dat/000000.dat )
-nd -xの逆、ディレクトリを作らない。(-rは同時に-xが有効になるけど、-ndをつけるとディレクトリを作らない)
-i link.txt ファイルからURLを読み込んでダウンロードする。
-nv ダウンロードメッセージをいくらか静かにする。
-A acclist,
--accept=acclist acclistで指定した拡張子(?)のみダウンロードする。,で区切る(?)
-U "Mozilla/4.0" ユーザーエージェントをちょろまかす。
-P PATH PATHを基準にファイルを保存
--progress=dot ダウンロード中のメッセージスタイルを変更。
-o hoge.txt ログファイル(上書きしてしまう)
-a hoge.txt ログファイル(追加から書く)
-r リンクをたどり、再起的に取る(ただし、別のホストはダウンロードしない)
-w 3 再起的にとる場合のダウンロードしたときの待ち時間
--no-parent 再起的にダウンロードする際、親ディレクトリから上はダウンロードしない。
失敗。
wgetのオプションで俺が使えると思うのは。
-c ファイルサイズを見て、増加分だけダウンロードする。
-N タイムスタンプを見て、ファイルが更新されていたら、(ファイルすべて)をダウンロードする。
-nc ファイルが存在したら、ダウンロードしない。(接続もしない)
-t 3 失敗したときの再トライ回数(デフォルトは20なので、3ぐらいに設定したほうがよいと思う)
-x ディレクトリを作って、URLを再現する
(例 http://pc.2ch.net/unix/dat/0000000.dat → ./pc.2ch.net/unix/dat/000000.dat )
-nd -xの逆、ディレクトリを作らない。(-rは同時に-xが有効になるけど、-ndをつけるとディレクトリを作らない)
-i link.txt ファイルからURLを読み込んでダウンロードする。
-nv ダウンロードメッセージをいくらか静かにする。
-A acclist,
--accept=acclist acclistで指定した拡張子(?)のみダウンロードする。,で区切る(?)
-U "Mozilla/4.0" ユーザーエージェントをちょろまかす。
-P PATH PATHを基準にファイルを保存
--progress=dot ダウンロード中のメッセージスタイルを変更。
-o hoge.txt ログファイル(上書きしてしまう)
-a hoge.txt ログファイル(追加から書く)
-r リンクをたどり、再起的に取る(ただし、別のホストはダウンロードしない)
-w 3 再起的にとる場合のダウンロードしたときの待ち時間
--no-parent 再起的にダウンロードする際、親ディレクトリから上はダウンロードしない。
166153
NGNG WINDOWSのiriaとか見たいに、帯域制限してダウンロードすることができないか、
は調べたことあるけど、方法が見つからなかった。wgetではできないのでは無いかと思う。
代わりには、-wで制限するか、スクリプトの中にsleepを入れる方法があると思う。
あと画像ファイルを落とすとき、-x と -nc を組み合わせて使ったら、同一のファイルをダウンロードする問題はなくなると思う。
>>158-160の欠点は、あぼーんでlogが詰まったら、不適切なところから、ダウンロードを開始してしまうため、
変なdatファイルを作ってしまう。これは-Nですべてをダウンロードしなおせばいいけど、負荷が増える。
>>163
うーん、-nc -x オプションで、すでにダウンロードしてあるファイルをダウンロードしないようにするか、
もしくはwgetで何バイト目からを指定して、別ファイルにダウンロードすることができるような、オプションがあるかも..
は調べたことあるけど、方法が見つからなかった。wgetではできないのでは無いかと思う。
代わりには、-wで制限するか、スクリプトの中にsleepを入れる方法があると思う。
あと画像ファイルを落とすとき、-x と -nc を組み合わせて使ったら、同一のファイルをダウンロードする問題はなくなると思う。
>>158-160の欠点は、あぼーんでlogが詰まったら、不適切なところから、ダウンロードを開始してしまうため、
変なdatファイルを作ってしまう。これは-Nですべてをダウンロードしなおせばいいけど、負荷が増える。
>>163
うーん、-nc -x オプションで、すでにダウンロードしてあるファイルをダウンロードしないようにするか、
もしくはwgetで何バイト目からを指定して、別ファイルにダウンロードすることができるような、オプションがあるかも..
167153
NGNG >>162
wget -c で増加分をダウンロードできるらしいです。
これは、ダウンロード途中でコネクションが切れたりして、
あとからその続きからダウンロードしたい場合にも使えるようです。
遠くのftpサーバとかに使えます。
wget -c で増加分をダウンロードできるらしいです。
これは、ダウンロード途中でコネクションが切れたりして、
あとからその続きからダウンロードしたい場合にも使えるようです。
遠くのftpサーバとかに使えます。
NGNG
NGNG
このスレでやるな。
NGNG
>>169
何を?なぜ?
何を?なぜ?
1711
NGNG dat落ちするかとおもったけど
なんかまたあがってきてるんで
ひさびさにバージョンアップしようかな
というか、つかってる人(使う人)とかいるんでしょうか?
なんかまたあがってきてるんで
ひさびさにバージョンアップしようかな
というか、つかってる人(使う人)とかいるんでしょうか?
NGNG
NGNG
>>172
君のPCの時計ずれてない?
君のPCの時計ずれてない?
NGNG
NGNG
NGNG
>>174
いやこんなんでたから。
ゴミレススマソ。
---
get2ch_v006/get2ch.pl
tar: get2ch_v006/get2ch.pl: time stamp Jan 7 21:00 2003 is 85213 s in the future
get2ch_v006/get2chrc.txt
tar: get2ch_v006/get2chrc.txt: time stamp Jan 7 21:00 2003 is 85213 s in the future
get2ch_v006/readme.txt
tar: get2ch_v006/readme.txt: time stamp Jan 7 21:00 2003 is 85213 s in the future
get2ch_v006/subback2subhash.pl
tar: get2ch_v006/subback2subhash.pl: time stamp Jan 7 21:00 2003 is 85213 s in the future
いやこんなんでたから。
ゴミレススマソ。
---
get2ch_v006/get2ch.pl
tar: get2ch_v006/get2ch.pl: time stamp Jan 7 21:00 2003 is 85213 s in the future
get2ch_v006/get2chrc.txt
tar: get2ch_v006/get2chrc.txt: time stamp Jan 7 21:00 2003 is 85213 s in the future
get2ch_v006/readme.txt
tar: get2ch_v006/readme.txt: time stamp Jan 7 21:00 2003 is 85213 s in the future
get2ch_v006/subback2subhash.pl
tar: get2ch_v006/subback2subhash.pl: time stamp Jan 7 21:00 2003 is 85213 s in the future
NGNG
NGNG
て優香、wget使わなければforkしなくていいからActivePerlでも使えるようになるし、
Irvineでも使えばwgetよりはるかに効率的に収集できるし。
あーあ、UNIX板で気付いちゃいけないことに気付いちゃったよ。
Irvineでも使えばwgetよりはるかに効率的に収集できるし。
あーあ、UNIX板で気付いちゃいけないことに気付いちゃったよ。
NGNG
萌え板を監視するスクリプトも( ゚д゚)ホスィ…
NGNG
NGNG
>>178
soretteCUI?
soretteCUI?
182179
NGNG 説明不足でした。
こんな感じの掲示板です。
http://www9.xdsl.ne.jp/~w2web/moe/moelinks.html
萌々ぼ〜どって言うのかな?
ソノテの人の画像アップ掲示板として広く使われてるみたいです。
欲しいのは画像をいっきに落とす・・ですが
できたら全てのページをログも含めてHDに保存できるのが好ましいです。
こんな感じの掲示板です。
http://www9.xdsl.ne.jp/~w2web/moe/moelinks.html
萌々ぼ〜どって言うのかな?
ソノテの人の画像アップ掲示板として広く使われてるみたいです。
欲しいのは画像をいっきに落とす・・ですが
できたら全てのページをログも含めてHDに保存できるのが好ましいです。
NGNG
NGNG
NGNG
wgetでpostできるようにするパッチあるよ
ttp://pluto.im.uec.ac.jp/~sekita-n/prog/
CGIを激しく呼び出してアク禁喰らっても知らないけど
ttp://pluto.im.uec.ac.jp/~sekita-n/prog/
CGIを激しく呼び出してアク禁喰らっても知らないけど
NGNG
>>184
cgiを読んだら、POSTを送ることでページをめくるようになってた。
perlだったら直接サーバと繋いで、POSTを直接送ればできるのでは?
またはhttp://hoghoge/moemoe.cgi?page=3でページを直接指定して(GETでも)ページを開けるらしい。
ところでwgetでPOSTを送ることってできないよね?(wget厨ですまそ)
cgiを読んだら、POSTを送ることでページをめくるようになってた。
perlだったら直接サーバと繋いで、POSTを直接送ればできるのでは?
またはhttp://hoghoge/moemoe.cgi?page=3でページを直接指定して(GETでも)ページを開けるらしい。
ところでwgetでPOSTを送ることってできないよね?(wget厨ですまそ)
NGNG
curl使え
NGNG
NGNG
⊂⌒~⊃。Д。)⊃
NGNG
その萌え萌えなんちゃらってやつな、moemoe.htmlと同じディレクトリにある
moemoe.logってのがログファイルだからそれ落とせ。画像のURLも載ってるから。
CGI叩くのやめれ。
moemoe.logってのがログファイルだからそれ落とせ。画像のURLも載ってるから。
CGI叩くのやめれ。
192名無しさん@お腹いっぱい。
NGNG >>172
なんかデリられてるみたいなんで差異うpキボンヌ、クレクレ君でスマソ
なんかデリられてるみたいなんで差異うpキボンヌ、クレクレ君でスマソ
NGNG
>>187 w3m
NGNG
NGNG
>>193
それだ!
それだ!
NGNG
NGNG
NGNG
NGNG
>>198
あらほんと。
-cと-nc一緒に書いちゃってるけど、一応動いてるし、ダウンロードの
速さからして差分だけ落としてるように思ふ。
て優香、汚いソースを丁寧に読んでくれてありがd
datは差分だけ落としてるから連続ダウソも大丈夫かと思ったが、
やっぱヤバイかね?間隔あけた方がいいかな?
あらほんと。
-cと-nc一緒に書いちゃってるけど、一応動いてるし、ダウンロードの
速さからして差分だけ落としてるように思ふ。
て優香、汚いソースを丁寧に読んでくれてありがd
datは差分だけ落としてるから連続ダウソも大丈夫かと思ったが、
やっぱヤバイかね?間隔あけた方がいいかな?
NGNG
あと、wgetのダウンロード速度が遅くていらつくんだけど、なんか解決方法
ありませんか?
ありませんか?
NGNG
>>199
いや、ちょっとmonazilla関係のスレをよんでたら、
いかにサーバの負荷を減らすかいろいろ考えられていて、
この、datファイルを総ざらいするのも極力避けた方がいいかと思ってきた。
やるとしても、負荷の低い時間帯にかなり間隔を開けて行った方が良いかと...
>ダウンロードの
>速さからして差分だけ落としてるように思ふ。
-ncはすでにファイルが存在したら、ダウンロードしないので、ダウンロードされていない可能性は?
いや、ちょっとmonazilla関係のスレをよんでたら、
いかにサーバの負荷を減らすかいろいろ考えられていて、
この、datファイルを総ざらいするのも極力避けた方がいいかと思ってきた。
やるとしても、負荷の低い時間帯にかなり間隔を開けて行った方が良いかと...
>ダウンロードの
>速さからして差分だけ落としてるように思ふ。
-ncはすでにファイルが存在したら、ダウンロードしないので、ダウンロードされていない可能性は?
NGNG
>>201
今 -nc消したやつをうpしたよ。
だけど、-nc消したらなんだか速度が遅くなったような・・・
あと、日時がバグってるのはアーカイバーがおかしいらしいことが分かったよ。
だからキニシナーイ
>datファイルを総ざらいするのも極力避けた方がいいかと思ってきた。
なるほど。一応スレのレス数見て更新されてるか確認してから各スレの差分をダウソ
するようにしてるけど。もっと負荷を減らす方法ないでつかね?
cronで回すなら、10秒おきに更新されてるスレを1スレずつ巡回みたいなことも考えられるけど。
>-ncはすでにファイルが存在したら、ダウンロードしないので、ダウンロードされていない可能性は?
一応ダウンロードされてるようだが・・・謎。
まぁ直したし。
今 -nc消したやつをうpしたよ。
だけど、-nc消したらなんだか速度が遅くなったような・・・
あと、日時がバグってるのはアーカイバーがおかしいらしいことが分かったよ。
だからキニシナーイ
>datファイルを総ざらいするのも極力避けた方がいいかと思ってきた。
なるほど。一応スレのレス数見て更新されてるか確認してから各スレの差分をダウソ
するようにしてるけど。もっと負荷を減らす方法ないでつかね?
cronで回すなら、10秒おきに更新されてるスレを1スレずつ巡回みたいなことも考えられるけど。
>-ncはすでにファイルが存在したら、ダウンロードしないので、ダウンロードされていない可能性は?
一応ダウンロードされてるようだが・・・謎。
まぁ直したし。
NGNG
>>202
速度で判断するより、wgetのログをちゃんと見た方がはっきりするかと...
速度で判断するより、wgetのログをちゃんと見た方がはっきりするかと...
NGNG
NGNG
(´-`).。oO(画像掲示板から落とした方が簡単なのに、なんでだろう…)
NGNG
こんなのもあったり
http://j2ch.free-city.net/
http://j2ch.free-city.net/
NGNG
NGNG
NGNG
NGNG
この画像掲示板はPOSTじゃないと見れないみたいなんですが、w3m等の
POSTがしゃべれるツールで画像をダウンロードする方法が分からないのですが、
分かる方いらっしゃいませんか?
ttp://sss.direct.ne.jp/nuke/bbs.cgi
POSTがしゃべれるツールで画像をダウンロードする方法が分からないのですが、
分かる方いらっしゃいませんか?
ttp://sss.direct.ne.jp/nuke/bbs.cgi
NGNG
NGNG
NGNG
ぷ
NGNG
>>210
上のほうで出てるパッチを当てたwgetだとこんな感じ?
#!/bin/bash
url="http://hoge.com/hoge/imgboard.cgi??page="
img="/hoge/img-box/"
lastpage=10
i=0
while [ $i -lt $lastpage ]
do
i=`expr $i + 1`
echo $url$i >> list.txt
done
wget -r -w 1 -I $img -i list.txt -o wget.log
rm -f list.txt
上のほうで出てるパッチを当てたwgetだとこんな感じ?
#!/bin/bash
url="http://hoge.com/hoge/imgboard.cgi??page="
img="/hoge/img-box/"
lastpage=10
i=0
while [ $i -lt $lastpage ]
do
i=`expr $i + 1`
echo $url$i >> list.txt
done
wget -r -w 1 -I $img -i list.txt -o wget.log
rm -f list.txt
NGNG
保守
NGNG
>>241
普通に
wget "http://hoge.com/hoge/imgboard.cgi?page=2"
でもいけない?
>>215
それはやめとけ。
下手したら悪禁になるかもしれないらしい
普通に
wget "http://hoge.com/hoge/imgboard.cgi?page=2"
でもいけない?
>>215
それはやめとけ。
下手したら悪禁になるかもしれないらしい
217山崎渉
NGNG (^^)
218名無しさん@お腹いっぱい。
NGNG219あぼーん
NGNGあぼーん
220あぼーん
NGNGあぼーん
NGNG
222218
NGNG あれ?確かに見つかりませんね...。
って、鯖ごと落ちてる?
昨日まではアクセスできたのにな。今日話題になってるSQLPの影響かなぁ?
って、鯖ごと落ちてる?
昨日まではアクセスできたのにな。今日話題になってるSQLPの影響かなぁ?
NGNG
224218
NGNG >>221
たった今、鯖が復帰していることを確認しますた。よろしくおながいします。
いちお、間借りしたところは、
The site gobo.free-city.net is running Apache/1.3.27 (Unix) on FreeBSD
なので今回の騒ぎで落ちちゃったわけではなさそうですが。
たった今、鯖が復帰していることを確認しますた。よろしくおながいします。
いちお、間借りしたところは、
The site gobo.free-city.net is running Apache/1.3.27 (Unix) on FreeBSD
なので今回の騒ぎで落ちちゃったわけではなさそうですが。
NGNG
どうやらUAをいじらないとdatファイルを直接getできなくなったらしいが
226山崎渉
NGNG (^^)
227あぼーん
NGNGあぼーん
228名無しさん@お腹いっぱい。
NGNG ↑山崎、必死だな(笑
229名無しさん@お腹いっぱい。
NGNG UNIX コマンドだと標準で巡回コマンド付いてきますが、何か?
NGNG
Mac OS 10.2 のターミナルで実行しました
そしたら、
pl {-input <binary_file>} {-output <binary_file>}
Reads ASCII PL from stdin (or serialized file if -input specified)
and writes ASCII PL to stdout (or serialized file if -output)
なんて出ちゃって、もうわかりませぬ
どうかおしえてください。。。
おながいします。。。
そしたら、
pl {-input <binary_file>} {-output <binary_file>}
Reads ASCII PL from stdin (or serialized file if -input specified)
and writes ASCII PL to stdout (or serialized file if -output)
なんて出ちゃって、もうわかりませぬ
どうかおしえてください。。。
おながいします。。。
231あぼーん
NGNGあぼーん
232名無しさん@お腹いっぱい。
NGNG おお!
このスレまだ存在してたのか。
息が長いな。
山崎先生のおかげですね。
このスレまだ存在してたのか。
息が長いな。
山崎先生のおかげですね。
233名無しさん@お腹いっぱい。
NGNG >>185 のページ見れないんですが、引越し先知ってる人います?
NGNG
>>233
とりあえずWayBack Machineで拾えた
とりあえずWayBack Machineで拾えた
235あぼーん
NGNGあぼーん
236名無しさん@お腹いっぱい。
NGNG age?
237あぼーん
NGNGあぼーん
238あぼーん
NGNGあぼーん
239あぼーん
NGNG あぼーん
NGNG
ホッシュ
NGNG
242名無しさん@お腹いっぱい。
NGNG あけました おめでとう
NGNG
このスクリプト使ってみたよ。
板一枚で 7500 くらい画像がとれた。終わるのに丸一日かかったけど…。
板一枚で 7500 くらい画像がとれた。終わるのに丸一日かかったけど…。
NGNG
濃淡分布や周波数分布なんか使って、グロ画像や
虹板に紛れ込んだ三次元画像(これもグロ画像か…)を取り除きたいなぁ。
グロ画像は「怖くてみられないグロ画像を鑑定するスレ」があったね、
それを学習データにして……
マンドクセ
虹板に紛れ込んだ三次元画像(これもグロ画像か…)を取り除きたいなぁ。
グロ画像は「怖くてみられないグロ画像を鑑定するスレ」があったね、
それを学習データにして……
マンドクセ
NGNG
NGNG
...
NGNG
NGNG
NGNG
NGNG
保守
251名無しさん@お腹いっぱい。
NGNGNGNG
>>251
責任を負っかぶることをものともしない猛者。
責任を負っかぶることをものともしない猛者。
253名無しさん@お腹いっぱい。
NGNG エロエロage
NGNG
何だ山崎渉か
256名無しさん@お腹いっぱい。
2005/04/05(火) 17:11:38 umu
257login:root ◆GrsqjXpGxE
2005/04/17(日) 22:09:41258login:root ◆GrsqjXpGxE
2005/04/17(日) 22:15:48 ウワーーーーーン
早速だが>>1よ。質問がある!
ディレクトリにある conf.txt は変更する必要があるのか?
$ita = 'http://choco.2ch.net/ainotane/';
$dir = './jpg';
$limit = 999;
$down = 2;
$ita は、2ちゃんの板のアドレスでおkなんだな?
早速だが>>1よ。質問がある!
ディレクトリにある conf.txt は変更する必要があるのか?
$ita = 'http://choco.2ch.net/ainotane/';
$dir = './jpg';
$limit = 999;
$down = 2;
$ita は、2ちゃんの板のアドレスでおkなんだな?
2005/04/17(日) 22:34:37
>>258
1じゃないけど、おkだ
1じゃないけど、おkだ
260名無しさん@通りすがり ◆.q7T9q3bHY
NGNG261名無しさん@お腹いっぱい。
2005/07/09(土) 14:24:53 test
2005/07/09(土) 21:05:19
このスレまだあったのか。。。
懐かしい
懐かしい
263名無しさん@お腹いっぱい。
2005/07/17(日) 01:12:01 ああ、ずっとあるぜ
2005/08/15(月) 02:33:24
イメージサーチャーモナー?
ttp://www.abars.biz/search/
ttp://www.abars.biz/search/
2005/11/13(日) 22:53:23
一度でもdownloadしたファイルをmd5sumしてsum値のリストどっかテキスト
に保存しといて、同じsum値のファイルを二度とdownloadしないように
してくれる重複避け機能を追加してください。
に保存しといて、同じsum値のファイルを二度とdownloadしないように
してくれる重複避け機能を追加してください。
2007/11/13(火) 23:55:48
vdvdvdv
nfdfdnfdn
fhffhh
jrtyjr
yteryery
yeryer
nfdfdnfdn
fhffhh
jrtyjr
yteryery
yeryer
268名無しさん@お腹いっぱい。
2008/02/22(金) 11:12:57 保守する必要ある?
269名無しさん@お腹いっぱい。
2009/08/01(土) 09:16:08 何だこのスレw
2010/11/18(木) 21:04:12
よし!!
2011/08/27(土) 20:43:51.62
渋の画像ぶっこ抜きスクリプト、要る?
2011/09/09(金) 20:42:51.45
てーすと
2011/10/06(木) 00:30:03.20
てst
10年以上更新してたのか
2013/02/13(水) 15:50:37.06
283名無しさん@お腹いっぱい。
2013/03/22(金) 21:42:30.18 _
|O\
| \ キリキリ
∧|∧ \ キリキリ
ググゥ>(;⌒ヽ \
∪ | (~)
∪∪ γ´⌒`ヽ
) ) {i:i:i:i:i:i:i:i:}
( ( ( ´・ω・)、
(O ⌒ )O
⊂_)∪
|O\
| \ キリキリ
∧|∧ \ キリキリ
ググゥ>(;⌒ヽ \
∪ | (~)
∪∪ γ´⌒`ヽ
) ) {i:i:i:i:i:i:i:i:}
( ( ( ´・ω・)、
(O ⌒ )O
⊂_)∪
284名無しさん@お腹いっぱい。
2013/10/13(日) 00:05:36.16 懐かしい
2014/07/14(月) 17:55:10.21
286島本町で凄惨なイジメを受けて廃人になった方へ
2014/08/06(水) 20:02:47.91 >大阪府三島郡島本町の小学校や中学校は、暴力イジメ学校や。
島本町の学校でいじめ・暴力・脅迫・恐喝などを受け続けて廃人になってしもうた僕が言うんやから、
まちがいないで。僕のほかにも、イジメが原因で精神病になったりひきこもりになったりした子が何人もおる。
教師も校長も、暴力やいじめがあっても見て見ぬフリ。イジメに加担する教師すらおった。
誰かがイジメを苦にして自殺しても、「本校にイジメはなかった」と言うて逃げるんやろうなあ。
島本町の学校の関係者は、僕を捜し出して口封じをするな
>島本町って町は、暴力といじめと口裏合わせと口封じの町なんだな
子供の時に受けた酷いイジメの体験は、一生癒えない深い傷になるなあ
「暴力とイジメと口裏合わせと口封じ」の町やそういう町に巣食うヤクザ・チンピラ・ゴロツキ・不良・
いじめっ子・ダニ・ノミ・シラミなどを監視して非難するのは暮らしやすい町を作るのに必要だ
島本町の学校でいじめ・暴力・脅迫・恐喝などを受け続けて廃人になってしもうた僕が言うんやから、
まちがいないで。僕のほかにも、イジメが原因で精神病になったりひきこもりになったりした子が何人もおる。
教師も校長も、暴力やいじめがあっても見て見ぬフリ。イジメに加担する教師すらおった。
誰かがイジメを苦にして自殺しても、「本校にイジメはなかった」と言うて逃げるんやろうなあ。
島本町の学校の関係者は、僕を捜し出して口封じをするな
>島本町って町は、暴力といじめと口裏合わせと口封じの町なんだな
子供の時に受けた酷いイジメの体験は、一生癒えない深い傷になるなあ
「暴力とイジメと口裏合わせと口封じ」の町やそういう町に巣食うヤクザ・チンピラ・ゴロツキ・不良・
いじめっ子・ダニ・ノミ・シラミなどを監視して非難するのは暮らしやすい町を作るのに必要だ
287名無しさん@お腹いっぱい。
2017/12/29(金) 08:49:24.14 誰でも簡単にパソコン1台で稼げる方法など
参考までに、
⇒ 『宮本のゴウリエセレレ』 というブログで見ることができるらしいです。
グーグル検索⇒『宮本のゴウリエセレレ』
26UOUCYMZ2
参考までに、
⇒ 『宮本のゴウリエセレレ』 というブログで見ることができるらしいです。
グーグル検索⇒『宮本のゴウリエセレレ』
26UOUCYMZ2
288名無しさん@お腹いっぱい。
2018/05/22(火) 05:12:44.99 知り合いから教えてもらったパソコン一台でお金持ちになれるやり方
時間がある方はみてもいいかもしれません
グーグルで検索するといいかも『ネットで稼ぐ方法 モニアレフヌノ』
A4Y4N
時間がある方はみてもいいかもしれません
グーグルで検索するといいかも『ネットで稼ぐ方法 モニアレフヌノ』
A4Y4N
2023/09/28(木) 05:34:11.87
今は別のスクリプトで5chが落ちまくりという
2023/10/20(金) 11:11:11.81
やっほー、これはうれしい驚きだ!
291名無しさん@お腹いっぱい。
2024/03/27(水) 20:38:37.01 要するに太ったらダメな人間はいないと思ってないんだろうね
スケート靴込でもなるだろうし
詐欺に気を使ってるとかない?
スケート靴込でもなるだろうし
詐欺に気を使ってるとかない?
292名無しさん@お腹いっぱい。
2024/03/27(水) 20:49:38.09 双日って他のやつが世の中心は自由主義だよ
それ言い出したらどこも変わらんやろ...
それ言い出したらどこも変わらんやろ...
293名無しさん@お腹いっぱい。
2024/03/27(水) 21:08:25.55294名無しさん@お腹いっぱい。
2024/03/27(水) 21:31:40.23 子供手当とか配偶者控除とか金持ちのほうが勝てる可能性が高そう
レスを投稿する
ニュース
- 【文春】永野芽郁(25)&田中圭(40)燃え上がる不倫LINE ★35 [Ailuropoda melanoleuca★]
- 「人員は少し足りないぐらいがちょうどいい」 1万人削減のパナソニックHD楠見社長 [蚤の市★]
- 政府の借金1323兆円に 24年度末、9年連続で最大 ★3 [首都圏の虎★]
- 【コメ高騰】備蓄米、出荷完了32%どまり 1日に2000〜3000トンも JA全農 [シャチ★]
- 「…のくせに…」コールセンター社員、私用スマホで客にメール [少考さん★]
- 【兵庫】斎藤知事、パワハラ研修に幹部200人帯同 「巻き添え、休みたい」とブーイングも [七波羅探題★]
- 【実況】博衣こよりのえちえちときめきメモリアル🧪 ★6
- 【悲報】自民党、夏の選挙でも圧勝の予定、もう40代以上が全員滅びないと政治変わらないだろ・・・ [383063292]
- 陰キャなのにゲームもしないしアニメや漫画も詳しくない俺だけど人生何を楽しみに生きれば良いかわからん
- 【実況】博衣こよりのえちえちときめきメモリアル🧪 ★7
- 「力こそ正義」「力なき正義は無力なり」「山上哲也が証明した」、立川小学校イジメ襲撃事件の加害者に日本人から称賛相次ぐ [249548894]
- 【悲報】日本人、印パ紛争を見て焦る「あれ...中国軍機強すぎねえか?自衛隊のF15じゃ瞬殺されるぞ?」 [237216734]