■ 仔花子を一台で、
>>223 おわった@mentai
これでmentaiの過去ログは全部 read.cgi offlaw.cgiで読めるはずー mukashiの中身も見られなくなってる
捨てるっていうか忘れてる悪寒?
http://mentai.2ch.net/test/read.cgi/mukashi/943986949/l50
・専ブラ:
1 名前: ERROR ret=2001 OL2ERROR##### dat(58)[/home/ch2mentai/public_html/mukashi/kako/943/943986949.dat]
投稿日:
・ブラウザ:
(`#(1)
1 ERROR ret=2001 OL2ERROR##### dat(58)[/home/ch2mentai/public_html/mukashi/kako/943/943986949.dat]
(`# /home/ulacloud/public_html/_jungle/2ch/mentai.hanako.2ch.net/mukashi/dat/943986949.dat
1メ・???H弓$H酷・
総レス数 1
■ このスレッドは過去ログ倉庫に格納されています
/mukashi/フォルダってhuman、bubbleとか他にもあるのか >>229
mukashiの下に、さらにもう一つ板ディレクトリがあって、その下のkakoディレクトリの中にはいってる感じで、
現在の形式に比べて階層が一つ多いから、
多分特殊な処理をread.cgiに施すとか、あるいはディレクトリ配置を他と同じようにしてもらうとかしてもらわないと
多分見れない。 datの形式も違ってそうでややこしそうな予感がするよ… 仔花子にじゃなく、直接花子に向いているサブドメインがあと31個ある
今日はそのなかから当たらし目のものを10個 cloudiに向けよう love6 live11 live23 live24 yutori money6 pc12 pc11 atlanta game13 です
これからDNSの変更します chocoも >>223 で展開中。
>>234 でたいして負荷上がらなかったからさらにやるー げっ 夜になるとyahooのクロールが大量にくる・・・
負荷あがってなんにもでけへん、朝方こいっちゅうの
cloud収容組の1000.txtとかが読み出せないのは仕様でしょうか まだそこまで手が回ってませーん
読み出せるようにするつもりです、
その仕組みは上の方に書いてありますー
削除が優先です 進捗率 0.1% ここまで現在参加中一覧
atlanta, choco, game13, gimpo, jfk, live11, live23, live24, live28,
love6, mamono, mentai, money, money6, namidame, pc11, pc12, piza,
schiphol, science6, society6, takeshima, tsushima, yutori, /dev/ada0s1e 289526798 78699630 187665026 30% /hd
/dev/ada0s1e 289526798 105700534 160664122 40% /hd
本日移したのは、
jbbs 2chplus afox ebi natto piza2 pyon saki salad salami tako teri ton yasai tv food3
これで直接花子を見にいっているサブドメインはなくなったはず
cloud か仔花子経由になった。 /dev/ada0s1e 289526798 113237464 153127192 43% /hd
/dev/ada0s1e 289526798 147424870 118939786 55% /hd
今日も20くらい移すぜ 本日収容分
science4 science5 society society2 society3 society4 society5
sports sports3 sports4 sports5 sports6 sports7 sports8 sports9 sports10
that that2 that3 that4 dubai
21個 /dev/ada0s1e 289526798 157497478 108867178 59% /hd
/dev/ada0s1e 289526798 180858238 85506418 68% /hd
ううぅ 70%を越えようとしている、、、
cloud2 投入
tmp tmp2 tmp3 tmp4 tmp5 travel travel2 travel3 tora3 v-v
tv2 tv3 tv4 tv5 tv6 tv7 tv8 tv9 tv10
19個
cloud3を来週に投入予定 HDD=2TB のハイブリッドBananaらしい 調子にのって cloud2に
academy6 anchorage changi hideyoshi qb6 仔花子
3238
3279
3211
の3台があいたはず、 cloud に入れたのは全部htmlは見せていない状態です
本当のdatで削除を行えば全てに反映するシステムを構築中です
すみません
tv food3の削除ができるように次頑張ります。
来週私いないので、帰ってきてからやります cloud
/dev/ada0s1e 289526798 217650168 48714488 82% /hd
本日 01/31 cloud2への収容分です。
academy,anime2,anime3,bubble6,etc6,etc7,ex18,ex19,ex2,ex20,
ex21,ex22,ex23,ex25,ex3,ex4,ex5,ex6,ex7,ex8,
ex9,food,food2,food3,food4,food5,food6,food8,game11,game12,
game14,hobby10,hobby11,human7,life8,life9,live25,live27,music8,news21,
news22,news23,news24,school7,science,sports11,tmp6,tmp7,tv11
計49個です。 cloud初号機の残り容量を考慮して、キャッシュの大きかった
namidame と tsushima を cloud2 に移動させました。
動作確認も完了して、様子を見ていきます。
本日 02/02 cloud2への収容分です。
1999, 2002a, aa, aa2, aa3, aa4, aa5, aa6, academy2, academy3,
academy4, academy5, anime, bg3, book, book2, book3, book4, bubble, bubble2,
bubble3, bubble4, bubble5, caramel, comic, comic2, comic3, comic4, comic5, comic6,
comic7, etc, etc2, etc3, etc4, etc5, ex, ex10, ex11, ex12,
ex14, ex15, ex16, ex17
計44個です。
ちなみに、cloud2にはこれ以上入れられない予感、、、
ハイブリッドBananaのHDDを 2TB に換装した
cloud3がそろそろ出来上がるので、以降はそっちに収容する予定です。 だんだん方針が見えなくなってきたんだけど、
一台にまとめるというよりは、仔花子の台数を減らすというのが現実の作業?
それとも、スーパースペックのcloudサーバを使えば、一台という目標は
完遂できるの? 仔花子(cloud)一台に収めてるのは現実の作業じゃないかな?花子をフロントエンドにして
過去ログの提出、過去ログ削除依頼に受付(過去ログ読出し→削除実行→ログ書き戻し)
を遣ってるのかな?花子、仔花子逆かも知らんけど あくまでも>>13なんじゃ無かろうかね。
最終的には1台目指すけど今は現実的に稼働できる台数で動かすと言う事で。
と言ってもディスク容量的に一台化は激しく数年先になりそうだね。
キャッシュだけでまさかの合計1T越えとかなりそうで怖い。 遅ればせながら、ようやくcloud3が到着です。
これからcloud用のセットアップを開始しますです。
ada0: <Hitachi HDS722020ALA330 JKAOA3EA> ATA-8 SATA 2.x device
/dev/ada0s1e 1878835782 8 1728528912 0% /hd
先代のcloud達の残り容量の様子をみると、
週末乗り切れそうになさそうなので、先にcloudやcloud2から
キャッシュが大きそうなものをcloud3へ移す予定です。
キャッシュのクリアって一日一回ぐらいがいいのだろうか?
一日二回とかだとcloudの台数削減にはなると思うんだが
キャッシュサーバとしては意味がない?
その前に、すべてのバーチャルホストがcloudへ向くまでは
実験する意味はないのは分かってるつもりだが。
全部で200以上あるという話だったけど、今どこまで進んだのだろうか? cloud3.ula.ccの転送量グラフです。
http://traffic.maido3.com/BPx7/uLvE/fXFs/
等言う事でcloud3のセットアップができた気がします。
なので、既にcloudにある以下のドメインをcloud3に向けて現在動作確認中です。
schiphol, mamono, gimpo, yutori7, pc11
anchorage, changi, hideyoshi, namidame, tsushima
tmp, ex21, tmp5, life9, game11
>>271
まだ色々理解してる最中なので勘違いかもしれませんが、
今の時点では、各cloudではキャッシュのクリアを
していないように見えます。
現時点でcloud化したドメインはざっと数えて約170、
まだ仔花子を参照してるのは約80程あります。
http://ftp-admin.blogspot.com/2009/09/ssd_24.html
人気のあるファイルの統計があればこういうのの真似ができるんだろうけど
需要が満遍なく分散してたりするとキャッシュが効きにくくなって辛い。
からとりあえず統計取るのも兼ねてやってるんだと思ったけど
クローラーが来てるとなると… 動作確認も完了し、cloud3はかねがね問題なく動作してるようです。
現在各cloudから移行したドメインのキャッシュを削除して様子を見ます。
なんせ、花子の機嫌も取りつつの作業なので、
ゆっくりしか進められないのがなんとなく歯がゆいです。。
お疲れ様です。
楽しい実験!というイメージで見てます。
いろいろいじり甲斐があるかもしれないと言うことで
親方が家出から帰って来てからが本番という気分です。 いまやっていることは・・・
「どっちの方向に進むべか?」を考えることかなぁ
いずれにしても定量的なものがなけりゃ始まらないので
化け物の大きさを測っているというのが適当か。 3TBのHDD、発売3ヶ月弱で半額近くにまで値下がり
http://gigazine.net/news/20110205_3tb_hdd_half/
花子のRAID6の容量は確か6TB。仔花子には3TB HDD*2を積んでRAID0にすれば十分なはず。 2chサーバのRAIDって片肺飛行が続出したRAID1の苦い思い出が...。 FOXお兄様
お時間があるときに過去ログ削除の対応、みてやってくださいませ。
仮処分出てるけど削除できず10日以上経ってるのとかありますゆえ・・ find . -name \*.dat | xargs chmod 0666
をhanakoの全アカウントで走らせなきゃだなぁ
どうしてかって言うと、
hanakoの各アカウントのpublic_html/test/ のディレクトリをシンボリックリンクにして
どっか一箇所を指すようにしたのよ、これは各種cgiを更新するたびに配るのが
めんどくさかったり、つものようにいろんな亜種が生まれたりを避けるために
でもパーミッションが 0555とかいろいろなdatがあって rwじゃない状態が・・・
決め事。
hanako に収容したら dat は全部 0666 この間のgz展開なんぞたかだかバーチャルサーバ1個分だったっけ?
はるかに規模がでかいが、個別の処理は速いか?
find . -perm 属性数値 で作業が減るか増えるか?
まぁ 一回こっきりの作業なんでサーバが暇なときにでも、
>>277
3TBかぁ ゴクリッ
でもHDDが超忙しく動いている cloud3(2TB) 例のチップセット欠陥が無ければ3TBx2とか2TBx3のRAID0にメモリ馬鹿載せして…
とかそういうのもありだったのかな。複数台に分けるのとどっちの方が
結果的に安くなるのか分からないけど。 sandyじゃないからチップセット欠陥は関係ないし、一台にまとめられるならまとめた方が安い
問題は速度だけ バーボンハウス
http://qb7.2ch.net/_403/c403.cgi
で、hk2-lr670619g.super-goo.comさんは拾ってもらった方が得なのかなぁ ハイブリッドbanana 2TBx2 RAID0 + SSD(ブートdisk)ってのを作ってみるかー 本日 02/07 仔花子 → cloud3への収容分です。
news20, news3, news4, news5, news6, news7, news8, news9, off, off2
off3, off4, o-o, ooo, oyster, pc, pc10, pc2, pc3, pc4
pc5, pc6, pc7, pc8, pc9, qa, qb, qb2, qb3, qb4
school2, school3, school4, school5, school6, school, science2, science3
計48個です。
本日 02/08 仔花子 → cloud3への収容分です。
live19, live2, live20, live21, live22x, live26, live3, live4, live5, live6
live7, live8, live9, love, love2, love3, love4, love5, money2, money3
money4, money5, music2, music3, music4, music5, music6, music7, music, news
news10, news11, news12, news13, news14, news15, news16, news17, news18, news19
計40個です。news19が入ってます。
#昨日書いた総数に間違いがあり、正しくは計38個でした、すいません。
ちなみに、ざっと計算したものなので漏れてるかもですが、
既に合計257個のドメインが既にcloud化されていて、
残り10個のドメインが仔花子を参照してます。
あともうちょいでございます。 お疲れさまです、忘れ物です
|д゚)つ news2
banana3258にあと45、banana3190にwwwww が残っているような?
http://mpv1.40.kg/
http://mpv3.40.kg/ わかりにくいので書きなおし。
総数 267
cloud済み 257
残り 10
です。
>>294
ご指摘ありがとうございます。ごっそり漏れてました。
色々見直した結果、現在の進捗率は 257/312 となりました。 あわせて本日作業分の news2 が漏れてました。今日は計41個です。
つことで連投失礼しましたー。 ちょっと賽の河原の石積みを連想してしまったけど、
もう増えないだろうからこつこつ頑張ってね。
バーチャルドメインの最多数記録ってどれくらいなのだろうか 本日 02/09 仔花子 → cloud3への収容分です。
ex13, game9, hobby7, hobby8, human5, life7, live14, food7, gamble, gamble2
game, game2, game3, game4, game5, game6, game7, game8, game10, hobby
hobby2, hobby3, hobby4, hobby5, hobby6, hobby9, human, human2, human3, human4
human6, invisible, life, life2, life3, life4, life5, life6, live, live10
live12, live13, live15, live17, live18
計45個です。
進捗率は、色々修正が入り 312/315 となります。
残り以下の3つのドメインなんですが、
1999.2ch.net
2002a.2ch.net
wwwww.2ch.net
cloudでちゃんと動いてくれなかったので
何処に問題があるか調査する所からスタートです。 http://2002a.2ch.net/test/read.cgi/news1022/1022122864
http://1999.2ch.net/test/read.cgi/lobby/957231759
表示結果はともあれ、2002a, 1999 は要件を満たしたはずです。
現時点で進捗率 314/315 です。
wwwww は明日以降修正します。
これの修正確認ができたら達成率100%、すべてcloud化します。
cloud3に設定されているドメインだけですが、
htmlの表示を開始しました。
http://tmp.2ch.net/kakolog.html とか、
その他色々見えるようになったはずです。
何か不具合とか見つけたらご指摘頂けると助かります。 >>300
お疲れさまです
>>244 でcloudに入れた food3 が >>258 でcloud2 に収容
>>262 でcloud2に入れた 1999, 2002a が >>300 でcloud3 に収容
この3つのドメイン収容の作業がダブってカウントされてる気がするので
311/312でおkだと思いますー
ほんとおつかれさまです 今回のcloud収容作業が原因なのか不明なのですが、
削除した過去ログが復活している事が時々あるのですが、そういうのはここでFOXお兄様に報告すれば良いのですか?
今日見つけた例
東京地方裁判所平成22年(ヨ)第4250号
http://qb5.2ch.net/test/read.cgi/saku2ch/1297245306/
これ以外にも間違いなく何件か発生しています。
自分も経験し、処理忘れかと思ってもう一度削除しなおしたことがあります。
また、他の削除人さんが「削除しました」と報告し、削除依頼者も「削除を確認しました」と言っているのに
昨日か一昨日ふと見たら復活してるのとか有りました。
何となくですけれどcloud化とか過去ログ削除用に「本体のdatを消したらコピーのdatに反映される仕組み」を作ったあたりが関係しているっぽいの出ここに書いてみました。 「2ちゃんねるのため」とか、そういう大きなお世話なことは言わないけれど、
仮処分決定で削除したものが意図せず復活してるのはサーバ屋さん的に結構まずい気がするからFOXお兄様にお伝えしたんだよ。
なんとかしなさいよね。
(よろしくお願いします禁止令が出てるのでこれで) cloudはbanana3000から拾ってるのかそれとも仔花子から拾ってるのか…?
んで新削除スクリプトは両方消してるんだろうか。 あ、ひどい勘違いをしてた見なかったことにしてorz >>307は作業スレじゃ無くて、削除したはずなのに消えてないスレ(レス)を具体的に
指摘してくれって事なのかな? 今日2/10の5時過ぎから花子に接続できない状態になってました、、、
とりあえず花子の復旧作業を開始します。 >>311は
東京地方裁判所平成22年(ヨ)第4210号
http://qb5.2ch.net/test/read.cgi/saku2ch/1297296945/
で再依頼されてます。
前回
東京地方裁判所平成22年(ヨ)第4210号
http://qb5.2ch.net/test/read.cgi/saku2ch/1293493793/
で削ジェンヌさんが同じものを「削除しました」って言っているので仮処分決定正本の再度アップロードなしで消してもよいと思います。
>>310
の影響で今は削除できないのかな。 巻き戻ったのは再度削除してくださいー
お手数ですが、お願いします。 >>313
了解しました。
花子が復旧次第削除します。 削除人さんたちで手分けしてやるとか、何らかの方法で削除したものが巻き戻ってないか確認した方が良い気がする。
削除要請板限定で、仮処分対応で削除したものと企業・団体からの依頼分(個別スレが立っている物)くらいで良いと思うけど。 仔花子作った後の過去ログ削除は全部巻き戻ってるんじゃないかな >>317
じゃあここじゃなくて専用スレを立てるとかしてやった方が良いのかね。 10分ほど前から花子がオンラインになりました。
現在は正常に動作していると思いますが、引き続き監視を続けます。 にゃんぱらりん で削除された物の一部が巻き戻ってる感じ。あぼーんで消されたのは多分巻き戻ってない。
専用スレ立ててやろうと思ったけど>>320以外は個別スレの案件だけっぽいし、個別スレの案件は探すの大変だから
自分は挫折した。のでスレ立てずにここに貼りました。
スレ違いっぽい連投でご迷惑をおかけしました。もう貼りませんので。 ここで指摘された分は処理しました。
あと私以外の方も処理されているみたいです。
>>322
また見つけることがあれば、依頼スレが残っていればそのスレに
巻き戻っていることageで指摘していただければ助かります。 おいちゃんへ
html化されたものの削除で、datは削除出来るのですが、htmlファイル自体が
反映されないので削除出来ないものがいくつかあります。
どばっとで削除したものをhtmlに反映させることは可能ですか?
#html用の削除スクリプトが前はあったような、、 というか、
htmlファイルは全部見えないはず
見えるのがあったら教えて欲しい。
こんな感じのあっちこっちを完璧になくするのが今回の作業の目的です。 >>327
止まったことを確認しました。ありがとうございましたおいちゃんかっこいい!
で別件ですがどばっとで削除出来ないスレ以下4つのスレを調べてみました。
URLの下がどばっとのエラーメッセージです。
あと、一番上のスレ以外はoffraw.cgiで取得すると文字化けします。
(Jane、p2で試しました)
一番上のスレは問題なく表示されました。
もしかしたらdat自体に何らかの問題があるのかもしれません。
http://life.2ch.net/test/read.cgi/kagu/981485663/31-34
datがないよ(/home/ch2life/public_html/kagu/kako/981/981485663.dat)
と表示され削除出来ない
http://life.2ch.net/test/read.cgi/hikky/1039763656/
花子にもなかった(ERROR ret=2001 OL2ERROR##### dat(56)[/home/ch2life/public_html/hikky/kako/1039/1039763656.dat]
)
http://life.2ch.net/test/read.cgi/hikky/1020365184/
花子にもなかった(ERROR ret=2001 OL2ERROR##### dat(56)[/home/ch2life/public_html/hikky/kako/1020/1020365184.dat]
)
http://life.2ch.net/test/read.cgi/hikky/1021657297/
花子にもなかった(ERROR ret=2001 OL2ERROR##### dat(56)[/home/ch2life/public_html/hikky/kako/1021/1021657297.dat]
)
よろしくね♪ ちょとご質問。
七女 banana3238
八女 banana3211
九女 banana3279
ってもう閉経したのかな? 次は2TBのHDDをRAID0で組んだハイブリッドBananaサーバが
先ほど完成しました。/hdとして約3.5TBの領域をお持ちでございます。
これからcloudで使えるようセットアップしてきます。
>>331
調べてきますので少々お待ち下さい。 おつです、おつです。
今後の方針は、どなんでしょ? html化されてる過去ログが軒並み見えなくなった
全部●買って読めってことか 過去ログ削除との整合性やらでまだ時間がかかるんだろうねhtml化された分は >>336
すみません。
仮処分で削除された案件が巻き戻って復活したと言うことで再度削除依頼をされたのです
東京地方裁判所平成22年(ヨ)第3466号
http://qb5.2ch.net/test/read.cgi/saku2ch/1297854303/
が、
http://tmp.2ch.net/company/kako/1013/10132/1013271029.html
このスレが消せません。
なんか挙動がおかしいです。依頼に基づいて
http://tmp.2ch.net/test/read.cgi/company/1013271029/1,8,9,16,19,41
をどばっとで削除→キャッシュクリア→どばっと上ではにゃんぱらりんになっている
しかしJaneStyleでログを削除して再読み込みするとスレタイが文字化けしているが1が削除されず残った状態になります。
で、IEから開くと404になり、壷を使ってIEから開くとなんか通常と違う画面でスレが開きます。datを直接開いたときみたいな画面で開く(1も消えていない) 過去ログのレス数が変わってるっぽいのがあったので確認のお願い。
http://yuzuru.2ch.net/test/read.cgi/dame/1268774849/
に関して、現状ではレス番368までしか存在しないです。
先日まで377まで存在していたと思うのですが差分はどこかに消えてしまったのでしょうか?
もしかしてhtmlでみると377まで存在するのかしら?(現状ではIEからhtmlは人大杉で見られないので確認できず)
//////
東京地方裁判所平成23年(ヨ)第357号 (2)
http://qb5.2ch.net/test/read.cgi/saku2ch/1297849211/11
にてレス番372の削除依頼があります。
そして、このスレッドは以前にも
東京地方裁判所平成22年(ヨ)第4292号 (1)
http://qb5.2ch.net/test/read.cgi/saku2ch/1296626655/
で削除対応したことがあって、その時にはレス番377まで存在していました(ローカルに保存したdatを今再確認したので間違いない) >>331
お待たせいたしました。
その3台は役目を終えて既にオフラインとなっていますです。 >>334
スレッド番号を見てN年経過したやつとかは、全レス表示しますかねー
負荷に絶えられるかどうかですが、
いたるところにhtml化されたスレッドがあって、削除してもそれが反映されない
という大変な問題が発生しているのよ
んでこのスレでいろいろやっていると
詳しいことはスレ読んでね。
>削除人の方々へ
がんばりまーす
もちっとまってね、
すみません >>341
ありがとですm(_ _)m深謝
早速排除しておくます@監視係。 おー過去ログ読めるようになるのか、2ちゃんねるビューワーの優位性が減少してきたな
何に使おう… cloudが1台にまとまったらバーボンもっとすごい事になるよね メモ
削除済み過去ログが復活する案件あり再削除を行った。
http://live14.2ch.net/test/read.cgi/wildplus/1147090350/1
どばっとで1を削除→キャッシュ削除→ブラウザから見ると消えていない
→もう一度どばっとでキャッシュ削除→まだ消えていない
→もう一度キャッシュクリア→今度は消えていた
※複数回のキャッシュクリアで消えたのではなく、
元本を削除→キャッシュクリア→削除済みの元本をキャッシュにコピー
の最後の部分にタイムラグがあっただけの可能性。
一旦削除してブラウザから確認したが消えていない!
と思ったら少し間をおいて再度確認すると良い? 現在cloudは3台あり本日からcloud4の投入で都合4台になります
方向は cloud3+cloud4の2台体制で完成形にしようかと思っています
ドメインをcloud間で移動させていますのでそのタイミングでキャッシュのクリアが
うまく行かない可能性もあります。今しばらくごたごたは続きます。 >>347にもありますが、cloud4 が先ほど完成しました。
現在テストを兼ねて cloud2 から aa.2ch.net を動かし動作確認中です。
問題がなければ cloud2 からあと数個動かします。
# cloud2の空き容量がもう残り10%>< お疲れ様です。
ごたごたなんてやっつけておしまいなさい!!
(宜敷お願いします禁止令発令中なのでこれで。。) cloud4 の転送量グラフです。
http://traffic.maido3.com/lvJW/kLDK/Ppj6/
cloud4 が正常に動作してる事を確認しましたので、
cloud2 にあった次のドメインを cloud4 へ移行しました。
aa, aa5, academy2, academy3, academy4, academy6, anime, anime2, anime3, book3
>>351
お、そうでした。
cloud3+cloud4への移行率は 10/172 です。
以下、現在の内訳----
総数 312
cloud+cloud2 で運用 162(内 cloud:65 cloud2:97)
cloud3+cloud4で運用 150(内 cloud3:140 cloud4:10)
2002年以前の過去ログが消えたり、元に戻ったり、また2ちゃんねるビューワ
ありでした過去ログが読めなくなったり、むちゃくちゃになっている。どうなって
るんだ?? >>353
過去ログに関しての事をこのスレに書き込んでいると言うことはここでやっている事を理解してるってことでしょ?
だったらスレを全部読むだけで良いんじゃないの。。 スレを読むだけでは、専門用語が多すぎてさっぱりわからないんですよ。 別に専門用語がわからなくても何かやってるなってのは分かるでしょ
移行作業中なんだからおいちゃんの「おわったー」が出るまでしばらく待とうよ
>>337
のスレは今見たらIE+壷からもJaneStyleからも削除できているのが確認できました。 >>342
お疲れ様です。
> スレッド番号を見てN年経過したやつとかは、全レス表示しますかねー
>>324みたいな例が多々存在するようですので可視化される場合は是非datとhtmlの整合化をしていただけるとありがたいです。 本日はcloud2にあった以下の30ドメインをcloud4へ移行しました。
aa2, aa3, aa4, aa6, academy, academy5, bg3, book, book2, book4
bubble, bubble2, bubble3, bubble4, bubble5, bubble6, caramel, comic, comic2, comic3
comic4, comic5, comic6, comic7, etc, etc2, etc3, etc4, etc5, etc6
cloud3+cloud4への移行率は 40/172 です。
以下、現在の内訳----
総数 312
cloud+cloud2 で運用 132(内 cloud:65 cloud2:67)
cloud3+cloud4で運用 180(内 cloud3:140 cloud4:40) もうひとつ、cloudのpc12をcloud4へ移行しました。
cloud3+cloud4への移行率は 41/172 です。
以下、現在の内訳----
総数 312
cloud+cloud2 で運用 131(内 cloud:64 cloud2:67)
cloud3+cloud4で運用 181(内 cloud3:140 cloud4:41) 02/22 本日の cloud2 → cloud4 移行内容です。
etc7, ex, ex2, ex3, ex4, ex5, ex6, ex7, ex8, ex9
ex10, ex11, ex12, ex14, ex15, ex16, ex17, ex18, ex19, ex20
ex22, ex23, ex25, food, food2, food3, food4, food5, food6, food8
cloud3+cloud4への移行率は 71/172 です。
以下、現在の内訳----
総数 312
cloud+cloud2 で運用 101(内 cloud:64 cloud2:37)
cloud3+cloud4で運用 211(内 cloud3:140 cloud4:71) 02/23 本日の cloud2 → cloud4 移行内容です。
game12, game14, hobby10, hobby11, human7, life8, live25, live27, music8, news21
news22, news23, news24, qb6, school7, science, sports11, tmp2, tmp3, tmp4
tmp6, tmp7, tora3, travel, travel2, travel3, tv2, tv3, tv4, tv5
tv6, tv7, tv8, tv9, tv10, tv11, v-v
cloud3+cloud4への移行率は 108/172 です。
cloud2.ula.ccはアクセスがなくなったのを確認次第、退役します。
明日からはcloudからcloud4へ移していきます。
以下、現在の内訳----
総数 312
cloud+cloud2 で運用 64(内 cloud:64 cloud2:0)
cloud3+cloud4で運用 248(内 cloud3:140 cloud4:108) 02/24 本日の cloud → cloud4 移行内容です。
2chplus, afox, cheese, choco, cocoa, corn, curry, ebi, ex24, game13
jbbs, jfk, kaba, kitanet, live11, live16, live23, live28, love6, mentai
money, money6, natto, piza, piza2, pyon, qb400, saki, salad
計29個、cloud3+cloud4への移行率は 137/172 です。
以下、現在の内訳----
総数 312
cloud+cloud2 で運用 35(内 cloud:35 cloud2:退役予定)
cloud3+cloud4で運用 277(内 cloud3:140 cloud4:137)
02/25 本日の cloud → cloud4 移行内容です。
salami, science4, science5, science6, snow, society, society2, society3, society4, society5
society6, sports, sports3, sports4, sports5, sports6, sports7, sports8, sports9, sports10
計20個、cloud3+cloud4への移行率は 157/172 です。
以下、現在の内訳----
総数 312
cloud+cloud2 で運用 15(内 cloud:15 cloud2:退役予定)
cloud3+cloud4で運用 297(内 cloud3:140 cloud4:157)
02/26 本日の cloud → cloud4 移行内容です。
tako, teri, that, that2, that3
that4, ton, tv, yasai, yutori
live24, dubai, atlanta, takeshima, yutori8
計15個、cloud3+cloud4への移行率は 172/172 です。
現在 cloud3 と cloud4 の2台で運用しています。
なお、cloud.ula.ccは必要な移行作業を行った上で退役となります。
以下、現在の内訳----
総数 312
cloud+cloud2 で運用 0(内 cloud:退役予定 cloud2:退役)
cloud3+cloud4で運用 312(内 cloud3:140 cloud4:172)
さーて、 ぽんほこぽーんですな。
では、これから色々不具合報告してくださーい
↓ すみませんすみません。。
http://society3.2ch.net/hoken/kako/1129/11297/1129790470.html
上記スレをどばっとでレス削除し、どばっと上や公式p2などでは削除済みのdatを確認出来たのですが、
http://kamome.2ch.net/test/read.cgi/hoken/1129790470/
上記のURL形式だと専用ブラウザからoffraw.cgi経由でdatを取得できないようです。
datの形式の問題かもしれないので、念のため報告しておきます。
おいちゃん何回もごめんね! >>372の追記です。
少し時間をおいたらかちゅではOKでした。
ただJaneXenoでは確認出来ないので、専用ブラウザ固有の問題かもしれません。。。
お騒がせして申し訳ないです。。。 移行が終わったら削除スクリプトを設置してもいいのかしら? いいけど、、、ちと複雑
むしろ引き渡したいけど、かなり説明がいる
表にかけないこと沢山だからサーバでお手紙やり取りだと思う
来週いないからその後になる予定だー cloud.ula.ccとcloud2.ula.ccで使用したサーバーは退役しました。
それに合わせ、それぞれのドメインはcloud4.ula.ccのサーバーに移転しました。 http://traffic.maido3.com/lvJW/kLDK/Ppj6/
cloud4、一時的に落ちてたみたい
リブート要請しようとしてるうちに復帰したけど、何だったんだろうか >>376 okok
何から話せばよいか解らなくなった
何でも聞いてみてちょ まさかのw
最初にお聞きしたいのは次のどちらかですー。
Q1) 過去ログサーバへの入り方
(知っているpwでは入れなかったので、、、)
Or
Q2) APIを呼び出す方式の場合のURLと引数(1がNGの場合)
その上で、必要になりそうな
・クラウドサーバのキャッシュの削除方法
・誤って削除したスレ・レスのバックアップの戻し方
をどうしようかなぁと。
どばっとでスレ・レスを削除する部分は既に動いているので
削除に関しては同じように実装すれば動くかなぁと思ってます。 まず、Q1はたーくさんサーバがあるのでpw変更するのがめんどいので
それをしなくてもokな道を模索しよう。
どばっとを見ていただけたと思いますが
とばっと3とかどばっと4とかはnantara.soを通してターゲットの .datを取得しています。
これはcloud経由だったかな、
そしてどばっと5の中から実際に削除の命令を直接hanakoにむけて出しています。
(キャッシュの削除も)
これだけで実装は可能だと思います。
今回の改修の目的等はこのスレに書いてあるので割愛して
1番肝要なのは「どれが原本?」という原本の定義づけ、
そして原本以外は公開しない、削除等の操作は原本に対して行う。
これで削除作業上の雑多な不都合もなくなるはず。
実際にはまだすべてが整っていないですが大方出来上がっています。
どばっとを見よう見まねで作ってみてー
でも、テストをどうるかだな、数個のアカウントだったら私がいつものやつに変更しまーす
あーあー、それと
hanakoのpublic_html/testは全アカウントシンボリックリンクにしたのよ
だから、その親玉を更新するだけで「各アカウントに配る」という作業はなくなっていまーす
このアカウントを教えればいいのか、pwはいつものやつにして
必要になったら言ってください、作業します。
了解ですー。
どばっとはチラッとだけみました。
実際の削除処理もどばっとと同じ命令を出すので、
過去ログサーバ、hanakoに入る必要はなさげと認識。
datのバックアップとロールバックは未完成(又は実装なし?)と認識。
テストできるとこまで実装したらまた来ますー。
# pwをまとめて変更する方法はないことはないけども、必要ないしなぁw
# grep ^ch2 /etc/passwd | cut -d : -f 1 | xargs chpass -p '$1$En-pass' 今後も無いものと認識。
とりあえず実装まで完了。
datの取得は動作しました。
あとは実際の削除処理の呼び出しのみ。
テスト用のdatが設置可能なアカウントを1つお願いしますー。
置ければどこでもおkです。 中国語のレッスンて、何の為に?
ジャスミン革命の義勇軍でもつくるの? >>388
スレ削除ができないのですよ。
レス削除は出来るんですけど。 >>387のは削除の仮処分決定の奴で、削除依頼から1カ月くらい経過して依頼者から催促が来てるので
今回はdatを直で削除しちゃっても良いと思います。出来るひとお願い。
大阪地方裁判所 平成22年(ヨ)第1614号
http://qb5.2ch.net/test/read.cgi/saku2ch/1298250214/ こんにちは
どばっとで過去ログの「スレッド削除」が出来ない物がありましたのでご報告。
http://life9.2ch.net/test/read.cgi/lifesaloon/1205973429/
このスレが削除できません。
(>>1の削除は出来ました)
>>387>>390の件も含めて何とかして頂戴!
特に>>390のは仮処分決定で1カ月経過して催促がある奴なんだから早くやらないと駄目なんだからね!!!
(宜敷お願いいたします禁止令が出ているのでこれで。。) とりあえず>>387と>>394はレス削除は出来る状態だったので、
全レスにゃんぱらりんで暫定的に対応しておきました。
依頼者さんにはそれで問題ないか確認して貰っています。
依頼者さんがこれで良しとしてくれるのであればいいんですが……。
というわけで現状、にゃんぱらりんなdatが残っているとは思いますが、
サーバの対応完了後に残骸を削除することにしますね。
念のため引き続き見て頂けると助かるます! あら肝心なモノが、、、
依頼其のものはクリアしてますが、
スレ削除が出来る様にして欲しいそうです。 >>402
ありがとうございましたー!
残りは私のほうで削除しておきました。
>>394も削除しておきました。
ただ、、普通のブラウザで開くと、
(pC(1)
1 ERROR ret=2001 OL2ERROR##### dat(62)[/home/ch2life9/public_html/lifesaloon/kako/1205/1205973429.dat]
(pC /home/ulacloud3/public_html/_jungle/2ch/life9.hanako.2ch.net/lifesaloon/dat/1205973429.dat
1メ????H弓$H酷?
総レス数 1
こんな感じで文字化けの表示になるようです。
削除はされているのでこちらとしては問題ないのですが、情報として念のため。 現在 cloud4.ula.cc に接続できない状態です。
現地スタッフによる手動リブートを行っています。
復旧まで今しばらくお待ちください。 cloud4.ula.cc につきまして報告いたします。
現地スタッフによるサーバの再起動が成功しましたが、
2TB*2のRAID0という大きな容量の為、
起動に必要なファイルチェックに時間がかかっています。
引き続き、復旧まで今しばらくお待ちください。 fsckは大容量向けに対策されたファイルシステム(Linuxでのext4とか)じゃないと遅いからなぁ 代替機 cloud5.ula.cc (ハイブリッドbanana)を用意して
稼働テストが完了した!ってタイミングでcloud4が正常復旧しました。。。
ということで、現在テストとして以下のドメインがcloud5を向いてます。
2chplus, aa, aa2, aa3, aa4
aa5, aa6, academy, academy2, academy3
もう少し様子を見て、cloud4に問題がなければ、
cloud5を向いてる上記ドメインをcloud4に戻し、
通常運転に戻しますです。 cloud4は特に問題なさそうなので、色々元に戻します。
まずはcloud5に振ってあるドメインをcloud4に戻す作業。
2chplus, aa, aa2, aa3, aa4
aa5, aa6, academy, academy2, academy3
これらのドメインは時期にcloud4に戻します。 2chplus, aa, aa2, aa3, aa4
aa5, aa6, academy, academy2, academy3
上記ドメインはすべてcloud4に戻りました。
その後、代替として用意したcloud5は
短い仕事を終えオフラインへ。
以上で以前同様の通常運行に戻りました。
今回の件で、cloudサーバ用のセットアップパッケージができたので、
次回新しいcloudサーバを作る時は、より迅速に用意できるはずですです。 おいちゃんへ
http://life7.2ch.net/test/read.cgi/intro/1105930594/
このスレがどばっとでスレ削除出来ませんでした。
時間のあるときに見て貰えれば助かるます!
あと>>405の件も併せてみてくれたら嬉しいお。 おいちゃんへPart2
過去ログの>>1を削除、もしくはスレを削除した際に
以下等の過去ログ一覧ページへそれを反映してもらうことは可能でしょうか?
http://life7.2ch.net/intro/kako/o1105/
特にスレタイが重要削除対象の場合、反映されないと
いつまでも残ることになるので。。。 すみません。>>405以降、過去ログ関連対応されていないのですけど
削除要請関連であったりもするので、対応お願いできないでしょうか?
時間が掛かるようでしたら、中に入って取り急ぎ処理したいんですが
過去ログサーバーのパスはわからず・・・。 過去ログ倉庫の中身が見れないよぅ
2ちゃんねる 過去ログ倉庫
アクセス規制議論 板
2ちゃんねる に戻る。
過去ログ倉庫めにゅー に戻る。(qb5サーバ)
アクセス規制議論@2ちゃんねる に戻る。
倉庫番号 スレッド数 スピード
#sec2chd1294 0 0
#sec2chd1293 0 0
#sec2chd1292 0 0
#sec2chd1291 0 0
#sec2chd1290 0 0
#sec2chd1289 51 4.41
#sec2chd1288 64 5.53
http://qb5.2ch.net/sec2chd/kako/ おつでございます。
恐らく本日からだと思われますが、cloud4に収容されている
過去ログの閲覧ができなくなっているみたいです。
どばっとでの削除もdatが確認できないので出来なくなっています。
一時的なトラブルなのか、cloud4自体に何か問題が発生しているのか
調査して頂ければうれしいです。ちなみにpingは通りましたー。
このサイトでは問題はないようなんですが。。。
http://sv2ch.baila6.jp/server.cgi?server=cloud4.ula.cc
何卒よろしゅうに。 本日 7/26 午前7時から cloud4.ula.cc に接続できなくなりました。
現象を確認後、現地スタッフにサーバの再起動を要請し、現在作業中です。
サーバの復旧まで今しばらくお待ちください。 cloud4のご機嫌が斜めの様で、現地のスタッフからfsckに行ったまま
返事がないとの報告がありました。
という事で、代替を用意してみます。 おつかれさまです
代替鯖щ(゚Д゚щ)カモォォォン 代替機の cloud6.ula.cc が完成しましたー。
ハイブリッドBananaサーバーです。
academy2.2ch.net が既にcloud6.ula.cc上で稼働してます。
正常に動作してるのを確認後、cloud4から順次移転していきます。
転送量はこちらです。
http://traffic.maido3.com/AiH4/fS9x/oxSc/
ちなみにcloud4の現状ですが、フリーズはしてないらしく、
fsckに時間がかかってるだけとの事。(cloud4のHDDは2TBのRAID0で構成してます)
fsck完了後、問題がなければ、引き続き頑張ってもらいますが、
ハード的に問題があれば、交換して再インストールの後再投入の予定です。
色々落ち着くまで、今日投入したcloud6には頑張ってもらいます。 ざっと計算して、約180ドメイン程がcloud4に向いてるようです。
今回、以下の30ドメインを cloud6 に移転しました。
2chplus, aa, aa2, aa3, aa4, aa5, aa6, afox, anchorage, anime
anime2, anime3, atlanta, bg3, book, book2, book3, book4, bubble, bubble2
bubble3, bubble4, bubble5, bubble6, caramel, changi, cheese, choco, cocoa, comic
引き続き花子の機嫌を伺いながら、cloud6に移転していきます。
なんとcloud4のfsckが完了しオンラインになりましたー。
次なったら、再インストールして再投入、
それでも再発するようならHDDのリプレイスの予定です。
cloud4 → cloud6の移転は引き続き行っています。
以下のドメインを cloud6 へ移転が完了です。
comic2, comic3, comic4, comic5, comic6, comic7, corn, curry, dubai, ebi
etc, etc2, etc3, etc4, etc5, etc6, etc7, ex, ex10, ex11
ex12, ex14, ex15, ex16, ex17, ex18, ex19, ex2, ex20, ex22
etc3とex16がまだcloud4に残ってるような気がするとかしないとか
cloud4がこのままいい子にしていてくれればいいですねー (´-`).。oO(cloud5は欠番なのかしら?) >>428
>409に答えがあります。
一度使ったのはもう使わないのかな。
とするとcloud6も今回だけ使うという形になりそうな。 花子のofflaw.cgiって●無しでdat読めるの? >>430
認証キーを要求されるから無理なんじゃないかな?
>>431
変なアクセス要求されてるみたいだねぇ なんかnamidame過去ログ見えないなと思ったらまたcloud4か cloud4要求量多過ぎか?おいちゃん黒丸3つ買ったのにこれじゃ胡麻団子に成っちゃうよ…
ー●●●ー cloud中見ると変なフォルダとかいっぱい作られてない?
色々自動でやってるんだろうけど仕組みがよくわからん。 cloud4いじられてる?
BBON.cloud4.ula.cc.738 182.48.17.147 (kanpoo.jp)
ほかKR逆引き不可多数
http://dso.2ch.net/test/read.cgi/sakhalin/1294606282/431-
> 435 :名無しさん@お腹いっぱい。 :2011/08/14(日) 22:19:18.60 発信元:61.202.30.217 0 BE:297562289-DIA(100077)
> cloud中見ると変なフォルダとかいっぱい作られてない? >>435
なんかされてるの?
BBONはたぶん古い鯖に攻撃しかけてるからなんだろうけど。 >>438
いえ、今回の攻撃の件じゃなく昔からです。書き込み攻撃が来る前でしょ?
なんだか見てると掃除したくなるようなディレクトリがところどころにいっぱいあるんですよ、なんなんだか私にも良くわかりませんがー Trickさんって中入れるのかな?
まあそれはいいとして、触らないほうがいいんでしょうねー。たぶん。
色々中がややこしそうですし。 >>440
いえいえ、誰でも見れますがな。ジャングルの中
色々ややこしいってのは同意です。 あー、そういう仕組なのか。
なんであんなへんてこなディレクトリがあるのか訳がわからなかったよ、どもども。 うーん、cloud4への負荷がなかなか落ち着きません。
ということでもう一台作り、DNSラウンドロビンで運用してみます。
まずは前回の障害時に投入したcloud6の構成を組み直して、
cloud4と全く同じ構成のサーバを用意するために、
cloud6に振ってあるドメインを一旦cloud4に戻しますです。
cloud6からcloud4へ移行するドメインは次の通りです。
2chplus, aa, aa2, aa3, aa4, aa5, aa6, academy2, anime, anime2
anime3, afox, bg3, book, book2, book3, book4, bubble, bubble2, bubble3
bubble4, bubble5, bubble6, caramel, cheese, choco, cocoa, comic, comic2, comic3
comic4, comic5, comic6, comic7, corn, curry, ebi, etc, etc2, etc4
etc5, etc6, etc7, ex, ex2, ex10, ex11, ex12, ex14, ex15
ex17, ex18, ex19, ex20, ex22, changi, anchorage, dubai, atlanta
上記DNSレコードが変更され次第、
cloud6を再インストールする予定です。 cloud6 -> cloud4 の移行が終わりました。
これからcloud6はHDDの換装(500GB*1→2TB*2 RAID0)を経て
再インストールして帰ってくる予定です。 cloud6がHDDの換装と再インストールが完了して帰ってきたのですが、
2TB2本のRAID0の容量が1.6TBってなんかおかしい気がするので、
現地スタッフに確認してもらうことになりますた。
# ちなみに同じ構成のcloud4は 3,784,076,906k (約3.5TB) なのです。
HDDが 3,784,076,872k (約3.5TB) になって帰ってきました。
問題が解決したので、現在サーバのセットアップ中です。
サーバのセットアップが終わったら、cloudとしての設定などを行い、
問題なくいけば明日実戦投入(cloud4のDNSラウンドロビン)する予定です。 サーバのセットアップ中に問題が発生し、再びOSの再インストールです。
うーん、明日の実践投入間に合うかなぁ。 無事再インストールが帰ってきて、cloud6.ula.ccが完成ですです。
これからcloudとしての設定を開始しますー。
# FreeBSDだと2TB以上のパーティションが切れなかったのが原因で
# インストールがもたついたのは内緒 cloud6.ula.ccの設定が完了しました。
動作確認を兼ねて以下のドメインをcloud6で運用していますが、
問題なく稼働しているのではないかと思います。
anime, anime2, anime3, bubble4, bubble5, bubble6
明日から本格的にDNSラウンドロビンで運用していきます。 cloud4で運用していた以下のドメインを
cloud4とcloud6の2台で運用するようにしました。
aa, aa5, academy2, academy3, academy4, academy6, anime, anime2, anime3, book3
aa2, aa3, aa4, aa6, academy, academy5, bg3, book2, book4, bubble
bubble2, bubble3, bubble4, bubble5, bubble6, caramel, comic, comic2, comic3, comic4
動作確認をこれから行いますが、問題があればご指摘くださいです。
こんな感じで少しずつですがDNSラウンドロビンにしていきます。
今日は以下のドメインをcloud4とcloud6の2台で運用するようにしました。
comic5, comic6, comic7, etc, etc3, etc4, etc5, etc6, etc2, book
pc12, food6, ex, etc7, ex2, ex3, ex4, ex5, ex6, ex7
ex8, ex9, ex10, ex11, ex12, ex14, ex15, ex16, ex17
かねがね順調と言った所です。 今日は以下のドメインをcloud4とcloud6の2台で運用するようにしました。
ex19, ex20, ex22, ex23, ex25, food, food2, food3, food4, food5
food8, game12, game14, hobby10, hobby11, human7, life8, live25, live27, music8
news21, news22, news23, qb6, school7, science, sports11, tmp2, tmp3, tmp4 今日は以下のドメインをcloud4とcloud6の2台で運用するようにしました。
tmp6, tmp7, tora3, travel, travel2, travel3, tv2, tv3, tv4, tv5
tv6, tv7, tv8, tv9, tv10, tv11, v-v, 2chplus, afox, cheese
choco, cocoa, corn, curry, ebi, ex24, game13, jbbs, jfk, kaba
今日は以下のドメインをcloud4とcloud6の2台で運用するようにしました。
kitanet, live11, live16, live23, live28, love6, mentai, money, money6, natto
piza, piza2, pyon, qb400, saki, salad, salami, science4, science5, science6
snow, society, society2, society3, society4, society5, society6, sports, sports3, sports4
今日は以下のドメインです。
これでcloud4のすべてのドメインをcloud6との2台で運用しています。
sports5, sports6, sports7, sports8, sports9, sports10, tako, teri, that, that2
that3, that4, ton, tv, yasai, yutori, live24, dubai, atlanta, takeshima
yutori8, live3, gimpo, schiphol, changi, mamono, namidame, pc, anchorage, game, game10
どうやらcloud4とcloud6のDNSラウンドロビン運用にしてから、
サーバリソースにまだまだ余裕があるっぽいので、
cloud3に割り当ててあるドメインもこの2台で捌かせてみようと思います。
つことで早速作業開始ー。 作業完了ー。cloud3で賄ってた以下のドメインを
cloud4とcloud6で稼働させてます。
当面様子を見ながら、問題があれば元に戻したりします。
1999, 2002a, academy, academy3, academy4, academy5, academy6, ex13, ex21, food7
gamble, gamble2, game2, game3, game4, game5, game6, game7, game8, game9
game11, hobby, hobby2, hobby3, hobby4, hobby5, hobby6, hobby7, hobby8, hobby9
human, human2, human3, human4, human5, human6, invisible, life, life2, life3
life4, life5, life6, life7, life9, live, live2, live4, live5, live6
live7, live8, live9, live10, live12, live13, live14, live15, live17, live18
live19, live20, live21, live22x, live26, love, love2, love3, love4, love5
money2, money3, money4, money5, music, music2, music3, music4, music5, music6
music7, news, news2, news3, news4, news5, news6, news7, news8, news9
news10, news11, news12, news13, news14, news15, news16, news17, news18, news19
news20, o-o, off, off2, off3, off4, ooo, oyster, pc2, pc3
pc4, pc5, pc6, pc7, pc8, pc9, pc10, pc11, qa, qb
qb2, qb3, qb4, school, school2, school3, school4, school5, school6, science2
science3, tmp, tmp5, wwwww, tsushima, hideyoshi, yutori7 cloud3を外してもう少しで1週間立ちますが、
cloud4 cloud6の2台体制は安定して稼働してる様です。
現状、仔花子は2台。これ以上少なくするのは難しいかな、、、
あとcloud3は今日を持ってお役御免となり、オフライン。
お疲れ様ですです。 見ててもさっぱり分からないけど
なんかすごいという事は分かる。
お疲れ様ですー。 現状、cloudのofflow.cgiでは差分取得ができず、差分取得をしてもdat全体が送られてきているように見えます。
差分取得をあきらめているブラウザもありますが、未対応のブラウザではローカルのdatに送られてきたものを追加しているようで、
取得すると1000を超えてしまうようなものもあります。
ここで質問なのですが、近いうちにcloudのofflow.cgiでも差分取得ができるようにする予定はありますでしょうか?
時間がかかるようであれば、cloudから取得するときには全体が返ってくるというようにブラウザ側で対応するということも
考えられますが、read.cgiからの応答の差が Location しか見当たらず、作者さんたちが悩んでいます。
できれば、早いうちにcloudのofflow.cgiで差分取得をサポートしてもらえるとうれしいのですが、
差分取得をサポートするまでは、何かわかるようなヘッダフィールドを追加してもらえるか、
Location の内容を変更しないようにお願いします。
(もう対応しているか未確認ですが、JaneXenoは Location の中に ula.cc が含まれていたら全体取得という方針のようです)
ライブ鯖のレスポンス
HTTP/1.1 302 Found
Date: Sun, 23 Oct 2011 16:32:10 GMT
Vary: User-Agent,Accept-Encoding
Content-Length: 213
Location: http://www2.2ch.net/live.html
Connection: close
Content-Type: text/html; charset=iso-8859-1
Server: Apache/2.2.16
クラウドのレスポンス
HTTP/1.1 302 Found
Date: Sun, 23 Oct 2011 16:27:14 GMT
Vary: Accept-Encoding
Content-Length: 267
Content-Encoding: gzip
Location: http://cloud4.ula.cc/404.html
Connection: close
Content-Type: text/html; charset=iso-8859-1
Server: Apache/2.2.15 (Unix) PHP/5.2.13 mod_ssl/2.2.15 OpenSSL/0.9.8n