■ 仔花子を一台で、
仔花子も10台近くなってきた、これを一台でまかなおうかと、
全てのサブドメインを一台のサーバに設定して、bg.2chみたいな構成で、
datは花子に
過去ログの削除は花子のを削除する 今やっていることは、大体見(ら)れればokってことで、
見られないのがあるのはたぶんofflaw.cgiのbugだから
これがおわったらなおしに取り掛かるってことで、 Filesystem 1K-blocks Used Avail Capacity Mounted on
/dev/ada0s1a 1012974 340460 591478 37% /
devfs 1 1 0 100% /dev
/dev/ada0s1e 289526798 8 266364648 0% /hd
/dev/ada1s2e 66547010 31714082 29509168 52% /home
/dev/ada0s1d 4058062 1705618 2027800 46% /usr
/dev/ada1s2d 8122126 43712 7428644 1% /var
/dev/md0 886686 386708 429044 47% /md
/md/usr/local/bin 886686 386708 429044 47% /usr/local/bin
/md/usr/local/sbin 886686 386708 429044 47% /usr/local/sbin
/md/usr/local/lib 886686 386708 429044 47% /usr/local/lib
/md/usr/local/libexec 886686 386708 429044 47% /usr/local/libexec
/md/usr/local/apache2/bin 886686 386708 429044 47% /usr/local/apache2/bin
/md/usr/local/apache2/lib 886686 386708 429044 47% /usr/local/apache2/lib
/md/usr/local/apache2/modules 886686 386708 429044 47% /usr/local/apache2/modules
/dev/ada1s2e 66547010 31714082 29509168 52% /home
SSDは50%を超えてしまったなぁ、hdで実験してみようかなぁ /hd/ にキャッシュ溜め込むようにしようと思ったら
/hd Permition ないしw
あした直してもらおう SSD 78% 超えたので、hdに切り替えてみた゜゜/dev/ada0s1a 1012974 340460 591478 37% /
devfs 1 1 0 100% /dev
/dev/ada0s1e 289526798 74 266364582 0% /hd
/dev/ada1s2e 66547010 47663928 13559322 78% /home
/dev/ada0s1d 4058062 1705618 2027800 46% /usr
/dev/ada1s2d 8122126 43968 7428388 1% /var
/dev/md0 886686 386708 429044 47% /md
/md/usr/local/bin 886686 386708 429044 47% /usr/local/bin
/md/usr/local/sbin 886686 386708 429044 47% /usr/local/sbin
/md/usr/local/lib 886686 386708 429044 47% /usr/local/lib
/md/usr/local/libexec 886686 386708 429044 47% /usr/local/libexec
/md/usr/local/apache2/bin 886686 386708 429044 47% /usr/local/apache2/bin
/md/usr/local/apache2/lib 886686 386708 429044 47% /usr/local/apache2/lib
/md/usr/local/apache2/modules 886686 386708 429044 47% /usr/local/apache2/modules
ul ここっすね
/dev/ada0s1e 289526798 74 266364582 0% /hd ← HDD
/dev/ada1s2e 66547010 47663928 13559322 78% /home ← SSD
SSDとHDDのキャッシュをうまく使い分ける方法ってどんなんだろ?
わくわく なんかまだ動きがへんだなぁ
>>207 の場合
専ぶら立ち上げて一回目は読めるけど、ログ削除して再度読もうとすると・・・
読めない
専ぶらによるのかなぁ
私 Jane View
他の専ブラだとどうなりますか? >>215
styleでは読み込みOK→ログ削除→読み込みOKでした ちなみに1回目に取得した後にログを削除せずに再読込をしたらカコローグと帰ってきたぐらいです 私のJaneViewだけの現象のようだ
ちょっと気になるけど・・・ まっいいか たぶんねー
どれが原本かわからないという現在までの2ch
1. 原本の定義をする
2. 削除は原本を対象に行う
3. 原本以外は見えないようにするか、原本以外は原本に同期させる
これをやらなきゃってことですなー
過去ログへの旅 削除テスト
http://qb7.2ch.net/test/read.cgi/operate2/1295332682/
ということなので mentai , money , choco もお仲間に、 都合
gimpo jfk piza schiphol takeshima tsushima mentai choco money が参加しています まぁびっくりなわけで、
mentaiには.datはなかった。
全部 .dat.gz になっている、格納場所は
public_html/板名/kako/9xx/9xxxxxxxxx.dat.gz or
public_html/板名/kako/1xxx/1xxxx/1xxxxxxxxxx.dat.gz or
だ。 途方に暮れてみる。 もう圧縮ってApacheがやってくれるんですよねぇ。
なら、このコマンドを。。。
find . -name \*.dat.gz | grep /kako/ | xargs gunzip
find . -name \*.dat | grep /kako/ | xargs chmod 0666 今調べてもらったんだが、
サブドメインは全部で200以上あるそうだ、また途方に暮れる
仔花子を経由しないで直接花子に向いているのがあと40ほどあるらしい
cloud.ula.cc のhddはまだまったく忙しくないようなので
またcloudへ向けるのを増やしてみる
namidame mamono pc11 live28 society6 science6 が新たに参加します >>223
その方向の方がよさげですねぇ
hanakoの負荷か下がったときにでも
花子の転送量グラフ
http://traffic.maido3.com/jfj1/McNh/nXAg/ >>223 おわった@mentai
これでmentaiの過去ログは全部 read.cgi offlaw.cgiで読めるはずー mukashiの中身も見られなくなってる
捨てるっていうか忘れてる悪寒?
http://mentai.2ch.net/test/read.cgi/mukashi/943986949/l50
・専ブラ:
1 名前: ERROR ret=2001 OL2ERROR##### dat(58)[/home/ch2mentai/public_html/mukashi/kako/943/943986949.dat]
投稿日:
・ブラウザ:
(`#(1)
1 ERROR ret=2001 OL2ERROR##### dat(58)[/home/ch2mentai/public_html/mukashi/kako/943/943986949.dat]
(`# /home/ulacloud/public_html/_jungle/2ch/mentai.hanako.2ch.net/mukashi/dat/943986949.dat
1メ・???H弓$H酷・
総レス数 1
■ このスレッドは過去ログ倉庫に格納されています
/mukashi/フォルダってhuman、bubbleとか他にもあるのか >>229
mukashiの下に、さらにもう一つ板ディレクトリがあって、その下のkakoディレクトリの中にはいってる感じで、
現在の形式に比べて階層が一つ多いから、
多分特殊な処理をread.cgiに施すとか、あるいはディレクトリ配置を他と同じようにしてもらうとかしてもらわないと
多分見れない。 datの形式も違ってそうでややこしそうな予感がするよ… 仔花子にじゃなく、直接花子に向いているサブドメインがあと31個ある
今日はそのなかから当たらし目のものを10個 cloudiに向けよう love6 live11 live23 live24 yutori money6 pc12 pc11 atlanta game13 です
これからDNSの変更します chocoも >>223 で展開中。
>>234 でたいして負荷上がらなかったからさらにやるー げっ 夜になるとyahooのクロールが大量にくる・・・
負荷あがってなんにもでけへん、朝方こいっちゅうの
cloud収容組の1000.txtとかが読み出せないのは仕様でしょうか まだそこまで手が回ってませーん
読み出せるようにするつもりです、
その仕組みは上の方に書いてありますー
削除が優先です 進捗率 0.1% ここまで現在参加中一覧
atlanta, choco, game13, gimpo, jfk, live11, live23, live24, live28,
love6, mamono, mentai, money, money6, namidame, pc11, pc12, piza,
schiphol, science6, society6, takeshima, tsushima, yutori, /dev/ada0s1e 289526798 78699630 187665026 30% /hd
/dev/ada0s1e 289526798 105700534 160664122 40% /hd
本日移したのは、
jbbs 2chplus afox ebi natto piza2 pyon saki salad salami tako teri ton yasai tv food3
これで直接花子を見にいっているサブドメインはなくなったはず
cloud か仔花子経由になった。 /dev/ada0s1e 289526798 113237464 153127192 43% /hd
/dev/ada0s1e 289526798 147424870 118939786 55% /hd
今日も20くらい移すぜ 本日収容分
science4 science5 society society2 society3 society4 society5
sports sports3 sports4 sports5 sports6 sports7 sports8 sports9 sports10
that that2 that3 that4 dubai
21個 /dev/ada0s1e 289526798 157497478 108867178 59% /hd
/dev/ada0s1e 289526798 180858238 85506418 68% /hd
ううぅ 70%を越えようとしている、、、
cloud2 投入
tmp tmp2 tmp3 tmp4 tmp5 travel travel2 travel3 tora3 v-v
tv2 tv3 tv4 tv5 tv6 tv7 tv8 tv9 tv10
19個
cloud3を来週に投入予定 HDD=2TB のハイブリッドBananaらしい 調子にのって cloud2に
academy6 anchorage changi hideyoshi qb6 仔花子
3238
3279
3211
の3台があいたはず、 cloud に入れたのは全部htmlは見せていない状態です
本当のdatで削除を行えば全てに反映するシステムを構築中です
すみません
tv food3の削除ができるように次頑張ります。
来週私いないので、帰ってきてからやります cloud
/dev/ada0s1e 289526798 217650168 48714488 82% /hd
本日 01/31 cloud2への収容分です。
academy,anime2,anime3,bubble6,etc6,etc7,ex18,ex19,ex2,ex20,
ex21,ex22,ex23,ex25,ex3,ex4,ex5,ex6,ex7,ex8,
ex9,food,food2,food3,food4,food5,food6,food8,game11,game12,
game14,hobby10,hobby11,human7,life8,life9,live25,live27,music8,news21,
news22,news23,news24,school7,science,sports11,tmp6,tmp7,tv11
計49個です。 cloud初号機の残り容量を考慮して、キャッシュの大きかった
namidame と tsushima を cloud2 に移動させました。
動作確認も完了して、様子を見ていきます。
本日 02/02 cloud2への収容分です。
1999, 2002a, aa, aa2, aa3, aa4, aa5, aa6, academy2, academy3,
academy4, academy5, anime, bg3, book, book2, book3, book4, bubble, bubble2,
bubble3, bubble4, bubble5, caramel, comic, comic2, comic3, comic4, comic5, comic6,
comic7, etc, etc2, etc3, etc4, etc5, ex, ex10, ex11, ex12,
ex14, ex15, ex16, ex17
計44個です。
ちなみに、cloud2にはこれ以上入れられない予感、、、
ハイブリッドBananaのHDDを 2TB に換装した
cloud3がそろそろ出来上がるので、以降はそっちに収容する予定です。 だんだん方針が見えなくなってきたんだけど、
一台にまとめるというよりは、仔花子の台数を減らすというのが現実の作業?
それとも、スーパースペックのcloudサーバを使えば、一台という目標は
完遂できるの? 仔花子(cloud)一台に収めてるのは現実の作業じゃないかな?花子をフロントエンドにして
過去ログの提出、過去ログ削除依頼に受付(過去ログ読出し→削除実行→ログ書き戻し)
を遣ってるのかな?花子、仔花子逆かも知らんけど あくまでも>>13なんじゃ無かろうかね。
最終的には1台目指すけど今は現実的に稼働できる台数で動かすと言う事で。
と言ってもディスク容量的に一台化は激しく数年先になりそうだね。
キャッシュだけでまさかの合計1T越えとかなりそうで怖い。 遅ればせながら、ようやくcloud3が到着です。
これからcloud用のセットアップを開始しますです。
ada0: <Hitachi HDS722020ALA330 JKAOA3EA> ATA-8 SATA 2.x device
/dev/ada0s1e 1878835782 8 1728528912 0% /hd
先代のcloud達の残り容量の様子をみると、
週末乗り切れそうになさそうなので、先にcloudやcloud2から
キャッシュが大きそうなものをcloud3へ移す予定です。
キャッシュのクリアって一日一回ぐらいがいいのだろうか?
一日二回とかだとcloudの台数削減にはなると思うんだが
キャッシュサーバとしては意味がない?
その前に、すべてのバーチャルホストがcloudへ向くまでは
実験する意味はないのは分かってるつもりだが。
全部で200以上あるという話だったけど、今どこまで進んだのだろうか? cloud3.ula.ccの転送量グラフです。
http://traffic.maido3.com/BPx7/uLvE/fXFs/
等言う事でcloud3のセットアップができた気がします。
なので、既にcloudにある以下のドメインをcloud3に向けて現在動作確認中です。
schiphol, mamono, gimpo, yutori7, pc11
anchorage, changi, hideyoshi, namidame, tsushima
tmp, ex21, tmp5, life9, game11
>>271
まだ色々理解してる最中なので勘違いかもしれませんが、
今の時点では、各cloudではキャッシュのクリアを
していないように見えます。
現時点でcloud化したドメインはざっと数えて約170、
まだ仔花子を参照してるのは約80程あります。
http://ftp-admin.blogspot.com/2009/09/ssd_24.html
人気のあるファイルの統計があればこういうのの真似ができるんだろうけど
需要が満遍なく分散してたりするとキャッシュが効きにくくなって辛い。
からとりあえず統計取るのも兼ねてやってるんだと思ったけど
クローラーが来てるとなると… 動作確認も完了し、cloud3はかねがね問題なく動作してるようです。
現在各cloudから移行したドメインのキャッシュを削除して様子を見ます。
なんせ、花子の機嫌も取りつつの作業なので、
ゆっくりしか進められないのがなんとなく歯がゆいです。。
お疲れ様です。
楽しい実験!というイメージで見てます。
いろいろいじり甲斐があるかもしれないと言うことで
親方が家出から帰って来てからが本番という気分です。 いまやっていることは・・・
「どっちの方向に進むべか?」を考えることかなぁ
いずれにしても定量的なものがなけりゃ始まらないので
化け物の大きさを測っているというのが適当か。 3TBのHDD、発売3ヶ月弱で半額近くにまで値下がり
http://gigazine.net/news/20110205_3tb_hdd_half/
花子のRAID6の容量は確か6TB。仔花子には3TB HDD*2を積んでRAID0にすれば十分なはず。 2chサーバのRAIDって片肺飛行が続出したRAID1の苦い思い出が...。 FOXお兄様
お時間があるときに過去ログ削除の対応、みてやってくださいませ。
仮処分出てるけど削除できず10日以上経ってるのとかありますゆえ・・ find . -name \*.dat | xargs chmod 0666
をhanakoの全アカウントで走らせなきゃだなぁ
どうしてかって言うと、
hanakoの各アカウントのpublic_html/test/ のディレクトリをシンボリックリンクにして
どっか一箇所を指すようにしたのよ、これは各種cgiを更新するたびに配るのが
めんどくさかったり、つものようにいろんな亜種が生まれたりを避けるために
でもパーミッションが 0555とかいろいろなdatがあって rwじゃない状態が・・・
決め事。
hanako に収容したら dat は全部 0666 この間のgz展開なんぞたかだかバーチャルサーバ1個分だったっけ?
はるかに規模がでかいが、個別の処理は速いか?
find . -perm 属性数値 で作業が減るか増えるか?
まぁ 一回こっきりの作業なんでサーバが暇なときにでも、
>>277
3TBかぁ ゴクリッ
でもHDDが超忙しく動いている cloud3(2TB) 例のチップセット欠陥が無ければ3TBx2とか2TBx3のRAID0にメモリ馬鹿載せして…
とかそういうのもありだったのかな。複数台に分けるのとどっちの方が
結果的に安くなるのか分からないけど。 sandyじゃないからチップセット欠陥は関係ないし、一台にまとめられるならまとめた方が安い
問題は速度だけ バーボンハウス
http://qb7.2ch.net/_403/c403.cgi
で、hk2-lr670619g.super-goo.comさんは拾ってもらった方が得なのかなぁ ハイブリッドbanana 2TBx2 RAID0 + SSD(ブートdisk)ってのを作ってみるかー 本日 02/07 仔花子 → cloud3への収容分です。
news20, news3, news4, news5, news6, news7, news8, news9, off, off2
off3, off4, o-o, ooo, oyster, pc, pc10, pc2, pc3, pc4
pc5, pc6, pc7, pc8, pc9, qa, qb, qb2, qb3, qb4
school2, school3, school4, school5, school6, school, science2, science3
計48個です。
本日 02/08 仔花子 → cloud3への収容分です。
live19, live2, live20, live21, live22x, live26, live3, live4, live5, live6
live7, live8, live9, love, love2, love3, love4, love5, money2, money3
money4, money5, music2, music3, music4, music5, music6, music7, music, news
news10, news11, news12, news13, news14, news15, news16, news17, news18, news19
計40個です。news19が入ってます。
#昨日書いた総数に間違いがあり、正しくは計38個でした、すいません。
ちなみに、ざっと計算したものなので漏れてるかもですが、
既に合計257個のドメインが既にcloud化されていて、
残り10個のドメインが仔花子を参照してます。
あともうちょいでございます。 お疲れさまです、忘れ物です
|д゚)つ news2
banana3258にあと45、banana3190にwwwww が残っているような?
http://mpv1.40.kg/
http://mpv3.40.kg/ わかりにくいので書きなおし。
総数 267
cloud済み 257
残り 10
です。
>>294
ご指摘ありがとうございます。ごっそり漏れてました。
色々見直した結果、現在の進捗率は 257/312 となりました。 あわせて本日作業分の news2 が漏れてました。今日は計41個です。
つことで連投失礼しましたー。 ちょっと賽の河原の石積みを連想してしまったけど、
もう増えないだろうからこつこつ頑張ってね。
バーチャルドメインの最多数記録ってどれくらいなのだろうか 本日 02/09 仔花子 → cloud3への収容分です。
ex13, game9, hobby7, hobby8, human5, life7, live14, food7, gamble, gamble2
game, game2, game3, game4, game5, game6, game7, game8, game10, hobby
hobby2, hobby3, hobby4, hobby5, hobby6, hobby9, human, human2, human3, human4
human6, invisible, life, life2, life3, life4, life5, life6, live, live10
live12, live13, live15, live17, live18
計45個です。
進捗率は、色々修正が入り 312/315 となります。
残り以下の3つのドメインなんですが、
1999.2ch.net
2002a.2ch.net
wwwww.2ch.net
cloudでちゃんと動いてくれなかったので
何処に問題があるか調査する所からスタートです。 http://2002a.2ch.net/test/read.cgi/news1022/1022122864
http://1999.2ch.net/test/read.cgi/lobby/957231759
表示結果はともあれ、2002a, 1999 は要件を満たしたはずです。
現時点で進捗率 314/315 です。
wwwww は明日以降修正します。
これの修正確認ができたら達成率100%、すべてcloud化します。
cloud3に設定されているドメインだけですが、
htmlの表示を開始しました。
http://tmp.2ch.net/kakolog.html とか、
その他色々見えるようになったはずです。
何か不具合とか見つけたらご指摘頂けると助かります。 >>300
お疲れさまです
>>244 でcloudに入れた food3 が >>258 でcloud2 に収容
>>262 でcloud2に入れた 1999, 2002a が >>300 でcloud3 に収容
この3つのドメイン収容の作業がダブってカウントされてる気がするので
311/312でおkだと思いますー
ほんとおつかれさまです 今回のcloud収容作業が原因なのか不明なのですが、
削除した過去ログが復活している事が時々あるのですが、そういうのはここでFOXお兄様に報告すれば良いのですか?
今日見つけた例
東京地方裁判所平成22年(ヨ)第4250号
http://qb5.2ch.net/test/read.cgi/saku2ch/1297245306/
これ以外にも間違いなく何件か発生しています。
自分も経験し、処理忘れかと思ってもう一度削除しなおしたことがあります。
また、他の削除人さんが「削除しました」と報告し、削除依頼者も「削除を確認しました」と言っているのに
昨日か一昨日ふと見たら復活してるのとか有りました。
何となくですけれどcloud化とか過去ログ削除用に「本体のdatを消したらコピーのdatに反映される仕組み」を作ったあたりが関係しているっぽいの出ここに書いてみました。 「2ちゃんねるのため」とか、そういう大きなお世話なことは言わないけれど、
仮処分決定で削除したものが意図せず復活してるのはサーバ屋さん的に結構まずい気がするからFOXお兄様にお伝えしたんだよ。
なんとかしなさいよね。
(よろしくお願いします禁止令が出てるのでこれで) cloudはbanana3000から拾ってるのかそれとも仔花子から拾ってるのか…?
んで新削除スクリプトは両方消してるんだろうか。 あ、ひどい勘違いをしてた見なかったことにしてorz