X



バックアップ_(2)
0002名無しさん@お腹いっぱい。
垢版 |
2006/07/31(月) 23:43:02
あ、新スレ立ったのか。乙>1

ところで、バックアップツールで一つ発見。(GNU な)cp は
メモリリークするので使ってはいけない。250GBのデータコピーしたら
メモリを使い果たしてシステムごとあぼーんしました。ガイシュツ?
0004名無しさん@お腹いっぱい。
垢版 |
2006/08/01(火) 09:39:54
これはリークじゃないけど、rsyncもオンメモリで比較用データ持つから
巨大なファイルツリーの転送には使えないんだよな。どっちも本格的
バックアップには元々使わないだろうけど、対象が巨大化すると
こういった細かいツールが思うように使えなくなって困る。
0010名無しさん@お腹いっぱい。
垢版 |
2006/08/18(金) 07:41:36
これのこと?→ http://mtx.badtux.net/

かなり低レベルなSCSIアクセスするみたいだから、無理じゃね?
開発対象外だし、動作レポートはSolaris/Linux/FreeBSDで埋め尽く
されてるから動いたとしても安定稼動できるかは「?」だろうし。
0012名無しさん@お腹いっぱい。
垢版 |
2006/09/28(木) 01:39:32
rsyncでsshを経由してバックアップを行っています。
日本語を使用したディレクトリ下のファイルが転送されないのですが、
日本語ファイルは扱えないのでしょうか?
0016名無しさん@お腹いっぱい。
垢版 |
2006/11/06(月) 10:46:48
Windowsだったら、UTF-8化したcygwinのrsync使えば日本語可能だけどね
0019名無しさん@お腹いっぱい。
垢版 |
2006/11/30(木) 20:07:14
ググったのですが見つかりません
0020名無しさん@お腹いっぱい。
垢版 |
2006/12/02(土) 23:39:41
rsyncもうまくディレクトリ分けて実行すれば何とかなるのでは?
0021名無しさん@お腹いっぱい。
垢版 |
2006/12/27(水) 01:02:15
webdavに対してrsyncを使いたいのですが、どのオプションを使えばよいのでしょうか?
0026名無しさん@お腹いっぱい。
垢版 |
2007/01/15(月) 00:23:57
rsync って、2つのディレクトリを比較して差分ミラーしてくれるけど、
前回の情報ってどこに保存してるの?
それとも毎回全部比較してるの?
0033名無しさん@お腹いっぱい。
垢版 |
2007/02/12(月) 03:05:01
rsyncでバックアップを取る際に、バックアップ元にないファイルは削除したいのですが、どのオプションをつければよいのでしょうか?
現在のオプションはavzです。これだと差分だけ転送されてバックアップできるのですが、削除はされません。
よろしくお願いします。
0035名無しさん@お腹いっぱい。
垢版 |
2007/02/12(月) 16:54:40
>>28
亀だけどLinuxなら

$ inotifywait -m -e delete -e close_write -e move -r /tmp

とかで変更操作内容を記録しておける。これを使えば差分転送を
比較なしにできるよ。OSによってAPIが違うみたいなので、他のOSの
場合はそこから調べないといけないけど。

0040名無しさん@お腹いっぱい。
垢版 |
2007/02/20(火) 13:26:29
Winodws上の日本語ファイル名のファイルを
CygwinのrsyncでLinux上にコピーしたとき
Linux上でのファイル名は意味不明の数字になります。
Linux上で作った日本語ファイル名のファイルは
正常に日本語が見えています。
rsyncでコピーしたファイルの日本語ファイル名が
適切な文字コードに変換されるようにできないでしょうか?
0042名無しさん@お腹いっぱい。
垢版 |
2007/02/21(水) 10:39:55
rsync はファイル名の変換をしてないので、自分で変換するコードを入れるか、
rsync したあと自分で変換するわけだが...
mv $file `echo $file| nkf -W8 -s`
とか。ただし、rsync する意味はなくなくるけどね。

Linux 側をUTF locale にするとそのまま見えたりするかも。まぁ、Windows と
一緒に使う奴ならlocale はShift JISなんだろうけどな。
0043名無しさん@お腹いっぱい。
垢版 |
2007/03/12(月) 15:06:20
なんか FreeBSD の /sbin/dump って最近変わった?

新しいテープでもなんでもこんなことをいわれるんだけど:
# dump 0ufabh /dev/nsa0 256 0 /home
DUMP: WARNING: should use -L when dumping live read-write filesystems!
DUMP: Date of this level 0 dump: Mon Mar 12 15:03:23 2007
DUMP: Date of last level 0 dump: the epoch
DUMP: Dumping /dev/da1s1a (/home) to /dev/nsa0
DUMP: mapping (Pass I) [regular files]
DUMP: mapping (Pass II) [directories]
DUMP: estimated 31198136 tape blocks.
DUMP: End of tape detected
DUMP: Closing /dev/nsa0
DUMP: Change Volumes: Mount volume #2
DUMP: Is the new volume mounted and ready to go?: ("yes" or "no")

dump - | dd of=/dev/nsa0 bs=256k で書き込む分には
全然問題なく書き込めるんだが...
0045名無しさん@お腹いっぱい。
垢版 |
2007/03/29(木) 04:18:13
rdiff-backupな人はおらんの?
つーか、cygwin→debianで使ってるんだけど、cygwin側のパーミションの取得に失敗してるのか、強制的に000になってて泣ける。それ以外はいいソフトなんだけど。

むかしはrsyncを一日一回動かしてたけど、たとえば、ファイルサイズを0にするウィルスにかかって、気づかず間にrsyncが走ったら・・・と思って怖くなって移行した。
0047名無しさん@お腹いっぱい。
垢版 |
2007/05/19(土) 03:13:11
今、AIT-Turbo試しているんだけど、くソニーが SATA版の
ドライバのOS範囲を拡充しないので、どうしたものか。
0048名無しさん@お腹いっぱい。
垢版 |
2007/09/05(水) 14:47:30
超遅レスですが、私も rdiff-backup を使い始めました。
Linux to Linux です。

pdumpfs は、リモートからの(or リモートへの)バックアップに対応していないので
rdiff-backup を使い始めたのですが、

# rdiff-backup ./foo user@host::/bar
するにしても
# rdiff-backup user@host::/foo /bar
するにしても、相手方に rdiff-backup がインストールしていないとダメなんだよね
(やってみたらそうなった)

rdiff-backup は、バックアップから取り出すときの指定は、pdumpfs よりいろいろできそうだけど、
pdumpfs の、YYYY/MM/DD ごとにファイルが並ぶほうが、直感的でわかりやすいな。

pdumpfs-rsync というのもみつけた。
0049名無しさん@お腹いっぱい。
垢版 |
2007/10/28(日) 09:20:07
rsyncをcronで実行しているのですが、実行結果をログの形で残すことはできないでしょうか?
0056名無しさん@お腹いっぱい。
垢版 |
2007/11/01(木) 02:26:31
scpに切り替えてしまうのが吉。
rsyncは規模に対する限界が速すぎるので、scpにして後は回線帯域を
投げて解決。フルコピーできない場合はmd5sumとか取っておいて、それを
比較して該当分だけscp。

たかがファイルコピーだが、規模が大きくなると別種の問題になるよね。
rsyncはメモリリークしてるわけじゃないけど結構前のGNU cpではリークしてて、
数百GB、数百万ファイルのcp -aしたらメモリが尽きてお亡くなりに。

そりゃ普通はリークしてもすぐ終了するから問題ないんだけどね・・・
0059名無しさん@お腹いっぱい。
垢版 |
2007/11/14(水) 05:14:01
>>56
規模が大きいことを前提としておいて scp とか md5sum とかあり得ない。
そんなことするくらいなら、古典的な tar の差分バックアップの方がずっとまし。

ついでに言うと rsync 3.0 でその手の問題は解決。

0060名無しさん@お腹いっぱい。
垢版 |
2007/11/18(日) 22:28:52
Win のデータを Linux サーバに、Unison というソフトで同期バックアップをしているのですが、
日本語のファイル・フォルダ名が入っていると、バックアップができません。
パッチとか、良い方法はありますか?
0062名無しさん@お腹いっぱい。
垢版 |
2007/11/19(月) 23:13:29
>>60
それはまった。Linux側ではUTF-8、Windows側でSJISでうまく同期できず。
OCamlなんて言語で書いてあるから直す気も失せた。

現状うまく使う方法としてはSamba経由でドライブにマウントして、
その上でunisonをドライブ同士でかけることかな。もっとも自分は
Windowsのオフラインフォルダに逃げた逃亡兵。
0066名無しさん@お腹いっぱい。
垢版 |
2008/03/02(日) 11:44:59
バックアップを暗号化したいのですが、定番のやり方ってあります?

現在は、cron+dumpでファイルに落として、そのファイルを別ホストにミラーするのと
DVDに焼くのとでバックアップを回してます。これだとダンプしたファイルを
秘匿しないといけないのが難だなってことで、暗号化したいと思っています。

初めはGnuPGがいいかなと思ったのですが、同一のパスフレーズから完全一致する
鍵ペアを再生成する方法がわからなかったので、鍵ペアの保守に困りそう...
てことで、mcryptを調べたりしているところです。

対象ホストはLinuxですが、なるべくOSに依存しない手段を選べると嬉しいです。
何かアドバイスがいただけるとありがたいです。
0070名無しさん@お腹いっぱい。
垢版 |
2008/04/14(月) 11:14:42
rsyncの挙動について - 教えて!goo
http://oshiete1.goo.ne.jp/qa1614836.html?ans_count_asc=1

ファイル数多いからバックアップにtar通せみたいな流れになっているんですが、
差分バックアップはどうするんだろう?

あとrsyncってメモリ消費型なんですね・・・
ファイル数多いと馬鹿食いするのかー。

UNIXには、Windowsの fastcopy みたいなツールはないんでしょうか?
fastcopy は、100万ファイルあってもメモリ消費は少、コピー自体も爆速なんですが。
0072名無しさん@お腹いっぱい。
垢版 |
2008/04/14(月) 12:20:04
>>70
ファイル数が多いとすぐ1Gとか行っちゃうよ
個々のファイルサイズにもよるけど
tarで固めて全部送ったほうが速い場合もある
0074名無しさん@お腹いっぱい。
垢版 |
2008/04/14(月) 14:36:41
そういう意味ではなく、全体のファイル数が多くて、差分コピーするって話なのですが・・・
500GBのストレージで10GBしか更新されたファイルがないようなときです
0077名無しさん@お腹いっぱい。
垢版 |
2008/04/14(月) 15:35:25
着目するべきなのは容量でなくファイル数。
まあrsyncで実際に試してみりゃ問題ないのわかると思うけど。
0078名無しさん@お腹いっぱい。
垢版 |
2008/04/15(火) 23:43:34
>>75
FastCopyはこれです
http://www.ipmsg.org/tools/fastcopy.html

元々は、小さなファイルなどをオンメモリで一括コピーするような
高速なファイルコピー、削除ツールなのですが、
UNICODE対応、省メモリなのがこれしかなくて、
Windowsでのバックアップ、ミラーリングに使ってます
(バックアップ専用ソフトでもこういうのがなかなかない)

HDD内に100万ファイルくらいあってもメモリ量はびびたるもの。
前にWindowsでBunBackupというのを使ったのですが、こちらは、
100万ファイルだと1.0GBほどメモリを使いましたw

rsyncのソースは読んだことないのですが、
メモリをたくさん食う方だとネットでも見ているのですが、
そうなるとクリティカルなバックアップ局面では使えない気がします
3.0では解決された?
0079名無しさん@お腹いっぱい。
垢版 |
2008/04/16(水) 00:33:59
>>78
rsync 3.0ではファイルの数が多くてもメモリの使用量は少ない.
ただし,
・更新元にないファイルをどのタイミングで消すか
・ハードリンクをどれくらいちゃんと扱うか
といった条件次第では, 転送を開始する前に両端での各ファイルの
stat 結果を保持することになるのでメモリの使用量は従来同様多い.




0087名無しさん@お腹いっぱい。
垢版 |
2008/04/23(水) 02:47:24
初歩的な質問ですみません。OSはGNU/Linuxです。

tarを使ってバックアップを採っていたのですが、どうやらこのプロセスが
ハングアップしてしまったようで、psコマンドで見ると以下のような状態になって
しまいました。
で、kill -9 も効きません。

# ps aux
USER PID %CPU %MEM VSZ RSS TTY STAT START TIME COMMAND
・・・・・ 抜粋 ・・・・・
root 4254 0.0 0.0 0 0 ? DW Apr18 1:56 [tar]


また、テープデバイスも道連れになってしまったようで、テープの操作が
できません。offlineも駄目です。
なんとかテープドライブを使える状態にしたいのですが、リブートせずに
テープデバイスを開放する方法は無いでしょうか?

# mt -f /dev/st0 status
/dev/st0: Device or resource busy

# mt -f /dev/st0 offline
/dev/st0: Device or resource busy
0088名無しさん@お腹いっぱい。
垢版 |
2008/04/23(水) 03:42:38
kernelの中でIO待ちになってしまっているので、いくらkillしても
IO待ちが終わらないとsignalは届かないだろう。

テープ無理矢理イジェクトするとか、ドライブの電源落としてみるとかすれば、
運が良ければtimeoutして戻ってきてくれるかもしれない。
0089名無しさん@お腹いっぱい。
垢版 |
2008/04/23(水) 03:54:52
ドライブの eject ボタンを5秒ほど押すと、リセットできるドライブが
多いんだがドライブの取説には書いてないか?
009187
垢版 |
2008/04/24(木) 02:26:04
アドバイスありがとうございます。

>>88
内蔵のドライブなのでドライブのみ電源を落とす、てのはできませんでした。
ただ、イジェクトボタンでのイジェクトは出来ました。
そこでどうだっ! とkill -9 でしたがやっぱり駄目でした。
>>89
テープのイジェクト状態で、ボタンの長押しもやってみましたが残念ながら
状態は変わりませんでした。

>>90
ありがとうございます。試してみます。
kill -HUP は-9の前にやってみたんですが、他は明日やってみます。
…rmmodはちょっと怖い(動いてないけど捕まえてるみたいだし)ので保留という
事で… スミマセン。

なんとなく、[tar]を殺せばなんとかなりそうな感じもするんですが、調べてみる
と「まあ、まずはテープを開放しろ」てなページも多かったりで(その方法も判か
らないでいますが)どっちが先なのだ?と言う感じになってしまっています。
上手く行ったらご報告しますね。
0092名無しさん@お腹いっぱい。
垢版 |
2008/04/24(木) 23:17:11
テープがSCSIならSCSIケーブル抜けばドライバがバスリセットかけて
復活するかも。その後でもっかいつなぎなおしてrescan-scsi-busすればいい。
009387
垢版 |
2008/04/29(火) 13:57:26
結局ベンダーへ問い合わせしました。
今結果待ち。結構待ってます。

>>92
ありがとうございます。
ただ、内蔵なんですこれが。

ちなみに、windows系のサーバなんかだと周辺機器へのアクセスが無い事を確認し
て、結構 機器のoff→ON!とかやっちゃう事はあるのですが(今回のように内蔵
だとそれもままなりませんが)solarisやらLinuxで同様の事ってやって大丈夫な
ものなんでしょうか?・・・・ここで聞くこ事でもないのかもしれませんが。

カーネルがパニックとかになると、結構怖いかも(イジェクトボタン長押しはやり
ましたが。。)
0096名無しさん@お腹いっぱい。
垢版 |
2008/06/02(月) 07:02:07
バックアップしたい500Gのドライブがあって400Gまで溜まったので
そろそろバックアップしたいと思います。
テープバックアップは考えておらず、HDDは以前にモータが壊れた事があるので
DVDでバックアップを考えています。

差分のイメージを作成し圧縮してDVDに保存することは可能でしょうか?
0099名無しさん@お腹いっぱい。
垢版 |
2008/06/02(月) 11:48:08
>>98
オヌヌメは同容量のHDDだな
ddの後でザット内容を確認したら、保管しておけば
ます故障は無い
心配なら2台取れば良いし

俺なら、新品を装着して、古いのをバックアップにしまうけどね

だいたい、毎日使っていて壊れないのに
引き出し保管で壊れる訳がないんだよ
DVDの劣化の方がもっと心配じゃね?

差分を取るのも基本的には同じ考え。
テープやDVDにコマギレでしまうなら、HDDのほうが信頼感はある
テープは週単位とかの書き換え前提な一時的なバックアップだな。


0100名無しさん@お腹いっぱい。
垢版 |
2008/06/02(月) 12:00:01
>>99
>だいたい、毎日使っていて壊れないのに

ダウト。毎日使っているから壊れない。

HDDへのバックアップは極めてお勧めしない。
0101名無しさん@お腹いっぱい。
垢版 |
2008/06/02(月) 19:22:25
>100
そうなんです。
HDDは通電してないと、モータの寿命が早まる気がしています。
基本的にまわし続けていたほうが長いと思います。

やはりDVDでやりたいと思います。
0103名無しさん@お腹いっぱい。
垢版 |
2008/06/02(月) 23:32:53
年中無休発狂妄想爆裂憤死寸前粘着真性キチガイ包茎池沼病気猿男(狂猿)◆QfF6cO2gD6による気違いカキコの続き:

リナックスデスクトップ画像 Part19
http://pc11.2ch.net/test/read.cgi/linux/1210695705/163

163 名前:login:Penguin[sage] 投稿日:2008/06/02(月) 18:40:08 ID:NHwjZMfE
FreeBSDスレにいたキチガイじゃ!!

初心者もOK! FreeBSD質問スレッド その95
http://pc11.2ch.net/test/read.cgi/unix/1210728872/793

793 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2008/06/02(月) 18:41:54
このkitty guyは、ここより大人しいがLinux板にもいるぞw
アク禁にならないのが不思議w

795 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2008/06/02(月) 18:53:54
やはり本人だったかw

797 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2008/06/02(月) 18:55:10
特徴ありすぎて他板でもすぐにわかるな彼 かわいい

なんも知らないLinuxについて教えてのスレ
http://pc11.2ch.net/test/read.cgi/os/1211461879/67

67 名前:Be名無しさん[sage] 投稿日:2008/05/30(金) 18:29:07
某基地害猿みたいな奴はどこにでもいるんだな
--------------------------------------------------------------------------------------------
UNIX板のあちこちのスレッドを荒らしている凶悪メンヘラ・真性キチガイ猿粘着◆QfF6cO2gD6。
いつも荒らしを憎むようなレスをするが、実際に荒らしているのは自分。
気色の悪い年中無休発狂粘着真性キチガイ包茎池沼病気猿男(狂猿)◆QfF6cO2gD6があちこちのスレに
遂に理解できないような基地害カキコをし始めた!気持ちが悪い…。
0104名無しさん@お腹いっぱい。
垢版 |
2008/06/03(火) 00:38:18
>>100,101
壊れてもいいんだよ。
バックアップの効果は寿命が異なるメディアにデータを乗せることで
片方が壊れたときにもう一方が生きている可能性を高めるだけだから、
バックアップ側が違うタイミングで壊れる限り、問題なし。
0105名無しさん@お腹いっぱい。
垢版 |
2008/06/03(火) 02:58:18
すみません。
この調子でいくとデータが1Tをオーバーするんですけど、
HDDの容量をオーバーする場合、2台になり管理が難しくなります。

スナップショットを利用すると解決するのでしょうか。
0106名無しさん@お腹いっぱい。
垢版 |
2008/06/03(火) 09:18:52
スレからするとバックアップをどうとるかについての疑問?

バックアップ側のHDDもRAID にするしかないでしょう

or 素直に LTO-4 辺りを使うか
0107名無しさん@お腹いっぱい。
垢版 |
2008/06/03(火) 09:24:40
>>104
おいおい、壊れるタイミングは違うだろうけど、
バックアップが先に死んでいたらどうするんだ?
HDDは止めている方が死にやすいんだから、バックアップ側が先に全滅ってのは
大いにあるぞ。

で、バックアップが全滅しているのに気付くのは、大抵リストアしようとしたとき…
0116名無しさん@お腹いっぱい。
垢版 |
2008/06/03(火) 18:41:19
DVD はムチャでしょ。
いったい何枚いるのやら。
定期的に生死を確認するだけでも一苦労だと思うけど。

テープは強力だとは思うけど、 LTO とか個人で使うには高すぎるよね。
DDS じゃ容量的に DVD や BD と大差ないだろうし。

現実的なのは HDD しかないと思う。
0124名無しさん@お腹いっぱい。
垢版 |
2008/06/04(水) 14:50:23
なんか前提がはっきりしないから話がまとまらないね

HDD を使わないで保管しておく場合、どれくらいで壊れるの?

例えば、新品で買って、バックアップ取って、そのまま保存した場合、とかさ
もしくは、実際に壊れた人は体験談を教えてよ
0125名無しさん@お腹いっぱい。
垢版 |
2008/06/04(水) 15:45:26
>>124
迷信だろ

うちは10年で50-60台じゃ効かないくらいの
バックアップHDDが保管庫にあるが、一番古いものでも
全く問題ないよ
いちおう、安全を考えて多重化もしてるけどね

むしろDAT時代のテープが復帰できないことが多かった
書き込み不良もあるんだろうけど
とにかく時間が掛かるんで、確認もおろそかだったし
不人気なので今は一切使われていない
ローカル単位だとDVDもDLTもあるんだが
DVDは多少の焼き損じが発生してるので、バックアップの総元締めのHDDから戻す

信頼性が抜群なのは、8単位の紙テープ
これは、信頼度100%だね
もう廃棄が進んで、ほんの少ししか保管されてないけど
8/5/3.5FDは完全廃棄済み
0126名無しさん@お腹いっぱい。
垢版 |
2008/06/04(水) 16:10:55

DTLA(旧IBM)製でデータが全て飛んだことがあるから、怖いんだわ。
DTLA30台買って、結局全て壊れたもんなぁ

今はseagate使ってるよ。

おまいらはscsiつかってるのか?
0128名無しさん@お腹いっぱい。
垢版 |
2008/06/04(水) 20:13:43
昔あったのだと、
Seagateの4G、3年もので2勝3敗、Quantumの4G、5年もので2勝1敗。
ってことで、今ではLTO使ってる。
0131名無しさん@お腹いっぱい。
垢版 |
2008/06/05(木) 08:07:12
HDDバックアップしてる人に質問
バックアップ先のファイルシステムは何ですか?

もれは鯖:xfs
バックアップ先:xfs
0135名無しさん@お腹いっぱい。
垢版 |
2008/06/05(木) 10:39:34
>>134
なにそれ?

High-performance File System な。
UFSみたいなもんだよ
本来はJFSなんだろうけど、過去の資産からの継承でHFSなだけ
0141名無しさん@お腹いっぱい。
垢版 |
2008/06/07(土) 18:00:46
ブロックデバイス間でコピーしてるからファイルシステム関係ない。
xfs->xfsとかでやると速度どれくらい?ファイルシステム的にはそっちの方が
いいだろうから、速度次第でやってみたい。

ダイレクトだと50MB/s程度は出る。
0147名無しさん@お腹いっぱい。
垢版 |
2008/06/09(月) 09:31:10
個別のファイルのバックアップは HDD2HDD が
利便性を含めて一般化してきているのではないかな?
HDDの一領域とかでなく,きちんとバックアップ用HDDという
意識で別に運用する分にはかなり有効だと思う。

毎日の差分とかも取り出す作業含めてテープよりやりやすいし。

でも,システム丸ごとの「これ、バックアップね」って
シール貼って保管する用はテープの方が安心感100倍だけど
0148名無しさん@お腹いっぱい。
垢版 |
2008/06/09(月) 15:51:22
> でも,システム丸ごとの「これ、バックアップね」って
> シール貼って保管する用はテープの方が安心感100倍だけど

かかるコストの割に使用頻度が低い(というか、ない)ので
今後はそういった慣習は無くなるのではないだろうか。
0152名無しさん@お腹いっぱい。
垢版 |
2008/06/10(火) 12:16:58
基板が死んだだけなら、同じ方のやつと交換すれば戻ったりするらしいけど。
モーターの交換はクリーンルームみたいな所じゃなくても大丈夫なの?
0155名無しさん@お腹いっぱい。
垢版 |
2008/06/10(火) 15:49:40
>>152
一時的に読み出せば、捨てて良いのだから
クリーンルームは不要

つーか長期在庫のHDDが壊れると思ってるのは
何の伝説を盲信してるの?
0157名無しさん@お腹いっぱい。
垢版 |
2008/06/10(火) 16:02:35
>155
伝説だというのなら
まずはおまえが試して10年後に報告してくれ

温度管理とか統計的誤差評価とかも忘れずにな
0160名無しさん@お腹いっぱい。
垢版 |
2008/09/26(金) 00:45:13
ちょっとスレチかもしれませんが、質問させてください。

バックアップで使用するテープドライブ(DDS/SDLT/LTO等)の
クリーニングについて調べていたら、
ドライブの累積走行時間を目安に実施してください、的な説明があったのですが、
ドライブの累積走行時間は何かUNIXのコマンドで分かるのでしょうか?

とりあえず、mt -f /dev/st0 status は試したのですが、
それらしい情報はありませんでした。

mtのmanもよく読んだんですが、該当するオプションはありませんでした。
OSはRHEL4で、mtのバージョンは0.8です。

何かご存知の方がいらしたら、よろしくお願いします。
0163名無しさん@お腹いっぱい。
垢版 |
2008/09/26(金) 23:28:43
レスありがとうございます。

>>161
やっぱり運用でカバーしかないですよね。

>>162
なるほど。
LTOやDLTではやり過ぎは良くないみたいですね。

自分はロギング大好きなので、
毎月記録を残そうかと思ってたんですが、
ググっても、マニュアル読んでも、
情報が出てこないのであきらめます。
0164名無しさん@お腹いっぱい。
垢版 |
2008/09/30(火) 09:39:46
LTO,DLT (リニア系?)は槍杉は×
ベンダ側も「クリーニングランプ点灯時以外やるな」

DDS,AIT とかのヘリカルスキャン系は
ある程度積極的にやるのを推奨なので
ランプ点灯しなくても定期的にやるとか
そんなのが推奨されてるんじゃなかったかな
0165名無しさん@お腹いっぱい。
垢版 |
2008/10/01(水) 22:42:54
D2Dの場合、通電は必須。
ミッドレンジのまともなストレージならば、定期的にDiskの
表面チェックをやってくれる。Checksum値が異なっていたら
エラーを出力して、HotSpareに切り替える。
こうした機構が無い場合、データが飛んでも分からないだろ。
電気代がもったいない?
そんな時はMAIDを買えば良い。一定時間ごとに通電して表面
チェックしてくれる
0168名無しさん@お腹いっぱい。
垢版 |
2008/10/19(日) 01:32:07
何か長期保存可能かつ長期可用性に優れたメディアってないかな?
テープはカビや劣化とか磁気転写が問題になるし
CDやDVDも色素が飛んだら終わりだし。
他のデジタルメディアも長期供給可能かどうかわからんし
何よりも再生機器が現存してるかどうか問題。

実家の押入に眠っていた大量のVHSテープとデータが記録されたカセットテープを見てふと思った。
0170名無しさん@お腹いっぱい。
垢版 |
2008/10/19(日) 03:32:10
>>168
穿孔紙テープだろうな
8単位10巻くらいなら、在庫有るよ
お安くしておきますが(w

バックアップってのはさぁ
意味わかってる?
バックアップなんだよ。(w

磁気情報が消えるとか、物理劣化してしまうとか
機器劣化してしまうとか、読み出せなくなる「可能性」に対して
バックアップを取るの。

まず2系統取って、確認して、常識的な劣化時間を考えて
その前に、その媒体を、その時代に安全な媒体で*バックアップ*する
それを繰り返すんだよ

その頻度と手間暇を勘定して、石に彫るもよし
和紙に綴るもよし
0171名無しさん@お腹いっぱい。
垢版 |
2008/10/19(日) 10:28:22
DVD 系(もう少し普及したらBD?)を複数とっておくのが無難じゃないかなぁ

DVD は割と長く再生互換な機器は出回るんじゃない?
0174名無しさん@お腹いっぱい。
垢版 |
2008/10/20(月) 09:05:19
>173
技術的にはそういう主張をしたくなるかもしれないが
いずれも規格の寿命は短いぞ

DVD±RW は読める期間は長そうだが
DVD-RAM 対応ドライブがいつまで供給されるか…



「その時」は DVD±RW メディアの寿命よりは先に来るでしょう
0177名無しさん@お腹いっぱい。
垢版 |
2008/10/22(水) 02:59:33
メディアの寿命にしろ規格の寿命にしろ、現状は大して長持ちしないわけだ。
ひたすらコピーし続けるしかないのか。
0180ウサチャソ ◆/0IEZmXnQ6
垢版 |
2008/10/22(水) 21:45:25
3.5"FDでとっといた98の資産が、見事に全部読み込めなかった俺が通りますよ。
磁気メディアは一切信用しねえ。
0181名無しさん@お腹いっぱい。
垢版 |
2008/11/28(金) 23:43:28
全然触れられていないけれどmicroSDとかCFか゛
だいぶ安くなっている。DVD-RAMよりちょっと高い程度だけれど
なんやかやでms-dosfsとか無難
CFとかはIDEにつないでブートデバイスにもなる。
電子機器だけどもちはいいんじゃないかな。
テキストとか写真は2Gbyteくらいのにバックアップしている。
最初はまとまったらDVD-Rに焼こうかと思ったけれど
小さいしどんどん値下がりするのでこのままでいいかなと
0183名無しさん@お腹いっぱい。
垢版 |
2008/11/29(土) 11:45:56
繰り返し使っているとドライバとか対応しないと特定の場所ばかり使うことになるだろうから
ファイルを累積させていらないものは落としてあとはROM使用というのなら問題ないと思う。
だめなやつは初期にパーになるらしいから最初は分散保存しておくのが良いとは思う。
0184名無しさん@お腹いっぱい。
垢版 |
2008/11/29(土) 11:58:25
>>182 リンク先の記事根本的に「100万回」を勘違いしているよね、
単に不良品掴んだだけ
メーカーによってはずれのでやすいものと全然でないものとあるみたいだから
しばらく「運搬用」とかに使って大丈夫だと思ったらROM的に書き込み
チェックしたらそれでReadOnlyにするのがよさそう。
0185名無しさん@お腹いっぱい。
垢版 |
2008/11/29(土) 15:14:55
>>184
回数の勘違いはあるけど、他のメディアなら読み取りエラーになるところを、
エラーなく化けたデータが読み込めているのが、怖い
0186名無しさん@お腹いっぱい。
垢版 |
2009/01/06(火) 09:36:17
バックアップをとるのには、いまのところrsync3が選択肢として最有力?
rdiff-backup使ってみたけど、なんかエラーで動かない・・・
0189名無しさん@お腹いっぱい。
垢版 |
2009/01/06(火) 13:26:02
>188
とりあえず以下について調べてレポートしてくれ給え

dump/restore, zfs send/receive, tar, afio,
rsync, unison, pdumpfs, rdiff-backup, duplicity,
amanda, bacula,

よろしく!
0193188
垢版 |
2009/01/07(水) 10:21:33
>189-191

ちょ、、、少し時間を下さい・・・orz

ところで、少し古いパソコンにLinux(debian)を入れて、rsyncで200GBほどのデータをほかのパソコンから
コピーしようとしたら、途中で応答がなくなってかたまってしまいます。
壊れているのか、原因がちょっとわからないのですが、とりあえず、メモリが224MBしか乗っていないのですが、
これだと不十分ということはあるでしょうか?
0194名無しさん@お腹いっぱい。
垢版 |
2009/01/07(水) 11:01:23
>193
rsync 2.x だと全体容量は関係ないけど
200GB というのが「多数のファイル」の場合には
メモリ食い過ぎて死ぬ可能性はある

転送中に top で rsync がメモリを食う様子くらいは眺めても罰はあたらない

rsync は 3.x 以降だとその辺は変わっているので
改善されるかもしれないような気もするかもしれない

rsync だめなら tar cf - xxx|ssh dokosoko 'tar xpf -' とかかな
0197193
垢版 |
2009/01/07(水) 11:54:40
もういちどrsyncを実行して、top画面を見てみました。
メモリ使用量10%弱のところでハングアップしてしまいました。
メモリ量ではないようですね
壊れてるにしても、どこがいかれているんだろう・・・・orz
0198名無しさん@お腹いっぱい。
垢版 |
2009/01/07(水) 11:58:11
すいません、もはや板違いですが、再起動したらBIOS画面で
Mwmory Testing : 229376K OK
のところで止まって起動しなくなってしまいました。
何回か電源を切って、入れてを繰り返すと起動しましたが・・・

どこが壊れてるんでしょう?
0199名無しさん@お腹いっぱい。
垢版 |
2009/01/07(水) 12:04:26
暖めてみれば?
ていうか古い機械ならもう寿命かもね
各所の接触が悪くなっているとか
部品の劣化とか
0200名無しさん@お腹いっぱい。
垢版 |
2009/01/07(水) 12:22:52
memtest86をはしらせてみたら40%でかたまってしまった
メモリエラーじゃなくて、テストプログラム自体がフリーズしてる・・・

寿命ですかね・・・
0203名無しさん@お腹いっぱい。
垢版 |
2009/01/08(木) 13:12:24
ごく短い間隔でミラーリングをとる方法ってありますか?
ミラーリングというか、ごく短いスパンでミラーリングをかけたいのですが
10分おきとか
0207名無しさん@お腹いっぱい。
垢版 |
2009/01/08(木) 17:35:45
すいません、わけわからんこと言ってるのは分かってるんですけど^^;

Raidのミラーリングなら、同時に二台のHDDにデータを書き込んでるわけですが
たとえば一台のデータを間違って消してしまったら、ミラーのデータも同時に消されてしまうんですよね?

そこで、ミラーリングしながらなおかつ遅延をかけるというか・・・
あ、やべっ、って時に、ぎりぎり直前までバックアップがとれてる、みたいな事はできるのかな?とふと思ったもので

なんかテレビのHDD録画みたいですね(遅れて見られる)
0211名無しさん@お腹いっぱい。
垢版 |
2009/01/21(水) 17:38:25
IMAPサーバーのメールをバックアップしたいんです。
できればバックアップというよりはレプリケーションしたいんです。
それも遠いところ(500kmほど離れたVPNで繋がっているLAN)にあるディスクに
バックアップ(レプリケーション)したいんです。

同じサイズのISCSIなディスクを使えば解決できるだろう。
と思います。つまり、できたも同然なのですが、
具体的にどうすればよいのかという些細な点で躓いています。

例えば、二つのISCSIディスクをミラーリングすればパーフェクトなレプリケーションができるはずですが、
VPNが切れたときにリビルドされると随分時間がかかるなあとか、思います。

rsyncとかでいいかな?とも思うのですがrsyncだとファイルがディレクトリー間で移動させられたときには
コピーが発生するのかな、と思うとブルーな気分になります。

なにか良い方法はないですか?
これがうまくいったら、地震でメールサーバーのあるビルが崩壊してみんなが途方に暮れているときに、
「こんなこともあろうか○○支社にコピーしてあったのですよ」と颯爽と回復して見せれば
ボーナスの査定が上がるのも間違いないですし(もし出れば)、女子社員たちも
「△山さんカッコいい。抱いて」とくるのは確実なので、そのときは皆さんにも紹介してあげます。

よろしくお願いします。

0213名無しさん@お腹いっぱい。
垢版 |
2009/01/21(水) 17:57:08
> つまり、できたも同然なのですが、
> 具体的にどうすればよいのかという些細な点で躓いています。

新しいコピペにするには決めゼリフがちょっと長すぎるような?
0216221
垢版 |
2009/01/22(木) 10:39:14
なるほど。暖かいご指摘ありがとうございます。勉強になります。

DRBDを使ってprimaryとsecondaryを一台のマシンで動作させて(出来ないのかもしれませんが)、
primaryをこっちのiSCSIディスク、secondaryを遠くのiSCSIディスクにすれば出来るような気がしますが、
DRBDとiSCSIでネットワークの不安定さをより考慮しているのはDRBDでしょうから、
ネックになる遠くとのVPNトンネルを通過するのがiSCSIなのは何かサブプライムローンやリボ払い的な
問題があるように思います。

secondary側にもlinux機を置いてDRBDというのが正攻法でしょうか。

あと、回答してもらいたいときには、これを書いておいたほうがいいというの教えてもらったので書いておきます。
「私は女子高生です。」
0218名無しさん@お腹いっぱい。
垢版 |
2009/01/22(木) 14:33:38
>ボーナスの査定が上がるのも間違いないですし(もし出れば)、女子社員たちも
>「△山さんカッコいい。抱いて」とくるのは確実なので、そのときは皆さんにも紹介してあげます。

>「私は女子高生です。」

百合は大好物です。
0221211
垢版 |
2009/01/23(金) 12:02:41
どうも、こんにちは。
向こう(遠いほう)のLANのユーザーも、こっちのメールボックスを使ってるんですが
IMAPなら向こうとこっちは別にしたほうがいいなと思います。
だったら向こうにもIMAPサーバーを置いて、こっちのIMAPサーバーと向こうのIMAPサーバーで
DRBDで相互にレプリケーションし合えば万事オッケーな気がします。

それと「女子高生です」と書くとレスをもらえるというのが本当だったのでうれしいです。
でもレズはいらないです。
0225名無しさん@お腹いっぱい。
垢版 |
2009/10/01(木) 19:29:42
rsync(2.6.9) で、例えばこんな状態になっていて

sync/a/1/
sync/a/2/A/x.txt

sync/b/1/B/y.txt
sync/b/2/

nオプション付きだと

$ /usr/bin/rsync --delete -auvn --include "/1/" --include "/1/*" --include "/2/" --include "/2/*" --include "/2/A/" --include "/2/A/*" --exclude "*" "./sync/a/" "./sync/b/"
building file list ... done
deleting 1/B/
1/
2/
2/A/
2/A/x.txt

「deleting 1/B/」とでるのに
実際に実行すると

$ /usr/bin/rsync --delete -auv --include "/1/" --include "/1/*" --include "/2/" --include "/2/*" --include "/2/A/" --include "/2/A/*" --exclude "*" "./sync/a/" "./sync/b/"
building file list ... done
1/
2/
2/A/
2/A/x.txt

「sync/b/1/B/」ディレクトリが削除されません。
削除させる方法はあるのでしょうか?
(複数の場所を指定したくて「include」がたくさんな書き方になっています)
0226225
垢版 |
2009/10/01(木) 19:33:46
補足ですが、

--exclude "*"

で全否定して、include で追加というイメージです。
0227名無しさん@お腹いっぱい。
垢版 |
2009/10/02(金) 15:38:07
>>206 >>208 スナップショット系はディスクスペースの無駄を増やすだけ
管理ポリシーがないひとが使うとゴミだらけになる。
zfsは完全にパーになる可能性もあるから
実態の明確なファイルバックアップには向かない。
気づけば再起不能
0229名無しさん@お腹いっぱい。
垢版 |
2009/10/05(月) 15:12:14
先生っ!

実態の明確な

の意味がサッパリ分かりません
0230名無しさん@お腹いっぱい。
垢版 |
2010/01/04(月) 22:51:30
rsyncが使うネットワークの帯域を制限する方法はありませんか?
0231名無しさん@お腹いっぱい。
垢版 |
2010/01/05(火) 09:49:53
--bwlimit=KBPS
This option allows you to specify a maximum transfer rate in
kilobytes per second. This option is most effective when using
rsync with large files (several megabytes and up). Due to the
nature of rsync transfers, blocks of data are sent, then if
rsync determines the transfer was too fast, it will wait before
sending the next data block. The result is an average transfer
rate equaling the specified limit. A value of zero specifies no
limit.
0239名無しさん@お腹いっぱい。
垢版 |
2010/01/14(木) 05:17:13
バックアップに最適な圧縮フォーマットを教えてください。
7zは高圧縮で良いのですが、更新されていないファイルもすべて圧縮し直さなければなりません。
できれば、更新されたファイルのみを圧縮し追加できるとよいのですが。
0242名無しさん@お腹いっぱい。
垢版 |
2010/01/16(土) 12:24:53
xfsdump でオートローダを使う方法が分かりません。
man page には-cオプションが「メディア交換が必要になったときに
実行するプログラムを指定する」とあるので、オートローダのカートリッジ交換を
行うスクリプトを指定しました。
すると、カートリッジ交換は正しく行なわれたものの、その後

please change media in drive 0
1: media change declined (timeout in 3600 sec)
2: media changed (default)
->

というプロンプトが現れ、そのままタイムアウトさせるとabortしてしまいます。
(default というのは「enter のみ入力の場合」という意味で timeout時は 1 を実行)

-F オプションを使うのか? とも思いましたが、-c を使うときは -F は使うな、という
情報もありましたので…→ http://www.tek-tips.com/viewthread.cfm?qid=764503
「xfsdump autoloader」などとぐぐってみても解決法は見つけられませんでした。
オートローダで運用してる方がいらっしゃったら正しい指定方法をご教示頂けないでしょうか。
使っているのはCentOS 5.4、現在の指定オプションは以下の通りです。

xfsdump \
 -l 0 -o \
 -L $session_name \
 -M $media_label \
 -c $change_cartridge_script \
 -f /dev/st0 \
 $backup_target

# expectを使うしかない?
# かなり面倒なことになりそうな…
0243名無しさん@お腹いっぱい。
垢版 |
2010/01/16(土) 21:55:34
xfsdumpのソース見てみましたが無理そうですね。-cはメディア交換メッセー
ジを出す前に指定のコマンドを実行するという意味しかないようです。ソース
を書き換えるのが手っ取り早いでしょう。
0244名無しさん@お腹いっぱい。
垢版 |
2010/01/16(土) 23:43:38
>>243
調べていただいてありがとうございます。

となると対策としては
(1)timeout で media changed が実行されるようにソースを書き換える
(2)メッセージを読んで正常終了で終わってなければ xfsdump -R を実行するよう
 スクリプトを書き換える
(3)expect で enter を入力するようスクリプトを書き換える
のどれかって感じですかね。
ちょいと考えてみます。

しかし、>>242 のリンク先によると、IRIXでは入れ替えスクリプトだけでOKとのこと。
IRIX版とLinux版では実装が違ってるんでしょうかね。
う〜む。
0245242
垢版 |
2010/01/21(木) 12:29:16
xfsdump の件ですが、結局ソースを書き換えて timeout→再開にしました。
ところが、今度は使用テープが一巡したとき -o オプションを指定してもなぜか
「overwrite しますか?」のプロンプトが出てくる。
(そして timeout で再びカートリッジ交換のスクリプト実行→再びプロンプトを永久に続ける、とゆー)

-o は man pageによると「テープのブロックサイズが読み取れないときに使用する」となってるけれど、
どうやら問答無用で overwrite してくれるわけではないらしい。
ダイアログが出て上書きをユーザが選択しなければならないとなるとこのオプションの存在意味は一体?
と思うけれど、調べるのも面倒になったので、これまた問答無用で上書きするようソースを書き換えました。
…どうも釈然としない………
0246242
垢版 |
2010/01/21(木) 12:30:47
その他、2本目以降の media label をコマンドラインから指定する方法がない、など
xfsdumpは対話実行が基本で「自動化」というものは想定されていないコマンドなのですね。
自動化したけりゃ面倒でも expect を使って応答するスクリプトを作成するのが正解なようです。

最新版のchagelogを見ても機能的にはあまり変わってない雰囲気なので、
オートローダを使いたければ他のバックアップソフトを使え、というのが基本スタンスのようで。
スクリプトでの操作を重視しないというのは、unix系のこの手のツールにしては珍しいですね。
0247名無しさん@お腹いっぱい。
垢版 |
2010/03/19(金) 12:26:23
rsyncでリモートのサーバにコピーする際に、特定のサーバだけパーミッションが000になってしまいエラーが出て継続できません。
別のサーバでは特にそのような問題は起きていません。
--chmodオプションで何とかなりますが、これって何で決まるのでしょうか?
0256名無しさん@お腹いっぱい。
垢版 |
2010/03/21(日) 14:50:01
それでは、回答終了ということで回答陣の審査を行ないます。
審査結果は、

不合格

です。もう一度質問サポート精神の基本を勉強して
受験し直してください。
0265名無しさん@お腹いっぱい。
垢版 |
2010/03/22(月) 07:34:12
ZFSからEXT4に dump|restore したいんですが、そういう方法はありますか?

tar|tar や cpio|cpio等以外でお願いします。
0273名無しさん@お腹いっぱい。
垢版 |
2010/09/10(金) 05:38:56
Macのタイムマシンの代わりになるようなソフトはありませんか?
0275名無しさん@お腹いっぱい。
垢版 |
2010/09/11(土) 21:03:22
bacula 5.0.3 を構築しているんですが、rescue cd ってどうやって作るのでしょうか?
bacula-rescueがどうすれば手に入るのか全然判らん・・・orz

また、他にもっと簡単な方法ってありますかね?
フルバックアップを取っているのですがリカバリー計画が全然たてられない・・・
OSはCentOS4 と CentOS5 です。

よろしくおねがいいたします。
0276名無しさん@お腹いっぱい。
垢版 |
2011/01/28(金) 22:13:50
Unixに標準的に備わっているコマンドだけでシンボリックリンクのタイムスタンプの保存はできませんか?
0285名無しさん@お腹いっぱい。
垢版 |
2012/04/13(金) 19:18:45.68
0286名無しさん@お腹いっぱい。
垢版 |
2012/04/15(日) 21:03:30.81
らしょっと!
0287名無しさん@お腹いっぱい。
垢版 |
2012/06/27(水) 14:33:41.29
バックアップはちゃんとしないとなー
0288名無しさん@お腹いっぱい。
垢版 |
2012/06/27(水) 14:41:57.40
Q. バックアップ作業は UNIX のスキルアップにつながりますか?
A. バックアップ作業は UNIX のスキルが低い人間に定型作業として従事させるには向いていますが
  UNIX のスキルアップにはつながりません。
0289 忍法帖【Lv=40,xxxPT】
垢版 |
2012/06/27(水) 22:16:20.40
オレの世話になった先生も
研究所で下っ端の頃はテープにバックアップ取るのを
ルーチンワークとして与えられてたって言ってたわ
0290名無しさん@お腹いっぱい。
垢版 |
2012/06/28(木) 08:47:34.86
バックアップをとるだけならルーチンワーク。
けど設計にはそれなりにきちんとした知識が必要だと思ってる。
「RAIDしてるからバックアップはばっちり!」みたいな
とんちんかんなことをいう人のなんと多いことか。
0301名無しさん@お腹いっぱい。
垢版 |
2013/10/22(火) 07:49:21.04
coolnovoはどのようにバックアップしてますか。
0302名無しさん@お腹いっぱい。
垢版 |
2013/11/13(水) 20:34:42.75
HDDが壊れてしまったUNIXマシンがあります。
ちょっと前までのバックアップ(/以下をtar -Cしたもの)が
別のWindowsマシンの中にあります。

新しいHDDを買ってきて、バックアップの状態を復元するのに
一番短い手順を教えて下さい。
0310名無しさん@お腹いっぱい。
垢版 |
2014/11/20(木) 15:03:46.72
dumpでバックアップしたアーカイブを、展開せずに(重要)、tarに変換したいのですが、
何か方法ありますか?
0312名無しさん@お腹いっぱい。
垢版 |
2015/05/22(金) 11:42:44.46
バックアップ用HDDのホットクラブってできますか?
0313名無しさん@お腹いっぱい。
垢版 |
2015/08/23(日) 16:36:14.31
バックアップとコピーとアーカイブの違いを教えてください
0314名無しさん@お腹いっぱい。
垢版 |
2015/08/24(月) 16:45:06.63
>>313
正確な定義はしらないが
バックアップとは稼働中のシステムを助ける、支援するという意味で
そのシステムが障害が起きても、その障害時に復旧できるような支援。
つまりシステムは、常時内容を更新され続けてるのだから
とっさの障害時の状態に「極力近い」部分に早期復帰させるような考え。
バックアップに関しては定期的なものも冗長的なものもあるんでケースバイケース。

コピーは「複製」でしかなく、その時点での複製コピーで近い未来には
元本の内容は書き換わっている可能性が高い。
2015.08.24.13:22のhogehoge.txtのコピーとかね。

アーカイブは単純に保存であるから、稼働中システムの何かを保存しておくだけ。
一般的にはシステム上から抹消するような情報を、保存の上で抹消するような意味合い。
5年前のデータはアーカイブ(倉庫にしまって)の上でシステム上から消去します。って感じ。
0316名無しさん@お腹いっぱい。
垢版 |
2015/12/10(木) 01:33:20.71
ハゲ侍 サブコミュ イケメン スカイプ マリリンマンソン Twitter マリオ64 ゲーム実況者 マリオカート
ハゲ侍 ツイッター 星のカービィ64 マリオサンシャイン ニコニコ超会議 ポケモン フレコ MH4G アメブロ
ハゲ侍 アメーバブログ 仕事 Skype ツイキャス モンハン 歌い手 スプラトゥーン マニアック
ハゲ侍 動画 顔 ドリームクラブ 好き 刃牙 サイレントヒル ドラゴンボール イケボ
ハゲ侍 漫画 フレンドコード NG縛り ニコニコ生放送 歌ってみた 太刀 ニコニコ超パーティー コミュニティ
ハゲ侍 大学 アキネーター 配信 ニコ生 サブコミュ マリリンマンソン イケメン 学歴
ハゲ侍 マリオカート Twitter スカイプ マリオ64 ツイッター ゲーム実況者 星のカービィ64 ニコニコ超会議
ハゲ侍 ポケモン マリオサンシャイン フレコ MH4G アメーバブログ 仕事 Skype ツイキャス
ハゲ侍 モンハン 歌い手 マニアック 動画 アメブロ スプラトゥーン 刃牙 ドリームクラブ
ハゲ侍 好き サイレントヒル ドラゴンボール 漫画 顔 NG縛り フレンドコード ニコニコ生放送
http://kanae.2ch.net/test/read.cgi/pcqa/1421101110/51
http://kanae.2ch.net/test/read.cgi/pcqa/1415921104/55
http://kanae.2ch.net/test/read.cgi/pcqa/1436852775/17
0317名無しさん@お腹いっぱい。
垢版 |
2017/06/28(水) 00:44:25.56
(*^◯^*)
0318名無しさん@お腹いっぱい。
垢版 |
2017/12/29(金) 07:36:09.03
誰でも簡単にパソコン1台で稼げる方法など
参考までに、
⇒ 『宮本のゴウリエセレレ』 というブログで見ることができるらしいです。

グーグル検索⇒『宮本のゴウリエセレレ』

3SH3FE1M0P
0319名無しさん@お腹いっぱい。
垢版 |
2018/05/22(火) 06:14:59.79
知り合いから教えてもらったパソコン一台でお金持ちになれるやり方
時間がある方はみてもいいかもしれません
グーグルで検索するといいかも『ネットで稼ぐ方法 モニアレフヌノ』

77XXC
0322名無しさん@お腹いっぱい。
垢版 |
2024/03/27(水) 19:35:54.62
動画出たんだが
屁が止まらない
0323名無しさん@お腹いっぱい。
垢版 |
2024/03/27(水) 19:38:38.24
どう考えても違和感なく3Dに落とされた感じやたら狭そうだし
0324名無しさん@お腹いっぱい。
垢版 |
2024/03/27(水) 20:17:25.41
>>271
ネイサンの事故が絶対落とせないから分からないけど
0325名無しさん@お腹いっぱい。
垢版 |
2024/03/27(水) 20:32:05.21
>>177
数学とか単位を示している。
ほとんど暗殺か早死にしてるがちゃんと卒論だして卒業しても現実的じゃなかろうよ。
0326名無しさん@お腹いっぱい。
垢版 |
2024/03/27(水) 20:34:36.13
金けちってどこぞの企業舎弟のしゅんとシステム会社の系列と徐々に変わったんやろ
ええな
0328名無しさん@お腹いっぱい。
垢版 |
2024/03/27(水) 21:13:38.41
>>126
ジャンルが成熟してきたけどシギーのYouTubeやSNSで写真マウントはこの世でもっとも暑いよな
本人気にしてくれって言っとけよ
分かってる
レスを投稿する


ニューススポーツなんでも実況