X



バックアップ_(2)
0168名無しさん@お腹いっぱい。
垢版 |
2008/10/19(日) 01:32:07
何か長期保存可能かつ長期可用性に優れたメディアってないかな?
テープはカビや劣化とか磁気転写が問題になるし
CDやDVDも色素が飛んだら終わりだし。
他のデジタルメディアも長期供給可能かどうかわからんし
何よりも再生機器が現存してるかどうか問題。

実家の押入に眠っていた大量のVHSテープとデータが記録されたカセットテープを見てふと思った。
0170名無しさん@お腹いっぱい。
垢版 |
2008/10/19(日) 03:32:10
>>168
穿孔紙テープだろうな
8単位10巻くらいなら、在庫有るよ
お安くしておきますが(w

バックアップってのはさぁ
意味わかってる?
バックアップなんだよ。(w

磁気情報が消えるとか、物理劣化してしまうとか
機器劣化してしまうとか、読み出せなくなる「可能性」に対して
バックアップを取るの。

まず2系統取って、確認して、常識的な劣化時間を考えて
その前に、その媒体を、その時代に安全な媒体で*バックアップ*する
それを繰り返すんだよ

その頻度と手間暇を勘定して、石に彫るもよし
和紙に綴るもよし
0171名無しさん@お腹いっぱい。
垢版 |
2008/10/19(日) 10:28:22
DVD 系(もう少し普及したらBD?)を複数とっておくのが無難じゃないかなぁ

DVD は割と長く再生互換な機器は出回るんじゃない?
0174名無しさん@お腹いっぱい。
垢版 |
2008/10/20(月) 09:05:19
>173
技術的にはそういう主張をしたくなるかもしれないが
いずれも規格の寿命は短いぞ

DVD±RW は読める期間は長そうだが
DVD-RAM 対応ドライブがいつまで供給されるか…



「その時」は DVD±RW メディアの寿命よりは先に来るでしょう
0177名無しさん@お腹いっぱい。
垢版 |
2008/10/22(水) 02:59:33
メディアの寿命にしろ規格の寿命にしろ、現状は大して長持ちしないわけだ。
ひたすらコピーし続けるしかないのか。
0180ウサチャソ ◆/0IEZmXnQ6
垢版 |
2008/10/22(水) 21:45:25
3.5"FDでとっといた98の資産が、見事に全部読み込めなかった俺が通りますよ。
磁気メディアは一切信用しねえ。
0181名無しさん@お腹いっぱい。
垢版 |
2008/11/28(金) 23:43:28
全然触れられていないけれどmicroSDとかCFか゛
だいぶ安くなっている。DVD-RAMよりちょっと高い程度だけれど
なんやかやでms-dosfsとか無難
CFとかはIDEにつないでブートデバイスにもなる。
電子機器だけどもちはいいんじゃないかな。
テキストとか写真は2Gbyteくらいのにバックアップしている。
最初はまとまったらDVD-Rに焼こうかと思ったけれど
小さいしどんどん値下がりするのでこのままでいいかなと
0183名無しさん@お腹いっぱい。
垢版 |
2008/11/29(土) 11:45:56
繰り返し使っているとドライバとか対応しないと特定の場所ばかり使うことになるだろうから
ファイルを累積させていらないものは落としてあとはROM使用というのなら問題ないと思う。
だめなやつは初期にパーになるらしいから最初は分散保存しておくのが良いとは思う。
0184名無しさん@お腹いっぱい。
垢版 |
2008/11/29(土) 11:58:25
>>182 リンク先の記事根本的に「100万回」を勘違いしているよね、
単に不良品掴んだだけ
メーカーによってはずれのでやすいものと全然でないものとあるみたいだから
しばらく「運搬用」とかに使って大丈夫だと思ったらROM的に書き込み
チェックしたらそれでReadOnlyにするのがよさそう。
0185名無しさん@お腹いっぱい。
垢版 |
2008/11/29(土) 15:14:55
>>184
回数の勘違いはあるけど、他のメディアなら読み取りエラーになるところを、
エラーなく化けたデータが読み込めているのが、怖い
0186名無しさん@お腹いっぱい。
垢版 |
2009/01/06(火) 09:36:17
バックアップをとるのには、いまのところrsync3が選択肢として最有力?
rdiff-backup使ってみたけど、なんかエラーで動かない・・・
0189名無しさん@お腹いっぱい。
垢版 |
2009/01/06(火) 13:26:02
>188
とりあえず以下について調べてレポートしてくれ給え

dump/restore, zfs send/receive, tar, afio,
rsync, unison, pdumpfs, rdiff-backup, duplicity,
amanda, bacula,

よろしく!
0193188
垢版 |
2009/01/07(水) 10:21:33
>189-191

ちょ、、、少し時間を下さい・・・orz

ところで、少し古いパソコンにLinux(debian)を入れて、rsyncで200GBほどのデータをほかのパソコンから
コピーしようとしたら、途中で応答がなくなってかたまってしまいます。
壊れているのか、原因がちょっとわからないのですが、とりあえず、メモリが224MBしか乗っていないのですが、
これだと不十分ということはあるでしょうか?
0194名無しさん@お腹いっぱい。
垢版 |
2009/01/07(水) 11:01:23
>193
rsync 2.x だと全体容量は関係ないけど
200GB というのが「多数のファイル」の場合には
メモリ食い過ぎて死ぬ可能性はある

転送中に top で rsync がメモリを食う様子くらいは眺めても罰はあたらない

rsync は 3.x 以降だとその辺は変わっているので
改善されるかもしれないような気もするかもしれない

rsync だめなら tar cf - xxx|ssh dokosoko 'tar xpf -' とかかな
0197193
垢版 |
2009/01/07(水) 11:54:40
もういちどrsyncを実行して、top画面を見てみました。
メモリ使用量10%弱のところでハングアップしてしまいました。
メモリ量ではないようですね
壊れてるにしても、どこがいかれているんだろう・・・・orz
0198名無しさん@お腹いっぱい。
垢版 |
2009/01/07(水) 11:58:11
すいません、もはや板違いですが、再起動したらBIOS画面で
Mwmory Testing : 229376K OK
のところで止まって起動しなくなってしまいました。
何回か電源を切って、入れてを繰り返すと起動しましたが・・・

どこが壊れてるんでしょう?
0199名無しさん@お腹いっぱい。
垢版 |
2009/01/07(水) 12:04:26
暖めてみれば?
ていうか古い機械ならもう寿命かもね
各所の接触が悪くなっているとか
部品の劣化とか
0200名無しさん@お腹いっぱい。
垢版 |
2009/01/07(水) 12:22:52
memtest86をはしらせてみたら40%でかたまってしまった
メモリエラーじゃなくて、テストプログラム自体がフリーズしてる・・・

寿命ですかね・・・
0203名無しさん@お腹いっぱい。
垢版 |
2009/01/08(木) 13:12:24
ごく短い間隔でミラーリングをとる方法ってありますか?
ミラーリングというか、ごく短いスパンでミラーリングをかけたいのですが
10分おきとか
0207名無しさん@お腹いっぱい。
垢版 |
2009/01/08(木) 17:35:45
すいません、わけわからんこと言ってるのは分かってるんですけど^^;

Raidのミラーリングなら、同時に二台のHDDにデータを書き込んでるわけですが
たとえば一台のデータを間違って消してしまったら、ミラーのデータも同時に消されてしまうんですよね?

そこで、ミラーリングしながらなおかつ遅延をかけるというか・・・
あ、やべっ、って時に、ぎりぎり直前までバックアップがとれてる、みたいな事はできるのかな?とふと思ったもので

なんかテレビのHDD録画みたいですね(遅れて見られる)
0211名無しさん@お腹いっぱい。
垢版 |
2009/01/21(水) 17:38:25
IMAPサーバーのメールをバックアップしたいんです。
できればバックアップというよりはレプリケーションしたいんです。
それも遠いところ(500kmほど離れたVPNで繋がっているLAN)にあるディスクに
バックアップ(レプリケーション)したいんです。

同じサイズのISCSIなディスクを使えば解決できるだろう。
と思います。つまり、できたも同然なのですが、
具体的にどうすればよいのかという些細な点で躓いています。

例えば、二つのISCSIディスクをミラーリングすればパーフェクトなレプリケーションができるはずですが、
VPNが切れたときにリビルドされると随分時間がかかるなあとか、思います。

rsyncとかでいいかな?とも思うのですがrsyncだとファイルがディレクトリー間で移動させられたときには
コピーが発生するのかな、と思うとブルーな気分になります。

なにか良い方法はないですか?
これがうまくいったら、地震でメールサーバーのあるビルが崩壊してみんなが途方に暮れているときに、
「こんなこともあろうか○○支社にコピーしてあったのですよ」と颯爽と回復して見せれば
ボーナスの査定が上がるのも間違いないですし(もし出れば)、女子社員たちも
「△山さんカッコいい。抱いて」とくるのは確実なので、そのときは皆さんにも紹介してあげます。

よろしくお願いします。

0213名無しさん@お腹いっぱい。
垢版 |
2009/01/21(水) 17:57:08
> つまり、できたも同然なのですが、
> 具体的にどうすればよいのかという些細な点で躓いています。

新しいコピペにするには決めゼリフがちょっと長すぎるような?
0216221
垢版 |
2009/01/22(木) 10:39:14
なるほど。暖かいご指摘ありがとうございます。勉強になります。

DRBDを使ってprimaryとsecondaryを一台のマシンで動作させて(出来ないのかもしれませんが)、
primaryをこっちのiSCSIディスク、secondaryを遠くのiSCSIディスクにすれば出来るような気がしますが、
DRBDとiSCSIでネットワークの不安定さをより考慮しているのはDRBDでしょうから、
ネックになる遠くとのVPNトンネルを通過するのがiSCSIなのは何かサブプライムローンやリボ払い的な
問題があるように思います。

secondary側にもlinux機を置いてDRBDというのが正攻法でしょうか。

あと、回答してもらいたいときには、これを書いておいたほうがいいというの教えてもらったので書いておきます。
「私は女子高生です。」
0218名無しさん@お腹いっぱい。
垢版 |
2009/01/22(木) 14:33:38
>ボーナスの査定が上がるのも間違いないですし(もし出れば)、女子社員たちも
>「△山さんカッコいい。抱いて」とくるのは確実なので、そのときは皆さんにも紹介してあげます。

>「私は女子高生です。」

百合は大好物です。
0221211
垢版 |
2009/01/23(金) 12:02:41
どうも、こんにちは。
向こう(遠いほう)のLANのユーザーも、こっちのメールボックスを使ってるんですが
IMAPなら向こうとこっちは別にしたほうがいいなと思います。
だったら向こうにもIMAPサーバーを置いて、こっちのIMAPサーバーと向こうのIMAPサーバーで
DRBDで相互にレプリケーションし合えば万事オッケーな気がします。

それと「女子高生です」と書くとレスをもらえるというのが本当だったのでうれしいです。
でもレズはいらないです。
0225名無しさん@お腹いっぱい。
垢版 |
2009/10/01(木) 19:29:42
rsync(2.6.9) で、例えばこんな状態になっていて

sync/a/1/
sync/a/2/A/x.txt

sync/b/1/B/y.txt
sync/b/2/

nオプション付きだと

$ /usr/bin/rsync --delete -auvn --include "/1/" --include "/1/*" --include "/2/" --include "/2/*" --include "/2/A/" --include "/2/A/*" --exclude "*" "./sync/a/" "./sync/b/"
building file list ... done
deleting 1/B/
1/
2/
2/A/
2/A/x.txt

「deleting 1/B/」とでるのに
実際に実行すると

$ /usr/bin/rsync --delete -auv --include "/1/" --include "/1/*" --include "/2/" --include "/2/*" --include "/2/A/" --include "/2/A/*" --exclude "*" "./sync/a/" "./sync/b/"
building file list ... done
1/
2/
2/A/
2/A/x.txt

「sync/b/1/B/」ディレクトリが削除されません。
削除させる方法はあるのでしょうか?
(複数の場所を指定したくて「include」がたくさんな書き方になっています)
0226225
垢版 |
2009/10/01(木) 19:33:46
補足ですが、

--exclude "*"

で全否定して、include で追加というイメージです。
0227名無しさん@お腹いっぱい。
垢版 |
2009/10/02(金) 15:38:07
>>206 >>208 スナップショット系はディスクスペースの無駄を増やすだけ
管理ポリシーがないひとが使うとゴミだらけになる。
zfsは完全にパーになる可能性もあるから
実態の明確なファイルバックアップには向かない。
気づけば再起不能
0229名無しさん@お腹いっぱい。
垢版 |
2009/10/05(月) 15:12:14
先生っ!

実態の明確な

の意味がサッパリ分かりません
0230名無しさん@お腹いっぱい。
垢版 |
2010/01/04(月) 22:51:30
rsyncが使うネットワークの帯域を制限する方法はありませんか?
0231名無しさん@お腹いっぱい。
垢版 |
2010/01/05(火) 09:49:53
--bwlimit=KBPS
This option allows you to specify a maximum transfer rate in
kilobytes per second. This option is most effective when using
rsync with large files (several megabytes and up). Due to the
nature of rsync transfers, blocks of data are sent, then if
rsync determines the transfer was too fast, it will wait before
sending the next data block. The result is an average transfer
rate equaling the specified limit. A value of zero specifies no
limit.
0239名無しさん@お腹いっぱい。
垢版 |
2010/01/14(木) 05:17:13
バックアップに最適な圧縮フォーマットを教えてください。
7zは高圧縮で良いのですが、更新されていないファイルもすべて圧縮し直さなければなりません。
できれば、更新されたファイルのみを圧縮し追加できるとよいのですが。
0242名無しさん@お腹いっぱい。
垢版 |
2010/01/16(土) 12:24:53
xfsdump でオートローダを使う方法が分かりません。
man page には-cオプションが「メディア交換が必要になったときに
実行するプログラムを指定する」とあるので、オートローダのカートリッジ交換を
行うスクリプトを指定しました。
すると、カートリッジ交換は正しく行なわれたものの、その後

please change media in drive 0
1: media change declined (timeout in 3600 sec)
2: media changed (default)
->

というプロンプトが現れ、そのままタイムアウトさせるとabortしてしまいます。
(default というのは「enter のみ入力の場合」という意味で timeout時は 1 を実行)

-F オプションを使うのか? とも思いましたが、-c を使うときは -F は使うな、という
情報もありましたので…→ http://www.tek-tips.com/viewthread.cfm?qid=764503
「xfsdump autoloader」などとぐぐってみても解決法は見つけられませんでした。
オートローダで運用してる方がいらっしゃったら正しい指定方法をご教示頂けないでしょうか。
使っているのはCentOS 5.4、現在の指定オプションは以下の通りです。

xfsdump \
 -l 0 -o \
 -L $session_name \
 -M $media_label \
 -c $change_cartridge_script \
 -f /dev/st0 \
 $backup_target

# expectを使うしかない?
# かなり面倒なことになりそうな…
0243名無しさん@お腹いっぱい。
垢版 |
2010/01/16(土) 21:55:34
xfsdumpのソース見てみましたが無理そうですね。-cはメディア交換メッセー
ジを出す前に指定のコマンドを実行するという意味しかないようです。ソース
を書き換えるのが手っ取り早いでしょう。
0244名無しさん@お腹いっぱい。
垢版 |
2010/01/16(土) 23:43:38
>>243
調べていただいてありがとうございます。

となると対策としては
(1)timeout で media changed が実行されるようにソースを書き換える
(2)メッセージを読んで正常終了で終わってなければ xfsdump -R を実行するよう
 スクリプトを書き換える
(3)expect で enter を入力するようスクリプトを書き換える
のどれかって感じですかね。
ちょいと考えてみます。

しかし、>>242 のリンク先によると、IRIXでは入れ替えスクリプトだけでOKとのこと。
IRIX版とLinux版では実装が違ってるんでしょうかね。
う〜む。
0245242
垢版 |
2010/01/21(木) 12:29:16
xfsdump の件ですが、結局ソースを書き換えて timeout→再開にしました。
ところが、今度は使用テープが一巡したとき -o オプションを指定してもなぜか
「overwrite しますか?」のプロンプトが出てくる。
(そして timeout で再びカートリッジ交換のスクリプト実行→再びプロンプトを永久に続ける、とゆー)

-o は man pageによると「テープのブロックサイズが読み取れないときに使用する」となってるけれど、
どうやら問答無用で overwrite してくれるわけではないらしい。
ダイアログが出て上書きをユーザが選択しなければならないとなるとこのオプションの存在意味は一体?
と思うけれど、調べるのも面倒になったので、これまた問答無用で上書きするようソースを書き換えました。
…どうも釈然としない………
0246242
垢版 |
2010/01/21(木) 12:30:47
その他、2本目以降の media label をコマンドラインから指定する方法がない、など
xfsdumpは対話実行が基本で「自動化」というものは想定されていないコマンドなのですね。
自動化したけりゃ面倒でも expect を使って応答するスクリプトを作成するのが正解なようです。

最新版のchagelogを見ても機能的にはあまり変わってない雰囲気なので、
オートローダを使いたければ他のバックアップソフトを使え、というのが基本スタンスのようで。
スクリプトでの操作を重視しないというのは、unix系のこの手のツールにしては珍しいですね。
0247名無しさん@お腹いっぱい。
垢版 |
2010/03/19(金) 12:26:23
rsyncでリモートのサーバにコピーする際に、特定のサーバだけパーミッションが000になってしまいエラーが出て継続できません。
別のサーバでは特にそのような問題は起きていません。
--chmodオプションで何とかなりますが、これって何で決まるのでしょうか?
0256名無しさん@お腹いっぱい。
垢版 |
2010/03/21(日) 14:50:01
それでは、回答終了ということで回答陣の審査を行ないます。
審査結果は、

不合格

です。もう一度質問サポート精神の基本を勉強して
受験し直してください。
0265名無しさん@お腹いっぱい。
垢版 |
2010/03/22(月) 07:34:12
ZFSからEXT4に dump|restore したいんですが、そういう方法はありますか?

tar|tar や cpio|cpio等以外でお願いします。
レスを投稿する


ニューススポーツなんでも実況