前スレ
http://pc8.2ch.net/test/read.cgi/unix/1019233825/l50
W. Curtis Preston
『Unixバックアップ&リカバリ』
長原宏治_監訳,田和勝_訳,
オライリー・ジャパン,2001/8/16.
http://www.amazon.co.jp/gp/product/4873110491/249-3251594-6585132?v=glance&n=465392&s=gateway
探検
バックアップ_(2)
2006/07/31(月) 18:24:59
2008/10/22(水) 10:58:32
2008/10/22(水) 14:52:21
100年先は生きていないから、そんなに持たなくていいよ。
180ウサチャソ ◆/0IEZmXnQ6
2008/10/22(水) 21:45:25 3.5"FDでとっといた98の資産が、見事に全部読み込めなかった俺が通りますよ。
磁気メディアは一切信用しねえ。
磁気メディアは一切信用しねえ。
181名無しさん@お腹いっぱい。
2008/11/28(金) 23:43:28 全然触れられていないけれどmicroSDとかCFか゛
だいぶ安くなっている。DVD-RAMよりちょっと高い程度だけれど
なんやかやでms-dosfsとか無難
CFとかはIDEにつないでブートデバイスにもなる。
電子機器だけどもちはいいんじゃないかな。
テキストとか写真は2Gbyteくらいのにバックアップしている。
最初はまとまったらDVD-Rに焼こうかと思ったけれど
小さいしどんどん値下がりするのでこのままでいいかなと
だいぶ安くなっている。DVD-RAMよりちょっと高い程度だけれど
なんやかやでms-dosfsとか無難
CFとかはIDEにつないでブートデバイスにもなる。
電子機器だけどもちはいいんじゃないかな。
テキストとか写真は2Gbyteくらいのにバックアップしている。
最初はまとまったらDVD-Rに焼こうかと思ったけれど
小さいしどんどん値下がりするのでこのままでいいかなと
2008/11/29(土) 11:29:35
>181
フラッシュメモリは↓みたいな壊れ方されると困るよね
http://gigazine.net/index.php?/news/comments/20080204_usb_memory_life/
エラーチェックがちゃんとしている品ならいいけど
フラッシュメモリは↓みたいな壊れ方されると困るよね
http://gigazine.net/index.php?/news/comments/20080204_usb_memory_life/
エラーチェックがちゃんとしている品ならいいけど
2008/11/29(土) 11:45:56
繰り返し使っているとドライバとか対応しないと特定の場所ばかり使うことになるだろうから
ファイルを累積させていらないものは落としてあとはROM使用というのなら問題ないと思う。
だめなやつは初期にパーになるらしいから最初は分散保存しておくのが良いとは思う。
ファイルを累積させていらないものは落としてあとはROM使用というのなら問題ないと思う。
だめなやつは初期にパーになるらしいから最初は分散保存しておくのが良いとは思う。
2008/11/29(土) 11:58:25
>>182 リンク先の記事根本的に「100万回」を勘違いしているよね、
単に不良品掴んだだけ
メーカーによってはずれのでやすいものと全然でないものとあるみたいだから
しばらく「運搬用」とかに使って大丈夫だと思ったらROM的に書き込み
チェックしたらそれでReadOnlyにするのがよさそう。
単に不良品掴んだだけ
メーカーによってはずれのでやすいものと全然でないものとあるみたいだから
しばらく「運搬用」とかに使って大丈夫だと思ったらROM的に書き込み
チェックしたらそれでReadOnlyにするのがよさそう。
2008/11/29(土) 15:14:55
2009/01/06(火) 09:36:17
バックアップをとるのには、いまのところrsync3が選択肢として最有力?
rdiff-backup使ってみたけど、なんかエラーで動かない・・・
rdiff-backup使ってみたけど、なんかエラーで動かない・・・
2009/01/06(火) 10:40:33
何をしたいかによって異なるのに
前提なしの最強を決めようとな?
前提なしの最強を決めようとな?
2009/01/06(火) 11:21:03
ええっと、何をしたいか、ということについて
どのような選択肢がありますか?
どのような選択肢がありますか?
2009/01/06(火) 13:26:02
>188
とりあえず以下について調べてレポートしてくれ給え
dump/restore, zfs send/receive, tar, afio,
rsync, unison, pdumpfs, rdiff-backup, duplicity,
amanda, bacula,
よろしく!
とりあえず以下について調べてレポートしてくれ給え
dump/restore, zfs send/receive, tar, afio,
rsync, unison, pdumpfs, rdiff-backup, duplicity,
amanda, bacula,
よろしく!
2009/01/06(火) 21:44:01
cpioも入れてよ
2009/01/07(水) 01:00:13
afioがあるからいいじゃん。
2009/01/07(水) 08:51:50
>188 に期待 age
193188
2009/01/07(水) 10:21:33 >189-191
ちょ、、、少し時間を下さい・・・orz
ところで、少し古いパソコンにLinux(debian)を入れて、rsyncで200GBほどのデータをほかのパソコンから
コピーしようとしたら、途中で応答がなくなってかたまってしまいます。
壊れているのか、原因がちょっとわからないのですが、とりあえず、メモリが224MBしか乗っていないのですが、
これだと不十分ということはあるでしょうか?
ちょ、、、少し時間を下さい・・・orz
ところで、少し古いパソコンにLinux(debian)を入れて、rsyncで200GBほどのデータをほかのパソコンから
コピーしようとしたら、途中で応答がなくなってかたまってしまいます。
壊れているのか、原因がちょっとわからないのですが、とりあえず、メモリが224MBしか乗っていないのですが、
これだと不十分ということはあるでしょうか?
2009/01/07(水) 11:01:23
>193
rsync 2.x だと全体容量は関係ないけど
200GB というのが「多数のファイル」の場合には
メモリ食い過ぎて死ぬ可能性はある
転送中に top で rsync がメモリを食う様子くらいは眺めても罰はあたらない
rsync は 3.x 以降だとその辺は変わっているので
改善されるかもしれないような気もするかもしれない
rsync だめなら tar cf - xxx|ssh dokosoko 'tar xpf -' とかかな
rsync 2.x だと全体容量は関係ないけど
200GB というのが「多数のファイル」の場合には
メモリ食い過ぎて死ぬ可能性はある
転送中に top で rsync がメモリを食う様子くらいは眺めても罰はあたらない
rsync は 3.x 以降だとその辺は変わっているので
改善されるかもしれないような気もするかもしれない
rsync だめなら tar cf - xxx|ssh dokosoko 'tar xpf -' とかかな
2009/01/07(水) 11:06:51
2台が同じLAN内だったら、NFSマウントしてcp -aとか。
2009/01/07(水) 11:08:16
rsyncはファイル数に依存するね
ファイル数が多いとすぐ1Gくらいメモリ食ったりする
ファイル数が多いとすぐ1Gくらいメモリ食ったりする
197193
2009/01/07(水) 11:54:40 もういちどrsyncを実行して、top画面を見てみました。
メモリ使用量10%弱のところでハングアップしてしまいました。
メモリ量ではないようですね
壊れてるにしても、どこがいかれているんだろう・・・・orz
メモリ使用量10%弱のところでハングアップしてしまいました。
メモリ量ではないようですね
壊れてるにしても、どこがいかれているんだろう・・・・orz
2009/01/07(水) 11:58:11
すいません、もはや板違いですが、再起動したらBIOS画面で
Mwmory Testing : 229376K OK
のところで止まって起動しなくなってしまいました。
何回か電源を切って、入れてを繰り返すと起動しましたが・・・
どこが壊れてるんでしょう?
Mwmory Testing : 229376K OK
のところで止まって起動しなくなってしまいました。
何回か電源を切って、入れてを繰り返すと起動しましたが・・・
どこが壊れてるんでしょう?
2009/01/07(水) 12:04:26
暖めてみれば?
ていうか古い機械ならもう寿命かもね
各所の接触が悪くなっているとか
部品の劣化とか
ていうか古い機械ならもう寿命かもね
各所の接触が悪くなっているとか
部品の劣化とか
2009/01/07(水) 12:22:52
memtest86をはしらせてみたら40%でかたまってしまった
メモリエラーじゃなくて、テストプログラム自体がフリーズしてる・・・
寿命ですかね・・・
メモリエラーじゃなくて、テストプログラム自体がフリーズしてる・・・
寿命ですかね・・・
2009/01/07(水) 12:23:42
めでたしめでたし
2009/01/07(水) 22:04:24
換えるタイミング
2009/01/08(木) 13:12:24
ごく短い間隔でミラーリングをとる方法ってありますか?
ミラーリングというか、ごく短いスパンでミラーリングをかけたいのですが
10分おきとか
ミラーリングというか、ごく短いスパンでミラーリングをかけたいのですが
10分おきとか
2009/01/08(木) 13:35:44
>>203
cronでrsync廻せばいいじゃん。
cronでrsync廻せばいいじゃん。
2009/01/08(木) 15:20:27
そもそも想定しているものの容量によっては 10分で終わらない罠
2009/01/08(木) 15:44:51
zfsとかnetappあたりのスナップショット機能つきの
ファイルシステムを使うのが手っ取り早いかと。
ファイルシステムを使うのが手っ取り早いかと。
2009/01/08(木) 17:35:45
すいません、わけわからんこと言ってるのは分かってるんですけど^^;
Raidのミラーリングなら、同時に二台のHDDにデータを書き込んでるわけですが
たとえば一台のデータを間違って消してしまったら、ミラーのデータも同時に消されてしまうんですよね?
そこで、ミラーリングしながらなおかつ遅延をかけるというか・・・
あ、やべっ、って時に、ぎりぎり直前までバックアップがとれてる、みたいな事はできるのかな?とふと思ったもので
なんかテレビのHDD録画みたいですね(遅れて見られる)
Raidのミラーリングなら、同時に二台のHDDにデータを書き込んでるわけですが
たとえば一台のデータを間違って消してしまったら、ミラーのデータも同時に消されてしまうんですよね?
そこで、ミラーリングしながらなおかつ遅延をかけるというか・・・
あ、やべっ、って時に、ぎりぎり直前までバックアップがとれてる、みたいな事はできるのかな?とふと思ったもので
なんかテレビのHDD録画みたいですね(遅れて見られる)
2009/01/08(木) 17:39:50
だから >>206 でいいじゃん。
2009/01/08(木) 17:40:22
あと Raid なんて気持ち悪い書き方すんな。
RAID だ。
RAID だ。
2009/01/08(木) 17:47:52
>208
ググってきました
たしかに、よさそうですね
>209
スマソ
ググってきました
たしかに、よさそうですね
>209
スマソ
2009/01/21(水) 17:38:25
IMAPサーバーのメールをバックアップしたいんです。
できればバックアップというよりはレプリケーションしたいんです。
それも遠いところ(500kmほど離れたVPNで繋がっているLAN)にあるディスクに
バックアップ(レプリケーション)したいんです。
同じサイズのISCSIなディスクを使えば解決できるだろう。
と思います。つまり、できたも同然なのですが、
具体的にどうすればよいのかという些細な点で躓いています。
例えば、二つのISCSIディスクをミラーリングすればパーフェクトなレプリケーションができるはずですが、
VPNが切れたときにリビルドされると随分時間がかかるなあとか、思います。
rsyncとかでいいかな?とも思うのですがrsyncだとファイルがディレクトリー間で移動させられたときには
コピーが発生するのかな、と思うとブルーな気分になります。
なにか良い方法はないですか?
これがうまくいったら、地震でメールサーバーのあるビルが崩壊してみんなが途方に暮れているときに、
「こんなこともあろうか○○支社にコピーしてあったのですよ」と颯爽と回復して見せれば
ボーナスの査定が上がるのも間違いないですし(もし出れば)、女子社員たちも
「△山さんカッコいい。抱いて」とくるのは確実なので、そのときは皆さんにも紹介してあげます。
よろしくお願いします。
できればバックアップというよりはレプリケーションしたいんです。
それも遠いところ(500kmほど離れたVPNで繋がっているLAN)にあるディスクに
バックアップ(レプリケーション)したいんです。
同じサイズのISCSIなディスクを使えば解決できるだろう。
と思います。つまり、できたも同然なのですが、
具体的にどうすればよいのかという些細な点で躓いています。
例えば、二つのISCSIディスクをミラーリングすればパーフェクトなレプリケーションができるはずですが、
VPNが切れたときにリビルドされると随分時間がかかるなあとか、思います。
rsyncとかでいいかな?とも思うのですがrsyncだとファイルがディレクトリー間で移動させられたときには
コピーが発生するのかな、と思うとブルーな気分になります。
なにか良い方法はないですか?
これがうまくいったら、地震でメールサーバーのあるビルが崩壊してみんなが途方に暮れているときに、
「こんなこともあろうか○○支社にコピーしてあったのですよ」と颯爽と回復して見せれば
ボーナスの査定が上がるのも間違いないですし(もし出れば)、女子社員たちも
「△山さんカッコいい。抱いて」とくるのは確実なので、そのときは皆さんにも紹介してあげます。
よろしくお願いします。
2009/01/21(水) 17:51:25
それを些細と思っているうちはアレかもね
2009/01/21(水) 17:57:08
> つまり、できたも同然なのですが、
> 具体的にどうすればよいのかという些細な点で躓いています。
新しいコピペにするには決めゼリフがちょっと長すぎるような?
> 具体的にどうすればよいのかという些細な点で躓いています。
新しいコピペにするには決めゼリフがちょっと長すぎるような?
2009/01/21(水) 18:22:23
できたも同然なのですが、些細な点で躓いています。
こんな感じですか
2009/01/22(木) 00:07:51
> 具体的に
は外せなくネ?
は外せなくネ?
216221
2009/01/22(木) 10:39:14 なるほど。暖かいご指摘ありがとうございます。勉強になります。
DRBDを使ってprimaryとsecondaryを一台のマシンで動作させて(出来ないのかもしれませんが)、
primaryをこっちのiSCSIディスク、secondaryを遠くのiSCSIディスクにすれば出来るような気がしますが、
DRBDとiSCSIでネットワークの不安定さをより考慮しているのはDRBDでしょうから、
ネックになる遠くとのVPNトンネルを通過するのがiSCSIなのは何かサブプライムローンやリボ払い的な
問題があるように思います。
secondary側にもlinux機を置いてDRBDというのが正攻法でしょうか。
あと、回答してもらいたいときには、これを書いておいたほうがいいというの教えてもらったので書いておきます。
「私は女子高生です。」
DRBDを使ってprimaryとsecondaryを一台のマシンで動作させて(出来ないのかもしれませんが)、
primaryをこっちのiSCSIディスク、secondaryを遠くのiSCSIディスクにすれば出来るような気がしますが、
DRBDとiSCSIでネットワークの不安定さをより考慮しているのはDRBDでしょうから、
ネックになる遠くとのVPNトンネルを通過するのがiSCSIなのは何かサブプライムローンやリボ払い的な
問題があるように思います。
secondary側にもlinux機を置いてDRBDというのが正攻法でしょうか。
あと、回答してもらいたいときには、これを書いておいたほうがいいというの教えてもらったので書いておきます。
「私は女子高生です。」
2009/01/22(木) 13:26:58
未来マン、颯爽登場!
2009/01/22(木) 14:33:38
>ボーナスの査定が上がるのも間違いないですし(もし出れば)、女子社員たちも
>「△山さんカッコいい。抱いて」とくるのは確実なので、そのときは皆さんにも紹介してあげます。
>「私は女子高生です。」
百合は大好物です。
>「△山さんカッコいい。抱いて」とくるのは確実なので、そのときは皆さんにも紹介してあげます。
>「私は女子高生です。」
百合は大好物です。
2009/01/22(木) 16:14:43
僕も僕も
2009/01/23(金) 03:02:35
俺漏れも
221211
2009/01/23(金) 12:02:41 どうも、こんにちは。
向こう(遠いほう)のLANのユーザーも、こっちのメールボックスを使ってるんですが
IMAPなら向こうとこっちは別にしたほうがいいなと思います。
だったら向こうにもIMAPサーバーを置いて、こっちのIMAPサーバーと向こうのIMAPサーバーで
DRBDで相互にレプリケーションし合えば万事オッケーな気がします。
それと「女子高生です」と書くとレスをもらえるというのが本当だったのでうれしいです。
でもレズはいらないです。
向こう(遠いほう)のLANのユーザーも、こっちのメールボックスを使ってるんですが
IMAPなら向こうとこっちは別にしたほうがいいなと思います。
だったら向こうにもIMAPサーバーを置いて、こっちのIMAPサーバーと向こうのIMAPサーバーで
DRBDで相互にレプリケーションし合えば万事オッケーな気がします。
それと「女子高生です」と書くとレスをもらえるというのが本当だったのでうれしいです。
でもレズはいらないです。
2009/02/01(日) 01:29:58
じゃ俺女子大生ということで
2009/02/03(火) 11:35:26
この板のグダスレらしい展開になってまいりました。
2009/02/03(火) 11:51:25
百合とレズは別腹
2009/10/01(木) 19:29:42
rsync(2.6.9) で、例えばこんな状態になっていて
sync/a/1/
sync/a/2/A/x.txt
sync/b/1/B/y.txt
sync/b/2/
nオプション付きだと
$ /usr/bin/rsync --delete -auvn --include "/1/" --include "/1/*" --include "/2/" --include "/2/*" --include "/2/A/" --include "/2/A/*" --exclude "*" "./sync/a/" "./sync/b/"
building file list ... done
deleting 1/B/
1/
2/
2/A/
2/A/x.txt
「deleting 1/B/」とでるのに
実際に実行すると
$ /usr/bin/rsync --delete -auv --include "/1/" --include "/1/*" --include "/2/" --include "/2/*" --include "/2/A/" --include "/2/A/*" --exclude "*" "./sync/a/" "./sync/b/"
building file list ... done
1/
2/
2/A/
2/A/x.txt
「sync/b/1/B/」ディレクトリが削除されません。
削除させる方法はあるのでしょうか?
(複数の場所を指定したくて「include」がたくさんな書き方になっています)
sync/a/1/
sync/a/2/A/x.txt
sync/b/1/B/y.txt
sync/b/2/
nオプション付きだと
$ /usr/bin/rsync --delete -auvn --include "/1/" --include "/1/*" --include "/2/" --include "/2/*" --include "/2/A/" --include "/2/A/*" --exclude "*" "./sync/a/" "./sync/b/"
building file list ... done
deleting 1/B/
1/
2/
2/A/
2/A/x.txt
「deleting 1/B/」とでるのに
実際に実行すると
$ /usr/bin/rsync --delete -auv --include "/1/" --include "/1/*" --include "/2/" --include "/2/*" --include "/2/A/" --include "/2/A/*" --exclude "*" "./sync/a/" "./sync/b/"
building file list ... done
1/
2/
2/A/
2/A/x.txt
「sync/b/1/B/」ディレクトリが削除されません。
削除させる方法はあるのでしょうか?
(複数の場所を指定したくて「include」がたくさんな書き方になっています)
226225
2009/10/01(木) 19:33:46 補足ですが、
--exclude "*"
で全否定して、include で追加というイメージです。
--exclude "*"
で全否定して、include で追加というイメージです。
2009/10/02(金) 15:38:07
2009/10/05(月) 12:58:53
管理ポリシーは作ればいい。
バックアップは別にやればいい。
バックアップは別にやればいい。
229名無しさん@お腹いっぱい。
2009/10/05(月) 15:12:14 先生っ!
実態の明確な
の意味がサッパリ分かりません
実態の明確な
の意味がサッパリ分かりません
230名無しさん@お腹いっぱい。
2010/01/04(月) 22:51:30 rsyncが使うネットワークの帯域を制限する方法はありませんか?
2010/01/05(火) 09:49:53
--bwlimit=KBPS
This option allows you to specify a maximum transfer rate in
kilobytes per second. This option is most effective when using
rsync with large files (several megabytes and up). Due to the
nature of rsync transfers, blocks of data are sent, then if
rsync determines the transfer was too fast, it will wait before
sending the next data block. The result is an average transfer
rate equaling the specified limit. A value of zero specifies no
limit.
This option allows you to specify a maximum transfer rate in
kilobytes per second. This option is most effective when using
rsync with large files (several megabytes and up). Due to the
nature of rsync transfers, blocks of data are sent, then if
rsync determines the transfer was too fast, it will wait before
sending the next data block. The result is an average transfer
rate equaling the specified limit. A value of zero specifies no
limit.
2010/01/07(木) 06:03:01
ありません
2010/01/07(木) 10:49:57
2010/01/07(木) 14:29:19
2010/01/07(木) 14:35:38
あります
2010/01/07(木) 14:45:56
くだらねぇ
237名無しさん@お腹いっぱい。
2010/01/08(金) 05:47:00 もしもの為の対策の参考に
http://www.kc-c.biz/anshin/pf-system-admin.html
http://www.kc-c.biz/anshin/pf-system-admin.html
2010/01/08(金) 09:31:19
>237
あちこちに書けば書くほど宣伝の逆効果になってるって
あちこちに書けば書くほど宣伝の逆効果になってるって
239名無しさん@お腹いっぱい。
2010/01/14(木) 05:17:13 バックアップに最適な圧縮フォーマットを教えてください。
7zは高圧縮で良いのですが、更新されていないファイルもすべて圧縮し直さなければなりません。
できれば、更新されたファイルのみを圧縮し追加できるとよいのですが。
7zは高圧縮で良いのですが、更新されていないファイルもすべて圧縮し直さなければなりません。
できれば、更新されたファイルのみを圧縮し追加できるとよいのですが。
2010/01/14(木) 08:20:59
細かいことは気にするな
2010/01/14(木) 09:07:36
>>239
gzで各ファイルを圧縮するのが良いと思うよ
gzで各ファイルを圧縮するのが良いと思うよ
2010/01/16(土) 12:24:53
xfsdump でオートローダを使う方法が分かりません。
man page には-cオプションが「メディア交換が必要になったときに
実行するプログラムを指定する」とあるので、オートローダのカートリッジ交換を
行うスクリプトを指定しました。
すると、カートリッジ交換は正しく行なわれたものの、その後
please change media in drive 0
1: media change declined (timeout in 3600 sec)
2: media changed (default)
->
というプロンプトが現れ、そのままタイムアウトさせるとabortしてしまいます。
(default というのは「enter のみ入力の場合」という意味で timeout時は 1 を実行)
-F オプションを使うのか? とも思いましたが、-c を使うときは -F は使うな、という
情報もありましたので…→ http://www.tek-tips.com/viewthread.cfm?qid=764503
「xfsdump autoloader」などとぐぐってみても解決法は見つけられませんでした。
オートローダで運用してる方がいらっしゃったら正しい指定方法をご教示頂けないでしょうか。
使っているのはCentOS 5.4、現在の指定オプションは以下の通りです。
xfsdump \
-l 0 -o \
-L $session_name \
-M $media_label \
-c $change_cartridge_script \
-f /dev/st0 \
$backup_target
# expectを使うしかない?
# かなり面倒なことになりそうな…
man page には-cオプションが「メディア交換が必要になったときに
実行するプログラムを指定する」とあるので、オートローダのカートリッジ交換を
行うスクリプトを指定しました。
すると、カートリッジ交換は正しく行なわれたものの、その後
please change media in drive 0
1: media change declined (timeout in 3600 sec)
2: media changed (default)
->
というプロンプトが現れ、そのままタイムアウトさせるとabortしてしまいます。
(default というのは「enter のみ入力の場合」という意味で timeout時は 1 を実行)
-F オプションを使うのか? とも思いましたが、-c を使うときは -F は使うな、という
情報もありましたので…→ http://www.tek-tips.com/viewthread.cfm?qid=764503
「xfsdump autoloader」などとぐぐってみても解決法は見つけられませんでした。
オートローダで運用してる方がいらっしゃったら正しい指定方法をご教示頂けないでしょうか。
使っているのはCentOS 5.4、現在の指定オプションは以下の通りです。
xfsdump \
-l 0 -o \
-L $session_name \
-M $media_label \
-c $change_cartridge_script \
-f /dev/st0 \
$backup_target
# expectを使うしかない?
# かなり面倒なことになりそうな…
2010/01/16(土) 21:55:34
xfsdumpのソース見てみましたが無理そうですね。-cはメディア交換メッセー
ジを出す前に指定のコマンドを実行するという意味しかないようです。ソース
を書き換えるのが手っ取り早いでしょう。
ジを出す前に指定のコマンドを実行するという意味しかないようです。ソース
を書き換えるのが手っ取り早いでしょう。
2010/01/16(土) 23:43:38
245242
2010/01/21(木) 12:29:16 xfsdump の件ですが、結局ソースを書き換えて timeout→再開にしました。
ところが、今度は使用テープが一巡したとき -o オプションを指定してもなぜか
「overwrite しますか?」のプロンプトが出てくる。
(そして timeout で再びカートリッジ交換のスクリプト実行→再びプロンプトを永久に続ける、とゆー)
-o は man pageによると「テープのブロックサイズが読み取れないときに使用する」となってるけれど、
どうやら問答無用で overwrite してくれるわけではないらしい。
ダイアログが出て上書きをユーザが選択しなければならないとなるとこのオプションの存在意味は一体?
と思うけれど、調べるのも面倒になったので、これまた問答無用で上書きするようソースを書き換えました。
…どうも釈然としない………
ところが、今度は使用テープが一巡したとき -o オプションを指定してもなぜか
「overwrite しますか?」のプロンプトが出てくる。
(そして timeout で再びカートリッジ交換のスクリプト実行→再びプロンプトを永久に続ける、とゆー)
-o は man pageによると「テープのブロックサイズが読み取れないときに使用する」となってるけれど、
どうやら問答無用で overwrite してくれるわけではないらしい。
ダイアログが出て上書きをユーザが選択しなければならないとなるとこのオプションの存在意味は一体?
と思うけれど、調べるのも面倒になったので、これまた問答無用で上書きするようソースを書き換えました。
…どうも釈然としない………
246242
2010/01/21(木) 12:30:47 その他、2本目以降の media label をコマンドラインから指定する方法がない、など
xfsdumpは対話実行が基本で「自動化」というものは想定されていないコマンドなのですね。
自動化したけりゃ面倒でも expect を使って応答するスクリプトを作成するのが正解なようです。
最新版のchagelogを見ても機能的にはあまり変わってない雰囲気なので、
オートローダを使いたければ他のバックアップソフトを使え、というのが基本スタンスのようで。
スクリプトでの操作を重視しないというのは、unix系のこの手のツールにしては珍しいですね。
xfsdumpは対話実行が基本で「自動化」というものは想定されていないコマンドなのですね。
自動化したけりゃ面倒でも expect を使って応答するスクリプトを作成するのが正解なようです。
最新版のchagelogを見ても機能的にはあまり変わってない雰囲気なので、
オートローダを使いたければ他のバックアップソフトを使え、というのが基本スタンスのようで。
スクリプトでの操作を重視しないというのは、unix系のこの手のツールにしては珍しいですね。
247名無しさん@お腹いっぱい。
2010/03/19(金) 12:26:23 rsyncでリモートのサーバにコピーする際に、特定のサーバだけパーミッションが000になってしまいエラーが出て継続できません。
別のサーバでは特にそのような問題は起きていません。
--chmodオプションで何とかなりますが、これって何で決まるのでしょうか?
別のサーバでは特にそのような問題は起きていません。
--chmodオプションで何とかなりますが、これって何で決まるのでしょうか?
2010/03/19(金) 21:03:06
>>247
サーバで決まるんじゃね?
サーバで決まるんじゃね?
2010/03/19(金) 21:11:59
すみませんが詳しい方のみ回答をお願いします
2010/03/20(土) 18:15:48
おすすめの圧縮可能なファイルシステムを教えてください。
Linuxだと意外と少ないのね。
Linuxだと意外と少ないのね。
2010/03/20(土) 18:22:00
つ ZFS compression
2010/03/20(土) 21:49:22
>>250
Linux なら Linux 板で聞いた方がいい。
Linux なら Linux 板で聞いた方がいい。
2010/03/21(日) 00:53:31
そも
何故このスレで聞くのかw
何故このスレで聞くのかw
2010/03/21(日) 09:26:59
すみませんがUNIX板にてLinuxに精通されている方のみ回答をお願いします
2010/03/21(日) 09:56:41
回答は終了しました
2010/03/21(日) 14:50:01
それでは、回答終了ということで回答陣の審査を行ないます。
審査結果は、
不合格
です。もう一度質問サポート精神の基本を勉強して
受験し直してください。
審査結果は、
不合格
です。もう一度質問サポート精神の基本を勉強して
受験し直してください。
2010/03/21(日) 14:54:53
ベストアンサーはどれ?
2010/03/21(日) 16:05:11
つまらんネタにかまうな。
2010/03/21(日) 16:44:42
Unixに標準的に備わっているものだけでMacのタイムマシンのようなことはできませんか?
2010/03/21(日) 17:05:01
できません。
2010/03/21(日) 17:23:07
Unixに標準的に備わっているZFSでLinuxのdump|restoreのようなことはできませんか?
2010/03/21(日) 17:39:00
2010/03/21(日) 17:40:05
>>261
send / receive するか、単に snapshot 取れば良いんじゃないの
send / receive するか、単に snapshot 取れば良いんじゃないの
2010/03/22(月) 06:51:44
遅ればせながら百合スレと聞いてバックアップされに来ました。
2010/03/22(月) 07:34:12
ZFSからEXT4に dump|restore したいんですが、そういう方法はありますか?
tar|tar や cpio|cpio等以外でお願いします。
tar|tar や cpio|cpio等以外でお願いします。
2010/03/22(月) 08:10:46
じゃあ rsync
2010/03/22(月) 08:31:30
rsync等以外でお願いします
普通のファイルとしてアクセスする系以外でということです
普通のファイルとしてアクセスする系以外でということです
2010/03/22(月) 10:49:10
gitでおk
2010/03/22(月) 22:47:19
>265
釣りは釣り堀でお願い
「以外」の理由が分からない限り全部 >267 って答えるでしょ
釣りは釣り堀でお願い
「以外」の理由が分からない限り全部 >267 って答えるでしょ
2010/03/23(火) 12:05:42
早く春休みが終わって欲しいね
2010/03/25(木) 09:45:38
わからん質問しては、その回答は不正解、レベル低いプププ って流行ってるのか?
2010/03/25(木) 09:55:41
流行ってるね。
残念ながら。
残念ながら。
273名無しさん@お腹いっぱい。
2010/09/10(金) 05:38:56 Macのタイムマシンの代わりになるようなソフトはありませんか?
2010/09/10(金) 21:47:43
なんか歌があったよな?
2010/09/11(土) 21:03:22
bacula 5.0.3 を構築しているんですが、rescue cd ってどうやって作るのでしょうか?
bacula-rescueがどうすれば手に入るのか全然判らん・・・orz
また、他にもっと簡単な方法ってありますかね?
フルバックアップを取っているのですがリカバリー計画が全然たてられない・・・
OSはCentOS4 と CentOS5 です。
よろしくおねがいいたします。
bacula-rescueがどうすれば手に入るのか全然判らん・・・orz
また、他にもっと簡単な方法ってありますかね?
フルバックアップを取っているのですがリカバリー計画が全然たてられない・・・
OSはCentOS4 と CentOS5 です。
よろしくおねがいいたします。
276名無しさん@お腹いっぱい。
2011/01/28(金) 22:13:50 Unixに標準的に備わっているコマンドだけでシンボリックリンクのタイムスタンプの保存はできませんか?
2011/06/09(木) 00:48:09.86
RPOは学生時代?
レスを投稿する
ニュース
- WBC世界バンタム級王座決定戦 井上拓真が3-0の判定勝利で世界王座に返り咲き! 無敗の那須川天心に初黒星つけ完全復活!★2 [牛丼★]
- 【速報】盗難車ひき逃げで歩行者ら12人死傷 逃走した“運転手”の37歳男を逮捕 東京・足立区 ★4 [Ailuropoda melanoleuca★]
- 【東京・足立の車暴走】赤信号無視か 危険運転致死傷疑いも視野に捜査 逮捕された職業不詳の男性(37)は精神疾患で通院歴も [ぐれ★]
- 【時事解説】日米安保条約で「アメリカには日本防衛の義務がある」という誤解 [1ゲットロボ★]
- 【東京・足立の車暴走】赤信号無視か 危険運転致死傷疑いも視野に捜査 逮捕された職業不詳の男性(37)は精神疾患で通院歴も ★2 [ぐれ★]
- 人生初黒星の神童、那須川天心がリング上で土下座 [牛丼★]
- フィフィ、工作員と疑う声を全否定し日本のために善意でやってると主張「どんだけ探ったところで、なんも出てこないよ」 [377482965]
- 現役JKのお茶会スレ( ¨̮ )︎︎𖠚ᐝ166
- 【高市悲報】157円再び [469534301]
- 高市早苗さん、インフレ税導入へ [175344491]
- まったりおじゃる丸待機スレ🏡
- 【速報】高市「アタシぜっったい謝らないからッ!!」→中国焦る [308389511]
