X



OpenSolaris/Illumos (OpenIndiana, etc.) 6
0001名無しさん@お腹いっぱい。
垢版 |
2012/05/19(土) 16:18:42.91
OpenSolaris/Illumos プロジェクト、派生ディストリビューション総合スレ
Sun/Oracle からリリースされる本家「Solaris」に関しては専スレでお願いします

前スレ:OpenSolaris/Illumos (OpenIndiana, etc.) 5
http://toro.2ch.net/test/read.cgi/unix/1285876800/

OpenSolaris 公式サイト http://opensolaris.org/
Illumos 公式サイト http://illumos.org/

Genunix(OpenSolaris コミュニティ/ミラーサイト) http://genunix.org/

[ディストリビューション一覧]
・ OpenIndiana http://openindiana.org/
    (OpenSolaris distro == Indiana の実質的後継、Solaris とバイナリ・パッケージ互換)
・ Nexenta OS http://nexenta.org/
    (Solaris/Illumos カーネルと Debian/Ubuntu ユーザランドの組み合わせ)
・ StormOS http://stormos.org/
    (Nexenta ベースのデスクトップ向けディストリビューション)
・ AuroraUX http://auroraux.org/
    (通常の x86、AMD64 に加え、PowerPC にも対応)
・ Jaris http://jaris.jp/
    (日本発のプロジェクト)
・ Belenix http://belenix.org/
・ SchilliX http://schillix.berlios.de/
・ MilaX http://milax.org/
・ etc.
0002名無しさん@お腹いっぱい。
垢版 |
2012/05/20(日) 01:31:31.61
>>2の[ディストリビューション一覧] だけど、大分現状とは異なってるので直したほうがよさそう。

[ディストリビューション一覧]
・ OpenIndiana http://openindiana.org/
    (OpenSolaris distro == Indiana の実質的後継、Solaris とバイナリ・パッケージ互換)
・ Illumian http://www.illumian.org/
    (Solaris/Illumos カーネル・ユーザランドとAPTパッケージ管理システムの組み合わせ
     NexentaCore後継)
・ NexentaStor http://nexenta.org/
    (Solaris/Illumos カーネルと Debian/Ubuntu ユーザランドの組み合わせによるストレージサーバ用OS)
・ StormOS http://stormos.org/
    (Nexenta ベースのデスクトップ向けディストリビューション)
・ OminiOS http://omnios.omniti.com/
・ SmartOS http://smartos.org/

(以下のディストリビューションは長期間更新なし)
・ AuroraUX http://auroraux.org/ (消滅)
    (通常の x86、AMD64 に加え、PowerPC にも対応)
・ Jaris http://jaris.jp/ (消滅)
    (日本発のプロジェクト)
・ Belenix http://belenix.org/ (消滅)
・ SchilliX http://schillix.berlios.de/
・ MilaX http://milax.org/
0003名無しさん@お腹いっぱい。
垢版 |
2012/05/21(月) 06:51:50.59
おはようございます。前スレ>>975です。新スレ乙です。
ご報告遅くなりすいません。代替機は用意できたのですが、前スレ>>989の段階でscanが
終了していなかったため、一応それを待っていました。先ほどscanが終わり、以下の状態になりました。

pool: tank
state: DEGRADED
status: One or more devices has experienced an error resulting in data
corruption. Applications may be affected.
action: Restore the file in question if possible. Otherwise restore the
entire pool from backup.
see: http://www.sun.com/msg/ZFS-8000-8A
scan: resilvered 118G in 39h45m with 271168 errors on Mon May 21 05:12:12 2012
config:

NAME STATE READ WRITE CKSUM
tank DEGRADED 0 0 2.95M
raidz1-0 DEGRADED 0 0 11.4M
spare-0 DEGRADED 0 0 660
c6t1d0 FAULTED 0 0 0 too many errors
c3t5d0 ONLINE 0 0 0
c6t2d0 DEGRADED 0 0 0 too many errors
c6t3d0 DEGRADED 0 0 0 too many errors
c6t4d0 REMOVED 0 0 0
spares
c3t5d0 INUSE currently in use

errors: 271145 data errors, use '-v' for a list

SMART情報ですが、SATA2とSATA5の2台でBADが発生しています。やっぱり物理的に2台に
問題が発生してしまっているようです。ダメっぽいですね。
一応、これから代替機につないでみます。
0007名無しさん@お腹いっぱい。
垢版 |
2012/05/21(月) 21:04:55.29
ホットスペア持つなら最初からRAIDZ2の方がいいと思うが
細かくチェックしてトラブル時にすぐに入れ替える方がいい
0010名無しさん@お腹いっぱい。
垢版 |
2012/05/21(月) 22:15:58.27
oiの場合、S.M.A.R.Tは何ていうアプリを入れれば
見れるんでしょう?
0012名無しさん@お腹いっぱい。
垢版 |
2012/05/22(火) 08:23:55.43
ZFSってHDDを個別識別出来たっけ?
ベタコピーで同じディスクと認識するならディスク4台用意してddした方が早いかもしれない。
0014前スレ975
垢版 |
2012/05/22(火) 23:03:02.38
みなさん、お世話になってます。色々な提案や情報提供、感謝です。
まだ、作業中ですが、中間報告します。

代替機は土日に届いたのですが、結局そこにつなぎ換える作業はやめて、
バックアップ先として利用しました。
今回の故障機はiscsiターゲットとして利用していたのですが、故障直後は
認識できなくなってしまっていたのに、リセット後は認識できるようになり、
ボリューム内のファイルも読み込み可能でした。
そこでiscsiイニシエータ側から別サーバーにファイル単位でコピーしている最中です。

コピー1回目はIOエラーがかなり出て読めないファイルも多かった上に、
oi自体が勝手に落ちてしまう(電源OFFになる)という状態でした。

そこで一度電源OFFし半日程してからコピーをやり直した所、IOエラーが
発生していたファイルも読めるようになりました。内容はVMイメージ等、
巨大なファイルが多いのですが、テキストファイル類をcatで覗いてみた所、
正常な内容を確認できました(電源OFF前は読めなかった)。

こう考えると冷却が良かったように思えますし、今考えればOSの正常終了を
1週間も待ったりしないで、早々に電源OFFし1日ぐらい冷やす方がよかったのかも
知れないと思えてます。

まだコピー中ですが、コピーが終わったらVMを起動してみようと思います。
0015前スレ975
垢版 |
2012/05/25(金) 01:37:12.80
前スレ975です。
まだまだ復旧に時間がかかりそうなのですが、いい感じに復旧しつつあるのでご報告します。

故障機はiscsiイニシエータで、ファイルシステムは vmfs(ESX専用ファイルシステム)を利用していますが、
約50個ぐらいのVMが格納されていました。このうち、重要度が高かったり、バックアアップが古いのでなんとか
復旧したい物は1割程度なのですが、それらはほぼ全て復旧できました!

ファイル単位でscpでコピーしている最中なのですが、それぞれのファイルは、

1群. 何度アクセスしてもアクセス不能な物(ごく少ない)
2群. 何度かアクセスしているうちにアクセスできなくなってくる物(3割程度)
3群. 正常にアクセスできる物(7割程度)

というような感じです。2群のファイルは4、5時間マシンを止めてからアクセスすればまたアクセス
できる状況です。10分程度の冷却では無理でした。
そのような感じで順次、復旧している最中です。
将来、同じ状況に陥ってしまった場合、是非マシンの冷却を試みて下さい。

作業終了時にまたご報告します(しばらく先になりそうですが)
色々なノウハウをご教示頂き、ありがとうございました。
0016前スレ975
垢版 |
2012/05/25(金) 03:09:13.44
訂正

故障機はiscsiイニシエータで、

故障機はiscsiターゲットで、
0018名無しさん@お腹いっぱい。
垢版 |
2012/05/29(火) 00:46:20.28
スレチかも知れませんが、教えてください。
OpenIndianaの151aにKVMをインストールしたのですが、/dev/kvmがありません。
手順としては
driver/i86pc/kvm、system/qemu、system/qemu/kvmインストール後再起動
BIOSがIOMMUに対応していなかったので、アップデート後有効
/dev/kvmが無かったので、インストールしたものを一度削除し再インストールしました。

インストールして正常に動作されている方、何かヒントをいただけたら。
0020吠鉱山 ◆STCMXN/JPY
垢版 |
2012/06/01(金) 13:39:54.90
pfexec pkgutil -i -y hogehogeすき。
pfexec pkg install hogehoge死ぬほどきらい。
0021名無しさん@お腹いっぱい。
垢版 |
2012/06/07(木) 18:33:55.43
個人用ファイルサーバーにしてるOpensolarisからそろそろ乗り換えようかと思うんだが
Sol11とOIのどっちにするか悩む
ファイル共有関連の設定方法に違いが出てきてるし
0022名無しさん@お腹いっぱい。
垢版 |
2012/06/14(木) 03:25:32.73
zfsってWWNできちんと使える?
今、HDDの1台を交換しているんだけど、WWNが変わるせいで組み込めない
変な汗が出てきたよ
002522
垢版 |
2012/06/15(金) 01:50:46.95
usr1@oi151a:~$ zpool status -v zpool
pool: zpool
state: DEGRADED
status: One or more devices has experienced an error resulting in data
corruption. Applications may be affected.
action: Restore the file in question if possible. Otherwise restore the
entire pool from backup.
see: http://www.sun.com/msg/ZFS-8000-8A
scan: scrub canceled on Mon Jun 11 20:59:18 2012
config:

NAME STATE READ WRITE CKSUM
zpool DEGRADED 703 0 0
c2t50014EE111111111d0 ONLINE 0 0 0
c2t50014EE222222222d0 ONLINE 0 0 0
c2t50014EE333333333d0 DEGRADED 703 0 10 too many errors
c2t50014EE444444444d0 ONLINE 0 0 0

errors: List of errors unavailable (insufficient privileges)

こうなっていたので、
002622
垢版 |
2012/06/15(金) 01:51:55.41
電源切って別のHDDに入れ替えたら
usr1@oi151a:~$ dmesgzpool status -v zpool
pool: zpool
state: UNAVAIL
status: One or more devices could not be opened. There are insufficient
replicas for the pool to continue functioning.
action: Attach the missing device and online it using 'zpool online'.
see: http://www.sun.com/msg/ZFS-8000-3C
scan: none requested
config:

NAME STATE READ WRITE CKSUM
zpool UNAVAIL 0 0 0 insufficient replicas
c2t50014EE111111111d0 ONLINE 0 0 0
c2t50014EE222222222d0 ONLINE 0 0 0
c2t50014EE333333333d0 UNAVAIL 0 0 0 cannot open
c2t50014EE444444444d0 ONLINE 0 0 0

こうなった。接続先は同じなんだけどzfsには新しいc2t50014EE999999999d0は認識されない
002722
垢版 |
2012/06/15(金) 01:53:19.51
名前を指定してreplaceしようとしたら
usr1@oi151a:~$ zpool replace zpool c2t50014EE333333333d0 c2t50014EE999999999d0
cannot open 'zpool': pool is unavailable

poolがUNAVAILなのが駄目らしいので、ONLINEにしようとしても
usr1@oi151a:~$ zpool online zpool c2t50014EE333333333d0
cannot open 'zpool': pool is unavailable

これでもやっぱり駄目
usr1@oi151a:~$ zpool online zpool c2t50014EE999999999d0
missing device name

といわれてONLINEにできない、今ここ
0029名無しさん@お腹いっぱい。
垢版 |
2012/06/15(金) 07:25:31.52
stripeだから次のようにメッセージが出てるわけだな

status: One or more devices has experienced an error resulting in data
corruption. Applications may be affected.
action: Restore the file in question if possible. Otherwise restore the
entire pool from backup.

冗長デバイス抜きのpoolがHDD交換で復旧すると思ってたんだろうか?
0033名無しさん@お腹いっぱい。
垢版 |
2012/06/16(土) 02:10:13.51
元の状態でプールがDEGRADEDってことは辛うじてアクセスできんのか?
だったらその死にかけのHDD戻してある程度のデータは救えないのかな
003422
垢版 |
2012/06/16(土) 03:02:05.22
あれ?stripe?

usr1@oi151a:~$ sudo zpool history | grep "zpool create"
2011-03-13.17:49:21 zpool create zpool c2t50014EE111111111d0 c2t50014EE222222222d0 c2t50014EE333333333d0 c2t50014EE444444444d0

あばばばば

pool作り直して首つってきます。
003722
垢版 |
2012/06/16(土) 12:05:20.60
>>36
自分の場合、被害を受けているのは最近書き込んだファイルのみで
それ以外の部分は問題がありませんでした。当然、HDDの壊れ方に
もよると思いますが。

しかし、運用中にWRITEでエラーが出ていないのにREADでNGって
いやですね。定期的にscrubしておけばよかった。
0039名無しさん@お腹いっぱい。
垢版 |
2012/06/16(土) 18:02:35.09
>>37
SATA HDDだとREAD ERROR発生で終了というパターンが基本じゃね?
代替領域がある限りこそっと処理してるからSMART見てなきゃ気付かないはず
0040名無しさん@お腹いっぱい。
垢版 |
2012/06/22(金) 23:14:38.88
copies=2
とか指定してたとするとstripeメンバが死んだ状態でもそれなりに生きてるファイルは読み出せる・・・
のではないかと予想はしているが実験してみたことはない。
あんまり使う予定が思いつかないがどうなんだろうな>copies
0043名無しさん@お腹いっぱい。
垢版 |
2012/06/23(土) 02:38:04.65
zfsのマニュアルページにはこう書いてあるな

copies=1 | 2 | 3
 Controls the number of copies of data stored for this dataset.
 These copies are in addition to any redundancy provided by the pool,
 for example, mirroring or RAID-Z.
 The copies are stored on different disks, if possible.

「可能なら」別のディスクに書くみたいだな
しかし冗長性なしのpool選んでこれに期待するのって単なるバカだろw
0045名無しさん@お腹いっぱい。
垢版 |
2012/07/04(水) 00:58:48.08
oi_151a_prestable5来た
ttp://wiki.openindiana.org/oi/oi_151a_prestable5+Release+Notes
0047名無しさん@お腹いっぱい。
垢版 |
2012/07/05(木) 00:46:33.19
>>46
出したいけどSPARC用の人員が足りてないらしい
我こそはと思う人はぜひ名乗り出てほしいそうな
0048名無しさん@お腹いっぱい。
垢版 |
2012/07/13(金) 11:53:58.49
LSI の SAS HBA に Supermicro の JBOD を使っている時に、cfgadm -c
unconfigure を実行すると該当のスロットのランプは点灯してくれますか?
0049名無しさん@お腹いっぱい。
垢版 |
2012/07/13(金) 15:37:54.23
unconfigureで自動点灯させる意味がわからん
保守したいHDDの位置を示すならlocator使うだろ

JBODって本来はspanningのはずなのに
単純な複数HDD筐体までそう呼ぶ連中がいて紛らわしいな
0050名無しさん@お腹いっぱい。
垢版 |
2012/07/14(土) 01:22:59.97
>>49
そういうオプションがあるのですね。
ディスクが故障した場合は、unconfigure -> locator=on -> 交換 -> locator=off -> configure という感じでしょうか。
よび方は JBOD chassis とよんだほうがいいですか?
0052名無しさん@お腹いっぱい。
垢版 |
2012/07/15(日) 00:24:47.66
ZFS で mirror を組もうと考えていて、ドライブが故障した場合に間違えずに
交換する方法があるのかと思い質問させていただきました。

ZFS は RAID カードを使わないことが推奨されているようですが、今は状況が
変わっていたりしますかね?

WriteBack Cache が付いた RAID カードなら RAID カードで RAID を組んだほうが
速いんじゃないかという気もしますが。
0054名無しさん@お腹いっぱい。
垢版 |
2012/07/15(日) 12:42:15.56
最初にスロットなりコネクタなりディスクなりにシールでも貼っとけばいいんじゃねーの?
あと、今時、生の UFS で使える程度の容量で我慢できるものなのかね?
どっちにしろ svm なり使うんだったら、zfs の方が管理上マシだと思うが
0055名無しさん@お腹いっぱい。
垢版 |
2012/07/15(日) 14:42:51.42
>>53
raw disk を使うメリットって何?
WriteBack Cache を使うと、ZIL を SSD に置かなくても、
書き込みが遅くならないというメリットがあるけど。
0058名無しさん@お腹いっぱい。
垢版 |
2012/07/15(日) 14:56:33.26
#この手のバカって、なんで後付で条件増やすんだろう?

RAIDカードに金払わなくて済むならそのほうが安く上がるだろ
そも、なんでSSD付きのRAIDカードなんてものがあるんだろうねぇ?
0061吠鉱山 ◆STCMXN/JPY
垢版 |
2012/07/15(日) 16:10:48.86
そう思っていた時期が俺にもあr(ry
一回使ってみろよ。ちびるで。
0067名無しさん@お腹いっぱい。
垢版 |
2012/07/21(土) 17:09:26.03
ちと教えて頂きたいのだけど、
OpenIndianaでpkg install使ってgccやmysqlなど落とした際、
BEが勝手に作成されて再起動を促されるが、以後GRUB直後で再起動を繰り返してしまう。
何かオペレーションが抜けているんだろうか?
インストールしたのはoi-dev-151a-text-x86.iso。
0068吠鉱山 ◆STCMXN/JPY
垢版 |
2012/07/21(土) 17:16:39.78
eだかcだか押してgrub書き直してみたらどーだい。
んでmilstone切って(メンテナンスモード?)で上がるかやってみる。
問題の切り分けにはなると思うんだけれど。
0070吠鉱山 ◆STCMXN/JPY
垢版 |
2012/07/21(土) 18:25:37.16
今手元に86機が無いから確認しようもないのだけれど、恐らくgrubの指定が間違っているのが原因だと思うなぁ。
そういや86のopen使ってた頃、無理矢理updateしたら上がらなくなった(自業自得)
もし古いBEが残っているならそっちを試すしか。
0071名無しさん@お腹いっぱい。
垢版 |
2012/07/21(土) 19:50:29.87
Ummm... システムが修正してくれてるのに頼ってるところもあるからなぁ。
Solaris11だったらうまくいったりするのかな。試してみる。
0075吠鉱山 ◆STCMXN/JPY
垢版 |
2012/07/28(土) 00:57:33.19
メモ: Adobe Flash Player 11.2 はプラットフォームとして Solaris をサポートする最後のバージョンです。

BSDを思い出す…。
0079名無しさん@お腹いっぱい。
垢版 |
2012/08/07(火) 03:10:27.30
OpenSolarisって、Linuxでいうbondingドライバみたいなのないの?
0080名無しさん@お腹いっぱい。
垢版 |
2012/08/07(火) 04:57:28.20
>>79
dladm create-aggr とか...
0081名無しさん@お腹いっぱい。
垢版 |
2012/08/14(火) 23:31:10.78
LSI SAS 2308 でデバイス名からスロットを特定するのには、
LSI から落してきた、SAS2IRCU を使うしかないんですかね?

cfgadm はこんなかんじでした。

root@solaris:~# cfgadm -x led c6::j5000ppn225q63669,0
cfgadm: Configuration operation not supported
root@solaris:~# cfgadm -x locator c6::j5000ppn225q63669,0
cfgadm: Configuration operation not supported
0085名無しさん@お腹いっぱい。
垢版 |
2012/09/03(月) 13:07:23.18
151a5でストライプミラーからraidz2に移行しようと思って、vdevをzfs send | receiveしたら、zfs listのusedが、元のと比べて倍になってもうた。

どなたか経験した方います?
0088名無しさん@お腹いっぱい。
垢版 |
2012/09/04(火) 21:35:37.47
アップデートでカーネルパニック祭りを喰らったからp5をクリーンで入れて環境構築終わったばっかりなのにorz
0089名無しさん@お腹いっぱい。
垢版 |
2012/09/04(火) 23:15:04.15
>>86
ありがとうございます。
確認してみます。
0092名無しさん@お腹いっぱい。
垢版 |
2012/09/06(木) 03:47:32.36
AndroidのカーネルっていうかLinuxと呼ばれるものを全て取り除いて
Android/OpenSolarisや
Android/Illumos
って事にできるの?
0096名無しさん@お腹いっぱい。
垢版 |
2012/09/06(木) 11:42:50.46
ARM版illumosが存在しないから、x86版Androidでやるか、
illumosをARMに移植する作業からやることになるけど、不可能ではないはず
レスを投稿する


ニューススポーツなんでも実況