OpenSolaris/Illumos プロジェクト、派生ディストリビューション総合スレ
Sun/Oracle からリリースされる本家「Solaris」に関しては専スレでお願いします
前スレ:OpenSolaris/Illumos (OpenIndiana, etc.) 5
http://toro.2ch.net/test/read.cgi/unix/1285876800/
OpenSolaris 公式サイト http://opensolaris.org/
Illumos 公式サイト http://illumos.org/
Genunix(OpenSolaris コミュニティ/ミラーサイト) http://genunix.org/
[ディストリビューション一覧]
・ OpenIndiana http://openindiana.org/
(OpenSolaris distro == Indiana の実質的後継、Solaris とバイナリ・パッケージ互換)
・ Nexenta OS http://nexenta.org/
(Solaris/Illumos カーネルと Debian/Ubuntu ユーザランドの組み合わせ)
・ StormOS http://stormos.org/
(Nexenta ベースのデスクトップ向けディストリビューション)
・ AuroraUX http://auroraux.org/
(通常の x86、AMD64 に加え、PowerPC にも対応)
・ Jaris http://jaris.jp/
(日本発のプロジェクト)
・ Belenix http://belenix.org/
・ SchilliX http://schillix.berlios.de/
・ MilaX http://milax.org/
・ etc.
探検
OpenSolaris/Illumos (OpenIndiana, etc.) 6
2012/05/19(土) 16:18:42.91
2名無しさん@お腹いっぱい。
2012/05/20(日) 01:31:31.61 >>2の[ディストリビューション一覧] だけど、大分現状とは異なってるので直したほうがよさそう。
[ディストリビューション一覧]
・ OpenIndiana http://openindiana.org/
(OpenSolaris distro == Indiana の実質的後継、Solaris とバイナリ・パッケージ互換)
・ Illumian http://www.illumian.org/
(Solaris/Illumos カーネル・ユーザランドとAPTパッケージ管理システムの組み合わせ
NexentaCore後継)
・ NexentaStor http://nexenta.org/
(Solaris/Illumos カーネルと Debian/Ubuntu ユーザランドの組み合わせによるストレージサーバ用OS)
・ StormOS http://stormos.org/
(Nexenta ベースのデスクトップ向けディストリビューション)
・ OminiOS http://omnios.omniti.com/
・ SmartOS http://smartos.org/
(以下のディストリビューションは長期間更新なし)
・ AuroraUX http://auroraux.org/ (消滅)
(通常の x86、AMD64 に加え、PowerPC にも対応)
・ Jaris http://jaris.jp/ (消滅)
(日本発のプロジェクト)
・ Belenix http://belenix.org/ (消滅)
・ SchilliX http://schillix.berlios.de/
・ MilaX http://milax.org/
[ディストリビューション一覧]
・ OpenIndiana http://openindiana.org/
(OpenSolaris distro == Indiana の実質的後継、Solaris とバイナリ・パッケージ互換)
・ Illumian http://www.illumian.org/
(Solaris/Illumos カーネル・ユーザランドとAPTパッケージ管理システムの組み合わせ
NexentaCore後継)
・ NexentaStor http://nexenta.org/
(Solaris/Illumos カーネルと Debian/Ubuntu ユーザランドの組み合わせによるストレージサーバ用OS)
・ StormOS http://stormos.org/
(Nexenta ベースのデスクトップ向けディストリビューション)
・ OminiOS http://omnios.omniti.com/
・ SmartOS http://smartos.org/
(以下のディストリビューションは長期間更新なし)
・ AuroraUX http://auroraux.org/ (消滅)
(通常の x86、AMD64 に加え、PowerPC にも対応)
・ Jaris http://jaris.jp/ (消滅)
(日本発のプロジェクト)
・ Belenix http://belenix.org/ (消滅)
・ SchilliX http://schillix.berlios.de/
・ MilaX http://milax.org/
2012/05/21(月) 06:51:50.59
おはようございます。前スレ>>975です。新スレ乙です。
ご報告遅くなりすいません。代替機は用意できたのですが、前スレ>>989の段階でscanが
終了していなかったため、一応それを待っていました。先ほどscanが終わり、以下の状態になりました。
pool: tank
state: DEGRADED
status: One or more devices has experienced an error resulting in data
corruption. Applications may be affected.
action: Restore the file in question if possible. Otherwise restore the
entire pool from backup.
see: http://www.sun.com/msg/ZFS-8000-8A
scan: resilvered 118G in 39h45m with 271168 errors on Mon May 21 05:12:12 2012
config:
NAME STATE READ WRITE CKSUM
tank DEGRADED 0 0 2.95M
raidz1-0 DEGRADED 0 0 11.4M
spare-0 DEGRADED 0 0 660
c6t1d0 FAULTED 0 0 0 too many errors
c3t5d0 ONLINE 0 0 0
c6t2d0 DEGRADED 0 0 0 too many errors
c6t3d0 DEGRADED 0 0 0 too many errors
c6t4d0 REMOVED 0 0 0
spares
c3t5d0 INUSE currently in use
errors: 271145 data errors, use '-v' for a list
SMART情報ですが、SATA2とSATA5の2台でBADが発生しています。やっぱり物理的に2台に
問題が発生してしまっているようです。ダメっぽいですね。
一応、これから代替機につないでみます。
ご報告遅くなりすいません。代替機は用意できたのですが、前スレ>>989の段階でscanが
終了していなかったため、一応それを待っていました。先ほどscanが終わり、以下の状態になりました。
pool: tank
state: DEGRADED
status: One or more devices has experienced an error resulting in data
corruption. Applications may be affected.
action: Restore the file in question if possible. Otherwise restore the
entire pool from backup.
see: http://www.sun.com/msg/ZFS-8000-8A
scan: resilvered 118G in 39h45m with 271168 errors on Mon May 21 05:12:12 2012
config:
NAME STATE READ WRITE CKSUM
tank DEGRADED 0 0 2.95M
raidz1-0 DEGRADED 0 0 11.4M
spare-0 DEGRADED 0 0 660
c6t1d0 FAULTED 0 0 0 too many errors
c3t5d0 ONLINE 0 0 0
c6t2d0 DEGRADED 0 0 0 too many errors
c6t3d0 DEGRADED 0 0 0 too many errors
c6t4d0 REMOVED 0 0 0
spares
c3t5d0 INUSE currently in use
errors: 271145 data errors, use '-v' for a list
SMART情報ですが、SATA2とSATA5の2台でBADが発生しています。やっぱり物理的に2台に
問題が発生してしまっているようです。ダメっぽいですね。
一応、これから代替機につないでみます。
2012/05/21(月) 19:30:43.84
もう一台スペア追加してみるかな
2012/05/21(月) 20:35:13.13
http://www.oracle.com/technetwork/jp/content/1202-1500-ords-zfs4-251476-ja.pdf
以前ここに貼られてたやつけど、この資料によるとHD1台破損時の
再構成失敗率がRaid5で2〜20%、Raid6でほぼ0%らしいから
スペア追加ではなくRaidZ2に移行してみては?
以前ここに貼られてたやつけど、この資料によるとHD1台破損時の
再構成失敗率がRaid5で2〜20%、Raid6でほぼ0%らしいから
スペア追加ではなくRaidZ2に移行してみては?
2012/05/21(月) 20:58:30.92
いや、そーゆー話じゃなくて
現状の構成にスペア追加したらどうかな、と
現状の構成にスペア追加したらどうかな、と
2012/05/21(月) 21:04:55.29
ホットスペア持つなら最初からRAIDZ2の方がいいと思うが
細かくチェックしてトラブル時にすぐに入れ替える方がいい
細かくチェックしてトラブル時にすぐに入れ替える方がいい
2012/05/21(月) 21:12:45.39
それはそーだけど、そーゆーことじゃなく
今追加したら回復しないかな?って話
今追加したら回復しないかな?って話
2012/05/21(月) 21:21:42.04
10名無しさん@お腹いっぱい。
2012/05/21(月) 22:15:58.27 oiの場合、S.M.A.R.Tは何ていうアプリを入れれば
見れるんでしょう?
見れるんでしょう?
2012/05/21(月) 23:48:30.24
>>10
smartmontools
smartmontools
2012/05/22(火) 08:23:55.43
ZFSってHDDを個別識別出来たっけ?
ベタコピーで同じディスクと認識するならディスク4台用意してddした方が早いかもしれない。
ベタコピーで同じディスクと認識するならディスク4台用意してddした方が早いかもしれない。
2012/05/22(火) 18:49:31.29
>>10
/opt/SUNWhd/bin/hd
/opt/SUNWhd/bin/hd
14前スレ975
2012/05/22(火) 23:03:02.38 みなさん、お世話になってます。色々な提案や情報提供、感謝です。
まだ、作業中ですが、中間報告します。
代替機は土日に届いたのですが、結局そこにつなぎ換える作業はやめて、
バックアップ先として利用しました。
今回の故障機はiscsiターゲットとして利用していたのですが、故障直後は
認識できなくなってしまっていたのに、リセット後は認識できるようになり、
ボリューム内のファイルも読み込み可能でした。
そこでiscsiイニシエータ側から別サーバーにファイル単位でコピーしている最中です。
コピー1回目はIOエラーがかなり出て読めないファイルも多かった上に、
oi自体が勝手に落ちてしまう(電源OFFになる)という状態でした。
そこで一度電源OFFし半日程してからコピーをやり直した所、IOエラーが
発生していたファイルも読めるようになりました。内容はVMイメージ等、
巨大なファイルが多いのですが、テキストファイル類をcatで覗いてみた所、
正常な内容を確認できました(電源OFF前は読めなかった)。
こう考えると冷却が良かったように思えますし、今考えればOSの正常終了を
1週間も待ったりしないで、早々に電源OFFし1日ぐらい冷やす方がよかったのかも
知れないと思えてます。
まだコピー中ですが、コピーが終わったらVMを起動してみようと思います。
まだ、作業中ですが、中間報告します。
代替機は土日に届いたのですが、結局そこにつなぎ換える作業はやめて、
バックアップ先として利用しました。
今回の故障機はiscsiターゲットとして利用していたのですが、故障直後は
認識できなくなってしまっていたのに、リセット後は認識できるようになり、
ボリューム内のファイルも読み込み可能でした。
そこでiscsiイニシエータ側から別サーバーにファイル単位でコピーしている最中です。
コピー1回目はIOエラーがかなり出て読めないファイルも多かった上に、
oi自体が勝手に落ちてしまう(電源OFFになる)という状態でした。
そこで一度電源OFFし半日程してからコピーをやり直した所、IOエラーが
発生していたファイルも読めるようになりました。内容はVMイメージ等、
巨大なファイルが多いのですが、テキストファイル類をcatで覗いてみた所、
正常な内容を確認できました(電源OFF前は読めなかった)。
こう考えると冷却が良かったように思えますし、今考えればOSの正常終了を
1週間も待ったりしないで、早々に電源OFFし1日ぐらい冷やす方がよかったのかも
知れないと思えてます。
まだコピー中ですが、コピーが終わったらVMを起動してみようと思います。
15前スレ975
2012/05/25(金) 01:37:12.80 前スレ975です。
まだまだ復旧に時間がかかりそうなのですが、いい感じに復旧しつつあるのでご報告します。
故障機はiscsiイニシエータで、ファイルシステムは vmfs(ESX専用ファイルシステム)を利用していますが、
約50個ぐらいのVMが格納されていました。このうち、重要度が高かったり、バックアアップが古いのでなんとか
復旧したい物は1割程度なのですが、それらはほぼ全て復旧できました!
ファイル単位でscpでコピーしている最中なのですが、それぞれのファイルは、
1群. 何度アクセスしてもアクセス不能な物(ごく少ない)
2群. 何度かアクセスしているうちにアクセスできなくなってくる物(3割程度)
3群. 正常にアクセスできる物(7割程度)
というような感じです。2群のファイルは4、5時間マシンを止めてからアクセスすればまたアクセス
できる状況です。10分程度の冷却では無理でした。
そのような感じで順次、復旧している最中です。
将来、同じ状況に陥ってしまった場合、是非マシンの冷却を試みて下さい。
作業終了時にまたご報告します(しばらく先になりそうですが)
色々なノウハウをご教示頂き、ありがとうございました。
まだまだ復旧に時間がかかりそうなのですが、いい感じに復旧しつつあるのでご報告します。
故障機はiscsiイニシエータで、ファイルシステムは vmfs(ESX専用ファイルシステム)を利用していますが、
約50個ぐらいのVMが格納されていました。このうち、重要度が高かったり、バックアアップが古いのでなんとか
復旧したい物は1割程度なのですが、それらはほぼ全て復旧できました!
ファイル単位でscpでコピーしている最中なのですが、それぞれのファイルは、
1群. 何度アクセスしてもアクセス不能な物(ごく少ない)
2群. 何度かアクセスしているうちにアクセスできなくなってくる物(3割程度)
3群. 正常にアクセスできる物(7割程度)
というような感じです。2群のファイルは4、5時間マシンを止めてからアクセスすればまたアクセス
できる状況です。10分程度の冷却では無理でした。
そのような感じで順次、復旧している最中です。
将来、同じ状況に陥ってしまった場合、是非マシンの冷却を試みて下さい。
作業終了時にまたご報告します(しばらく先になりそうですが)
色々なノウハウをご教示頂き、ありがとうございました。
16前スレ975
2012/05/25(金) 03:09:13.44 訂正
故障機はiscsiイニシエータで、
↓
故障機はiscsiターゲットで、
故障機はiscsiイニシエータで、
↓
故障機はiscsiターゲットで、
2012/05/29(火) 00:18:55.82
なんか出てる
ttp://sparcv9.blogspot.jp/2012/05/illumian-available-for-download.html
ttp://sparcv9.blogspot.jp/2012/05/illumian-available-for-download.html
2012/05/29(火) 00:46:20.28
スレチかも知れませんが、教えてください。
OpenIndianaの151aにKVMをインストールしたのですが、/dev/kvmがありません。
手順としては
driver/i86pc/kvm、system/qemu、system/qemu/kvmインストール後再起動
BIOSがIOMMUに対応していなかったので、アップデート後有効
/dev/kvmが無かったので、インストールしたものを一度削除し再インストールしました。
インストールして正常に動作されている方、何かヒントをいただけたら。
OpenIndianaの151aにKVMをインストールしたのですが、/dev/kvmがありません。
手順としては
driver/i86pc/kvm、system/qemu、system/qemu/kvmインストール後再起動
BIOSがIOMMUに対応していなかったので、アップデート後有効
/dev/kvmが無かったので、インストールしたものを一度削除し再インストールしました。
インストールして正常に動作されている方、何かヒントをいただけたら。
2012/05/29(火) 09:02:36.33
20吠鉱山 ◆STCMXN/JPY
2012/06/01(金) 13:39:54.90 pfexec pkgutil -i -y hogehogeすき。
pfexec pkg install hogehoge死ぬほどきらい。
pfexec pkg install hogehoge死ぬほどきらい。
2012/06/07(木) 18:33:55.43
個人用ファイルサーバーにしてるOpensolarisからそろそろ乗り換えようかと思うんだが
Sol11とOIのどっちにするか悩む
ファイル共有関連の設定方法に違いが出てきてるし
Sol11とOIのどっちにするか悩む
ファイル共有関連の設定方法に違いが出てきてるし
2012/06/14(木) 03:25:32.73
zfsってWWNできちんと使える?
今、HDDの1台を交換しているんだけど、WWNが変わるせいで組み込めない
変な汗が出てきたよ
今、HDDの1台を交換しているんだけど、WWNが変わるせいで組み込めない
変な汗が出てきたよ
2012/06/14(木) 05:50:02.64
エラーメッセージ書いてみたら?
2012/06/14(木) 23:34:51.13
zpool replace がエラーになるってことなんかな?
2522
2012/06/15(金) 01:50:46.95 usr1@oi151a:~$ zpool status -v zpool
pool: zpool
state: DEGRADED
status: One or more devices has experienced an error resulting in data
corruption. Applications may be affected.
action: Restore the file in question if possible. Otherwise restore the
entire pool from backup.
see: http://www.sun.com/msg/ZFS-8000-8A
scan: scrub canceled on Mon Jun 11 20:59:18 2012
config:
NAME STATE READ WRITE CKSUM
zpool DEGRADED 703 0 0
c2t50014EE111111111d0 ONLINE 0 0 0
c2t50014EE222222222d0 ONLINE 0 0 0
c2t50014EE333333333d0 DEGRADED 703 0 10 too many errors
c2t50014EE444444444d0 ONLINE 0 0 0
errors: List of errors unavailable (insufficient privileges)
こうなっていたので、
pool: zpool
state: DEGRADED
status: One or more devices has experienced an error resulting in data
corruption. Applications may be affected.
action: Restore the file in question if possible. Otherwise restore the
entire pool from backup.
see: http://www.sun.com/msg/ZFS-8000-8A
scan: scrub canceled on Mon Jun 11 20:59:18 2012
config:
NAME STATE READ WRITE CKSUM
zpool DEGRADED 703 0 0
c2t50014EE111111111d0 ONLINE 0 0 0
c2t50014EE222222222d0 ONLINE 0 0 0
c2t50014EE333333333d0 DEGRADED 703 0 10 too many errors
c2t50014EE444444444d0 ONLINE 0 0 0
errors: List of errors unavailable (insufficient privileges)
こうなっていたので、
2622
2012/06/15(金) 01:51:55.41 電源切って別のHDDに入れ替えたら
usr1@oi151a:~$ dmesgzpool status -v zpool
pool: zpool
state: UNAVAIL
status: One or more devices could not be opened. There are insufficient
replicas for the pool to continue functioning.
action: Attach the missing device and online it using 'zpool online'.
see: http://www.sun.com/msg/ZFS-8000-3C
scan: none requested
config:
NAME STATE READ WRITE CKSUM
zpool UNAVAIL 0 0 0 insufficient replicas
c2t50014EE111111111d0 ONLINE 0 0 0
c2t50014EE222222222d0 ONLINE 0 0 0
c2t50014EE333333333d0 UNAVAIL 0 0 0 cannot open
c2t50014EE444444444d0 ONLINE 0 0 0
こうなった。接続先は同じなんだけどzfsには新しいc2t50014EE999999999d0は認識されない
usr1@oi151a:~$ dmesgzpool status -v zpool
pool: zpool
state: UNAVAIL
status: One or more devices could not be opened. There are insufficient
replicas for the pool to continue functioning.
action: Attach the missing device and online it using 'zpool online'.
see: http://www.sun.com/msg/ZFS-8000-3C
scan: none requested
config:
NAME STATE READ WRITE CKSUM
zpool UNAVAIL 0 0 0 insufficient replicas
c2t50014EE111111111d0 ONLINE 0 0 0
c2t50014EE222222222d0 ONLINE 0 0 0
c2t50014EE333333333d0 UNAVAIL 0 0 0 cannot open
c2t50014EE444444444d0 ONLINE 0 0 0
こうなった。接続先は同じなんだけどzfsには新しいc2t50014EE999999999d0は認識されない
2722
2012/06/15(金) 01:53:19.51 名前を指定してreplaceしようとしたら
usr1@oi151a:~$ zpool replace zpool c2t50014EE333333333d0 c2t50014EE999999999d0
cannot open 'zpool': pool is unavailable
poolがUNAVAILなのが駄目らしいので、ONLINEにしようとしても
usr1@oi151a:~$ zpool online zpool c2t50014EE333333333d0
cannot open 'zpool': pool is unavailable
これでもやっぱり駄目
usr1@oi151a:~$ zpool online zpool c2t50014EE999999999d0
missing device name
といわれてONLINEにできない、今ここ
usr1@oi151a:~$ zpool replace zpool c2t50014EE333333333d0 c2t50014EE999999999d0
cannot open 'zpool': pool is unavailable
poolがUNAVAILなのが駄目らしいので、ONLINEにしようとしても
usr1@oi151a:~$ zpool online zpool c2t50014EE333333333d0
cannot open 'zpool': pool is unavailable
これでもやっぱり駄目
usr1@oi151a:~$ zpool online zpool c2t50014EE999999999d0
missing device name
といわれてONLINEにできない、今ここ
2012/06/15(金) 02:31:20.20
もしかしてそれstripeなのか?
2012/06/15(金) 07:25:31.52
stripeだから次のようにメッセージが出てるわけだな
status: One or more devices has experienced an error resulting in data
corruption. Applications may be affected.
action: Restore the file in question if possible. Otherwise restore the
entire pool from backup.
冗長デバイス抜きのpoolがHDD交換で復旧すると思ってたんだろうか?
status: One or more devices has experienced an error resulting in data
corruption. Applications may be affected.
action: Restore the file in question if possible. Otherwise restore the
entire pool from backup.
冗長デバイス抜きのpoolがHDD交換で復旧すると思ってたんだろうか?
2012/06/15(金) 15:29:19.66
変な汗どころじゃ済まない話になってきたな
2012/06/15(金) 21:14:14.85
壊れたディスクをddなりでイメージコピーしてみる、位か……
2012/06/16(土) 01:33:19.76
壊れたHDDってddで読み出せるの?
2012/06/16(土) 02:10:13.51
元の状態でプールがDEGRADEDってことは辛うじてアクセスできんのか?
だったらその死にかけのHDD戻してある程度のデータは救えないのかな
だったらその死にかけのHDD戻してある程度のデータは救えないのかな
3422
2012/06/16(土) 03:02:05.22 あれ?stripe?
usr1@oi151a:~$ sudo zpool history | grep "zpool create"
2011-03-13.17:49:21 zpool create zpool c2t50014EE111111111d0 c2t50014EE222222222d0 c2t50014EE333333333d0 c2t50014EE444444444d0
あばばばば
pool作り直して首つってきます。
usr1@oi151a:~$ sudo zpool history | grep "zpool create"
2011-03-13.17:49:21 zpool create zpool c2t50014EE111111111d0 c2t50014EE222222222d0 c2t50014EE333333333d0 c2t50014EE444444444d0
あばばばば
pool作り直して首つってきます。
2012/06/16(土) 03:21:35.12
zpool statusの時点で気付けw
2012/06/16(土) 03:30:40.61
3722
2012/06/16(土) 12:05:20.60 >>36
自分の場合、被害を受けているのは最近書き込んだファイルのみで
それ以外の部分は問題がありませんでした。当然、HDDの壊れ方に
もよると思いますが。
しかし、運用中にWRITEでエラーが出ていないのにREADでNGって
いやですね。定期的にscrubしておけばよかった。
自分の場合、被害を受けているのは最近書き込んだファイルのみで
それ以外の部分は問題がありませんでした。当然、HDDの壊れ方に
もよると思いますが。
しかし、運用中にWRITEでエラーが出ていないのにREADでNGって
いやですね。定期的にscrubしておけばよかった。
2012/06/16(土) 15:25:46.64
2012/06/16(土) 18:02:35.09
2012/06/22(金) 23:14:38.88
copies=2
とか指定してたとするとstripeメンバが死んだ状態でもそれなりに生きてるファイルは読み出せる・・・
のではないかと予想はしているが実験してみたことはない。
あんまり使う予定が思いつかないがどうなんだろうな>copies
とか指定してたとするとstripeメンバが死んだ状態でもそれなりに生きてるファイルは読み出せる・・・
のではないかと予想はしているが実験してみたことはない。
あんまり使う予定が思いつかないがどうなんだろうな>copies
2012/06/22(金) 23:27:42.28
2012/06/22(金) 23:52:04.39
そのコピーって別のディスクにって言う保証は無かった気がする
2012/06/23(土) 02:38:04.65
zfsのマニュアルページにはこう書いてあるな
copies=1 | 2 | 3
Controls the number of copies of data stored for this dataset.
These copies are in addition to any redundancy provided by the pool,
for example, mirroring or RAID-Z.
The copies are stored on different disks, if possible.
「可能なら」別のディスクに書くみたいだな
しかし冗長性なしのpool選んでこれに期待するのって単なるバカだろw
copies=1 | 2 | 3
Controls the number of copies of data stored for this dataset.
These copies are in addition to any redundancy provided by the pool,
for example, mirroring or RAID-Z.
The copies are stored on different disks, if possible.
「可能なら」別のディスクに書くみたいだな
しかし冗長性なしのpool選んでこれに期待するのって単なるバカだろw
2012/06/24(日) 08:42:19.83
そんな奴は居ないので安心しろ
45名無しさん@お腹いっぱい。
2012/07/04(水) 00:58:48.08 oi_151a_prestable5来た
ttp://wiki.openindiana.org/oi/oi_151a_prestable5+Release+Notes
ttp://wiki.openindiana.org/oi/oi_151a_prestable5+Release+Notes
46吠鉱山 ◆STCMXN/JPY
2012/07/04(水) 14:25:09.50 もうopensolaris時代みたいにSPARC版出さないのかね。
47名無しさん@お腹いっぱい。
2012/07/05(木) 00:46:33.192012/07/13(金) 11:53:58.49
LSI の SAS HBA に Supermicro の JBOD を使っている時に、cfgadm -c
unconfigure を実行すると該当のスロットのランプは点灯してくれますか?
unconfigure を実行すると該当のスロットのランプは点灯してくれますか?
2012/07/13(金) 15:37:54.23
unconfigureで自動点灯させる意味がわからん
保守したいHDDの位置を示すならlocator使うだろ
JBODって本来はspanningのはずなのに
単純な複数HDD筐体までそう呼ぶ連中がいて紛らわしいな
保守したいHDDの位置を示すならlocator使うだろ
JBODって本来はspanningのはずなのに
単純な複数HDD筐体までそう呼ぶ連中がいて紛らわしいな
2012/07/14(土) 01:22:59.97
>>49
そういうオプションがあるのですね。
ディスクが故障した場合は、unconfigure -> locator=on -> 交換 -> locator=off -> configure という感じでしょうか。
よび方は JBOD chassis とよんだほうがいいですか?
そういうオプションがあるのですね。
ディスクが故障した場合は、unconfigure -> locator=on -> 交換 -> locator=off -> configure という感じでしょうか。
よび方は JBOD chassis とよんだほうがいいですか?
2012/07/14(土) 12:50:25.40
JBODでディスク交換なんてことになったらデータすっ飛んでるんじゃね?
2012/07/15(日) 00:24:47.66
ZFS で mirror を組もうと考えていて、ドライブが故障した場合に間違えずに
交換する方法があるのかと思い質問させていただきました。
ZFS は RAID カードを使わないことが推奨されているようですが、今は状況が
変わっていたりしますかね?
WriteBack Cache が付いた RAID カードなら RAID カードで RAID を組んだほうが
速いんじゃないかという気もしますが。
交換する方法があるのかと思い質問させていただきました。
ZFS は RAID カードを使わないことが推奨されているようですが、今は状況が
変わっていたりしますかね?
WriteBack Cache が付いた RAID カードなら RAID カードで RAID を組んだほうが
速いんじゃないかという気もしますが。
2012/07/15(日) 09:45:36.46
2012/07/15(日) 12:42:15.56
最初にスロットなりコネクタなりディスクなりにシールでも貼っとけばいいんじゃねーの?
あと、今時、生の UFS で使える程度の容量で我慢できるものなのかね?
どっちにしろ svm なり使うんだったら、zfs の方が管理上マシだと思うが
あと、今時、生の UFS で使える程度の容量で我慢できるものなのかね?
どっちにしろ svm なり使うんだったら、zfs の方が管理上マシだと思うが
2012/07/15(日) 14:42:51.42
2012/07/15(日) 14:43:49.37
>>54
いや、RAID はハードウェア RAID で作って、その上に ZFS を作るということです。
いや、RAID はハードウェア RAID で作って、その上に ZFS を作るということです。
57吠鉱山 ◆STCMXN/JPY
2012/07/15(日) 14:45:47.32 冗長性ェ…
2012/07/15(日) 14:56:33.26
#この手のバカって、なんで後付で条件増やすんだろう?
RAIDカードに金払わなくて済むならそのほうが安く上がるだろ
そも、なんでSSD付きのRAIDカードなんてものがあるんだろうねぇ?
RAIDカードに金払わなくて済むならそのほうが安く上がるだろ
そも、なんでSSD付きのRAIDカードなんてものがあるんだろうねぇ?
2012/07/15(日) 15:52:37.88
SSD付きのRAIDカードとははつみみです :)
2012/07/15(日) 15:53:39.20
ZFS って貧乏人のためのファイルシステム?
61吠鉱山 ◆STCMXN/JPY
2012/07/15(日) 16:10:48.86 そう思っていた時期が俺にもあr(ry
一回使ってみろよ。ちびるで。
一回使ってみろよ。ちびるで。
2012/07/15(日) 16:24:09.69
最近の LSI SAS 2208 速いですぜ。
2012/07/16(月) 18:35:20.88
>>60
本体メモリは逆に必要になるけどなw
本体メモリは逆に必要になるけどなw
2012/07/16(月) 19:10:20.92
>>60
金持ちじゃないと性能が出ません
金持ちじゃないと性能が出ません
2012/07/16(月) 19:20:36.50
ふむふむ...
Solaris 11, OpenIndiana, and NexentaStor benchmarks on ESXi 5.0
http://blog.b3n.org/2011/12/solaris-11-openindiana-and-nexentastor.html
Solaris 11, OpenIndiana, and NexentaStor benchmarks on ESXi 5.0
http://blog.b3n.org/2011/12/solaris-11-openindiana-and-nexentastor.html
66吠鉱山 ◆STCMXN/JPY
2012/07/16(月) 20:03:46.28 結構差があるもんだな…。
2012/07/21(土) 17:09:26.03
ちと教えて頂きたいのだけど、
OpenIndianaでpkg install使ってgccやmysqlなど落とした際、
BEが勝手に作成されて再起動を促されるが、以後GRUB直後で再起動を繰り返してしまう。
何かオペレーションが抜けているんだろうか?
インストールしたのはoi-dev-151a-text-x86.iso。
OpenIndianaでpkg install使ってgccやmysqlなど落とした際、
BEが勝手に作成されて再起動を促されるが、以後GRUB直後で再起動を繰り返してしまう。
何かオペレーションが抜けているんだろうか?
インストールしたのはoi-dev-151a-text-x86.iso。
68吠鉱山 ◆STCMXN/JPY
2012/07/21(土) 17:16:39.78 eだかcだか押してgrub書き直してみたらどーだい。
んでmilstone切って(メンテナンスモード?)で上がるかやってみる。
問題の切り分けにはなると思うんだけれど。
んでmilstone切って(メンテナンスモード?)で上がるかやってみる。
問題の切り分けにはなると思うんだけれど。
2012/07/21(土) 17:42:06.81
milestone=none指定でも上がらないようだった。
なんでだろ。
なんでだろ。
70吠鉱山 ◆STCMXN/JPY
2012/07/21(土) 18:25:37.16 今手元に86機が無いから確認しようもないのだけれど、恐らくgrubの指定が間違っているのが原因だと思うなぁ。
そういや86のopen使ってた頃、無理矢理updateしたら上がらなくなった(自業自得)
もし古いBEが残っているならそっちを試すしか。
そういや86のopen使ってた頃、無理矢理updateしたら上がらなくなった(自業自得)
もし古いBEが残っているならそっちを試すしか。
2012/07/21(土) 19:50:29.87
Ummm... システムが修正してくれてるのに頼ってるところもあるからなぁ。
Solaris11だったらうまくいったりするのかな。試してみる。
Solaris11だったらうまくいったりするのかな。試してみる。
2012/07/25(水) 19:58:37.38
H/W RAIDってそんな早いか?自由度下がるし。
2012/07/25(水) 21:41:53.62
MegaRAID SAS 9265-8iを使ってみなさい。
74吠鉱山 ◆STCMXN/JPY
2012/07/26(木) 11:15:16.85 仕様が同じでも、製品ごとで性能に凄く差が出るよね。
75吠鉱山 ◆STCMXN/JPY
2012/07/28(土) 00:57:33.19 メモ: Adobe Flash Player 11.2 はプラットフォームとして Solaris をサポートする最後のバージョンです。
BSDを思い出す…。
BSDを思い出す…。
2012/07/28(土) 06:10:15.42
Flash Player自体が時代遅れ
2012/07/28(土) 12:19:30.39
http://get.adobe.com/jp/flashplayer/otherversions/
ここ見ると Linux 版でも同じようなこと書いてあるし、
つうか Windows 版の方がもっと古くね?
>>76 の通りなのかも…
ここ見ると Linux 版でも同じようなこと書いてあるし、
つうか Windows 版の方がもっと古くね?
>>76 の通りなのかも…
2012/07/28(土) 19:05:09.65
そういやMOSのFlashバーションも廃止されたなw
79名無しさん@お腹いっぱい。
2012/08/07(火) 03:10:27.30 OpenSolarisって、Linuxでいうbondingドライバみたいなのないの?
80名無しさん@お腹いっぱい。
2012/08/07(火) 04:57:28.202012/08/14(火) 23:31:10.78
LSI SAS 2308 でデバイス名からスロットを特定するのには、
LSI から落してきた、SAS2IRCU を使うしかないんですかね?
cfgadm はこんなかんじでした。
root@solaris:~# cfgadm -x led c6::j5000ppn225q63669,0
cfgadm: Configuration operation not supported
root@solaris:~# cfgadm -x locator c6::j5000ppn225q63669,0
cfgadm: Configuration operation not supported
LSI から落してきた、SAS2IRCU を使うしかないんですかね?
cfgadm はこんなかんじでした。
root@solaris:~# cfgadm -x led c6::j5000ppn225q63669,0
cfgadm: Configuration operation not supported
root@solaris:~# cfgadm -x locator c6::j5000ppn225q63669,0
cfgadm: Configuration operation not supported
2012/08/15(水) 19:54:17.04
そういや io 151a5 出てたで。
2012/08/18(土) 04:58:20.14
2012/08/31(金) 00:48:58.36
SchilliX 0.8 release
2012/09/03(月) 13:07:23.18
151a5でストライプミラーからraidz2に移行しようと思って、vdevをzfs send | receiveしたら、zfs listのusedが、元のと比べて倍になってもうた。
どなたか経験した方います?
どなたか経験した方います?
2012/09/03(月) 22:05:25.75
2012/09/04(火) 18:05:42.00
oi_151a_prestable6 Release Notes
ttp://wiki.openindiana.org/oi/oi_151a_prestable6+Release+Notes
ttp://wiki.openindiana.org/oi/oi_151a_prestable6+Release+Notes
2012/09/04(火) 21:35:37.47
アップデートでカーネルパニック祭りを喰らったからp5をクリーンで入れて環境構築終わったばっかりなのにorz
89名無しさん@お腹いっぱい。
2012/09/04(火) 23:15:04.152012/09/05(水) 02:36:37.23
2012/09/05(水) 19:50:18.09
最近活発だな。
プロジェクトリーダーの退任と、なんか関係あるのか?w
プロジェクトリーダーの退任と、なんか関係あるのか?w
2012/09/06(木) 03:47:32.36
AndroidのカーネルっていうかLinuxと呼ばれるものを全て取り除いて
Android/OpenSolarisや
Android/Illumos
って事にできるの?
Android/OpenSolarisや
Android/Illumos
って事にできるの?
2012/09/06(木) 09:00:45.91
やってみ。
2012/09/06(木) 11:28:09.36
>>93
可能なのか可能じゃないのか知りたいんだけど。。
可能なのか可能じゃないのか知りたいんだけど。。
2012/09/06(木) 11:32:34.85
やってみればわかるよ。
やるつもりがないなら答え知ってもしょうがないよ。
やるつもりがないなら答え知ってもしょうがないよ。
2012/09/06(木) 11:42:50.46
ARM版illumosが存在しないから、x86版Androidでやるか、
illumosをARMに移植する作業からやることになるけど、不可能ではないはず
illumosをARMに移植する作業からやることになるけど、不可能ではないはず
2012/09/06(木) 14:04:35.72
ARM版OpenSolarisはあるな
2012/09/06(木) 21:53:11.80
>>94
可能
可能
2012/09/06(木) 21:53:41.38
>>94
不可能
不可能
2012/09/06(木) 22:33:54.50
素粒子レベルの可能性でもいいなら
2012/09/07(金) 01:11:28.08
>>94
お前が責任もってやつなら可能
お前が責任もってやつなら可能
レスを投稿する
ニュース
- ネット殺到「高市総理の責任」「完全に高市リスク」「負けるな」中国が水産物輸入停止→流石に総理批判の声も「どう責任取る?」 ★3 [樽悶★]
- 中国外務省局長 「ポケットに手を入れていたのは寒いから」 日本との局長級会談で ★3 [お断り★]
- 高市首相「台湾有事」発言引き出した「立憲・岡田克也氏」に聞いた質問の真意「これはマズイ発言だと」少しずらしてみたが焼け石に水 ★2 [ぐれ★]
- トランプ氏、女性記者に「ブタ、静かに」 エプスタイン元被告めぐる質問さえぎる [1ゲットロボ★]
- 【株価】日経平均、上げ幅一時2000円超 5万円台を回復 [蚤の市★]
- 【米中関係】中国、米国産大豆84万トン輸入 他国産より高値で購入… [BFU★]
- 副大臣経験者「そもそも高市首相は円安のデメリットを理解していなさそう」閣僚の側近「政権で円安についてよく理解していない人がいる」 [812874503]
- 【高市悲報】母から「男性客を射精させたら終わりだから」告げられ…タイ人少女が労働か [947959745]
- 吉村知事「あのさぁ、中国人観光客の頼るのやめようよ?他のエリアの人に来てもらうとかもっと考えようよ?中国依存してないでさァ!」 [856698234]
- 日経新聞さん、中国をおちょくってしまう… 大丈夫か?日本人 [271912485]
- 日本人「な、なぜだ?なぜこの件で日本を助けてくれる国が0カ国なんだ!?」。日本人、さすがに気づく [805596214]
- 議員「我々も物価高で苦しいんだ!」 [256556981]
