OpenSolaris/Illumos (OpenIndiana, etc.) 6
OpenSolaris/Illumos プロジェクト、派生ディストリビューション総合スレ
Sun/Oracle からリリースされる本家「Solaris」に関しては専スレでお願いします
前スレ:OpenSolaris/Illumos (OpenIndiana, etc.) 5
http://toro.2ch.net/test/read.cgi/unix/1285876800/
OpenSolaris 公式サイト http://opensolaris.org/
Illumos 公式サイト http://illumos.org/
Genunix(OpenSolaris コミュニティ/ミラーサイト) http://genunix.org/
[ディストリビューション一覧]
・ OpenIndiana http://openindiana.org/
(OpenSolaris distro == Indiana の実質的後継、Solaris とバイナリ・パッケージ互換)
・ Nexenta OS http://nexenta.org/
(Solaris/Illumos カーネルと Debian/Ubuntu ユーザランドの組み合わせ)
・ StormOS http://stormos.org/
(Nexenta ベースのデスクトップ向けディストリビューション)
・ AuroraUX http://auroraux.org/
(通常の x86、AMD64 に加え、PowerPC にも対応)
・ Jaris http://jaris.jp/
(日本発のプロジェクト)
・ Belenix http://belenix.org/
・ SchilliX http://schillix.berlios.de/
・ MilaX http://milax.org/
・ etc. >>2の[ディストリビューション一覧] だけど、大分現状とは異なってるので直したほうがよさそう。
[ディストリビューション一覧]
・ OpenIndiana http://openindiana.org/
(OpenSolaris distro == Indiana の実質的後継、Solaris とバイナリ・パッケージ互換)
・ Illumian http://www.illumian.org/
(Solaris/Illumos カーネル・ユーザランドとAPTパッケージ管理システムの組み合わせ
NexentaCore後継)
・ NexentaStor http://nexenta.org/
(Solaris/Illumos カーネルと Debian/Ubuntu ユーザランドの組み合わせによるストレージサーバ用OS)
・ StormOS http://stormos.org/
(Nexenta ベースのデスクトップ向けディストリビューション)
・ OminiOS http://omnios.omniti.com/
・ SmartOS http://smartos.org/
(以下のディストリビューションは長期間更新なし)
・ AuroraUX http://auroraux.org/ (消滅)
(通常の x86、AMD64 に加え、PowerPC にも対応)
・ Jaris http://jaris.jp/ (消滅)
(日本発のプロジェクト)
・ Belenix http://belenix.org/ (消滅)
・ SchilliX http://schillix.berlios.de/
・ MilaX http://milax.org/ おはようございます。前スレ>>975です。新スレ乙です。
ご報告遅くなりすいません。代替機は用意できたのですが、前スレ>>989の段階でscanが
終了していなかったため、一応それを待っていました。先ほどscanが終わり、以下の状態になりました。
pool: tank
state: DEGRADED
status: One or more devices has experienced an error resulting in data
corruption. Applications may be affected.
action: Restore the file in question if possible. Otherwise restore the
entire pool from backup.
see: http://www.sun.com/msg/ZFS-8000-8A
scan: resilvered 118G in 39h45m with 271168 errors on Mon May 21 05:12:12 2012
config:
NAME STATE READ WRITE CKSUM
tank DEGRADED 0 0 2.95M
raidz1-0 DEGRADED 0 0 11.4M
spare-0 DEGRADED 0 0 660
c6t1d0 FAULTED 0 0 0 too many errors
c3t5d0 ONLINE 0 0 0
c6t2d0 DEGRADED 0 0 0 too many errors
c6t3d0 DEGRADED 0 0 0 too many errors
c6t4d0 REMOVED 0 0 0
spares
c3t5d0 INUSE currently in use
errors: 271145 data errors, use '-v' for a list
SMART情報ですが、SATA2とSATA5の2台でBADが発生しています。やっぱり物理的に2台に
問題が発生してしまっているようです。ダメっぽいですね。
一応、これから代替機につないでみます。
http://www.oracle.com/technetwork/jp/content/1202-1500-ords-zfs4-251476-ja.pdf
以前ここに貼られてたやつけど、この資料によるとHD1台破損時の
再構成失敗率がRaid5で2〜20%、Raid6でほぼ0%らしいから
スペア追加ではなくRaidZ2に移行してみては? いや、そーゆー話じゃなくて
現状の構成にスペア追加したらどうかな、と ホットスペア持つなら最初からRAIDZ2の方がいいと思うが
細かくチェックしてトラブル時にすぐに入れ替える方がいい それはそーだけど、そーゆーことじゃなく
今追加したら回復しないかな?って話 >>8
Applications may be affected.
って言ってる時点で回復は難しいぞ
読めなかった部分が読めるようになれば別だが oiの場合、S.M.A.R.Tは何ていうアプリを入れれば
見れるんでしょう? ZFSってHDDを個別識別出来たっけ?
ベタコピーで同じディスクと認識するならディスク4台用意してddした方が早いかもしれない。 みなさん、お世話になってます。色々な提案や情報提供、感謝です。
まだ、作業中ですが、中間報告します。
代替機は土日に届いたのですが、結局そこにつなぎ換える作業はやめて、
バックアップ先として利用しました。
今回の故障機はiscsiターゲットとして利用していたのですが、故障直後は
認識できなくなってしまっていたのに、リセット後は認識できるようになり、
ボリューム内のファイルも読み込み可能でした。
そこでiscsiイニシエータ側から別サーバーにファイル単位でコピーしている最中です。
コピー1回目はIOエラーがかなり出て読めないファイルも多かった上に、
oi自体が勝手に落ちてしまう(電源OFFになる)という状態でした。
そこで一度電源OFFし半日程してからコピーをやり直した所、IOエラーが
発生していたファイルも読めるようになりました。内容はVMイメージ等、
巨大なファイルが多いのですが、テキストファイル類をcatで覗いてみた所、
正常な内容を確認できました(電源OFF前は読めなかった)。
こう考えると冷却が良かったように思えますし、今考えればOSの正常終了を
1週間も待ったりしないで、早々に電源OFFし1日ぐらい冷やす方がよかったのかも
知れないと思えてます。
まだコピー中ですが、コピーが終わったらVMを起動してみようと思います。
前スレ975です。
まだまだ復旧に時間がかかりそうなのですが、いい感じに復旧しつつあるのでご報告します。
故障機はiscsiイニシエータで、ファイルシステムは vmfs(ESX専用ファイルシステム)を利用していますが、
約50個ぐらいのVMが格納されていました。このうち、重要度が高かったり、バックアアップが古いのでなんとか
復旧したい物は1割程度なのですが、それらはほぼ全て復旧できました!
ファイル単位でscpでコピーしている最中なのですが、それぞれのファイルは、
1群. 何度アクセスしてもアクセス不能な物(ごく少ない)
2群. 何度かアクセスしているうちにアクセスできなくなってくる物(3割程度)
3群. 正常にアクセスできる物(7割程度)
というような感じです。2群のファイルは4、5時間マシンを止めてからアクセスすればまたアクセス
できる状況です。10分程度の冷却では無理でした。
そのような感じで順次、復旧している最中です。
将来、同じ状況に陥ってしまった場合、是非マシンの冷却を試みて下さい。
作業終了時にまたご報告します(しばらく先になりそうですが)
色々なノウハウをご教示頂き、ありがとうございました。
訂正
故障機はiscsiイニシエータで、
↓
故障機はiscsiターゲットで、
なんか出てる
ttp://sparcv9.blogspot.jp/2012/05/illumian-available-for-download.html スレチかも知れませんが、教えてください。
OpenIndianaの151aにKVMをインストールしたのですが、/dev/kvmがありません。
手順としては
driver/i86pc/kvm、system/qemu、system/qemu/kvmインストール後再起動
BIOSがIOMMUに対応していなかったので、アップデート後有効
/dev/kvmが無かったので、インストールしたものを一度削除し再インストールしました。
インストールして正常に動作されている方、何かヒントをいただけたら。
>>18
カーネルモジュールがロードされてないとか
ハードウェアの対応が不十分とか pfexec pkgutil -i -y hogehogeすき。
pfexec pkg install hogehoge死ぬほどきらい。 個人用ファイルサーバーにしてるOpensolarisからそろそろ乗り換えようかと思うんだが
Sol11とOIのどっちにするか悩む
ファイル共有関連の設定方法に違いが出てきてるし zfsってWWNできちんと使える?
今、HDDの1台を交換しているんだけど、WWNが変わるせいで組み込めない
変な汗が出てきたよ zpool replace がエラーになるってことなんかな? usr1@oi151a:~$ zpool status -v zpool
pool: zpool
state: DEGRADED
status: One or more devices has experienced an error resulting in data
corruption. Applications may be affected.
action: Restore the file in question if possible. Otherwise restore the
entire pool from backup.
see: http://www.sun.com/msg/ZFS-8000-8A
scan: scrub canceled on Mon Jun 11 20:59:18 2012
config:
NAME STATE READ WRITE CKSUM
zpool DEGRADED 703 0 0
c2t50014EE111111111d0 ONLINE 0 0 0
c2t50014EE222222222d0 ONLINE 0 0 0
c2t50014EE333333333d0 DEGRADED 703 0 10 too many errors
c2t50014EE444444444d0 ONLINE 0 0 0
errors: List of errors unavailable (insufficient privileges)
こうなっていたので、 電源切って別のHDDに入れ替えたら
usr1@oi151a:~$ dmesgzpool status -v zpool
pool: zpool
state: UNAVAIL
status: One or more devices could not be opened. There are insufficient
replicas for the pool to continue functioning.
action: Attach the missing device and online it using 'zpool online'.
see: http://www.sun.com/msg/ZFS-8000-3C
scan: none requested
config:
NAME STATE READ WRITE CKSUM
zpool UNAVAIL 0 0 0 insufficient replicas
c2t50014EE111111111d0 ONLINE 0 0 0
c2t50014EE222222222d0 ONLINE 0 0 0
c2t50014EE333333333d0 UNAVAIL 0 0 0 cannot open
c2t50014EE444444444d0 ONLINE 0 0 0
こうなった。接続先は同じなんだけどzfsには新しいc2t50014EE999999999d0は認識されない 名前を指定してreplaceしようとしたら
usr1@oi151a:~$ zpool replace zpool c2t50014EE333333333d0 c2t50014EE999999999d0
cannot open 'zpool': pool is unavailable
poolがUNAVAILなのが駄目らしいので、ONLINEにしようとしても
usr1@oi151a:~$ zpool online zpool c2t50014EE333333333d0
cannot open 'zpool': pool is unavailable
これでもやっぱり駄目
usr1@oi151a:~$ zpool online zpool c2t50014EE999999999d0
missing device name
といわれてONLINEにできない、今ここ stripeだから次のようにメッセージが出てるわけだな
status: One or more devices has experienced an error resulting in data
corruption. Applications may be affected.
action: Restore the file in question if possible. Otherwise restore the
entire pool from backup.
冗長デバイス抜きのpoolがHDD交換で復旧すると思ってたんだろうか? 壊れたディスクをddなりでイメージコピーしてみる、位か…… 元の状態でプールがDEGRADEDってことは辛うじてアクセスできんのか?
だったらその死にかけのHDD戻してある程度のデータは救えないのかな あれ?stripe?
usr1@oi151a:~$ sudo zpool history | grep "zpool create"
2011-03-13.17:49:21 zpool create zpool c2t50014EE111111111d0 c2t50014EE222222222d0 c2t50014EE333333333d0 c2t50014EE444444444d0
あばばばば
pool作り直して首つってきます。 >>33
比較的軽傷な単一ディスクのプールならやったことあるけど
ストライプメンバーだとどうなるんだろうな? >>36
自分の場合、被害を受けているのは最近書き込んだファイルのみで
それ以外の部分は問題がありませんでした。当然、HDDの壊れ方に
もよると思いますが。
しかし、運用中にWRITEでエラーが出ていないのにREADでNGって
いやですね。定期的にscrubしておけばよかった。 >>32
「正常に」読み出せるかどうかは、運次第
conv=noerror とかして、とにかく読めるところだけでもコピーするって話 >>37
SATA HDDだとREAD ERROR発生で終了というパターンが基本じゃね?
代替領域がある限りこそっと処理してるからSMART見てなきゃ気付かないはず copies=2
とか指定してたとするとstripeメンバが死んだ状態でもそれなりに生きてるファイルは読み出せる・・・
のではないかと予想はしているが実験してみたことはない。
あんまり使う予定が思いつかないがどうなんだろうな>copies
>>40
そのはず…だけどおれも試したことないわw
RAIDZかミラーするから そのコピーって別のディスクにって言う保証は無かった気がする zfsのマニュアルページにはこう書いてあるな
copies=1 | 2 | 3
Controls the number of copies of data stored for this dataset.
These copies are in addition to any redundancy provided by the pool,
for example, mirroring or RAID-Z.
The copies are stored on different disks, if possible.
「可能なら」別のディスクに書くみたいだな
しかし冗長性なしのpool選んでこれに期待するのって単なるバカだろw oi_151a_prestable5来た
ttp://wiki.openindiana.org/oi/oi_151a_prestable5+Release+Notes もうopensolaris時代みたいにSPARC版出さないのかね。 >>46
出したいけどSPARC用の人員が足りてないらしい
我こそはと思う人はぜひ名乗り出てほしいそうな LSI の SAS HBA に Supermicro の JBOD を使っている時に、cfgadm -c
unconfigure を実行すると該当のスロットのランプは点灯してくれますか?
unconfigureで自動点灯させる意味がわからん
保守したいHDDの位置を示すならlocator使うだろ
JBODって本来はspanningのはずなのに
単純な複数HDD筐体までそう呼ぶ連中がいて紛らわしいな >>49
そういうオプションがあるのですね。
ディスクが故障した場合は、unconfigure -> locator=on -> 交換 -> locator=off -> configure という感じでしょうか。
よび方は JBOD chassis とよんだほうがいいですか? JBODでディスク交換なんてことになったらデータすっ飛んでるんじゃね? ZFS で mirror を組もうと考えていて、ドライブが故障した場合に間違えずに
交換する方法があるのかと思い質問させていただきました。
ZFS は RAID カードを使わないことが推奨されているようですが、今は状況が
変わっていたりしますかね?
WriteBack Cache が付いた RAID カードなら RAID カードで RAID を組んだほうが
速いんじゃないかという気もしますが。
>>52
ZFSのメリットなくてもいいなら、
それでも良いんじゃ。
ま、好きにしろって事だが。
最初にスロットなりコネクタなりディスクなりにシールでも貼っとけばいいんじゃねーの?
あと、今時、生の UFS で使える程度の容量で我慢できるものなのかね?
どっちにしろ svm なり使うんだったら、zfs の方が管理上マシだと思うが >>53
raw disk を使うメリットって何?
WriteBack Cache を使うと、ZIL を SSD に置かなくても、
書き込みが遅くならないというメリットがあるけど。 >>54
いや、RAID はハードウェア RAID で作って、その上に ZFS を作るということです。 #この手のバカって、なんで後付で条件増やすんだろう?
RAIDカードに金払わなくて済むならそのほうが安く上がるだろ
そも、なんでSSD付きのRAIDカードなんてものがあるんだろうねぇ? そう思っていた時期が俺にもあr(ry
一回使ってみろよ。ちびるで。 ふむふむ...
Solaris 11, OpenIndiana, and NexentaStor benchmarks on ESXi 5.0
http://blog.b3n.org/2011/12/solaris-11-openindiana-and-nexentastor.html
ちと教えて頂きたいのだけど、
OpenIndianaでpkg install使ってgccやmysqlなど落とした際、
BEが勝手に作成されて再起動を促されるが、以後GRUB直後で再起動を繰り返してしまう。
何かオペレーションが抜けているんだろうか?
インストールしたのはoi-dev-151a-text-x86.iso。
eだかcだか押してgrub書き直してみたらどーだい。
んでmilstone切って(メンテナンスモード?)で上がるかやってみる。
問題の切り分けにはなると思うんだけれど。 milestone=none指定でも上がらないようだった。
なんでだろ。 今手元に86機が無いから確認しようもないのだけれど、恐らくgrubの指定が間違っているのが原因だと思うなぁ。
そういや86のopen使ってた頃、無理矢理updateしたら上がらなくなった(自業自得)
もし古いBEが残っているならそっちを試すしか。 Ummm... システムが修正してくれてるのに頼ってるところもあるからなぁ。
Solaris11だったらうまくいったりするのかな。試してみる。 H/W RAIDってそんな早いか?自由度下がるし。 MegaRAID SAS 9265-8iを使ってみなさい。 仕様が同じでも、製品ごとで性能に凄く差が出るよね。 メモ: Adobe Flash Player 11.2 はプラットフォームとして Solaris をサポートする最後のバージョンです。
BSDを思い出す…。 http://get.adobe.com/jp/flashplayer/otherversions/
ここ見ると Linux 版でも同じようなこと書いてあるし、
つうか Windows 版の方がもっと古くね?
>>76 の通りなのかも… そういやMOSのFlashバーションも廃止されたなw OpenSolarisって、Linuxでいうbondingドライバみたいなのないの? >>79
dladm create-aggr とか...
LSI SAS 2308 でデバイス名からスロットを特定するのには、
LSI から落してきた、SAS2IRCU を使うしかないんですかね?
cfgadm はこんなかんじでした。
root@solaris:~# cfgadm -x led c6::j5000ppn225q63669,0
cfgadm: Configuration operation not supported
root@solaris:~# cfgadm -x locator c6::j5000ppn225q63669,0
cfgadm: Configuration operation not supported
151a5でストライプミラーからraidz2に移行しようと思って、vdevをzfs send | receiveしたら、zfs listのusedが、元のと比べて倍になってもうた。
どなたか経験した方います? >>85
copies = 2 になってるとか?
REFERが同じならUSEDが違うのはusedbysnapshotsとかチェックしてみるとか oi_151a_prestable6 Release Notes
ttp://wiki.openindiana.org/oi/oi_151a_prestable6+Release+Notes アップデートでカーネルパニック祭りを喰らったからp5をクリーンで入れて環境構築終わったばっかりなのにorz >>86
ありがとうございます。
確認してみます。 >>88
今回はバグと脆弱性対応だからISOファイル無しと書かれていて
アップデートしかできないはずだから安心しろ 最近活発だな。
プロジェクトリーダーの退任と、なんか関係あるのか?w
AndroidのカーネルっていうかLinuxと呼ばれるものを全て取り除いて
Android/OpenSolarisや
Android/Illumos
って事にできるの? >>93
可能なのか可能じゃないのか知りたいんだけど。。 やってみればわかるよ。
やるつもりがないなら答え知ってもしょうがないよ。 ARM版illumosが存在しないから、x86版Androidでやるか、
illumosをARMに移植する作業からやることになるけど、不可能ではないはず 151a6に上げたらGUIが立ち上がらなくなった。困った。 151a5をクリーンインストールしてstorage-serverを追加して順調に動いていたのに
初めて再起動したら数分でカーネルパニックのループに突入した。
aggr0に使ってるe1000g*のhostname.*を消してなかったので起動時にplumb出来ないというエラーが出てたので削除したのと
何となく信用できないbge0のケーブルを引っこ抜いたら無事起動した。もちろんケーブルはその後で刺した。 OpenIndianaのコンパイル環境ってどのパッケージを入れれば良いんでしょうか? 原因はやはりbge0でした。
panic時のスタックトレースにbgeが出てたので条件を調べてたんですが
bgeでvlanの仮想nicを作ってると起動時にbgeにケーブルが接続されているときにpanicします。
別の物理nicにvlanを設定すると再起動してもpanicしなくなりました。 追記
L2スイッチの方でタグ付きVLANのパケットを流すようにしてあるとやっぱりpanicしました。
bge関係はvlanを扱わないようにして解決しました。 ストレージ鯖用に使ってみたいんだけどテンプレにあるNexentaStorでおk? LACPで全くリンクしないので気がついたんですがaggrに組み込んだnicの状態変化を全く認識しなくなってました。
色々試しても改善しないのでデバイス認識からやり直してdladm+ipadmで設定し直したところ
bgeの問題も含めて、とりあえず安定したようです。
コンパイラに関しては以下を登録しpkg search sun studioで解決しました。
InfiniBandについて語るスレ
ttp://toro.2ch.net/test/read.cgi/hard/1305552336/463
>463 :不明なデバイスさん :2012/03/12(月) 19:00:47.75 ID:oBZTj5fF
>>>460
>pkg set-publisher -g http://pkg.openindiana.org/legacy opensolaris.org
>パッチの当たってない SunStudio12.1 を再配布してるらしい。
>
>ttps://www.illumos.org/projects/illumos-gate/wiki/How_To_Build_Illumos 肝心のコンパイルが通らないので結局gccのパッケージを入れましたorz …bgeドライバって実はαレベル?
またpanicループしてたので全通信をaggrのvlanに集約した。
これで二週間問題なければbgeのイーサネットポートは捨てる。
e1000のクアッドポートnicを突っ込んだしもういいやorz
よく考えたらbgeは151に成ってから使えるようになったんだから安定してるかわからんよなぁ… zfs bootでインストールしたいのですが、現状はmirror以外の構成は不可能ですか? あ、ごめんなさい。raidzプールにインストールしたかったんです。 むりっぽ
単体からミラー構成にしようとしたらinstallgrub忘れててそのまま元のディスクを外したもんだから…どっちのディスクでも起動しなくなりましたorz
起動環境のセレクタも出ないからブートセレクタかそれいぜんの問題っぽいのはわかるんだけどMBRとか関係あったっけかなぁ…
マウントしてgrubのファイルを弄って…あかん一日コースや XStreamOSっていうIllumosベースの新しいディストリビューションが出た
ttp://www.sonicle.com/index.jsp?pagename=xstreamos&parent=products >>117
27日にOpenIndianaベースのディストリビューションのSPARC用LiveDVDが出た。
試してみるといいかも。
ttp://wiki.openindiana.org/oi/MartUX_OpenIndiana+oi_151a+SPARC+LiveDVD フレームバッファはXVR-1000や1200対応してるのね。凄い。 まだまだ完成度が低いな…。
# X11go.shで落ちちゃうし。 不手際でトラブったけどやっぱり好きだわ、これ。
sparcマシン探してみようかな。 zfs snapshotでout of spaceとか言われるからなんでだろうと思ったらボリュームのスナップショットはそのままのサイズで領域予約がくるのか。
どうすれば回避できるんだろう。 oi_151a_prestable7 Release Notes
ttp://wiki.openindiana.org/oi/oi_151a_prestable7+Release+Notes
今回はISOファイルあり >>124
zvol -s付きで作ればいいんじゃね?
それでも足りないなら、pool増やすしか無いとおと思うが。
>>126
シン・プロビジョニング、マニュアルには非推奨になってるけど、うーん…。
かといってマシン間でボリュームをsend&recvするためだけにプールを倍以上のサイズにするのも…。
うーむ、そもそもvolumeのリザーブがそのままのサイズなのが問題なんだからコレ弄って何とかならんか。
…と思ってzfs get allしたらsend&recvで別マシンに行ったり来たりしたvolumeのreservasionとrefreservasionがnoneになっとる。
volsizeが変わってないって事は、え?もしかしてrecvの時ってリザーブが強制ゼロ??? >>128
あっちゃー(__;
そこまで読んでなかったよ。ありがとう。次からプロパティを持ってくか検討する。 かなり前に、opensolaris のカーネルをAndroidに移植しようっていった人ですけど。
やったらどうなるのかなー?
普通のAndroidに比べて動作は遅くなる? Androidってのは Linuxの上に作ってあるんじゃなくって、下や横に拡張してある。
Linux捨てて他の既存 OS持ってくるのはたぶん大変。 >>132
まずAndroidをわかってなさそうだから。 意味がわからない話題に無理に参加しなくていいです。 「Android用に」カーネル移植なら理解できるが
「Androidに」カーネル移植というところがバカっぽい
様々な知識と技術を要する別アーキテクチャへの移植と改造を
こんなゆるい頭の持ち主がやれるとは思えないんだよな どうせ、「仮定の話なので〜」で、自分のことを棚に上げて話し出すんだよ。 ん?Solaris上でAndroidアプリ動かそうって話じゃないよな?
Androidとかどうでもいいだろ。
Android端末でSolarisを動かそうという前提なら、
ARM版Solarisはあったろ。あれをベースに改造だ。
ドライバは、x86で動くAndroidあるぐらいだから、x86 Solarisのが割りと流用きくとみた。
がしかし、わーいSolarisが動いたぐらいで、モチベが保てる作業じゃないだろうな。
面白そうではあるが。 Androidの上に仮想マシン立ててそこで動かすって話じゃないのか? 皆さん浅い知識の僕が馬鹿な質問をしてしまいすみません。
Androidのカーネル、Linuxの部分を切り取りそれに相当する物をOpensolaris 持ってきてAndroidのカーネルにすり替えたいという魂胆です。
それ、AndroidのユーザーランドをIllumous下に移植って言わんか?
Illumous+debianのIllumianやらあるので不可能だとは思わないが
滅茶苦茶大変であろうことは想像に難くない。
AndroidのユーザーランドなんてLinuxカーネルべったりだろうしね。
>>142
なに言ってるのかさっぱり分からんぞ・・・
まずは日本語の勉強からだな。 >>144
んと、Androidは共有メモリとかプロセス間通信とか独自拡張してて、
アプリはそれ使いまくり。ユーザーランドじゃなくて、カーネルに大幅に
手が入ってる。分離も悪い(のが Androidのやり方がまずいのか Linuxの
作りがわるいからなのかまでは知らんw) とにかく、今のAndroidと殆ど変わりなく動いてくれて、Linuxという名前がつかない物がほしいんです。
AndroidがLinuxと言われてるのはカーネルがLinuxだからですよね?
だから、Linuxカーネルを取り除いて他の何かを入れたかったんです。
できますか? >>148
技術があれば出来るよ。
その技術力が有るかどうかは知らないけどねw >>148
ライセンスとか考えずに、ただ出来るか出来ないかでだけで言えば、出来る。
ただ、それをやるためには、OS 1個作るくらいの時間と労力が必要になるかもだが、
それでもやってみたいなら、やれば?
その辺からファイル落としてきて、installとかで出来ないの?レベルの話なら、出来ない。
自分で作れ。 スマホにも「intel inside」、Intel製CPUのAndroidスマホが直輸入、モトローラ「RAZR i」
ttp://akiba-pc.watch.impress.co.jp/hotline/20121020/etc_motorola.html
これでいいでないかい? Atomという名前のプロセッサが載っていてもPC用とは違う件 >>148
> とにかく、今のAndroidと殆ど変わりなく動いてくれて、Linuxという名前がつかない物がほしいんです。
なんで? OpenSolarisベースで、Android互換な「新規の」OSを、開発するしかないかも。
Androidの、非 Linuxなコード部分を使えるのかどうか知らんが。
Solarisと、Linuxはソースの構成はかなり違うと思うぞ。 皆さんありがとうございます。
やはり
難しいのですね。
兎に角Linuxという名前がつかないスマホのOSがほしいんです。
そんなに難しい事なのですか?
>>156
> 兎に角Linuxという名前がつかないスマホのOSがほしいんです。
なんで?
なんか知らんけどへんなとこ気にしすぎじゃね? >兎に角Linuxという名前がつかないスマホのOS
WindowsとiOSがあるよ
オープンソースがいいっていうなら、iOSのコア部分はDarwinだから、Solarisでやるより簡単だよ 難しいというより誰もやりたがらない。
メリットがないから。 >>156
難しいけど、きっと君ならできるよ。
そのLinuxを憎む気持ちをバネにしてがんばれ。 Darwin()、って……
OpenIndianaと比べても遜色ないレベルの完成度だぞ、PureDarwin
>>156
TRONあたりから、一から作れば?
はっきり言って、こことは関係ないから別の場所でやってね。 >>164
それならiOS使っとけという話もあるw いやiOSではなくて、Androidのアプリケーションも使えるLinuxって名前がつかない物が必要なんです。
OpenSolarisのAndroidに使われてるLinux相当の物を利用したかったのですが、皆さんがおっしゃる様にそんなに難しいのですか?
メリットがないって、、、 >>168
実装する上で何がハードルとなるかわかる人でないと無理
それがわかっても実装できるわけでもない
できるとしても時間がかかりすぎるという問題もある
そもそもソフト開発経験あるの? まだNetBSDあたりベースにした方が現実味あると思う。
スレチなのでここまでで。 >>168
>Androidのアプリケーションも使えるLinuxって名前がつかない物が必要なんです。
なぜそんなものが必要なのかまったく理解できん。
節々で「そんな難しいの?」みたいな調子で聞いてるけど
ユーザランド含めたOSを組み上げることのハードルも理解・解釈できないような人が
そんなOSを必要とするケースがマジでわからん。 難しいかどうか聞いてどうするんだろ。
自分でやる気はぜんぜんないみたいだけど、
どこかに発注するつもりなの? 発注なんてしないよ。
それを使って儲ける気もない。
ただ、とりあえず動く最初の段階は楽にクリアしたいなと思って。
それから色々と改良しながら改良する技術も身につけたいなと思ってて。
頑張れば東大だって行けるよね!んで何すればいい?
と訊いてまわる落ちこぼれ学生みたいな 何すればいい?って聞くなら一応向上心があるように見えるだろ。でもこれ
頑張って東大行きたいです、難しいですか? 可能ですか? ってしつこく聞いてるだけじゃないか
もっと酷いわ とりあえず東大に入る最初の段階は楽にクリアしたいなと思って。
それから色々と勉強しながら卒業できる学力も身につけたいなと思ってて。
こんなこと言ってたら病院を紹介されてもおかしくない。 まず、Androidの Linuxからの拡張部分を分離して、それをマイクロカーネルの
サーバーとしてどっかにくっつけるのがいいんじゃないか。
Chorusとか。もうないんだっけ?w ああ、Springがいいじゃんww
QNXとか Minix3とか。 >>181
Linuxは本当に嫌いなんです。
技術的な欠陥がカーネル部分で幾つもありそうだし、
なんか本当の所でだれもセキュリティやマシンがどう振る舞うのか等に興味や理解がなさそう。
フリーで皆でやってるわけだから、前の時代の開発に関わってきた人達が気がつかなかったバグは
ずーっとそのまま気が付かず放置されてそう。
そして新しく開発に加わった人達は前の時代の人達の作った物は
完璧だから確認しなくて良い的な感じでまた新たなバグが見つかる。
マルチコアの処理や並列処理さらにはマイクロカーネル的な要素を網羅したカーネルを作っておけば
ハードウェアのフラグメントにも今のLinuxよりは対応できるし、アプリケーション等が重要だから
Androidのアプリケーション等が使えたらなお良い。
あと、パソコンよりも携帯よりのソフトウェアに強いのがAndroidでしょ?
そういった理由で、LinuxカーネルじゃないAndroidのOSが必要。 >>183
> 技術的な欠陥がカーネル部分で幾つもありそうだし、
想像で言われてもな。 >>183
>技術的な欠陥がカーネル部分で幾つもありそうだし、
思い込みじゃね?
>なんか本当の所でだれもセキュリティやマシンがどう振る舞うのか等に興味や理解がなさそう。
思い込みじゃね?
>フリーで皆でやってるわけだから、前の時代の開発に関わってきた人達が気がつかなかったバグは
>ずーっとそのまま気が付かず放置されてそう。
思い込みじゃね?
>そして新しく開発に加わった人達は前の時代の人達の作った物は
>完璧だから確認しなくて良い的な感じでまた新たなバグが見つかる。
思い込みじゃね? なんにしても、Linux ユーザには「root loginを正しいと考えてる」輩が多いから困るんだよね。
あ、これはFreeBSD系も一緒か。
やっぱRBACで適切に「権限分離」した環境で暮らしたいよね。
とはいえ、ついつい自分の作業アカウントには「Primary Administrator」権限を付与しちゃうんだけどさ(笑) 頭がおかしいのはわかっていたが思っていた以上におかしかった >>183
お前がそう思うんならそうなんだろう、お前ん中ではな(AA略 >>183
「...そう」って、言われてもなぁ。つーか、具体的な根拠もなくそんなこと
言っても、誰も相手してくれないだけかと。
それに、「Linux」を何に置き換えても、そのまま成立すると思うよ、その文章。
OpenSolarisでも Oracle Solarisでも、AIXでも HP-UXでも MacOS Xでも
FreeBSDでも NetBSDでも。程度の差はあるけど。
まあ、IBMや SGIの偉い人たちがさんざんいじって、直らなかった(受け入れ
られなかった)という感じはオレも持ってるけどね。 「難しいですか」とか「嫌い」とかばっかで
具体的に何をするって話がぜんぜん出てこないね。 iPhon/iPad欲しいけど高くって買えません><
androidスマホではりんご持ちのリア充共に馬鹿にされちゃうんです;;
だからOIカーネルの、なんかすげぇOS乗っけたスマホでやつらを見下してやりたいんです
そんな電波を受信してみたんだけど合ってる?>>183
>>198
スルースキル持ってるなら、ここで出てきちゃダメだろw
もう一回鍛え直し! 洗練されたDDI/DKIとフレームワークで組み上げられた
Solarisのカーネルが美しいのは間違いない。
それにくらべてLinuxのフリーダムなこと。異論は認めない。 AMD “Piledriver” FX-8350 on OpenIndiana
ttp://blog.davekoelmeyer.co.nz/2012/10/24/amd-piledriver-fx-8350-on-openindiana/ OpenIndianaでAMD FXシリーズは安くコア数がほしい人以外おすすめしない UNIXのようなマルチコア対応に優れたOSの利用者なら
安くコア数がほしくない人っていないんじゃね
まぁ裏の意味は分かる
FXはシングルコアあたりの性能がivy比で低いと言いたいのだろ 3DNowなどが削られ一部のバイナリが動かなかったり
AES-NIなどの新機能を認識しないという話があった galaxyが切られたからな
オープンソースコミュニティ()のやつらには新機能の追加はムリか?w なんかSolaris11と差が開いちゃったなぁ。
Solaris11ってもう公開されないのか? そのうち公開すると幹部がぬかしてたけど絶賛放置中
あの襟損が積極的に公開するとは思えないし芽は無いだろう >>209
ごめんちゃい
最近、OIいじってないことがばれましたね 一次情報も過去レスも確認しないままキターと騒ぐタイプだな 複数OIマシンを使って1つの冗長化されたストレージ(iscsiとかnfsとか)に見せるクラスタみたいなことってできる? 情報少なすぎて何これ状態だな
DRBDみたいな物はないんだろうか 複数のNFSサーバが提供するNFSを統一された名前付けで利用しやすくするだけ pNFS (NFS v4.1) はどれくらい使えるんだろう? ZFSでraidz2や何やで堅牢にしていってもマシンごと死んだら結局意味ないよね ま、そんな時には zfs send, recv で。もしくは NetApp で snap mirror とか 外付けだったら他のマシンに繋ぐだけでいいからな
RAID筐体ごと死んだ時は復旧面倒 定期バックアップが頻繁にやりやすいだけで、置いてるvmやらdbやらの動作状態と直近データは全損で手動復旧作業必須だからな>zfs send
残念ながらdrbdで常時レプリケーションしてるLinuxには数段劣る 定期バックアップとレプリケーションをくらべる男の人って >>225,227
とはいえ、drbdはチューニングが面倒。
特にHartbeatと共存させている場合なんか、すぐにSplit Brainが起き易い。
ついでに言うと、Ethを複数束ねてもLinux bondingだと「速度倍増」が望めないというのも痛い。
drbd相当の機能がSolarisに実装されると嬉しいんだけどねぇ。 よくわからんのだけど
LUの実体が何かなんて別に気にしなくても良いと思うのでiSCSIターゲット箱を複数用意して専用鯖で束ねるってのはダメなの?
これなら鯖死んでもデータはそこに無いから新鯖で束ね直せば良いだけでいけやしないかな。 意図はわかるし多少前進してるが、それはHDDがeth経由になって自由度が上がるだけで、上で言われてるような、
いずれかのストレージマシンが死んでもクライアントからは隠蔽されるような仕組みがいるんじゃまいか 別に家鯖に高可用性まで求めてないからマシン死ぬのは別に構わん、と思ってたが
一度電源トラブルでPCに繋がってるHDD全部飛ばして以降別マシンにsend/recvするようになったw ちょっとまて。
zfsは電源トラブルなんかじゃデータ飛ばないだろ?
燃えたとか? >>235
冗談で言ってるのか?
HDDが全台起動しない状況で、zfsとか関係ないだろう。 >>235
アレイ構成してるHDDが全部同時に逝ったのよ。過電流かなんかで基板が逝った。 ふとlastコマンドでログイン履歴を追っていたら、作成した覚えのないjackユーザでログインした形跡があって
今、青ざめています。
当該oiマシンは、ネットからすぐに外し、slocate jackしたら、
/var/cache/gdm/jack
/var/cache/gdm/jack/dmrc
が引っ掛かってきました
ちなみにls -la /var/cache/gdm/jack/dmrcすると
-rw-r--r-- 1 65432 staff 24 201*-**-** 20:04 /var/cache/gdm/jack/dmrc
となっていて、65432がjackユーザらしいのですが、
/etc/passwdファイルにはjackユーザは存在しません >239
| OpenSolaris Project: Indiana の Get the OpenSolaris..
| ...のぺージからダウンロードして起動してみる。..
| Username "jack"、Password "jack" でログイン。 そういえば、「お名前」のVPSでSolaris動かした人って居る?
ttp://www.onamae-server.com/vps/spec/ あふぉやったかなぁ・・・
買ってきてすぐのHDD(WesternDegital製 1TB SATA3)を、フォーマットも何もせんでPCに繋いで、Solaris11をDVDからインストール開始。
一応出来そうなんで進めてみたら、インストール中のフォーマット作業で、もう10時間以上経っている・・・
前もってフォーマットしておくべきだったのだろうか?それともPC自体がぶっこわれだろうか。それともSolaris11が(ry
PCはCore2Duoでメモリ4G。さすがに10時間ねぇだろうと思うんだけど・・・しかもほとんど進んでない気配。
HDDもCPU周辺も全く熱持ってなくて、ほんとに作業してんのか?と思ってしまうレベル。
なんなんだろう。 そもそもWD緑には、低速病という持病が発症することがってのは置いといて、
「インストール中のフォーマット作業」って何? newfs してるって事? >>253
ディスク表面のサーフェースチェックを実行しているとか?
もしそうなら記録媒体の機能確認なので飛ばしても影響はないよ。 DVDドライブのIFでトラブってて超低速で動いてたらそれくらい時間がかかっても不思議じゃ無い。 oiって4TBのHDDでも認識大丈夫?
本場のZFSに初めて手を出そうと思うんだけど。 OpenIndianaじゃ本場のZFSにならないか。
Solaris取ってこよ。 >>259
4TBは試したことないが3TBは大丈夫だった
ちゃんと4KBセクターになってる(特に指定はしてない)
あ、起動ディスクとしては試してない oiは最新じゃないだけで一応本場のZFSなんじゃない? SPARC用のIllumosベースのディストリビューションOpenSXCEが出たよ!
ttp://www.opensxce.org >>259,261
AFTのHDD使う場合は気を付けて。
/kernel/drv/sd.confに設定を行ってからzpool createを行わないと、
アラインメントがずれた状態になる。
設定方法の詳細はここ。
ttp://wiki.illumos.org/display/illumos/ZFS+and+Advanced+Format+disks
アラインメントがずれてるかどうかの確認はzdbコマンドを実行すればashiftの値でわかる。
ashift=12ならばアラインメントは正しい。
>>260,262
Oracle SolarisのZFSはバージョン33
OpenInianaやFreeBSDのZFSはバージョン28 OpenillmosのZFSは独自拡張初めてんじゃなかったっけ?feature@〜って形で。
OpenIndianaだと151a5だったかa6辺りで取り込まれてたと思った。
こいつを有効にすると、zpoolのバージョンは5000とかになるはず。
Oracleが最新のZFSソースの公開やめたからしょうが無いんだけれど。
で、これを元にしてるFreeBSDも確か9-stable辺りにはもう取り込まれてような。
試したことは無いけど、独自拡張を有効にすると多分本家Solarisには
そのままimport出来ないんじゃないかなー。 sparc版良いけど、GUIとか対応してるんだろうか >>264
自分がやった時は何もしなくてもちゃんとashift=12になってた。
ディスクによるんだろうな。確認は必要だな。 インストールするときのキーボードはどちらを選べばいいの? 23のJapaneseが正解みたいです。
22のJapanese-Type6では半角全角で記号が入力されます。
157aでは日本語入力ができないのですが、何かしないといけないとかありますか? ネットで検索したらでてきました。
iBusをいれればいいらしい。 いきなりrootパスワードの変更が必要みたいです。
コンソールでsuをする必要があるみたいです。 iBusとAnthyをインストールしましたが、半角全角が効きません。使い勝手がちょっと悪いです。
何か設定が必要でしょうか? よく分かりませんが、日本語入力が不安定みたいです。 UbuntuかMac OSXあたりがあっていると思う。 Solarisは鯖専用OS。日本語入力なんてしません。
キーボードも英語キーボード。というか、リモート専用なのでキーボードも付けません。 自作機用のマザーを流用するとキーボード付けないと何かと面倒なんだよね… >>281
KBDなしでもError出ない設定ができるものが多いと思うが >>283
ハードウェアレベルのリモート管理が無いからって意味じゃね?
ブート段階から弄ることになると色々めんどくさい。 OpenIndianaのバージョンアップが止まってるので、
OmniOSへ移行しようとテストしてるけどtopとか結構パッケージが絞られてちょっと使いづらい。
最悪自前でパッケージ作れば良いんだろうけど、微妙な差があるのが・・・ 久しぶりにsshログインして、zpool statusを見たら、
こんな表示が...
status: The pool is formatted using an older on-disk format. The pool can
still be used, but some features are unavailable.
action: Upgrade the pool using 'zpool upgrade'. Once this is done, the
pool will no longer be accessible on older software versions.
>Once this is done, the pool will no longer be accessible on older software versions.
が怖くて、zpool upgradeする決心がつきません... 新機能不要ならupgradeも不要だから放ってある illumos系のZFS使ってる所は、もうそのVer使い出してるから、
純正Solaris使わないなら、そこまで気にすることも無いかと。
少なくともFreeBSDは9-stableに修正入った。
なのでBSDベースのNASも9.2-RELEASEベースから新バージョン使い出す事になるかと。
他は調べてないけど、Oracleがsource非公開にしちまってるから、
結局、Solarisとillumosの2系統に分かれちゃうのは、しょうが無いんだよな。 ORACLEってJavaの問題にしても、本当に迷惑かけるの得意だよな。 >>286>>289
ZFS on Linuxでも最近のrcからはZFS Feature Flagsに移行してるな。
>>287>>288
zpool status -xでも毎回出てくるから地味に迷惑だったりする。 大きなお世話の警告がイヤならソースいじって出なくしたら? OpenSolaris の ARM ポートはどっかにあったよね NECでやったやつでしょ? ベースには使ってんじゃない? zfsのメタデータ(DDT含む)を別のデバイスプールに置くってできるんだっけ?
なんかの思い違いかな。検索ワードが分からん・・ >>298
無理。
ZILとかと勘違いしてるんじゃね? あら。もう繋がらないぞ。3/24じゃなかったのか。 なんで良い技術を作り出した会社が長持ちしないんだろうね
いつも不思議に思うところだ。 不治痛にSunが買える甲斐性があれば、まだOpenSolarisは生きていただろうか。 よい技術を次々作り出せる会社というのは
悪く言えば幼稚だがタレントのある人種が集まるところだからだろう
別の言い方をすれば商売に頓着しないということだ TVで言えば、プラズマパネル作っていた会社が市場原理に負けて撤退したようなもの。 >>306
「サポートできる人的リソースが無い」って理由で早々に捨てられるだろうね。
確か、未だにx86/64系はサポート外じゃなかったっけ>FJ 不治痛からも旧sunのx64鯖買えるよ
PC鯖のprimeなんちゃらではsolarisサポートしてないけど
中の人のインタビュー記事ではlinux押しだった あーごめん>>310は嘘
solaris11でもSolaris Premier Subscriptionに入れるモデルがあるね
詳しくはhclをどうぞ >>307
> 悪く言えば幼稚だがタレントのある人種が集まるところだからだろう
幼稚なのはおまえだ。 Sunみたいな会社には技術バカをうまく扱える経営陣が必要で
目の前のカネしか見えない事務畑の勢力が強くなると滅亡する
マクネリがバトンタッチした頃にはもう終わってたな >>314
ttp://solaris.java.net
ただし主要なものだけ 自社製品どうしじゃなきゃ接続できなかった囲込みジョーシキの業界に
Sunがオープンという単語で殴込みかけて、つい先日まで存続してたこと自体が
ある意味奇跡なんだよ。
オープンソースじゃなきゃオープンじゃないとか言ってるエセオープン企業だけが
結局残った。つまらん。 >>318
ちょっとマテw
残りの3人を言って味噌。 FSFは非営利だから、そこに入れるならMozilla Corpかな(Mozilla財団のほうではなく) OpenIndiana入れてると、wake on lanで起動できなくなったりします?
同機種PCにWindows入れてるのは起動できてるんですが。 >>322
WoLの為には、確かシャットダウン時にそのための処理を
NICに設定しなきゃならなくて、
そいつをやるのはドライバの仕事だった気が。
ドライバがWoLに対応してないと、その設定が出来ずに、
WoL出来ないはず。 日本語入力できた。安定している。
ibusがいいみたい。 前は.profileに記述する方法をしていたのが悪かった見たいです。
ibusを自動起動するように設定したら、問題無く使えます。
Mageiaより完成度が高いです。 ,, _
/ ` 、
/ (_ノL_) ヽ
/ ´・ ・` l Solarisは死んだんだ
(l し l) いくら呼んでも帰っては来ないんだ
. l __ l もうあの時間は終わって、君も人生と向き合う時なんだ
> 、 _ ィ
/  ̄ ヽ
/ | iヽ
|\| |/|
| ||/\/\/\/| | ,, _
/ ` 、
/ (_ノL_) ヽ
/ ´・ ・` l OpenIndianaは復活するんだ。
(l し l) 悲しみの弔鐘はもう鳴り止んだ。
. l __ l 君は輝ける人生の、その一歩を、再び踏み出す時が来たんだ。
> 、 _ ィ
/  ̄ ヽ
/ | iヽ
|\| |/|
| ||/\/\/\/| | Open-Soralis初心者だけど質問ある?
何でも聞け。
知らないこと以外はたいてい知っている。 不良セクタ出たHDDを一時的にzfsで使用する必要がある場合、
セクタの登録なんかはどうすればいいのかな?
若しくはzpoolでエラーカウントが増えても切り離さないような設定(?)とか SATAは自動代替だろ
代替領域使い果たしたHDDは捨てる zpool っても色々だが、少なくとも raid-z 系ならそう簡単に切り離されたりしない
死んでる部分が重なってなければ、普通に読めたりするし、死んでれば死んでるなりに
取り敢えずは動く
とは言え、下手の考え休むに似たりと言うか、とっとと交換すべき 代替不能になったHDDを再フォーマットして問題なく使えてる!
オレってプロだよな!とドヤ顔してるバカってたまにいるよねw 一時的に使用する必要がある場合と断ってるでしょ
人がいないからって空想で相手作っちゃだめよー
>>335
マシン環境によっては簡単に切り離されるよ。
mirror系ばかり使ってるのでraid-z系だと挙動が違うのかもしれないが、
タイムアウトするのか1カ所でも出るとカウント急増してdegrade化するHBAがある。
エラー原因にも寄るようだがカウントは1〜3程度で微増する場合と、
50〜3桁以上に急増して切り離される場合に2極化してる気がするな。 readonlyでimportしてもダメなんだろうか? SCSIならdefect list登録
SATAなら代替処理できずエラー出た時点で交換
アホな工夫を考えるよりもさっさと交換
予備くらい買っとけと
>>337
エラー原因によってエラーの増え方が違うってそりゃ当たり前じゃないかと
HBA依存ってどんなの? >>338
使用する必要があると書いてんだからエラー出て外してあったヤツを
完全に死んだHDDの代わりに間に合わせで使いたいってことだろ?
だったらimportだのreadonlyは関係ない とりあえず、Bad Sectorが出たSATAのHDDを一時的とはいえ使用する場合に必要なのは
覚 悟
だけじゃないか?
>339
安いNASでもS.M.A.R.T.情報を監視してて、閾値を超えると即エラー返して来るヤツもあるけどね。 >>341
監視はHBAじゃなくてドライバやデーモンでやってるヤツじゃね?
そうだとすればHBA依存じゃなくてシステム依存だろ そういう時は迷わず ufsdump | ufsrestore でしょ
それ以外の余計なことは考えない方がいい ZFSの絡んだ話題にufsdump/ufsrestore持ち出すとかw >>339
今時のzfs配下でもdefect list 使えるのか ! じゃあanalyzeかけるだけか
しかしなんともローテク感溢れるのでSATAやSSDでも使えるzfsレイヤから指定する方法とかもほしいなそれは
不良セクタに当たった場合に代替だけしてdegradeに落ちなければいいんだがどういう閾値なんだろうか
HBAによってはシングルドライブでLD設定してるとドライブエラー生じた際に
自動リトライかなにかするらしくsolarisから見てタイムアウトして一撃degradeとかいろいろ。
主にファームやドライバが腐ってる訳だがsolarisだしな。変な気をまわさない低機能HBA使えってのは頷ける。
>>340
exactly.
全数載せる実験で在庫HDDが足りんとかその程度の用途なのでデータの安全とか運用とか関係ない話題なんだが
なぜかSATAで長期運用中のストレージのディスク交換だと確信している方々が
>>343
だ、だまされないぞー(棒) >>345
いや、エラー出たとか、返事かえってこねーディスク
をとっととディスって何が悪いってのが、FS側の意見。
> HBAによってはシングルドライブでLD設定してるとドライブエラー生じた際に自動リトライかなにかするらしく
こんな事やってる”HBA”はシラネ。
普通のSATAなら、HDD自身が諦めるまで、返事かえってこねー事はあるが、
こいつはHBA関係ねぇ。
とっととエラー返すHDD使えってー事だ。 >>345
ファイルシステムやディスクドライバで代替ブロックを確保・割当すんのと
ディスク内部にある代替処理とはレイヤが全然違う
SCSI HDDにはdefect list管理があるからまだいじる余地はあるけど
SATA HDDなら普通はひっそり自動代替されて回復不能エラー報告時には
もう予備領域を使い果たしてたりするから管理もクソも交換しかない
LDってRAIDコントローラのlogical disk/driveのつもりか?
そういうシッタカくさい略記すんなよ
ディスク状態監視まで備えてたりする高機能コントローラ持ち出して
HBAによってはとかアホにしか見えない
あと背景説明しなかったくせに意図しないレスでファビョるのはカコワルイ
黙ってgrown defect list登録やっとけ 全数載せるだか何だか知らんけど、壊れたディスクでディスクが壊れた場合以外の実験なんて意味有るのかねぇ? > ファイルシステムやディスクドライバで代替ブロックを確保・割当すんのと
> ディスク内部にある代替処理とはレイヤが全然違う
そんなバカな..
> SCSI HDDにはdefect list管理があるからまだいじる余地はあるけど
そんなバカな..
> SATA HDDなら普通はひっそり自動代替されて回復不能エラー報告時には
> もう予備領域を使い果たしてたりするから管理もクソも交換しかない
そんなバカな..www
そんなんもう何十年も前から SCSIも ATA(IDE)もいっしょだつーのwwww
ディフェクト管理で退避だとかデバイス側の SCSIコントローラーと
HDD間が ESDIで接続されてたような頃の話だぞ。
> ディスク状態監視まで備えてたりする高機能コントローラ持ち出して
> HBAによってはとかアホにしか見えない
そんなバカな..k.k そういやエンプラ用途のディスクには自動代替処理なんて無いって聞いたな
エラー出たらコマンド打って明示しないとやってくれないとか… その手の物は、そもそもRAIDで使われること前提だし。
HDDはリカバリなんかしなくて良いから、読めないなら読めないとさっさと答えろぼけ、
リカバリ?そんなもんこっちでやるから、早く返事しろ、アホ!仕事貯まってんだよ!
ってのが、業務用RAIDカードの仕様だからな。
で、結果が酷くなったら、HDD切り離し。 >>352
一番困るのが、何度もリトライに行って返ってこないパターンだからな
とっととエラーで返して欲しいもんだ ん?ってことはもしかしてWDのRedってそういう仕様なのかな。
あれSATAだけどNAS用でRAID前提のディスクだよね。 >>354
TLER/CCTL/ERCとか言われてる奴だな。(メーカーによって呼び方がまちまち)
一応リトライはするけど、設定された時間で終わらなければ、Timeoutして、ホストに通知する機能。
現状だと、各社のニアライン向けは全部、コンシューマー向けだと
WDのRedとVelociRaptor、HGST/東芝の全部に付いてる。WDの前記以外と
Seagateのコンシューマー向けは無し。
ただ、東芝はこの先どうなるかは不定、現状はまだHGST時代のファーム使ってるから使えるけど、
独自に作り出すと、どうなるか分からん。
ちなみに、HGST/東芝のは設定を記憶しないので、電源入れる度に再設定が必要。
Redは使ったこと無いけど、多分一緒な気がする。
(機能が有効のままRAID以外で使われると、場合によっては問題になる場合が。)
RAIDカードスレで、HGSTを薦められてたのはこの辺りも関係してる。 設定可能項目が標準実装ならクラッシュディスクのddとかのtipにふつーにあると思う。
たぶん変更不可だったり、そもそもそんな設定自体が存在しなかったりそんな話かと。 >>346
どこのFSか知らんがZFSはエラー出たからといってそう簡単には分離しないポリシーだぞ
>>356
上で出てるけど、HDDが諦めてエラー返してきてもHBAがリトライしちゃう場合がある
逆パターンとしてディスクが長時間無応答になったのでリセット発行→ループ でスピンアップ繰り返しとかも
Disk側がやってる場合と区別付きにくいが 本家の方見限ってこちらに乗せ変えたのですが、sjtoeucと打つとそんなコマンド無いって言われて、
パッケージ入れ忘れかと思い探して見たけどSJISもEUCも無いみたいですね・・・
日本語対応はUTFだけのようですが何か理由があるのでしょうか?
SJISやEUCのサポートは復活しますか? Solaris10のマニュアル見ると SUNWjfpuとあるから、それに入ってるかと。
JLE(SunOS 4.x時代(!)の日本語環境ね)の互換性保持のためのものだから、
もういいんでないw?
要るんならシェルスクリプトで iconvのラッパー書いとけば。
iconv -f SJIS -t EUC-JP 本家の方見限ってこちらに乗せ変えたのですが、
gcc -static hoge.cと打つとlibc.aが無いって言われて、
パッケージ入れ忘れかと思い探して見たけど無いみたいですね・・・
ライブラリ対応はsharedだけのようですが何か理由があるのでしょうか?
libc.aのサポートは復活しますか? oiでZFS mirrorな自宅ファイルサーバを立ててから、およそ一年経ちましたが
HDDの価格も落ち着いてきたので、HDD3本構成に移ろうかと思います。
移行するためには、現在稼働中のHDDと同容量の物を、2本追加し、
その内、1本を飛び石のようにしてファイルを移していくしかないんでしょうか やりたい事と使えるリソースを「俺用語を用いずに」書かないと適切な回答は得られないと思うよ
以下、俺なりにエスパー
ギリギリまで節約したい、移行時には冗長性はなくてもいいって話なら、ミラー解除一本+新規追加一本に
スパースファイルで raid-z 組んで、ミラーの残りから zfs send+recieve その後ミラー側を zpool destroy で
raid-z 側に追加とか出来なくもないと思うよ まさかとは思うけど、ZFS mirror は起動ディスクになってないよね? >>365
なってないです。rpoolとは別のプール(ミラー)に外に見せるファイルを置いてます。
ZFSのroot(rpool?)をミラーに出来るほどの技量は無いので...
>>363は、↓のようなあまりひねりの無い方法で考えてました
1.現行ミラープールを構成してるHDDと同容量のHDD2本(仮にHDD A、HDD B)を用意する
2.1.で用意したHDD Aにプールを作る。
3.現行のミラープールのファイルを2.で作ったプールに移す
4.現行のミラープールをdestroyする
5.HDD Bと元ミラーHDD2台の合計3台でRAID-Zプールを作る
6.HDD Aのプールのファイルを5.のRAID-Zプールに移して完了。
でも>>364のスパースファイル使う方法が非常に魅力的なので、
VirtualBoxで予行演習してみようと思います。
とか言っても、一番危ないのはコマンド打ったり、SATAケーブル抜き差しする自分自身だったりするからな... >>366
それなら
現在のmirror(仮にC,D)のうちDをdetachする
A,B,Dでraidzを構成
単体となったCからraidzにzfs send
というのでいいんじゃないの?
それをさらにスパースファイルでHDD節約するというのが >>364 なるほどなー。縮退させておいて移行後にリプレイスするのか。
ZFSでmirror→RAID-Zに変更する手順の作業ログ
http://www.sonorilo.net/2010/07/07/2735 ◆じゃあのさん来た!◆
917:以下、名無しにかわりましてVIPがお送りします[]
2013/05/23(木) 22:25:46.82 ID:MT5ZqnSp0
ようおまいらwwwwよりしくやってっか?wwww
俺か?www俺は元気だwwww
--- 以下スレ情報 ---
高岡さんがフジ韓流ゴリ押し批判したら干されたのでウジテレビ凸
http://hayabusa.2ch.net/test/read.cgi/news4vip/1369316645/ zfsでraid5〜6みたいな実装が追加される予定ってないの?
read遅すぎなんだが raid5よりraidzのreadが遅いのは環境のせいだったのかー
てっきり仕組み上仕方ないのかと思っていたよ
で、具体的にどんな環境ならそうなるのかなー? 「zfsでraid5〜6みたいな実装」が既にあることを理解出来ないお前の頭が悪い zfsにはraid5~6みたいな機能はすでにあるがraid5~6を実装しているわけでナイ。
性能が悪いのはraidzのせいだがzfs的にはそこはraidzに文句を言わずにプール中のアレイ増やして解決しろ。
だっけ?
つくづく個人向けじゃねーわ>zfs はいはい、ついでにSolarisやめてLUMIXに戻してくださいw 結局raidzが遅いのは変わらずか
とっととraid5的な実装も追加してほしいね
H/W RAID5でzpoolつくって〜とかやりたくないんだがやってみたら十分速度出るんだよなw >>382
ディスク20発に64GB位積めば
速度出るんじゃね?
元々そういうもんだし。
ディスク一桁台のシステムなんて、考えてねーぞ、元から。
それで遅いといわれても、はいそうですかって感じ。 このバカの脳内にある「raid5的な実装」ってのを見てみたいな
NetAppだってEMCだって「IOPS稼ぎたいなら、ディスク増やせ」って言ってくるってのに スケール可能という話と、スケール必須という話を勘違いしている
10台以上前提とかどこに書いてあるんだ? Readを速くしたいならSSDをキャッシュとして突っ込め >>382 はSoftware RAID-5 の書き込みホール問題とかどう考えてんの? SSD200GBのL2ARCとSSD16GBのZILを突っ込んでるけど速くなったって気はしないなぁ…
でも仮想マシンの台数の割に反応速度が落ちないって実感はある >>377
>つくづく個人向けじゃねーわ>zfs
個人は最初から相手にしてません、
というか個人の方はうっとうしいから使わないでお帰りください >>385
誰もスケールの話しなんてしてない、
あなたが、ZFSの仕組み分かってないだけ。
ZFSで性能を求めたいなら、ディスクを増やせと。
IOPS稼ぐには、VDEVを増やすしか無い、
特にVDEVにRAIDZ/Z2を使う場合な。
3発のRAIDZを、5つ位纏めてプール作れば、
そこそこいけんじゃねーの。
つか、そもそも、どの程度の速度ほしいのか、
提示してないよな?お前。 とりあえず、zfsでSSDをcacheに置くなら
ttps://blogs.oracle.com/yappri/
辺りを熟読するのが鉄板じゃね? なんかHDD本数増やせとかがんばってる人いるけど他と比べてRaidzが遅いのが原因じゃないの?
ZFSに読み込み速い実装が追加されるなら俺は大歓迎なんだが何が気にくわないのかねぇ
単に速度がほしいなら全部SSDにすればよくね?わざわざHDD本数増やす意図が分からんよ… だったらZFS以外使えばよくね?
ディスク増やせって言ってるのは、
ZFSがどう言うものか、わかった上でアドバイスしてるだけで。
別に無理してZFS使えなんて、誰も言ってないし。 「RAID5は速い」「raid-zは(遅いので)RAID5的な実装ではない」
とか、脳内で決めつけてるバカに何をどう説明しても無駄だろう
「速い」とか「遅い」が具体的に示されてない段階でこいつがバカなことは明らかだし >>393
おまえがそーすりゃ良いんじゃねーの?
Oracleがソースクローズにしたおかげで、
そうそうZFSの根本的なところに手はいんねーよ? いやいや、RAID5は分かるでしょ
誰かさん脳内の「RAID5的な実装」が分からんだけで 新着レスがここしばらくぶりの伸び具合だったんで、OIの新展開がキタのかと思ったら・・・ raid5バカもアレだが、この個人キチガイも大概だな
対消滅すればいいのに >>396がわかってなさそうだがraidzとraid5は全く別だぞ
raidzがraid5に比べて読み込み遅いのは誰もが認める事実 raidzが遅いのはzfsゆえだろ?
zfsで速いraid5とやらを作るのは不可能なんじゃね? まぁ、RAID5とARCやL2ARCなしのraid-z比較すれば遅いだろうな
なんの意味があるのかは知らんが 現代でガンダーラに行きたがる人位にはいる「誰も皆」なんじゃないかな? なんだraid-zの実装も知らんやつが騒いでたのか
自動的に分散されるからraid5より上なんだがな >>411
その代わりファイルサイズは嵩増しされるけどね。 raidzがそんなに遅いというベンチはみつからなかったな。
速いか甲乙つけがたい程度。
ttp://www.pcserver1.jp/blog/40/20100413/13
ttps://kimson.name/wordpress/archives/92 なんだーありゃ
なんだーありゃ
ぜーせーふふんふん・・・
いーんでぃあ OpenIndianaはなんかお先真っ暗状態・・・?
ZFSはカーネルであるillumosが開発の中心で、上物は関係無いし、
ZFS含むシステムなら、FreeBSDの方が圧倒的にアクティブな人多いし、
lz4対応は結果、BSDの方が速くなっちゃったからなぁ。
そしてSolaris自体がOracleになった事によって、
そもそもオープンなSolaris環境自体が、もうイラネって方向になってそう。。。
ZFSも本家と枝分かれせざるを得ない現状、別にSolaris系で作る必要も、
無くなってきてそうだしなぁ。 FreeBSDの ZFSってメモリ使用がドンブリなの直ったの? ストレージ鯖でしか使って無いから、
メモリーの割り当てには困らないんだが、
そんなに違うか?
てか、そもそもZFSはメモリー食わしてなんぼでしょ。 カーネルスレッドが遅すぎて、まともな速度が出ない問題は治ったの? どだろ、ZFSって元々ベンチマークで比較しにくいファイルシステムだが、
うちで、Hyper-Vのストレージとして使ってる奴は、
ハード全く同じでOI151a7+COMSTARとFreeBSD 9-stable+istgtじゃ、
シーケンシャルで100MB+ランダムでも50MB+平均で速いかな、IBのQDR IPoIBで繋いだ状態で。
ランダムでのレスポンスも体感では良さそう、OrionのAdvancesはまだかけてないから、分からんけど。 oi151のCOMSTARでiSCSIデバイスを作って、
Windows7のVirtualBox仮想マシンのブートドライブに設定してから、
Windows8をインストール、起動させるのに成功しました。
ここまでやると、ライブマイグレーションというのができるそうですが、
フリーのVirtualBoxだけでできるのか調べてるところです >>415
そこで直線番長な結果持ってくるのはちょっと恥いので
少なくともWriteとシーケンシャルReadは高速だぞ、とかにしとけ
(ほんとに使えるなら公式がmirror推奨したりしねえ) OmniOS使ってみた。
鯖用途なら、現状、OIよりこっちの方が良いかも。
カーネルその他周辺も、精力的にメンテされてるし。
まぁ、OIの更新がとろいってか、止まってんのが悪いんだが。 >>427
OIは hipster ってのが頑張ってる。
151a7 -> hipster は、クリーンインストールからのアップグレードはいけたけど、
使用中のa7からは、試してないんだよな。
kernelとか最低限のuserlandは、最新のillumos-gate追っかけてるよ。
リポジトリはこれ -> http://pkg.openindiana.org/hipster/ oi_151a7で512バイトセクタの2Tバイトディスク10発でraid-z2のpoolを使っていたんだが
最近の猛暑でマシンが落ちてしまい、何とか復旧はしたんだが、一つのWD20EARSがあまりに遅くて全体の性能を落とすようになった。
そこでST2000VN000を買ってきて交換した。
・・・んだがディスク交換後にreplaceかけたらエラーになった
zpool replace tank c14t1d0
cannot replace c14t1d0 with c14t1d0: devices have different sector alignment
過去ログ呼んでたら
>>264
でそのあたりの話が出てたので書いてあったwikiを見た
がんばって英語を読んでみたが最後のほうの
Migration of older pools onto newer disks
という章を読む限り、既存のashift=9で構成されているpoolに4kのディスクを交換するのって要するに無理ってことなんだろうか >>429
とりあえず低速病乙。
試したこと無いけど、多分無理。
ま、出来たとしても、ashift=9のpoolでAFTのDrive使ったら、恐らくそいつが足引っ張る事になるだろうけど。
既存のHDDをsd.confでAFT扱いにして、pool作り直す手もあるっちゃあるが、
結局pool消す事には変わらんし、素直に全数入れ替える事を、おすすめするよ。
他にもEARSが有るなら、そいつも低速病発症するかもしれんし。
緑なんてさっさとポイしちゃいなさい。 7K4000 とか、2TB でも 512byte/sector なの買えばいいんじゃねーの? >>430
> 緑なんてさっさとポイしちゃいなさい。
そのためにpoolのHDD10個まとめてポイするハメになるとか・・・ポルナレフ召喚していいですか?
あとHBAに安いからという理由でヤフオクで入手したLSIの3041を使ってたりするんだが、いろいろと詰んでる事がわかった。
>>431
7K4000とかググってみたけど扱ってる店もうないみたいだが・・・
とりあえずWindowsマシンにちょっと古めのHGSTの7K3000 が刺さっているの見つけたのでこれと入れ替えを画策することにした
これOI特有なのかな?BSDとか本家ではどうなんだろ
これ困る人結構出てきそうな気がするんだが >>431
> 7K4000とかググってみたけど扱ってる店もうないみたいだが・・・
自己レスだが4000とかってサイズかと思って2000に置き換えてググってたがそうじゃないのか
サハロフとかの表記だと別の形式だから混乱したがHGSTならまだ512セクタのHDDを扱ってるのな
でも値段がちょっと高めなのが悩ましい >>432
FreeBSDでも同じような感じに陥ったことがあって、もう面倒くさくなったので
新規poolは全部ashift:12で作るようにしちゃってる
10台全部まとめて交換しなくても、半分くらいの交換で低速病が改善されるかも
自分の場合は、6台交換した時点で低速病が滅多に出なくなった
因みに交換したHDDはsmartエラー出まくりだったから、RMA交換して
ヤフオクに出しちゃったから、出費がそんなになかったのはラッキーだった >>436
そのとおりダヨ
いまpoolまるごと更新するならコスパと将来性で3TBモデル選びたいがそうするとHBAまで更新しなきゃならなくなる
さて22時にディスク交換してresilverが後12時間かかるようだ
明日はエアコン付けっぱなし&前面扇風機で会社行くしかねーな >>434
FreeBSDでも発生するのか
ってことはVer28共通の問題なんかな
本家はどうなってるんだろう >>436
あぁそういう系のか。確かにそれはそれでいやだな
なにかディスクエラー時にzfsが凍るとかドライバ・ファーム周りかと思った ZFSだけ使えればいいから、あとはZFSを外向きに簡単設定でexport出来るようなUIをつけたのを出してくれないかな export が NFS 的なそれなら、外向きもクソもないだろうし、inherit するから create する時に
sharenfs なりしとけばいいと思うが freenasとかnexentaとかじゃいかんのか oi_151a_prestable8来てた
ttp://wiki.openindiana.org/oi/oi_151a_prestable8+Release+Notes 昨日oi-dev-151a8-live-x86.isoをダウンロードするのに一晩かかった。 SATA3に対応したっぽい表示になったっぴ。
以下、boot開始〜ログインできるところまでsyslogを比較して違ってたところ。
〜〜
sata: SATA Gen2 signaling speed (3.0Gbps)
↓a7からa8
sata: SATA Gen3 signaling speed (6.0Gbps)
〜〜
zfs: open version 5000 pool rpool using 5000
↓a7からa8
でない
〜〜
/usr/lib/power/powerd: [ID 387247 daemon.error] Able to open /dev/srn
↓a7からa8
でない
〜〜 チラ裏
Oi 151a8とzfs on Linux(0.6.2)のアレイ互換性実験してみた
Linux側の鳥はopenSUSEとdebianで
zfs export/zfs importで問題なくお互いのアレイを使える模様
exportなしでOiを単純にシャットダウンしてLinux側でzfs import -f でも大丈夫
あたりめーだろアフォという話だったらスマソ よろしい、では各feature flagsをactiveにしたときの互換性を確認するんだ
・・・というのは冗談としてoi、ZoLやその他諸々と相互運用できるファイルシステムは便利だな
FreeBSDもv5000になったみたいだし、MacZFSもZoLからのポートを開発中だから色んなOSで広く使えそう。
ディスク上のデータだけちゃんとしてれば各ポートでトラブル起こってもとりあえずoiでインポートできるから助かる。
(実際ZoLでresilverが無限ループに陥ったけどoiで回復できたことがあった) 正直、単体ディスクで試したんだろーな、程度にしか思えない俺がいる >>449
一応仮想環境でのRAIDZ3台から初めて実ディスクSATA3台のRAIDZ、実ディスク6台のRAID-Z2、同6台AFT付と試したお openzfsのページでGMOのロゴがでかでかと出てきて
盛大に萎えた >>452
https://github.com/zfs-osx/zfs/blob/master/AUTHORS.OSX
実は現行のZFS-OSXに一番コミットしてるのがGMOの人だったりする。
だからまあ気に食わなくても理解はできる。 ZFSを利用したNASを構築を検討しているのですが何点か疑問があります
1.OracleSolarisとOpenSolaris系で機能・性能上の違いはどの程度ありますか?
2.Solaris系とFreeBSD系で機能・性能上の違いはどの程度ありますか?
FreeBSDは使用経験がありますが、ZFSはSolarisが本家なので
どちらがよいのか悩んでいます
3.ZFSでWindows8のストレージプールのnウェイミラー的な構成は可能ですか?
5ウェイミラー(4台死亡までサービス継続)の構成が取れるのであれば
そのような構成の利用も検討したいです
判る方がおりましたら教えてください。よろしくお願いします >>454
1.
OracleSolarisは機能的にはプール暗号化とかそのへんで若干進んでる、性能レベルは誤差
ただIllumos系はFreeBSD/ZFSonLinuxとの互換性を取る方向に進んでる
今は完全ではないけどそのうちアレイの完全互換が期待できる
2.
zfs自身の性能差はFreeBSDとSolarisで大差ない
ただし、iSCSI/cifs/nfsあたりの性能はillumosの方が高い。これは体感できるレベル
3.
windowsのストレージプールがよくわからんが、3Way〜nWayのRAID1相当ってことでいいのかな?
それは問題なくできる。RAID-Z/Z2の4Wayミラーで8台*4の32台アレイとか普通に組める 絶対数では微々増で、割合としては大幅減なんじゃないかな >>454
v29以降の機能が入ってるのがOracle、feature flags以降の機能が入ってるのがillumos系
あと個人的には5wayミラーの理由が気になる・・・そんな凄いデータなのか
そこまで行くとミラー数増やすより停電・天災等々で物理的に全HDD逝ってしまうリスクに対処する方がいい気がしてしまうけど。
>>456
需要の多くがZFSで、そのZFSもFreeBSD/Linux移植の完成度が上がれば上がるほどそっちに流れるからなぁ。 レスありがとうございます
長文失礼します
>>455
1・・・こだわらなければOpenSolaris系で良さそうですね
2・・・NASとしての性能面ではSolaris系の方が有利ですか
軽く探して見た感じだとSolaris系の場合は対応したSATA HBA(PCI-Express)カードが
なかなか見つから無いように思います
3・・・すみません。自分もWindows8のストレージプールについては良く理解できていません
ストレージを仮想化して、スケーラビリティ、復元性、効率性を高める - Building Windows 8 - Site Home - MSDN Blogs
ttp://blogs.msdn.com/b/b8_ja/archive/2012/01/13/10256576.aspx
2ウェイミラーと3ウェイミラーが使用可能のようですが、3ウェイミラーは
・パリティではなくミラーを複数台のドライブに分散して記録する
・2台以上死んでもサービスを継続できる
っぽいです。具体的な原理は自分も良く理解できていません
このミラー数を5くらいに増やせれば4台死んでもサービスの継続が可能なのでは?と思いました
パリティを用いないのでRAID-ZやRAID-Z2よりパフォーマンス面で有利のような気もします
Windows8による構築も検討して調べてみているのですが、縮退モードからドライブ交換無しでリビルドできたり
プールからドライブの削除が出来たり、SATAカードが選び放題だったりと、Solaris(or FreeBSD)+ZFSより
優れる面もあるのですが、実績がほとんど無いこととWindowsだと言うことで不安があります
>>459
現在16台構成(内2〜4台はリザーブ)でNASの構築を検討しているのですが
HBAやドライブ電源の障害でNAS丸ごとクラッシュという事態は避けたいです(単一障害点の削減)
RAID-Z2や3ウェイミラーの場合は2台の死亡までしか許容できないのでHBAと電源を
8台用意する必要があり、流石に現実的ではありません
現実的には
4台死亡を許容(5ウェイパリティ、RAID-Zしたセットをプールに追加)してHBAと電源を4台用意するか
8台死亡を許容(RAID10。ミラーしたセットをプールに追加)してHBAと電源を2台用意する
あたりが落としどころかなと思っています > Solaris系の場合は対応したSATA HBA(PCI-Express)カードがなかなか見つから無いように思います
ま、思うのは勝手だけどな。普通LSI買うだろ
> このミラー数を5くらいに増やせれば4台死んでもサービスの継続が可能なのでは?と思いました
別に何面ミラーでも作れると思うけどな>ZFS
> パリティを用いないのでRAID-ZやRAID-Z2よりパフォーマンス面で有利のような気もします
パフォーマンスは知らんけど、容量は不利だろうな
> 縮退モードからドライブ交換無しでリビルドできたりプールからドライブの削除が出来たり
ミラー構成なら何でも出来るだろ>ZFS
> 現在16台構成(内2〜4台はリザーブ)でNASの構築を検討しているのですが
以下意味不明につきレスは避ける
取り敢えず、1台のマシンをNASにするなら、その1台が単一障害点とやらになるだろ >>460
ttp://wiki.openindiana.org/pages/viewpage.action?pageId=23856206
Adaotec/Highpoint/LSIと主だったところは大体対応してるけどな
(Highpoint対応されたのは確かに比較的最近だが) てゆーかそこまで耐久性とかこだわるんならSAS使うべ?それならWindowsのみなんてカードほとんど無いと思うけど? なんつーか、素直にNetAppでも買っとけって話じゃね? Win8のn方向ミラーは「データをアレイ中の任意のn台に書く」ってだけだよね。そんな難しい原理ではなかった気が。
何重ミラーにしようと1つのマシン上でやる以上はrm -rf /には勝てないんだから、
別マシンを用意してzfs send/recvする方が良いとは思うんだけどね。
数TBのバックアップストレージを予算的に用意できないからやむを得ずRAIDによるデータ保護に期待する、
ならともかく5wayミラー想定するほどHDDに余裕あるなら、自分だったら8台でRAID-Z2組んだマシンを2台用意する。
データ保護より何より高可用性が大事なんだとしても、HBAなり電源が逝ったみたいな事態だと結局マシンは止めなきゃいかんのだし。 snapshotスクリプトがコケててsnapshotが取れてなかったDatasetが
アプリのバグでファイルの半数以上がrmされたorz
(朝五時に電話かかってきて「ファイル消えてんぞぐるぁ」と来た)
zdbでブロックが残ってるのは確認したが、約2T/20万objectの羅列を眺めて15分ほど固まった
そんな俺に誰か一言 >>460
後半何言ってるのかわかりません
>>467
zdb叩く前にとっととバックアップからリストアしろ 仮想マシン上のOpenSolarisにApacheとPHPをインストールしなければならないのですが、
手元の資料にはどちらも解凍・展開からの手順しか書いておらず進められずにいます
解凍・展開前に必要な準備等がありましたら教えて頂けないでしょうか >>467
スナップショットがこけててもバックアップがあるんだから問題ないだろ。
2TBの書き戻しは気が変になりそうだろうが、がんばれ/ >>471
展開前のブツをDLしてきたとか手持ちであるならそこから進めるだけじゃん?w
つーかその資料とやらを作ったヤシに聞けよ CIFSストレージとして使ってますが、ストレージ空き容量が減ってくると
加速度的に読み書きが遅くなりますね >>479
ZFSの事か?
ま、公式にも使用量は80%以下で使えと言われているし、
CoWの仕組み上、空き容量が減ってくると遅くなるのは、
しようが無い事ではある。
DISK数が少ないと、なおさら効いてくるかもな。 そこでZILとL2ARCをSSDで、ですよ奥さん! dedup=onでrecordsize=4kとかにするとファイル書き込んだときにwriteが増えて異常に遅くなるんだがこれなんだろ?
recordsize弄らなければ急に遅くはならないし、read増えてないのでDDTに書きに行ってるとかか??
recordsize大きいとデータに埋もれて見えないだけとかいうオチか? dedup率優先なpoolにしようかと思ったが遅すぎる
実験方法:
vmに16〜32GB程度メモリ割り当て。zpool create ; zfs create ; zfs set dedup=on, compress=on, sync=disabled
cp dummy_5GB.bin hoge
zfs set recordsize=4k
cp dummy_5GB.bin hoge >>482
ttps://blogs.oracle.com/roch/entry/tuning_zfs_recordsize
Other consideration (metadata overhead, caching) dictates however that the recordsize not be reduced below a certain point (16K to 64K; do send-in your experience). 今回のはdedupが支配要因に見えるしここまで遅いとそういう話ではないような気も。
ひとまず32kでやってみるけど。
ddtとかのメタデータって2〜3重化されてるんだっけ? 実験的にOFFにできるのかな。
実験先のドライブが1LUNなのが問題な気がしてきた。 2重化されてる。
ZAPはrecordsize単位で作られるのだから128K→4Kでは32倍にもなる。 ところで、本番で想定しているプールサイズで、メモリ消費量予想してみました?
ttp://www.c0t0d0s0.org/archives/7271-ZFS-Dedup-Internals.html
RAM 32GB→ARC 24GB→metadata 6GB→...
recorsize=4KBだと、プール1TBで DDT 3GBくらいとか?
dedupでストレージを節約しようとしても、代償に必要とされる
メモリが高コストにつくと、あまり意味ないのでは。 >>485が書いてくれてるとおりrecordsizeの減少はmetadataの急激な増大を生むので単にそれが原因ぽい
特に1ドライブ上で実験してしまうと離れた位置に2重化して書き込もうとするので猛烈なrandom writeに。
(割とマシなSANでもRAID6 1LUNマウントでは追いつかなかった)
物理ドライブを8本にしてみたら極端な遅さにはならなくなった(1〜2本が酷いだけで4本程度あれば十分かもしれない)が
write総量がかなり増えることには違いないので相性の良いハードで無い限りrecordsize=4kはしんどそう
格納するデータが2k〜4kブロックでないと重複排除が効きづらいものだとzfsの使用は悩ましいことになる
recordsize=128kでの重複排除率が低すぎる場合はserver2012あたりに浮気した方がいいのかもしれない
>>486
メモリ64のマシンが余ったので仮想で半分割り当ててみたんだがarc_meta_limit上げれば割と収まるんじゃないかなー
若しくはARCは16程度でL2に64くらいとか(計算してないけど) Dedupの効率?みたいな物の比較ってある?
確かにZFSでDedupしても予想の半分程度しか減らないことがある
Compressと併用すると効率が悪くなったりしないよね dedupは思ったほど効果なかったなぁ
そのデメリットがあまりにひどすぎて使うのやめたが
gzip圧縮の方がかなり効く
そもそもdedupがそんなに必要となる状況ってどんなのがあるんだろう?
バックアップで各世代をそのまま保存しつつ、変更がないから同じファイルが
いくつも存在するといった場合なら、そもそもsnapshotバックアップでいいし 仮想マシンのイメージファイル置き場がメジャーじゃね
ひな形vmをコピーする際にzfs cloneすればいいんだが、実際は丸コピした方が楽な場合が多くw
(ファイル単位でclone出来るようにはならんのか?) マジレスすると、メールアーカイブで添付ファイルとかに効くと思う 添付ファイル単位で単離されてるならそりゃ効くだろうけども
メル鯖によってはbase64encされた状態でtextの間に挟まってないかそれ? dedup効くのかね >>490
cloneはファイルシステムを分けて使う場合は便利だけど、
逆にそれが不便になる場合もあるからねぇ
さくらでZFSストレージをVPSのファイルサーバに使って大失敗してたけど
あれどんなシステムでどんな失敗だったんだろうな 上で上がってたような特定用途の領域を必要なだけFSとして切り出してdedupかけるのが
(メモリ的にも現実的な)本来の用途なわけで、数TB、数十TBのプール全体にdedupかけて、なんてのはアホの極みでしかないな。
1GBくらいのディスクイメージcpして使用領域増えてないわーい、みたいなブログ記事たまに見るけどそんなこと言ってもねぇ・・・ さくらの場合はnfsで使っていて1000台ぐらいで性能が頭打ちに
なったとかどっかで見た気がする。
そもそもnfsを使うのが筋が悪かった。 特定用途のvm置き場にdedupかけたけど効果はさっぱりだったな。ブロックサイズ固定まではしてみなかったが
さくらはzfsでdedupかけてたのかな?
どちらにせよzfs自体が大規模トラフィックに向いてない気がするな。nfsは構造上小規模向けだろうに
GlusterFSやらの分散型でスケールアウト狙った方が NFSはそもそも共有して意味があるんであって
クライアントが別々にのファイルにアクセスするなら
NFSする意味がないからな
iSCSIの方が良かったんじゃないのかと
cloneで同じ設定のVMを作り出すのは便利だからそこだけうまくやってればねぇ 共有してるからvMotionできる
iSCSIよりずっと手軽で管理しやすい それは微妙にzfsとは違う方向から異論が出そうだが、
iscsiの使い勝手が悪い件については賛成。
そりゃnfsでファイル見えてりゃ規模が大きくなればなるほど管理が圧倒的に楽になる。
ただzfsでサブディレクトリ作ってもクライアントから追加でマウントしないと共有が見えない。
Linuxのnfsdで出来てるんだから何とかしろよ絶対便利だろそれorz ファイルシステムのことかな?
そりゃ別だからmountしないと見えない ああ、zfs createで作られるマウントポイントってなんつーの?
zfs create pool/zfs1
zfs create pool/zfs1/zfs2
zfs create pool/zfs1/zfs2/zfs3
みたく階層化たりとか。
Linux系はpool/zfs1をnfs共有しとくとその下に増やしても自動で見えるイメージ
inodeとか誤魔化せば出来るんじゃねーかやってくれよっていう >>502
ふっ、貴様はまだbtrfsを知らないようだな・・・ >>502
ZFS用語的にはtype=fliesystemかな? datasetでもいいか
ハードリンクできないから下手なことしたら混乱しそうだけどな btrfsってこれのことですかーっ >_<
ttp://togetter.com/li/513383
>>504
おお、あれfilesystemっていうのか。>>502みたく階層化して使う場合ってどう表現すればいいんだろ
「filesystemの中にfilesystemをマウントする」とかか。これだと通じるかどうか微妙なラインだが >>506
filesytem単位にmountpointは設定できるからなぁ
defaultでは自動でそのまま階層化されるけどね ZFSの階層構造はプロパティとかの管理上便利ってだけでファイルシステムとしては独立してるんだから
運用上はext4とかの領域作りまくって色んなフォルダにマウントしてるのと変わらん。
>>507の言うようにdefaultだとZFS上の階層構造そのままの位置にマウントするからフォルダ的に扱える気がするだけだな。
dedupを実際に活用できてる現場ってどれくらいあるのかね?
それなりに大きいストレージだと個人レベルじゃ用意できない量のメモリを必要とするし、
それだけのメモリを用意できるストレージだとストレージ自体ももっと大規模で結局メモリ足りないんじゃ?と思ってしまう。
メモリー積んでdedupかけるより、dedupで削減できる容量分のHDD追加した方がコスト的にマシなケースしか浮かんでこない。 zfs on Linuxの環境だが既存fsの下層に新規fs作ったらESXi側から見えたよ
エクスポートの設定の問題か
そしてアンマウントできなくなっちまったが >>509 499あたりが書いてるが
Linuxでは可能. vm単位でfs作ってcloneしたら即アクセスできる
Solarisではfs作る度にクライアント側でマウントしないと使えない ESXiは5.5になってもNFSv4はまだ使えないですかそうですか zfs on linux以外は糞ということですねそうですね ZFS使おうとして Linux選ぶやつなんか、いるの? >>508
Linux LVM的に言えば
ZPOOL=VG
ZFS filesystem=LV
みたいなもんだからな
別々のLVだからmountも別
NFSクライアント側でハードリンクしたらどうなるかちょっと気になってきた >>515
そらzfs on Linuxが安定したら乗り換える人多いだろうよ ZFS使うためだけにOpenIndianaやFreeBSD選んでる人が結構いそうだからな。
元々がLinux使いならそりゃZFSもLinuxで使えた方が嬉しいだろう。
このスレも9割くらいZFSスレになってるけど、Solaris系で使ってる人半分もいなかったりしてw Linuxが使いやすいとは全く思わないが、使えるデバイスの多さ(ドライバの充実度)が
半端ないからなぁ >>517
すでにかなり安定してるし、0.6.1以降は安定版扱いだよ 自称安定版か。
これまでどれほど自称に騙されてきた事か・・・
もう誰も信じない、俺が信じるのはサポート契約だけだ!(死亡フラグ)。 Btrfsは非常に安定した安心なファイルシステムです >>523
たしかに、いつまで経ってもちゃんとしたものが出てこないという
意味では安定しまくっている。
ってか、raid5/6程度の実装に何年かかってるんだろうね。
zfsが発表の翌年にはほぼ実用になってたのが異常に早いのかも知れないが。 >>524
>>523はレス内容そのままのネタツイートが由来だぞw
ググると安定・安心っぷりがわかる >>517
安定しそうにもないから >515 なんだが..w
# Linuxに ZFSを安定に稼働させられるわけがない、という..
>>521
そんなバカなww
>>524
深い泥田に柱は、結局立たないんだよ。
JFSや XFSで実証済みなので鉄板です。
本家の人達が来て大量に地盤改良剤を注入しましたがダメでしたw
途中で意味不明のヨコヤリまで入る始末。議論はケンカ腰でやるもんだそうです(爆笑) >>528
>そんなバカなww
ttps://groups.google.com/a/zfsonlinux.org/forum/#!topic/zfs-announce/ZXADhyOwFfA
>Today the ZFS on Linux project reached an important milestone with the official 0.6.1 release!
>Over two years of use by real users has convinced us ZoL is ready for wide scale deployment
>on everything from desktops to super computers. nfsの利便性とドライバ充実度のメリットがでかいなぁ NFSv4はFreeBSDの方が結構バギーだったんじゃない? 今は知らないけど。
あと2000年代前半でzero copy化されてパフォーマンスはその時
かなり上がったよ。 本家Solarisでさえ、デフォルトのファイルシステムに採用するのに5年以上かかったのに。 >>532
NFSの版とか zero copy入ってるかどうかとかそんな次元の話してるようじゃ
どーしよーもなくてさww ZFSの質問です
2TBのmirrorのpoolにファイルシステムを置いてますが、これが残り23GBくらいになったところで
急激に遅くなってきました
ハード的に強化するとしたら、メモリ?HDD追加?
どちらでしょうか >>535
ZFSは使用量80%未満で使う事が、大前提。これは、メーカーも言っていること。
ZFSはpoolの空き容量が20%切ったところで、遅くなり出す。
10%切ったら、遅くなるだけじゃなく、色々弊害出だして、危機的状況。
大至急HDDの追加、現状poolからのデータ退避をすすめる。 今のmirror vdev1つなプールにもう1セットmirrorを追加すれば。
急場はしのげそうですね。
使用量・負荷の均衡が取れるのははるか先でしょうから、
少しずつでも、外へ退避してから書き戻し、していくといいと思います。 ttp://ftp-admin.blogspot.jp/2013/12/zfs.html
ftp-adminの人も同じこと書いてるね. 空き容量が残り20%を切ったら、コピーオンライトというのを切ればいいのか
ふむふむ... スレ違いだったら申し訳ありません
今までSolarisをまともに使ったことがないので
一から勉強したいのですが、そういった目的の場合
SolarisとOpenSolarisはどちらが向いているでしようか
他OSの経験は公私双方でWindows、RHELあたりを
主に扱ったことがあります 犬厨ってのは、なんでクソつまらんコピペをばらまこうとか思えるんだろう?
とっとと精神科なりに入院すればいいのに ダミーの dataset 作って、そこに reservation でも設定すれば
空き容量食い尽くすってのは未然に防げるのかな。 親FS(pool直下、同名)にrefreservation 空き容量なくなってきたら古いsnapshot消して凌いでたわ 1分毎のホームディレクトリスナップショットで、
ゴミ箱要らず
気兼ねなくrmできるようになりました...となるのかな? timesliderが15分毎にスナップショット取ってくれるので
時には助かるけど、ゴミ箱も手に入るなら欲しい。
ZFSのsharesmbには無いから、Sambaに浮気したり。 zfsにnfsやsmbや統合されてるのはいいんだけど他のと併用する場合にどの程度競合するのか分からなくて怖い
sambaやglusterfsなんかで別途shareした場合安定動作するのか?というのが怖くてzfs内蔵のを使い続けてる 同じポート使うから、sambaと共存は無理じゃないの? レイヤー違うもんをごちゃ混ぜに考えてんのか?
何が分からんのかが、分からん 今ふと思ったんだけど、raidzでzvol作って、そこで、FAT32やext2みたいな軽量なファイルシステム置けば、
信頼性と高速性を両立できるんじゃないかな? 物理的な障害はともかく、ファイルシステムぶっ壊れるのに変わりない気がするがな >>555
ZFSはZFS上の整合性しか取ってくれないが、それで良いか?
ZVOL上のデータなんて、考えてくれないぞ?
つか、ZOVL上でいくら軽いFS動かそうが、下でZFS動いてたら一緒じゃ?
直接ZFS扱えるんなら、ZFSそのまま使えば良いんじゃ無いの・・・
無駄にアホなことやってるようにしか見えん。。。
よく言われることだが、ZFSはハードをけちる為の物じゃないから、
パフォーマンスほしけりゃ、それだけ金かけろって事。 >>558
ソースからコンパイルして、動かしてる人はいるぽいよ。 compression on + dedup on の500Gを zfs destroy かけた。
コマンドは async_destroyのおかげで即終了。
けど zfs set sharesmb=name= とかいじってたら
NFSクライアントからサーバごと見えなくなり、焦って電源サイクル。
mounting ZFS: 1/nn とか出たまま固まる。
ようやくログインできても動きが怪しい。
その後30分ぐらい iostat で svc_t が5桁台を示してたけど
zpool get の freeing が 0 になったら、完全に回復した。
教訓。大容量destroyはサービス停止時に。asyncに頼らない。 >>545>>546
80%(か90%)の容量でquotaかければいいんじゃないの? >>560
dedupは削除の時に激重になるんだよね
snapshot作ってる時はrmではわからないが
snapshot destroy や zfs destroyで発動する >>562
1. ファイル入れる FS に quota
2. ファイル入れない FS に (ref)reservation
どっちでも目的は達せられる。
ただ、ファイル入れる FS の quota は
別の目的で設定したいこともあるだろうから、
ファイル入れない FS の設定で対応した方が
融通は利きやすいだろう。 >>563
NFS共有してない、SMB専用の場所いじってました。
先人の言や、自分でも試してみて、やっぱり
dedup=offに戻すと決めての過程なので、いいんですけどね。
すんごい遅い、途中で再起動しちゃうとより一層遅い。聞いてた通りでした。 >>566
zfs自体には本体の冗長性がないからglusterfsでレプリカすればかなり良いのではという思いつきなんだが
いろいろ難しそうだな サーバ丸ごと死んだら、さすがのZFSでも、どうにもならんだろ ブートドライブをzfs mirror化するお話を巷で散見しますが、
ふとMBRやgrubもmirror・raidz化できるのかな?なんて思ったりしました ttp://docs.oracle.com/cd/E23824_01/html/E24456/storage-4.html
The root pool must be created as a mirrored configuration or as a single-disk configuration. A RAID-Z or a striped configuration is not supported.
ttp://docs.oracle.com/cd/E19253-01/819-5461/ggtia/index.html
Booting From an Alternate Disk in a Mirrored ZFS Root Pool
x86# installgrub /boot/grub/stage1 /boot/grub/stage2 /dev/rdsk/c0t1d0s0 ZFSのミラーってセクタ位置まで同一にする保証ってあったっけ?
あるならMBRに使っても問題ないだろうけど、疑問。 MBRがファイルシステムに含まれるかどうか、考えれば分かるんじゃね? たしかZFSのブート領域はセクタミラーを保証してた筈。
先頭から512byteまでかな
だけど、BIOSがZFSを理解出来なきゃいけないので、
パソコンでマルチブートするのは難易度高いかと 両方のディスクにブート情報書き込まないと起動しなかったような。 > だけど、BIOSがZFSを理解出来なきゃいけないので、
ご冗談を。 OpenIndianaのcifs serverでファイルサーバやってるんですが、このcifs serverって、
samba serverやWindows のファイル共有と違う動作するものなんですかね?
AndroidのES Files explorerやGhost Commanderで接続できないのが
不思議です Sambaの開発方面によると、SMBや CIFSというのは MSの OSによってアホほど
違って、なにもかも実装するのはとてもムリだそうなので、当然違いはあると思うよ。
Sunの時に開発した人達は今でも近いところにいるのかなぁ.. そうですか
oi付属のcifs serverよりも、Sambaに入れ替えた方が筋が良いのかな... >>582
カーネルモジュールであるゆえの絶対性能を取るか互換性を取るかのトレードオフだと思う cifsはmsがライセンスしないといろいろ正しい実装ができないようで、
sambaはそれゆえに互換性の問題で、頭を悩ませてきた
solarisのcifsは、msからライセンスを受けてるものかもしれない。
ちなみに、sambaみたいにNTFSのACLを強引にUnix permissionにするのではくて、
zfs aclにそのまま入るので、互換性はたかいはず。
問題はillumosが、fork後にどこまで追いかけてるかだな。 ファイルサーバでSolaris 11使ってるけど、
ES Files explorerから問題なく使用できてるよ。 初歩質問ですみません、oiのCUIとGUIの切り替えってどうやってやればいいのでしょうか? CUI: svcadm disable gdm
GUI: svcadm enable gdm >>588
できました。
ありがとうございます。
ちなみにですが、oiはCtrl+F1みたいなCUI GUI切り替えのショートカットってないのでしょうか? >>591
グラフィックスカードのデバイスドライバが入っていないときに
Alt+Ctrl+F1 (CUIへ)
Alt+Ctrl+F7 (GUIへ)
が効かずにフリーズしてしまうのを経験したことあるよ
(nvidiaから)ドライバ落として入れたら使えるようになたよ >>592
なるほど、たぶんうちのはネットブックでやってるのでドライバとかその辺の関係でダメなんでしょうね。
ありがとうございました。 ノートPCにSolarisいれてyamahaのルーターとリモートVPN接続したいと考えています
Solarisを l2tp ove ipsec のクライアントにするにはどのソフトウェア使うのがいいですか?
LinuxやAndroidからの接続には成功しておりますが、SolarisはVPNサーバーにする情報ばかりで
クライアントにするための情報を見つけることができませんでした。
なにとぞ、よろしくお願いしマンモス 2TBのmirror poolから3TBのpoolにrsyncで転送しているけど、
rsync開始してから半日かかるけど、随分時間がかかっている。
もちろん、非力なマシンを割り当ててるんで、そのせいもあるんでしょうけど、
やはりZFSは読み書きが他のFSと比べて遅いんですかね zfs send して receive とか zpool attach して detach とかしないのは宗教的な理由なのかな? send/receiveはいいとして、ファイル転送にattach/detachを勧めるのは
それこそアヤシイ宗教って感じがして気持ちが悪い。 zfs recv -F って、プールにあるファイルシステム破壊してくれるんか
少量だけど、ファイルあったのになぁ
復元ってできないんだよね? 3TBのHDDにpool作って、ファイルコピーしたあと、PCをリブートしたら
起動しなくて、別のBEで起動したら、poolが↓状態になってました
zpool status
pool: tank3TB
state: FAULTED
status: One or more devices could not be used because the label is missing
or invalid. There are insufficient replicas for the pool to continue
functioning.
action: Destroy and re-create the pool from
a backup source.
see: http://illumos.org/msg/ZFS-8000-5E
scan: none requested
config:
NAME STATE READ WRITE CKSUM
tank3TB FAULTED 0 0 0 corrupted data
c9d1 FAULTED 0 0 0 corrupted data
このpoolは、もうダメ?
ただ、このpool名はなぜか、古いpool名なんだよな...
poolを作った時とは別のBEで起動しているから、不整合になっているんですかね? zpool export して
zpool importしたら別のpool名でpoolが見えたので
その名前でzpool import "別のpool名"したら
元通りになりました
200GBくらい吹っ飛んだと思ってのが元通りになったので、
明日は良いことありそうです そういや特定ファイルだけsendってできんもんかね user@openindiana:/pool/zfs$ ls
test.txt
user@openindiana:/pool/zfs$ zfs snapshot pool/zfs/test.txt@today
oi@openindiana:/pool/zfs$ zfs list
こんな感じ? snapshot取ってから特定ファイル以外消してもっかいsnapshot取ってsendして最初のsnapshotにrollback -f。意味は無いが。 それだとcloneしたほうがいいんじゃね
ってどっちみちファイル削除に時間かかりすぎて現実的じゃないなー sshで外部からログオンする時、
パスワード聞かれるまで時間がかかるのですが、なんででしょう >>607
DNSチェックに行った時にホスト名の解決が出来ないときにそうなる。
面倒ならsshdの設定で
> UseDNS no
と設定すればチェックしなくなる、気がする。 sshで外部からログオンする際の注意事項があります。
コンピュータのCPUが何ビットであるか調ベておく事が大切です。
32ビットCPUを搭載したコンピュータには、
32ビット用のsshをインストールすること。
64ビットCPUを搭載したコンピュータには、
64ビット用のsshをインストールすること。
これを間違えれば素早いログオンができません。 comstarでiscsi targetを作る時の話で質問。(fcでも同じだと思うけど)
lun 1,2,3,4をhostA,B,Cに公開する場合に
・Aにはlun 1,2だけを見せたい
・Bにはlun 1,3だけを見せたい
・Cにはlun 1,4だけを見せたい
上記のようなことをやりたいときはAだけのhost groupとBだけのhost group、Cだけのhost groupを作ってやって
1-A,2-A
1-B,3-B
1-C,4-C
みたいなviewを作るしかないんだよな?
個別のhost groupとは別にABCのhost groupが作れればまだいいんだけどな。
hostとlunが増えた場合を考えるとうんざりする openindiana興味あるんですけど、
出た頃はoi開発者とかユーザーとかけっこう人がいて活発だったけど今はどうですか?
ユーザーはともかくoi開発者も減ったりしてますか?
oi入れてイジってるうちに開発打切りとかフェードアウトで消滅とかになったら嫌だなと思って。 oiは、147までは調子よかったと思うけど、Illumosベースの 151以降数字上がって
ないね.. oi hipsterってのがあるらしい。hipsterじゃないのはこないだの BIND穴も
埋まってないそうな..
Goslingが拾って NeWS再実装してくれるといいんだがw オープンソラリスじゃなくてフリーソラリスというのがあるとききました。
こちらの方がオープンソラリスよりも強いですか?
おすすめのディストロビューションをおしえてください。 >>614
RedHat Enterprise Linux+有償サポートが鉄板だと思う 冗談だろ。RHELなんてどんだけイタい目にあわされたか.. それもソラリスなんですかぁ? (RHELなら知ってますけど) 先に「DOSの操作性」を定義してくれ。Appleが Mac出した頃に言ってたやつか? もうそろそろ、armスマホ対応したソラリスカーネルのAndroid(?)が発表されて、
Oracle純正の高性能Java runtimeで今出てるアプリをサクサク...
なんてのを夢見てるんだがなぁ Oracle純正のJREが安定してて高性能という幻想 Googleの方がいいものを作れるに違いないという幻想 Googleは大御所オールスターズだけど最後の詰めが甘いという.. MS-DOSならIO.SYSとMSDOS.SYSが読み込まれてからCONFIG.SYSが順に読まれますが
OpenSolarisだとgrubからloginブロンプトまでいったいいくつのファイルが順に読まれてるんでしょうか?
9801の頃は書籍も読んだんですけどUNIXは派閥がありすぎてどれを読めばよいかわからなかったので未だに知りません インストールされた後だと、インストール時にデバイス検知して保存しといた
定義ファイル読んでデバイスモジュールロードして、それから initが
/etc/inittab読んで、じゃなかった?
古い BSDだと init が /etc/rcを実行する。端末の定義は /etc/ttys。
サービスという意味では inetdの定義も見ておく。とか。 inittabも形骸化してるよな、アダムのせいでw HotJavaってもう無いの?誰も引き継いでない? ジャワカレーはバーモントカレーよりホットな味付けだな。 OpenWindowsってもう無いの?誰も引き継いでない? Java Desktop Systemってどうなった? jarisは一度ダウソしたことがあるがMsofficeがユンユン動くのだけは良かった。 仮想コンテナの共通項が IBM PCだなんて、ほんと悪い冗談だよ。 横から失礼します。
他PCから取り外して来たHDDで、zpool importしたら、
下のメッセージが出たんですが、
次はzpool import tank -fすればいいんですよね?
pool: tank
id: ***********
state: ONLINE
status: The pool was last accessed by another system.
action: The pool can be imported using its name or numeric identifier and
the '-f' flag.
see: http://illumos.org/msg/ZFS-8000-EY
config:
tank ONLINE
c5t5d0 ONLINE >>648
ありがとうございます。
zpool import tank -fしましたら、
今度はコマンドがいつまでも終わりません。
/dev/dsk/c5t5d0は、3TBなんですが、どれくらいの時間でコマンドが終了するのが普通なんでしょうか? >>649
何度も(ほとんどの場合プール名でなく id 指定で) import してきましたが、瞬時です。
正常シャットダウンしたクリーンなpoolではないのかな?
大量削除中に強制電源断したときは、ブートに(mountされるまで)数時間待ったものですが。 zpool scrubしたら、
とあるMirror poolにこんなメッセージが出てたんだけど、
HDDよりマザボがおかしいのかな
scrub repaired 8K in 12h9m with 0 errors on Sun Jan 4 17:00:37 2015
config: SmartOSって、それ自体や設定ファイルはUSBメモリ上にあって、ZFSはKVMのイメージだけに使われるという理解であってる?
その場合、そのUSBメモリのバックアップてどうしたらいいのだろ? バックアップが必要なデータをUSBに置かなければいいだろ。アホか。 OpenSolarisってPCパーツ屋で売ってるマザボで動くんだっけ?
サーバー屋さんから買わないとダメかな 最近のOiとかOmniとかなら昔ほどはパーツ選ばないよ
新しすぎるデバイス(USB3コントローラとか)やチップセットは怪しくなるので
一世代前ぐらいの構成が無難なのはSolaris系に限らずオープン系OSの定石だけど >>655
保証はできないけど大概のPCでほぼ確実にブートすると思うよ
実用的に使おうと思えばオンボNICの実績の有無さえ注意しておけばおk
後で互換性のあるNICを増設するつもりならそれこそマザーは何でもいいんじゃねえかな FreeBSDやLinuxで作成したzfsプールって認識できます?
HDDを繋いてしばらく放置してますが一向に認識される気配がない FDISK的なアレつかSMI的なそれは無視して、GPT的なアレだとすると、FreeBSDだとtypeが
freebsd-zfs とかになるんで、普通には認識されない気がする。Linuxは知らん
gpartとかでアレコレしても、zpool versionが今のFreeBSDとは合わないんじゃないかな
もちろん、createの仕方にもよるだろうけど。あとLinuxは知らん zfs on linuxだとsolarisからのimportはいけたけど逆はNGだったはず
zpool versionがZoLだと5000とかになってるんだよね(zfsOSXとかのopenZfs準拠のシステムも同じ) せめてraidzからz2に簡単に移行できないもんかね ☆ 日本の核武装は早急に必須ですわ。☆
総務省の『憲法改正国民投票法』、でググってみてください。
日本国民の皆様方、2016年7月の『第24回 参議院選挙』で、日本人の悲願である
改憲の成就が決まります。皆様方、必ず投票に自ら足を運んでください。お願い致します。 SolarisでUNIXを覚えた君たちへ
君たちが悪いわけじゃないんだよ
君たちが覚えたSolarisの将来が無かっただけ
当時の社会が悪かっただけ
君たち一人ひとりが悪いわけじゃないんだよ
だから自分を責めないで
社会と向き合ってください
そうすればきっと気が付くはず
君たちのSolarisの知識が無用なのだということに
君たちの存在自体が社会の足枷だということに OpenIndianaでFCターゲット作ろうと思ってますがストレージプールを
2TBまでしか認識しないってまじですか? 4TBのHDDを初期化しようとしているのですが、465GBしか認識されていないようです。
4TBのHDDを初期化する方法を教えてください。
よろしくお願いします。 openIndiana2016.04をインストールしてみたら、デスクトップのメニューにパッケージを追加削除する項目がないんだが。 2TBのmirrorプールを構成している1台からエラーが出始めたので、
眠い目をこすりながら、detachして新HDDをattachしようとしたら、うまく認識してくれないんで、sudo formatコマンドでHDDのserialとかを確認してたら、
何を間違ったのか、既存の別プール単一3TB HDDのパーティションテーブルを書き換えて、attachしちゃった。
リシルバが4GBくらい走った所で気付いて、
attachしたHDDをzpool offlineしてから、
シャットダウンしてリシルバされたHDDを外したんだけど、これからどうしたら良いでしょうか?
結構パニクってて、offlineがちゃんと出来てるのかもちょっとあやふや。
リシルバ途中の3TB HDDの元poolのファイルを復旧するのってもう絶望ですかね。
なんか書き込んでて、事の重大さに手が震えて来てるんだけど... あきらめてバックアップから書き戻すしかないね。
というか、構成済みで稼働中のディスクのパーティションテーブル吹っ飛ばしてアレイにアタッチとかそんな簡単にできるのか… >>670
>というか、構成済みで稼働中のディスクの>パーティションテーブル吹っ飛ばして
>アレイにアタッチとかそんな簡単に
>できるのか…
当時、操作ログを残して無かったんで、668は記憶だけに頼ってるんで、
間違ってるかもしれない。
いずれにしろ、当該HDDをzdb -lしてもpool名が出てこないんだが、デバイスファイルをstringsすると「pool_guid」の文字は出てくるので、なんとか復旧したい...
testdiskというのを見つけたので試してみる予定 OpenIndiana 2016.10のインストールUSBは、ddで作成できるようになったってのは本当ですか? 大学院が終わって解析用のLinuxが不要になったら、
このOSを勉強がてら入れて見る予定です。 vboxに入れたら再起動させると不正な処理のエラーで落ちた。
糞osだな。 誰でも簡単にパソコン1台で稼げる方法など
参考までに、
⇒ 『宮本のゴウリエセレレ』 というブログで見ることができるらしいです。
グーグル検索⇒『宮本のゴウリエセレレ』
SYWHPHLTFF ☆ 私たち日本人の、を改正しましょう。現在、
衆議員と参議院の両院で、改憲議員が3分の2を超えております。
『憲法改正国民投票法』、でググってみてください。国会の発議は
すでに可能です。平和は勝ち取るものです。お願い致します。☆☆ OpenIndiana の ksh93 のファイルサイズが数KB な事に驚きました。
FreeBSD や Debian の ksh93 は 1.5MB くらいあります。ライブラリが盛られているのでしょうか。 調べてないけど、前者は共有ライブラリを利用するよう構成されてるのでは?
だけどOSによってはメンテナンス時やトラブル時を想定して、基本的なコマンドは
共有ライブラリに依らずに動作するように考慮されているものもある。
大きさの大小にとらわれず、どうしてそうなっているのか背景を考えてみては。 >>683
objdump で ksh93 のリンクライブラリを見ると何か色々付いていました。
OpenIndiana Hipster 2017.10
libc
FreeBSD 12
libm libmd libutil libc
Debian 10
libdl libutil libm libc
確かにトラブル時単体で動作すれば何かしらの対処ができそうですね。
昔はできるかぎりその場で対処するのかなと思い FreeBSD の旧バージョンを見てみると、
FreeBSD 4 の /bin などの実行ファイルはスタティックリンクで、FreeBSD 5 からはダイナミックリンクでした。 >>684
その場で対処というか、はじめはスタティックリンクしか無くて
SunOS 4.0 の頃にダイナミックリンクが導入された。 openindianaってインストール時に
ファイルシステムはZFS以外選べないんですか? 知り合いから教えてもらったパソコン一台でお金持ちになれるやり方
時間がある方はみてもいいかもしれません
グーグルで検索するといいかも『ネットで稼ぐ方法 モニアレフヌノ』
XDTCW もう完全に死亡?ソラリンもHP-UXみたいになくなるの? 今日何となくZFSについて調べててここに来たけど過疎スレになってるのね…
Nexantastor(コミュニティ版)運用してる人居たらlinuxコマンド運用だとか注意点とか教えてもらおうと思ったんだけどな Open Indianaってのを入れてみたけど、LibreOfficeとかのソフトが無いのな
業務用のSolarisのソフトとか使うような人にはいいんだろうけど
ブートすると
SunOS Relese 5.11
とでてくる
6になる事はないかもしれん >>693
現行 Solaris も SunOS 5.11 ですよ QEMU/KVMで使うとGUIのマウスがまともに機能しないな(描画自体はOK)。
まあ仮想化クライアントとして使われることなんて想定していないだろうから仕方無いけど。
コンソールで使うことにしました。 GCC Is Preparing To End Support For Solaris 10
https://www.phoronix.com/scan.php?page=news_item&px=GCC-Deprecate-Solaris-10 今更だが>>668が気の毒で忘れられない。
どうしてんだろうな そいえば昨日FreeNASのJailsで遊んでたら起動できなくなって、OSクリーンインストールしたあとzpool読み込んでもエラー吐かれて焦ってたw
単にsmartエラーでzpoolインポート失敗してたみたいで、再度読み込んだら無事復旧できたけど、zpool関係ほんと焦るからやめてほしい 素朴な疑問なんだがこの系統のカーネルをベースに実用的なGUIデスクトップ環境の構築は無謀かな?
特にデバドラとアプリの調達が厳しそう。FreeBSDですらLinuxバイナリ互換機能とWineを使ってまぁ・・・って感じだし 今ってソラリンどうなってるの
誰かメンテしてるの
遊びでもいれる意味無かったりする? どうせインストールしてニヤニヤして終わりなんだから、入れればいいじゃん ttps://www.openindiana.org/2019/05/10/openindiana-confluence-security-incident/
解決はしたみたいです OpenIndiana Hipster 2019.04
ttps://www.openindiana.org/2019/05/12/openindiana-hipster-2019-04-is-here/ Virtualbox 6.0.6 の仮想 PC に OpenIndiana Hipster 2019.04 をインストールしてみました。
仮想マシンの作成の最初のところで OS のタイプとバージョンを選ぶ箇所があり、タイプは Solaris でバージョンはどれを選んでも音が出ないのですが、タイプは Windows でバージョンは Windows Vista 以降にすると音が出ます。
Illumos に対するオラクルの陰謀でしょうかw まぁ冗談なんですが。オーディオコントローラーを Intel HD オーディオ にすると音が出るようです。
今回のリリースでは、初めから Virtualbox の Guest Additions が入った状態でしたので手間が省けました。 まだシツコクやってんだ…w
カーネル開発とかどーなってんだろ 全ては亜ロリOracleが買ったことで終わったんだよ
Sun はもう還って来ない で、おまえら、openSolaris を棄てて、どの BSD を選択するの? >>720
Solaris(2)の時点でBSD捨ててんのに? OI148あたりからuptimeで4k dayほど動いていたシステムがついにカーネルパニック起こした。
二基あるデュアルポートNICの一方が死んでバス回りを発狂させたっぽい。
ついでにSAS HBAも死んでHDDが全部見えなくなった時はめっちゃ焦った。
HBAの予備あって良かった。いまどき64bitPCIなんてまず無いだろう。 OpenSolaris時代に開発者だった知人が何年か前に亡くなってたことを知った
故人を偲びつつ後継OSを入れてみようと思う
RIP 餃子Guru openindianaってNTFSマウントできますか? Mounting NTFS volume on an external disk drive - OpenIndiana - OpenIndiana Wiki
https://wiki.openindiana.org/oi/Mounting+NTFS+volume+on+an+external+disk+drive Illumos も SPARC のサポート終了か
これも時代の流れかオラクルのせいか まぁ、SPARCが終わったわけではなくて、Illumosの様なオープンソースなプロジェクトはマイナーなSPARCをサポートするのが困難ということだろうね ebay使ってもマシンの入手が困難だからというのが理由のようだ
きっかけとしてはオラクルがSPARC関係の人員をレイオフしたのがあり
そういう意味では終ってる 富士通は今でもSPARC作ってると思うけど、富士通からわざわざ買わないよな… ボラクルはオープンインディアナにSPARCマシソの寄贈を行わねえのかぬ つうか値段はボッタと思うケドいまでもフツウにイーベイでsunのマシソ売ってんじゃん
いまさらSPARC機買いたくねえって正直に言えばイイのにぬ QEMUのSun4mエミュレーションはよく出来ている
Sun4uはそこまでではないかな jaris-1.0p.iso何処かで再配布していませんか?
カジノサイトになっててワロタ >>738
文句言ってないで株買えば良いんじゃね? >>749
発想が革命家
俺の国が負け組なのは社会がいけない!
革命だ!暴力革命!!! いつになったらHyper-Vにインスコできるようになんだよ kddilabs等の国内ミラーにも、最新ISOをお願いしたいところ。
(現状は20210430で止まっている) 最近Bill Joyの動静を聞かないな
生きとるのかな? ビル・ジョイには死ぬまでハッカーでいてほしかったな
結局成功者はコーディングしないという事だな… このまえハローワークに行ったら、プ-さんのぬいぐるみ置いてあった。それ見てちょっとキレかかったよ プーチンのぬいぐるみ欲しい。
習近平のだったらいらない。 hipstar からまともにリリースされてないよね GC2に末尾のURLいじってみた
今日さえ乗り切れば
今思うと思うんだが
急すぎるのであって違法ギャンブルも調べあげてないな 正直、真っ白な社会など存在しないでやると、他のスレ 言うてまた復活
妬みが凄いわけじゃないとつまらないんじゃないかな