OpenSolaris/Illumos プロジェクト、派生ディストリビューション総合スレ
Sun/Oracle からリリースされる本家「Solaris」に関しては専スレでお願いします
前スレ:OpenSolaris/Illumos (OpenIndiana, etc.) 5
http://toro.2ch.net/test/read.cgi/unix/1285876800/
OpenSolaris 公式サイト http://opensolaris.org/
Illumos 公式サイト http://illumos.org/
Genunix(OpenSolaris コミュニティ/ミラーサイト) http://genunix.org/
[ディストリビューション一覧]
・ OpenIndiana http://openindiana.org/
(OpenSolaris distro == Indiana の実質的後継、Solaris とバイナリ・パッケージ互換)
・ Nexenta OS http://nexenta.org/
(Solaris/Illumos カーネルと Debian/Ubuntu ユーザランドの組み合わせ)
・ StormOS http://stormos.org/
(Nexenta ベースのデスクトップ向けディストリビューション)
・ AuroraUX http://auroraux.org/
(通常の x86、AMD64 に加え、PowerPC にも対応)
・ Jaris http://jaris.jp/
(日本発のプロジェクト)
・ Belenix http://belenix.org/
・ SchilliX http://schillix.berlios.de/
・ MilaX http://milax.org/
・ etc.
探検
OpenSolaris/Illumos (OpenIndiana, etc.) 6
2012/05/19(土) 16:18:42.91
2013/07/01(月) NY:AN:NY.AN
OmniOS使ってみた。
鯖用途なら、現状、OIよりこっちの方が良いかも。
カーネルその他周辺も、精力的にメンテされてるし。
まぁ、OIの更新がとろいってか、止まってんのが悪いんだが。
鯖用途なら、現状、OIよりこっちの方が良いかも。
カーネルその他周辺も、精力的にメンテされてるし。
まぁ、OIの更新がとろいってか、止まってんのが悪いんだが。
2013/07/02(火) NY:AN:NY.AN
>>427
OIは hipster ってのが頑張ってる。
151a7 -> hipster は、クリーンインストールからのアップグレードはいけたけど、
使用中のa7からは、試してないんだよな。
kernelとか最低限のuserlandは、最新のillumos-gate追っかけてるよ。
リポジトリはこれ -> http://pkg.openindiana.org/hipster/
OIは hipster ってのが頑張ってる。
151a7 -> hipster は、クリーンインストールからのアップグレードはいけたけど、
使用中のa7からは、試してないんだよな。
kernelとか最低限のuserlandは、最新のillumos-gate追っかけてるよ。
リポジトリはこれ -> http://pkg.openindiana.org/hipster/
2013/07/15(月) NY:AN:NY.AN
oi_151a7で512バイトセクタの2Tバイトディスク10発でraid-z2のpoolを使っていたんだが
最近の猛暑でマシンが落ちてしまい、何とか復旧はしたんだが、一つのWD20EARSがあまりに遅くて全体の性能を落とすようになった。
そこでST2000VN000を買ってきて交換した。
・・・んだがディスク交換後にreplaceかけたらエラーになった
zpool replace tank c14t1d0
cannot replace c14t1d0 with c14t1d0: devices have different sector alignment
過去ログ呼んでたら
>>264
でそのあたりの話が出てたので書いてあったwikiを見た
がんばって英語を読んでみたが最後のほうの
Migration of older pools onto newer disks
という章を読む限り、既存のashift=9で構成されているpoolに4kのディスクを交換するのって要するに無理ってことなんだろうか
最近の猛暑でマシンが落ちてしまい、何とか復旧はしたんだが、一つのWD20EARSがあまりに遅くて全体の性能を落とすようになった。
そこでST2000VN000を買ってきて交換した。
・・・んだがディスク交換後にreplaceかけたらエラーになった
zpool replace tank c14t1d0
cannot replace c14t1d0 with c14t1d0: devices have different sector alignment
過去ログ呼んでたら
>>264
でそのあたりの話が出てたので書いてあったwikiを見た
がんばって英語を読んでみたが最後のほうの
Migration of older pools onto newer disks
という章を読む限り、既存のashift=9で構成されているpoolに4kのディスクを交換するのって要するに無理ってことなんだろうか
2013/07/16(火) NY:AN:NY.AN
>>429
とりあえず低速病乙。
試したこと無いけど、多分無理。
ま、出来たとしても、ashift=9のpoolでAFTのDrive使ったら、恐らくそいつが足引っ張る事になるだろうけど。
既存のHDDをsd.confでAFT扱いにして、pool作り直す手もあるっちゃあるが、
結局pool消す事には変わらんし、素直に全数入れ替える事を、おすすめするよ。
他にもEARSが有るなら、そいつも低速病発症するかもしれんし。
緑なんてさっさとポイしちゃいなさい。
とりあえず低速病乙。
試したこと無いけど、多分無理。
ま、出来たとしても、ashift=9のpoolでAFTのDrive使ったら、恐らくそいつが足引っ張る事になるだろうけど。
既存のHDDをsd.confでAFT扱いにして、pool作り直す手もあるっちゃあるが、
結局pool消す事には変わらんし、素直に全数入れ替える事を、おすすめするよ。
他にもEARSが有るなら、そいつも低速病発症するかもしれんし。
緑なんてさっさとポイしちゃいなさい。
2013/07/16(火) NY:AN:NY.AN
7K4000 とか、2TB でも 512byte/sector なの買えばいいんじゃねーの?
2013/07/16(火) NY:AN:NY.AN
2013/07/16(火) NY:AN:NY.AN
>>431
> 7K4000とかググってみたけど扱ってる店もうないみたいだが・・・
自己レスだが4000とかってサイズかと思って2000に置き換えてググってたがそうじゃないのか
サハロフとかの表記だと別の形式だから混乱したがHGSTならまだ512セクタのHDDを扱ってるのな
でも値段がちょっと高めなのが悩ましい
> 7K4000とかググってみたけど扱ってる店もうないみたいだが・・・
自己レスだが4000とかってサイズかと思って2000に置き換えてググってたがそうじゃないのか
サハロフとかの表記だと別の形式だから混乱したがHGSTならまだ512セクタのHDDを扱ってるのな
でも値段がちょっと高めなのが悩ましい
2013/07/17(水) NY:AN:NY.AN
>>432
FreeBSDでも同じような感じに陥ったことがあって、もう面倒くさくなったので
新規poolは全部ashift:12で作るようにしちゃってる
10台全部まとめて交換しなくても、半分くらいの交換で低速病が改善されるかも
自分の場合は、6台交換した時点で低速病が滅多に出なくなった
因みに交換したHDDはsmartエラー出まくりだったから、RMA交換して
ヤフオクに出しちゃったから、出費がそんなになかったのはラッキーだった
FreeBSDでも同じような感じに陥ったことがあって、もう面倒くさくなったので
新規poolは全部ashift:12で作るようにしちゃってる
10台全部まとめて交換しなくても、半分くらいの交換で低速病が改善されるかも
自分の場合は、6台交換した時点で低速病が滅多に出なくなった
因みに交換したHDDはsmartエラー出まくりだったから、RMA交換して
ヤフオクに出しちゃったから、出費がそんなになかったのはラッキーだった
2013/07/17(水) NY:AN:NY.AN
2013/07/17(水) NY:AN:NY.AN
どうせ2.2TBの壁とかジャネーノ?
2013/07/18(木) NY:AN:NY.AN
>>436
そのとおりダヨ
いまpoolまるごと更新するならコスパと将来性で3TBモデル選びたいがそうするとHBAまで更新しなきゃならなくなる
さて22時にディスク交換してresilverが後12時間かかるようだ
明日はエアコン付けっぱなし&前面扇風機で会社行くしかねーな
そのとおりダヨ
いまpoolまるごと更新するならコスパと将来性で3TBモデル選びたいがそうするとHBAまで更新しなきゃならなくなる
さて22時にディスク交換してresilverが後12時間かかるようだ
明日はエアコン付けっぱなし&前面扇風機で会社行くしかねーな
2013/07/18(木) NY:AN:NY.AN
2013/07/19(金) NY:AN:NY.AN
2013/07/23(火) NY:AN:NY.AN
ZFSだけ使えればいいから、あとはZFSを外向きに簡単設定でexport出来るようなUIをつけたのを出してくれないかな
2013/07/23(火) NY:AN:NY.AN
export が NFS 的なそれなら、外向きもクソもないだろうし、inherit するから create する時に
sharenfs なりしとけばいいと思うが
sharenfs なりしとけばいいと思うが
2013/07/25(木) NY:AN:NY.AN
freenasとかnexentaとかじゃいかんのか
443名無しさん@お腹いっぱい。
2013/08/16(金) NY:AN:NY.AN oi_151a_prestable8来てた
ttp://wiki.openindiana.org/oi/oi_151a_prestable8+Release+Notes
ttp://wiki.openindiana.org/oi/oi_151a_prestable8+Release+Notes
444名無しさん@お腹いっぱい。
2013/08/16(金) NY:AN:NY.AN 昨日oi-dev-151a8-live-x86.isoをダウンロードするのに一晩かかった。
445名無しさん@お腹いっぱい。
2013/08/16(金) NY:AN:NY.AN 黄緑色は目が疲れる。
446名無しさん@お腹いっぱい。
2013/08/21(水) NY:AN:NY.AN SATA3に対応したっぽい表示になったっぴ。
以下、boot開始〜ログインできるところまでsyslogを比較して違ってたところ。
〜〜
sata: SATA Gen2 signaling speed (3.0Gbps)
↓a7からa8
sata: SATA Gen3 signaling speed (6.0Gbps)
〜〜
zfs: open version 5000 pool rpool using 5000
↓a7からa8
でない
〜〜
/usr/lib/power/powerd: [ID 387247 daemon.error] Able to open /dev/srn
↓a7からa8
でない
〜〜
以下、boot開始〜ログインできるところまでsyslogを比較して違ってたところ。
〜〜
sata: SATA Gen2 signaling speed (3.0Gbps)
↓a7からa8
sata: SATA Gen3 signaling speed (6.0Gbps)
〜〜
zfs: open version 5000 pool rpool using 5000
↓a7からa8
でない
〜〜
/usr/lib/power/powerd: [ID 387247 daemon.error] Able to open /dev/srn
↓a7からa8
でない
〜〜
2013/09/09(月) 15:14:19.35
チラ裏
Oi 151a8とzfs on Linux(0.6.2)のアレイ互換性実験してみた
Linux側の鳥はopenSUSEとdebianで
zfs export/zfs importで問題なくお互いのアレイを使える模様
exportなしでOiを単純にシャットダウンしてLinux側でzfs import -f でも大丈夫
あたりめーだろアフォという話だったらスマソ
Oi 151a8とzfs on Linux(0.6.2)のアレイ互換性実験してみた
Linux側の鳥はopenSUSEとdebianで
zfs export/zfs importで問題なくお互いのアレイを使える模様
exportなしでOiを単純にシャットダウンしてLinux側でzfs import -f でも大丈夫
あたりめーだろアフォという話だったらスマソ
2013/09/09(月) 22:41:14.41
よろしい、では各feature flagsをactiveにしたときの互換性を確認するんだ
・・・というのは冗談としてoi、ZoLやその他諸々と相互運用できるファイルシステムは便利だな
FreeBSDもv5000になったみたいだし、MacZFSもZoLからのポートを開発中だから色んなOSで広く使えそう。
ディスク上のデータだけちゃんとしてれば各ポートでトラブル起こってもとりあえずoiでインポートできるから助かる。
(実際ZoLでresilverが無限ループに陥ったけどoiで回復できたことがあった)
・・・というのは冗談としてoi、ZoLやその他諸々と相互運用できるファイルシステムは便利だな
FreeBSDもv5000になったみたいだし、MacZFSもZoLからのポートを開発中だから色んなOSで広く使えそう。
ディスク上のデータだけちゃんとしてれば各ポートでトラブル起こってもとりあえずoiでインポートできるから助かる。
(実際ZoLでresilverが無限ループに陥ったけどoiで回復できたことがあった)
2013/09/09(月) 23:17:10.42
正直、単体ディスクで試したんだろーな、程度にしか思えない俺がいる
2013/09/10(火) 00:02:16.63
なんか警告とかでた?
451447
2013/09/10(火) 00:04:27.05 >>449
一応仮想環境でのRAIDZ3台から初めて実ディスクSATA3台のRAIDZ、実ディスク6台のRAID-Z2、同6台AFT付と試したお
一応仮想環境でのRAIDZ3台から初めて実ディスクSATA3台のRAIDZ、実ディスク6台のRAID-Z2、同6台AFT付と試したお
2013/09/18(水) 22:24:35.83
openzfsのページでGMOのロゴがでかでかと出てきて
盛大に萎えた
盛大に萎えた
2013/09/19(木) 00:27:39.27
>>452
https://github.com/zfs-osx/zfs/blob/master/AUTHORS.OSX
実は現行のZFS-OSXに一番コミットしてるのがGMOの人だったりする。
だからまあ気に食わなくても理解はできる。
https://github.com/zfs-osx/zfs/blob/master/AUTHORS.OSX
実は現行のZFS-OSXに一番コミットしてるのがGMOの人だったりする。
だからまあ気に食わなくても理解はできる。
2013/09/23(月) 06:22:34.76
ZFSを利用したNASを構築を検討しているのですが何点か疑問があります
1.OracleSolarisとOpenSolaris系で機能・性能上の違いはどの程度ありますか?
2.Solaris系とFreeBSD系で機能・性能上の違いはどの程度ありますか?
FreeBSDは使用経験がありますが、ZFSはSolarisが本家なので
どちらがよいのか悩んでいます
3.ZFSでWindows8のストレージプールのnウェイミラー的な構成は可能ですか?
5ウェイミラー(4台死亡までサービス継続)の構成が取れるのであれば
そのような構成の利用も検討したいです
判る方がおりましたら教えてください。よろしくお願いします
1.OracleSolarisとOpenSolaris系で機能・性能上の違いはどの程度ありますか?
2.Solaris系とFreeBSD系で機能・性能上の違いはどの程度ありますか?
FreeBSDは使用経験がありますが、ZFSはSolarisが本家なので
どちらがよいのか悩んでいます
3.ZFSでWindows8のストレージプールのnウェイミラー的な構成は可能ですか?
5ウェイミラー(4台死亡までサービス継続)の構成が取れるのであれば
そのような構成の利用も検討したいです
判る方がおりましたら教えてください。よろしくお願いします
2013/09/23(月) 08:34:42.52
>>454
1.
OracleSolarisは機能的にはプール暗号化とかそのへんで若干進んでる、性能レベルは誤差
ただIllumos系はFreeBSD/ZFSonLinuxとの互換性を取る方向に進んでる
今は完全ではないけどそのうちアレイの完全互換が期待できる
2.
zfs自身の性能差はFreeBSDとSolarisで大差ない
ただし、iSCSI/cifs/nfsあたりの性能はillumosの方が高い。これは体感できるレベル
3.
windowsのストレージプールがよくわからんが、3Way〜nWayのRAID1相当ってことでいいのかな?
それは問題なくできる。RAID-Z/Z2の4Wayミラーで8台*4の32台アレイとか普通に組める
1.
OracleSolarisは機能的にはプール暗号化とかそのへんで若干進んでる、性能レベルは誤差
ただIllumos系はFreeBSD/ZFSonLinuxとの互換性を取る方向に進んでる
今は完全ではないけどそのうちアレイの完全互換が期待できる
2.
zfs自身の性能差はFreeBSDとSolarisで大差ない
ただし、iSCSI/cifs/nfsあたりの性能はillumosの方が高い。これは体感できるレベル
3.
windowsのストレージプールがよくわからんが、3Way〜nWayのRAID1相当ってことでいいのかな?
それは問題なくできる。RAID-Z/Z2の4Wayミラーで8台*4の32台アレイとか普通に組める
2013/09/23(月) 15:02:47.98
最近solaris利用者かなり減ってます?
2013/09/23(月) 15:04:34.62
そりゃ増えることはないからね
2013/09/23(月) 15:15:02.66
絶対数では微々増で、割合としては大幅減なんじゃないかな
2013/09/23(月) 18:39:42.70
460454
2013/09/23(月) 20:29:22.71 レスありがとうございます
長文失礼します
>>455
1・・・こだわらなければOpenSolaris系で良さそうですね
2・・・NASとしての性能面ではSolaris系の方が有利ですか
軽く探して見た感じだとSolaris系の場合は対応したSATA HBA(PCI-Express)カードが
なかなか見つから無いように思います
3・・・すみません。自分もWindows8のストレージプールについては良く理解できていません
ストレージを仮想化して、スケーラビリティ、復元性、効率性を高める - Building Windows 8 - Site Home - MSDN Blogs
ttp://blogs.msdn.com/b/b8_ja/archive/2012/01/13/10256576.aspx
2ウェイミラーと3ウェイミラーが使用可能のようですが、3ウェイミラーは
・パリティではなくミラーを複数台のドライブに分散して記録する
・2台以上死んでもサービスを継続できる
っぽいです。具体的な原理は自分も良く理解できていません
このミラー数を5くらいに増やせれば4台死んでもサービスの継続が可能なのでは?と思いました
パリティを用いないのでRAID-ZやRAID-Z2よりパフォーマンス面で有利のような気もします
Windows8による構築も検討して調べてみているのですが、縮退モードからドライブ交換無しでリビルドできたり
プールからドライブの削除が出来たり、SATAカードが選び放題だったりと、Solaris(or FreeBSD)+ZFSより
優れる面もあるのですが、実績がほとんど無いこととWindowsだと言うことで不安があります
>>459
現在16台構成(内2〜4台はリザーブ)でNASの構築を検討しているのですが
HBAやドライブ電源の障害でNAS丸ごとクラッシュという事態は避けたいです(単一障害点の削減)
RAID-Z2や3ウェイミラーの場合は2台の死亡までしか許容できないのでHBAと電源を
8台用意する必要があり、流石に現実的ではありません
現実的には
4台死亡を許容(5ウェイパリティ、RAID-Zしたセットをプールに追加)してHBAと電源を4台用意するか
8台死亡を許容(RAID10。ミラーしたセットをプールに追加)してHBAと電源を2台用意する
あたりが落としどころかなと思っています
長文失礼します
>>455
1・・・こだわらなければOpenSolaris系で良さそうですね
2・・・NASとしての性能面ではSolaris系の方が有利ですか
軽く探して見た感じだとSolaris系の場合は対応したSATA HBA(PCI-Express)カードが
なかなか見つから無いように思います
3・・・すみません。自分もWindows8のストレージプールについては良く理解できていません
ストレージを仮想化して、スケーラビリティ、復元性、効率性を高める - Building Windows 8 - Site Home - MSDN Blogs
ttp://blogs.msdn.com/b/b8_ja/archive/2012/01/13/10256576.aspx
2ウェイミラーと3ウェイミラーが使用可能のようですが、3ウェイミラーは
・パリティではなくミラーを複数台のドライブに分散して記録する
・2台以上死んでもサービスを継続できる
っぽいです。具体的な原理は自分も良く理解できていません
このミラー数を5くらいに増やせれば4台死んでもサービスの継続が可能なのでは?と思いました
パリティを用いないのでRAID-ZやRAID-Z2よりパフォーマンス面で有利のような気もします
Windows8による構築も検討して調べてみているのですが、縮退モードからドライブ交換無しでリビルドできたり
プールからドライブの削除が出来たり、SATAカードが選び放題だったりと、Solaris(or FreeBSD)+ZFSより
優れる面もあるのですが、実績がほとんど無いこととWindowsだと言うことで不安があります
>>459
現在16台構成(内2〜4台はリザーブ)でNASの構築を検討しているのですが
HBAやドライブ電源の障害でNAS丸ごとクラッシュという事態は避けたいです(単一障害点の削減)
RAID-Z2や3ウェイミラーの場合は2台の死亡までしか許容できないのでHBAと電源を
8台用意する必要があり、流石に現実的ではありません
現実的には
4台死亡を許容(5ウェイパリティ、RAID-Zしたセットをプールに追加)してHBAと電源を4台用意するか
8台死亡を許容(RAID10。ミラーしたセットをプールに追加)してHBAと電源を2台用意する
あたりが落としどころかなと思っています
2013/09/23(月) 21:16:01.12
> Solaris系の場合は対応したSATA HBA(PCI-Express)カードがなかなか見つから無いように思います
ま、思うのは勝手だけどな。普通LSI買うだろ
> このミラー数を5くらいに増やせれば4台死んでもサービスの継続が可能なのでは?と思いました
別に何面ミラーでも作れると思うけどな>ZFS
> パリティを用いないのでRAID-ZやRAID-Z2よりパフォーマンス面で有利のような気もします
パフォーマンスは知らんけど、容量は不利だろうな
> 縮退モードからドライブ交換無しでリビルドできたりプールからドライブの削除が出来たり
ミラー構成なら何でも出来るだろ>ZFS
> 現在16台構成(内2〜4台はリザーブ)でNASの構築を検討しているのですが
以下意味不明につきレスは避ける
取り敢えず、1台のマシンをNASにするなら、その1台が単一障害点とやらになるだろ
ま、思うのは勝手だけどな。普通LSI買うだろ
> このミラー数を5くらいに増やせれば4台死んでもサービスの継続が可能なのでは?と思いました
別に何面ミラーでも作れると思うけどな>ZFS
> パリティを用いないのでRAID-ZやRAID-Z2よりパフォーマンス面で有利のような気もします
パフォーマンスは知らんけど、容量は不利だろうな
> 縮退モードからドライブ交換無しでリビルドできたりプールからドライブの削除が出来たり
ミラー構成なら何でも出来るだろ>ZFS
> 現在16台構成(内2〜4台はリザーブ)でNASの構築を検討しているのですが
以下意味不明につきレスは避ける
取り敢えず、1台のマシンをNASにするなら、その1台が単一障害点とやらになるだろ
2013/09/23(月) 21:47:41.75
>>460
ttp://wiki.openindiana.org/pages/viewpage.action?pageId=23856206
Adaotec/Highpoint/LSIと主だったところは大体対応してるけどな
(Highpoint対応されたのは確かに比較的最近だが)
ttp://wiki.openindiana.org/pages/viewpage.action?pageId=23856206
Adaotec/Highpoint/LSIと主だったところは大体対応してるけどな
(Highpoint対応されたのは確かに比較的最近だが)
2013/09/23(月) 21:53:30.33
てゆーかそこまで耐久性とかこだわるんならSAS使うべ?それならWindowsのみなんてカードほとんど無いと思うけど?
2013/09/23(月) 22:13:29.99
なんつーか、素直にNetAppでも買っとけって話じゃね?
2013/09/23(月) 22:14:54.71
要件定義に失敗してるよーな
2013/09/23(月) 22:23:59.60
Win8のn方向ミラーは「データをアレイ中の任意のn台に書く」ってだけだよね。そんな難しい原理ではなかった気が。
何重ミラーにしようと1つのマシン上でやる以上はrm -rf /には勝てないんだから、
別マシンを用意してzfs send/recvする方が良いとは思うんだけどね。
数TBのバックアップストレージを予算的に用意できないからやむを得ずRAIDによるデータ保護に期待する、
ならともかく5wayミラー想定するほどHDDに余裕あるなら、自分だったら8台でRAID-Z2組んだマシンを2台用意する。
データ保護より何より高可用性が大事なんだとしても、HBAなり電源が逝ったみたいな事態だと結局マシンは止めなきゃいかんのだし。
何重ミラーにしようと1つのマシン上でやる以上はrm -rf /には勝てないんだから、
別マシンを用意してzfs send/recvする方が良いとは思うんだけどね。
数TBのバックアップストレージを予算的に用意できないからやむを得ずRAIDによるデータ保護に期待する、
ならともかく5wayミラー想定するほどHDDに余裕あるなら、自分だったら8台でRAID-Z2組んだマシンを2台用意する。
データ保護より何より高可用性が大事なんだとしても、HBAなり電源が逝ったみたいな事態だと結局マシンは止めなきゃいかんのだし。
2013/09/24(火) 08:16:49.37
snapshotスクリプトがコケててsnapshotが取れてなかったDatasetが
アプリのバグでファイルの半数以上がrmされたorz
(朝五時に電話かかってきて「ファイル消えてんぞぐるぁ」と来た)
zdbでブロックが残ってるのは確認したが、約2T/20万objectの羅列を眺めて15分ほど固まった
そんな俺に誰か一言
アプリのバグでファイルの半数以上がrmされたorz
(朝五時に電話かかってきて「ファイル消えてんぞぐるぁ」と来た)
zdbでブロックが残ってるのは確認したが、約2T/20万objectの羅列を眺めて15分ほど固まった
そんな俺に誰か一言
2013/09/24(火) 10:37:23.78
バックアップって大事だね
2013/09/24(火) 10:51:34.55
snapshotでniceshot!
2013/09/24(火) 15:14:49.90
2013/10/02(水) 22:09:45.65
仮想マシン上のOpenSolarisにApacheとPHPをインストールしなければならないのですが、
手元の資料にはどちらも解凍・展開からの手順しか書いておらず進められずにいます
解凍・展開前に必要な準備等がありましたら教えて頂けないでしょうか
手元の資料にはどちらも解凍・展開からの手順しか書いておらず進められずにいます
解凍・展開前に必要な準備等がありましたら教えて頂けないでしょうか
2013/10/02(水) 23:22:37.37
まず服を脱ぎます。
2013/10/02(水) 23:24:29.22
まず服を脱ぎます
2013/10/03(木) 08:39:21.94
PHP出版に勤めます
2013/10/04(金) 19:51:07.50
PHP出版を辞めましたエントリを書きます
2013/10/04(金) 19:52:54.75
つまんね。
2013/10/05(土) 21:05:41.25
2013/10/06(日) 15:15:27.57
2013/11/03(日) 12:20:27.14
CIFSストレージとして使ってますが、ストレージ空き容量が減ってくると
加速度的に読み書きが遅くなりますね
加速度的に読み書きが遅くなりますね
480名無しさん@お腹いっぱい。
2013/11/03(日) 14:12:45.89 >>479
ZFSの事か?
ま、公式にも使用量は80%以下で使えと言われているし、
CoWの仕組み上、空き容量が減ってくると遅くなるのは、
しようが無い事ではある。
DISK数が少ないと、なおさら効いてくるかもな。
ZFSの事か?
ま、公式にも使用量は80%以下で使えと言われているし、
CoWの仕組み上、空き容量が減ってくると遅くなるのは、
しようが無い事ではある。
DISK数が少ないと、なおさら効いてくるかもな。
2013/11/03(日) 15:14:16.11
そこでZILとL2ARCをSSDで、ですよ奥さん!
2013/12/06(金) 22:56:03.83
dedup=onでrecordsize=4kとかにするとファイル書き込んだときにwriteが増えて異常に遅くなるんだがこれなんだろ?
recordsize弄らなければ急に遅くはならないし、read増えてないのでDDTに書きに行ってるとかか??
recordsize大きいとデータに埋もれて見えないだけとかいうオチか? dedup率優先なpoolにしようかと思ったが遅すぎる
実験方法:
vmに16〜32GB程度メモリ割り当て。zpool create ; zfs create ; zfs set dedup=on, compress=on, sync=disabled
cp dummy_5GB.bin hoge
zfs set recordsize=4k
cp dummy_5GB.bin hoge
recordsize弄らなければ急に遅くはならないし、read増えてないのでDDTに書きに行ってるとかか??
recordsize大きいとデータに埋もれて見えないだけとかいうオチか? dedup率優先なpoolにしようかと思ったが遅すぎる
実験方法:
vmに16〜32GB程度メモリ割り当て。zpool create ; zfs create ; zfs set dedup=on, compress=on, sync=disabled
cp dummy_5GB.bin hoge
zfs set recordsize=4k
cp dummy_5GB.bin hoge
2013/12/07(土) 07:48:19.15
>>482
ttps://blogs.oracle.com/roch/entry/tuning_zfs_recordsize
Other consideration (metadata overhead, caching) dictates however that the recordsize not be reduced below a certain point (16K to 64K; do send-in your experience).
ttps://blogs.oracle.com/roch/entry/tuning_zfs_recordsize
Other consideration (metadata overhead, caching) dictates however that the recordsize not be reduced below a certain point (16K to 64K; do send-in your experience).
2013/12/07(土) 19:19:55.08
今回のはdedupが支配要因に見えるしここまで遅いとそういう話ではないような気も。
ひとまず32kでやってみるけど。
ddtとかのメタデータって2〜3重化されてるんだっけ? 実験的にOFFにできるのかな。
実験先のドライブが1LUNなのが問題な気がしてきた。
ひとまず32kでやってみるけど。
ddtとかのメタデータって2〜3重化されてるんだっけ? 実験的にOFFにできるのかな。
実験先のドライブが1LUNなのが問題な気がしてきた。
2013/12/08(日) 08:34:34.33
2重化されてる。
ZAPはrecordsize単位で作られるのだから128K→4Kでは32倍にもなる。
ZAPはrecordsize単位で作られるのだから128K→4Kでは32倍にもなる。
2013/12/08(日) 09:08:30.23
ところで、本番で想定しているプールサイズで、メモリ消費量予想してみました?
ttp://www.c0t0d0s0.org/archives/7271-ZFS-Dedup-Internals.html
RAM 32GB→ARC 24GB→metadata 6GB→...
recorsize=4KBだと、プール1TBで DDT 3GBくらいとか?
dedupでストレージを節約しようとしても、代償に必要とされる
メモリが高コストにつくと、あまり意味ないのでは。
ttp://www.c0t0d0s0.org/archives/7271-ZFS-Dedup-Internals.html
RAM 32GB→ARC 24GB→metadata 6GB→...
recorsize=4KBだと、プール1TBで DDT 3GBくらいとか?
dedupでストレージを節約しようとしても、代償に必要とされる
メモリが高コストにつくと、あまり意味ないのでは。
2013/12/09(月) 19:54:47.72
>>485が書いてくれてるとおりrecordsizeの減少はmetadataの急激な増大を生むので単にそれが原因ぽい
特に1ドライブ上で実験してしまうと離れた位置に2重化して書き込もうとするので猛烈なrandom writeに。
(割とマシなSANでもRAID6 1LUNマウントでは追いつかなかった)
物理ドライブを8本にしてみたら極端な遅さにはならなくなった(1〜2本が酷いだけで4本程度あれば十分かもしれない)が
write総量がかなり増えることには違いないので相性の良いハードで無い限りrecordsize=4kはしんどそう
格納するデータが2k〜4kブロックでないと重複排除が効きづらいものだとzfsの使用は悩ましいことになる
recordsize=128kでの重複排除率が低すぎる場合はserver2012あたりに浮気した方がいいのかもしれない
>>486
メモリ64のマシンが余ったので仮想で半分割り当ててみたんだがarc_meta_limit上げれば割と収まるんじゃないかなー
若しくはARCは16程度でL2に64くらいとか(計算してないけど)
特に1ドライブ上で実験してしまうと離れた位置に2重化して書き込もうとするので猛烈なrandom writeに。
(割とマシなSANでもRAID6 1LUNマウントでは追いつかなかった)
物理ドライブを8本にしてみたら極端な遅さにはならなくなった(1〜2本が酷いだけで4本程度あれば十分かもしれない)が
write総量がかなり増えることには違いないので相性の良いハードで無い限りrecordsize=4kはしんどそう
格納するデータが2k〜4kブロックでないと重複排除が効きづらいものだとzfsの使用は悩ましいことになる
recordsize=128kでの重複排除率が低すぎる場合はserver2012あたりに浮気した方がいいのかもしれない
>>486
メモリ64のマシンが余ったので仮想で半分割り当ててみたんだがarc_meta_limit上げれば割と収まるんじゃないかなー
若しくはARCは16程度でL2に64くらいとか(計算してないけど)
2013/12/14(土) 09:43:55.45
Dedupの効率?みたいな物の比較ってある?
確かにZFSでDedupしても予想の半分程度しか減らないことがある
Compressと併用すると効率が悪くなったりしないよね
確かにZFSでDedupしても予想の半分程度しか減らないことがある
Compressと併用すると効率が悪くなったりしないよね
2013/12/14(土) 17:36:55.37
dedupは思ったほど効果なかったなぁ
そのデメリットがあまりにひどすぎて使うのやめたが
gzip圧縮の方がかなり効く
そもそもdedupがそんなに必要となる状況ってどんなのがあるんだろう?
バックアップで各世代をそのまま保存しつつ、変更がないから同じファイルが
いくつも存在するといった場合なら、そもそもsnapshotバックアップでいいし
そのデメリットがあまりにひどすぎて使うのやめたが
gzip圧縮の方がかなり効く
そもそもdedupがそんなに必要となる状況ってどんなのがあるんだろう?
バックアップで各世代をそのまま保存しつつ、変更がないから同じファイルが
いくつも存在するといった場合なら、そもそもsnapshotバックアップでいいし
2013/12/14(土) 20:40:55.24
仮想マシンのイメージファイル置き場がメジャーじゃね
ひな形vmをコピーする際にzfs cloneすればいいんだが、実際は丸コピした方が楽な場合が多くw
(ファイル単位でclone出来るようにはならんのか?)
ひな形vmをコピーする際にzfs cloneすればいいんだが、実際は丸コピした方が楽な場合が多くw
(ファイル単位でclone出来るようにはならんのか?)
2013/12/14(土) 20:50:36.07
マジレスすると、メールアーカイブで添付ファイルとかに効くと思う
2013/12/14(土) 22:28:48.23
添付ファイル単位で単離されてるならそりゃ効くだろうけども
メル鯖によってはbase64encされた状態でtextの間に挟まってないかそれ? dedup効くのかね
メル鯖によってはbase64encされた状態でtextの間に挟まってないかそれ? dedup効くのかね
2013/12/14(土) 22:42:06.40
>>490
cloneはファイルシステムを分けて使う場合は便利だけど、
逆にそれが不便になる場合もあるからねぇ
さくらでZFSストレージをVPSのファイルサーバに使って大失敗してたけど
あれどんなシステムでどんな失敗だったんだろうな
cloneはファイルシステムを分けて使う場合は便利だけど、
逆にそれが不便になる場合もあるからねぇ
さくらでZFSストレージをVPSのファイルサーバに使って大失敗してたけど
あれどんなシステムでどんな失敗だったんだろうな
2013/12/14(土) 23:55:38.85
上で上がってたような特定用途の領域を必要なだけFSとして切り出してdedupかけるのが
(メモリ的にも現実的な)本来の用途なわけで、数TB、数十TBのプール全体にdedupかけて、なんてのはアホの極みでしかないな。
1GBくらいのディスクイメージcpして使用領域増えてないわーい、みたいなブログ記事たまに見るけどそんなこと言ってもねぇ・・・
(メモリ的にも現実的な)本来の用途なわけで、数TB、数十TBのプール全体にdedupかけて、なんてのはアホの極みでしかないな。
1GBくらいのディスクイメージcpして使用領域増えてないわーい、みたいなブログ記事たまに見るけどそんなこと言ってもねぇ・・・
2013/12/15(日) 01:01:29.62
さくらの場合はnfsで使っていて1000台ぐらいで性能が頭打ちに
なったとかどっかで見た気がする。
そもそもnfsを使うのが筋が悪かった。
なったとかどっかで見た気がする。
そもそもnfsを使うのが筋が悪かった。
2013/12/15(日) 01:33:43.51
特定用途のvm置き場にdedupかけたけど効果はさっぱりだったな。ブロックサイズ固定まではしてみなかったが
さくらはzfsでdedupかけてたのかな?
どちらにせよzfs自体が大規模トラフィックに向いてない気がするな。nfsは構造上小規模向けだろうに
GlusterFSやらの分散型でスケールアウト狙った方が
さくらはzfsでdedupかけてたのかな?
どちらにせよzfs自体が大規模トラフィックに向いてない気がするな。nfsは構造上小規模向けだろうに
GlusterFSやらの分散型でスケールアウト狙った方が
2013/12/15(日) 01:38:34.13
NFSはそもそも共有して意味があるんであって
クライアントが別々にのファイルにアクセスするなら
NFSする意味がないからな
iSCSIの方が良かったんじゃないのかと
cloneで同じ設定のVMを作り出すのは便利だからそこだけうまくやってればねぇ
クライアントが別々にのファイルにアクセスするなら
NFSする意味がないからな
iSCSIの方が良かったんじゃないのかと
cloneで同じ設定のVMを作り出すのは便利だからそこだけうまくやってればねぇ
2013/12/15(日) 09:54:37.02
共有してるからvMotionできる
iSCSIよりずっと手軽で管理しやすい
iSCSIよりずっと手軽で管理しやすい
2013/12/15(日) 10:44:40.53
それは微妙にzfsとは違う方向から異論が出そうだが、
iscsiの使い勝手が悪い件については賛成。
そりゃnfsでファイル見えてりゃ規模が大きくなればなるほど管理が圧倒的に楽になる。
ただzfsでサブディレクトリ作ってもクライアントから追加でマウントしないと共有が見えない。
Linuxのnfsdで出来てるんだから何とかしろよ絶対便利だろそれorz
iscsiの使い勝手が悪い件については賛成。
そりゃnfsでファイル見えてりゃ規模が大きくなればなるほど管理が圧倒的に楽になる。
ただzfsでサブディレクトリ作ってもクライアントから追加でマウントしないと共有が見えない。
Linuxのnfsdで出来てるんだから何とかしろよ絶対便利だろそれorz
2013/12/15(日) 11:04:15.45
サブディレクトリ???
2013/12/15(日) 17:33:27.78
ファイルシステムのことかな?
そりゃ別だからmountしないと見えない
そりゃ別だからmountしないと見えない
2013/12/15(日) 20:47:49.35
ああ、zfs createで作られるマウントポイントってなんつーの?
zfs create pool/zfs1
zfs create pool/zfs1/zfs2
zfs create pool/zfs1/zfs2/zfs3
みたく階層化たりとか。
Linux系はpool/zfs1をnfs共有しとくとその下に増やしても自動で見えるイメージ
inodeとか誤魔化せば出来るんじゃねーかやってくれよっていう
zfs create pool/zfs1
zfs create pool/zfs1/zfs2
zfs create pool/zfs1/zfs2/zfs3
みたく階層化たりとか。
Linux系はpool/zfs1をnfs共有しとくとその下に増やしても自動で見えるイメージ
inodeとか誤魔化せば出来るんじゃねーかやってくれよっていう
2013/12/15(日) 22:41:29.91
>>502
ふっ、貴様はまだbtrfsを知らないようだな・・・
ふっ、貴様はまだbtrfsを知らないようだな・・・
2013/12/15(日) 22:48:48.99
2013/12/16(月) 00:20:56.53
階層化たり???
2013/12/16(月) 00:29:12.62
2013/12/16(月) 00:34:52.91
2013/12/16(月) 15:28:03.50
ZFSの階層構造はプロパティとかの管理上便利ってだけでファイルシステムとしては独立してるんだから
運用上はext4とかの領域作りまくって色んなフォルダにマウントしてるのと変わらん。
>>507の言うようにdefaultだとZFS上の階層構造そのままの位置にマウントするからフォルダ的に扱える気がするだけだな。
dedupを実際に活用できてる現場ってどれくらいあるのかね?
それなりに大きいストレージだと個人レベルじゃ用意できない量のメモリを必要とするし、
それだけのメモリを用意できるストレージだとストレージ自体ももっと大規模で結局メモリ足りないんじゃ?と思ってしまう。
メモリー積んでdedupかけるより、dedupで削減できる容量分のHDD追加した方がコスト的にマシなケースしか浮かんでこない。
運用上はext4とかの領域作りまくって色んなフォルダにマウントしてるのと変わらん。
>>507の言うようにdefaultだとZFS上の階層構造そのままの位置にマウントするからフォルダ的に扱える気がするだけだな。
dedupを実際に活用できてる現場ってどれくらいあるのかね?
それなりに大きいストレージだと個人レベルじゃ用意できない量のメモリを必要とするし、
それだけのメモリを用意できるストレージだとストレージ自体ももっと大規模で結局メモリ足りないんじゃ?と思ってしまう。
メモリー積んでdedupかけるより、dedupで削減できる容量分のHDD追加した方がコスト的にマシなケースしか浮かんでこない。
2013/12/16(月) 16:13:29.19
zfs on Linuxの環境だが既存fsの下層に新規fs作ったらESXi側から見えたよ
エクスポートの設定の問題か
そしてアンマウントできなくなっちまったが
エクスポートの設定の問題か
そしてアンマウントできなくなっちまったが
2013/12/16(月) 16:59:21.54
2013/12/16(月) 17:28:53.06
誠に失礼した
2013/12/16(月) 23:26:31.49
NFSv4 mirror mount ってのがあるんですって。
http://docs.oracle.com/cd/E19120-01/open.solaris/817-2271/gfwqw/index.html
図は
Oracle Solaris 11 ZFSを使ってみよう(概要・設計ガイド) - 富士通
http://jp.fujitsu.com/platform/server/sparc/technical/document/pdf/00_ZFS.pdf
のページ40に。この、富士通のzfs文書シリーズ、良いですね。
http://docs.oracle.com/cd/E19120-01/open.solaris/817-2271/gfwqw/index.html
図は
Oracle Solaris 11 ZFSを使ってみよう(概要・設計ガイド) - 富士通
http://jp.fujitsu.com/platform/server/sparc/technical/document/pdf/00_ZFS.pdf
のページ40に。この、富士通のzfs文書シリーズ、良いですね。
2013/12/17(火) 00:28:29.14
ESXiは5.5になってもNFSv4はまだ使えないですかそうですか
2013/12/17(火) 13:19:40.89
zfs on linux以外は糞ということですねそうですね
2013/12/17(火) 15:09:43.09
ZFS使おうとして Linux選ぶやつなんか、いるの?
2013/12/17(火) 21:36:45.50
>>508
Linux LVM的に言えば
ZPOOL=VG
ZFS filesystem=LV
みたいなもんだからな
別々のLVだからmountも別
NFSクライアント側でハードリンクしたらどうなるかちょっと気になってきた
Linux LVM的に言えば
ZPOOL=VG
ZFS filesystem=LV
みたいなもんだからな
別々のLVだからmountも別
NFSクライアント側でハードリンクしたらどうなるかちょっと気になってきた
2013/12/21(土) 16:56:55.29
>>515
そらzfs on Linuxが安定したら乗り換える人多いだろうよ
そらzfs on Linuxが安定したら乗り換える人多いだろうよ
2013/12/21(土) 21:18:52.91
ZFS使うためだけにOpenIndianaやFreeBSD選んでる人が結構いそうだからな。
元々がLinux使いならそりゃZFSもLinuxで使えた方が嬉しいだろう。
このスレも9割くらいZFSスレになってるけど、Solaris系で使ってる人半分もいなかったりしてw
元々がLinux使いならそりゃZFSもLinuxで使えた方が嬉しいだろう。
このスレも9割くらいZFSスレになってるけど、Solaris系で使ってる人半分もいなかったりしてw
2013/12/21(土) 23:22:13.32
Linuxが使いやすいとは全く思わないが、使えるデバイスの多さ(ドライバの充実度)が
半端ないからなぁ
半端ないからなぁ
2013/12/22(日) 00:28:18.14
数は力だよ、アニキ。
2013/12/22(日) 10:46:04.53
>>517
すでにかなり安定してるし、0.6.1以降は安定版扱いだよ
すでにかなり安定してるし、0.6.1以降は安定版扱いだよ
2013/12/22(日) 11:45:00.62
自称安定版か。
これまでどれほど自称に騙されてきた事か・・・
もう誰も信じない、俺が信じるのはサポート契約だけだ!(死亡フラグ)。
これまでどれほど自称に騙されてきた事か・・・
もう誰も信じない、俺が信じるのはサポート契約だけだ!(死亡フラグ)。
2013/12/23(月) 00:03:48.30
Btrfsは非常に安定した安心なファイルシステムです
2013/12/23(月) 01:23:40.18
>>523
たしかに、いつまで経ってもちゃんとしたものが出てこないという
意味では安定しまくっている。
ってか、raid5/6程度の実装に何年かかってるんだろうね。
zfsが発表の翌年にはほぼ実用になってたのが異常に早いのかも知れないが。
たしかに、いつまで経ってもちゃんとしたものが出てこないという
意味では安定しまくっている。
ってか、raid5/6程度の実装に何年かかってるんだろうね。
zfsが発表の翌年にはほぼ実用になってたのが異常に早いのかも知れないが。
2013/12/23(月) 03:16:53.76
ZFSはオーパーツだからしょうがない。
2013/12/24(火) 21:11:41.15
2013/12/24(火) 21:25:04.24
レスを投稿する
ニュース
- 【窪田順生氏】「高市政権人気の裏には多数の“弱者感を抱えた男”の存在がある」弱者感を抱えた男は人知れずマイルド右翼に… [おっさん友の会★]
- 【調査】クレジットカード、1人何枚持つのが「平均的」?★3 [ひぃぃ★]
- 「ヘイトスピーチをやめろ」 各地の「移民反対デモ」に抗議活動 [蚤の市★]
- 【テレビ】池上彰氏 報道の自由度が高い国の特徴「どんどん政府を批判する。政治家は受け入れる」 一方独裁国家は… [冬月記者★]
- 宮崎あおい「電子レンジ持ってない」“丁寧な暮らし”を告白「ごはんを温め直すときも蒸し器」に「凄すぎ」の声 [muffin★]
- 【作家】高市総理支持の背景に見えるヤンキー的「ケンカ上等!」と「日本人は特別だ」感がとても怖い 北原みのり [少考さん★]
- 【DAZN】フォーミュラGP【F1 2 3 SF P】Lap1816
- 【フジテレビ】2025 FORMULA 1【NEXT】Lap609
- 【U-NEXT】プレミアリーグ総合 ★39
- 巨専】
- とらせん IP
- こいせん 全レス転載禁止
- 古市憲寿「スタジオでも中国批判して気持ち良くなってる人はいるが高市答弁で日本人は損してる。国益を害した」スタジオ凍りつく [931948549]
- こんな夜中に出歩いてる子にしちゃいたいけどしちゃえない(´・ω・`)...
- 高市政権「中国への反論はSNSでやるb。覚悟しろ中麹早I!!!!」 [834922174]
- まったり進行おじゃる丸待機ハウス🏡
- フィフィ「「歌唱強制中断」騒動、この時期に中国でライブ公演しようとするアーティストの方にも問題があるのでは?」 [377482965]
- 【高市速報】自民党広報「質問した岡田のせいで国益を損ねた」 [931948549]
