【Debian】 Nexenta OS 【OpenSolaris】
>>86 NexentaはUbuntuのカーネルをsolarisに入れ替えたようなもの。 >>87 なるほど・・・ やっぱそうなのですが。 UbuntuもDebianも触ったことしかないのでいまいち評価が出来ないでいた。 こっち、全く書き込み無いね。 Solaris好きはSolarisかOpenSolarisかSXCE使うし、 Debianが好きな人で、Solarisカーネルを評価してる人は、 日本にはあんまりいなそうだもんなあ。。。 openSolarisの完成度が上がってきたからね。日本語化ちゃんととされてるし。 Nexenta Hackathon (with bounties) starts Jan 23rd. http://www.nexenta.org/os/Hackathon >>90 OSがUbuntu並にIntel Macに対応してくれれば言う事なすなんだが・・・ こっちは完全オープンソース? OpenSolarisはオープンソースをうたうくせにATOKなんかのバイナリがくっついてくるから嫌になった。 潔癖性だし、OpenBSD使えばいいのも分かってる。 でもやっぱりSolarisは捨てられない……。 ATOKって商品のほうのSolarisだけじゃなくてOpenSolarisにもついてるの? だったらFreeBSDから乗り換え考えるんだが。 OpenSolarisにはATOKはついてこないって。 ATOKがついてくるのはSolaris10、商用版だけじゃなくて無料版のSoralis10にもATOKはついてくる。 Nexenta Core Platform 2.0 RC1 Release: 2009.04.01 OpenSolaris kernel build 104 Ubuntu 8.04 LTS repository Nexenta Core Platform 2.0 2009.05.25 userland が GNU tools なのは邪悪だと思う StormOSが正式リリースされたら独立スレ立てるよ StorでほくほくZFS使う→4T以上欲しくなる→Core2入れてみる→CLIコマンド覚える→Core3入れてみる→dedupすげええええ ということで非常にいい感じのバックアップNASが出来たw dev版のStorでやれる程度ちょっと調べたらCoreのCLIで出来る感触。もちろんGUIほしいけどね。 あぁあれだ、inst先が全容量ミラーになるのはなんとかならんのか インスコ手順とか ttp://www.yislab.com/nexenta.html あと、自宅鯖板にもNexentaスレあるんだね ubuntuでお腹いっぱいです。 Unixの本流がLinuxになってしまったから、SolarisもBSDも人気が出ないことは避けられない。 OSは、品質とか機能じゃなくて、人気で選ぶモノになってしまった 品質や機能より、問題が出ない(形でバグがあっても回避して運用できる)ことが 重視されるようになったからかな。 その場合はたくさん人柱が立って問題が出ないような使い方の情報が出回ってる方が うれしくなる。あまり利用者がいない状態で「品質がいい」という主張が、逆に 「あまりユーザいないから秘孔突かれてないだけじゃね?」と思われる時代に なったと。 その「品質がいい」というところに客観的なデータが示せていない。 主観で語るようになったUnixユーザーの悲哀が感じられる。 議論を煮詰める中で「じゃあそれを裏付ける具体的データを出して下さい」 という話になってデータを出すならわかるけど、ちょっと話が出ただけの段階で いきなりデータをずらずら並べるというのも唐突だろう。 元々 Nexenta は OpenSolaris 系 distro の中でも傍流だったのは 否めないし、distro としての OpenSolaris がもう今後は出てこないという ことになってからは OpenIndiana が主流になったっぽいからねぇ。 とりあえず、NexentaStor のユーザとして Korea Telecom がいるらしいけど。 http://nexenta.com/corp/blog/2010/10/04/cloud-and-scaling-and-nexentastor/ もったいぶらずにデータをもっているのなら出しなさい。 ファイルシステムの比較でもすればいいのか? Nexenta OS がなぜ Solaris カーネル + Ubuntu ユーザランドという構成に なっているか考えると、ユーザランドの使い勝手は Linux 系 distro の方が 優れる面があるのも否定できない、一方カーネル特にファイルシステム=ZFS については Solaris が優れている(Nexenta はストレージソリューションの ベンダーなので、特にこの部分に関心を持っていたと思われる)ためだろうう。 Linux 上の Btrfs もがんばって開発してるんだろうが、現状ではまだまだ production 用途でガンガン使うには不安が払拭できない状態だろう。 というと「データを出せ」と言われるかも知れないが、ならば Btrfs を production 用途でガンガン使っている事例があるなら教えてほしい。 >>117 つか、btrfsってまだRAID1相当までしか実装されてないからね。 仮に安定性があってもストレージサーバとしてわざわざ採用する意義がないし。 btrfsがガンガン使われているという証拠もないし、使われていないという証拠もない。 どっちを信じるかはあなた次第 フリーソフトの悪口を書いてはいけないというのがIT業界の 暗黙のしきたりなので何が本当かは永久に謎なのだ。 人気があってそこそこ品質の悪いソフトが儲かる。だって、保守が売れるし、調査費用がでるし、工数がかかるから、人件費も貰える。 よくわかってるね。保守無しじゃ怖くて使えないよね。 ほうらね、品質はそこそこ悪い方がソフトは儲かるっていうことについてはみんな 黙っちゃうでしょ。業界のふれて欲しくない真実なんだよなあ。 完成度上がるとOSって死ぬよね会社ごと ユーザが枯れたものをありがたがらないというか 枯れたOSはパッチが必要ないので保守費を払う必要し。 フリーソフトなら無料なので尚可。 NexentaStorを試そうとvmwareのイメージを落とした。 しかしシステム部分に4GBもあって、さらにsyspoolが大きいせいでか、apt-get upgrade出来ない。 それなら普通のNexentaでいいのではと思い始めたが、間違ってる? NexentaStorを自分で入れたらいいのか? updateの間違いではという突っ込みはなしだ… ディスクスペースが足りないと言われる。 >>130 ファイルサーバー専用だから、わざわざシステムをアップデートする必要はないと言いたいの?でも、他のパッケージを新規で入れたいわけではないし、最初から入っているコア部分のアップデートがupgrade出来ないのは何なの?と思いましたよ。syspoolがデカ過ぎ? >>131 >ファイルサーバー専用だから、わざわざシステムをアップデートする必要はないと言いたいの? 誰がそんな事を言ったんだ(w むしろファイルサーバー専用という事が聞きたかっただけだ。EONがお勧めだよ。 よくわからんが、NexentaStorはUSBメモリでも快適に動作したが、NexentaをUSBメモリに入れたらかなり動作が重くて使い物にならなかった。 >>132 ありがとう。EONは知らなかったので調べて試してみる。 >>134 ただしEONは最小限OpenSoarisみたいなイメージ。 NexentaStorみたいなかっこいいGUIは無い。 >>89 Debian, Ubuntuが広く使われてるから、そのユーザーの中でzfsを使いたい人には最高だと思うんだけどね。Solarisは2.6しか知らんが、パッチどころか、zipだったかな、解凍ソフトを自分でインストールしてこりゃタイヘンだと思ったな… せめてUbuntu 10.04ベースになってくれればなぁ。 職場で取引のあるベンダーにNexentaを推しているんだが、営業もSEも食いついて来ないね。 KernelがSolarisって話した時点で思考停止するのか興味が失せたような顔になるw >>139 kernelとか言わなきゃいいんじゃね? Nexenta OSって名前じゃなく、debian GNU/kSolarisって名前なら それだけで世間の食いつきが千倍はよくなってた筈。 そういえばDebian GNU/kFreeBSDって出来たんだね。中のZFSも15から早晩18, 22と追いつくだろうし、そっちに惹かれるな… Ubuntu 12.04 GNU/kSolaris出たら乗り換えるのに。 じゃあ今までの Debian GNU/Linux は Debian GNU/kLinux ってこと? >>141 つか、Nexentaはユーザランドが全然GNUじゃないじゃん 最早 Debian Ubuntu/kSolaris だな。 >>151 なるほど そもそも Linux の実体とはカーネルだけですからね 一点教えて欲しいのだけど、 以下のような構成でHDD1が壊れて再インストールした際に、 残りのディスクは一台ずつimportすれば復旧出来る認識であってる? ・HDD1(160GB/zfs root) ・HDD2(2TB/raidz) ・HDD3(2TB/raidz) ・HDD4(2TB/raidz) >>153 1台ずつじゃなくて、プール名でのimportじゃねーの? nexenta-on-sourceつかって、自前コンパイルしたことある人いるかな? NCP3.0.1のnexenta-on-sourceでコンパイルすると 3.0.0のバイナリが出来るっぽい。 最新のリポジトリからコンパイルしてみたりしてるんだけど、上手いことパッケージができない orz >>151 >GNU/Linuxシステム(GNU/Linuxオペレーティングシステム、略してGNU/Linux)は、 >Linuxカーネルを中心にGNUプロジェクトによるソフトウェアなどを追加して一般のオペ >レーティングシステム(OS)としての機能を持たせたものである。 どう読めばそんな解釈になるんだ? GNUソフトとLinuxカーネルを組み合わせてOSとしてまとまった物をGNU/Linuxと呼ぶ。 「GNU/Linux」とわざわざ書いてるのに何でカーネルその物を指す事になるんだ馬鹿 GNU/Linuxという呼称はGNUの押し売りだから。 リーナスもじゃぁそれでいいよ、と言ってるだけ。 その決定に従わないといけない理由は無いし法的拘束力も持たない カーネルがLinuxでGNUのツール類を含んでいてもGNU/Linuxと 名乗らず単にLinux OSとしてもなんら問題は無い。 GNU/Linuxって表記してる時点で***その表記中の***GNUはGNUツール群、LinuxはLinuxカーネルを表してる ってことに変わり無いだろう。>>158 >>161 GNU/Linuxと表記してる時点でGNUツールとLinuxカーネルを使ってるオペレーティングシステム uname -o カーネルだけならLinux uname -s カーネルとカーネルのリリースバージョン uname -sr libcにGNU libc(glibc)を使う時のbinutilsとgccのtarget triplet [cputype]-[foo]-[kernel api]-[gnu] i686-pc-linux-gnu となる これでlibcを構築すると[libc]/[kernel api] glibcのソースに #define UNAME_SYSNAME "$uname_sysname" があり この$uname_sysnameに "GNU/Linux" という値が渡される newlibやuClibcやdietlibはsysnameはあるがuname_sysnameでunameをコールしないので uname -o は unknown となる。 AndroidはLinuxじゃないと言い張ってるような奴がunix板にもいるとは驚きだ >[cputype]-[foo]-[kernel api]-[gnu] >i686-pc-linux-gnu となる 例えば i686-pc-linux-gnu となる i686-foo-linux-gnu とすれば gccはi686-foo-linux-gnu-gcc --- 言葉足らずだった --- GNU/LinuxのGNUとはlibcの事でlibcにglibc以外、カーネルをLinuxにして 上位アプリケーション層にGNUツールを多用してもlibcソースを弄らない限り GNU/Linuxにはならない。 NexentaだとGNU/SunOSになるの? Nextenta入れてないんで教えてちょんまげ eucでコピーしてしまったファイル名の文字コードをutf-8に変換したいんですが どうすればいいのでしょうか? convmvとか追加できるリポジトリありますか? いつになったら setup appliance upgrade でアップグレードできるようになるのー ネタ投下 NexentaCoreで、ローカルHDDのStripeのシーケンシャルで1GB/s超えるの何台か試しててみた (実際には10台構成で一番パフォーマンスと容量稼げれるの調べてた) ちょっと長いので複数レスで 機器構成はこんな感じ CPU Intel Xeon X3430 Motherborard SuperMicro X8SIA-F Memory DDR3 ECC Reg 1066 8GB x2 SAS Card LSI SAS 9211-8i x2 HDD Hitachi HTS725032A9A364 x1 (システム) HDD ST32000542AS x12 (データ) HDD OCZ-VERTEX2 x1 (ZIL) 上段が書込で下段が読込 rzid0 10disk zil=none sync=standard 819212+0 records in 819212+0 records out 107375755264 bytes (107 GB) copied, 172.482 seconds, 623 MB/s 819212+0 records in 819212+0 records out 107375755264 bytes (107 GB) copied, 118.597 seconds, 905 MB/s rzid0 10disk zil=on sync=standard 819212+0 records in 819212+0 records out 107375755264 bytes (107 GB) copied, 160.833 seconds, 668 MB/s 819212+0 records in 819212+0 records out 107375755264 bytes (107 GB) copied, 107.543 seconds, 998 MB/s rzid0 10disk zil=on sync=always 819212+0 records in 819212+0 records out 107375755264 bytes (107 GB) copied, 651.956 seconds, 165 MB/s 819212+0 records in 819212+0 records out 107375755264 bytes (107 GB) copied, 101.959 seconds, 1.1 GB/s rzid0 12disk zil=none sync=standard 107375755264 bytes (107 GB) copied, 135.414 seconds, 793 MB/s 107375755264 bytes (107 GB) copied, 111.699 seconds, 961 MB/s rzid0 12disk zil=on sync=standard 107375755264 bytes (107 GB) copied, 137.056 seconds, 783 MB/s 107375755264 bytes (107 GB) copied, 94.5409 seconds, 1.1 GB/s rzid0 12disk=on zil sync=always 107375755264 bytes (107 GB) copied, 650.655 seconds, 165 MB/s 107375755264 bytes (107 GB) copied, 89.1089 seconds, 1.2 GB/s おまけ rzid0 8disk zil=none sync=standard 107375755264 bytes (107 GB) copied, 200.98 seconds, 534 MB/s 107375755264 bytes (107 GB) copied, 157.039 seconds, 684 MB/s rzid0 8disk zil=on sync=standard 107375755264 bytes (107 GB) copied, 206.048 seconds, 521 MB/s 107375755264 bytes (107 GB) copied, 144.314 seconds, 744 MB/s rzid0 8disk zil=on sync=always 107375755264 bytes (107 GB) copied, 653.034 seconds, 164 MB/s 107375755264 bytes (107 GB) copied, 133.252 seconds, 806 MB/s 最初のベンチのが見にくくてごめん 基本インストール後のデフォルトの設定 echo zfs_txg_timeout/W0t2 | mdb -kw だけ弄ってます zilだけは本体のAHCIに繋いでますが、zpool組んでるHBAはLSIの方で分散するようにしてます sync=alwaysのときはzilの速度で律速されちゃいますね。 dd if=/dev/zero of=/rzpool/test bs=128k count=hoge でやった関係で、sandforceの圧縮が効いてる状態なので150MB/sくらいでてますが、 通常だと60MB/sくらいが限界です。 あと、10台でのRAIDZ2とか同様にベンチ取ってるんですが、見たい人います? 乙 10本とかでRAIDZはどうなんだろうとは思ってたけど、stripeオンリーなら ディスク増やせば増やす程速度あがるもんなのね。基本的な事しらんかった。 もしかしてパリティありでもディスク数に比例して速度はあがり続けるのかな? >あと、10台でのRAIDZ2とか同様にベンチ取ってるんですが、見たい人います? という事で期待age >>175 パリティ有りでも速度上がりますよ。 recordsizeが128kでつくってるんですが、 RAIDZだと データ2台+パリティ1台 データ4台+パリティ1台 データ8台+パリティ1台 って作りかたした方が良いみたいです。 RAIDZ2だとパリティ2台・RAIDZ3だとパリティ3台 Sunのブログにも書いてありました。 国内だと意外とこれ気にしてないBlogの書き込みが多いのが・・・ 少ない台数での計測はしてないので、またやってみようかと。 個人で普通に使われてる方の7台くらいまでのRAIDZ3とかあたりまで。 うちは、コストパフォーマンスと信頼性とパフォーマンスで10台のRAIDZ2で行こうと思ってますが。 って、ことで今回測ったのを全部上げときます。 改行減らしたのでちょっと見にくいかも rzidz 9disk zil=none sync=standard 107375755264 bytes (107 GB) copied, 196.033 seconds, 548 MB/s 107375755264 bytes (107 GB) copied, 156.482 seconds, 686 MB/s rzidz 9disk zil=on sync=standard 107375755264 bytes (107 GB) copied, 202.732 seconds, 530 MB/s 107375755264 bytes (107 GB) copied, 130.954 seconds, 820 MB/s rzidz 9disk zil=on sync=always 107375755264 bytes (107 GB) copied, 668.026 seconds, 161 MB/s 107375755264 bytes (107 GB) copied, 147.301 seconds, 729 MB/s rzidz2 10disk zil=none sync=standard 107375755264 bytes (107 GB) copied, 194.102 seconds, 553 MB/s 107375755264 bytes (107 GB) copied, 153.917 seconds, 698 MB/s rzidz2 10disk zil=on sync=standard 107375755264 bytes (107 GB) copied, 199.149 seconds, 539 MB/s 107375755264 bytes (107 GB) copied, 148.802 seconds, 722 MB/s rzidz2 10disk zil=on sync=always 107375755264 bytes (107 GB) copied, 697.82 seconds, 154 MB/s 107375755264 bytes (107 GB) copied, 149.023 seconds, 721 MB/s rzidz3 11disk zil=none sync=standard 107375755264 bytes (107 GB) copied, 200.391 seconds, 536 MB/s 107375755264 bytes (107 GB) copied, 131.458 seconds, 817 MB/s rzidz3 11disk zil=on sync=standard 107375755264 bytes (107 GB) copied, 209.996 seconds, 511 MB/s 107375755264 bytes (107 GB) copied, 153.123 seconds, 701 MB/s rzidz3 11disk zil=on sync=always 107375755264 bytes (107 GB) copied, 703.802 seconds, 153 MB/s 107375755264 bytes (107 GB) copied, 128.195 seconds, 838 MB/s rzidz 5disk + stripe zil=none sync=standard 107375755264 bytes (107 GB) copied, 174.329 seconds, 616 MB/s 107375755264 bytes (107 GB) copied, 162.514 seconds, 661 MB/s rzidz 5disk + stripe zil=on sync=standard 107375755264 bytes (107 GB) copied, 176.913 seconds, 607 MB/s 107375755264 bytes (107 GB) copied, 146.656 seconds, 732 MB/s rzidz 5disk + stripe zil=on sync=always 107375755264 bytes (107 GB) copied, 669.213 seconds, 160 MB/s 107375755264 bytes (107 GB) copied, 149.27 seconds, 719 MB/s rzidz2 6disk + stripe zil=none sync=standard 107375755264 bytes (107 GB) copied, 183.205 seconds, 586 MB/s 107375755264 bytes (107 GB) copied, 174.629 seconds, 615 MB/s rzidz2 6disk + stripe zil=on sync=standard 107375755264 bytes (107 GB) copied, 186.545 seconds, 576 MB/s 107375755264 bytes (107 GB) copied, 139.735 seconds, 768 MB/s rzidz2 6disk + stripe zil=on sync=always 107375755264 bytes (107 GB) copied, 679.659 seconds, 158 MB/s 107375755264 bytes (107 GB) copied, 137.285 seconds, 782 MB/s あと、テストでRAIDZの3台/5台構成、RAIDZ2の4台/6台構成、RAIDZ3の5台/7台構成 mirrorストライプの2/4/6/8/10/12台構成・ストライプの2-9台構成測ってみます。 運用入っちゃうとこんなこと出来なくなるので、出来る間にやっておきますw >>176-178 乙乙 raidz3で11diskとか凄いな。しかも結構な速度が出るもんだね。 ウチはEONでraidz5diskで組んでるけどwriteがCPUで頭打ちになっちゃってるな。 ただ読み込みも100MB/s超がやっとだから他にボトルネックが存在してるんだろうけど。 >>179 乙ありです。 RAIDZ3でもスピードは出るんですが、resilvereが鬼のように時間かかるようになりますのでご注意を。 2Tx10台のRAIDZ2使用率が80%超えてる状況で体験したときは、一週間くらいかかりましたから。 個人用ストレージのそんなに対してアクセスのない状況でそれですからね。 実際シーケンシャルだけだから、randomが絡むとどーなるかが測ってみたいんですが・・・ fioでやればできそうなんだけど、スキルが足らないのですよ orz 台数増えればパリティ計算の量が増えるので、CPUが速くないとパフォーマンス上がらないですね。 前はXeon X3430 ではなくて、Athlon X4 605e だったんですが、ここまでパフォーマンスでなかったです。 2Tx10台のRAIDZ2で300MB/sくらいだった気が。 >>180 ZFSも万能じゃないですね〜。まだ実用上resilveredした事なかったけど、そんなに時間かかるとは・・・ 1GB程度のwriteでCore2Duo2.8GHzでもCPU負荷が100%に張り付くので、CPU食うな〜と思ってたら、 Athlon X4 605eでもパフォーマンス出ないとは・・・ 次のファイルサーバ組む時はCPUはよく考えま〜す^^; GPU統合のCPUならパリティ演算をGPUユニットにやらせると良さそうだ >>181 resilvered中でも一応読込はパフォーマンス出ます 書き込みはzilを外だししてなかったら、多分すげー遅くなりますがw resilveredは、業務で使うならraidz/raidz2の台数を少なめの5台とか6台にし、 そのグループ複数作りstripeしてやるのが良いんじゃないかーと思います。 容量稼ぎながらパフォーマンス出すとなるとですが。 Sunの資料や、個人的な経験則ですけど。 やっぱり、台数増えるとパリティ計算の量が増えるのと、パリティディスクの量が増えると 計算量が増えるので。 あと、今回のzfsのスピードですが、CPUだけの話でも無いとは思います。 Xeonの方はCPU直結のPCIe x16のスロットの方へHBA使っての接続だったりしますし。 XeonとAthlon系でのIO周りのアーキテクチャの違いもありそうですし。 今回自宅の環境のSANのアーキテクチャを変更してるんですが、1GbE->InfiniBand なので帯域が一気に増えるから、なるべく速度だしたいんですよ。 iSCSIを使用するかSRPを使用するかのパフォーマンスのチェックもしたいですしw そちらの環境のお話ですが、 C2Dの2.8G使用サーバへのWriteが1GBファイルを書き込みってことですかね? ネットワーク越しか、ローカルでの話かがいまいちわからんのですが、100%張り付きは どっか別にボトルネックがあるのではないかと。ローカルで測ってみてどのくらいでます? 参考までに、FreeBSDベースの物でZFSguruってソフトがあるんでsが、それのベンチ を見てると、C2D E8400でraidzされてるののローカルディスクへのベンチで300MB/s くらいでWrite出来てるっぽいです。 http://hardforum.com/showthread.php?t=1546137&page=4 >>182 確かにそれが実現されると大分CPU側に余裕が出来そうですね。 似たようなアプローチでzfs ver31の暗号化はSandyBridgeだとCPUで処理できるんでしたっけ? >>183 >書き込みはzilを外だししてなかったら、多分すげー遅くなりますがw な、なるほど。zilとか全然考えてなかったですが、これからNFS or iSCSIでVMイメージも格納しようと思ってるので検討しようかと。 >resilveredは、業務で使うならraidz/raidz2の台数を少なめの5台とか6台にし、 いまんとこ業務でそんな大容量ストレージを使う予定が無いですが、必要になったら参考にさせてもらいます〜 >Xeonの方はCPU直結のPCIe x16のスロットの方へHBA使っての接続だったりしますし。 >今回自宅の環境のSANのアーキテクチャを変更してるんですが、1GbE->InfiniBand あ、あのどんだけ金かけてるんですか?(汗 回答不要 ウチの環境については、ちゃんと書いてなかったですがメインはセレ430、メモリ8GB、WDの2TB×5。 Express5800 110GeにメモリとHDD換装しただけの物ですね。もちろんセレ430がすんごいボトルネックでネットワーク越しにCrystalDiskMark使ってみた。 Sequential Read : 51.228 MB/s Sequential Write : 38.991 MB/s Random Read 512KB : 47.131 MB/s Random Write 512KB : 40.691 MB/s 上でread100MB/s出るとか書いてたけど勘違いだったみたい。 リアルタイムで見てると、瞬間的に出る程度。 で、検証用でCore2DuoE7400(2.8GHz×2)、メモリ8GB、zpool用で寒村640GB×3を積んでるのがあるんだけど、 こっちでもIdleが0に張り付くって話でした。 しかしローカルと、ネットワーク越しの速度測ろうとして起動したら、何故かIdleが20前後のまま・・・ prstatで見てもCPU食ってる原因わからず。 時間のある時に試してみますわ〜 read.cgi ver 07.5.5 2024/06/08 Walang Kapalit ★ | Donguri System Team 5ちゃんねる