X



【Debian】 Nexenta OS 【OpenSolaris】

0089名無しさん@お腹いっぱい。
垢版 |
2008/08/18(月) 01:26:37
こっち、全く書き込み無いね。

Solaris好きはSolarisかOpenSolarisかSXCE使うし、
Debianが好きな人で、Solarisカーネルを評価してる人は、
日本にはあんまりいなそうだもんなあ。。。
0093名無しさん@お腹いっぱい。
垢版 |
2009/03/03(火) 02:58:38
こっちは完全オープンソース?

OpenSolarisはオープンソースをうたうくせにATOKなんかのバイナリがくっついてくるから嫌になった。
潔癖性だし、OpenBSD使えばいいのも分かってる。
でもやっぱりSolarisは捨てられない……。
0097名無しさん@お腹いっぱい。
垢版 |
2009/03/03(火) 14:57:59
ATOKって商品のほうのSolarisだけじゃなくてOpenSolarisにもついてるの?

だったらFreeBSDから乗り換え考えるんだが。
0098名無しさん@お腹いっぱい。
垢版 |
2009/03/03(火) 15:08:41
OpenSolarisにはATOKはついてこないって。
ATOKがついてくるのはSolaris10、商用版だけじゃなくて無料版のSoralis10にもATOKはついてくる。
0102名無しさん@お腹いっぱい。
垢版 |
2009/05/26(火) 07:52:17
Nexenta Core Platform 2.0
2009.05.25

0104名無しさん@お腹いっぱい。
垢版 |
2009/08/25(火) 17:23:41
StormOSが正式リリースされたら独立スレ立てるよ
0106名無しさん@お腹いっぱい。
垢版 |
2010/01/30(土) 17:35:32
StorでほくほくZFS使う→4T以上欲しくなる→Core2入れてみる→CLIコマンド覚える→Core3入れてみる→dedupすげええええ
ということで非常にいい感じのバックアップNASが出来たw
dev版のStorでやれる程度ちょっと調べたらCoreのCLIで出来る感触。もちろんGUIほしいけどね。

あぁあれだ、inst先が全容量ミラーになるのはなんとかならんのか
0108名無しさん@お腹いっぱい。
垢版 |
2010/08/31(火) 12:33:50
インスコ手順とか
ttp://www.yislab.com/nexenta.html

あと、自宅鯖板にもNexentaスレあるんだね
0110名無しさん@お腹いっぱい。
垢版 |
2010/10/03(日) 17:32:32
まだ使ってる人いる?
0111名無しさん@お腹いっぱい。
垢版 |
2010/10/20(水) 22:44:13
ubuntuでお腹いっぱいです。
Unixの本流がLinuxになってしまったから、SolarisもBSDも人気が出ないことは避けられない。
0113名無しさん@お腹いっぱい。
垢版 |
2010/10/24(日) 17:07:27
品質や機能より、問題が出ない(形でバグがあっても回避して運用できる)ことが
重視されるようになったからかな。

その場合はたくさん人柱が立って問題が出ないような使い方の情報が出回ってる方が
うれしくなる。あまり利用者がいない状態で「品質がいい」という主張が、逆に
「あまりユーザいないから秘孔突かれてないだけじゃね?」と思われる時代に
なったと。
0114名無しさん@お腹いっぱい。
垢版 |
2010/10/24(日) 23:27:05
その「品質がいい」というところに客観的なデータが示せていない。
主観で語るようになったUnixユーザーの悲哀が感じられる。
0115名無しさん@お腹いっぱい。
垢版 |
2010/10/25(月) 05:23:00
議論を煮詰める中で「じゃあそれを裏付ける具体的データを出して下さい」
という話になってデータを出すならわかるけど、ちょっと話が出ただけの段階で
いきなりデータをずらずら並べるというのも唐突だろう。

元々 Nexenta は OpenSolaris 系 distro の中でも傍流だったのは
否めないし、distro としての OpenSolaris がもう今後は出てこないという
ことになってからは OpenIndiana が主流になったっぽいからねぇ。

とりあえず、NexentaStor のユーザとして Korea Telecom がいるらしいけど。
http://nexenta.com/corp/blog/2010/10/04/cloud-and-scaling-and-nexentastor/
0117名無しさん@お腹いっぱい。
垢版 |
2010/10/28(木) 08:49:35
ファイルシステムの比較でもすればいいのか?

Nexenta OS がなぜ Solaris カーネル + Ubuntu ユーザランドという構成に
なっているか考えると、ユーザランドの使い勝手は Linux 系 distro の方が
優れる面があるのも否定できない、一方カーネル特にファイルシステム=ZFS
については Solaris が優れている(Nexenta はストレージソリューションの
ベンダーなので、特にこの部分に関心を持っていたと思われる)ためだろうう。

Linux 上の Btrfs もがんばって開発してるんだろうが、現状ではまだまだ
production 用途でガンガン使うには不安が払拭できない状態だろう。
というと「データを出せ」と言われるかも知れないが、ならば Btrfs を
production 用途でガンガン使っている事例があるなら教えてほしい。
0118名無しさん@お腹いっぱい。
垢版 |
2010/10/28(木) 09:40:23
>>117
つか、btrfsってまだRAID1相当までしか実装されてないからね。
仮に安定性があってもストレージサーバとしてわざわざ採用する意義がないし。
0119名無しさん@お腹いっぱい。
垢版 |
2010/10/30(土) 00:58:51
btrfsがガンガン使われているという証拠もないし、使われていないという証拠もない。
どっちを信じるかはあなた次第
0120名無しさん@お腹いっぱい。
垢版 |
2010/10/30(土) 01:00:17
フリーソフトの悪口を書いてはいけないというのがIT業界の
暗黙のしきたりなので何が本当かは永久に謎なのだ。
0121名無しさん@お腹いっぱい。
垢版 |
2010/10/30(土) 01:05:15
人気があってそこそこ品質の悪いソフトが儲かる。だって、保守が売れるし、調査費用がでるし、工数がかかるから、人件費も貰える。
0124名無しさん@お腹いっぱい。
垢版 |
2010/11/05(金) 19:54:49
ほうらね、品質はそこそこ悪い方がソフトは儲かるっていうことについてはみんな
黙っちゃうでしょ。業界のふれて欲しくない真実なんだよなあ。
0128名無しさん@お腹いっぱい。
垢版 |
2011/01/11(火) 14:11:42
NexentaStorを試そうとvmwareのイメージを落とした。
しかしシステム部分に4GBもあって、さらにsyspoolが大きいせいでか、apt-get upgrade出来ない。
それなら普通のNexentaでいいのではと思い始めたが、間違ってる?
NexentaStorを自分で入れたらいいのか?
0131名無しさん@お腹いっぱい。
垢版 |
2011/01/13(木) 16:44:21
>>130
ファイルサーバー専用だから、わざわざシステムをアップデートする必要はないと言いたいの?でも、他のパッケージを新規で入れたいわけではないし、最初から入っているコア部分のアップデートがupgrade出来ないのは何なの?と思いましたよ。syspoolがデカ過ぎ?
0132名無しさん@お腹いっぱい。
垢版 |
2011/01/14(金) 00:45:17
>>131
>ファイルサーバー専用だから、わざわざシステムをアップデートする必要はないと言いたいの?

誰がそんな事を言ったんだ(w
むしろファイルサーバー専用という事が聞きたかっただけだ。EONがお勧めだよ。

よくわからんが、NexentaStorはUSBメモリでも快適に動作したが、NexentaをUSBメモリに入れたらかなり動作が重くて使い物にならなかった。
0136名無しさん@お腹いっぱい。
垢版 |
2011/01/16(日) 00:36:26
>>89
Debian, Ubuntuが広く使われてるから、そのユーザーの中でzfsを使いたい人には最高だと思うんだけどね。Solarisは2.6しか知らんが、パッチどころか、zipだったかな、解凍ソフトを自分でインストールしてこりゃタイヘンだと思ったな…
0139名無しさん@お腹いっぱい。
垢版 |
2011/02/07(月) 22:12:48
職場で取引のあるベンダーにNexentaを推しているんだが、営業もSEも食いついて来ないね。
KernelがSolarisって話した時点で思考停止するのか興味が失せたような顔になるw
0141名無しさん@お腹いっぱい。
垢版 |
2011/02/08(火) 14:56:00
Nexenta OSって名前じゃなく、debian GNU/kSolarisって名前なら
それだけで世間の食いつきが千倍はよくなってた筈。
0142名無しさん@お腹いっぱい。
垢版 |
2011/02/08(火) 15:10:19
そういえばDebian GNU/kFreeBSDって出来たんだね。中のZFSも15から早晩18, 22と追いつくだろうし、そっちに惹かれるな…
0153名無しさん@お腹いっぱい。
垢版 |
2011/03/26(土) 18:06:39.62
一点教えて欲しいのだけど、
以下のような構成でHDD1が壊れて再インストールした際に、
残りのディスクは一台ずつimportすれば復旧出来る認識であってる?
・HDD1(160GB/zfs root)
・HDD2(2TB/raidz)
・HDD3(2TB/raidz)
・HDD4(2TB/raidz)
0155名無しさん@お腹いっぱい。
垢版 |
2011/03/28(月) 22:11:37.77
おお。pool指定だったのね。失礼。
0156名無しさん@お腹いっぱい。
垢版 |
2011/04/23(土) 01:09:13.61
nexenta-on-sourceつかって、自前コンパイルしたことある人いるかな?
NCP3.0.1のnexenta-on-sourceでコンパイルすると 3.0.0のバイナリが出来るっぽい。

最新のリポジトリからコンパイルしてみたりしてるんだけど、上手いことパッケージができない orz
0158名無しさん@お腹いっぱい。
垢版 |
2011/05/13(金) 01:44:05.07
>>151
>GNU/Linuxシステム(GNU/Linuxオペレーティングシステム、略してGNU/Linux)は、
>Linuxカーネルを中心にGNUプロジェクトによるソフトウェアなどを追加して一般のオペ
>レーティングシステム(OS)としての機能を持たせたものである。

どう読めばそんな解釈になるんだ?
GNUソフトとLinuxカーネルを組み合わせてOSとしてまとまった物をGNU/Linuxと呼ぶ。
「GNU/Linux」とわざわざ書いてるのに何でカーネルその物を指す事になるんだ馬鹿
0160名無しさん@お腹いっぱい。
垢版 |
2011/05/13(金) 05:27:52.08
GNU/Linuxという呼称はGNUの押し売りだから。
リーナスもじゃぁそれでいいよ、と言ってるだけ。
その決定に従わないといけない理由は無いし法的拘束力も持たない
カーネルがLinuxでGNUのツール類を含んでいてもGNU/Linuxと
名乗らず単にLinux OSとしてもなんら問題は無い。
0161名無しさん@お腹いっぱい。
垢版 |
2011/05/13(金) 17:44:42.64
GNU/Linuxって表記してる時点で***その表記中の***GNUはGNUツール群、LinuxはLinuxカーネルを表してる
ってことに変わり無いだろう。>>158
0162名無しさん@お腹いっぱい。
垢版 |
2011/05/14(土) 00:39:19.01
>>161
GNU/Linuxと表記してる時点でGNUツールとLinuxカーネルを使ってるオペレーティングシステム
uname -o

カーネルだけならLinux
uname -s

カーネルとカーネルのリリースバージョン
uname -sr

libcにGNU libc(glibc)を使う時のbinutilsとgccのtarget triplet
[cputype]-[foo]-[kernel api]-[gnu]
i686-pc-linux-gnu となる
これでlibcを構築すると[libc]/[kernel api]
glibcのソースに #define UNAME_SYSNAME "$uname_sysname" があり
この$uname_sysnameに "GNU/Linux" という値が渡される

newlibやuClibcやdietlibはsysnameはあるがuname_sysnameでunameをコールしないので
uname -o は unknown となる。

AndroidはLinuxじゃないと言い張ってるような奴がunix板にもいるとは驚きだ
0163162
垢版 |
2011/05/14(土) 00:42:35.73
>[cputype]-[foo]-[kernel api]-[gnu]
>i686-pc-linux-gnu となる

例えば i686-pc-linux-gnu となる

i686-foo-linux-gnu とすれば
gccはi686-foo-linux-gnu-gcc

--- 言葉足らずだった ---
0164名無しさん@お腹いっぱい。
垢版 |
2011/05/14(土) 02:41:07.73
GNU/LinuxのGNUとはlibcの事でlibcにglibc以外、カーネルをLinuxにして
上位アプリケーション層にGNUツールを多用してもlibcソースを弄らない限り
GNU/Linuxにはならない。
0169名無しさん@お腹いっぱい。
垢版 |
2011/08/24(水) 16:25:08.62
eucでコピーしてしまったファイル名の文字コードをutf-8に変換したいんですが
どうすればいいのでしょうか?
convmvとか追加できるリポジトリありますか?
0171名無しさん@お腹いっぱい。
垢版 |
2011/09/09(金) 18:00:11.17
ネタ投下

NexentaCoreで、ローカルHDDのStripeのシーケンシャルで1GB/s超えるの何台か試しててみた
(実際には10台構成で一番パフォーマンスと容量稼げれるの調べてた)
ちょっと長いので複数レスで

機器構成はこんな感じ

CPU Intel Xeon X3430
Motherborard SuperMicro X8SIA-F
Memory DDR3 ECC Reg 1066 8GB x2
SAS Card LSI SAS 9211-8i x2
HDD Hitachi HTS725032A9A364 x1 (システム)
HDD ST32000542AS x12 (データ)
HDD OCZ-VERTEX2 x1 (ZIL)

上段が書込で下段が読込
0172名無しさん@お腹いっぱい。
垢版 |
2011/09/09(金) 18:00:31.95
rzid0 10disk zil=none sync=standard

819212+0 records in
819212+0 records out
107375755264 bytes (107 GB) copied, 172.482 seconds, 623 MB/s

819212+0 records in
819212+0 records out
107375755264 bytes (107 GB) copied, 118.597 seconds, 905 MB/s

rzid0 10disk zil=on sync=standard

819212+0 records in
819212+0 records out
107375755264 bytes (107 GB) copied, 160.833 seconds, 668 MB/s

819212+0 records in
819212+0 records out
107375755264 bytes (107 GB) copied, 107.543 seconds, 998 MB/s

rzid0 10disk zil=on sync=always

819212+0 records in
819212+0 records out
107375755264 bytes (107 GB) copied, 651.956 seconds, 165 MB/s

819212+0 records in
819212+0 records out
107375755264 bytes (107 GB) copied, 101.959 seconds, 1.1 GB/s
0173名無しさん@お腹いっぱい。
垢版 |
2011/09/09(金) 18:11:04.11
rzid0 12disk zil=none sync=standard
107375755264 bytes (107 GB) copied, 135.414 seconds, 793 MB/s
107375755264 bytes (107 GB) copied, 111.699 seconds, 961 MB/s

rzid0 12disk zil=on sync=standard
107375755264 bytes (107 GB) copied, 137.056 seconds, 783 MB/s
107375755264 bytes (107 GB) copied, 94.5409 seconds, 1.1 GB/s

rzid0 12disk=on zil sync=always
107375755264 bytes (107 GB) copied, 650.655 seconds, 165 MB/s
107375755264 bytes (107 GB) copied, 89.1089 seconds, 1.2 GB/s

おまけ

rzid0 8disk zil=none sync=standard
107375755264 bytes (107 GB) copied, 200.98 seconds, 534 MB/s
107375755264 bytes (107 GB) copied, 157.039 seconds, 684 MB/s

rzid0 8disk zil=on sync=standard
107375755264 bytes (107 GB) copied, 206.048 seconds, 521 MB/s
107375755264 bytes (107 GB) copied, 144.314 seconds, 744 MB/s

rzid0 8disk zil=on sync=always
107375755264 bytes (107 GB) copied, 653.034 seconds, 164 MB/s
107375755264 bytes (107 GB) copied, 133.252 seconds, 806 MB/s
0174名無しさん@お腹いっぱい。
垢版 |
2011/09/09(金) 18:22:13.19
最初のベンチのが見にくくてごめん

基本インストール後のデフォルトの設定
echo zfs_txg_timeout/W0t2 | mdb -kw
だけ弄ってます

zilだけは本体のAHCIに繋いでますが、zpool組んでるHBAはLSIの方で分散するようにしてます

sync=alwaysのときはzilの速度で律速されちゃいますね。
dd if=/dev/zero of=/rzpool/test bs=128k count=hoge
でやった関係で、sandforceの圧縮が効いてる状態なので150MB/sくらいでてますが、
通常だと60MB/sくらいが限界です。

あと、10台でのRAIDZ2とか同様にベンチ取ってるんですが、見たい人います?
0175名無しさん@お腹いっぱい。
垢版 |
2011/09/09(金) 19:31:02.90


10本とかでRAIDZはどうなんだろうとは思ってたけど、stripeオンリーなら
ディスク増やせば増やす程速度あがるもんなのね。基本的な事しらんかった。

もしかしてパリティありでもディスク数に比例して速度はあがり続けるのかな?

>あと、10台でのRAIDZ2とか同様にベンチ取ってるんですが、見たい人います?

という事で期待age
0176名無しさん@お腹いっぱい。
垢版 |
2011/09/09(金) 21:01:53.03
>>175
パリティ有りでも速度上がりますよ。
recordsizeが128kでつくってるんですが、
RAIDZだと
データ2台+パリティ1台
データ4台+パリティ1台
データ8台+パリティ1台
って作りかたした方が良いみたいです。
RAIDZ2だとパリティ2台・RAIDZ3だとパリティ3台
Sunのブログにも書いてありました。
国内だと意外とこれ気にしてないBlogの書き込みが多いのが・・・

少ない台数での計測はしてないので、またやってみようかと。
個人で普通に使われてる方の7台くらいまでのRAIDZ3とかあたりまで。
うちは、コストパフォーマンスと信頼性とパフォーマンスで10台のRAIDZ2で行こうと思ってますが。

って、ことで今回測ったのを全部上げときます。
0177名無しさん@お腹いっぱい。
垢版 |
2011/09/09(金) 21:03:52.26
改行減らしたのでちょっと見にくいかも

rzidz 9disk zil=none sync=standard
107375755264 bytes (107 GB) copied, 196.033 seconds, 548 MB/s
107375755264 bytes (107 GB) copied, 156.482 seconds, 686 MB/s
rzidz 9disk zil=on sync=standard
107375755264 bytes (107 GB) copied, 202.732 seconds, 530 MB/s
107375755264 bytes (107 GB) copied, 130.954 seconds, 820 MB/s
rzidz 9disk zil=on sync=always
107375755264 bytes (107 GB) copied, 668.026 seconds, 161 MB/s
107375755264 bytes (107 GB) copied, 147.301 seconds, 729 MB/s

rzidz2 10disk zil=none sync=standard
107375755264 bytes (107 GB) copied, 194.102 seconds, 553 MB/s
107375755264 bytes (107 GB) copied, 153.917 seconds, 698 MB/s
rzidz2 10disk zil=on sync=standard
107375755264 bytes (107 GB) copied, 199.149 seconds, 539 MB/s
107375755264 bytes (107 GB) copied, 148.802 seconds, 722 MB/s
rzidz2 10disk zil=on sync=always
107375755264 bytes (107 GB) copied, 697.82 seconds, 154 MB/s
107375755264 bytes (107 GB) copied, 149.023 seconds, 721 MB/s

rzidz3 11disk zil=none sync=standard
107375755264 bytes (107 GB) copied, 200.391 seconds, 536 MB/s
107375755264 bytes (107 GB) copied, 131.458 seconds, 817 MB/s
rzidz3 11disk zil=on sync=standard
107375755264 bytes (107 GB) copied, 209.996 seconds, 511 MB/s
107375755264 bytes (107 GB) copied, 153.123 seconds, 701 MB/s
rzidz3 11disk zil=on sync=always
107375755264 bytes (107 GB) copied, 703.802 seconds, 153 MB/s
107375755264 bytes (107 GB) copied, 128.195 seconds, 838 MB/s
0178名無しさん@お腹いっぱい。
垢版 |
2011/09/09(金) 21:09:55.67

rzidz 5disk + stripe zil=none sync=standard
107375755264 bytes (107 GB) copied, 174.329 seconds, 616 MB/s
107375755264 bytes (107 GB) copied, 162.514 seconds, 661 MB/s

rzidz 5disk + stripe zil=on sync=standard
107375755264 bytes (107 GB) copied, 176.913 seconds, 607 MB/s
107375755264 bytes (107 GB) copied, 146.656 seconds, 732 MB/s

rzidz 5disk + stripe zil=on sync=always
107375755264 bytes (107 GB) copied, 669.213 seconds, 160 MB/s
107375755264 bytes (107 GB) copied, 149.27 seconds, 719 MB/s

rzidz2 6disk + stripe zil=none sync=standard
107375755264 bytes (107 GB) copied, 183.205 seconds, 586 MB/s
107375755264 bytes (107 GB) copied, 174.629 seconds, 615 MB/s

rzidz2 6disk + stripe zil=on sync=standard
107375755264 bytes (107 GB) copied, 186.545 seconds, 576 MB/s
107375755264 bytes (107 GB) copied, 139.735 seconds, 768 MB/s

rzidz2 6disk + stripe zil=on sync=always
107375755264 bytes (107 GB) copied, 679.659 seconds, 158 MB/s
107375755264 bytes (107 GB) copied, 137.285 seconds, 782 MB/s

あと、テストでRAIDZの3台/5台構成、RAIDZ2の4台/6台構成、RAIDZ3の5台/7台構成
mirrorストライプの2/4/6/8/10/12台構成・ストライプの2-9台構成測ってみます。
運用入っちゃうとこんなこと出来なくなるので、出来る間にやっておきますw
0179名無しさん@お腹いっぱい。
垢版 |
2011/09/10(土) 19:14:16.11
>>176-178
乙乙
raidz3で11diskとか凄いな。しかも結構な速度が出るもんだね。

ウチはEONでraidz5diskで組んでるけどwriteがCPUで頭打ちになっちゃってるな。
ただ読み込みも100MB/s超がやっとだから他にボトルネックが存在してるんだろうけど。
0180名無しさん@お腹いっぱい。
垢版 |
2011/09/10(土) 20:31:18.25
>>179
乙ありです。
RAIDZ3でもスピードは出るんですが、resilvereが鬼のように時間かかるようになりますのでご注意を。
2Tx10台のRAIDZ2使用率が80%超えてる状況で体験したときは、一週間くらいかかりましたから。
個人用ストレージのそんなに対してアクセスのない状況でそれですからね。

実際シーケンシャルだけだから、randomが絡むとどーなるかが測ってみたいんですが・・・
fioでやればできそうなんだけど、スキルが足らないのですよ orz

台数増えればパリティ計算の量が増えるので、CPUが速くないとパフォーマンス上がらないですね。
前はXeon X3430 ではなくて、Athlon X4 605e だったんですが、ここまでパフォーマンスでなかったです。
2Tx10台のRAIDZ2で300MB/sくらいだった気が。
0181名無しさん@お腹いっぱい。
垢版 |
2011/09/11(日) 10:55:12.18
>>180
ZFSも万能じゃないですね〜。まだ実用上resilveredした事なかったけど、そんなに時間かかるとは・・・

1GB程度のwriteでCore2Duo2.8GHzでもCPU負荷が100%に張り付くので、CPU食うな〜と思ってたら、
Athlon X4 605eでもパフォーマンス出ないとは・・・

次のファイルサーバ組む時はCPUはよく考えま〜す^^;
0183名無しさん@お腹いっぱい。
垢版 |
2011/09/12(月) 19:35:24.70
>>181
resilvered中でも一応読込はパフォーマンス出ます
書き込みはzilを外だししてなかったら、多分すげー遅くなりますがw

resilveredは、業務で使うならraidz/raidz2の台数を少なめの5台とか6台にし、
そのグループ複数作りstripeしてやるのが良いんじゃないかーと思います。
容量稼ぎながらパフォーマンス出すとなるとですが。
Sunの資料や、個人的な経験則ですけど。
やっぱり、台数増えるとパリティ計算の量が増えるのと、パリティディスクの量が増えると
計算量が増えるので。

あと、今回のzfsのスピードですが、CPUだけの話でも無いとは思います。
Xeonの方はCPU直結のPCIe x16のスロットの方へHBA使っての接続だったりしますし。
XeonとAthlon系でのIO周りのアーキテクチャの違いもありそうですし。

今回自宅の環境のSANのアーキテクチャを変更してるんですが、1GbE->InfiniBand
なので帯域が一気に増えるから、なるべく速度だしたいんですよ。
iSCSIを使用するかSRPを使用するかのパフォーマンスのチェックもしたいですしw

そちらの環境のお話ですが、
C2Dの2.8G使用サーバへのWriteが1GBファイルを書き込みってことですかね?
ネットワーク越しか、ローカルでの話かがいまいちわからんのですが、100%張り付きは
どっか別にボトルネックがあるのではないかと。ローカルで測ってみてどのくらいでます?

参考までに、FreeBSDベースの物でZFSguruってソフトがあるんでsが、それのベンチ
を見てると、C2D E8400でraidzされてるののローカルディスクへのベンチで300MB/s
くらいでWrite出来てるっぽいです。
http://hardforum.com/showthread.php?t=1546137&page=4
0184名無しさん@お腹いっぱい。
垢版 |
2011/09/12(月) 19:37:18.38
>>182
確かにそれが実現されると大分CPU側に余裕が出来そうですね。
似たようなアプローチでzfs ver31の暗号化はSandyBridgeだとCPUで処理できるんでしたっけ?
0186名無しさん@お腹いっぱい。
垢版 |
2011/09/12(月) 23:31:36.43
>>183
>書き込みはzilを外だししてなかったら、多分すげー遅くなりますがw

な、なるほど。zilとか全然考えてなかったですが、これからNFS or iSCSIでVMイメージも格納しようと思ってるので検討しようかと。

>resilveredは、業務で使うならraidz/raidz2の台数を少なめの5台とか6台にし、

いまんとこ業務でそんな大容量ストレージを使う予定が無いですが、必要になったら参考にさせてもらいます〜

>Xeonの方はCPU直結のPCIe x16のスロットの方へHBA使っての接続だったりしますし。
>今回自宅の環境のSANのアーキテクチャを変更してるんですが、1GbE->InfiniBand

あ、あのどんだけ金かけてるんですか?(汗 回答不要

ウチの環境については、ちゃんと書いてなかったですがメインはセレ430、メモリ8GB、WDの2TB×5。
Express5800 110GeにメモリとHDD換装しただけの物ですね。もちろんセレ430がすんごいボトルネックでネットワーク越しにCrystalDiskMark使ってみた。

      Sequential Read :  51.228 MB/s
     Sequential Write :  38.991 MB/s
     Random Read 512KB :  47.131 MB/s
    Random Write 512KB :  40.691 MB/s

上でread100MB/s出るとか書いてたけど勘違いだったみたい。
リアルタイムで見てると、瞬間的に出る程度。

で、検証用でCore2DuoE7400(2.8GHz×2)、メモリ8GB、zpool用で寒村640GB×3を積んでるのがあるんだけど、
こっちでもIdleが0に張り付くって話でした。
しかしローカルと、ネットワーク越しの速度測ろうとして起動したら、何故かIdleが20前後のまま・・・
prstatで見てもCPU食ってる原因わからず。

時間のある時に試してみますわ〜
レスを投稿する


ニューススポーツなんでも実況