X



OpenSolaris/Illumos (OpenIndiana, etc.) 6
0001名無しさん@お腹いっぱい。
垢版 |
2012/05/19(土) 16:18:42.91
OpenSolaris/Illumos プロジェクト、派生ディストリビューション総合スレ
Sun/Oracle からリリースされる本家「Solaris」に関しては専スレでお願いします

前スレ:OpenSolaris/Illumos (OpenIndiana, etc.) 5
http://toro.2ch.net/test/read.cgi/unix/1285876800/

OpenSolaris 公式サイト http://opensolaris.org/
Illumos 公式サイト http://illumos.org/

Genunix(OpenSolaris コミュニティ/ミラーサイト) http://genunix.org/

[ディストリビューション一覧]
・ OpenIndiana http://openindiana.org/
    (OpenSolaris distro == Indiana の実質的後継、Solaris とバイナリ・パッケージ互換)
・ Nexenta OS http://nexenta.org/
    (Solaris/Illumos カーネルと Debian/Ubuntu ユーザランドの組み合わせ)
・ StormOS http://stormos.org/
    (Nexenta ベースのデスクトップ向けディストリビューション)
・ AuroraUX http://auroraux.org/
    (通常の x86、AMD64 に加え、PowerPC にも対応)
・ Jaris http://jaris.jp/
    (日本発のプロジェクト)
・ Belenix http://belenix.org/
・ SchilliX http://schillix.berlios.de/
・ MilaX http://milax.org/
・ etc.
0002名無しさん@お腹いっぱい。
垢版 |
2012/05/20(日) 01:31:31.61
>>2の[ディストリビューション一覧] だけど、大分現状とは異なってるので直したほうがよさそう。

[ディストリビューション一覧]
・ OpenIndiana http://openindiana.org/
    (OpenSolaris distro == Indiana の実質的後継、Solaris とバイナリ・パッケージ互換)
・ Illumian http://www.illumian.org/
    (Solaris/Illumos カーネル・ユーザランドとAPTパッケージ管理システムの組み合わせ
     NexentaCore後継)
・ NexentaStor http://nexenta.org/
    (Solaris/Illumos カーネルと Debian/Ubuntu ユーザランドの組み合わせによるストレージサーバ用OS)
・ StormOS http://stormos.org/
    (Nexenta ベースのデスクトップ向けディストリビューション)
・ OminiOS http://omnios.omniti.com/
・ SmartOS http://smartos.org/

(以下のディストリビューションは長期間更新なし)
・ AuroraUX http://auroraux.org/ (消滅)
    (通常の x86、AMD64 に加え、PowerPC にも対応)
・ Jaris http://jaris.jp/ (消滅)
    (日本発のプロジェクト)
・ Belenix http://belenix.org/ (消滅)
・ SchilliX http://schillix.berlios.de/
・ MilaX http://milax.org/
0003名無しさん@お腹いっぱい。
垢版 |
2012/05/21(月) 06:51:50.59
おはようございます。前スレ>>975です。新スレ乙です。
ご報告遅くなりすいません。代替機は用意できたのですが、前スレ>>989の段階でscanが
終了していなかったため、一応それを待っていました。先ほどscanが終わり、以下の状態になりました。

pool: tank
state: DEGRADED
status: One or more devices has experienced an error resulting in data
corruption. Applications may be affected.
action: Restore the file in question if possible. Otherwise restore the
entire pool from backup.
see: http://www.sun.com/msg/ZFS-8000-8A
scan: resilvered 118G in 39h45m with 271168 errors on Mon May 21 05:12:12 2012
config:

NAME STATE READ WRITE CKSUM
tank DEGRADED 0 0 2.95M
raidz1-0 DEGRADED 0 0 11.4M
spare-0 DEGRADED 0 0 660
c6t1d0 FAULTED 0 0 0 too many errors
c3t5d0 ONLINE 0 0 0
c6t2d0 DEGRADED 0 0 0 too many errors
c6t3d0 DEGRADED 0 0 0 too many errors
c6t4d0 REMOVED 0 0 0
spares
c3t5d0 INUSE currently in use

errors: 271145 data errors, use '-v' for a list

SMART情報ですが、SATA2とSATA5の2台でBADが発生しています。やっぱり物理的に2台に
問題が発生してしまっているようです。ダメっぽいですね。
一応、これから代替機につないでみます。
0007名無しさん@お腹いっぱい。
垢版 |
2012/05/21(月) 21:04:55.29
ホットスペア持つなら最初からRAIDZ2の方がいいと思うが
細かくチェックしてトラブル時にすぐに入れ替える方がいい
0010名無しさん@お腹いっぱい。
垢版 |
2012/05/21(月) 22:15:58.27
oiの場合、S.M.A.R.Tは何ていうアプリを入れれば
見れるんでしょう?
0012名無しさん@お腹いっぱい。
垢版 |
2012/05/22(火) 08:23:55.43
ZFSってHDDを個別識別出来たっけ?
ベタコピーで同じディスクと認識するならディスク4台用意してddした方が早いかもしれない。
0014前スレ975
垢版 |
2012/05/22(火) 23:03:02.38
みなさん、お世話になってます。色々な提案や情報提供、感謝です。
まだ、作業中ですが、中間報告します。

代替機は土日に届いたのですが、結局そこにつなぎ換える作業はやめて、
バックアップ先として利用しました。
今回の故障機はiscsiターゲットとして利用していたのですが、故障直後は
認識できなくなってしまっていたのに、リセット後は認識できるようになり、
ボリューム内のファイルも読み込み可能でした。
そこでiscsiイニシエータ側から別サーバーにファイル単位でコピーしている最中です。

コピー1回目はIOエラーがかなり出て読めないファイルも多かった上に、
oi自体が勝手に落ちてしまう(電源OFFになる)という状態でした。

そこで一度電源OFFし半日程してからコピーをやり直した所、IOエラーが
発生していたファイルも読めるようになりました。内容はVMイメージ等、
巨大なファイルが多いのですが、テキストファイル類をcatで覗いてみた所、
正常な内容を確認できました(電源OFF前は読めなかった)。

こう考えると冷却が良かったように思えますし、今考えればOSの正常終了を
1週間も待ったりしないで、早々に電源OFFし1日ぐらい冷やす方がよかったのかも
知れないと思えてます。

まだコピー中ですが、コピーが終わったらVMを起動してみようと思います。
0015前スレ975
垢版 |
2012/05/25(金) 01:37:12.80
前スレ975です。
まだまだ復旧に時間がかかりそうなのですが、いい感じに復旧しつつあるのでご報告します。

故障機はiscsiイニシエータで、ファイルシステムは vmfs(ESX専用ファイルシステム)を利用していますが、
約50個ぐらいのVMが格納されていました。このうち、重要度が高かったり、バックアアップが古いのでなんとか
復旧したい物は1割程度なのですが、それらはほぼ全て復旧できました!

ファイル単位でscpでコピーしている最中なのですが、それぞれのファイルは、

1群. 何度アクセスしてもアクセス不能な物(ごく少ない)
2群. 何度かアクセスしているうちにアクセスできなくなってくる物(3割程度)
3群. 正常にアクセスできる物(7割程度)

というような感じです。2群のファイルは4、5時間マシンを止めてからアクセスすればまたアクセス
できる状況です。10分程度の冷却では無理でした。
そのような感じで順次、復旧している最中です。
将来、同じ状況に陥ってしまった場合、是非マシンの冷却を試みて下さい。

作業終了時にまたご報告します(しばらく先になりそうですが)
色々なノウハウをご教示頂き、ありがとうございました。
0016前スレ975
垢版 |
2012/05/25(金) 03:09:13.44
訂正

故障機はiscsiイニシエータで、

故障機はiscsiターゲットで、
0018名無しさん@お腹いっぱい。
垢版 |
2012/05/29(火) 00:46:20.28
スレチかも知れませんが、教えてください。
OpenIndianaの151aにKVMをインストールしたのですが、/dev/kvmがありません。
手順としては
driver/i86pc/kvm、system/qemu、system/qemu/kvmインストール後再起動
BIOSがIOMMUに対応していなかったので、アップデート後有効
/dev/kvmが無かったので、インストールしたものを一度削除し再インストールしました。

インストールして正常に動作されている方、何かヒントをいただけたら。
0020吠鉱山 ◆STCMXN/JPY
垢版 |
2012/06/01(金) 13:39:54.90
pfexec pkgutil -i -y hogehogeすき。
pfexec pkg install hogehoge死ぬほどきらい。
0021名無しさん@お腹いっぱい。
垢版 |
2012/06/07(木) 18:33:55.43
個人用ファイルサーバーにしてるOpensolarisからそろそろ乗り換えようかと思うんだが
Sol11とOIのどっちにするか悩む
ファイル共有関連の設定方法に違いが出てきてるし
0022名無しさん@お腹いっぱい。
垢版 |
2012/06/14(木) 03:25:32.73
zfsってWWNできちんと使える?
今、HDDの1台を交換しているんだけど、WWNが変わるせいで組み込めない
変な汗が出てきたよ
002522
垢版 |
2012/06/15(金) 01:50:46.95
usr1@oi151a:~$ zpool status -v zpool
pool: zpool
state: DEGRADED
status: One or more devices has experienced an error resulting in data
corruption. Applications may be affected.
action: Restore the file in question if possible. Otherwise restore the
entire pool from backup.
see: http://www.sun.com/msg/ZFS-8000-8A
scan: scrub canceled on Mon Jun 11 20:59:18 2012
config:

NAME STATE READ WRITE CKSUM
zpool DEGRADED 703 0 0
c2t50014EE111111111d0 ONLINE 0 0 0
c2t50014EE222222222d0 ONLINE 0 0 0
c2t50014EE333333333d0 DEGRADED 703 0 10 too many errors
c2t50014EE444444444d0 ONLINE 0 0 0

errors: List of errors unavailable (insufficient privileges)

こうなっていたので、
002622
垢版 |
2012/06/15(金) 01:51:55.41
電源切って別のHDDに入れ替えたら
usr1@oi151a:~$ dmesgzpool status -v zpool
pool: zpool
state: UNAVAIL
status: One or more devices could not be opened. There are insufficient
replicas for the pool to continue functioning.
action: Attach the missing device and online it using 'zpool online'.
see: http://www.sun.com/msg/ZFS-8000-3C
scan: none requested
config:

NAME STATE READ WRITE CKSUM
zpool UNAVAIL 0 0 0 insufficient replicas
c2t50014EE111111111d0 ONLINE 0 0 0
c2t50014EE222222222d0 ONLINE 0 0 0
c2t50014EE333333333d0 UNAVAIL 0 0 0 cannot open
c2t50014EE444444444d0 ONLINE 0 0 0

こうなった。接続先は同じなんだけどzfsには新しいc2t50014EE999999999d0は認識されない
002722
垢版 |
2012/06/15(金) 01:53:19.51
名前を指定してreplaceしようとしたら
usr1@oi151a:~$ zpool replace zpool c2t50014EE333333333d0 c2t50014EE999999999d0
cannot open 'zpool': pool is unavailable

poolがUNAVAILなのが駄目らしいので、ONLINEにしようとしても
usr1@oi151a:~$ zpool online zpool c2t50014EE333333333d0
cannot open 'zpool': pool is unavailable

これでもやっぱり駄目
usr1@oi151a:~$ zpool online zpool c2t50014EE999999999d0
missing device name

といわれてONLINEにできない、今ここ
0029名無しさん@お腹いっぱい。
垢版 |
2012/06/15(金) 07:25:31.52
stripeだから次のようにメッセージが出てるわけだな

status: One or more devices has experienced an error resulting in data
corruption. Applications may be affected.
action: Restore the file in question if possible. Otherwise restore the
entire pool from backup.

冗長デバイス抜きのpoolがHDD交換で復旧すると思ってたんだろうか?
0033名無しさん@お腹いっぱい。
垢版 |
2012/06/16(土) 02:10:13.51
元の状態でプールがDEGRADEDってことは辛うじてアクセスできんのか?
だったらその死にかけのHDD戻してある程度のデータは救えないのかな
003422
垢版 |
2012/06/16(土) 03:02:05.22
あれ?stripe?

usr1@oi151a:~$ sudo zpool history | grep "zpool create"
2011-03-13.17:49:21 zpool create zpool c2t50014EE111111111d0 c2t50014EE222222222d0 c2t50014EE333333333d0 c2t50014EE444444444d0

あばばばば

pool作り直して首つってきます。
003722
垢版 |
2012/06/16(土) 12:05:20.60
>>36
自分の場合、被害を受けているのは最近書き込んだファイルのみで
それ以外の部分は問題がありませんでした。当然、HDDの壊れ方に
もよると思いますが。

しかし、運用中にWRITEでエラーが出ていないのにREADでNGって
いやですね。定期的にscrubしておけばよかった。
0039名無しさん@お腹いっぱい。
垢版 |
2012/06/16(土) 18:02:35.09
>>37
SATA HDDだとREAD ERROR発生で終了というパターンが基本じゃね?
代替領域がある限りこそっと処理してるからSMART見てなきゃ気付かないはず
0040名無しさん@お腹いっぱい。
垢版 |
2012/06/22(金) 23:14:38.88
copies=2
とか指定してたとするとstripeメンバが死んだ状態でもそれなりに生きてるファイルは読み出せる・・・
のではないかと予想はしているが実験してみたことはない。
あんまり使う予定が思いつかないがどうなんだろうな>copies
0043名無しさん@お腹いっぱい。
垢版 |
2012/06/23(土) 02:38:04.65
zfsのマニュアルページにはこう書いてあるな

copies=1 | 2 | 3
 Controls the number of copies of data stored for this dataset.
 These copies are in addition to any redundancy provided by the pool,
 for example, mirroring or RAID-Z.
 The copies are stored on different disks, if possible.

「可能なら」別のディスクに書くみたいだな
しかし冗長性なしのpool選んでこれに期待するのって単なるバカだろw
0045名無しさん@お腹いっぱい。
垢版 |
2012/07/04(水) 00:58:48.08
oi_151a_prestable5来た
ttp://wiki.openindiana.org/oi/oi_151a_prestable5+Release+Notes
0047名無しさん@お腹いっぱい。
垢版 |
2012/07/05(木) 00:46:33.19
>>46
出したいけどSPARC用の人員が足りてないらしい
我こそはと思う人はぜひ名乗り出てほしいそうな
0048名無しさん@お腹いっぱい。
垢版 |
2012/07/13(金) 11:53:58.49
LSI の SAS HBA に Supermicro の JBOD を使っている時に、cfgadm -c
unconfigure を実行すると該当のスロットのランプは点灯してくれますか?
0049名無しさん@お腹いっぱい。
垢版 |
2012/07/13(金) 15:37:54.23
unconfigureで自動点灯させる意味がわからん
保守したいHDDの位置を示すならlocator使うだろ

JBODって本来はspanningのはずなのに
単純な複数HDD筐体までそう呼ぶ連中がいて紛らわしいな
0050名無しさん@お腹いっぱい。
垢版 |
2012/07/14(土) 01:22:59.97
>>49
そういうオプションがあるのですね。
ディスクが故障した場合は、unconfigure -> locator=on -> 交換 -> locator=off -> configure という感じでしょうか。
よび方は JBOD chassis とよんだほうがいいですか?
0052名無しさん@お腹いっぱい。
垢版 |
2012/07/15(日) 00:24:47.66
ZFS で mirror を組もうと考えていて、ドライブが故障した場合に間違えずに
交換する方法があるのかと思い質問させていただきました。

ZFS は RAID カードを使わないことが推奨されているようですが、今は状況が
変わっていたりしますかね?

WriteBack Cache が付いた RAID カードなら RAID カードで RAID を組んだほうが
速いんじゃないかという気もしますが。
0054名無しさん@お腹いっぱい。
垢版 |
2012/07/15(日) 12:42:15.56
最初にスロットなりコネクタなりディスクなりにシールでも貼っとけばいいんじゃねーの?
あと、今時、生の UFS で使える程度の容量で我慢できるものなのかね?
どっちにしろ svm なり使うんだったら、zfs の方が管理上マシだと思うが
0055名無しさん@お腹いっぱい。
垢版 |
2012/07/15(日) 14:42:51.42
>>53
raw disk を使うメリットって何?
WriteBack Cache を使うと、ZIL を SSD に置かなくても、
書き込みが遅くならないというメリットがあるけど。
0058名無しさん@お腹いっぱい。
垢版 |
2012/07/15(日) 14:56:33.26
#この手のバカって、なんで後付で条件増やすんだろう?

RAIDカードに金払わなくて済むならそのほうが安く上がるだろ
そも、なんでSSD付きのRAIDカードなんてものがあるんだろうねぇ?
0061吠鉱山 ◆STCMXN/JPY
垢版 |
2012/07/15(日) 16:10:48.86
そう思っていた時期が俺にもあr(ry
一回使ってみろよ。ちびるで。
0067名無しさん@お腹いっぱい。
垢版 |
2012/07/21(土) 17:09:26.03
ちと教えて頂きたいのだけど、
OpenIndianaでpkg install使ってgccやmysqlなど落とした際、
BEが勝手に作成されて再起動を促されるが、以後GRUB直後で再起動を繰り返してしまう。
何かオペレーションが抜けているんだろうか?
インストールしたのはoi-dev-151a-text-x86.iso。
0068吠鉱山 ◆STCMXN/JPY
垢版 |
2012/07/21(土) 17:16:39.78
eだかcだか押してgrub書き直してみたらどーだい。
んでmilstone切って(メンテナンスモード?)で上がるかやってみる。
問題の切り分けにはなると思うんだけれど。
0070吠鉱山 ◆STCMXN/JPY
垢版 |
2012/07/21(土) 18:25:37.16
今手元に86機が無いから確認しようもないのだけれど、恐らくgrubの指定が間違っているのが原因だと思うなぁ。
そういや86のopen使ってた頃、無理矢理updateしたら上がらなくなった(自業自得)
もし古いBEが残っているならそっちを試すしか。
0071名無しさん@お腹いっぱい。
垢版 |
2012/07/21(土) 19:50:29.87
Ummm... システムが修正してくれてるのに頼ってるところもあるからなぁ。
Solaris11だったらうまくいったりするのかな。試してみる。
0075吠鉱山 ◆STCMXN/JPY
垢版 |
2012/07/28(土) 00:57:33.19
メモ: Adobe Flash Player 11.2 はプラットフォームとして Solaris をサポートする最後のバージョンです。

BSDを思い出す…。
0079名無しさん@お腹いっぱい。
垢版 |
2012/08/07(火) 03:10:27.30
OpenSolarisって、Linuxでいうbondingドライバみたいなのないの?
0080名無しさん@お腹いっぱい。
垢版 |
2012/08/07(火) 04:57:28.20
>>79
dladm create-aggr とか...
0081名無しさん@お腹いっぱい。
垢版 |
2012/08/14(火) 23:31:10.78
LSI SAS 2308 でデバイス名からスロットを特定するのには、
LSI から落してきた、SAS2IRCU を使うしかないんですかね?

cfgadm はこんなかんじでした。

root@solaris:~# cfgadm -x led c6::j5000ppn225q63669,0
cfgadm: Configuration operation not supported
root@solaris:~# cfgadm -x locator c6::j5000ppn225q63669,0
cfgadm: Configuration operation not supported
0085名無しさん@お腹いっぱい。
垢版 |
2012/09/03(月) 13:07:23.18
151a5でストライプミラーからraidz2に移行しようと思って、vdevをzfs send | receiveしたら、zfs listのusedが、元のと比べて倍になってもうた。

どなたか経験した方います?
0088名無しさん@お腹いっぱい。
垢版 |
2012/09/04(火) 21:35:37.47
アップデートでカーネルパニック祭りを喰らったからp5をクリーンで入れて環境構築終わったばっかりなのにorz
0089名無しさん@お腹いっぱい。
垢版 |
2012/09/04(火) 23:15:04.15
>>86
ありがとうございます。
確認してみます。
0092名無しさん@お腹いっぱい。
垢版 |
2012/09/06(木) 03:47:32.36
AndroidのカーネルっていうかLinuxと呼ばれるものを全て取り除いて
Android/OpenSolarisや
Android/Illumos
って事にできるの?
0096名無しさん@お腹いっぱい。
垢版 |
2012/09/06(木) 11:42:50.46
ARM版illumosが存在しないから、x86版Androidでやるか、
illumosをARMに移植する作業からやることになるけど、不可能ではないはず
0104名無しさん@お腹いっぱい。
垢版 |
2012/09/12(水) 16:14:06.26
151a5をクリーンインストールしてstorage-serverを追加して順調に動いていたのに
初めて再起動したら数分でカーネルパニックのループに突入した。

aggr0に使ってるe1000g*のhostname.*を消してなかったので起動時にplumb出来ないというエラーが出てたので削除したのと
何となく信用できないbge0のケーブルを引っこ抜いたら無事起動した。もちろんケーブルはその後で刺した。
0106104
垢版 |
2012/09/13(木) 10:01:35.05
原因はやはりbge0でした。
panic時のスタックトレースにbgeが出てたので条件を調べてたんですが
bgeでvlanの仮想nicを作ってると起動時にbgeにケーブルが接続されているときにpanicします。
別の物理nicにvlanを設定すると再起動してもpanicしなくなりました。
0107104
垢版 |
2012/09/13(木) 10:42:20.33
追記
L2スイッチの方でタグ付きVLANのパケットを流すようにしてあるとやっぱりpanicしました。
bge関係はvlanを扱わないようにして解決しました。
0109104
垢版 |
2012/09/13(木) 22:12:43.25
LACPで全くリンクしないので気がついたんですがaggrに組み込んだnicの状態変化を全く認識しなくなってました。
色々試しても改善しないのでデバイス認識からやり直してdladm+ipadmで設定し直したところ
bgeの問題も含めて、とりあえず安定したようです。

コンパイラに関しては以下を登録しpkg search sun studioで解決しました。

InfiniBandについて語るスレ
ttp://toro.2ch.net/test/read.cgi/hard/1305552336/463
>463 :不明なデバイスさん :2012/03/12(月) 19:00:47.75 ID:oBZTj5fF
>>>460
>pkg set-publisher -g http://pkg.openindiana.org/legacy opensolaris.org
>パッチの当たってない SunStudio12.1 を再配布してるらしい。
>
>ttps://www.illumos.org/projects/illumos-gate/wiki/How_To_Build_Illumos
0110104
垢版 |
2012/09/15(土) 10:07:04.96
肝心のコンパイルが通らないので結局gccのパッケージを入れましたorz
0111104
垢版 |
2012/09/24(月) 19:29:17.27
…bgeドライバって実はαレベル?
またpanicループしてたので全通信をaggrのvlanに集約した。
これで二週間問題なければbgeのイーサネットポートは捨てる。

e1000のクアッドポートnicを突っ込んだしもういいやorz
よく考えたらbgeは151に成ってから使えるようになったんだから安定してるかわからんよなぁ…
0115104
垢版 |
2012/09/29(土) 21:45:34.85
むりっぽ

単体からミラー構成にしようとしたらinstallgrub忘れててそのまま元のディスクを外したもんだから…どっちのディスクでも起動しなくなりましたorz
起動環境のセレクタも出ないからブートセレクタかそれいぜんの問題っぽいのはわかるんだけどMBRとか関係あったっけかなぁ…
マウントしてgrubのファイルを弄って…あかん一日コースや
0116名無しさん@お腹いっぱい。
垢版 |
2012/09/30(日) 02:52:10.19
XStreamOSっていうIllumosベースの新しいディストリビューションが出た
ttp://www.sonicle.com/index.jsp?pagename=xstreamos&parent=products
0118名無しさん@お腹いっぱい。
垢版 |
2012/09/30(日) 22:13:32.49
>>117
27日にOpenIndianaベースのディストリビューションのSPARC用LiveDVDが出た。
試してみるといいかも。
ttp://wiki.openindiana.org/oi/MartUX_OpenIndiana+oi_151a+SPARC+LiveDVD
0124名無しさん@お腹いっぱい。
垢版 |
2012/10/06(土) 09:37:59.78
zfs snapshotでout of spaceとか言われるからなんでだろうと思ったらボリュームのスナップショットはそのままのサイズで領域予約がくるのか。
どうすれば回避できるんだろう。
0127名無しさん@お腹いっぱい。
垢版 |
2012/10/07(日) 19:59:13.21
>>126
シン・プロビジョニング、マニュアルには非推奨になってるけど、うーん…。
かといってマシン間でボリュームをsend&recvするためだけにプールを倍以上のサイズにするのも…。
うーむ、そもそもvolumeのリザーブがそのままのサイズなのが問題なんだからコレ弄って何とかならんか。


…と思ってzfs get allしたらsend&recvで別マシンに行ったり来たりしたvolumeのreservasionとrefreservasionがnoneになっとる。
volsizeが変わってないって事は、え?もしかしてrecvの時ってリザーブが強制ゼロ???
0130名無しさん@お腹いっぱい。
垢版 |
2012/10/14(日) 17:53:04.38
かなり前に、opensolaris のカーネルをAndroidに移植しようっていった人ですけど。
やったらどうなるのかなー?
普通のAndroidに比べて動作は遅くなる?
0133名無しさん@お腹いっぱい。
垢版 |
2012/10/15(月) 13:21:24.51
Androidってのは Linuxの上に作ってあるんじゃなくって、下や横に拡張してある。
Linux捨てて他の既存 OS持ってくるのはたぶん大変。
0138名無しさん@お腹いっぱい。
垢版 |
2012/10/16(火) 23:24:11.45
「Android用に」カーネル移植なら理解できるが
「Androidに」カーネル移植というところがバカっぽい

様々な知識と技術を要する別アーキテクチャへの移植と改造を
こんなゆるい頭の持ち主がやれるとは思えないんだよな
0140名無しさん@お腹いっぱい。
垢版 |
2012/10/17(水) 00:19:24.39
ん?Solaris上でAndroidアプリ動かそうって話じゃないよな?
Androidとかどうでもいいだろ。
Android端末でSolarisを動かそうという前提なら、
ARM版Solarisはあったろ。あれをベースに改造だ。
ドライバは、x86で動くAndroidあるぐらいだから、x86 Solarisのが割りと流用きくとみた。
がしかし、わーいSolarisが動いたぐらいで、モチベが保てる作業じゃないだろうな。
面白そうではあるが。
0142名無しさん@お腹いっぱい。
垢版 |
2012/10/17(水) 02:06:08.82
皆さん浅い知識の僕が馬鹿な質問をしてしまいすみません。
Androidのカーネル、Linuxの部分を切り取りそれに相当する物をOpensolaris 持ってきてAndroidのカーネルにすり替えたいという魂胆です。
0144名無しさん@お腹いっぱい。
垢版 |
2012/10/17(水) 03:13:35.87
それ、AndroidのユーザーランドをIllumous下に移植って言わんか?
Illumous+debianのIllumianやらあるので不可能だとは思わないが
滅茶苦茶大変であろうことは想像に難くない。
AndroidのユーザーランドなんてLinuxカーネルべったりだろうしね。
0147名無しさん@お腹いっぱい。
垢版 |
2012/10/17(水) 09:35:37.45
>>144
んと、Androidは共有メモリとかプロセス間通信とか独自拡張してて、
アプリはそれ使いまくり。ユーザーランドじゃなくて、カーネルに大幅に
手が入ってる。分離も悪い(のが Androidのやり方がまずいのか Linuxの
作りがわるいからなのかまでは知らんw)
0148名無しさん@お腹いっぱい。
垢版 |
2012/10/17(水) 11:25:33.97
とにかく、今のAndroidと殆ど変わりなく動いてくれて、Linuxという名前がつかない物がほしいんです。
AndroidがLinuxと言われてるのはカーネルがLinuxだからですよね?
だから、Linuxカーネルを取り除いて他の何かを入れたかったんです。
できますか?
0150名無しさん@お腹いっぱい。
垢版 |
2012/10/17(水) 12:03:09.55
>>148
ライセンスとか考えずに、ただ出来るか出来ないかでだけで言えば、出来る。
ただ、それをやるためには、OS 1個作るくらいの時間と労力が必要になるかもだが、
それでもやってみたいなら、やれば?

その辺からファイル落としてきて、installとかで出来ないの?レベルの話なら、出来ない。
自分で作れ。
0152名無しさん@お腹いっぱい。
垢版 |
2012/10/17(水) 14:08:50.35
スマホにも「intel inside」、Intel製CPUのAndroidスマホが直輸入、モトローラ「RAZR i」
ttp://akiba-pc.watch.impress.co.jp/hotline/20121020/etc_motorola.html

これでいいでないかい?
0155名無しさん@お腹いっぱい。
垢版 |
2012/10/17(水) 17:54:21.91
OpenSolarisベースで、Android互換な「新規の」OSを、開発するしかないかも。
Androidの、非 Linuxなコード部分を使えるのかどうか知らんが。

Solarisと、Linuxはソースの構成はかなり違うと思うぞ。
0156名無しさん@お腹いっぱい。
垢版 |
2012/10/17(水) 20:56:05.17
皆さんありがとうございます。

やはり
難しいのですね。
兎に角Linuxという名前がつかないスマホのOSがほしいんです。

そんなに難しい事なのですか?
0158名無しさん@お腹いっぱい。
垢版 |
2012/10/17(水) 21:13:13.61
>>156
> 兎に角Linuxという名前がつかないスマホのOSがほしいんです。
なんで?
なんか知らんけどへんなとこ気にしすぎじゃね?
0159名無しさん@お腹いっぱい。
垢版 |
2012/10/17(水) 21:13:48.21
>兎に角Linuxという名前がつかないスマホのOS
WindowsとiOSがあるよ
オープンソースがいいっていうなら、iOSのコア部分はDarwinだから、Solarisでやるより簡単だよ
0168名無しさん@お腹いっぱい。
垢版 |
2012/10/17(水) 23:25:12.03
いやiOSではなくて、Androidのアプリケーションも使えるLinuxって名前がつかない物が必要なんです。
OpenSolarisのAndroidに使われてるLinux相当の物を利用したかったのですが、皆さんがおっしゃる様にそんなに難しいのですか?

メリットがないって、、、
0169名無しさん@お腹いっぱい。
垢版 |
2012/10/17(水) 23:42:02.77
>>168
実装する上で何がハードルとなるかわかる人でないと無理
それがわかっても実装できるわけでもない
できるとしても時間がかかりすぎるという問題もある

そもそもソフト開発経験あるの?
0173名無しさん@お腹いっぱい。
垢版 |
2012/10/18(木) 01:08:55.51
>>168
>Androidのアプリケーションも使えるLinuxって名前がつかない物が必要なんです。
なぜそんなものが必要なのかまったく理解できん。

節々で「そんな難しいの?」みたいな調子で聞いてるけど
ユーザランド含めたOSを組み上げることのハードルも理解・解釈できないような人が
そんなOSを必要とするケースがマジでわからん。
0174名無しさん@お腹いっぱい。
垢版 |
2012/10/18(木) 01:17:40.07
難しいかどうか聞いてどうするんだろ。
自分でやる気はぜんぜんないみたいだけど、
どこかに発注するつもりなの?
0175名無しさん@お腹いっぱい。
垢版 |
2012/10/18(木) 01:41:01.72
発注なんてしないよ。
それを使って儲ける気もない。

ただ、とりあえず動く最初の段階は楽にクリアしたいなと思って。
それから色々と改良しながら改良する技術も身につけたいなと思ってて。

0177名無しさん@お腹いっぱい。
垢版 |
2012/10/18(木) 05:26:37.58
何すればいい?って聞くなら一応向上心があるように見えるだろ。でもこれ
頑張って東大行きたいです、難しいですか? 可能ですか? ってしつこく聞いてるだけじゃないか
もっと酷いわ
0180名無しさん@お腹いっぱい。
垢版 |
2012/10/18(木) 11:54:33.75
とりあえず東大に入る最初の段階は楽にクリアしたいなと思って。
それから色々と勉強しながら卒業できる学力も身につけたいなと思ってて。

こんなこと言ってたら病院を紹介されてもおかしくない。
0181名無しさん@お腹いっぱい。
垢版 |
2012/10/18(木) 19:05:59.99
まず、Androidの Linuxからの拡張部分を分離して、それをマイクロカーネルの
サーバーとしてどっかにくっつけるのがいいんじゃないか。
Chorusとか。もうないんだっけ?w ああ、Springがいいじゃんww
QNXとか Minix3とか。
0183名無しさん@お腹いっぱい。
垢版 |
2012/10/28(日) 11:26:41.18
>>181
Linuxは本当に嫌いなんです。
技術的な欠陥がカーネル部分で幾つもありそうだし、
なんか本当の所でだれもセキュリティやマシンがどう振る舞うのか等に興味や理解がなさそう。

フリーで皆でやってるわけだから、前の時代の開発に関わってきた人達が気がつかなかったバグは
ずーっとそのまま気が付かず放置されてそう。
そして新しく開発に加わった人達は前の時代の人達の作った物は
完璧だから確認しなくて良い的な感じでまた新たなバグが見つかる。

マルチコアの処理や並列処理さらにはマイクロカーネル的な要素を網羅したカーネルを作っておけば
ハードウェアのフラグメントにも今のLinuxよりは対応できるし、アプリケーション等が重要だから
Androidのアプリケーション等が使えたらなお良い。
あと、パソコンよりも携帯よりのソフトウェアに強いのがAndroidでしょ?

そういった理由で、LinuxカーネルじゃないAndroidのOSが必要。
0187名無しさん@お腹いっぱい。
垢版 |
2012/10/28(日) 11:49:41.41
>>183
>技術的な欠陥がカーネル部分で幾つもありそうだし、
思い込みじゃね?
>なんか本当の所でだれもセキュリティやマシンがどう振る舞うのか等に興味や理解がなさそう。
思い込みじゃね?
>フリーで皆でやってるわけだから、前の時代の開発に関わってきた人達が気がつかなかったバグは
>ずーっとそのまま気が付かず放置されてそう。
思い込みじゃね?
>そして新しく開発に加わった人達は前の時代の人達の作った物は
>完璧だから確認しなくて良い的な感じでまた新たなバグが見つかる。
思い込みじゃね?
0188やっぱRBACだよね
垢版 |
2012/10/28(日) 13:20:19.69
なんにしても、Linux ユーザには「root loginを正しいと考えてる」輩が多いから困るんだよね。
あ、これはFreeBSD系も一緒か。

やっぱRBACで適切に「権限分離」した環境で暮らしたいよね。
とはいえ、ついつい自分の作業アカウントには「Primary Administrator」権限を付与しちゃうんだけどさ(笑)
0193名無しさん@お腹いっぱい。
垢版 |
2012/10/29(月) 17:22:47.12
>>183
「...そう」って、言われてもなぁ。つーか、具体的な根拠もなくそんなこと
言っても、誰も相手してくれないだけかと。

それに、「Linux」を何に置き換えても、そのまま成立すると思うよ、その文章。
OpenSolarisでも Oracle Solarisでも、AIXでも HP-UXでも MacOS Xでも
FreeBSDでも NetBSDでも。程度の差はあるけど。

まあ、IBMや SGIの偉い人たちがさんざんいじって、直らなかった(受け入れ
られなかった)という感じはオレも持ってるけどね。
0197名無しさん@お腹いっぱい。
垢版 |
2012/10/29(月) 19:50:54.50
iPhon/iPad欲しいけど高くって買えません><
androidスマホではりんご持ちのリア充共に馬鹿にされちゃうんです;;
だからOIカーネルの、なんかすげぇOS乗っけたスマホでやつらを見下してやりたいんです

そんな電波を受信してみたんだけど合ってる?>>183
0200名無しさん@お腹いっぱい。
垢版 |
2012/10/29(月) 23:39:34.88
洗練されたDDI/DKIとフレームワークで組み上げられた
Solarisのカーネルが美しいのは間違いない。
それにくらべてLinuxのフリーダムなこと。異論は認めない。
0205名無しさん@お腹いっぱい。
垢版 |
2012/11/01(木) 04:04:16.02
UNIXのようなマルチコア対応に優れたOSの利用者なら
安くコア数がほしくない人っていないんじゃね
まぁ裏の意味は分かる
FXはシングルコアあたりの性能がivy比で低いと言いたいのだろ
0211名無しさん@お腹いっぱい。
垢版 |
2012/11/14(水) 21:12:28.25
そのうち公開すると幹部がぬかしてたけど絶賛放置中
あの襟損が積極的に公開するとは思えないし芽は無いだろう
0215名無しさん@お腹いっぱい。
垢版 |
2012/11/17(土) 07:21:01.84
複数OIマシンを使って1つの冗長化されたストレージ(iscsiとかnfsとか)に見せるクラスタみたいなことってできる?
0225名無しさん@お腹いっぱい。
垢版 |
2012/11/18(日) 23:05:47.07
定期バックアップが頻繁にやりやすいだけで、置いてるvmやらdbやらの動作状態と直近データは全損で手動復旧作業必須だからな>zfs send
残念ながらdrbdで常時レプリケーションしてるLinuxには数段劣る
0230やっぱRBACだよね
垢版 |
2012/11/19(月) 00:03:14.72
>>225,227
とはいえ、drbdはチューニングが面倒。
特にHartbeatと共存させている場合なんか、すぐにSplit Brainが起き易い。
ついでに言うと、Ethを複数束ねてもLinux bondingだと「速度倍増」が望めないというのも痛い。
drbd相当の機能がSolarisに実装されると嬉しいんだけどねぇ。
0232名無しさん@お腹いっぱい。
垢版 |
2012/11/19(月) 00:15:50.42
よくわからんのだけど
LUの実体が何かなんて別に気にしなくても良いと思うのでiSCSIターゲット箱を複数用意して専用鯖で束ねるってのはダメなの?
これなら鯖死んでもデータはそこに無いから新鯖で束ね直せば良いだけでいけやしないかな。
0233名無しさん@お腹いっぱい。
垢版 |
2012/11/19(月) 00:19:55.47
意図はわかるし多少前進してるが、それはHDDがeth経由になって自由度が上がるだけで、上で言われてるような、
いずれかのストレージマシンが死んでもクライアントからは隠蔽されるような仕組みがいるんじゃまいか
0234名無しさん@お腹いっぱい。
垢版 |
2012/11/19(月) 02:28:21.53
別に家鯖に高可用性まで求めてないからマシン死ぬのは別に構わん、と思ってたが
一度電源トラブルでPCに繋がってるHDD全部飛ばして以降別マシンにsend/recvするようになったw
0238234
垢版 |
2012/11/22(木) 22:54:42.13
>>235
アレイ構成してるHDDが全部同時に逝ったのよ。過電流かなんかで基板が逝った。
0239名無しさん@お腹いっぱい。
垢版 |
2012/12/11(火) 06:47:25.79
ふとlastコマンドでログイン履歴を追っていたら、作成した覚えのないjackユーザでログインした形跡があって
今、青ざめています。
当該oiマシンは、ネットからすぐに外し、slocate jackしたら、
/var/cache/gdm/jack
/var/cache/gdm/jack/dmrc
が引っ掛かってきました
ちなみにls -la /var/cache/gdm/jack/dmrcすると
-rw-r--r-- 1 65432 staff 24 201*-**-** 20:04 /var/cache/gdm/jack/dmrc
となっていて、65432がjackユーザらしいのですが、
/etc/passwdファイルにはjackユーザは存在しません
0241名無しさん@お腹いっぱい。
垢版 |
2012/12/11(火) 11:09:52.09
>239
| OpenSolaris Project: Indiana の Get the OpenSolaris..
| ...のぺージからダウンロードして起動してみる。..

| Username "jack"、Password "jack" でログイン。
0243239
垢版 |
2012/12/11(火) 14:06:39.55
え、えーと...
てへぺろ(ゝω・)
...
0253名無しさん@お腹いっぱい。
垢版 |
2013/01/26(土) 16:11:07.78
あふぉやったかなぁ・・・
買ってきてすぐのHDD(WesternDegital製 1TB SATA3)を、フォーマットも何もせんでPCに繋いで、Solaris11をDVDからインストール開始。
一応出来そうなんで進めてみたら、インストール中のフォーマット作業で、もう10時間以上経っている・・・

前もってフォーマットしておくべきだったのだろうか?それともPC自体がぶっこわれだろうか。それともSolaris11が(ry
PCはCore2Duoでメモリ4G。さすがに10時間ねぇだろうと思うんだけど・・・しかもほとんど進んでない気配。

HDDもCPU周辺も全く熱持ってなくて、ほんとに作業してんのか?と思ってしまうレベル。

なんなんだろう。
0255名無しさん@お腹いっぱい。
垢版 |
2013/01/26(土) 20:03:13.76
そもそもWD緑には、低速病という持病が発症することがってのは置いといて、
「インストール中のフォーマット作業」って何? newfs してるって事?
0257名無しさん@お腹いっぱい。
垢版 |
2013/01/27(日) 08:58:17.34
>>253
ディスク表面のサーフェースチェックを実行しているとか?
もしそうなら記録媒体の機能確認なので飛ばしても影響はないよ。
0261名無しさん@お腹いっぱい。
垢版 |
2013/01/27(日) 16:03:15.05
>>259
4TBは試したことないが3TBは大丈夫だった
ちゃんと4KBセクターになってる(特に指定はしてない)
あ、起動ディスクとしては試してない
0263名無しさん@お腹いっぱい。
垢版 |
2013/01/31(木) 23:10:02.99
SPARC用のIllumosベースのディストリビューションOpenSXCEが出たよ!
ttp://www.opensxce.org
0264名無しさん@お腹いっぱい。
垢版 |
2013/01/31(木) 23:37:09.58
>>259,261
AFTのHDD使う場合は気を付けて。
/kernel/drv/sd.confに設定を行ってからzpool createを行わないと、
アラインメントがずれた状態になる。
設定方法の詳細はここ。
ttp://wiki.illumos.org/display/illumos/ZFS+and+Advanced+Format+disks
アラインメントがずれてるかどうかの確認はzdbコマンドを実行すればashiftの値でわかる。
ashift=12ならばアラインメントは正しい。

>>260,262
Oracle SolarisのZFSはバージョン33
OpenInianaやFreeBSDのZFSはバージョン28
0265名無しさん@お腹いっぱい。
垢版 |
2013/02/01(金) 09:11:32.69
OpenillmosのZFSは独自拡張初めてんじゃなかったっけ?feature@〜って形で。
OpenIndianaだと151a5だったかa6辺りで取り込まれてたと思った。
こいつを有効にすると、zpoolのバージョンは5000とかになるはず。

Oracleが最新のZFSソースの公開やめたからしょうが無いんだけれど。

で、これを元にしてるFreeBSDも確か9-stable辺りにはもう取り込まれてような。
試したことは無いけど、独自拡張を有効にすると多分本家Solarisには
そのままimport出来ないんじゃないかなー。
0268名無しさん@お腹いっぱい。
垢版 |
2013/02/21(木) 18:57:18.67
インストールするときのキーボードはどちらを選べばいいの?
0269268
垢版 |
2013/02/21(木) 18:58:10.54
openindianaです。
0270268
垢版 |
2013/02/21(木) 20:37:43.02
23のJapaneseが正解みたいです。
22のJapanese-Type6では半角全角で記号が入力されます。

157aでは日本語入力ができないのですが、何かしないといけないとかありますか?
0271268
垢版 |
2013/02/21(木) 21:12:01.42
ネットで検索したらでてきました。
iBusをいれればいいらしい。
0272268
垢版 |
2013/02/21(木) 22:04:18.19
いきなりrootパスワードの変更が必要みたいです。
コンソールでsuをする必要があるみたいです。
0273268
垢版 |
2013/02/21(木) 22:05:48.98
iBusとAnthyをインストールしましたが、半角全角が効きません。使い勝手がちょっと悪いです。
何か設定が必要でしょうか?
0276268
垢版 |
2013/02/21(木) 22:27:40.92
よく分かりませんが、日本語入力が不安定みたいです。
0280名無しさん@お腹いっぱい。
垢版 |
2013/02/22(金) 06:31:12.65
Solarisは鯖専用OS。日本語入力なんてしません。
キーボードも英語キーボード。というか、リモート専用なのでキーボードも付けません。
0284名無しさん@お腹いっぱい。
垢版 |
2013/02/23(土) 10:43:14.95
>>283
ハードウェアレベルのリモート管理が無いからって意味じゃね?
ブート段階から弄ることになると色々めんどくさい。
0285名無しさん@お腹いっぱい。
垢版 |
2013/02/23(土) 13:48:36.85
OpenIndianaのバージョンアップが止まってるので、
OmniOSへ移行しようとテストしてるけどtopとか結構パッケージが絞られてちょっと使いづらい。
最悪自前でパッケージ作れば良いんだろうけど、微妙な差があるのが・・・
0286名無しさん@お腹いっぱい。
垢版 |
2013/03/03(日) 21:14:59.80
久しぶりにsshログインして、zpool statusを見たら、
こんな表示が...

status: The pool is formatted using an older on-disk format. The pool can
still be used, but some features are unavailable.
action: Upgrade the pool using 'zpool upgrade'. Once this is done, the
pool will no longer be accessible on older software versions.

>Once this is done, the pool will no longer be accessible on older software versions.
が怖くて、zpool upgradeする決心がつきません...
0289名無しさん@お腹いっぱい。
垢版 |
2013/03/03(日) 22:46:26.79
illumos系のZFS使ってる所は、もうそのVer使い出してるから、
純正Solaris使わないなら、そこまで気にすることも無いかと。
少なくともFreeBSDは9-stableに修正入った。
なのでBSDベースのNASも9.2-RELEASEベースから新バージョン使い出す事になるかと。

他は調べてないけど、Oracleがsource非公開にしちまってるから、
結局、Solarisとillumosの2系統に分かれちゃうのは、しょうが無いんだよな。
0298名無しさん@お腹いっぱい。
垢版 |
2013/03/08(金) 00:25:31.98
zfsのメタデータ(DDT含む)を別のデバイスプールに置くってできるんだっけ?
なんかの思い違いかな。検索ワードが分からん・・
0304名無しさん@お腹いっぱい。
垢版 |
2013/03/18(月) 19:00:03.69
あら。もう繋がらないぞ。3/24じゃなかったのか。
0306名無しさん@お腹いっぱい。
垢版 |
2013/03/18(月) 21:06:34.87
不治痛にSunが買える甲斐性があれば、まだOpenSolarisは生きていただろうか。
0307名無しさん@お腹いっぱい。
垢版 |
2013/03/18(月) 21:07:07.68
よい技術を次々作り出せる会社というのは
悪く言えば幼稚だがタレントのある人種が集まるところだからだろう
別の言い方をすれば商売に頓着しないということだ
0309名無しさん@お腹いっぱい。
垢版 |
2013/03/19(火) 01:12:25.01
>>306
「サポートできる人的リソースが無い」って理由で早々に捨てられるだろうね。
確か、未だにx86/64系はサポート外じゃなかったっけ>FJ
0310名無しさん@お腹いっぱい。
垢版 |
2013/03/19(火) 10:09:41.94
不治痛からも旧sunのx64鯖買えるよ
PC鯖のprimeなんちゃらではsolarisサポートしてないけど
中の人のインタビュー記事ではlinux押しだった
0315名無しさん@お腹いっぱい。
垢版 |
2013/03/19(火) 13:41:58.72
Sunみたいな会社には技術バカをうまく扱える経営陣が必要で
目の前のカネしか見えない事務畑の勢力が強くなると滅亡する

マクネリがバトンタッチした頃にはもう終わってたな
0317名無しさん@お腹いっぱい。
垢版 |
2013/03/19(火) 15:07:21.23
自社製品どうしじゃなきゃ接続できなかった囲込みジョーシキの業界に
Sunがオープンという単語で殴込みかけて、つい先日まで存続してたこと自体が
ある意味奇跡なんだよ。
オープンソースじゃなきゃオープンじゃないとか言ってるエセオープン企業だけが
結局残った。つまらん。
0322名無しさん@お腹いっぱい。
垢版 |
2013/03/26(火) 17:22:52.23
OpenIndiana入れてると、wake on lanで起動できなくなったりします?
同機種PCにWindows入れてるのは起動できてるんですが。
0323名無しさん@お腹いっぱい。
垢版 |
2013/03/26(火) 21:08:04.69
>>322
WoLの為には、確かシャットダウン時にそのための処理を
NICに設定しなきゃならなくて、
そいつをやるのはドライバの仕事だった気が。
ドライバがWoLに対応してないと、その設定が出来ずに、
WoL出来ないはず。
0326名無しさん@お腹いっぱい。
垢版 |
2013/03/30(土) 00:52:11.09
前は.profileに記述する方法をしていたのが悪かった見たいです。
ibusを自動起動するように設定したら、問題無く使えます。
Mageiaより完成度が高いです。
0327名無しさん@お腹いっぱい。
垢版 |
2013/03/30(土) 00:58:01.07
V2Cより記念カキコ。
0328名無しさん@お腹いっぱい。
垢版 |
2013/04/29(月) 11:35:02.64
         ,, _
       /     ` 、
      /  (_ノL_)  ヽ
      /   ´・  ・`  l    Solarisは死んだんだ
     (l     し    l)    いくら呼んでも帰っては来ないんだ
.     l    __   l    もうあの時間は終わって、君も人生と向き合う時なんだ
      > 、 _      ィ
     /      ̄   ヽ
     / |         iヽ
    |\|         |/|
    | ||/\/\/\/| |
0330名無しさん@お腹いっぱい。
垢版 |
2013/04/30(火) 01:11:31.54
         ,, _
       /     ` 、
      /  (_ノL_)  ヽ
      /   ´・  ・`  l    OpenIndianaは復活するんだ。
     (l     し    l)    悲しみの弔鐘はもう鳴り止んだ。
.     l    __   l    君は輝ける人生の、その一歩を、再び踏み出す時が来たんだ。
      > 、 _      ィ
     /      ̄   ヽ
     / |         iヽ
    |\|         |/|
    | ||/\/\/\/| |
0333名無しさん@お腹いっぱい。
垢版 |
2013/05/12(日) 19:50:50.47
不良セクタ出たHDDを一時的にzfsで使用する必要がある場合、
セクタの登録なんかはどうすればいいのかな?
若しくはzpoolでエラーカウントが増えても切り離さないような設定(?)とか
0335名無しさん@お腹いっぱい。
垢版 |
2013/05/12(日) 23:05:09.38
zpool っても色々だが、少なくとも raid-z 系ならそう簡単に切り離されたりしない
死んでる部分が重なってなければ、普通に読めたりするし、死んでれば死んでるなりに
取り敢えずは動く

とは言え、下手の考え休むに似たりと言うか、とっとと交換すべき
0336名無しさん@お腹いっぱい。
垢版 |
2013/05/13(月) 00:27:12.64
代替不能になったHDDを再フォーマットして問題なく使えてる!
オレってプロだよな!とドヤ顔してるバカってたまにいるよねw
0337名無しさん@お腹いっぱい。
垢版 |
2013/05/13(月) 02:18:50.10
一時的に使用する必要がある場合と断ってるでしょ
人がいないからって空想で相手作っちゃだめよー
>>335
マシン環境によっては簡単に切り離されるよ。
mirror系ばかり使ってるのでraid-z系だと挙動が違うのかもしれないが、
タイムアウトするのか1カ所でも出るとカウント急増してdegrade化するHBAがある。
エラー原因にも寄るようだがカウントは1〜3程度で微増する場合と、
50〜3桁以上に急増して切り離される場合に2極化してる気がするな。
0339名無しさん@お腹いっぱい。
垢版 |
2013/05/13(月) 03:37:37.85
SCSIならdefect list登録
SATAなら代替処理できずエラー出た時点で交換

アホな工夫を考えるよりもさっさと交換
予備くらい買っとけと

>>337
エラー原因によってエラーの増え方が違うってそりゃ当たり前じゃないかと
HBA依存ってどんなの?
0340名無しさん@お腹いっぱい。
垢版 |
2013/05/13(月) 03:41:35.77
>>338
使用する必要があると書いてんだからエラー出て外してあったヤツを
完全に死んだHDDの代わりに間に合わせで使いたいってことだろ?

だったらimportだのreadonlyは関係ない
0341名無しさん@お腹いっぱい。
垢版 |
2013/05/13(月) 05:09:47.48
とりあえず、Bad Sectorが出たSATAのHDDを一時的とはいえ使用する場合に必要なのは


 覚 悟


だけじゃないか?

>339
安いNASでもS.M.A.R.T.情報を監視してて、閾値を超えると即エラー返して来るヤツもあるけどね。
0342名無しさん@お腹いっぱい。
垢版 |
2013/05/13(月) 06:10:03.52
>>341
監視はHBAじゃなくてドライバやデーモンでやってるヤツじゃね?
そうだとすればHBA依存じゃなくてシステム依存だろ
0345名無しさん@お腹いっぱい。
垢版 |
2013/05/14(火) 01:32:42.91
>>339
今時のzfs配下でもdefect list 使えるのか ! じゃあanalyzeかけるだけか
しかしなんともローテク感溢れるのでSATAやSSDでも使えるzfsレイヤから指定する方法とかもほしいなそれは
不良セクタに当たった場合に代替だけしてdegradeに落ちなければいいんだがどういう閾値なんだろうか

HBAによってはシングルドライブでLD設定してるとドライブエラー生じた際に
自動リトライかなにかするらしくsolarisから見てタイムアウトして一撃degradeとかいろいろ。
主にファームやドライバが腐ってる訳だがsolarisだしな。変な気をまわさない低機能HBA使えってのは頷ける。

>>340
exactly.
全数載せる実験で在庫HDDが足りんとかその程度の用途なのでデータの安全とか運用とか関係ない話題なんだが
なぜかSATAで長期運用中のストレージのディスク交換だと確信している方々が

>>343
だ、だまされないぞー(棒)
0346名無しさん@お腹いっぱい。
垢版 |
2013/05/14(火) 09:54:00.44
>>345
いや、エラー出たとか、返事かえってこねーディスク
をとっととディスって何が悪いってのが、FS側の意見。


> HBAによってはシングルドライブでLD設定してるとドライブエラー生じた際に自動リトライかなにかするらしく
こんな事やってる”HBA”はシラネ。
普通のSATAなら、HDD自身が諦めるまで、返事かえってこねー事はあるが、
こいつはHBA関係ねぇ。
とっととエラー返すHDD使えってー事だ。
0347名無しさん@お腹いっぱい。
垢版 |
2013/05/14(火) 13:45:10.30
>>345
ファイルシステムやディスクドライバで代替ブロックを確保・割当すんのと
ディスク内部にある代替処理とはレイヤが全然違う

SCSI HDDにはdefect list管理があるからまだいじる余地はあるけど
SATA HDDなら普通はひっそり自動代替されて回復不能エラー報告時には
もう予備領域を使い果たしてたりするから管理もクソも交換しかない

LDってRAIDコントローラのlogical disk/driveのつもりか?
そういうシッタカくさい略記すんなよ
ディスク状態監視まで備えてたりする高機能コントローラ持ち出して
HBAによってはとかアホにしか見えない

あと背景説明しなかったくせに意図しないレスでファビョるのはカコワルイ
黙ってgrown defect list登録やっとけ
0348名無しさん@お腹いっぱい。
垢版 |
2013/05/14(火) 13:54:29.25
全数載せるだか何だか知らんけど、壊れたディスクでディスクが壊れた場合以外の実験なんて意味有るのかねぇ?
0349名無しさん@お腹いっぱい。
垢版 |
2013/05/14(火) 15:33:47.08
> ファイルシステムやディスクドライバで代替ブロックを確保・割当すんのと
> ディスク内部にある代替処理とはレイヤが全然違う

そんなバカな..

> SCSI HDDにはdefect list管理があるからまだいじる余地はあるけど

そんなバカな..

> SATA HDDなら普通はひっそり自動代替されて回復不能エラー報告時には
> もう予備領域を使い果たしてたりするから管理もクソも交換しかない

そんなバカな..www
そんなんもう何十年も前から SCSIも ATA(IDE)もいっしょだつーのwwww
ディフェクト管理で退避だとかデバイス側の SCSIコントローラーと
HDD間が ESDIで接続されてたような頃の話だぞ。

> ディスク状態監視まで備えてたりする高機能コントローラ持ち出して
> HBAによってはとかアホにしか見えない

そんなバカな..k.k
0351名無しさん@お腹いっぱい。
垢版 |
2013/05/14(火) 20:22:55.03
そういやエンプラ用途のディスクには自動代替処理なんて無いって聞いたな
エラー出たらコマンド打って明示しないとやってくれないとか…
0352名無しさん@お腹いっぱい。
垢版 |
2013/05/15(水) 09:14:41.89
その手の物は、そもそもRAIDで使われること前提だし。
HDDはリカバリなんかしなくて良いから、読めないなら読めないとさっさと答えろぼけ、
リカバリ?そんなもんこっちでやるから、早く返事しろ、アホ!仕事貯まってんだよ!
ってのが、業務用RAIDカードの仕様だからな。

で、結果が酷くなったら、HDD切り離し。
0354名無しさん@お腹いっぱい。
垢版 |
2013/05/15(水) 23:28:59.19
ん?ってことはもしかしてWDのRedってそういう仕様なのかな。
あれSATAだけどNAS用でRAID前提のディスクだよね。
0355名無しさん@お腹いっぱい。
垢版 |
2013/05/16(木) 08:47:20.86
>>354
TLER/CCTL/ERCとか言われてる奴だな。(メーカーによって呼び方がまちまち)
一応リトライはするけど、設定された時間で終わらなければ、Timeoutして、ホストに通知する機能。

現状だと、各社のニアライン向けは全部、コンシューマー向けだと
WDのRedとVelociRaptor、HGST/東芝の全部に付いてる。WDの前記以外と
Seagateのコンシューマー向けは無し。
ただ、東芝はこの先どうなるかは不定、現状はまだHGST時代のファーム使ってるから使えるけど、
独自に作り出すと、どうなるか分からん。

ちなみに、HGST/東芝のは設定を記憶しないので、電源入れる度に再設定が必要。
Redは使ったこと無いけど、多分一緒な気がする。
(機能が有効のままRAID以外で使われると、場合によっては問題になる場合が。)

RAIDカードスレで、HGSTを薦められてたのはこの辺りも関係してる。
0356名無しさん@お腹いっぱい。
垢版 |
2013/05/16(木) 23:00:17.42
タイムアウトってHBAが決めるんじゃないの?
0357名無しさん@お腹いっぱい。
垢版 |
2013/05/16(木) 23:17:15.38
設定可能項目が標準実装ならクラッシュディスクのddとかのtipにふつーにあると思う。
たぶん変更不可だったり、そもそもそんな設定自体が存在しなかったりそんな話かと。
0358名無しさん@お腹いっぱい。
垢版 |
2013/05/16(木) 23:22:39.44
>>346
どこのFSか知らんがZFSはエラー出たからといってそう簡単には分離しないポリシーだぞ
>>356
上で出てるけど、HDDが諦めてエラー返してきてもHBAがリトライしちゃう場合がある
逆パターンとしてディスクが長時間無応答になったのでリセット発行→ループ でスピンアップ繰り返しとかも
Disk側がやってる場合と区別付きにくいが
0359名無しさん@お腹いっぱい。
垢版 |
2013/05/17(金) 16:39:01.30
本家の方見限ってこちらに乗せ変えたのですが、sjtoeucと打つとそんなコマンド無いって言われて、
パッケージ入れ忘れかと思い探して見たけどSJISもEUCも無いみたいですね・・・
日本語対応はUTFだけのようですが何か理由があるのでしょうか?
SJISやEUCのサポートは復活しますか?
0360名無しさん@お腹いっぱい。
垢版 |
2013/05/18(土) 10:30:27.90
Solaris10のマニュアル見ると SUNWjfpuとあるから、それに入ってるかと。
JLE(SunOS 4.x時代(!)の日本語環境ね)の互換性保持のためのものだから、
もういいんでないw?
要るんならシェルスクリプトで iconvのラッパー書いとけば。

iconv -f SJIS -t EUC-JP
0361名無しさん@お腹いっぱい。
垢版 |
2013/05/18(土) 10:54:48.70
本家の方見限ってこちらに乗せ変えたのですが、
gcc -static hoge.cと打つとlibc.aが無いって言われて、
パッケージ入れ忘れかと思い探して見たけど無いみたいですね・・・
ライブラリ対応はsharedだけのようですが何か理由があるのでしょうか?
libc.aのサポートは復活しますか?
0363名無しさん@お腹いっぱい。
垢版 |
2013/05/20(月) 19:42:18.91
oiでZFS mirrorな自宅ファイルサーバを立ててから、およそ一年経ちましたが
HDDの価格も落ち着いてきたので、HDD3本構成に移ろうかと思います。

移行するためには、現在稼働中のHDDと同容量の物を、2本追加し、
その内、1本を飛び石のようにしてファイルを移していくしかないんでしょうか
0364名無しさん@お腹いっぱい。
垢版 |
2013/05/20(月) 20:17:30.23
やりたい事と使えるリソースを「俺用語を用いずに」書かないと適切な回答は得られないと思うよ
以下、俺なりにエスパー

ギリギリまで節約したい、移行時には冗長性はなくてもいいって話なら、ミラー解除一本+新規追加一本に
スパースファイルで raid-z 組んで、ミラーの残りから zfs send+recieve その後ミラー側を zpool destroy で
raid-z 側に追加とか出来なくもないと思うよ
0366名無しさん@お腹いっぱい。
垢版 |
2013/05/21(火) 00:35:35.74
>>365
なってないです。rpoolとは別のプール(ミラー)に外に見せるファイルを置いてます。
ZFSのroot(rpool?)をミラーに出来るほどの技量は無いので...

>>363は、↓のようなあまりひねりの無い方法で考えてました
1.現行ミラープールを構成してるHDDと同容量のHDD2本(仮にHDD A、HDD B)を用意する
2.1.で用意したHDD Aにプールを作る。
3.現行のミラープールのファイルを2.で作ったプールに移す
4.現行のミラープールをdestroyする
5.HDD Bと元ミラーHDD2台の合計3台でRAID-Zプールを作る
6.HDD Aのプールのファイルを5.のRAID-Zプールに移して完了。
でも>>364のスパースファイル使う方法が非常に魅力的なので、
VirtualBoxで予行演習してみようと思います。

とか言っても、一番危ないのはコマンド打ったり、SATAケーブル抜き差しする自分自身だったりするからな...
0367名無しさん@お腹いっぱい。
垢版 |
2013/05/21(火) 01:00:47.50
>>366
それなら
 現在のmirror(仮にC,D)のうちDをdetachする
 A,B,Dでraidzを構成
 単体となったCからraidzにzfs send
というのでいいんじゃないの?
それをさらにスパースファイルでHDD節約するというのが >>364
0368名無しさん@お腹いっぱい。
垢版 |
2013/05/23(木) 23:15:13.39
なるほどなー。縮退させておいて移行後にリプレイスするのか。

ZFSでmirror→RAID-Zに変更する手順の作業ログ
http://www.sonorilo.net/2010/07/07/2735
0369名無しさん@お腹いっぱい。
垢版 |
2013/05/23(木) 23:36:11.67
◆じゃあのさん来た!◆
917:以下、名無しにかわりましてVIPがお送りします[]
2013/05/23(木) 22:25:46.82 ID:MT5ZqnSp0
ようおまいらwwwwよりしくやってっか?wwww
俺か?www俺は元気だwwww

--- 以下スレ情報 ---
高岡さんがフジ韓流ゴリ押し批判したら干されたのでウジテレビ凸
http://hayabusa.2ch.net/test/read.cgi/news4vip/1369316645/
0372名無しさん@お腹いっぱい。
垢版 |
2013/05/27(月) 00:47:23.60
raid5よりraidzのreadが遅いのは環境のせいだったのかー
てっきり仕組み上仕方ないのかと思っていたよ
で、具体的にどんな環境ならそうなるのかなー?
0377名無しさん@お腹いっぱい。
垢版 |
2013/05/27(月) 13:38:08.86
zfsにはraid5~6みたいな機能はすでにあるがraid5~6を実装しているわけでナイ。
性能が悪いのはraidzのせいだがzfs的にはそこはraidzに文句を言わずにプール中のアレイ増やして解決しろ。

だっけ?
つくづく個人向けじゃねーわ>zfs
0382名無しさん@お腹いっぱい。
垢版 |
2013/05/27(月) 19:45:48.01
結局raidzが遅いのは変わらずか
とっととraid5的な実装も追加してほしいね
H/W RAID5でzpoolつくって〜とかやりたくないんだがやってみたら十分速度出るんだよなw
0383名無しさん@お腹いっぱい。
垢版 |
2013/05/27(月) 20:46:48.48
>>382
ディスク20発に64GB位積めば
速度出るんじゃね?
元々そういうもんだし。
ディスク一桁台のシステムなんて、考えてねーぞ、元から。

それで遅いといわれても、はいそうですかって感じ。
0384名無しさん@お腹いっぱい。
垢版 |
2013/05/27(月) 21:18:35.96
このバカの脳内にある「raid5的な実装」ってのを見てみたいな
NetAppだってEMCだって「IOPS稼ぎたいなら、ディスク増やせ」って言ってくるってのに
0385名無しさん@お腹いっぱい。
垢版 |
2013/05/27(月) 21:26:43.67
スケール可能という話と、スケール必須という話を勘違いしている
10台以上前提とかどこに書いてあるんだ?
0386名無しさん@お腹いっぱい。
垢版 |
2013/05/27(月) 22:23:54.55
SVMさいきょう
0389名無しさん@お腹いっぱい。
垢版 |
2013/05/27(月) 22:42:15.25
SSD200GBのL2ARCとSSD16GBのZILを突っ込んでるけど速くなったって気はしないなぁ…
でも仮想マシンの台数の割に反応速度が落ちないって実感はある
0390名無しさん@お腹いっぱい。
垢版 |
2013/05/28(火) 08:59:19.16
>>377
>つくづく個人向けじゃねーわ>zfs

個人は最初から相手にしてません、
というか個人の方はうっとうしいから使わないでお帰りください
0391名無しさん@お腹いっぱい。
垢版 |
2013/05/28(火) 10:14:34.89
>>385
誰もスケールの話しなんてしてない、
あなたが、ZFSの仕組み分かってないだけ。

ZFSで性能を求めたいなら、ディスクを増やせと。
IOPS稼ぐには、VDEVを増やすしか無い、
特にVDEVにRAIDZ/Z2を使う場合な。
3発のRAIDZを、5つ位纏めてプール作れば、
そこそこいけんじゃねーの。

つか、そもそも、どの程度の速度ほしいのか、
提示してないよな?お前。
0393名無しさん@お腹いっぱい。
垢版 |
2013/05/28(火) 20:58:55.61
なんかHDD本数増やせとかがんばってる人いるけど他と比べてRaidzが遅いのが原因じゃないの?
ZFSに読み込み速い実装が追加されるなら俺は大歓迎なんだが何が気にくわないのかねぇ
単に速度がほしいなら全部SSDにすればよくね?わざわざHDD本数増やす意図が分からんよ…
0395名無しさん@お腹いっぱい。
垢版 |
2013/05/28(火) 21:31:01.29
だったらZFS以外使えばよくね?
ディスク増やせって言ってるのは、
ZFSがどう言うものか、わかった上でアドバイスしてるだけで。

別に無理してZFS使えなんて、誰も言ってないし。
0396名無しさん@お腹いっぱい。
垢版 |
2013/05/28(火) 21:34:01.19
「RAID5は速い」「raid-zは(遅いので)RAID5的な実装ではない」
とか、脳内で決めつけてるバカに何をどう説明しても無駄だろう
「速い」とか「遅い」が具体的に示されてない段階でこいつがバカなことは明らかだし
0397名無しさん@お腹いっぱい。
垢版 |
2013/05/28(火) 21:35:40.91
>>393
おまえがそーすりゃ良いんじゃねーの?

Oracleがソースクローズにしたおかげで、
そうそうZFSの根本的なところに手はいんねーよ?
0415名無しさん@お腹いっぱい。
垢版 |
2013/06/20(木) 22:45:43.62
raidzがそんなに遅いというベンチはみつからなかったな。
速いか甲乙つけがたい程度。

ttp://www.pcserver1.jp/blog/40/20100413/13
ttps://kimson.name/wordpress/archives/92
0417名無しさん@お腹いっぱい。
垢版 |
2013/06/21(金) 16:01:08.96
OpenIndianaはなんかお先真っ暗状態・・・?

ZFSはカーネルであるillumosが開発の中心で、上物は関係無いし、
ZFS含むシステムなら、FreeBSDの方が圧倒的にアクティブな人多いし、
lz4対応は結果、BSDの方が速くなっちゃったからなぁ。

そしてSolaris自体がOracleになった事によって、
そもそもオープンなSolaris環境自体が、もうイラネって方向になってそう。。。
ZFSも本家と枝分かれせざるを得ない現状、別にSolaris系で作る必要も、
無くなってきてそうだしなぁ。
0421名無しさん@お腹いっぱい。
垢版 |
2013/06/22(土) 08:58:01.14
ストレージ鯖でしか使って無いから、
メモリーの割り当てには困らないんだが、
そんなに違うか?
てか、そもそもZFSはメモリー食わしてなんぼでしょ。
0423名無しさん@お腹いっぱい。
垢版 |
2013/06/22(土) 13:27:38.46
どだろ、ZFSって元々ベンチマークで比較しにくいファイルシステムだが、
うちで、Hyper-Vのストレージとして使ってる奴は、
ハード全く同じでOI151a7+COMSTARとFreeBSD 9-stable+istgtじゃ、
シーケンシャルで100MB+ランダムでも50MB+平均で速いかな、IBのQDR IPoIBで繋いだ状態で。
ランダムでのレスポンスも体感では良さそう、OrionのAdvancesはまだかけてないから、分からんけど。
0424名無しさん@お腹いっぱい。
垢版 |
2013/06/22(土) 14:24:38.25
oi151のCOMSTARでiSCSIデバイスを作って、
Windows7のVirtualBox仮想マシンのブートドライブに設定してから、
Windows8をインストール、起動させるのに成功しました。
ここまでやると、ライブマイグレーションというのができるそうですが、
フリーのVirtualBoxだけでできるのか調べてるところです
0425名無しさん@お腹いっぱい。
垢版 |
2013/06/24(月) 02:48:47.81
>>415
そこで直線番長な結果持ってくるのはちょっと恥いので
少なくともWriteとシーケンシャルReadは高速だぞ、とかにしとけ
(ほんとに使えるなら公式がmirror推奨したりしねえ)
0427名無しさん@お腹いっぱい。
垢版 |
2013/07/01(月) NY:AN:NY.AN
OmniOS使ってみた。
鯖用途なら、現状、OIよりこっちの方が良いかも。
カーネルその他周辺も、精力的にメンテされてるし。

まぁ、OIの更新がとろいってか、止まってんのが悪いんだが。
0428名無しさん@お腹いっぱい。
垢版 |
2013/07/02(火) NY:AN:NY.AN
>>427

OIは hipster ってのが頑張ってる。
151a7 -> hipster は、クリーンインストールからのアップグレードはいけたけど、
使用中のa7からは、試してないんだよな。
kernelとか最低限のuserlandは、最新のillumos-gate追っかけてるよ。

リポジトリはこれ -> http://pkg.openindiana.org/hipster/
0429名無しさん@お腹いっぱい。
垢版 |
2013/07/15(月) NY:AN:NY.AN
oi_151a7で512バイトセクタの2Tバイトディスク10発でraid-z2のpoolを使っていたんだが
最近の猛暑でマシンが落ちてしまい、何とか復旧はしたんだが、一つのWD20EARSがあまりに遅くて全体の性能を落とすようになった。
そこでST2000VN000を買ってきて交換した。
・・・んだがディスク交換後にreplaceかけたらエラーになった
zpool replace tank c14t1d0
cannot replace c14t1d0 with c14t1d0: devices have different sector alignment

過去ログ呼んでたら
>>264
でそのあたりの話が出てたので書いてあったwikiを見た
がんばって英語を読んでみたが最後のほうの
Migration of older pools onto newer disks
という章を読む限り、既存のashift=9で構成されているpoolに4kのディスクを交換するのって要するに無理ってことなんだろうか
0430名無しさん@お腹いっぱい。
垢版 |
2013/07/16(火) NY:AN:NY.AN
>>429
とりあえず低速病乙。

試したこと無いけど、多分無理。
ま、出来たとしても、ashift=9のpoolでAFTのDrive使ったら、恐らくそいつが足引っ張る事になるだろうけど。

既存のHDDをsd.confでAFT扱いにして、pool作り直す手もあるっちゃあるが、
結局pool消す事には変わらんし、素直に全数入れ替える事を、おすすめするよ。
他にもEARSが有るなら、そいつも低速病発症するかもしれんし。
緑なんてさっさとポイしちゃいなさい。
0432名無しさん@お腹いっぱい。
垢版 |
2013/07/16(火) NY:AN:NY.AN
>>430
> 緑なんてさっさとポイしちゃいなさい。
そのためにpoolのHDD10個まとめてポイするハメになるとか・・・ポルナレフ召喚していいですか?
あとHBAに安いからという理由でヤフオクで入手したLSIの3041を使ってたりするんだが、いろいろと詰んでる事がわかった。

>>431
7K4000とかググってみたけど扱ってる店もうないみたいだが・・・

とりあえずWindowsマシンにちょっと古めのHGSTの7K3000 が刺さっているの見つけたのでこれと入れ替えを画策することにした
これOI特有なのかな?BSDとか本家ではどうなんだろ
これ困る人結構出てきそうな気がするんだが
0433名無しさん@お腹いっぱい。
垢版 |
2013/07/16(火) NY:AN:NY.AN
>>431

> 7K4000とかググってみたけど扱ってる店もうないみたいだが・・・

自己レスだが4000とかってサイズかと思って2000に置き換えてググってたがそうじゃないのか
サハロフとかの表記だと別の形式だから混乱したがHGSTならまだ512セクタのHDDを扱ってるのな
でも値段がちょっと高めなのが悩ましい
0434名無しさん@お腹いっぱい。
垢版 |
2013/07/17(水) NY:AN:NY.AN
>>432
FreeBSDでも同じような感じに陥ったことがあって、もう面倒くさくなったので
新規poolは全部ashift:12で作るようにしちゃってる

10台全部まとめて交換しなくても、半分くらいの交換で低速病が改善されるかも
自分の場合は、6台交換した時点で低速病が滅多に出なくなった
因みに交換したHDDはsmartエラー出まくりだったから、RMA交換して
ヤフオクに出しちゃったから、出費がそんなになかったのはラッキーだった
0437名無しさん@お腹いっぱい。
垢版 |
2013/07/18(木) NY:AN:NY.AN
>>436
そのとおりダヨ
いまpoolまるごと更新するならコスパと将来性で3TBモデル選びたいがそうするとHBAまで更新しなきゃならなくなる

さて22時にディスク交換してresilverが後12時間かかるようだ
明日はエアコン付けっぱなし&前面扇風機で会社行くしかねーな
0439名無しさん@お腹いっぱい。
垢版 |
2013/07/19(金) NY:AN:NY.AN
>>436
あぁそういう系のか。確かにそれはそれでいやだな
なにかディスクエラー時にzfsが凍るとかドライバ・ファーム周りかと思った
0440名無しさん@お腹いっぱい。
垢版 |
2013/07/23(火) NY:AN:NY.AN
ZFSだけ使えればいいから、あとはZFSを外向きに簡単設定でexport出来るようなUIをつけたのを出してくれないかな
0441名無しさん@お腹いっぱい。
垢版 |
2013/07/23(火) NY:AN:NY.AN
export が NFS 的なそれなら、外向きもクソもないだろうし、inherit するから create する時に
sharenfs なりしとけばいいと思うが
0443名無しさん@お腹いっぱい。
垢版 |
2013/08/16(金) NY:AN:NY.AN
oi_151a_prestable8来てた
ttp://wiki.openindiana.org/oi/oi_151a_prestable8+Release+Notes
0444名無しさん@お腹いっぱい。
垢版 |
2013/08/16(金) NY:AN:NY.AN
昨日oi-dev-151a8-live-x86.isoをダウンロードするのに一晩かかった。
0445名無しさん@お腹いっぱい。
垢版 |
2013/08/16(金) NY:AN:NY.AN
黄緑色は目が疲れる。
0446名無しさん@お腹いっぱい。
垢版 |
2013/08/21(水) NY:AN:NY.AN
SATA3に対応したっぽい表示になったっぴ。
以下、boot開始〜ログインできるところまでsyslogを比較して違ってたところ。
〜〜
sata: SATA Gen2 signaling speed (3.0Gbps)
 ↓a7からa8
sata: SATA Gen3 signaling speed (6.0Gbps)
〜〜
zfs: open version 5000 pool rpool using 5000
 ↓a7からa8
でない
〜〜
/usr/lib/power/powerd: [ID 387247 daemon.error] Able to open /dev/srn
 ↓a7からa8
でない
〜〜
0447名無しさん@お腹いっぱい。
垢版 |
2013/09/09(月) 15:14:19.35
チラ裏
Oi 151a8とzfs on Linux(0.6.2)のアレイ互換性実験してみた
Linux側の鳥はopenSUSEとdebianで
zfs export/zfs importで問題なくお互いのアレイを使える模様
exportなしでOiを単純にシャットダウンしてLinux側でzfs import -f でも大丈夫

あたりめーだろアフォという話だったらスマソ
0448名無しさん@お腹いっぱい。
垢版 |
2013/09/09(月) 22:41:14.41
よろしい、では各feature flagsをactiveにしたときの互換性を確認するんだ
・・・というのは冗談としてoi、ZoLやその他諸々と相互運用できるファイルシステムは便利だな
FreeBSDもv5000になったみたいだし、MacZFSもZoLからのポートを開発中だから色んなOSで広く使えそう。
ディスク上のデータだけちゃんとしてれば各ポートでトラブル起こってもとりあえずoiでインポートできるから助かる。
(実際ZoLでresilverが無限ループに陥ったけどoiで回復できたことがあった)
0451447
垢版 |
2013/09/10(火) 00:04:27.05
>>449
一応仮想環境でのRAIDZ3台から初めて実ディスクSATA3台のRAIDZ、実ディスク6台のRAID-Z2、同6台AFT付と試したお
0454名無しさん@お腹いっぱい。
垢版 |
2013/09/23(月) 06:22:34.76
ZFSを利用したNASを構築を検討しているのですが何点か疑問があります
1.OracleSolarisとOpenSolaris系で機能・性能上の違いはどの程度ありますか?
2.Solaris系とFreeBSD系で機能・性能上の違いはどの程度ありますか?
  FreeBSDは使用経験がありますが、ZFSはSolarisが本家なので
  どちらがよいのか悩んでいます
3.ZFSでWindows8のストレージプールのnウェイミラー的な構成は可能ですか?
  5ウェイミラー(4台死亡までサービス継続)の構成が取れるのであれば
  そのような構成の利用も検討したいです
判る方がおりましたら教えてください。よろしくお願いします
0455名無しさん@お腹いっぱい。
垢版 |
2013/09/23(月) 08:34:42.52
>>454
1.
OracleSolarisは機能的にはプール暗号化とかそのへんで若干進んでる、性能レベルは誤差
ただIllumos系はFreeBSD/ZFSonLinuxとの互換性を取る方向に進んでる
今は完全ではないけどそのうちアレイの完全互換が期待できる

2.
zfs自身の性能差はFreeBSDとSolarisで大差ない
ただし、iSCSI/cifs/nfsあたりの性能はillumosの方が高い。これは体感できるレベル

3.
windowsのストレージプールがよくわからんが、3Way〜nWayのRAID1相当ってことでいいのかな?
それは問題なくできる。RAID-Z/Z2の4Wayミラーで8台*4の32台アレイとか普通に組める
0459名無しさん@お腹いっぱい。
垢版 |
2013/09/23(月) 18:39:42.70
>>454
v29以降の機能が入ってるのがOracle、feature flags以降の機能が入ってるのがillumos系
あと個人的には5wayミラーの理由が気になる・・・そんな凄いデータなのか
そこまで行くとミラー数増やすより停電・天災等々で物理的に全HDD逝ってしまうリスクに対処する方がいい気がしてしまうけど。

>>456
需要の多くがZFSで、そのZFSもFreeBSD/Linux移植の完成度が上がれば上がるほどそっちに流れるからなぁ。
0460454
垢版 |
2013/09/23(月) 20:29:22.71
レスありがとうございます
長文失礼します

>>455
1・・・こだわらなければOpenSolaris系で良さそうですね
2・・・NASとしての性能面ではSolaris系の方が有利ですか
 軽く探して見た感じだとSolaris系の場合は対応したSATA HBA(PCI-Express)カードが
 なかなか見つから無いように思います
3・・・すみません。自分もWindows8のストレージプールについては良く理解できていません
ストレージを仮想化して、スケーラビリティ、復元性、効率性を高める - Building Windows 8 - Site Home - MSDN Blogs
ttp://blogs.msdn.com/b/b8_ja/archive/2012/01/13/10256576.aspx
2ウェイミラーと3ウェイミラーが使用可能のようですが、3ウェイミラーは
・パリティではなくミラーを複数台のドライブに分散して記録する
・2台以上死んでもサービスを継続できる
っぽいです。具体的な原理は自分も良く理解できていません
このミラー数を5くらいに増やせれば4台死んでもサービスの継続が可能なのでは?と思いました
パリティを用いないのでRAID-ZやRAID-Z2よりパフォーマンス面で有利のような気もします
Windows8による構築も検討して調べてみているのですが、縮退モードからドライブ交換無しでリビルドできたり
プールからドライブの削除が出来たり、SATAカードが選び放題だったりと、Solaris(or FreeBSD)+ZFSより
優れる面もあるのですが、実績がほとんど無いこととWindowsだと言うことで不安があります

>>459
現在16台構成(内2〜4台はリザーブ)でNASの構築を検討しているのですが
HBAやドライブ電源の障害でNAS丸ごとクラッシュという事態は避けたいです(単一障害点の削減)
RAID-Z2や3ウェイミラーの場合は2台の死亡までしか許容できないのでHBAと電源を
8台用意する必要があり、流石に現実的ではありません
現実的には
4台死亡を許容(5ウェイパリティ、RAID-Zしたセットをプールに追加)してHBAと電源を4台用意するか
8台死亡を許容(RAID10。ミラーしたセットをプールに追加)してHBAと電源を2台用意する
あたりが落としどころかなと思っています
0461名無しさん@お腹いっぱい。
垢版 |
2013/09/23(月) 21:16:01.12
> Solaris系の場合は対応したSATA HBA(PCI-Express)カードがなかなか見つから無いように思います

ま、思うのは勝手だけどな。普通LSI買うだろ

> このミラー数を5くらいに増やせれば4台死んでもサービスの継続が可能なのでは?と思いました

別に何面ミラーでも作れると思うけどな>ZFS

> パリティを用いないのでRAID-ZやRAID-Z2よりパフォーマンス面で有利のような気もします

パフォーマンスは知らんけど、容量は不利だろうな

> 縮退モードからドライブ交換無しでリビルドできたりプールからドライブの削除が出来たり

ミラー構成なら何でも出来るだろ>ZFS

> 現在16台構成(内2〜4台はリザーブ)でNASの構築を検討しているのですが

以下意味不明につきレスは避ける
取り敢えず、1台のマシンをNASにするなら、その1台が単一障害点とやらになるだろ
0462名無しさん@お腹いっぱい。
垢版 |
2013/09/23(月) 21:47:41.75
>>460
ttp://wiki.openindiana.org/pages/viewpage.action?pageId=23856206
Adaotec/Highpoint/LSIと主だったところは大体対応してるけどな
(Highpoint対応されたのは確かに比較的最近だが)
0463名無しさん@お腹いっぱい。
垢版 |
2013/09/23(月) 21:53:30.33
てゆーかそこまで耐久性とかこだわるんならSAS使うべ?それならWindowsのみなんてカードほとんど無いと思うけど?
0466名無しさん@お腹いっぱい。
垢版 |
2013/09/23(月) 22:23:59.60
Win8のn方向ミラーは「データをアレイ中の任意のn台に書く」ってだけだよね。そんな難しい原理ではなかった気が。

何重ミラーにしようと1つのマシン上でやる以上はrm -rf /には勝てないんだから、
別マシンを用意してzfs send/recvする方が良いとは思うんだけどね。
数TBのバックアップストレージを予算的に用意できないからやむを得ずRAIDによるデータ保護に期待する、
ならともかく5wayミラー想定するほどHDDに余裕あるなら、自分だったら8台でRAID-Z2組んだマシンを2台用意する。
データ保護より何より高可用性が大事なんだとしても、HBAなり電源が逝ったみたいな事態だと結局マシンは止めなきゃいかんのだし。
0467名無しさん@お腹いっぱい。
垢版 |
2013/09/24(火) 08:16:49.37
snapshotスクリプトがコケててsnapshotが取れてなかったDatasetが
アプリのバグでファイルの半数以上がrmされたorz

(朝五時に電話かかってきて「ファイル消えてんぞぐるぁ」と来た)
zdbでブロックが残ってるのは確認したが、約2T/20万objectの羅列を眺めて15分ほど固まった

そんな俺に誰か一言
0471名無しさん@お腹いっぱい。
垢版 |
2013/10/02(水) 22:09:45.65
仮想マシン上のOpenSolarisにApacheとPHPをインストールしなければならないのですが、
手元の資料にはどちらも解凍・展開からの手順しか書いておらず進められずにいます
解凍・展開前に必要な準備等がありましたら教えて頂けないでしょうか
0477名無しさん@お腹いっぱい。
垢版 |
2013/10/05(土) 21:05:41.25
>>467
スナップショットがこけててもバックアップがあるんだから問題ないだろ。
2TBの書き戻しは気が変になりそうだろうが、がんばれ/
0478名無しさん@お腹いっぱい。
垢版 |
2013/10/06(日) 15:15:27.57
>>471
展開前のブツをDLしてきたとか手持ちであるならそこから進めるだけじゃん?w
つーかその資料とやらを作ったヤシに聞けよ
0479名無しさん@お腹いっぱい。
垢版 |
2013/11/03(日) 12:20:27.14
CIFSストレージとして使ってますが、ストレージ空き容量が減ってくると
加速度的に読み書きが遅くなりますね
0480名無しさん@お腹いっぱい。
垢版 |
2013/11/03(日) 14:12:45.89
>>479
ZFSの事か?
ま、公式にも使用量は80%以下で使えと言われているし、
CoWの仕組み上、空き容量が減ってくると遅くなるのは、
しようが無い事ではある。
DISK数が少ないと、なおさら効いてくるかもな。
0482名無しさん@お腹いっぱい。
垢版 |
2013/12/06(金) 22:56:03.83
dedup=onでrecordsize=4kとかにするとファイル書き込んだときにwriteが増えて異常に遅くなるんだがこれなんだろ?
recordsize弄らなければ急に遅くはならないし、read増えてないのでDDTに書きに行ってるとかか??
recordsize大きいとデータに埋もれて見えないだけとかいうオチか? dedup率優先なpoolにしようかと思ったが遅すぎる

実験方法:
vmに16〜32GB程度メモリ割り当て。zpool create ; zfs create ; zfs set dedup=on, compress=on, sync=disabled
cp dummy_5GB.bin hoge
zfs set recordsize=4k
cp dummy_5GB.bin hoge
0483名無しさん@お腹いっぱい。
垢版 |
2013/12/07(土) 07:48:19.15
>>482
ttps://blogs.oracle.com/roch/entry/tuning_zfs_recordsize
Other consideration (metadata overhead, caching) dictates however that the recordsize not be reduced below a certain point (16K to 64K; do send-in your experience).
0484名無しさん@お腹いっぱい。
垢版 |
2013/12/07(土) 19:19:55.08
今回のはdedupが支配要因に見えるしここまで遅いとそういう話ではないような気も。
ひとまず32kでやってみるけど。
ddtとかのメタデータって2〜3重化されてるんだっけ? 実験的にOFFにできるのかな。
実験先のドライブが1LUNなのが問題な気がしてきた。
0486名無しさん@お腹いっぱい。
垢版 |
2013/12/08(日) 09:08:30.23
ところで、本番で想定しているプールサイズで、メモリ消費量予想してみました?
ttp://www.c0t0d0s0.org/archives/7271-ZFS-Dedup-Internals.html
RAM 32GB→ARC 24GB→metadata 6GB→...
recorsize=4KBだと、プール1TBで DDT 3GBくらいとか?
dedupでストレージを節約しようとしても、代償に必要とされる
メモリが高コストにつくと、あまり意味ないのでは。
0487名無しさん@お腹いっぱい。
垢版 |
2013/12/09(月) 19:54:47.72
>>485が書いてくれてるとおりrecordsizeの減少はmetadataの急激な増大を生むので単にそれが原因ぽい
特に1ドライブ上で実験してしまうと離れた位置に2重化して書き込もうとするので猛烈なrandom writeに。
(割とマシなSANでもRAID6 1LUNマウントでは追いつかなかった)
物理ドライブを8本にしてみたら極端な遅さにはならなくなった(1〜2本が酷いだけで4本程度あれば十分かもしれない)が
write総量がかなり増えることには違いないので相性の良いハードで無い限りrecordsize=4kはしんどそう
格納するデータが2k〜4kブロックでないと重複排除が効きづらいものだとzfsの使用は悩ましいことになる
recordsize=128kでの重複排除率が低すぎる場合はserver2012あたりに浮気した方がいいのかもしれない

>>486
メモリ64のマシンが余ったので仮想で半分割り当ててみたんだがarc_meta_limit上げれば割と収まるんじゃないかなー
若しくはARCは16程度でL2に64くらいとか(計算してないけど)
0488名無しさん@お腹いっぱい。
垢版 |
2013/12/14(土) 09:43:55.45
Dedupの効率?みたいな物の比較ってある?
確かにZFSでDedupしても予想の半分程度しか減らないことがある
Compressと併用すると効率が悪くなったりしないよね
0489名無しさん@お腹いっぱい。
垢版 |
2013/12/14(土) 17:36:55.37
dedupは思ったほど効果なかったなぁ
そのデメリットがあまりにひどすぎて使うのやめたが
gzip圧縮の方がかなり効く

そもそもdedupがそんなに必要となる状況ってどんなのがあるんだろう?
バックアップで各世代をそのまま保存しつつ、変更がないから同じファイルが
いくつも存在するといった場合なら、そもそもsnapshotバックアップでいいし
0490名無しさん@お腹いっぱい。
垢版 |
2013/12/14(土) 20:40:55.24
仮想マシンのイメージファイル置き場がメジャーじゃね
ひな形vmをコピーする際にzfs cloneすればいいんだが、実際は丸コピした方が楽な場合が多くw
(ファイル単位でclone出来るようにはならんのか?)
0492名無しさん@お腹いっぱい。
垢版 |
2013/12/14(土) 22:28:48.23
添付ファイル単位で単離されてるならそりゃ効くだろうけども
メル鯖によってはbase64encされた状態でtextの間に挟まってないかそれ? dedup効くのかね
0493名無しさん@お腹いっぱい。
垢版 |
2013/12/14(土) 22:42:06.40
>>490
cloneはファイルシステムを分けて使う場合は便利だけど、
逆にそれが不便になる場合もあるからねぇ

さくらでZFSストレージをVPSのファイルサーバに使って大失敗してたけど
あれどんなシステムでどんな失敗だったんだろうな
0494名無しさん@お腹いっぱい。
垢版 |
2013/12/14(土) 23:55:38.85
上で上がってたような特定用途の領域を必要なだけFSとして切り出してdedupかけるのが
(メモリ的にも現実的な)本来の用途なわけで、数TB、数十TBのプール全体にdedupかけて、なんてのはアホの極みでしかないな。
1GBくらいのディスクイメージcpして使用領域増えてないわーい、みたいなブログ記事たまに見るけどそんなこと言ってもねぇ・・・
0495名無しさん@お腹いっぱい。
垢版 |
2013/12/15(日) 01:01:29.62
さくらの場合はnfsで使っていて1000台ぐらいで性能が頭打ちに
なったとかどっかで見た気がする。
そもそもnfsを使うのが筋が悪かった。
0496名無しさん@お腹いっぱい。
垢版 |
2013/12/15(日) 01:33:43.51
特定用途のvm置き場にdedupかけたけど効果はさっぱりだったな。ブロックサイズ固定まではしてみなかったが
さくらはzfsでdedupかけてたのかな?
どちらにせよzfs自体が大規模トラフィックに向いてない気がするな。nfsは構造上小規模向けだろうに
GlusterFSやらの分散型でスケールアウト狙った方が
0497名無しさん@お腹いっぱい。
垢版 |
2013/12/15(日) 01:38:34.13
NFSはそもそも共有して意味があるんであって
クライアントが別々にのファイルにアクセスするなら
NFSする意味がないからな
iSCSIの方が良かったんじゃないのかと

cloneで同じ設定のVMを作り出すのは便利だからそこだけうまくやってればねぇ
0499名無しさん@お腹いっぱい。
垢版 |
2013/12/15(日) 10:44:40.53
それは微妙にzfsとは違う方向から異論が出そうだが、
iscsiの使い勝手が悪い件については賛成。
そりゃnfsでファイル見えてりゃ規模が大きくなればなるほど管理が圧倒的に楽になる。
ただzfsでサブディレクトリ作ってもクライアントから追加でマウントしないと共有が見えない。
Linuxのnfsdで出来てるんだから何とかしろよ絶対便利だろそれorz
0502名無しさん@お腹いっぱい。
垢版 |
2013/12/15(日) 20:47:49.35
ああ、zfs createで作られるマウントポイントってなんつーの?
zfs create pool/zfs1
zfs create pool/zfs1/zfs2
zfs create pool/zfs1/zfs2/zfs3
みたく階層化たりとか。
Linux系はpool/zfs1をnfs共有しとくとその下に増やしても自動で見えるイメージ
inodeとか誤魔化せば出来るんじゃねーかやってくれよっていう
0506名無しさん@お腹いっぱい。
垢版 |
2013/12/16(月) 00:29:12.62
btrfsってこれのことですかーっ >_<
ttp://togetter.com/li/513383

>>504
おお、あれfilesystemっていうのか。>>502みたく階層化して使う場合ってどう表現すればいいんだろ
「filesystemの中にfilesystemをマウントする」とかか。これだと通じるかどうか微妙なラインだが
0508名無しさん@お腹いっぱい。
垢版 |
2013/12/16(月) 15:28:03.50
ZFSの階層構造はプロパティとかの管理上便利ってだけでファイルシステムとしては独立してるんだから
運用上はext4とかの領域作りまくって色んなフォルダにマウントしてるのと変わらん。
>>507の言うようにdefaultだとZFS上の階層構造そのままの位置にマウントするからフォルダ的に扱える気がするだけだな。

dedupを実際に活用できてる現場ってどれくらいあるのかね?
それなりに大きいストレージだと個人レベルじゃ用意できない量のメモリを必要とするし、
それだけのメモリを用意できるストレージだとストレージ自体ももっと大規模で結局メモリ足りないんじゃ?と思ってしまう。
メモリー積んでdedupかけるより、dedupで削減できる容量分のHDD追加した方がコスト的にマシなケースしか浮かんでこない。
0509名無しさん@お腹いっぱい。
垢版 |
2013/12/16(月) 16:13:29.19
zfs on Linuxの環境だが既存fsの下層に新規fs作ったらESXi側から見えたよ
エクスポートの設定の問題か

そしてアンマウントできなくなっちまったが
0510名無しさん@お腹いっぱい。
垢版 |
2013/12/16(月) 16:59:21.54
>>509 499あたりが書いてるが
Linuxでは可能. vm単位でfs作ってcloneしたら即アクセスできる
Solarisではfs作る度にクライアント側でマウントしないと使えない
0516名無しさん@お腹いっぱい。
垢版 |
2013/12/17(火) 21:36:45.50
>>508
Linux LVM的に言えば
ZPOOL=VG
ZFS filesystem=LV
みたいなもんだからな
別々のLVだからmountも別

NFSクライアント側でハードリンクしたらどうなるかちょっと気になってきた
0518名無しさん@お腹いっぱい。
垢版 |
2013/12/21(土) 21:18:52.91
ZFS使うためだけにOpenIndianaやFreeBSD選んでる人が結構いそうだからな。
元々がLinux使いならそりゃZFSもLinuxで使えた方が嬉しいだろう。

このスレも9割くらいZFSスレになってるけど、Solaris系で使ってる人半分もいなかったりしてw
0519名無しさん@お腹いっぱい。
垢版 |
2013/12/21(土) 23:22:13.32
Linuxが使いやすいとは全く思わないが、使えるデバイスの多さ(ドライバの充実度)が
半端ないからなぁ
0522名無しさん@お腹いっぱい。
垢版 |
2013/12/22(日) 11:45:00.62
自称安定版か。
これまでどれほど自称に騙されてきた事か・・・
もう誰も信じない、俺が信じるのはサポート契約だけだ!(死亡フラグ)。
0524名無しさん@お腹いっぱい。
垢版 |
2013/12/23(月) 01:23:40.18
>>523
たしかに、いつまで経ってもちゃんとしたものが出てこないという
意味では安定しまくっている。

ってか、raid5/6程度の実装に何年かかってるんだろうね。
zfsが発表の翌年にはほぼ実用になってたのが異常に早いのかも知れないが。
0528名無しさん@お腹いっぱい。
垢版 |
2013/12/26(木) 21:15:11.55
>>517
安定しそうにもないから >515 なんだが..w
# Linuxに ZFSを安定に稼働させられるわけがない、という..

>>521
そんなバカなww

>>524
深い泥田に柱は、結局立たないんだよ。
JFSや XFSで実証済みなので鉄板です。
本家の人達が来て大量に地盤改良剤を注入しましたがダメでしたw
途中で意味不明のヨコヤリまで入る始末。議論はケンカ腰でやるもんだそうです(爆笑)
0529名無しさん@お腹いっぱい。
垢版 |
2013/12/26(木) 21:23:13.40
>>528
>そんなバカなww
ttps://groups.google.com/a/zfsonlinux.org/forum/#!topic/zfs-announce/ZXADhyOwFfA
>Today the ZFS on Linux project reached an important milestone with the official 0.6.1 release!
>Over two years of use by real users has convinced us ZoL is ready for wide scale deployment
>on everything from desktops to super computers.
0532名無しさん@お腹いっぱい。
垢版 |
2013/12/27(金) 08:52:06.33
NFSv4はFreeBSDの方が結構バギーだったんじゃない? 今は知らないけど。
あと2000年代前半でzero copy化されてパフォーマンスはその時
かなり上がったよ。
0535名無しさん@お腹いっぱい。
垢版 |
2014/01/23(木) 22:02:52.18
ZFSの質問です
2TBのmirrorのpoolにファイルシステムを置いてますが、これが残り23GBくらいになったところで
急激に遅くなってきました

ハード的に強化するとしたら、メモリ?HDD追加?
どちらでしょうか
0536名無しさん@お腹いっぱい。
垢版 |
2014/01/23(木) 22:34:23.55
>>535
ZFSは使用量80%未満で使う事が、大前提。これは、メーカーも言っていること。
ZFSはpoolの空き容量が20%切ったところで、遅くなり出す。
10%切ったら、遅くなるだけじゃなく、色々弊害出だして、危機的状況。

大至急HDDの追加、現状poolからのデータ退避をすすめる。
0537名無しさん@お腹いっぱい。
垢版 |
2014/01/23(木) 22:53:13.01
今のmirror vdev1つなプールにもう1セットmirrorを追加すれば。
急場はしのげそうですね。
使用量・負荷の均衡が取れるのははるか先でしょうから、
少しずつでも、外へ退避してから書き戻し、していくといいと思います。
0542名無しさん@お腹いっぱい。
垢版 |
2014/01/26(日) 08:00:38.44
スレ違いだったら申し訳ありません

今までSolarisをまともに使ったことがないので
一から勉強したいのですが、そういった目的の場合
SolarisとOpenSolarisはどちらが向いているでしようか
他OSの経験は公私双方でWindows、RHELあたりを
主に扱ったことがあります
0543名無しさん@お腹いっぱい。
垢版 |
2014/01/26(日) 09:22:26.69
犬厨ってのは、なんでクソつまらんコピペをばらまこうとか思えるんだろう?
とっとと精神科なりに入院すればいいのに
0545名無しさん@お腹いっぱい。
垢版 |
2014/01/26(日) 15:06:54.60
ダミーの dataset 作って、そこに reservation でも設定すれば
空き容量食い尽くすってのは未然に防げるのかな。
0548名無しさん@お腹いっぱい。
垢版 |
2014/01/26(日) 21:40:59.90
1分毎のホームディレクトリスナップショットで、
ゴミ箱要らず

気兼ねなくrmできるようになりました...となるのかな?
0549名無しさん@お腹いっぱい。
垢版 |
2014/01/26(日) 22:17:10.31
timesliderが15分毎にスナップショット取ってくれるので
時には助かるけど、ゴミ箱も手に入るなら欲しい。
ZFSのsharesmbには無いから、Sambaに浮気したり。
0551名無しさん@お腹いっぱい。
垢版 |
2014/01/27(月) 21:45:17.94
zfsにnfsやsmbや統合されてるのはいいんだけど他のと併用する場合にどの程度競合するのか分からなくて怖い
sambaやglusterfsなんかで別途shareした場合安定動作するのか?というのが怖くてzfs内蔵のを使い続けてる
0554名無しさん@お腹いっぱい。
垢版 |
2014/01/30(木) 19:55:55.29
レイヤー違うもんをごちゃ混ぜに考えてんのか?
何が分からんのかが、分からん
0555名無しさん@お腹いっぱい。
垢版 |
2014/01/30(木) 21:15:20.89
今ふと思ったんだけど、raidzでzvol作って、そこで、FAT32やext2みたいな軽量なファイルシステム置けば、
信頼性と高速性を両立できるんじゃないかな?
0557名無しさん@お腹いっぱい。
垢版 |
2014/01/30(木) 22:02:21.76
>>555
ZFSはZFS上の整合性しか取ってくれないが、それで良いか?
ZVOL上のデータなんて、考えてくれないぞ?
つか、ZOVL上でいくら軽いFS動かそうが、下でZFS動いてたら一緒じゃ?
直接ZFS扱えるんなら、ZFSそのまま使えば良いんじゃ無いの・・・
無駄にアホなことやってるようにしか見えん。。。

よく言われることだが、ZFSはハードをけちる為の物じゃないから、
パフォーマンスほしけりゃ、それだけ金かけろって事。
0560名無しさん@お腹いっぱい。
垢版 |
2014/02/01(土) 13:30:48.01
compression on + dedup on の500Gを zfs destroy かけた。
コマンドは async_destroyのおかげで即終了。
けど zfs set sharesmb=name= とかいじってたら
NFSクライアントからサーバごと見えなくなり、焦って電源サイクル。
mounting ZFS: 1/nn とか出たまま固まる。
ようやくログインできても動きが怪しい。
その後30分ぐらい iostat で svc_t が5桁台を示してたけど
zpool get の freeing が 0 になったら、完全に回復した。
教訓。大容量destroyはサービス停止時に。asyncに頼らない。
0565名無しさん@お腹いっぱい。
垢版 |
2014/02/01(土) 20:23:45.94
>>562
1. ファイル入れる FS に quota
2. ファイル入れない FS に (ref)reservation

どっちでも目的は達せられる。
ただ、ファイル入れる FS の quota は
別の目的で設定したいこともあるだろうから、
ファイル入れない FS の設定で対応した方が
融通は利きやすいだろう。
0566名無しさん@お腹いっぱい。
垢版 |
2014/02/01(土) 20:59:27.92
>>563
NFS共有してない、SMB専用の場所いじってました。

先人の言や、自分でも試してみて、やっぱり
dedup=offに戻すと決めての過程なので、いいんですけどね。
すんごい遅い、途中で再起動しちゃうとより一層遅い。聞いてた通りでした。
0567名無しさん@お腹いっぱい。
垢版 |
2014/02/01(土) 21:55:41.05
>>566
zfs自体には本体の冗長性がないからglusterfsでレプリカすればかなり良いのではという思いつきなんだが
いろいろ難しそうだな
0572名無しさん@お腹いっぱい。
垢版 |
2014/02/03(月) 23:34:23.98
ブートドライブをzfs mirror化するお話を巷で散見しますが、
ふとMBRやgrubもmirror・raidz化できるのかな?なんて思ったりしました
0573名無しさん@お腹いっぱい。
垢版 |
2014/02/03(月) 23:39:27.44
ttp://docs.oracle.com/cd/E23824_01/html/E24456/storage-4.html
The root pool must be created as a mirrored configuration or as a single-disk configuration. A RAID-Z or a striped configuration is not supported.

ttp://docs.oracle.com/cd/E19253-01/819-5461/ggtia/index.html
Booting From an Alternate Disk in a Mirrored ZFS Root Pool
x86# installgrub /boot/grub/stage1 /boot/grub/stage2 /dev/rdsk/c0t1d0s0
0574名無しさん@お腹いっぱい。
垢版 |
2014/02/15(土) 20:31:04.34
ZFSのミラーってセクタ位置まで同一にする保証ってあったっけ?
あるならMBRに使っても問題ないだろうけど、疑問。
0576名無しさん@お腹いっぱい。
垢版 |
2014/02/16(日) 23:06:44.42
たしかZFSのブート領域はセクタミラーを保証してた筈。
先頭から512byteまでかな
だけど、BIOSがZFSを理解出来なきゃいけないので、
パソコンでマルチブートするのは難易度高いかと
0580名無しさん@お腹いっぱい。
垢版 |
2014/03/05(水) 23:09:19.00
OpenIndianaのcifs serverでファイルサーバやってるんですが、このcifs serverって、
samba serverやWindows のファイル共有と違う動作するものなんですかね?
AndroidのES Files explorerやGhost Commanderで接続できないのが
不思議です
0581名無しさん@お腹いっぱい。
垢版 |
2014/03/06(木) 13:34:35.48
Sambaの開発方面によると、SMBや CIFSというのは MSの OSによってアホほど
違って、なにもかも実装するのはとてもムリだそうなので、当然違いはあると思うよ。
Sunの時に開発した人達は今でも近いところにいるのかなぁ..
0584名無しさん@お腹いっぱい。
垢版 |
2014/03/08(土) 01:20:18.75
cifsはmsがライセンスしないといろいろ正しい実装ができないようで、
sambaはそれゆえに互換性の問題で、頭を悩ませてきた

solarisのcifsは、msからライセンスを受けてるものかもしれない。

ちなみに、sambaみたいにNTFSのACLを強引にUnix permissionにするのではくて、
zfs aclにそのまま入るので、互換性はたかいはず。
問題はillumosが、fork後にどこまで追いかけてるかだな。
0589名無しさん@お腹いっぱい。
垢版 |
2014/03/30(日) 14:13:53.66
>>588
できました。
ありがとうございます。

ちなみにですが、oiはCtrl+F1みたいなCUI GUI切り替えのショートカットってないのでしょうか?
0592名無しさん@お腹いっぱい。
垢版 |
2014/04/04(金) 01:38:42.73
>>591
グラフィックスカードのデバイスドライバが入っていないときに
Alt+Ctrl+F1 (CUIへ)
Alt+Ctrl+F7 (GUIへ)
が効かずにフリーズしてしまうのを経験したことあるよ
(nvidiaから)ドライバ落として入れたら使えるようになたよ
0593名無しさん@お腹いっぱい。
垢版 |
2014/04/09(水) 01:14:38.11
>>592
なるほど、たぶんうちのはネットブックでやってるのでドライバとかその辺の関係でダメなんでしょうね。
ありがとうございました。
0594名無しさん@お腹いっぱい。
垢版 |
2014/04/30(水) 18:45:47.66
ノートPCにSolarisいれてyamahaのルーターとリモートVPN接続したいと考えています
Solarisを l2tp ove ipsec のクライアントにするにはどのソフトウェア使うのがいいですか?
LinuxやAndroidからの接続には成功しておりますが、SolarisはVPNサーバーにする情報ばかりで
クライアントにするための情報を見つけることができませんでした。
なにとぞ、よろしくお願いしマンモス
0596名無しさん@お腹いっぱい。
垢版 |
2014/05/17(土) 23:13:08.61
2TBのmirror poolから3TBのpoolにrsyncで転送しているけど、
rsync開始してから半日かかるけど、随分時間がかかっている。
もちろん、非力なマシンを割り当ててるんで、そのせいもあるんでしょうけど、
やはりZFSは読み書きが他のFSと比べて遅いんですかね
0598名無しさん@お腹いっぱい。
垢版 |
2014/05/18(日) 00:05:34.09
send/receiveはいいとして、ファイル転送にattach/detachを勧めるのは
それこそアヤシイ宗教って感じがして気持ちが悪い。
0599名無しさん@お腹いっぱい。
垢版 |
2014/05/18(日) 15:26:40.43
zfs recv -F って、プールにあるファイルシステム破壊してくれるんか
少量だけど、ファイルあったのになぁ
復元ってできないんだよね?
0601名無しさん@お腹いっぱい。
垢版 |
2014/05/19(月) 22:26:13.23
3TBのHDDにpool作って、ファイルコピーしたあと、PCをリブートしたら
起動しなくて、別のBEで起動したら、poolが↓状態になってました

zpool status
pool: tank3TB
state: FAULTED
status: One or more devices could not be used because the label is missing
or invalid. There are insufficient replicas for the pool to continue
functioning.
action: Destroy and re-create the pool from
a backup source.
see: http://illumos.org/msg/ZFS-8000-5E
scan: none requested
config:

NAME STATE READ WRITE CKSUM
tank3TB FAULTED 0 0 0 corrupted data
c9d1 FAULTED 0 0 0 corrupted data

このpoolは、もうダメ?
ただ、このpool名はなぜか、古いpool名なんだよな...
poolを作った時とは別のBEで起動しているから、不整合になっているんですかね?
0602名無しさん@お腹いっぱい。
垢版 |
2014/05/19(月) 23:46:32.46
zpool export して
zpool importしたら別のpool名でpoolが見えたので
その名前でzpool import "別のpool名"したら
元通りになりました

200GBくらい吹っ飛んだと思ってのが元通りになったので、
明日は良いことありそうです
0604名無しさん@お腹いっぱい。
垢版 |
2014/05/21(水) 20:58:25.17
user@openindiana:/pool/zfs$ ls
test.txt
user@openindiana:/pool/zfs$ zfs snapshot pool/zfs/test.txt@today
oi@openindiana:/pool/zfs$ zfs list

こんな感じ?
0605名無しさん@お腹いっぱい。
垢版 |
2014/05/22(木) 21:55:00.64
snapshot取ってから特定ファイル以外消してもっかいsnapshot取ってsendして最初のsnapshotにrollback -f。意味は無いが。
0606名無しさん@お腹いっぱい。
垢版 |
2014/05/25(日) 19:46:26.48
それだとcloneしたほうがいいんじゃね
ってどっちみちファイル削除に時間かかりすぎて現実的じゃないなー
0608名無しさん@お腹いっぱい。
垢版 |
2014/06/30(月) 23:53:06.17
>>607
DNSチェックに行った時にホスト名の解決が出来ないときにそうなる。
面倒ならsshdの設定で
> UseDNS no
と設定すればチェックしなくなる、気がする。
0609名無しさん@お腹いっぱい。
垢版 |
2014/07/01(火) 05:47:17.09
sshで外部からログオンする際の注意事項があります。
コンピュータのCPUが何ビットであるか調ベておく事が大切です。

32ビットCPUを搭載したコンピュータには、
32ビット用のsshをインストールすること。

64ビットCPUを搭載したコンピュータには、
64ビット用のsshをインストールすること。

これを間違えれば素早いログオンができません。
0610名無しさん@お腹いっぱい。
垢版 |
2014/07/06(日) 07:16:18.80
comstarでiscsi targetを作る時の話で質問。(fcでも同じだと思うけど)

lun 1,2,3,4をhostA,B,Cに公開する場合に
・Aにはlun 1,2だけを見せたい
・Bにはlun 1,3だけを見せたい
・Cにはlun 1,4だけを見せたい
上記のようなことをやりたいときはAだけのhost groupとBだけのhost group、Cだけのhost groupを作ってやって
1-A,2-A
1-B,3-B
1-C,4-C
みたいなviewを作るしかないんだよな?
個別のhost groupとは別にABCのhost groupが作れればまだいいんだけどな。
hostとlunが増えた場合を考えるとうんざりする
0611名無しさん@お腹いっぱい。
垢版 |
2014/08/10(日) 12:06:02.77
openindiana興味あるんですけど、
出た頃はoi開発者とかユーザーとかけっこう人がいて活発だったけど今はどうですか?
ユーザーはともかくoi開発者も減ったりしてますか?

oi入れてイジってるうちに開発打切りとかフェードアウトで消滅とかになったら嫌だなと思って。
0613名無しさん@お腹いっぱい。
垢版 |
2014/08/11(月) 14:33:52.64
oi hipsterってのがあるらしい。hipsterじゃないのはこないだの BIND穴も
埋まってないそうな..

Goslingが拾って NeWS再実装してくれるといいんだがw
0614名無しさん@お腹いっぱい。
垢版 |
2014/09/05(金) 09:45:07.28
オープンソラリスじゃなくてフリーソラリスというのがあるとききました。
こちらの方がオープンソラリスよりも強いですか?
おすすめのディストロビューションをおしえてください。
0621名無しさん@お腹いっぱい。
垢版 |
2014/09/16(火) 17:53:51.75
もうそろそろ、armスマホ対応したソラリスカーネルのAndroid(?)が発表されて、
Oracle純正の高性能Java runtimeで今出てるアプリをサクサク...
なんてのを夢見てるんだがなぁ
0626名無しさん@お腹いっぱい。
垢版 |
2014/11/03(月) 12:42:41.95
MS-DOSならIO.SYSとMSDOS.SYSが読み込まれてからCONFIG.SYSが順に読まれますが

OpenSolarisだとgrubからloginブロンプトまでいったいいくつのファイルが順に読まれてるんでしょうか?
9801の頃は書籍も読んだんですけどUNIXは派閥がありすぎてどれを読めばよいかわからなかったので未だに知りません
0628名無しさん@お腹いっぱい。
垢版 |
2014/11/04(火) 13:06:17.14
jarisってもう無いの?誰も引き継いでない?
0629名無しさん@お腹いっぱい。
垢版 |
2014/11/04(火) 17:17:25.75
インストールされた後だと、インストール時にデバイス検知して保存しといた
定義ファイル読んでデバイスモジュールロードして、それから initが
/etc/inittab読んで、じゃなかった?
古い BSDだと init が /etc/rcを実行する。端末の定義は /etc/ttys。
サービスという意味では inetdの定義も見ておく。とか。
0645名無しさん@お腹いっぱい。
垢版 |
2014/11/06(木) 11:04:33.37
jarisは一度ダウソしたことがあるがMsofficeがユンユン動くのだけは良かった。
0647名無しさん@お腹いっぱい。
垢版 |
2014/12/07(日) 17:08:02.13
横から失礼します。
他PCから取り外して来たHDDで、zpool importしたら、
下のメッセージが出たんですが、
次はzpool import tank -fすればいいんですよね?



pool: tank
id: ***********
state: ONLINE
status: The pool was last accessed by another system.
action: The pool can be imported using its name or numeric identifier and
the '-f' flag.
see: http://illumos.org/msg/ZFS-8000-EY
config:

tank ONLINE
c5t5d0 ONLINE
0649名無しさん@お腹いっぱい。
垢版 |
2014/12/07(日) 19:31:44.52
>>648
ありがとうございます。
zpool import tank -fしましたら、
今度はコマンドがいつまでも終わりません。
/dev/dsk/c5t5d0は、3TBなんですが、どれくらいの時間でコマンドが終了するのが普通なんでしょうか?
0650名無しさん@お腹いっぱい。
垢版 |
2014/12/07(日) 21:46:40.44
>>649
何度も(ほとんどの場合プール名でなく id 指定で) import してきましたが、瞬時です。
正常シャットダウンしたクリーンなpoolではないのかな?

大量削除中に強制電源断したときは、ブートに(mountされるまで)数時間待ったものですが。
0651名無しさん@お腹いっぱい。
垢版 |
2015/01/05(月) 00:16:47.51
zpool scrubしたら、
とあるMirror poolにこんなメッセージが出てたんだけど、
HDDよりマザボがおかしいのかな

scrub repaired 8K in 12h9m with 0 errors on Sun Jan 4 17:00:37 2015
config:
0652名無しさん@お腹いっぱい。
垢版 |
2015/01/17(土) 12:22:41.50
SmartOSって、それ自体や設定ファイルはUSBメモリ上にあって、ZFSはKVMのイメージだけに使われるという理解であってる?
その場合、そのUSBメモリのバックアップてどうしたらいいのだろ?
0656名無しさん@お腹いっぱい。
垢版 |
2015/02/28(土) 22:05:39.08
最近のOiとかOmniとかなら昔ほどはパーツ選ばないよ
新しすぎるデバイス(USB3コントローラとか)やチップセットは怪しくなるので
一世代前ぐらいの構成が無難なのはSolaris系に限らずオープン系OSの定石だけど
0657名無しさん@お腹いっぱい。
垢版 |
2015/03/06(金) 22:55:46.70
>>655
保証はできないけど大概のPCでほぼ確実にブートすると思うよ
実用的に使おうと思えばオンボNICの実績の有無さえ注意しておけばおk
後で互換性のあるNICを増設するつもりならそれこそマザーは何でもいいんじゃねえかな
0658名無しさん@お腹いっぱい。
垢版 |
2015/05/07(木) 01:08:01.85
FreeBSDやLinuxで作成したzfsプールって認識できます?
HDDを繋いてしばらく放置してますが一向に認識される気配がない
0660名無しさん@お腹いっぱい。
垢版 |
2015/05/08(金) 00:25:29.29
FDISK的なアレつかSMI的なそれは無視して、GPT的なアレだとすると、FreeBSDだとtypeが
freebsd-zfs とかになるんで、普通には認識されない気がする。Linuxは知らん
gpartとかでアレコレしても、zpool versionが今のFreeBSDとは合わないんじゃないかな
もちろん、createの仕方にもよるだろうけど。あとLinuxは知らん
0661名無しさん@お腹いっぱい。
垢版 |
2015/05/08(金) 10:01:35.40
zfs on linuxだとsolarisからのimportはいけたけど逆はNGだったはず
zpool versionがZoLだと5000とかになってるんだよね(zfsOSXとかのopenZfs準拠のシステムも同じ)
0663名無しさん@お腹いっぱい。
垢版 |
2015/10/22(木) 22:55:18.32
☆ 日本の核武装は早急に必須ですわ。☆
総務省の『憲法改正国民投票法』、でググってみてください。
日本国民の皆様方、2016年7月の『第24回 参議院選挙』で、日本人の悲願である
改憲の成就が決まります。皆様方、必ず投票に自ら足を運んでください。お願い致します。
0664名無しさん@お腹いっぱい。
垢版 |
2015/10/23(金) 05:42:58.03
SolarisでUNIXを覚えた君たちへ

君たちが悪いわけじゃないんだよ
君たちが覚えたSolarisの将来が無かっただけ
当時の社会が悪かっただけ
君たち一人ひとりが悪いわけじゃないんだよ

だから自分を責めないで
社会と向き合ってください
そうすればきっと気が付くはず
君たちのSolarisの知識が無用なのだということに
君たちの存在自体が社会の足枷だということに
0665名無しさん@お腹いっぱい。
垢版 |
2015/10/25(日) 06:30:52.16
OpenIndianaでFCターゲット作ろうと思ってますがストレージプールを
2TBまでしか認識しないってまじですか?
0666名無しさん@お腹いっぱい。
垢版 |
2015/10/25(日) 09:18:05.59
4TBのHDDを初期化しようとしているのですが、465GBしか認識されていないようです。
4TBのHDDを初期化する方法を教えてください。
よろしくお願いします。
0667名無しさん@お腹いっぱい。
垢版 |
2016/05/31(火) 13:15:26.26
openIndiana2016.04をインストールしてみたら、デスクトップのメニューにパッケージを追加削除する項目がないんだが。
0668名無しさん@お腹いっぱい。
垢版 |
2016/09/02(金) 15:57:24.69
2TBのmirrorプールを構成している1台からエラーが出始めたので、
眠い目をこすりながら、detachして新HDDをattachしようとしたら、うまく認識してくれないんで、sudo formatコマンドでHDDのserialとかを確認してたら、
何を間違ったのか、既存の別プール単一3TB HDDのパーティションテーブルを書き換えて、attachしちゃった。
リシルバが4GBくらい走った所で気付いて、
attachしたHDDをzpool offlineしてから、
シャットダウンしてリシルバされたHDDを外したんだけど、これからどうしたら良いでしょうか?
結構パニクってて、offlineがちゃんと出来てるのかもちょっとあやふや。
リシルバ途中の3TB HDDの元poolのファイルを復旧するのってもう絶望ですかね。
なんか書き込んでて、事の重大さに手が震えて来てるんだけど...
0670名無しさん@お腹いっぱい。
垢版 |
2016/09/15(木) 09:24:57.10
あきらめてバックアップから書き戻すしかないね。

というか、構成済みで稼働中のディスクのパーティションテーブル吹っ飛ばしてアレイにアタッチとかそんな簡単にできるのか…
0671668
垢版 |
2016/09/15(木) 22:59:02.15
>>670
>というか、構成済みで稼働中のディスクの>パーティションテーブル吹っ飛ばして
>アレイにアタッチとかそんな簡単に
>できるのか…
当時、操作ログを残して無かったんで、668は記憶だけに頼ってるんで、
間違ってるかもしれない。
いずれにしろ、当該HDDをzdb -lしてもpool名が出てこないんだが、デバイスファイルをstringsすると「pool_guid」の文字は出てくるので、なんとか復旧したい...
testdiskというのを見つけたので試してみる予定
0672668
垢版 |
2016/09/28(水) 01:16:48.92
zhackというのを見つけました
0673名無しさん@お腹いっぱい。
垢版 |
2016/11/06(日) 17:48:33.62
OpenIndiana 2016.10のインストールUSBは、ddで作成できるようになったってのは本当ですか?
0677名無しさん@お腹いっぱい。
垢版 |
2017/11/04(土) 18:40:46.11
大学院が終わって解析用のLinuxが不要になったら、
このOSを勉強がてら入れて見る予定です。
0679名無しさん@お腹いっぱい。
垢版 |
2017/12/29(金) 06:57:04.09
誰でも簡単にパソコン1台で稼げる方法など
参考までに、
⇒ 『宮本のゴウリエセレレ』 というブログで見ることができるらしいです。

グーグル検索⇒『宮本のゴウリエセレレ』

SYWHPHLTFF
0680名無しさん@お腹いっぱい。
垢版 |
2018/02/14(水) 09:19:10.96
☆ 私たち日本人の、を改正しましょう。現在、
衆議員と参議院の両院で、改憲議員が3分の2を超えております。
『憲法改正国民投票法』、でググってみてください。国会の発議は
すでに可能です。平和は勝ち取るものです。お願い致します。☆☆
0681名無しさん@お腹いっぱい。
垢版 |
2018/04/10(火) 19:14:49.99
OpenIndiana の ksh93 のファイルサイズが数KB な事に驚きました。
FreeBSD や Debian の ksh93 は 1.5MB くらいあります。ライブラリが盛られているのでしょうか。
0683名無しさん@お腹いっぱい。
垢版 |
2018/04/10(火) 19:47:15.94
調べてないけど、前者は共有ライブラリを利用するよう構成されてるのでは?

だけどOSによってはメンテナンス時やトラブル時を想定して、基本的なコマンドは
共有ライブラリに依らずに動作するように考慮されているものもある。

大きさの大小にとらわれず、どうしてそうなっているのか背景を考えてみては。
0684681
垢版 |
2018/04/14(土) 15:57:39.34
>>683
objdump で ksh93 のリンクライブラリを見ると何か色々付いていました。
OpenIndiana Hipster 2017.10
 libc
FreeBSD 12
 libm libmd libutil libc
Debian 10
 libdl libutil libm libc

確かにトラブル時単体で動作すれば何かしらの対処ができそうですね。
昔はできるかぎりその場で対処するのかなと思い FreeBSD の旧バージョンを見てみると、
FreeBSD 4 の /bin などの実行ファイルはスタティックリンクで、FreeBSD 5 からはダイナミックリンクでした。
0686名無しさん@お腹いっぱい。
垢版 |
2018/05/21(月) 18:26:17.36
openindianaってインストール時に
ファイルシステムはZFS以外選べないんですか?
0687名無しさん@お腹いっぱい。
垢版 |
2018/05/22(火) 06:38:40.99
知り合いから教えてもらったパソコン一台でお金持ちになれるやり方
時間がある方はみてもいいかもしれません
グーグルで検索するといいかも『ネットで稼ぐ方法 モニアレフヌノ』

XDTCW
0691名無しさん@お腹いっぱい。
垢版 |
2018/09/15(土) 18:35:24.58
今日何となくZFSについて調べててここに来たけど過疎スレになってるのね…
Nexantastor(コミュニティ版)運用してる人居たらlinuxコマンド運用だとか注意点とか教えてもらおうと思ったんだけどな
0693名無しさん@お腹いっぱい。
垢版 |
2018/10/05(金) 13:22:19.39
Open Indianaってのを入れてみたけど、LibreOfficeとかのソフトが無いのな
業務用のSolarisのソフトとか使うような人にはいいんだろうけど
ブートすると
SunOS Relese 5.11
とでてくる
6になる事はないかもしれん
0697名無しさん@お腹いっぱい。
垢版 |
2018/10/09(火) 21:48:32.59
QEMU/KVMで使うとGUIのマウスがまともに機能しないな(描画自体はOK)。
まあ仮想化クライアントとして使われることなんて想定していないだろうから仕方無いけど。

コンソールで使うことにしました。
0701名無しさん@お腹いっぱい。
垢版 |
2018/11/04(日) 17:36:25.02
そいえば昨日FreeNASのJailsで遊んでたら起動できなくなって、OSクリーンインストールしたあとzpool読み込んでもエラー吐かれて焦ってたw
単にsmartエラーでzpoolインポート失敗してたみたいで、再度読み込んだら無事復旧できたけど、zpool関係ほんと焦るからやめてほしい
0702名無しさん@お腹いっぱい。
垢版 |
2018/12/12(水) 18:45:31.71
素朴な疑問なんだがこの系統のカーネルをベースに実用的なGUIデスクトップ環境の構築は無謀かな?
特にデバドラとアプリの調達が厳しそう。FreeBSDですらLinuxバイナリ互換機能とWineを使ってまぁ・・・って感じだし
0708名無しさん@お腹いっぱい。
垢版 |
2019/05/12(日) 12:36:42.78
からage
0709名無しさん@お腹いっぱい。
垢版 |
2019/05/13(月) 22:55:24.46
OpenIndiana Hipster 2019.04
ttps://www.openindiana.org/2019/05/12/openindiana-hipster-2019-04-is-here/
0711名無しさん@お腹いっぱい。
垢版 |
2019/05/15(水) 01:28:15.26
Virtualbox 6.0.6 の仮想 PC に OpenIndiana Hipster 2019.04 をインストールしてみました。
仮想マシンの作成の最初のところで OS のタイプとバージョンを選ぶ箇所があり、タイプは Solaris でバージョンはどれを選んでも音が出ないのですが、タイプは Windows でバージョンは Windows Vista 以降にすると音が出ます。
Illumos に対するオラクルの陰謀でしょうかw まぁ冗談なんですが。オーディオコントローラーを Intel HD オーディオ にすると音が出るようです。
今回のリリースでは、初めから Virtualbox の Guest Additions が入った状態でしたので手間が省けました。
0716名無しさん@お腹いっぱい。
垢版 |
2020/02/04(火) 19:42:27.61
しかしかし伸びねえなこのスレ。
終わってんか?
0717名無しさん@お腹いっぱい。
垢版 |
2020/02/05(水) 07:57:46.40
はい。
0718名無しさん@お腹いっぱい。
垢版 |
2020/02/05(水) 10:34:24.70
>>717
はいじゃねーよ
0719名無しさん@お腹いっぱい。
垢版 |
2020/02/05(水) 11:17:50.12
いいえ。
0720名無しさん@お腹いっぱい。
垢版 |
2020/05/02(土) 07:39:33.86
で、おまえら、openSolaris を棄てて、どの BSD を選択するの?
0724名無しさん@お腹いっぱい。
垢版 |
2020/06/10(水) 09:10:49.83
HyperVにはいらねーよ
0725名無しさん@お腹いっぱい。
垢版 |
2020/08/13(木) 22:06:49.88
OI148あたりからuptimeで4k dayほど動いていたシステムがついにカーネルパニック起こした。

二基あるデュアルポートNICの一方が死んでバス回りを発狂させたっぽい。
ついでにSAS HBAも死んでHDDが全部見えなくなった時はめっちゃ焦った。
HBAの予備あって良かった。いまどき64bitPCIなんてまず無いだろう。
0727名無しさん@お腹いっぱい。
垢版 |
2020/08/19(水) 18:56:37.20
OpenSolaris時代に開発者だった知人が何年か前に亡くなってたことを知った
故人を偲びつつ後継OSを入れてみようと思う
RIP 餃子Guru
0730名無しさん@お腹いっぱい。
垢版 |
2020/12/25(金) 16:19:30.55
openindianaってNTFSマウントできますか?
0731名無しさん@お腹いっぱい。
垢版 |
2021/05/05(水) 00:30:28.72
>>730

自分で試せば解ることでしょ。
0734名無しさん@お腹いっぱい。
垢版 |
2021/05/12(水) 00:04:00.88
まぁ、SPARCが終わったわけではなくて、Illumosの様なオープンソースなプロジェクトはマイナーなSPARCをサポートするのが困難ということだろうね
0735名無しさん@お腹いっぱい。
垢版 |
2021/05/12(水) 00:24:48.25
ebay使ってもマシンの入手が困難だからというのが理由のようだ
きっかけとしてはオラクルがSPARC関係の人員をレイオフしたのがあり
そういう意味では終ってる
0739名無しさん@お腹いっぱい。
垢版 |
2022/03/03(木) 06:05:33.37
つうか値段はボッタと思うケドいまでもフツウにイーベイでsunのマシソ売ってんじゃん
いまさらSPARC機買いたくねえって正直に言えばイイのにぬ
0745名無しさん@お腹いっぱい。
垢版 |
2022/11/15(火) 17:19:50.39
いやーーー
(≧△≦)イヤー出てる!
0749名無しさん@お腹いっぱい。
垢版 |
2022/12/25(日) 00:18:59.00
>>738
文句言ってないで株買えば良いんじゃね?
0750名無しさん@お腹いっぱい。
垢版 |
2022/12/25(日) 00:20:08.32
>>749
発想が革命家
俺の国が負け組なのは社会がいけない!
革命だ!暴力革命!!!
0751ウサチャソ
垢版 |
2023/02/04(土) 18:03:10.36
いつになったらHyper-Vにインスコできるようになんだよ
0755名無しさん@お腹いっぱい。
垢版 |
2023/10/07(土) 10:57:18.98
SmartOS使ってる人っている…?
0756名無しさん@お腹いっぱい。
垢版 |
2023/10/07(土) 23:19:35.49
最近Bill Joyの動静を聞かないな
生きとるのかな?
0757名無しさん@お腹いっぱい。
垢版 |
2023/10/08(日) 00:19:25.85
ビル・ジョイには死ぬまでハッカーでいてほしかったな
結局成功者はコーディングしないという事だな…
0758名無しさん@お腹いっぱい。
垢版 |
2023/10/16(月) 12:55:55.53
このまえハローワークに行ったら、プ-さんのぬいぐるみ置いてあった。それ見てちょっとキレかかったよ
0761名無しさん@お腹いっぱい。
垢版 |
2024/03/27(水) 19:41:06.72
GC2に末尾のURLいじってみた
今日さえ乗り切れば
今思うと思うんだが
急すぎるのであって違法ギャンブルも調べあげてないな
0763名無しさん@お腹いっぱい。
垢版 |
2024/03/27(水) 20:57:09.68
嵌め込み酷い
0764名無しさん@お腹いっぱい。
垢版 |
2024/03/27(水) 21:33:49.50
言うてまた復活
妬みが凄いわけじゃないとつまらないんじゃないかな
レスを投稿する


ニューススポーツなんでも実況