OpenSolaris/Illumos プロジェクト、派生ディストリビューション総合スレ
Sun/Oracle からリリースされる本家「Solaris」に関しては専スレでお願いします
前スレ:OpenSolaris/Illumos (OpenIndiana, etc.) 5
http://toro.2ch.net/test/read.cgi/unix/1285876800/
OpenSolaris 公式サイト http://opensolaris.org/
Illumos 公式サイト http://illumos.org/
Genunix(OpenSolaris コミュニティ/ミラーサイト) http://genunix.org/
[ディストリビューション一覧]
・ OpenIndiana http://openindiana.org/
(OpenSolaris distro == Indiana の実質的後継、Solaris とバイナリ・パッケージ互換)
・ Nexenta OS http://nexenta.org/
(Solaris/Illumos カーネルと Debian/Ubuntu ユーザランドの組み合わせ)
・ StormOS http://stormos.org/
(Nexenta ベースのデスクトップ向けディストリビューション)
・ AuroraUX http://auroraux.org/
(通常の x86、AMD64 に加え、PowerPC にも対応)
・ Jaris http://jaris.jp/
(日本発のプロジェクト)
・ Belenix http://belenix.org/
・ SchilliX http://schillix.berlios.de/
・ MilaX http://milax.org/
・ etc.
探検
OpenSolaris/Illumos (OpenIndiana, etc.) 6
2012/05/19(土) 16:18:42.91
2名無しさん@お腹いっぱい。
2012/05/20(日) 01:31:31.61 >>2の[ディストリビューション一覧] だけど、大分現状とは異なってるので直したほうがよさそう。
[ディストリビューション一覧]
・ OpenIndiana http://openindiana.org/
(OpenSolaris distro == Indiana の実質的後継、Solaris とバイナリ・パッケージ互換)
・ Illumian http://www.illumian.org/
(Solaris/Illumos カーネル・ユーザランドとAPTパッケージ管理システムの組み合わせ
NexentaCore後継)
・ NexentaStor http://nexenta.org/
(Solaris/Illumos カーネルと Debian/Ubuntu ユーザランドの組み合わせによるストレージサーバ用OS)
・ StormOS http://stormos.org/
(Nexenta ベースのデスクトップ向けディストリビューション)
・ OminiOS http://omnios.omniti.com/
・ SmartOS http://smartos.org/
(以下のディストリビューションは長期間更新なし)
・ AuroraUX http://auroraux.org/ (消滅)
(通常の x86、AMD64 に加え、PowerPC にも対応)
・ Jaris http://jaris.jp/ (消滅)
(日本発のプロジェクト)
・ Belenix http://belenix.org/ (消滅)
・ SchilliX http://schillix.berlios.de/
・ MilaX http://milax.org/
[ディストリビューション一覧]
・ OpenIndiana http://openindiana.org/
(OpenSolaris distro == Indiana の実質的後継、Solaris とバイナリ・パッケージ互換)
・ Illumian http://www.illumian.org/
(Solaris/Illumos カーネル・ユーザランドとAPTパッケージ管理システムの組み合わせ
NexentaCore後継)
・ NexentaStor http://nexenta.org/
(Solaris/Illumos カーネルと Debian/Ubuntu ユーザランドの組み合わせによるストレージサーバ用OS)
・ StormOS http://stormos.org/
(Nexenta ベースのデスクトップ向けディストリビューション)
・ OminiOS http://omnios.omniti.com/
・ SmartOS http://smartos.org/
(以下のディストリビューションは長期間更新なし)
・ AuroraUX http://auroraux.org/ (消滅)
(通常の x86、AMD64 に加え、PowerPC にも対応)
・ Jaris http://jaris.jp/ (消滅)
(日本発のプロジェクト)
・ Belenix http://belenix.org/ (消滅)
・ SchilliX http://schillix.berlios.de/
・ MilaX http://milax.org/
2012/05/21(月) 06:51:50.59
おはようございます。前スレ>>975です。新スレ乙です。
ご報告遅くなりすいません。代替機は用意できたのですが、前スレ>>989の段階でscanが
終了していなかったため、一応それを待っていました。先ほどscanが終わり、以下の状態になりました。
pool: tank
state: DEGRADED
status: One or more devices has experienced an error resulting in data
corruption. Applications may be affected.
action: Restore the file in question if possible. Otherwise restore the
entire pool from backup.
see: http://www.sun.com/msg/ZFS-8000-8A
scan: resilvered 118G in 39h45m with 271168 errors on Mon May 21 05:12:12 2012
config:
NAME STATE READ WRITE CKSUM
tank DEGRADED 0 0 2.95M
raidz1-0 DEGRADED 0 0 11.4M
spare-0 DEGRADED 0 0 660
c6t1d0 FAULTED 0 0 0 too many errors
c3t5d0 ONLINE 0 0 0
c6t2d0 DEGRADED 0 0 0 too many errors
c6t3d0 DEGRADED 0 0 0 too many errors
c6t4d0 REMOVED 0 0 0
spares
c3t5d0 INUSE currently in use
errors: 271145 data errors, use '-v' for a list
SMART情報ですが、SATA2とSATA5の2台でBADが発生しています。やっぱり物理的に2台に
問題が発生してしまっているようです。ダメっぽいですね。
一応、これから代替機につないでみます。
ご報告遅くなりすいません。代替機は用意できたのですが、前スレ>>989の段階でscanが
終了していなかったため、一応それを待っていました。先ほどscanが終わり、以下の状態になりました。
pool: tank
state: DEGRADED
status: One or more devices has experienced an error resulting in data
corruption. Applications may be affected.
action: Restore the file in question if possible. Otherwise restore the
entire pool from backup.
see: http://www.sun.com/msg/ZFS-8000-8A
scan: resilvered 118G in 39h45m with 271168 errors on Mon May 21 05:12:12 2012
config:
NAME STATE READ WRITE CKSUM
tank DEGRADED 0 0 2.95M
raidz1-0 DEGRADED 0 0 11.4M
spare-0 DEGRADED 0 0 660
c6t1d0 FAULTED 0 0 0 too many errors
c3t5d0 ONLINE 0 0 0
c6t2d0 DEGRADED 0 0 0 too many errors
c6t3d0 DEGRADED 0 0 0 too many errors
c6t4d0 REMOVED 0 0 0
spares
c3t5d0 INUSE currently in use
errors: 271145 data errors, use '-v' for a list
SMART情報ですが、SATA2とSATA5の2台でBADが発生しています。やっぱり物理的に2台に
問題が発生してしまっているようです。ダメっぽいですね。
一応、これから代替機につないでみます。
2012/05/21(月) 19:30:43.84
もう一台スペア追加してみるかな
2012/05/21(月) 20:35:13.13
http://www.oracle.com/technetwork/jp/content/1202-1500-ords-zfs4-251476-ja.pdf
以前ここに貼られてたやつけど、この資料によるとHD1台破損時の
再構成失敗率がRaid5で2〜20%、Raid6でほぼ0%らしいから
スペア追加ではなくRaidZ2に移行してみては?
以前ここに貼られてたやつけど、この資料によるとHD1台破損時の
再構成失敗率がRaid5で2〜20%、Raid6でほぼ0%らしいから
スペア追加ではなくRaidZ2に移行してみては?
2012/05/21(月) 20:58:30.92
いや、そーゆー話じゃなくて
現状の構成にスペア追加したらどうかな、と
現状の構成にスペア追加したらどうかな、と
2012/05/21(月) 21:04:55.29
ホットスペア持つなら最初からRAIDZ2の方がいいと思うが
細かくチェックしてトラブル時にすぐに入れ替える方がいい
細かくチェックしてトラブル時にすぐに入れ替える方がいい
2012/05/21(月) 21:12:45.39
それはそーだけど、そーゆーことじゃなく
今追加したら回復しないかな?って話
今追加したら回復しないかな?って話
2012/05/21(月) 21:21:42.04
10名無しさん@お腹いっぱい。
2012/05/21(月) 22:15:58.27 oiの場合、S.M.A.R.Tは何ていうアプリを入れれば
見れるんでしょう?
見れるんでしょう?
2012/05/21(月) 23:48:30.24
>>10
smartmontools
smartmontools
2012/05/22(火) 08:23:55.43
ZFSってHDDを個別識別出来たっけ?
ベタコピーで同じディスクと認識するならディスク4台用意してddした方が早いかもしれない。
ベタコピーで同じディスクと認識するならディスク4台用意してddした方が早いかもしれない。
2012/05/22(火) 18:49:31.29
>>10
/opt/SUNWhd/bin/hd
/opt/SUNWhd/bin/hd
14前スレ975
2012/05/22(火) 23:03:02.38 みなさん、お世話になってます。色々な提案や情報提供、感謝です。
まだ、作業中ですが、中間報告します。
代替機は土日に届いたのですが、結局そこにつなぎ換える作業はやめて、
バックアップ先として利用しました。
今回の故障機はiscsiターゲットとして利用していたのですが、故障直後は
認識できなくなってしまっていたのに、リセット後は認識できるようになり、
ボリューム内のファイルも読み込み可能でした。
そこでiscsiイニシエータ側から別サーバーにファイル単位でコピーしている最中です。
コピー1回目はIOエラーがかなり出て読めないファイルも多かった上に、
oi自体が勝手に落ちてしまう(電源OFFになる)という状態でした。
そこで一度電源OFFし半日程してからコピーをやり直した所、IOエラーが
発生していたファイルも読めるようになりました。内容はVMイメージ等、
巨大なファイルが多いのですが、テキストファイル類をcatで覗いてみた所、
正常な内容を確認できました(電源OFF前は読めなかった)。
こう考えると冷却が良かったように思えますし、今考えればOSの正常終了を
1週間も待ったりしないで、早々に電源OFFし1日ぐらい冷やす方がよかったのかも
知れないと思えてます。
まだコピー中ですが、コピーが終わったらVMを起動してみようと思います。
まだ、作業中ですが、中間報告します。
代替機は土日に届いたのですが、結局そこにつなぎ換える作業はやめて、
バックアップ先として利用しました。
今回の故障機はiscsiターゲットとして利用していたのですが、故障直後は
認識できなくなってしまっていたのに、リセット後は認識できるようになり、
ボリューム内のファイルも読み込み可能でした。
そこでiscsiイニシエータ側から別サーバーにファイル単位でコピーしている最中です。
コピー1回目はIOエラーがかなり出て読めないファイルも多かった上に、
oi自体が勝手に落ちてしまう(電源OFFになる)という状態でした。
そこで一度電源OFFし半日程してからコピーをやり直した所、IOエラーが
発生していたファイルも読めるようになりました。内容はVMイメージ等、
巨大なファイルが多いのですが、テキストファイル類をcatで覗いてみた所、
正常な内容を確認できました(電源OFF前は読めなかった)。
こう考えると冷却が良かったように思えますし、今考えればOSの正常終了を
1週間も待ったりしないで、早々に電源OFFし1日ぐらい冷やす方がよかったのかも
知れないと思えてます。
まだコピー中ですが、コピーが終わったらVMを起動してみようと思います。
15前スレ975
2012/05/25(金) 01:37:12.80 前スレ975です。
まだまだ復旧に時間がかかりそうなのですが、いい感じに復旧しつつあるのでご報告します。
故障機はiscsiイニシエータで、ファイルシステムは vmfs(ESX専用ファイルシステム)を利用していますが、
約50個ぐらいのVMが格納されていました。このうち、重要度が高かったり、バックアアップが古いのでなんとか
復旧したい物は1割程度なのですが、それらはほぼ全て復旧できました!
ファイル単位でscpでコピーしている最中なのですが、それぞれのファイルは、
1群. 何度アクセスしてもアクセス不能な物(ごく少ない)
2群. 何度かアクセスしているうちにアクセスできなくなってくる物(3割程度)
3群. 正常にアクセスできる物(7割程度)
というような感じです。2群のファイルは4、5時間マシンを止めてからアクセスすればまたアクセス
できる状況です。10分程度の冷却では無理でした。
そのような感じで順次、復旧している最中です。
将来、同じ状況に陥ってしまった場合、是非マシンの冷却を試みて下さい。
作業終了時にまたご報告します(しばらく先になりそうですが)
色々なノウハウをご教示頂き、ありがとうございました。
まだまだ復旧に時間がかかりそうなのですが、いい感じに復旧しつつあるのでご報告します。
故障機はiscsiイニシエータで、ファイルシステムは vmfs(ESX専用ファイルシステム)を利用していますが、
約50個ぐらいのVMが格納されていました。このうち、重要度が高かったり、バックアアップが古いのでなんとか
復旧したい物は1割程度なのですが、それらはほぼ全て復旧できました!
ファイル単位でscpでコピーしている最中なのですが、それぞれのファイルは、
1群. 何度アクセスしてもアクセス不能な物(ごく少ない)
2群. 何度かアクセスしているうちにアクセスできなくなってくる物(3割程度)
3群. 正常にアクセスできる物(7割程度)
というような感じです。2群のファイルは4、5時間マシンを止めてからアクセスすればまたアクセス
できる状況です。10分程度の冷却では無理でした。
そのような感じで順次、復旧している最中です。
将来、同じ状況に陥ってしまった場合、是非マシンの冷却を試みて下さい。
作業終了時にまたご報告します(しばらく先になりそうですが)
色々なノウハウをご教示頂き、ありがとうございました。
16前スレ975
2012/05/25(金) 03:09:13.44 訂正
故障機はiscsiイニシエータで、
↓
故障機はiscsiターゲットで、
故障機はiscsiイニシエータで、
↓
故障機はiscsiターゲットで、
2012/05/29(火) 00:18:55.82
なんか出てる
ttp://sparcv9.blogspot.jp/2012/05/illumian-available-for-download.html
ttp://sparcv9.blogspot.jp/2012/05/illumian-available-for-download.html
2012/05/29(火) 00:46:20.28
スレチかも知れませんが、教えてください。
OpenIndianaの151aにKVMをインストールしたのですが、/dev/kvmがありません。
手順としては
driver/i86pc/kvm、system/qemu、system/qemu/kvmインストール後再起動
BIOSがIOMMUに対応していなかったので、アップデート後有効
/dev/kvmが無かったので、インストールしたものを一度削除し再インストールしました。
インストールして正常に動作されている方、何かヒントをいただけたら。
OpenIndianaの151aにKVMをインストールしたのですが、/dev/kvmがありません。
手順としては
driver/i86pc/kvm、system/qemu、system/qemu/kvmインストール後再起動
BIOSがIOMMUに対応していなかったので、アップデート後有効
/dev/kvmが無かったので、インストールしたものを一度削除し再インストールしました。
インストールして正常に動作されている方、何かヒントをいただけたら。
2012/05/29(火) 09:02:36.33
20吠鉱山 ◆STCMXN/JPY
2012/06/01(金) 13:39:54.90 pfexec pkgutil -i -y hogehogeすき。
pfexec pkg install hogehoge死ぬほどきらい。
pfexec pkg install hogehoge死ぬほどきらい。
2012/06/07(木) 18:33:55.43
個人用ファイルサーバーにしてるOpensolarisからそろそろ乗り換えようかと思うんだが
Sol11とOIのどっちにするか悩む
ファイル共有関連の設定方法に違いが出てきてるし
Sol11とOIのどっちにするか悩む
ファイル共有関連の設定方法に違いが出てきてるし
2012/06/14(木) 03:25:32.73
zfsってWWNできちんと使える?
今、HDDの1台を交換しているんだけど、WWNが変わるせいで組み込めない
変な汗が出てきたよ
今、HDDの1台を交換しているんだけど、WWNが変わるせいで組み込めない
変な汗が出てきたよ
2012/06/14(木) 05:50:02.64
エラーメッセージ書いてみたら?
2012/06/14(木) 23:34:51.13
zpool replace がエラーになるってことなんかな?
2522
2012/06/15(金) 01:50:46.95 usr1@oi151a:~$ zpool status -v zpool
pool: zpool
state: DEGRADED
status: One or more devices has experienced an error resulting in data
corruption. Applications may be affected.
action: Restore the file in question if possible. Otherwise restore the
entire pool from backup.
see: http://www.sun.com/msg/ZFS-8000-8A
scan: scrub canceled on Mon Jun 11 20:59:18 2012
config:
NAME STATE READ WRITE CKSUM
zpool DEGRADED 703 0 0
c2t50014EE111111111d0 ONLINE 0 0 0
c2t50014EE222222222d0 ONLINE 0 0 0
c2t50014EE333333333d0 DEGRADED 703 0 10 too many errors
c2t50014EE444444444d0 ONLINE 0 0 0
errors: List of errors unavailable (insufficient privileges)
こうなっていたので、
pool: zpool
state: DEGRADED
status: One or more devices has experienced an error resulting in data
corruption. Applications may be affected.
action: Restore the file in question if possible. Otherwise restore the
entire pool from backup.
see: http://www.sun.com/msg/ZFS-8000-8A
scan: scrub canceled on Mon Jun 11 20:59:18 2012
config:
NAME STATE READ WRITE CKSUM
zpool DEGRADED 703 0 0
c2t50014EE111111111d0 ONLINE 0 0 0
c2t50014EE222222222d0 ONLINE 0 0 0
c2t50014EE333333333d0 DEGRADED 703 0 10 too many errors
c2t50014EE444444444d0 ONLINE 0 0 0
errors: List of errors unavailable (insufficient privileges)
こうなっていたので、
2622
2012/06/15(金) 01:51:55.41 電源切って別のHDDに入れ替えたら
usr1@oi151a:~$ dmesgzpool status -v zpool
pool: zpool
state: UNAVAIL
status: One or more devices could not be opened. There are insufficient
replicas for the pool to continue functioning.
action: Attach the missing device and online it using 'zpool online'.
see: http://www.sun.com/msg/ZFS-8000-3C
scan: none requested
config:
NAME STATE READ WRITE CKSUM
zpool UNAVAIL 0 0 0 insufficient replicas
c2t50014EE111111111d0 ONLINE 0 0 0
c2t50014EE222222222d0 ONLINE 0 0 0
c2t50014EE333333333d0 UNAVAIL 0 0 0 cannot open
c2t50014EE444444444d0 ONLINE 0 0 0
こうなった。接続先は同じなんだけどzfsには新しいc2t50014EE999999999d0は認識されない
usr1@oi151a:~$ dmesgzpool status -v zpool
pool: zpool
state: UNAVAIL
status: One or more devices could not be opened. There are insufficient
replicas for the pool to continue functioning.
action: Attach the missing device and online it using 'zpool online'.
see: http://www.sun.com/msg/ZFS-8000-3C
scan: none requested
config:
NAME STATE READ WRITE CKSUM
zpool UNAVAIL 0 0 0 insufficient replicas
c2t50014EE111111111d0 ONLINE 0 0 0
c2t50014EE222222222d0 ONLINE 0 0 0
c2t50014EE333333333d0 UNAVAIL 0 0 0 cannot open
c2t50014EE444444444d0 ONLINE 0 0 0
こうなった。接続先は同じなんだけどzfsには新しいc2t50014EE999999999d0は認識されない
2722
2012/06/15(金) 01:53:19.51 名前を指定してreplaceしようとしたら
usr1@oi151a:~$ zpool replace zpool c2t50014EE333333333d0 c2t50014EE999999999d0
cannot open 'zpool': pool is unavailable
poolがUNAVAILなのが駄目らしいので、ONLINEにしようとしても
usr1@oi151a:~$ zpool online zpool c2t50014EE333333333d0
cannot open 'zpool': pool is unavailable
これでもやっぱり駄目
usr1@oi151a:~$ zpool online zpool c2t50014EE999999999d0
missing device name
といわれてONLINEにできない、今ここ
usr1@oi151a:~$ zpool replace zpool c2t50014EE333333333d0 c2t50014EE999999999d0
cannot open 'zpool': pool is unavailable
poolがUNAVAILなのが駄目らしいので、ONLINEにしようとしても
usr1@oi151a:~$ zpool online zpool c2t50014EE333333333d0
cannot open 'zpool': pool is unavailable
これでもやっぱり駄目
usr1@oi151a:~$ zpool online zpool c2t50014EE999999999d0
missing device name
といわれてONLINEにできない、今ここ
2012/06/15(金) 02:31:20.20
もしかしてそれstripeなのか?
2012/06/15(金) 07:25:31.52
stripeだから次のようにメッセージが出てるわけだな
status: One or more devices has experienced an error resulting in data
corruption. Applications may be affected.
action: Restore the file in question if possible. Otherwise restore the
entire pool from backup.
冗長デバイス抜きのpoolがHDD交換で復旧すると思ってたんだろうか?
status: One or more devices has experienced an error resulting in data
corruption. Applications may be affected.
action: Restore the file in question if possible. Otherwise restore the
entire pool from backup.
冗長デバイス抜きのpoolがHDD交換で復旧すると思ってたんだろうか?
2012/06/15(金) 15:29:19.66
変な汗どころじゃ済まない話になってきたな
2012/06/15(金) 21:14:14.85
壊れたディスクをddなりでイメージコピーしてみる、位か……
2012/06/16(土) 01:33:19.76
壊れたHDDってddで読み出せるの?
2012/06/16(土) 02:10:13.51
元の状態でプールがDEGRADEDってことは辛うじてアクセスできんのか?
だったらその死にかけのHDD戻してある程度のデータは救えないのかな
だったらその死にかけのHDD戻してある程度のデータは救えないのかな
3422
2012/06/16(土) 03:02:05.22 あれ?stripe?
usr1@oi151a:~$ sudo zpool history | grep "zpool create"
2011-03-13.17:49:21 zpool create zpool c2t50014EE111111111d0 c2t50014EE222222222d0 c2t50014EE333333333d0 c2t50014EE444444444d0
あばばばば
pool作り直して首つってきます。
usr1@oi151a:~$ sudo zpool history | grep "zpool create"
2011-03-13.17:49:21 zpool create zpool c2t50014EE111111111d0 c2t50014EE222222222d0 c2t50014EE333333333d0 c2t50014EE444444444d0
あばばばば
pool作り直して首つってきます。
2012/06/16(土) 03:21:35.12
zpool statusの時点で気付けw
2012/06/16(土) 03:30:40.61
3722
2012/06/16(土) 12:05:20.60 >>36
自分の場合、被害を受けているのは最近書き込んだファイルのみで
それ以外の部分は問題がありませんでした。当然、HDDの壊れ方に
もよると思いますが。
しかし、運用中にWRITEでエラーが出ていないのにREADでNGって
いやですね。定期的にscrubしておけばよかった。
自分の場合、被害を受けているのは最近書き込んだファイルのみで
それ以外の部分は問題がありませんでした。当然、HDDの壊れ方に
もよると思いますが。
しかし、運用中にWRITEでエラーが出ていないのにREADでNGって
いやですね。定期的にscrubしておけばよかった。
2012/06/16(土) 15:25:46.64
2012/06/16(土) 18:02:35.09
2012/06/22(金) 23:14:38.88
copies=2
とか指定してたとするとstripeメンバが死んだ状態でもそれなりに生きてるファイルは読み出せる・・・
のではないかと予想はしているが実験してみたことはない。
あんまり使う予定が思いつかないがどうなんだろうな>copies
とか指定してたとするとstripeメンバが死んだ状態でもそれなりに生きてるファイルは読み出せる・・・
のではないかと予想はしているが実験してみたことはない。
あんまり使う予定が思いつかないがどうなんだろうな>copies
2012/06/22(金) 23:27:42.28
2012/06/22(金) 23:52:04.39
そのコピーって別のディスクにって言う保証は無かった気がする
2012/06/23(土) 02:38:04.65
zfsのマニュアルページにはこう書いてあるな
copies=1 | 2 | 3
Controls the number of copies of data stored for this dataset.
These copies are in addition to any redundancy provided by the pool,
for example, mirroring or RAID-Z.
The copies are stored on different disks, if possible.
「可能なら」別のディスクに書くみたいだな
しかし冗長性なしのpool選んでこれに期待するのって単なるバカだろw
copies=1 | 2 | 3
Controls the number of copies of data stored for this dataset.
These copies are in addition to any redundancy provided by the pool,
for example, mirroring or RAID-Z.
The copies are stored on different disks, if possible.
「可能なら」別のディスクに書くみたいだな
しかし冗長性なしのpool選んでこれに期待するのって単なるバカだろw
レスを投稿する
ニュース
- 【芸能】「加害の歴史を直視しない政治家が国の顔に」 宍戸開の批判に議論勃! 高市発言で揺れる芸能界… [冬月記者★]
- 【日中対立】在日本中国大使館、サンフランシスコ講和条約「不法かつ無効な文書」とSNSに投稿 高市首相が党首討論で引用 ★2 [ぐれ★]
- 拳銃24丁を中国から日本国内に輸入した疑い 中国人の46歳の男逮捕 1丁約3000円で販売 [七波羅探題★]
- 糖尿病疑い全国で1100万人、8年で100万人増…厚労省推計 [蚤の市★]
- 【文春】AKB48『紅白歌合戦』出場へ! 前田敦子&大島優子が限定復活! 『ヘビロテ』など黄金期メドレー披露 神7の多くが出場 [冬月記者★]
- 【芸能】落合博満氏、『もし今の時代の選手だったらメジャーで活躍したか?』の質問に即答 会場どよめき [冬月記者★]
- 4:44:44.444
- 【緊急】12月3日4時56分に>>78をゲットするスレ
- 【悲報】日本政府、フランスに「習近平をG7に呼ばないで」と懇願していたwww [237216734]
- 高市を逐一擁護していたJSF、さすがに高市の「戦艦」発言に耐えきれず批判 ネトウヨ発狂へ [165981677]
- 雪はまだか?
- 【悲報】人気VTuberの天音かなたさん、ホロライブ卒業★5 [485689427]
