2ちゃんねる スマホ用 ■掲示板に戻る■ 全部 1- 最新50    

■ このスレッドは過去ログ倉庫に格納されています

RAID総合スレッド No.5

1 :login:Penguin:2009/09/16(水) 23:34:35 ID:JK/kMdkU.net
Linuxでも標準でソフトウェアRAIDが可能となってきました。
マターリとLinuxのRAIDやその周辺技術、設定等について情報交換しましょう

スレ 1 http://pc5.2ch.net/test/read.cgi/linux/1013875908/
スレ 2 http://pc10.2ch.net/test/read.cgi/linux/1111348512/
スレ 3 http://pc11.2ch.net/test/read.cgi/linux/1168487758/
スレ 4 http://pc11.2ch.net/test/read.cgi/linux/1208263754/

Linux RAID 一般
ttp://linas.org/linux/raid.html
ttp://www.linux.or.jp/JF/JFdocs/The-Software-RAID-HOWTO.html
ttp://linas.org/linux/Software-RAID/Software-RAID.html
Adaptec Japan
ttp://www.adaptec.com/ja-JP/_common/os_support/linux/

Linux EVMS 一般
ttp://evms.sourceforge.net/

Adaptec Japanのアドレス修正。EVMSに関するIBMのサイトが404で見つからないので削除。
... あと続けてくらさい。

2 :login:Penguin:2009/09/17(木) 00:31:57 ID:FGAuQfF7.net
2隷奴

3 :login:Penguin:2009/09/17(木) 10:24:21 ID:a38jzfUh.net
前スレ、どうなった?
1000行ってなかった気がするけど、落ちた?

4 :login:Penguin:2009/09/17(木) 12:13:32 ID:EBgro0cj.net
>>3
984でDATE落ちしてて誰もたてる様子がなかったので建てました

5 :login:Penguin:2009/09/17(木) 15:09:51 ID:ioZx6ZJ8.net
>>3
981以上で一定期間書き込みがないと落ちる。

6 :login:Penguin:2009/09/19(土) 00:47:59 ID:zqqctU3x.net
すみませんちょっと質問させてください。
stripe orderって論理的なslotナンバーみたいな認識で良いんでしょうか?
ググったんですが解説しているとこがなくて困ってます。
お願いします。

7 :login:Penguin:2009/09/19(土) 10:46:29 ID:GE78LuGJ.net
mdadmでRAID5のアレイにディスクを一本足そうとadd→growしたんだけど
うっかりパーティションを切り忘れてディスクデバイスそのものをaddしちゃったので
reshapeジョブをいったん止めたい。
しかしmdadmからあれこれ試したところ
何やっても「今やってるからちょっと待っとけ」みたいな表示。
でも素直に待ったら一日かかる。
諦めるしかないかなー?

8 :login:Penguin:2009/09/19(土) 12:52:38 ID:NZbmXcrB.net
バックアップも取らずにreshapeしたのなら諦めるしかないのでは?

9 :login:Penguin:2009/09/19(土) 13:40:53 ID:gNI7Yumi.net
質問です。

CentOS5.3のmdadmのRAID5で、Rebuild Statusが30%completeぐらいで0%に戻ります。
rebuildしている状態で、mountしようとすると、以下のような感じになります。
何か救済案はないでしょうか。

[root]# mount /data
mount: wrong fs type, bad option, bad superblock on /dev/md2,
missing codepage or other error
In some cases useful info is found in syslog - try
dmesg | tail or so

[root]# dmesg | tail
SCSI device sdk: 1953525168 512-byte hdwr sectors (1000205 MB)
sdk: Write Protect is off
sdk: Mode Sense: 00 3a 00 00
SCSI device sdk: drive cache: write back
md: syncing RAID array md2
md: minimum _guaranteed_ reconstruction speed: 1000 KB/sec/disc.
md: using maximum available idle IO bandwidth (but not more than 200000 KB/sec) for reconstruction.
md: using 128k window, over a total of 976759936 blocks.
EXT3-fs error (device md2): ext3_check_descriptors: Block bitmap for group 3968 not in group (block 834142208)!
EXT3-fs: group descriptors corrupted!


10 :login:Penguin:2009/09/19(土) 16:04:25 ID:GE78LuGJ.net
>>8
いや、つまりムダな時間がかかるから止める方法ないかな?って話なんだけど
バックアップがあったらなんかいいことあったかね?
どうせ書き戻しやら何やらしなきゃならないからあまりメリットが思いつかないけど

11 :login:Penguin:2009/09/20(日) 00:28:14 ID:Br9GWSzG.net
>>7
sata/md/lvm/fs
なオレはパーティションなんぞ切らずにmdでRAID5 array組んでますよ

12 :login:Penguin:2009/09/20(日) 00:29:54 ID:Br9GWSzG.net
>>9
fs壊れてるよ、それ・・・

13 :7:2009/09/20(日) 16:32:20 ID:JfCgkafy.net
結局素直に時間で解決したw

>>11
俺も昔はそうしてたんだけど、
ある時、アレイの容量を増やそうと同容量のディスクを一本買ってきたら
元あったディスクと新規ディスクの総セクタ数がほんの少し違ってて
(つまり新ディスクの方が数セクタ少なくて)追加できず…ということがあった。
それ以来、総容量より僅かに小さいパーティションをきちんと切るようにしたよ。

14 :login:Penguin:2009/09/21(月) 14:16:08 ID:Ly9SE+U7.net
ん?
mdならパーティションなんぞ切らなくても
使用容量が指定できたと思うが

それに既にあるアレイに追加するなら
どう転んでも既に使われてる他のドライブと
同じ容量しか使われない

時間がどーとか悩むだけ無駄

15 :login:Penguin:2009/09/21(月) 14:22:07 ID:nwMOYBnG.net
>>13
嫌過ぎるな > わずかに足りない

LVMで500GBx3をLVMでまとめて
1.5TBのディスクのアレイに参加させようとしたらわずかに足りない・・
良く見たらfree PEがまだまずかに残っていた。lvextendで0になるまでぶちこんだらなんとかなった

16 :login:Penguin:2009/09/21(月) 14:39:49 ID:Ly9SE+U7.net
>>15
LVMでまとめたボリュームをRAIDに加えるって
なんでそんな危険なことを?
RAIDの意味を真っ向から否定するようなw

17 :login:Penguin:2009/09/21(月) 14:42:16 ID:nwMOYBnG.net
>>16
比較的最近1.5TBをメインのアレイに変えたので
これまでの500GBがいっぱい余っているため。貧乏性なので・・

18 :login:Penguin:2009/09/21(月) 14:44:27 ID:Ly9SE+U7.net
>>13
--size または -z

19 :login:Penguin:2009/09/21(月) 14:47:49 ID:Ly9SE+U7.net
>>17
「いっぱい余ってる」なら
LVMではなく
もう一個足してRAID5のボリュームにして
それをもう一段上のRAIDに参加させる
の方が正しいような気がする。

面倒くせーから
俺はやらんけどねw

20 :login:Penguin:2009/09/21(月) 14:54:51 ID:nwMOYBnG.net
>>19
正確には6個なので、それも考えたけど。

で、まあ
結局のところ止めました!w
リビルド開始までは確認したけど「遅ッ」
1.5TBなら 25MB/sくらいの速度なのだけど
LVMまぜたら 17MB/sくらいになって残り時間が「万分」という表示に

いや、それも正確にはLVMが悪いのかそれとも
今回初めてRAID6にしているため、RAID6はパリティ計算が小難しいから
遅いのかよくわかっていなかったりする

21 :login:Penguin:2009/09/21(月) 14:57:17 ID:0rI++oYo.net
バーカ

22 :login:Penguin:2009/09/24(木) 17:41:10 ID:QOatyG3l.net
http://pc12.2ch.net/test/read.cgi/software/1232865288/735
>>教えてください
>>質問なんですが外付けのHDDも暗号化できますか?
>>2テラのHDDを4台でハードウエアRAID 0構成したHDDを暗号化して使いたいのですが
>>問題有りませんか?

23 :login:Penguin:2009/09/25(金) 22:29:45 ID:OgNrc6NB.net
素直に1.5TBを購入し 500GBは500GBでアレイにした
RAID6って初めてだ。こんな感じ。やっとリビルド終わった記念。チラ裏スマソ。
$ cat /proc/mdstat
Personalities : [raid1] [raid5] [raid4] [raid6]
md2 : active raid6 sdf1[5] sde1[4] sdd1[3] sdc1[2] sdb1[1] sda1[0]
1953535744 blocks level 6, 64k chunk, algorithm 2 [6/6] [UUUUUU]

md1 : active raid6 sdm1[5] sdl1[4] sdk1[3] sdj1[2] sdi1[1] sdh1[0]
5860543744 blocks level 6, 64k chunk, algorithm 2 [6/6] [UUUUUU]

24 :login:Penguin:2009/09/27(日) 19:56:01 ID:OVR/+voC.net
電源とSATAホットスワップベイとマルチプライヤーだけのRMな箱売ってないかなー

25 :login:Penguin:2009/09/28(月) 10:39:20 ID:Lzc9hMsI.net
いろいろ調べてみたんだが、明確な内容がつかめないので質問します。(調べ方が足りなかったらすまん)

CentOSにて
/boot RAID1
swap
/ RAID1+0

として、InstallしたいのだがInstallerには、RAID0, 1, 5, 6 しかないのでInstallerから組むことはできないと思うが
Install後に何か手を加えてRAID10でパーティション構築して、/ として使用する方法はない?

26 :login:Penguin:2009/09/28(月) 11:40:16 ID:1pzidZ2O.net
FedoraだったらインストーラでRAID10できるんだけどなー

27 :login:Penguin:2009/09/28(月) 13:28:48 ID:C/Lh+sXP.net
>>25
インストール中にコマンド打って、あらかじめ好きなようにmdを作っておいて、
そこにインストールする、という手順じゃダメ?

28 :login:Penguin:2009/09/29(火) 17:04:26 ID:uKmkyA+r.net
>>25
一旦USBメモリとかにインストールして、カーネルを入れ替えてから、好きなような構成に設定したHDDにまるごとrsyncでコピる。

29 :login:Penguin:2009/10/04(日) 20:06:23 ID:QoLrolGm.net
>>24
裸族の雑居ビルじゃだめなんか

30 :login:Penguin:2009/10/13(火) 14:47:09 ID:IKMNvC1+.net
ざぞくのらっきょビル

31 :login:Penguin:2009/10/18(日) 20:32:48 ID:kyzATX8H.net
システム:md0(sda1 + sdb1のraid1) + データ:md1(sda3 + sdb3のraid1)
という構成でシステムを再インストールしたいのですがどうすればいいのでしょう?
  1.sdb1をfail&removeしてmd0から除く
  2.sdb1に新システムをインストール
  3.sdb1から起動し、元のmd0(sda1のみ)にシステムをコピー&grub設定
  4.sda1から起動し、sdbをadd
と思ったのですが…1の時点でコケました。

1の直後に再起動したらmd0=sdb1のみと認識されて起動したり(sda1どこ行った?sdbはremoveしたろ?)、
物理的にsdbのみ or sdaのみで起動できたり(removeしているからどっちかコケるのでは?)、
と、ワケワカランとなってしまいました。
# そもそもmd0のシステムを入れ替えてmd1って動くのでしょうか?

32 :login:Penguin:2009/10/18(日) 20:43:55 ID:/Yo7fcPn.net
> 1の直後に再起動したらmd0=sdb1のみと認識されて起動したり(sda1どこ行った?sdbはremoveしたろ?)、
> 物理的にsdbのみ or sdaのみで起動できたり(removeしているからどっちかコケるのでは?)、

BIOSでの起動ドライブの指定は意図した通りに設定してあんの?
至極まっとうな動作だと思うが
1枚だけで起動できなきゃなんの為のRAID1なんだ


33 :login:Penguin:2009/10/19(月) 10:35:44 ID:F1hFmcmu.net
何をしたいのかさっぱりわからん。

34 :login:Penguin:2009/10/19(月) 12:01:56 ID:5c6ufY3t.net
BIOSのHDD起動順序

35 :login:Penguin:2009/10/19(月) 12:23:40 ID:OwtH0QAV.net
つか
RAIDのレベルで二つに割ってる意味がサッパリ分からん。
ボリューム分けたいなら普通はLVMでやるもんだと思うが。
パフォーマンスが落ちるだけじゃねーの?

36 :login:Penguin:2009/10/19(月) 12:44:43 ID:Js6Cpgcr.net
LVM挟んだほうが明らかにオーバーヘッドが一枚多いだろw

37 :login:Penguin:2009/10/19(月) 16:32:02 ID:Sjy8xwGc.net
明らか
か?

38 :login:Penguin:2009/10/19(月) 21:48:33 ID:fwC9TQj2.net
実効"ほぼ"ゼロってのは叩きやすいからね
定量的に考えられない奴が引っかかるから扇動しやすい

39 :login:Penguin:2009/10/20(火) 11:23:21 ID:nQrL8SHf.net
パフォーマンスはともかく
ディスク故障->交換時にかかる手間暇に関しては
LVMで分けた方がずっと楽だな。

40 :login:Penguin:2009/12/14(月) 19:40:04 ID:RyeiL2Wz.net
LinuxMDでHDD4本でRAID1を2本ずつかけてるんだが、
複数のmdデバイスを同時にresyncかけるのはできるのかな?

OSインストール時に二個同時に走ってるのを/proc/mdstatで見たんだけど、
再起動すると一個ずつになってる、、

同時でやれば速く終わるはずなんだけど

41 :login:Penguin:2009/12/15(火) 11:32:32 ID:tx5kvce1.net
>>40
> 同時でやれば速く終わるはずなんだけど

むしろ遅くなりそうな気がするが。
同一のCPU、同一のコントローラで
二つの処理を同時に行わせるんだよな?

42 :login:Penguin:2009/12/15(火) 14:19:25 ID:CbO7zir3.net
>>41
そうなんだけども、CentOSインスコ時の裏ターミナルで見たら二本のRAIDペアが同時でMAX近いスピードが出てるんだよ。

resync終了前に再起動すると起動してからresyncが走るけど一本ずつresyncに。

同時並行でresyncできるかmd.txt見てもそんなパラメータないし謎、、

43 :login:Penguin:2009/12/15(火) 14:52:55 ID:kA6phnL8.net
ボリュームの初期化と
データが入ってるボリュームのresyncでは
話が全く違うように思える

44 :login:Penguin:2009/12/15(火) 16:18:22 ID:CbO7zir3.net
>>43
もち、買ってきたばっかのブランクHDDです

45 :login:Penguin:2009/12/15(火) 17:52:50 ID:DeZ5m+oO.net
単にrcスクリプトの問題じゃねえの

46 :login:Penguin:2009/12/16(水) 02:11:43 ID:5fywQ9w/.net
ひょっとしたらmdadmで作成した時だけは同時に走るのかもしれない…

で再起動してからは同期が終ってないから普通に順番に走ると。

客先とかで組むと最後まで完了しないと帰れないのでって事情ですw

47 :login:Penguin:2009/12/16(水) 11:50:39 ID:cGLo5n8p.net
そういう事情なら
前の日のうちにresync済ませておいたHDDを持ち込めば
再認識させるだけで即座に帰れるぞw

48 :login:Penguin:2009/12/23(水) 17:30:17 ID:zGW6BKPU.net
LVMもRAIDに加えられるようなのでちょっと悩み中

今、自宅ファイルサーバの構成が
500GB 2個
1TB 2個
1.5TB 1個
という構成
OSは80GBのHDDに入れている

容量が足りなくなったついでにRAID5を組もうと思い、
1.5TB 2個を追加しようと思っている

ここで、A案かB案か迷っている
A案 500GB+1TBで1.5TBのLVMを組んで 1.5TB 5個でRAID5を組む
B案 1.5TBをfdiskで500GBと1TBのパーティションで切って
500GB 5個と1TB 5個でそれぞれRAID5を組む

今後のディスク追加は1.5TB以上だと思うのでA案を考えているけど、
A案だと再構成に何日もかかるのかな?

49 :login:Penguin:2009/12/23(水) 18:40:50 ID:DJuG93Mm.net
どちらかといえばB案かな。大容量での再構成はできれば避けたい。
ただ、両方のボリュームへの同時アクセスでヘッドの取り合いになりそうではある。
このあたりはアクセスパターン次第かと。

もしAなら、LVMにしなくてもlinear arrayでつなげばいい気がしないでもない。
mdXもRAIDに参加できる

で、冗長性を保った状態で容量拡張をしたいならRAID1+LVMが一番楽。
大きい容量の新しいアレイを参加させて終わり。ポートが足りなくなったら
一番小さいアレイからデータ掃き出して外す。
うちはこれで、1発250GBの時代から新陳代謝させて
今 1TB RAID1 x 3 + 500GB RAID1 x2 になってる。
このあたりは容量効率をとるかメンテナンス性を取るかの判断かな

50 :login:Penguin:2009/12/23(水) 23:29:29 ID:o+oOXBGn.net
3台のRAID5(md0)を4台構成に変更しようと思い、下のコマンドを実行していくと失敗する。
# mdadm /dev/md0 -a /dev/sdd1
mdadm: hot added /dev/sdd1
# mdadm -G /dev/md0 -n 4
mdadm: Cannot set device size/shape for /dev/md0: Invalid argument

ちなみに、md0はLVMに組み込まれています。

今までこのようなことをが起きた事はなかったのですが、どなたかご存知の方、教えていただけませんか?


51 :login:Penguin:2009/12/24(木) 00:01:18 ID:SIaUuIyu.net
>>49
> 大きい容量の新しいアレイを参加させて終わり。ポートが足りなくなったら
> 一番小さいアレイからデータ掃き出して外す。

参考までに教えて欲しいのだが、この掃き出しというのはpvmoveで
大きいアレイにデータを寄せて、resize2fsでfsを縮小、
vgreduceでLVをVGから外す、という流れでおk?

52 :login:Penguin:2009/12/24(木) 02:50:17 ID:NQCo/TNI.net
>>51
減らすときはfs-LV-VG-PVっていうレイヤの上から、増やすときはその逆。
なので手順はresizefs→lvreduce→vgreduce→pvremoveだし、
増やすときはpvcreate→vgextend→lvextend→resizefs

53 :login:Penguin:2009/12/24(木) 02:52:07 ID:NQCo/TNI.net
途中で送信してしまった。

(通常の構成なら)RAID(md)層はPVのさらに下に来る。
あとはLVMスレで頼む

54 :login:Penguin:2009/12/24(木) 12:29:30 ID:VyYXnLPe.net
>>52
lvreduceすると自動的にpvmoveされるっけ?

55 :login:Penguin:2009/12/24(木) 13:03:22 ID:VyYXnLPe.net
Linuxのmdで、ローカルにATAやSCSIのディスクがつながっていて
なんらかの冗長化をしたい、というシチュエーションに限定した話で
いいんですけども、
・ディスク全体でmdを構成して、md上にパーティションをつくる
・パーティション分けてから、パーティションごとにmdをつくる
利点欠点について説明する場面があるんだけど、何を言えばいいだろう。
その気になれば後でどうにでもなるからどっちでもいいや、
とつい思ってしまうんだけど……

話す相手は「コンピュータには慣れているけど(学問的な意味で)
サーバメンテ的なことには詳しくない人」です。

56 :login:Penguin:2009/12/24(木) 13:10:57 ID:wt0k8Pk+.net
つまり、お前もよく理解していないってこった。

57 :login:Penguin:2009/12/24(木) 21:07:27 ID:NQCo/TNI.net
LVMスレへの誘導をもろともしないバカなんだし、許してやれよ…

58 :login:Penguin:2009/12/25(金) 09:54:17 ID:Bu/8ScH4.net
>>50
> ちなみに、md0はLVMに組み込まれています。

答えが書いてあるんじゃないかって気がする。

59 :login:Penguin:2009/12/25(金) 09:56:03 ID:Bu/8ScH4.net
>>57
誤:もろともしない
正:ものともしない

60 :login:Penguin:2009/12/27(日) 22:44:10 ID:xPaTeqXA.net
>>52>>51への返答になってないことにも気づかず偉そうだな…… > /dev/null

61 :login:Penguin:2010/01/04(月) 22:46:36 ID:kJMQbgtx.net
ねぇ、LVMで足らない分をポチポチ足していったら
JBODみたいに1つでも壊れたらまずいHDDアレイにならない?

62 :login:Penguin:2010/01/18(月) 01:11:33 ID:FrA+yAqo.net
>>48ですが、A案で構成中に問題が
>>49さんを参考に500GB+1TBをlinear arrayでつないでみたのですが、
OS再起動するとRAID構成から外れてしまう

# mdadm --create /dev/md1 --level linear --raid-devices 2 /dev/sdf1 /dev/sdg1
# mdadm /dev/md0 --add /dev/md1
# mdadm --grow /dev/md0 -n 5

これで一旦はmd0に組み込まれるんだが、OS再起動すると/dev/md1が外れる
恐らくOS起動時、/dev/md0を構成するときに/dev/md1が構成されていないからだと思うんだが
/dev/md0を/dev/md9としてもダメだった

今度lvmからmd0への組みこみを試してみようと考えているが、
linear arrayでできる方法はないのだろうか?

63 :login:Penguin:2010/01/19(火) 20:18:03 ID:+d0hdVIw.net
initrd作り直したか?

64 :login:Penguin:2010/01/20(水) 18:35:12 ID:XwDp0ABh.net
ubuntu9.10からのpalimpsestディスクユーティリティつかったソフトウェアRAIDやってる人はいるかい?

65 :login:Penguin:2010/01/20(水) 19:29:48 ID:ndWbRgCE.net
まぁFedora11から入ってるから、いるんじゃね?


66 :login:Penguin:2010/01/21(木) 00:16:24 ID:VDTPOdY5.net
いやー自動マウントの設定がうまくいかなくてさー

67 :login:Penguin:2010/01/23(土) 03:37:11 ID:3Mk8FRSB.net
そこそこIOPSの高い数TBのストレージを作りたいんですが、
基本的にはディスク本数を増やすアプローチで良いのでしょうか?

68 :login:Penguin:2010/01/23(土) 10:49:58 ID:NzyUkd6I.net
数TB程度ならSSD並べるだけでいいだろ

69 :login:Penguin:2010/02/05(金) 18:22:40 ID:0skLHFUh.net
swapを冗長化するという話はほとんど聞きませんが、
swap域でディスクエラーが起きたらどうなるのでしょうか?
プロセスが突然死するのでしょうか?
暴走することもあるのでしょうか?

一般には、swapを冗長化するデメリットが
プロセスが突然死したりするかもしれない心配より
大きいと考えられているのでしょうか?

70 :69:2010/02/05(金) 18:25:40 ID:0skLHFUh.net
別の質問です。

sdaとsdbでraid1を組んだとき、
sdaがあるビットは1だと言い、sdbはそのビットは0だと言ったら
何が起こるのでしょうか?

71 :69:2010/02/05(金) 18:34:06 ID:0skLHFUh.net
>>70

これは間抜けな質問だったかもしれません。raid5などと混同していました。
無視してくださって結構です。

72 :login:Penguin:2010/02/05(金) 18:39:23 ID:hTXVw8Is.net
>>69
前半 YES。ただそれが問題になる場合は、スワップをしないように最大まで
メモリを載せる。スワップしたら負け。

73 :69:2010/02/05(金) 18:44:53 ID:0skLHFUh.net
>>72
早っ。

今までスワップは、とにかくするもんだと思っていましたが、吹っ切れました。


74 :login:Penguin:2010/02/05(金) 18:47:13 ID:VwALYjfj.net
>>69
実際にやってみた。
物理メモリにマッピングされているページを、わざとスワップアウトさせた状態で:
sudo /bin/sh -c 'cat /dev/zero >/dev/<swap>'

ええ、フリーズしました。
どうしたらよいでしょうか?電源ボタン長押しでいいですか?

75 :login:Penguin:2010/02/05(金) 19:19:11 ID:j8P2r62W.net
物理メモリの延長と考えればメモリの破損だからなあ
そりゃ止まるよね

76 :login:Penguin:2010/02/05(金) 19:25:12 ID:VwALYjfj.net
でもさ、ユーザ空間のプロセスなんてカーネルに管理されているんだから
強制的に終了させられることは珍しくないじゃん?
だからさーそういう例外を予測して、完全には無理だろうけど、
フェイルセーフな方向に失敗させるのがプログラマの仕事じゃないかな?

77 :login:Penguin:2010/02/05(金) 21:54:13 ID:/2F2WLUF.net
OSとアプリの責任分界をまるっきり無視だなw

78 :login:Penguin:2010/02/06(土) 02:29:34 ID:NYl8i1Ri.net
初心者なのでこのスレには不似合かもしれないんですけど
緊急事態なので教えてください

REID0を組んでるのですがマザーが逝ってしまったらしく
BIOSまで行き着かず電源が落ちてしまいます

なんとかHDのデータだけでも救出したいのですが
ほかのマザーでもREIDのHDは認識しますか?

可能でしたらその手順も教えていただけたら...

お願いいたします

79 :login:Penguin:2010/02/06(土) 07:27:04 ID:OzdAS2DW.net
ソフトRAIDなのかハードRAIDなのか。

ハードなら同じハードを揃える。
ソフトなら移し変えるだけ可じゃね?

もうちょっと環境詳しく。

80 :login:Penguin:2010/02/06(土) 09:53:58 ID:NYl8i1Ri.net
>79
ありがとうございます

DELL DIMENTION 9100のBTOのメーカー設定のソフトウェアREIDです

自分としては他のマザーで大丈夫なら
今時のマザーとCPUを購入して他のパーツを流用できれば理想なのですが

同じマザーでなければ無理なようでしたら
ヤフオクで純正のマザーを落とそうかと思ってます



81 :login:Penguin:2010/02/06(土) 14:55:17 ID:kWyCQKjd.net
WindowsXPモデルしか無いみたいだけどここはLinux板だよ。

82 :login:Penguin:2010/02/06(土) 15:04:03 ID:y6S0x+iZ.net
REID て。

83 :login:Penguin:2010/02/07(日) 04:45:16 ID:HVHbakeU.net
ローマ字入力してる人に多いタイプミスだから気にしない…
(わたしは親指シフトだから…笑)

84 :login:Penguin:2010/02/07(日) 05:10:36 ID:Is4alLXh.net
タイプミスだろうが何だろうが繰り返してる上に直す気がない時点でダメ認定済みなわけだが

85 :login:Penguin:2010/02/07(日) 06:19:54 ID:e3D699rK.net
RAID0でデータを救出って時点で頭おかしいね
RAID0はなくなってもいいデータを入れるものだろうに

86 :login:Penguin:2010/02/07(日) 07:13:30 ID:kPG49Q02.net
>RAID0でデータを救出って時点で頭おかしいね
ディスクが逝かれたってことじゃないみたいだし、
そこは別にいいだろ。


87 :login:Penguin:2010/02/13(土) 05:44:18 ID:nV0eWbuV.net
質問です

元々
本体:eSATAカード増設
外部ストレージ:PMP対応のeSATA接続の箱にHDD2本(sdc, sdd)でRAID0
OS:fedora 11

の構成のサーバにfedora12をクリーンインストールしました。


インストール後、sdc、sddとも見えてて、sdc1、sdd1の各パーティションも0xfdで見えてますが、
RAID0の状態では見えていない状況です

この状態でRAIDの組みなおしは可能でしょうか?

88 :login:Penguin:2010/02/13(土) 07:31:30 ID:0ecMg6dD.net
意味不明

89 :login:Penguin:2010/02/13(土) 09:03:14 ID:TRB1DKG4.net
たぶん,
sdaにFedora11入れてて,sdc,sdcをSoftRAIDしてたのが,
sdaをFedora12にしてSoftRAID設定が消えちゃったって
言ってるみたいだね〜

Fedoraに強い人!助けて〜(笑


90 :login:Penguin:2010/02/13(土) 13:22:54 ID:ZQ7DCUTq.net
>>87
まず確認してほしいけど、起動後に、
mdadm -A /dev/md0 /dev/sdc1 /dev/sdd1
とすると、RAID0のアレイは動くんだよね?

それで動かないようなら、dmraidが悪さをしている可能性がある
dmraid -r
としてみて、/dev/sdcや/dev/sddが出てくるようならそれに該当する

91 :login:Penguin:2010/02/13(土) 13:38:35 ID:0WzASaEG.net
ソフトウェアRAIDで、dmraid って、ググっても古い記事しか見つからないんだけど、今でも再構築周りの不安定さってあるんでしょうか。確実に再構築できることを求めるなら、やっぱり md で組むべき?


92 :login:Penguin:2010/02/13(土) 13:56:06 ID:ZQ7DCUTq.net
>>91
逆にdmraidを使いたい理由を教えてほしいんだけど
Windowsとかとアレイを共用してるとか?
それとも最近のマザーにはparity計算するハードとか載ってるのかな?

枯れてるという意味でも、柔軟性でもmdの方がいいと思うけどな
たとえば、マザーが壊れたとかした場合、dmraidだと移行が面倒
mdだとそんな制限ないし、スーパーブロックの構造もわかってるので、壊れても
なんとか修復できたりする


93 :login:Penguin:2010/02/13(土) 15:11:10 ID:nV0eWbuV.net
>>90
返信ありがとうございます。

fdiskではsdc1、sdd1とも0xfdで見えていたのでデバイスファイルもあるものだと思い込んでいましたが
/devを見たところsdc1、sdd1ともない状況でした

現在はcat /proc/devicesを見たところ、sdのメジャー番号が8でしたので、mknod b 8 XX /dev/sdc1
とやってみたところinvalid major number '8' とでてきて詰まってる状況です


ちなみにmdadm -A /dev/md5 /dev/sdc /dev/sddを実行した結果を貼り付けて見ます

[root@sv1 ~]# cat /proc/mdstat
Personalities : [raid1]
md5 : inactive sdc[1](S) sdd[0](S)
4514 blocks super external:imsm

94 :login:Penguin:2010/02/13(土) 15:49:26 ID:ZQ7DCUTq.net
>>93
>fdiskではsdc1、sdd1とも0xfdで見えていたのでデバイスファイルもあるものだと思い込んでいましたが
>/devを見たところsdc1、sdd1ともない状況でした

あり得ない。じゃあ、fdiskは何のファイルをオープンしてるんだよって話だ
実際そうなんだというなら、
strace fdisk /dev/sdc
の結果を張ってみてくれ

>現在はcat /proc/devicesを見たところ、sdのメジャー番号が8でしたので、mknod b 8 XX /dev/sdc1
>とやってみたところinvalid major number '8' とでてきて詰まってる状況です

その「XX」が合ってるかどうか気になるな
デバイスファイル作るなら /dev で
./MAKEDEV sdc
としてみたら?(余計なファイルもいっぱいできるけど)

まぁ、いずれにしても通常はudevが作るわけだし、mknodできないとすれば別の理由か
mount
の結果と
dmesg
の結果でも張ってみてくれよ(dmesgは長いからsdc、sddの認識部分だけでいいや)

95 :login:Penguin:2010/02/13(土) 15:54:37 ID:ZQ7DCUTq.net
>>94
自己レス
ちょっと勘違いしてた
状況を整理すると、/dev/sdcと/dev/sddは存在しているわけだな。んで、/dev/sdc1と/dev/sdd1がないと
パーティションテーブルが壊れているのか、非互換なのか…という感じですか
とりあえず
fdisk -l /dev/sdc
fdisk -l /dev/sdd
の結果と、dmesgのsdcとsddの認識部分のログが見たいですな


96 :login:Penguin:2010/02/13(土) 16:00:09 ID:nV0eWbuV.net
>>95
度々すみません

# fdisk -l /dev/sd[c,d]

ディスク /dev/sdc: 500.1 GB, 500106780160 バイト
ヘッド 255, セクタ 63, シリンダ 60801
Units = シリンダ数 of 16065 * 512 = 8225280 バイト
Disk identifier: 0x00072abe

デバイス ブート 始点 終点 ブロック Id システム
/dev/sdc1 1 60801 488384001 fd Linux raid 自動検出

ディスク /dev/sdd: 500.1 GB, 500107862016 バイト
ヘッド 255, セクタ 63, シリンダ 60801
Units = シリンダ数 of 16065 * 512 = 8225280 バイト
Disk identifier: 0x00095176

デバイス ブート 始点 終点 ブロック Id システム
/dev/sdd1 1 60801 488384001 fd Linux raid 自動検出

(続く)

97 :login:Penguin:2010/02/13(土) 16:05:59 ID:nV0eWbuV.net
(続き)
# dmesg | grep sd[c,d]
sd 6:0:0:0: [sdc] 976771055 512-byte logical blocks: (500 GB/465 GiB)
sd 6:0:0:0: [sdc] Write Protect is off
sd 6:0:0:0: [sdc] Mode Sense: 00 3a 00 00
sd 6:0:0:0: [sdc] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA
sdc:
sd 6:1:0:0: [sdd] 976773168 512-byte logical blocks: (500 GB/465 GiB)
sd 6:1:0:0: [sdd] Write Protect is off
sd 6:1:0:0: [sdd] Mode Sense: 00 3a 00 00
sd 6:1:0:0: [sdd] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA
sdd: sdc1
sd 6:0:0:0: [sdc] Attached SCSI disk
sdd1
sd 6:1:0:0: [sdd] Attached SCSI disk


>その「XX」が合ってるかどうか気になるな
# ll /dev/sdc
brw-rw---- 1 root disk 8, 32 2010-02-13 15:31 /dev/sdc
となっていましたのでマイナー番号は33を指定してました

98 :login:Penguin:2010/02/13(土) 16:23:17 ID:ZQ7DCUTq.net
>>96
>>97
fdiskの結果もおかしくないし、デバイス認識にも問題ない
mknodのマイナー番号指定もおかしくない(33であってる)
だけど、/dev/sdc1の作成には失敗するし、そもそもudevでの自動認識もできないわけですか
どうにも謎ですな

PMPに接続しているHDDをマザー上のSATAポートに接続しなおしてテストしてみるというのはどうでしょう
ある程度問題の切り分けが可能かも。または、別のHDDを接続して、区画設定からやり直すとか

SELinuxが何かしてる?
restorecon -R /dev
してみるとか(これで解決するとも思えんが…)

99 :login:Penguin:2010/02/14(日) 20:11:05 ID:32z55fMa.net
>>92
いえ。dmraid の方が高速だって記事を見かけたことがあるもので(ソースは失念しました)、安定してるなら入れてみようと思っただけなんです。

100 :login:Penguin:2010/02/15(月) 08:42:59 ID:dKzXeQoa.net
>>99
どっちも似たような処理をするわけだし、dmraidの実装が極端に優れているとかでなければ、速度差はそれほど期待
できない気がするなぁ。ちょっとググってみたけど、明確な性能差があるという最近のベンチ結果は見当たらなかった
(あまりしつこくは検索してない)

もしも速度差があるとすれば、dmraidがやるべきことをやっていないとかじゃないの?
dmraidのソース見たけど、未実装な機能であるとか、「more sanity check」とかのコメントが結構あったよ

mdでは、最近、バリアの実装が全RAIDレベルで完了したみたいだし、安全性考えるならばmdでしょ
そもそもdmraidではRAID 4/5使うにはまだカーネルにパッチを当てないといかんし、RAID 6に至っては未サポート
その上、ハード依存性もあるとなっては、俺なら多少の速度差程度では使う気にならんなぁ

もちろん使ってみてベンチマークとか取って報告してくれると嬉しいが


101 :login:Penguin:2010/02/15(月) 18:31:35 ID:3eiOHoeN.net
質問があります.長文ですがよろしくお願いします.

現在Vine linux 4.2 でファイルサーバを構築しています.
mdadmにて1.5T3台でRaid5の状態から,もう一台追加で
1.5T4台にしようとしたのですが,

# mdadm --manage /dev/md1 --add /dev/sdb1
mdadm: added /dev/sdb1

の後に--growを行ったところ

# mdadm --grow /dev/md1 --raid-disks=4
mdadm: Need to backup 384K of critical section..

となりエラーになります.
簡単に調べたところ,海外のサイトで
カーネルが2.6.19以降でないとraid5のgrowができないとあったので
Vine4.2のカーネルが2.6.16なのが原因だと考えていますが
それであっているでしょうか?

また,カーネルが問題なら,Vine5は文字化けの問題その他で
アップグレードを躊躇しているので
これを機に他のディストリに移行しようかと思っています.
このときにRaidのデータを残したまま移行する方法はありますか?
もしあれば教えていただきたいです.



102 :login:Penguin:2010/02/15(月) 19:46:15 ID:dKzXeQoa.net
>>101
raid5のgrow対応は2.6.17からじゃなかったかな。いずれにしても2.6.16なら駄目かな

んで、これはエラーじゃなくて、正常時にも同様のメッセージが出るよ
>mdadm: Need to backup 384K of critical section..

>これを機に他のディストリに移行しようかと思っています.
>このときにRaidのデータを残したまま移行する方法はありますか?

基本的にどのディストリであっても、そのまま移行できます
でも何があるか分からないから、バックアップは取っておきましょう

103 :login:Penguin:2010/02/15(月) 20:10:52 ID:VLzsUrgl.net
>>101
Vine4.2で
1.5TB x 6 のRAID6
500GB x 6 のRAID6
やってますよ。
過去にはRAID5 500GB x 4 をGrowで 500GB x 6にしたり普通にやってました。
Linux ***** 2.6.16-76.40vl4 #1 SMP Sun Nov 9 04:43:51 JST 2008 i686 athlon i386 GNU/Linux
普通にできるからガンガレw貴重なVineの友w

104 :login:Penguin:2010/02/15(月) 20:16:50 ID:Qu2WEuRS.net
>>101
カーネルのバージョンに加えてmdadmのバージョンも問題(2.6以上じゃないとダメ)。

Debian etchはカーネルが2.6.18なんだけどmdadmが2.5.xだったのでRAID5のgrowができなかった記憶が。

105 :101:2010/02/15(月) 20:35:37 ID:3eiOHoeN.net
皆さん早速の返事ありがとうございます.
>>102
すいません,一行コピーできていませんでした.
エラーは3行目だと思います.

# mdadm --grow /dev/md1 --raid-disks=4
mdadm: Need to backup 384K of critical section..
mdadm: Cannot set device size/shape for /dev/md1: Invalid argument

です.早速カーネルをあげてみます.

>>103
あなたもVineですか.
Vineは最近話題に上ることが少なくなった気がしたので
仲間がいると分かってうれしいです.
私もできるならVineのままでいきたいのでもう少しがんばってみます

>>104
mdadmのバージョンは考えてもみませんでした.
確認したところ

mdadm - v2.5.5 - 23 October 2006

でしたので,こちらもバージョンアップします.

早くやりたいけど,まだ家に帰れない...

106 :103:2010/02/15(月) 21:04:45 ID:VLzsUrgl.net
>>105
過去の自分の作業ログを見たところ
500GBx4→500GBx6のときはraidtools、

1.5TBx4→1.5TBx6のときは
http://piro791.blog.so-net.ne.jp/2008-11-07
ここを参考にやってました。

がんばってください。
自分のmdadm も2.5.5でバージョン全く同じです。

107 :login:Penguin:2010/02/16(火) 12:07:46 ID:U/2RUOkN.net
でもVine 4.2なら直にメンテナンスされなくなるし、
いずれは5.xに行くか他のディストリに移る必要があるよ。
5.xへの移行はデフォルトの文字コードその他、
他のディストリに移行するのと大差ない面倒があるので俺は結局CentOSに移った。
RedHat系なら yum の使い方覚える必要がある程度で
Vineでのノウハウがそのまま使えるし大した問題はない。

確か俺もVineでは growがうまく行かなかった記憶がある。
その時は調べた結果「ああ、kernel が古いのか」で納得したと思う。
>>103 が「普通にできる」てのがちょいと信じ難いが…
>>103 の kernel はいくつなのかな?

ま、Vineにはつきもののこの手のトラブルが皆無になるし
将来のことを考えると結局は他所へ移った方が楽だと思う。
メジャーなディストリだとトラブル時にネット上での情報量が多いしね。

108 :login:Penguin:2010/02/18(木) 00:39:32 ID:WHcn7By1.net
>>100
あーソースまではチェックしてなかったです。
ううむ。未だにその状況だと実運用に使えるようになるのは当分先ですね。
今自宅にPCないので手軽にベンチがとれる環境を作れないんです。個人で借りてるサーバーに突っ込んでみようかと思っていたのですが、今回は見送ることにします。
ありがとうございました。


109 :login:Penguin:2010/02/22(月) 11:49:13 ID:/vv6ceYV.net
RAID1を構成するディスクを読んだら、それぞれ違う値を返した、
ということはあり得るのでしょうか?
このとき物理的なエラーは検知できなかったとします。

110 :109:2010/02/22(月) 11:54:40 ID:/vv6ceYV.net
>>70の質問をした者です。
結局同じ質問になっていたことに気付きました。
質問を変えます。
RAID1に'a'と書きこんだのに、続けて同じ場所を読んだら'b'となっていた。
このとき物理エラーは検出されなかった。ということはあり得るのでしょうか?

111 :login:Penguin:2010/02/22(月) 14:57:06 ID:mO3WnbsM.net
ハードもソフトも人間が作ったもんだから、
「ありえるか」って言えば、ありえるんじゃね?

ところで、mdadm --detail /dev/md0 の結果でさ、
Events って何なんだろうね。
manpage 見ても、よくわかんなかったよ。

Events : 0.40
Events : 0.70880
Events : 0.26
Events : 0.60

4 台とも RAID1 のサーバだけど、いろいろ違うもんだね。

112 :login:Penguin:2010/02/22(月) 18:04:22 ID:6N04FDxr.net
低熱高熱状態でのHDDに書き込んだデータの化けはありうるわけだし
だからRead After Writeを実装してるHDDもあるし
こんとき物理エラーは検出されん
つか出来ん

113 :109:2010/02/22(月) 18:30:32 ID:/vv6ceYV.net
>>111
質問が下手すぎました。
>>112
どんな強力なRAIDでも、物理エラーとして検出されないエラーを修復することは
できないのですね。そういうことを気に病むより、SMARTなどの対策を打ったほうが
いいと思うようになりました。

114 :login:Penguin:2010/02/27(土) 02:12:27 ID:qDAtQXVH.net
今HDDのヘッドが読み出すときのビット誤り率(BER)は10-9程度
最近はエラー訂正に頼る傾向があるから、リニアでは10-6程度と逆にエラー発生率は高くなってる
でも逆に符号訂正の技術が高くなっているから、実際に伝送路に乗る品質は10-15乗以上にもなる
この次元の値のエラー率になると、もはやメモリーやバスやCPU、強いてはRAIDカードのコントローラーに乗るノイズで発生するエラーの確率のほうが高い。
それでもハードディスクの誤りが怖いというのであれば、次世代の量子コンピューターの登場まで待つんですな。

115 :109:2010/02/27(土) 16:01:38 ID:+q4ml44K.net
>>114
ありがとうございます。勉強になりました。

116 :login:Penguin:2010/03/20(土) 18:21:41 ID:SpYbO4RY.net
WD20EARSでmd RAIDやってる人はいませんか?

RAIDパーティションを64セクタ目から作成して、mdのストライピングサイズを64KBで
作成したとします。

mdに加えたHDDのRAIDパーティションの先頭にはmdの情報が保存されていると思います。
mdとして実際に使える先頭セクタは、md情報が保存されている次のセクタからだと思います。
実際に使える先頭セクタの場所が8の倍数でない場合は、WD20EARSをWinXPで使う場合と
同じようにパフォーマンスダウンするのではないかと思っています。

これってどう思いますか?
各HDDにおけるmdの情報が4096bytesの倍数であれば多分問題ないんだろうと思うんですけど。


117 :login:Penguin:2010/03/20(土) 18:24:30 ID:SpYbO4RY.net
5行目を訂正します。

誤:mdとして実際に使える先頭セクタは、md情報が保存されている次のセクタからだと思います。
正:mkfsにとって実際に使える先頭セクタは、md情報が保存されている次のセクタからだと思います。

言いたいことって、伝わりますか?
うまく言語化できない。


118 :login:Penguin:2010/03/20(土) 18:26:25 ID:aN8kdh7Y.net
ttp://lkml.indiana.edu/hypermail/linux/kernel/1003.1/03467.html
ttp://lwn.net/Articles/377895/

119 :login:Penguin:2010/03/20(土) 18:57:33 ID:SpYbO4RY.net
>>118
このリンクはLinuxにおける4096bytesセクタに対する考察なだけっぽい気がします。
うまく言いたい事を表現できない自分が悪いんですけどね。

たとえば1つのmdパーティションにmdの管理情報が4096bytes必要だとします。
それならば次のセクタから64KBでストライピングしても、別にセクタをまたがった
アクセスにならないので問題ないと思います。

もし管理情報が2048bytesだとしたら、セクタをちょうど二つに分けた形で
ストライピングされてしまうので、強烈なパフォーマンスダウンになると思います。

ここまで書いて、どう書けばいいのかわかりました。
RAIDパーティション当たりのmd管理情報って何KBなんでしょうか?

120 :login:Penguin:2010/03/20(土) 19:23:29 ID:TrISQUCw.net
一番の誤解はmdのスーパーブロックは末端に在るってことかな

121 :login:Penguin:2010/03/20(土) 19:31:49 ID:TrISQUCw.net
バージョン0.9/1.0の場合だこれ
1.1/1.2だと先頭だわ
詳細はmd(4)
mdadmは0.9がデフォルトだけども

122 :login:Penguin:2010/03/20(土) 20:28:44 ID:SpYbO4RY.net
>>120
で、すげえ!やったネ!って思ったけど
>>121
なんという改悪でしょう。
man見てみましたけど、私には分かりませんでした。

考えてみたら、mdの管理情報が問題ないとパスできたとしても
ext3の管理情報サイズまで考えないといけないですよね。
WD20EARS買うのをやめようかな〜。
安いから特攻しようかと思ったんですけど。

123 :login:Penguin:2010/03/21(日) 20:28:32 ID:SqWw8gw9.net
知っている人に質問。

3wareの7000とか9550のSATA RAIDボードに既存のデータが保存されたHDDをつなげるとき、UNITの構築しなくても /dev/sdc1 とかでマウントして利用できる?
Single DiskとしてUNIT構築を行おうとすると、既存のデータが破壊されますけどどうします?と聞いてくるんで。


124 :login:Penguin:2010/03/21(日) 20:43:39 ID:plED2x3n.net
>>123
3ware使ってないけど、大抵のRAIDカードは管理用の情報をHDDに書き込むから
単体HDDとして使う場合も中身は壊れるよ。

3ware使ってる人に聞きたいのならこっちのスレのほうがいいかも
RAIDカードあれこれ 39枚目
ttp://pc11.2ch.net/test/read.cgi/jisaku/1263703844/

125 :login:Penguin:2010/03/21(日) 20:57:25 ID:SqWw8gw9.net
>>124
ありがとう。了解した。

該当スレ誘導も感謝。

126 :login:Penguin:2010/03/22(月) 12:23:35 ID:E14pDNne.net
linuxのソフトウェアRAIDの話です。
mdadm.confを使わずにRAIDデバイスを起動した場合は、OSの停止前に明示的にmdadm -Sを
実行する必要がありますか?

127 :login:Penguin:2010/03/22(月) 18:10:59 ID:N0EEVYIK.net
>>126
終了動作でファイルシステムのメタデータ吐く、
そのあとmdのスーパーブロック書き出して同期を停めるでしょ。

128 :login:Penguin:2010/04/02(金) 08:14:21 ID:laU9d0eY.net
raid 1+0 と 6が使える環境で、おまいらはどっちを選択する?



129 :login:Penguin:2010/04/02(金) 09:19:25 ID:+pJGaIlA.net
おまえならどっちもいっしょ

130 :login:Penguin:2010/04/03(土) 23:13:51 ID:YO6iN+5f.net
自作板で聞こうかとも思ったのですが、こちらの方が経験者が多そうなので質問させてください。

会社でCentos 5.4、Raid1でファイルサーバー立てようと思うのですがお勧めのRAIDカード教えてもらえないでしょうか
ただし予算はHDも合わせて2万円以内です。
先日ソフマップで、1.5TBのHDが8千円くらい、1TBが7千円くらいで売ってたので
HD2基で14000円〜16000円くらい
そうするとRAIDカードの予算は4000円から6000円くらいしかありません
玄人志向のSAPARAID-PCIやSATARAIDが2000円前後なので、それにしようかとも思ったのですがCentosで使えるのかなあと

実はこれまで職場ではIOのNAS使ってたのですが、頻繁に壊れるので何度かLinuxでデータをサルベージしてました
RAID対応のNASに買い替えようとも思ったのですが、企業向けはコストかかるのでどうせならファイルサーバーに1本化しようかなと

これまでCentosをのせていたPCは、玄人志向のATA133RAID-PCIのカードを取り付けRAID1で使用していましたが
160GBしかHD乗せて無かったので業務で使うには容量が足りず、データの受け渡し用にだけ使っていました。

構成はサーバー用にDELLの5〜6年くらい前のPC (CPU PENTIUM4 2.4GHZ、メモリ768MB PCIバス)
クライアントPCのOSはWindows XP、7、2000、Mac OSX 、Mac OS9など20台ほど(使用する人間は10人程ですが)

本当なら業務で使用するのだから、もっと高価なシステムを組むべきなのは重々分かっているのですが
何せ零細企業な上、私の裁量で稟議が降りるのが以前は10万だったのが、2万に減ってしまって(涙
それとも、この程度のクライアント数ならソフトRAIDにすべきでしょうか
ソフトRAIDでミラーリング組むと速度が落ちると聞いたのですが(聞きかじりです)

私の知識不足と長文申し訳ないですが誰か答えてくださるか誘導してくださると助かります。
よろしくお願いいたします。

131 :login:Penguin:2010/04/04(日) 00:14:11 ID:N/Mg7OeJ.net
金が無いなら知恵を死ぬ気で付けるしかない。
(最低このスレ全部読むくらいはやるんだろ?)

ってことはさておき、md使ったソフトウェアraidで良い。
カードもRAIDなんちゃらなんて付いてなくてATAカードで十分。
玄人志向だと以下から適当にどうぞ。
http://www.kuroutoshikou.com/products/select/interfacefset.html



132 :login:Penguin:2010/04/04(日) 07:40:07 ID:5YeefPIg.net
「ちゃんとした」ハードウェアRAIDカードを買う予算(8〜10万程度)
がないならソフトウェアRAIDを選択すべきだろうね

> ソフトRAIDでミラーリング組むと速度が落ちると聞いたのですが(聞きかじりです)

実際に試してみりゃいいじゃん。
「これまでCentOSを載せていたPC」とやらがあるんだろ?

133 :130:2010/04/04(日) 08:28:25 ID:sEcjxQNn.net
>>131-132
ありがとうございます。
いろいろめんどくさい条件書いてすみませんでした。
ソフトウェアRAIDでいってみます。

134 :login:Penguin:2010/04/07(水) 14:09:14 ID:0r9wUKJP.net
ソフトウェアraidのほうが部品点数が少ない分、故障も少なく可用性が高くていいな。

135 :login:Penguin:2010/04/07(水) 18:03:44 ID:jIRW8AWX.net
前スレに出てたけど
HDDが一個故障したらOSごと落ちちゃうような
(RAIDの意味がない)トラブルが起こる可能性は
HW RAIDより高いけどなw

136 :login:Penguin:2010/04/07(水) 19:05:51 ID:N4cK5rbU.net
前スレのどこにそんな事例があったのかソースくらい欲しいものだな

137 :login:Penguin:2010/04/07(水) 19:11:34 ID:jIRW8AWX.net
>>431-441

138 :login:Penguin:2010/04/07(水) 19:26:00 ID:rX+zbI9D.net
そーだな。5000円のカードよりは10万円のカードの方がマシだな。

139 :login:Penguin:2010/04/08(木) 03:30:23 ID:Hw13iH1s.net
>>135
前スレのはIDEのドライバの出来に影響されるって話だね。
SATAでも、ポートを増やすのにクロシコのカードを何枚も使ってたら可用性が高いとは言え無いだろうねw

でも最近のHW RAIDカードはSAS用に傾いてるから、SATAのHDDとの互換性の問題が多いんだよね。
エンタープライズモデルのHDD以外のサポートを拒否してるarecaとかね。
俺はarecaも使っててHDD選びですごい苦労してるんで、
その点ソフトウエアRAIDだとHDDは何でも良いんで楽でいいよw

140 :login:Penguin:2010/04/08(木) 12:51:30 ID:fx0Q1ZmL.net
> 前スレのはIDEのドライバの出来に影響されるって話だね。

コントローラ次第、という話であって、ドライバの出来に限定した話ではないかと。
(ドライバも要素の一部ではあるが)

俺はSW RAIDの一番のメリットは可用性ではなく、
HW環境に依存しない、という点だと思ってる。
(経験上、停めずに使うという点ではむしろHW RAIDの方が有利)

HW RAIDの場合、万一コントローラが故障した場合、同じ機種を調達しないと
アレイの中身の読み書きができなくなってしまう。
(同じメーカーでも別機種だと大抵はアレイの完全互換を保証していない)
既に調達不能になっている場合はどーしようもない。
仮に予備が買ってあったとしても、一台故障したらもう「次」はない訳で。

SW RAIDなら、OSがLinuxである限り、HDDとして認識してくれりゃHWはなんでもOK。
取り敢えず適当なPCに取り付けてやれば、アレイの読み書きは可能になる。

非常時のことを考えると、この差は大きい。
ま〜結局は、運用コストの差、という話ではあるがw

141 :login:Penguin:2010/04/08(木) 19:15:49 ID:5/ctPl71.net
>>122
mdadmのmanページ、-eオプションのところにバージョン毎の違いが書いてある。
ストライピングに関する記憶は朧げだけど、メタデータはmdデバイスではなく、
コンポーネントデバイスに書き込まれるため、ストライピングの対象にならない。
はずなんだけど、自信がないな。
mdadmはdefault==0.90だけど、ディストロのパーティション管理では、
異なることがある。例えば、openSUSEはRAID1の場合は1.0だった。

142 :login:Penguin:2010/04/08(木) 20:27:51 ID:+Jfsgp79.net
だから並盛を安くするんじゃなくて、大盛りをもう少し安くて
特盛りをもっと安くすればいいんだよ。

どうせ客層なんて男ばっかりなんだから。

143 :login:Penguin:2010/04/08(木) 20:28:43 ID:+Jfsgp79.net
ごめんとしか言いようがない。

144 :login:Penguin:2010/04/08(木) 20:38:47 ID:P5Oyw2sf.net
男がみんな大食いだと思ったら間違いだ。

145 :login:Penguin:2010/04/12(月) 23:05:43 ID:AKilMbBg.net
>>142
よかったな
ttp://getnews.jp/archives/55557

146 :login:Penguin:2010/04/15(木) 20:38:03 ID:3rydDv6Y.net
>>130
亀レスで何だが、使用者が10人程度なら
可用性よりバックアップを優先すべきだと思うが

バックアップはしてるの?
サルベージしているなら怪しいと思ってるんだが。。。

147 :login:Penguin:2010/07/20(火) 11:37:42 ID:q/Lsg0js.net
raid1壊れますたorz

syslog↓になんかずらずら出てるんですが、意味わかりませんorz
http://loda.jp/vip2ch/?mode=edit&edit=432

半年ぐらいしか使ってないディスクなんですが物理的にイカレてしまったのでしょか?
Jul 20 10:35:11 orz kernel: [ 6174.320131] ata3.00: model number mismatch(略) あたりマトモでない気がしますが…
ディスクから異音とかはないです

よろしければアドバイスお願いします

148 :login:Penguin:2010/07/21(水) 20:36:37 ID:2+4uaJQ3.net
>>147
エラー出てるね
> ata3: SError: { 10B8B Dispar BadCRC LinkSeq TrStaTrns UnrecFIS }

下記サイトによれば、SATAケーブルor電源が怪しい

ttps://ata.wiki.kernel.org/index.php/Libata_error_messages#SATA_SError_expansion
>These bits are set by the SATA host interface in response to error conditions on the SATA link.
>Unless a drive hotplug or unplug operation occurred, it is generally not normal to see
>any of these bits set. If they are, it usually points strongly toward a hardware problem
>(often a bad SATA cable or a bad or inadequate power supply).

個人的には熱暴走とかもありうると思うけど


149 :login:Penguin:2010/07/21(水) 22:35:51 ID:AJuBZV4Q.net
>>147
こりゃ完全にケーブルだ。
もしSATAケーブルがノッチ無しなら、ケーブルの両端を洗濯バサミで一晩挟んどけ。
結構効く。

150 :login:Penguin:2010/07/21(水) 22:37:31 ID:At+yPwQO.net
こんなどうしようもない対策がなるほど効いてしまうだろうなぁと思える
SATAコネクタ仕様を考えた奴はケーブルで首吊って詩ねばいいのに

151 :login:Penguin:2010/07/22(木) 10:30:29 ID:ruiGCZGt.net
SATAケーブルで吊るなんて出来ないだろ…と, 思ってたら,
隣の国で, 携帯のケーブルで吊った還流スターが居るの思い出して
涙が出ちゃったじゃないかー!そんなこと言うなよ〜

後付けの抜け防止金具とゆーものが無かったっけ?

152 :login:Penguin:2010/07/22(木) 10:34:04 ID:jxrupwtP.net
>>149
「ラッチ」のことか?

153 :login:Penguin:2010/07/23(金) 15:40:37 ID:aflCmZfG.net
>>150
こんなんだしなあ
USBの方はケーブルにも認証試験を行うようになったのにな

http://pc.watch.impress.co.jp/docs/column/interface/20100722_382306.html
>この話は別に今に始まったわけではなく、Gen2の頃からこうした問題は出ていたが、SATA-IO自身はこれに関して特に動く予定は無いというか、
>たとえばコンプライアンステストを通った製品にロゴを付加するといったキャンペーンは(過去に販売したケーブルは使えない、と言っているのと同義語なので)
>むしろ相互運用性を損なう事になりかねないとしており、
>引き続きケーブルに関しては、ごちゃごちゃのままの環境が続くことになりそうである。

154 :login:Penguin:2010/07/23(金) 21:47:22 ID:czPuWn9X.net
>>148-153

みなさんアドバイスありがとうございます

SATAケーブルが怪しい件了解です

機械のフタ開けて
SATAケーブルのコネクタを確認してみることにします
今日はもうマンドクサwなので明日ぐらいにでも

ガシッとはめて直ったらいいなと期待しています
では〜

155 :login:Penguin:2010/07/23(金) 22:42:05 ID:MvgvZIr6.net
>>154
ガンバレ
syslogにハードディスクデバイス関連のタイムアウトが頻発したらケーブルを疑う癖をつけるんだ。
SATAケーブルとの約束だぞ。

156 :login:Penguin:2010/07/27(火) 20:40:58 ID:+DF9ERUV.net
お手数かけますが、教えてください。

Debianです。
現在、SATA HDD8台、ソフトRAID6で運用中,。
HDDはオンボ4ポート、PCI SATAカード4ポートです。

SATAカードをPCI-eのSAS6iRに交換して、8ポートともSATAカードから接続したいと思います。
最終的には、SAS6iRに8台接続してデータはそのままで元の状態に戻したいのです。
どういう手順で行えばいいのでしょうか?



157 :login:Penguin:2010/07/27(火) 20:49:11 ID:zh7Of8ZU.net
Debianもudevなんだからそのまま新カードに挿して
Grub入ってるのBIOSで一番にしとけばいんじゃねの?

158 :login:Penguin:2010/07/27(火) 23:29:08 ID:PZTE8ajp.net
>>156
ディスクが接続されてるコントローラを意識しなくてもokだと思うが。

俺の場合、

1.C3-800MHzのPCにPromise SATA300TX4にSATA HDD×3を接続し、RAID5アレイ構築
2.パリティ計算の余りの遅さに耐えかねて(CPUファンもぶっ壊れたし)GA-D510UDを導入
3.GA-D510UDのオンボードSATA(NM10統合ので2ポート, JMicronので2ポート)にHDDを4台接続
4.もう1台ディスクを足してオンライン領域拡張
5.オンボードSATAはホットスワップが効かないことが判明したのでPCIスロットにSATA300TX4を挿してHDDを繋ぎ替え

というステップを経て現在に至るが、繋ぎ替えてもすんなりアレイを認識してたぞ。

159 :login:Penguin:2010/07/27(火) 23:35:52 ID:CDEVG/fS.net
>>156
RAIDボードのBIOSからExpoprt JBODとかか?
PromiseだとJBOD利用でも必ずBIOSからUnitを作成しないとデバイスが認識しなかった。

160 :login:Penguin:2010/07/28(水) 00:58:03 ID:C+9PDLMA.net
Promiseは平然と「1台構成でもアレイ組まなきゃ見えませんから^^」とか言い出す基地害板だからな

161 :login:Penguin:2010/07/28(水) 09:01:33 ID:E6Ms9Bcd.net
HardRAIDカードって壊れたときの対処ってどーなんすか?

HDD2個でRAID1使ってた場合
復旧不可能?

162 :login:Penguin:2010/07/28(水) 11:42:36 ID:fYI1FyG/.net
何がどう壊れたかによって話が変わる
漠然と言われても

163 :login:Penguin:2010/07/28(水) 12:29:45 ID:esiaNd7h.net
>>160
HighPoint RocketRAID 2300とかは「1台でもアレイ組め」に加えて、
POSTの際に繋がってるディスクのデータを(アレイのメンバじゃなくても問答無用で)壊すけどな!

164 :login:Penguin:2010/07/28(水) 14:26:58 ID:lqUxMOoj.net
>>163
それ嘘だ。
イニシャライズせずにレガシーのまま使えばアレイ組まなくても使える。

165 :163:2010/07/28(水) 14:43:25 ID:esiaNd7h.net
>>164
1台でもアレイ組めは俺の記憶違いか。すまん。


166 :login:Penguin:2010/07/28(水) 17:14:44 ID:fXbebyC4.net
>>165
いやいや、結構はまりやすいよ。RAIDボードでのSingle DiskとJBODの設定は。
前者はハードディスクを消去するボードもあるし、後者もJBODでもUNITを作成しないとハードディスクを認識しない等。
俺もいろんなメーカーのRAIDボードメンテナンスしていたが今でもごちゃごちゃ。
一番楽なのはLinux SoftwareRAIDだな。

167 :156:2010/07/29(木) 19:45:06 ID:MQlBotXc.net
みなさんの言うとおり、SAS6iRを挿しそのままHDDをつなぎ替えて起動してみましたところ初めからHBAとなり、何もせずに移行できました。
ありがとうございました。


168 :156:2010/07/29(木) 22:21:04 ID:MQlBotXc.net
ベンチ計測してみた。
SAS6iR HDD8台(WD10EADS) ソフトウエアRAID6
hdparmでread測定したら、251MB/sだった。
たぶん遅い部類なんだろうな。

169 :login:Penguin:2010/07/29(木) 22:31:18 ID:hc5F77Bz.net
>>168
多分バス速度で頭打ち。

170 :login:Penguin:2010/09/04(土) 01:19:05 ID:XZAw0nxj.net
ttp://hellokitty68.main.jp/wiki/Linux_Software_RAID5

ここを参考にしてraid1からraid5へ移行する実験をしてるのですが、
echo raid5 > /sys/block/md0/md/level
の段でこけます。
-bash: echo: write error: デバイスもしくはリソースがビジー状態です
となります。
viしてもE667 : Fsync failedでやっぱり変更できません。
原因や対策をご存知の形はいらっしゃいませんか?
OSはCentOS5.5、Fedora13の両方で試しましたが同じような状況です。
環境はVM上です。

171 :login:Penguin:2010/09/04(土) 07:17:14 ID:w4DAMBkG.net
http://itpro.nikkeibp.co.jp/article/Keyword/20091106/340168/

そもそもそんなことが出来るのを今知った

172 :login:Penguin:2010/09/04(土) 11:47:48 ID:gxReY0uS.net
Fedora12の5→6はecho raiid6 で行ったがなぁ
addした後で
# mdadm --grow /dev/mdXn --raid-level 5 --raid-devices=3 --backup-file=どっか
で行かんかな

173 :login:Penguin:2010/09/04(土) 16:30:06 ID:RWU7tg0Q.net
>>170
情報が少なくてよくわかんない
とりあえず、以下のコマンドの実行結果を貼ってくれれば何かわかるかも

# cat /proc/partitions
# cat /proc/mdstat
# mdadm --detail /dev/md0


174 :login:Penguin:2010/09/04(土) 18:28:47 ID:PnMMuH/V.net
>>170
ちゃんとrootユーザで実行したか?
sudoで実行しても蹴られるぞ。

$ sudo -s

でrootになってもう一度実行してみて。

175 :login:Penguin:2010/09/04(土) 18:41:14 ID:XZAw0nxj.net
>>170です
参考にしていたサイトがSUSEを使ってやったようなので、
ためしにSUSE11.3で同じようにやったら問題なく出来ました。

実際にCentOSで500GBのRAID1を組んでるファイルサーバーを
将来的にRAID5で運用したいと思い実験をしています。
ですのでCentOSで出来るようになるのが目標です。

>>172
もうしわけないです。
--backup-fileオプションの使い方が良くわかりませんでした。
勉強します。

>>173
次のレスに貼り付けます。

176 :login:Penguin:2010/09/04(土) 18:45:24 ID:XZAw0nxj.net
# cat /proc/partitions
major minor #blocks name

8 0 8388608 sda
8 1 104391 sda1
8 2 522112 sda2
8 3 7759395 sda3
8 16 4194304 sdb
8 17 4192933 sdb1
8 32 4194304 sdc
8 33 4192933 sdc1
8 48 4194304 sdd
8 49 4192933 sdd1
9 0 4192832 md0


# cat /proc/mdstat
Personalities : [raid1]
md0 : active raid1 sdd1[2](S) sdc1[1] sdb1[0]
4192832 blocks [2/2] [UU]

unused devices: <none>

177 :login:Penguin:2010/09/04(土) 18:47:23 ID:XZAw0nxj.net
# mdadm --detail /dev/md0
/dev/md0:
Version : 0.90
Creation Time : Fri Sep 3 23:42:20 2010
Raid Level : raid1
Array Size : 4192832 (4.00 GiB 4.29 GB)
Used Dev Size : 4192832 (4.00 GiB 4.29 GB)
Raid Devices : 2
Total Devices : 3
Preferred Minor : 0
Persistence : Superblock is persistent

Update Time : Fri Sep 3 23:58:31 2010
State : clean
Active Devices : 2
Working Devices : 3
Failed Devices : 0
Spare Devices : 1

UUID : 5e7be737:36419030:20c51d1d:ba7d4872
Events : 0.2

Number Major Minor RaidDevice State
0 8 17 0 active sync /dev/sdb1
1 8 33 1 active sync /dev/sdc1

2 8 49 - spare /dev/sdd1

178 :login:Penguin:2010/09/04(土) 18:52:43 ID:XZAw0nxj.net
>>174
もちろんrootです。
今再確認してやってみましたがやはりrootでもダメでした。


# fuser /sys/block/md0/md/level

ってやっても結果が返ってこないから
プロセスが使ってるとかではないように思います。
それともfuserの使い方間違えてるのかなぁ・・・



179 :login:Penguin:2010/09/04(土) 20:45:43 ID:PnMMuH/V.net
>>178
ブロックデバイスの3重RAID1に変換してから、3デバイスのRAID5に変換してみて。

180 :login:Penguin:2010/09/04(土) 22:58:56 ID:XMPA/Vxp.net
>>171には、カーネル2.6.30以降とか書いてあるのだが
CentOSは2.6.18とかだろ?
Fedora13で不可(>>170)というのはわからんけどね。

正確にどのバージョンから可能になるのか、俺は知らないが。

181 :login:Penguin:2010/09/05(日) 00:04:30 ID:HUBnDTBu.net
>>179
# mdstat --grow /dev/md0 -n 3
をやるってことですよね?

その後、
--glow -l 5とかやってもダメでした。
例のファイルへのechoも相変わらず蹴られます。

182 :login:Penguin:2010/09/05(日) 13:59:40 ID:ca0DYFqh.net
>>180
年末〜来年明け頃リリースされるであろう
EHEL6(Kernel2.6.32)ベースのCent6待ちと勝手に予測

183 :login:Penguin:2010/09/05(日) 23:51:45 ID:0TzuHuxG.net
>>181
残念ながら、>>180の指摘のとおりCentOS5のカーネルが古くてダメっぽい

CentOS5の環境にRHEL6のカーネル(2.6.32)だけを(無理やり)入れて、
2.6.32で起動すればRAID1->RAID5に変更できた。

RHEL6のカーネルは↓のSRPMからCentOS5上でビルドしたけど超面倒だった
ttp://ftp.ne.jp/Linux/distributions/redhat/ftp.redhat.com/rhel/beta/6/source/SRPMS/kernel-2.6.32-19.el6.src.rpm

データのバックアップを取ってRAIDアレイを作り直した方が安全&確実


184 :login:Penguin:2010/09/06(月) 18:34:36 ID:tFSr8hS+.net
Fedora13(今は2.6.34)で出来ないのがホント不可解だよね
metadata 0.90が悪いのかと思ったけど手元ではそんなこと無いし

185 :login:Penguin:2010/09/06(月) 21:02:06 ID:mrESGec/.net
fedora13のインストーラーのカーネル(2.6.33.3-85.fc13.x86_64)でも
普通にRAID1→RAID5に変更できたよ
>>170のfedora13で出来ないってのは何かの間違いだと思う


186 :login:Penguin:2010/09/08(水) 11:21:02 ID:4n0gc/4A.net
>>170です

>>182
いや、そうならそうで早く出て欲しいですね。。。

>>183
ビルドしたってことはrpm -ivh ではないんですよね?
カーネルの構築はLinuxを弄り始めた頃に挫折して、
それ以来一度もやってなくて苦手意識ありありです。
もしよければさわりだけでも教えていただけますか?
ググったところ、ここが参考になりそうとは思ったのですが。
ttp://www.atmarkit.co.jp/flinux/rensai/linuxtips/a113rebuild.html

>>184>>185
うーん、もしかしたら僕の作業に間違いがあったかも知れません。
もう一度やってみます。


SUSEインストール→Raid5に変更→CentOSインストールしなおし
で出来たにはできたけど、これはちょっと非現実的ですよね。
目標は現在のOSのままやりたいので。
その点では>>183さんのように
Raid変更のためだけにカーネルだけ変えて起動するっていうのが
いいような気がしました。

187 :login:Penguin:2010/09/09(木) 00:31:31 ID:uO+QGL4T.net
>>186
knoppixみたいなLiveCDは?
一応手順も貼っとくけど、自己責任でヨロ

0. kernel-2.6.32-19.el6.src.rpmをダウンロード
(/root/kernel-2.6.32-19.el6.src.rpm)

1. ディレクトリ準備
# cd /usr/src/redhat
# mkdir BUILD RPMS SOURCES SPECS

2.SOURCESディレクトリでSRPMを展開(何故か、rpm -iで入れようとしたらCRCエラーと言われたので)
# cd /usr/src/redhat/SOURCES/
# rpm2cpio /root/kernel-2.6.32-19.el6.src.rpm | cpio -id

3. config-genericを編集
# vi config-generic
→以下の2行を追加
CONFIG_SYSFS_DEPRECATED=y
CONFIG_SYSFS_DEPRECATED_V2=y

4. kernel.specをSPECSディレクトリに移動&編集
# mv kernel.spec ../SPECS/
# cd ../SPECS/
# vi kernel.spec
→2箇所変更
 コメントアウトされている「%define buildid〜」のコメント解除し、適当に変更(例:%define buildid .centest)
 「%define signmodules 1」を「%define signmodules 0」に変更

つづく

188 :login:Penguin:2010/09/09(木) 00:38:48 ID:uO+QGL4T.net
>>187のつづき
5. パッケージビルド(--targetは適宜変更)
# rpmbuild -bb --target=i686 --without kdump --without perf --without perftool --without kabichk --without fips --without debuginfo --without dracut --without vdso_install kernel.spec
→エラーが無ければ/usr/src/redhat/RPMS/i686/にカーネルパッケージが出来る

6. カーネルパッケージを強制インストール
# cd /usr/src/redhat/RPMS/i686/
# rpm -ivh --nodeps kernel-2.6.32-19.centest.i686.rpm
 ちなみに、"--nodeps"無しの場合のエラー
kernel-firmware >= 2.6.32-19.centest は kernel-2.6.32-19.centest.i686 に必要とされています
grubby >= 7.0.4-1 は kernel-2.6.32-19.centest.i686 に必要とされています
mkinitrd >= 6.0.61-1 は kernel-2.6.32-19.centest.i686 に必要とされています
udev < 145-11 は kernel-2.6.32-19.centest.i686 と競合します。

7, 初期RAMディスク再作成
テストした環境では、この時点で作成されている初期RAMディスクが異常で起動できない
(mkinitrdの依存無視してるから当たり前?)
展開してみると、sd_modが入っていなかった
sd_mod及び依存ドライバを含めて初期RAMディスク作り直し

# mkinitrd -f --builtin=ehci-hcd --builtin=ohci-hcd --builtin=uhci-hcd --with=sd_mod --with=scsi_tgt --with=crc-t10dif /boot/initrd-2.6.32-19.centest.i686.img 2.6.32-19.centest.i686
(↑4で設定したbuildidの合わせてファイル名とカーネルは適宜変更)

VMware Workstation 7の仮想マシンは上記でOK。
ハードウェア構成で必要なドライバは変わるので、事前に2.6.18のカーネルが起動した状態で
ロードされているドライバを確認しておき、必要に応じて初期RAMディスクに含めること。

8. 再起動→2.6.32で起動OK


189 :login:Penguin:2010/09/11(土) 13:37:57 ID:ylGEDvFt.net
>>187
本当に丁寧に教えていただいてありがとうございます。
本当に面倒な作業なんですね。
今夜にでも試してみようと思います。


fedora13のLiveCDを使って/sys/block/md0/md/level
の書き換えが出来ました。
正確には/sys/block/md127/md/levelです。
LiveCDで起動したらmd127にされてしまいました。
そのままecho raid5やって、
CentOSで再起動。
再起動後にもlevelファイルの中身はraid5だったので、
growしてみたところうまくいきました。
で、md127のままなのが気に入らなかったので
#mdadm /dev/md127 -f /dev/sdb1 /dev/sdc1 /dev/sdd1
#mdadm /dev/md127 -f /dev/sdb1 /dev/sdc1 /dev/sdd1
#mdadm --misc --stop /dev/md127
#mdadm -C /dev/md0 -l 5 -n 3 /dev/sdb1 /dev/sdc1 /dev/sdd1

と、これでmd0になりました、データも失っていません。
これ以外の方法が思いつかなかったんですが、
もっとスマートな方法があったら教授願いたいです。
mdadmまだ使いこなせてません。

カーネルが古くてもmdadmのバージョンが条件を満たしていれば
できるみたいですね。

みなさん、親身になって答えてくださりありがとうございました。

190 :login:Penguin:2010/09/11(土) 13:46:22 ID:D+LL5OKu.net
--super-minor=0 --update=super-minor

191 :login:Penguin:2010/09/14(火) 21:32:42 ID:Oy6zCGq+.net
-l1したら/bootにする場合でRAIDを理解しないローダー使うときは--metadata=0.90指定しろよ、って言われたわ
>>116-122

192 :login:Penguin:2010/09/17(金) 23:06:24 ID:QPHXo1u7.net
チラ裏メモ

Fedora12 x86_64(mdadm 3.0.3-2)だと7台構成のRAID6→8台構成にreshapeしようとすると

mdadm: Need to backup 120K of critical section..
mdadm: /dev/md1: failed to save critical region

でエラー
Fedora13 x86_64(mdadm 3.1.2-10)にupgradeしたら

mdadm: Need to backup 120K of critical section..
(黙ってreshape開始)

で成功

mdadm 3.0.3-2のままでもRAID5の6台→7台の変更と7台のRAID5→7台のRAID6はできたので
3.0.3-2には半端に不具合が残ってる気がする

193 :login:Penguin:2010/09/20(月) 08:16:15 ID:YPDhyYqG.net
WD20EARSでRAID6組もうと思うんだけど、AFTってなんか関係してくるん?

194 :login:Penguin:2010/09/21(火) 01:48:27 ID:MEa3sArJ.net
>>193
http://hibari.2ch.net/test/read.cgi/jisaku/1279640392/475

kernel が対応していれば問題なしかと

195 :login:Penguin:2010/09/21(火) 19:49:57 ID:sGME08sR.net
>>193
ハードウェアRAIDカードの場合、一部のカードで不具合報告あるから要確認
http://hibari.2ch.net/test/read.cgi/jisaku/1275144136/108


196 :login:Penguin:2010/09/23(木) 10:27:21 ID:aw/haffN.net
>>193-194
回答ありがと。

SAS6/iRでソフトRAID6なんだが報告なさげだから人柱なのかな?

197 :login:Penguin:2010/09/24(金) 20:46:05 ID:a9oJcDud.net
>>195
あ、なつかしい。俺がまとめた奴だw
引用ありがと。

198 :login:Penguin:2010/10/01(金) 15:40:17 ID:lKU+sDuG.net
CentOS 5.4でHDD3台をRAID5でひとまとめにして使っていました。
最近になって容量が足りなくなってきたので、
同じ容量のHDDを1台追加し、領域拡張しょうとしているのですがうまくいきません。

http://liliumrubellum.blog10.fc2.com/blog-entry-181.html

ここの手順通りに進めたのですが、最後にファイルシステムを拡張するところで

# resize2fs -p /dev/md0
resize2fs 1.39 (29-May-2006)
resize2fs: デバイスもしくはリソースがビジー状態です while trying to open /dev/md0
Couldn't find valid filesystem superblock.

このようなエラーメッセージが表示されます。
マウントしているのがいけないのかと思い、umountを実行しましたが、
resize2fsのエラーメッセージは変化ありませんでした。

どうしたらうまく拡張できるのでしょうか?

ちなみに、マウント先は/homeで、アンマウント方法はumountコマンドだけでなく、
/etc/fstabを書き換え、起動時からこのデバイスをマウントしないようにすることも試しましたが、
結果は変わりませんでした。

199 :login:Penguin:2010/10/01(金) 17:10:57 ID:iIUT3HXi.net
Centの5.4辺りのkernelとmdadmのバージョンで
Online RAID Level Migrationってできるんだっけ?

200 :198:2010/10/02(土) 09:00:00 ID:l0eD4IK+.net
参考にしたサイトには書かれてないみたいですが、
lvextend -l 89425 RAID5_01/home
で論理ボリュームを拡張したあと
e2fsck -f /dev/RAID5_01/home
を実行すれば、追加HDD分の容量が増えました。
マウントしていない状態で行ったので、アンマウント必須かはわかりません。
次やるときはマウントせずに試してみます。

あと、/etc/mdadm.confに
num-devices=(数字)
という記述がなかったので、今回は何も書き換えなかったのですが、
特に問題なく動いているみたいです。
ディストリによってはこのファイルの書き換えは必要ないのでしょうか。

とにかく、そんなわけで自己解決しました。お騒がせしました。

201 :198:2010/10/02(土) 10:24:36 ID:l0eD4IK+.net
誤: 次やるときはマウントせずに試してみます。
正: 次やるときはマウントしたまま試してみます。

でしたorz

202 :login:Penguin:2010/10/02(土) 10:30:33 ID:QA6hlIsa.net
>>200
リンク先のページを開こうとするとブラウザが固まるんで判らんのだが、要するに

自分とこのシステム構成(RAID + LVM + ext3)を把握しないまま、
RAID + ext3のシステムについて書いたブログエントリをそっくりそのまま真似して
「うまくいかない!」

……というオチ?

203 :198:2010/10/02(土) 16:57:53 ID:l0eD4IK+.net
>>202
だいたいそんな感じです。
さすがに自分のところの構成くらい把握してるつもりですが、
どこ見てもこのやり方で書いてあったんで、
ほとんどの構成で通用するやり方だと思い込んでいました。

さらにエラーメッセージが

resize2fs: デバイスもしくはリソースがビジー状態です while trying to open /dev/md0

なので、これを読んで「LVM使ってるからやり方が違うんだ」
という発想にたどり着けず、途方にくれてました。

204 :login:Penguin:2010/11/03(水) 14:54:37 ID:EB+4MiCj.net
最近のマザーボードはRAIDカード搭載の物が多いですけど
Linuxで使うならソフトウェアRAIDの方が無難ですか?

205 :login:Penguin:2010/11/03(水) 15:02:33 ID:+mHxq1R3.net
>>204
いえす

206 :login:Penguin:2010/11/03(水) 15:58:28 ID:aR2r0zLp.net
>>204
×最近のマザーボードはRAIDカード搭載の物が多いですけど
○最近のマザーボードはRAID機能搭載の物が多いですけど

ソフトウエアRAIDだとハードウエア(マザーとかボードとか)変えてもコマンド打てば復活する
移し変え時の別のハードウエアへの接続位置(順)は適当でいい
1,2,3,4→2.4.1.3としてもちゃんと復活してくれる

ハードウエアRAIDだとハードウエアを変えるとデータがあるのに見えない
場合によっては消える


207 :login:Penguin:2010/11/03(水) 16:29:41 ID:EB+4MiCj.net
>>205,206
ありがとうございます
ソフトウェアRAIDにしておきます

208 :login:Penguin:2010/11/03(水) 16:34:52 ID:3a2ffMIU.net
>>206
「最近のマザーボード」とやらに載ってるようなのは
「ハードウェアRAID」ですらない。

>>206の書きようだとハードウェアRAIDには
何のメリットもないように見えるなw
たぶんハードウェアRAIDを使ったことがないんだろうが。

209 :login:Penguin:2010/11/03(水) 21:15:46 ID:KClY6dlN.net
マザボのRAID機能をどうこう言ってる相手に、ハードウェアRAIDのメリットも糞もないわw
メリットがあるとして、それを得るには幾ら投資すりゃいいのさ
個人レベルはもちろん、業務レベルでも一部を除けば、ソフトウェアRAIDで充分だよ

210 :login:Penguin:2010/11/03(水) 23:07:53 ID:uttDJDAa.net
費用対効果で考えればいい
同じ効果を安くできるならそれでいいって考え方でいいじゃん
人それぞれだけど

211 :login:Penguin:2010/11/03(水) 23:19:18 ID:uttDJDAa.net
ちなみにオレはソフトウエアRAID派
馬鹿なんで、USBメモリ起動で8台 RAID6で運用しています

USBメモリのイメージを別でとってあるんでUSBメモリが壊れても無問題


212 :login:Penguin:2010/11/04(木) 00:42:42 ID:A0zlTMZq.net
>>209
>>208の指摘は
(1)>>206は疑似HW RAIDとHW RAIDをゴチャマゼにしている
(2)HW RAIDにはSW RAIDとは違うメリットがある
という別々の二点なのだが?

213 :login:Penguin:2010/11/04(木) 00:45:21 ID:A0zlTMZq.net
(2)に関しては
>>206の書き方では初心者に誤解を与える
という指摘だな

214 :login:Penguin:2010/11/04(木) 03:20:39 ID:BL47owsD.net
>>212
擬似HW RAID用ドライバ開発されてなかったっけ?
ちょっとだけ負荷軽くなる奴

215 :login:Penguin:2010/11/04(木) 14:46:16 ID:1Zlxj7jT.net
SW RAIDの欠点はRebuildやResync時にI/Oバス帯域を食いまくるところか。

>>214
擬似HW RAIDは dmraidドライバでIntel/nVidiaチップセット向けRAID対応だったかも。

216 :login:Penguin:2010/11/05(金) 21:53:06 ID:ZjVbxW85.net
いろんな用途と複合的に使うにはHW RAIDが有利


217 :login:Penguin:2010/11/05(金) 22:48:44 ID:hdBmVs+M.net
SCSIのRAIDは信用できるが
IDE/ATA/SATAのRAIDはなんか信用できない
SATAならむしろOSの機能のソフトRAIDを選びたい

218 :login:Penguin:2010/11/05(金) 23:13:14 ID:9wgeowow.net
「なんか」とか

219 :login:Penguin:2010/11/05(金) 23:15:05 ID:QtPoCyoP.net
スカ爺の言うことだし

220 :login:Penguin:2010/11/06(土) 00:35:09 ID:Qew0bHFo.net
チッ、うっせーな…反省してま〜す

221 :login:Penguin:2010/11/06(土) 05:06:40 ID:6aJUodpE.net
>>211
フラッシュメモリをRAID5/6で使うと、あっという間に寿命が来るぞ。
バックアップ取ってあるなら、RAID0で使った方が寿命長いんじゃないか?

222 :login:Penguin:2010/11/06(土) 21:20:03 ID:/PdZ4pGk.net
フラッシュメモリは起動用でHDDは8台でRAID6ですよ
コレダメならESXやESXiのUSBメモリ起動もダメってことじゃ?

223 :login:Penguin:2010/11/08(月) 22:40:45 ID:/LP5nvaW.net
>>222
swapは?

224 :login:Penguin:2010/11/10(水) 20:17:26 ID:fV4mstBN.net
メモリ2Gしかないけど、作らない。


225 :login:Penguin:2010/11/12(金) 21:32:47 ID:10OTEzMQ.net
こんばんは。

Xenserver5.6(Centosがベース)上で、Windows2008R2をファイルサーバ
として動かしてます。

そして、ホスト側にてディスク2TB×4本でRAID10を組んでます。
ですが、ゲスト側に割り当てれるHDDイメージが1つあたり最大2TBまでのため、
しかたなく、2TBイメージ×2つを割りあえてて、ファイルサーバを動かしてます。

そのため、2008R2サーバ上ではディスクが2つ見える状態ですが、
使いやすくするために以下いずれかの方法で4TB×1にしたいのです。

 1.スパンボリューム
 2.RAID0

のいずれかでまとめるならば、1、2でパフォーマンスは異なったりするのでしょうか?
(スパンボリュームのほうは試しましたが、データがあるのであまり変更したくないです)

もし、知ってる方がいらっしゃいましたら教えていただけないでしょうか。

226 :login:Penguin:2010/11/13(土) 07:07:21 ID:bwqwb+4h.net
>>225
XenServerのことは知らんが、ネタは物理ドライブじゃなくて
ディスクアレイに置いてあるイメージファイルなんだろ?

同一アレイに置いてあるイメージファイルをRAIDをしても高速化するとは思えんから、
普通にスパンボリュームでいいんじゃね?

227 :login:Penguin:2010/11/13(土) 10:49:54 ID:RbGidMq7.net
>>226
試してみました。書き忘れましたがベースのRAID10はソフトウェア(mdadm)です

<条件>
* MB/s = 1,000,000 byte/s [SATA/300 = 300,000,000 byte/s]
OS : Windows Server 2008 R2 Datacenter Edition (Full installation) [6.1 Build 7600] (x64)

★JBOD
Sequential Read : 121.461 MB/s
Sequential Write : 95.109 MB/s
Random Read 512KB : 20.740 MB/s
Random Write 512KB : 34.521 MB/s
Random Read 4KB (QD=1) : 0.516 MB/s [ 126.0 IOPS]
Random Write 4KB (QD=1) : 0.881 MB/s [ 215.1 IOPS]
Random Read 4KB (QD=32) : 1.068 MB/s [ 260.6 IOPS]
Random Write 4KB (QD=32) : 1.073 MB/s [ 262.0 IOPS]

Test : 1000 MB [D: 0.0% (0.2/3718.3 GB)] (x5)
Date : 2010/11/12 22:56:08

228 :login:Penguin:2010/11/13(土) 10:50:35 ID:RbGidMq7.net
>>226
★RAID0
Sequential Read : 66.657 MB/s
Sequential Write : 82.209 MB/s
Random Read 512KB : 20.065 MB/s
Random Write 512KB : 42.841 MB/s
Random Read 4KB (QD=1) : 0.563 MB/s [ 137.4 IOPS]
Random Write 4KB (QD=1) : 2.608 MB/s [ 636.8 IOPS]
Random Read 4KB (QD=32) : 1.232 MB/s [ 300.8 IOPS]
Random Write 4KB (QD=32) : 2.544 MB/s [ 621.2 IOPS]

Test : 1000 MB [D: 0.0% (0.2/3718.3 GB)] (x5)
Date : 2010/11/12 23:19:09

★単体
Sequential Read : 225.816 MB/s
Sequential Write : 106.714 MB/s
Random Read 512KB : 30.901 MB/s
Random Write 512KB : 59.968 MB/s
Random Read 4KB (QD=1) : 0.694 MB/s [ 169.5 IOPS]
Random Write 4KB (QD=1) : 1.636 MB/s [ 399.5 IOPS]
Random Read 4KB (QD=32) : 1.336 MB/s [ 326.3 IOPS]
Random Write 4KB (QD=32) : 1.730 MB/s [ 422.4 IOPS]

Test : 1000 MB [D: 0.0% (0.2/1859.2 GB)] (x5)
Date : 2010/11/12 23:28:41

229 :login:Penguin:2010/11/13(土) 10:51:44 ID:RbGidMq7.net
>>226
結果、何もしないのが一番よいことがわかりました。
RAID0だとすごく遅くなり、JBODだと単体の半分ぐらいです。
(予想外の結果でした)

単体のドライブ2台を同時にベンチするとJBODぐらいのスピードに
なったので、恐らく書き込みなど分散→さらにRAID10にて分散など
無駄な感じとなって、落ちまくってるんだと思います。

#なんどやっても、同じでしたorz

230 :login:Penguin:2010/11/14(日) 00:17:04 ID:UO38LBbx.net
別にストレージ用のサーバ立ててiSCSIでマウントする
とかが当世風じゃね?
いろいろと融通が利くし

231 :login:Penguin:2010/11/14(日) 01:58:03 ID:IF1j6YbV.net
>>230
iSCSIでのディスク利用は考えてるのですが、ネットワーク周りを
強化してないので、とりあえずはローカルディスクで外部NASに
バックアップするような構成です。

iSCSI使うなら、ライブマイグレーションを使うことが目的になりそう
ですので、ホスト側を冗長しないとメリットなさそうですし、ディスク側
や経路上のNW機器も冗長しないと怖いです。
(ゲスト8台動いてますが、その最中にディスクが切り離されると
思うとゾッとします)

iSCSIを試す分には全然大丈夫なのですが、個人運用で本格利用
するにはコストがかかりそうなので今のところ見送ってます。

#ホスト側が落ちたら同じなんですけどね。でも、冗長化してないiSCSI
 利用よりかはトラブルが発生しにくいかなと思ってます。

#職場ではesxiを入れたブレードサーバとかで構築してますが。
 (もちろんディスクは外部で)

232 :login:Penguin:2010/11/15(月) 19:22:57 ID:gNCbtYKe.net
質問いいですか
win7とubuntuあたりでRAID構成を共有したいのですが、できますかね

233 :login:Penguin:2010/11/16(火) 11:08:25 ID:HeKRLUlf.net
>>232
一台でマルチブートって事?
ならオンボのRAIDドライバはどちらでも使える。

234 :login:Penguin:2010/11/16(火) 21:29:52 ID:JnnqGF7a.net
test


235 :login:Penguin:2010/11/16(火) 21:33:44 ID:VWoXCYbw.net
DELL SAS6/iR RAIDカード
で、
WD20EARS-00MVWB0
で、
ソフトRAID6いけるかな?

236 :login:Penguin:2010/11/16(火) 22:39:33 ID:Szhcfl18.net
8台くらいで構成したmdのraid5or6or10のベンチマークするとどの程度パフォーマンスが出るもんです?
そのうち自分でも試すつもりだけど参考用のデータとかあったりします?

237 :login:Penguin:2010/11/17(水) 21:34:48 ID:j19cjkTS.net
エスパー
RAIDするメディアにもよる

238 :login:Penguin:2010/11/20(土) 19:44:31 ID:cFLVa63Z.net
速度はあんまり出ないよ
シーゲートの7200回転1.5TB x 6 のRAID6
hdparm -ft /dev/md1
/dev/md1:
Timing buffered disk reads: 418 MB in 3.00 seconds = 139.15 MB/sec

239 :login:Penguin:2010/11/21(日) 00:09:27 ID:1IPGonEa.net
骨董品の幕の6L(250GB)*8本のRAID6で

/dev/md1:
Timing buffered disk reads: 874 MB in 3.00 seconds = 291.07 MB/sec

250〜300弱の間でふらふらする


240 :login:Penguin:2010/11/21(日) 11:17:38 ID:zCTXq4aL.net
情報サンクス。
今4台のRAID5でkvmのホストやらせてるがゲスト7つ起動するとdisk i/oで詰まってる感じがするので台数増やしたら改善できないかなと思ったのだけれど。
cpu負荷との兼ね合いもあるけどチャレンジしてみようかと思います。

これでkvm自体がボトルネックだったら泣けるなあ。

241 :login:Penguin:2010/11/21(日) 22:40:45 ID:jxLFhocQ.net
>>240
ゲスト毎に違うHDD用意するのが幸せになれるんじゃないの?
って、7台+システム1台はさすがに厳しいな

242 :login:Penguin:2010/11/28(日) 19:06:34 ID:gL5KRMCh.net
>>116
激しく遅レスだけど、WD20EARSでmd RAIDやるならポイント2つ押さえておけば大丈夫。

http://green-rabbit.sakura.ne.jp/blog/2010/11/27/2191/

- RAIDのデータ開始位置をセクタの区切りに合わせる
- LVMのデータ開始位置をRAIDのチャンクサイズに合わせる

ディスク丸ごとRAIDの対象にしてしまえば、パーティションテーブル関係なし。
(パーティションはRAIDディスクに対してLVMで管理)

243 :login:Penguin:2010/11/28(日) 22:00:44 ID:RmwuvbbY.net
6台のraid6をmdadmで構築していました。
1台FailになったのでHDDを交換して復旧させようとしたら
次々とHDDがFailになり復旧できなくなりました。

これってもうダメなのでしょうか?
dmesg見るとHDD自体は認識しているようなのですが。


244 :login:Penguin:2010/11/28(日) 22:25:22 ID:5Q0sCNVi.net
それってコントローラーかマザーボード/CPUが死んでるんじゃ…

245 :login:Penguin:2010/11/28(日) 22:27:33 ID:OW3cc9+0.net
同ロットのHDDで揃えてたんだろ。良い教訓。

246 :login:Penguin:2010/11/28(日) 22:31:24 ID:Tsm3YN7+.net
>>242
linux初心者にわかりやすくコマンドください
WD20EARS8台でRAID6にしたいのです

247 :login:Penguin:2010/11/28(日) 22:51:00 ID:RmwuvbbY.net
すみません。ちょっとパニくってましたw

mdadm --assemble --force /dev/md0
したら、とりあえず4台で再構築が始まったみたいです。

>>245
全部同じではないけれど半分くらいは同じだったかも。


248 :login:Penguin:2010/11/28(日) 22:54:14 ID:ZKkrEg8g.net
>>246
リンク先のエントリを読んで解らんヤツにれいどろくなど宝の持ち腐れである!

アレが解らん人間にディスクがお釈迦ってデグったアレイを復旧できるとは思えんなw

249 :login:Penguin:2010/11/28(日) 23:25:31 ID:Tsm3YN7+.net
キモは2つか

250 :login:Penguin:2010/11/28(日) 23:34:15 ID:hDElDxYb.net
>ディスク丸ごとRAIDの対象にしてしまえば、パーティションテーブル関係なし。

どうやるの?

251 :login:Penguin:2010/11/28(日) 23:57:43 ID:ZKkrEg8g.net
>>250
パーティションを指定する代わりにデバイス全体を指定すればいいだけ。

252 :login:Penguin:2010/11/29(月) 00:16:37 ID:5KK7FVso.net
パーティションタイプでfd(Linux RAID Auto Detect) を使う必要があるのかと思い、
1ディスク1パーティションの時でもパーティションを切っていたよ。。。。

253 :login:Penguin:2010/11/29(月) 00:36:55 ID:C+YWZRYM.net
>>252
/dev/sda1とかパーティションを切ったのに

mdadm --create -n 4 -l 5 /dev/sd[abcd]

でパーティションテーブルを吹っ飛ばす、というのはお約束なドジの一つだよねorz


254 :login:Penguin:2010/11/29(月) 05:05:30 ID:hkKkYSLf.net
でも、微妙な容量差を揃えられるように
1領域でもパーティションにした方が良いんじゃないかね。

255 :login:Penguin:2010/11/29(月) 20:05:55 ID:BBunKmhs.net
>>254 確かに。そのあたりは、下記でも触れられていますね。
https://raid.wiki.kernel.org/index.php/Partition_Types

個人的には、交換用に新しく買ったディスクのサイズがちょっと小さかったら、
そのとき対処すれば良いんじゃないかなー、と思ってます。

mdadm --grow --size= でサイズ変更するだけなので。

あ、RAID1以外だと時間かかりそうだし障害時にやるのはあれだから、
--create するときにあらかじめ --size しておけば良いんじゃないのかなー。

256 :login:Penguin:2010/11/29(月) 20:37:16 ID:NGnnNc2T.net
>ディスク丸ごとRAIDの対象にしてしまえば、パーティションテーブル関係なし。
6台でRAID6とかでも関係ない?

257 :login:Penguin:2010/11/29(月) 20:57:34 ID:BBunKmhs.net
>>256
関係ないよ。

>>255でも書いたけど、RAID6ならRAID構築するときにサイズ指定しておくと良いよ。
(サイズは HDD の容量から 100MB程度引いておく)

% mdadm --create --size=サイズ(ディスク1台当たりに使用するサイズ[kb],64の倍数)

そうじゃないとHDDこけて交換しようと思ったときに、
同一モデルHDDでも容量が少なかった場合に困る。

258 :login:Penguin:2010/11/29(月) 20:59:28 ID:rjjhbUoR.net
容量ちょっとだけ大きいの買ってくるだけでいいやん

259 :login:Penguin:2010/11/29(月) 21:03:21 ID:BBunKmhs.net
>>258
でも、2TB使ってそういう状況になったら、2.5TB とか 3.0TBとかになって、GB単価違いすぎて泣ける気が

260 :login:Penguin:2010/11/30(火) 09:57:13 ID:366LkoAx.net
結局後から面倒事が出てきて対処対処
パテ切ってるのと変わらんなw

261 :login:Penguin:2010/11/30(火) 22:54:26 ID:xrENs+QS.net
WD20EARSを8台買ってきた。
組む時間がないから放置することになるが、
正月休みぐらいに対処しようかと。
ソフトウエアRAID6に挑戦予定。

262 :login:Penguin:2010/11/30(火) 23:52:09 ID:leruRje6.net
>>260
パーティションきるのに比べたら、RAID構築時にオプション1個つけるだけのほうが楽だとおもうのだけれども。

切りたいのなら切れば良いと思うけど、物理セクタサイズ4096のHDDが何台かある場合、
ただ手間なだけな気がする。

263 :login:Penguin:2010/12/05(日) 13:14:20 ID:S0mL6ghv.net
LinuxのソフトウェアRAIDって、起動ディスクにはRAID0か1しか使えない?
ディスク丸ごとRAID(RAID5)を組もうと思ったけど、
その場合は起動ディスクは別に用意しないとダメでしょうか。

264 :login:Penguin:2010/12/05(日) 13:39:00 ID:VXlrPkOO.net
>>263
RAIDじゃなくて、ブートローダーの話だな
ttp://grub.enbug.org/LVMandRAID
>Version 1.97 and older only support RAID-0, RAID-1, and RAID-5. Version 1.98 adds support for RAID-4, RAID-6, and RAID-10.

265 :263:2010/12/05(日) 14:24:33 ID:S0mL6ghv.net
早速ありがとうございます。

grubが対応してればOkなんですね。
Cent5.5は0.97の模様。。。
近々出ると言うCentOS6を選択肢に入れたとしても、RHEL6が0.97。
ttp://distrowatch.com/table.php?distribution=redhat

ディスク丸ごとは諦めて、パーティション毎のRAIDにしようかと思います。


266 :263:2010/12/05(日) 14:35:29 ID:S0mL6ghv.net
すみません、読み間違えてました。1.97以前でもRAID5まではOkですね。


267 :login:Penguin:2010/12/05(日) 14:48:47 ID:jj4aKBuD.net
おーい、そりゃsince version 1.95の話だぞ
0.9xのGRUB Legacyと1.9xのGRUB 2を一緒にしちゃいかん

268 :263:2010/12/05(日) 15:04:53 ID:S0mL6ghv.net
度々すみません。ありがとうございます。

もっときちんと調べてから書き込まないと、ダメですね。。。。


269 :login:Penguin:2010/12/05(日) 23:43:26 ID:JVWK3etV.net
Fedora13/14だとgrubとは別にgrub2ってパッケージあるね

270 :login:Penguin:2010/12/21(火) 23:25:16 ID:/W3bFROY.net
アフォな質問だけど誰か教えて。
遊び用で富士通のRX100 S6ってのが手に入った。
BIOS に RAID の項目あるし、ブート時に LSI MegaRaid とか表示される
から SATA のハードウェアRAID だと思って、BIOS でミラーリングにして
CentOS 入れてからディスクをぶっこ抜いてみたら死んだw
調べるとどうやらフェイクRAIDってやつらしい。
dmesg 見ると dmraid で動いてるみたいだけど、フェイクRAIDって
片肺では動かないもの?

遊び用じゃない 3com のハードウェアRAIDだと障害発生時には
ホットスワップでディスク交換すればリビルドが自動で走るんだけど、
その感覚では使えない?

271 :login:Penguin:2010/12/21(火) 23:54:25 ID:dF/NfV63.net
こんなレベルのがハードウェアRAIDがどうこうソフトウェアRAIDがどうこう語れるのか・・・
いい時代だなぁ

272 :login:Penguin:2010/12/22(水) 00:04:06 ID:qSGG/Y5L.net
3com?3ware?

273 :login:Penguin:2010/12/22(水) 02:57:06 ID:7dCZswWv.net
>>270
RX100 56がホットスワップに対応してるかどうかをなぜ真っ先に調べんのだ。
>フェイクRAIDって 片肺では動かないもの?
片肺で動かなければRAIDの意味がないではないか。それとホットスワップ対応は別問題。

>>271
ディスクが安くなったからねー。


274 :login:Penguin:2010/12/23(木) 09:37:49 ID:KkUvrI/e.net
>>273
下らん質問にレスありがとう。
WEBにはRX100 S6のホットスワップの情報はないんだけど
ひとつ前のRX100 S5や他の3400チップ積んだ製品では
ホットスワップできてるみたいなんで、S6でもいけるかと思って。

275 :login:Penguin:2010/12/26(日) 01:51:39 ID:QJg0e+k3.net
>>257
新品2TB8台でRAID6しようとしたんだが、一番容量が小さいHDDってどうやって知るのかな?
サイズ指定(1664000000KBまで下げても)しても
largest drive (/dev/sdb) exceeds size (1664000000K) by more than 1%
と出ます
hdparm -I /dev/sd*
で調べても
同じセクタ数、同じdeviceサイズ(MB)なんでよくわからないんですが?


276 :275:2010/12/26(日) 11:11:24 ID:xJ7Ntxe/.net
自己解決
-zの値を大きくすればいいのね

WD 2TB
mdadm: /dev/sdb is smaller than given size. 1953513344K < 2000000000K + metadata
mdadm: /dev/sdc is smaller than given size. 1953513344K < 2000000000K + metadata
mdadm: /dev/sdd is smaller than given size. 1953513344K < 2000000000K + metadata
mdadm: /dev/sde is smaller than given size. 1953513344K < 2000000000K + metadata
mdadm: /dev/sdf is smaller than given size. 1953513344K < 2000000000K + metadata
mdadm: /dev/sdg is smaller than given size. 1953513344K < 2000000000K + metadata
mdadm: /dev/sdh is smaller than given size. 1953513344K < 2000000000K + metadata
mdadm: /dev/sdi is smaller than given size. 1953513344K < 2000000000K + metadata

当たり前かもしれんが8台とも同じだった


277 :login:Penguin:2010/12/26(日) 14:55:25 ID:xJ7Ntxe/.net
マウントまでいったんで、ベンチとってみた

ソフトウエアRAID6
WD20EARS-00MVWB0 *8
md0
READ 平均 388.27MB/s
WRITE 平均 159.583MB/s

まぁまぁだね

278 :login:Penguin:2010/12/27(月) 22:30:26 ID:2q1P0bSa.net
同じドライブを4台でmdadmのRAID5だが
Timing buffered disk reads: 996 MB in 3.00 seconds = 331.61 MB/sec

8台もある割にそんなでもないような…?

279 :login:Penguin:2010/12/28(火) 03:28:15 ID:HcJKc7c2.net
アホな質問ですが
mdraidで不良マーク→再起動→自動removeされちゃったデバイスを
--addして新たに書き直すんじゃ無くて
不良じゃなかった事にしてしれっとアレイメンバに戻す手ってありますか
Failったのは論理エラーでデバイス内データもHDDそのものの物理故障も無いって仮定で

280 :login:Penguin:2010/12/28(火) 05:35:16 ID:ddFMmW8s.net
mdadm --manage --re-add --force /dev/mdなんちゃら /dev/sdはずしたデバイス でどうでしょうか


281 :login:Penguin:2010/12/31(金) 01:43:34 ID:6jMIk7Lq.net
とりあえず2Tx4でRAID6を作ってみたので一応メモ。

まず、>>211-222のようなUSBメモリ起動を考えていた。
が、>>254-262のように全領域をRAIDにしようとしても、
結局ははRAID領域としないほうがよい微小な容量が残る。
ならば、それを/bootやswapとしてしまえばよい。
そのためには結局パーティションを切る必要があるが
それによって起動に必要な他のデバイスを省略できる。
また、>>263-268の疑問は、「/をRAIDにする」という意味ならば大丈夫。
起動時のカーネルは、/boot内にあるものを読みこみ
なおかつその時の/はinitrdから作ったRAMディスクだから。

というわけで、慣れないこともあって(AFT対応もあって)手間取ったし
トラぶってやり直しなんかもしたけど
なんとかCent5が起動はするようになった。

282 :login:Penguin:2011/01/06(木) 10:37:11 ID:LqVz0e3h.net
毎月第1日曜の00:57に実行されるmdadmのcheckarrayって
ものすごく負荷が掛かるんだけど、そもそもこれって必要なの?

283 :login:Penguin:2011/01/06(木) 10:40:13 ID:90P8MSkY.net
自分が最高に神に祝福されていると信じているなら不要

284 :login:Penguin:2011/01/06(木) 10:50:14 ID:LqVz0e3h.net
ietdで常時読み書きしているので負荷が上がるとエラーになるんだよね。
いい方法ないかしら。

285 :login:Penguin:2011/01/06(木) 18:58:21 ID:8qh0aVCJ.net
神に祈る

286 :login:Penguin:2011/01/06(木) 19:49:54 ID:GZ4wMjWn.net
>>284
checkarrayスクリプトの中でioniceを使ってIOスケジュールのクラスを'idle'にしてる
それでもエラーになるってことは、IO性能の限界。
キャッシュをたくさん積んだRAIDカードと早いDISK or SSDに置き換えた方がいい

287 :login:Penguin:2011/01/06(木) 20:01:12 ID:90P8MSkY.net
>checkarrayスクリプトの中でioniceを使って
???

288 :login:Penguin:2011/01/16(日) 20:13:56 ID:9TjvYxG+.net
すごく初歩的な質問かもしれませんが教えてください。
インテルマザーボードオンボードのICHのRaidに2台のSATAのHDDで組んだRaid0と、
コレガのCG-HDC2EU3100なんかの外付けRaidケースにe-sataで2台入れて組んだRaid0では
速度はどのくらい違いが出てしまうものなのでしょうか?
使用するHDDは同じ7200rpmのHDDです。

289 :login:Penguin:2011/01/16(日) 21:02:50 ID:5wcN0kGW.net
知らんけど、体感的な違いはゼロに近いと思う。

290 :login:Penguin:2011/01/16(日) 23:05:02 ID:9TjvYxG+.net
ありがとうございます。
つまり外付けでも内蔵と同じRaid0としての速度は出ると考えていいのですね!?

291 :login:Penguin:2011/01/16(日) 23:15:56 ID:UjUVBlql.net
2chに念押しとかw

292 :login:Penguin:2011/01/16(日) 23:21:07 ID:5wcN0kGW.net
>>290
1台より速いんじゃないかなという感じの速度アップはできる。
ベンチマークソフト使えば、数値で目に見えた違いを出してくれる。
だけど、2台でRAID0やって、理論的には2倍になるというのは幻想。

そういう意味で、「RAID0としての速度が出る」と言ってるのなら
その考え方は間違ってる。

293 :login:Penguin:2011/01/17(月) 10:30:12 ID:awRc0mEw.net
バスが律速しないとして2倍にならない例って何?

294 :login:Penguin:2011/01/18(火) 17:49:41 ID:AMRrBiFO.net
mdraidでミラーリングしているんですが、
いずれか1台が故障しても読み書きは継続できますよね?
ファイルシステムのエラーでハングアップになったもんで。

295 :login:Penguin:2011/01/18(火) 17:51:59 ID:270hrEVr.net
>>294
そうだよ。だからスレ違い。

296 :login:Penguin:2011/01/18(火) 20:00:47 ID:cWlOgZar.net
スレ違いではないけどな

297 :login:Penguin:2011/01/21(金) 23:23:46 ID:AKhU4TB8.net
いったいどれがsdaでどれがsdbなんだか

298 :login:Penguin:2011/01/22(土) 02:34:45 ID:zK0YGrGX.net
匂いを嗅いでみて、甘い匂いのするのがsda。
ちょっと舐めてみて酸っぱいのがsdbだよ。

299 :login:Penguin:2011/01/23(日) 19:01:57 ID:h1RbTWKL.net
両方酸っぱくて甘い匂いがしたらどうすんだw

シリアル控えてあるかバラして分かってるなら、
Redhatのディスクユーティリティー使えばひと目で分かるよ。
ls /dev/disk/by-id -l と cat /proc/mdstat でも
シリアルとの対応は分かる。dmraid だと知らん。

300 :login:Penguin:2011/01/23(日) 23:53:48 ID:hECcvXVM.net
300げっと

ちょっと前、電源死んでHDDが見えたり見えなくなったりATA2モードになったり止まったり
したんだがソフトウェアRAID1組んでたから普通に使えて「あーなんかカッコンカンッコン言ってるな〜」
って感じだった。ソフトウェアRAIDって何気にすげーなって思ったぜ。

301 :login:Penguin:2011/01/24(月) 13:56:32 ID:1YcBp3Oq.net
>>300
しかし、同じロットは同時に逝きやすいという法則は越えられない。
こないだ、2発同時にあぼんしたw いまは日立とWDを混ぜている。

302 :login:Penguin:2011/01/29(土) 01:19:33 ID:oOHVlAzH.net
>>297
同じ疑問抱えてます。

アレイ内のHDDが壊れたとして、物理的に壊れたHDDがどれなのか特定すんのはどうしてるんだろう。

ケーブル外して取り外すときにオペレーションミスして
生きてるHDDを取り外さないための仕掛け&工夫実践例キボン。


303 :login:Penguin:2011/01/29(土) 02:30:47 ID:7snxt3L1.net
基本的にはシリアルNoから判別するしかないんじゃない?
オレは、hdparm -i /dev/sd* でシリアルNo確かめて、あとは>>299

304 :login:Penguin:2011/02/07(月) 01:19:12 ID:/w2VBTzF.net
CentOS 5.5でRAID6のオンライン領域拡張したいんだけど、カーネル2.6.21以上でないとダメとか見つけたんだ。
カーネルだけ入れ替えるしかないのかな?

305 :login:Penguin:2011/02/07(月) 02:47:43 ID:lo2w1dHg.net
俺も同じくCentOS5でRAID6をgrowしようとした。

最新カーネルを自力で作って起動するかテスト
・・・というのをVM上で一応やってみて大丈夫そうだとは思ったが
俺の場合はオンラインである必要は無かったので
結局、FedoraのliveCDを使ってgrowした。

ちなみに、(当然ながら)マザー次第だとは思うけど
俺の場合はnodmraidをつけなくて
いくつかのディスクがraidから除外されていたり
リムーバルと認識されて/dev/md127になったりと
結構トラぶった。

306 :login:Penguin:2011/02/07(月) 04:04:23 ID:/w2VBTzF.net
あれ?俺がいるw
自分もFedoraなら行けるんじゃねと思って、LiveCD使ったんだけどアレイからHDDが外れていた。
リビルドして領域拡張したけど、CentOS5.5に戻ってきたらアレイが元に戻っていた。
だからFedoraも意味がなかった。
>305 はCentOSに戻してもアレイはそのままだったのかな?

# そこまでやるならFedoraに移行しろよ。というツッコミはなしで。

307 :305:2011/02/07(月) 18:09:58 ID:lo2w1dHg.net
いや、ちゃんと拡張した状態で動いてるよ。
ただし、当然だけど完了するまで待ってそれからCentOSを起動したから。

308 :login:Penguin:2011/02/07(月) 19:40:45 ID:/w2VBTzF.net
自分もリビルドが終わるまで待ったんだけどな。

マザボ:GA-EP45-UD3R
OS用HDD:WD1001FALS 1発
データ用HDD:WD20EARS 5発(Dx2, Px2, Sx1)
でFedora LiveCDで拡張したんだけど。

今は卒論で忙しいので、今月下旬に再度試してみるわ。


309 :305:2011/02/07(月) 20:00:12 ID:lo2w1dHg.net
じゃあ、2-3日のうちに、俺が>>281>>305
どんなトラブルに見舞われたか
一通り書き殴ってみるよ。
これからやろうとする人の参考になるかもしれないし。

使ってるのはGT110bで、2台買って(1台をデスクトップ用にCPU等を交換増設)
もう一台との間でメモリとHDDをトレードしたもの。
これからDVDを外してEARSx6をHDC-503であわせて使ってる。

310 :login:Penguin:2011/02/08(火) 03:25:43 ID:39VFhAxA.net
Linux のソフトウェア RAID って、ホットスペアだけをローパワーで動かして、
スペアからアクティブになった時に自動的に回転数を戻す。
みたいな設定って出来ますか?

311 :login:Penguin:2011/02/08(火) 22:26:27 ID:VOG+hcst.net
>>310
「アレイがデグったら、待機状態にしといたスペアディスクを起こしてアレイに追加する」
みたいな処理をcronで定期的に回せばいいんじゃない?

312 :login:Penguin:2011/02/09(水) 00:21:30 ID:AadTX+NK.net
可変回転数のHDDなんかねーよ
普通にスピンダウンしとけ

313 :login:Penguin:2011/02/09(水) 00:28:53 ID:OE9NS2jv.net
>>312
http://ascii.jp/elem/000/000/078/78783/
あるのに…

314 :login:Penguin:2011/02/09(水) 00:55:07 ID:nTLzEdJ5.net
WDのやつは、可変ではない。
非常に短い時間(デフォルト7秒)のアイドルでスピンダウンするだけだったはず

315 :login:Penguin:2011/02/09(水) 01:05:02 ID:megP14EQ.net
>>312
手動でスピンダウン/アップとかめんどくさいじゃん?
だから RAID ソフト側でホットスペア中は低回転でまわしてくれれば嬉しいなと

316 :login:Penguin:2011/02/09(水) 10:01:23 ID:47tkCJ4E.net
回転数5400~7200ってロットによって違うとかそんなんじゃねww

317 :login:Penguin:2011/02/09(水) 10:28:45 ID:megP14EQ.net
1つのモデルでスペック上は普遍の回転数が、
個体差でそこまで振り幅あれば不良品でしょww

318 :login:Penguin:2011/02/09(水) 11:08:41 ID:AadTX+NK.net
>>313
やっぱり出たなマスコミに騙されるバカ

319 :login:Penguin:2011/02/13(日) 13:45:27 ID:SdB2eGXj.net
LinuxのソフトウェアRAIDをGUIで管理できるようなので使いやすいのはあるんでしょうか。
webminくらいしかそもそもモノが無いですかね?

320 :login:Penguin:2011/02/13(日) 14:47:55 ID:GH/CmMZb.net
>>319
使ったことないけどpalimpsest disk utility

321 :login:Penguin:2011/02/13(日) 15:38:06 ID:L1HNmD3l.net
webmin楽かもしれんけどweb管理がもっさりすぎてやめた


322 :login:Penguin:2011/02/18(金) 17:24:44 ID:yGretxv7.net
ぶっちゃけ、個人PCの安全対策にRAID1組みたいだけなら
CG-HDC4EU3500 とか買ったほうが楽っすよね。

323 :login:Penguin:2011/02/18(金) 17:50:39 ID:A1GNzXog.net
弄るのが面倒と考えるならそれでいいんじゃないの?
俺はいじるのが好きだから PC 組むことからやったけど・・・

324 :login:Penguin:2011/02/19(土) 15:18:20 ID:RMwt7Pff.net
>>322
最初の手順はラクだろうな…

けど、ドツボにはまった時のはまり具合もあるからな。
個人向けなら融通の利くmdadmでの管理がお勧めな気がするぜ。

例えば、2個でRAID1を組んでて、1個あぼ〜んしたときに、どうやってHDDを準備する?
仕事ならスペアディスクが準備してあったりするけど、個人でそれやってる人は少ないでしょ。

適当なHDDをLVMなりmdadmでつなげて元のアレイに加えたり、他の容量があまってる
storageから切り分で容量貰ってきたのを流用したり、と。そう言う面もあるからなぁ。

325 :login:Penguin:2011/02/20(日) 00:27:21.40 ID:yCXNWgeV.net
あるからなぁ

と言われても

326 :login:Penguin:2011/02/20(日) 01:46:06.77 ID:s4CzjA8f.net
ミラーの片割れがあぼーんしたらバックアップを取って二台とも廃棄処分だろ。んで、新規に二台買ってきてリストア。

327 :login:Penguin:2011/02/20(日) 14:44:10.36 ID:RGevxh5h.net
>>326
「可用性」はどこ行ったんだよw

328 :login:Penguin:2011/02/20(日) 15:06:22.78 ID:s4CzjA8f.net
>327
即死しなかったおかげで緊急メンテでバックアップを実行できて最新の最終のデータを失わずにすむだろ。
ディスクを二台とも廃棄するのは同じ環境で同じように酷使されたディスクなんて信頼性はもう無いと見た方が安心できる。
あと無停止システムにしたいなら二方向ミラーの一組だけでどうにかしろってのは無理だし。

329 :login:Penguin:2011/02/20(日) 22:40:50.93 ID:Mnk/k141.net
最近は別メーカーとか別製品のHDD二台組み合わせて
遺伝的アルゴリズム風に運用するのが流行りだしてね?

330 :login:Penguin:2011/02/20(日) 22:53:05.59 ID:uoxofCdd.net
三台でミラーリングして定期的に一台交換する、とか

331 :login:Penguin:2011/02/21(月) 01:31:02.60 ID:/mh8pAHw.net
LVM ってプールみたいなもん?

332 :login:Penguin:2011/02/22(火) 22:32:44.57 ID:d4GHXSIo.net
>>331
うんにゃ、AIXの論理ボリューム管理みたいなもん。

333 :login:Penguin:2011/02/24(木) 08:28:42.23 ID:UZbhA2qj.net
320GBのHDDでarray作って思った
320GBがいつまで新製品で買えるのかとw
せめて500GBにしときゃよかった。。。

334 :login:Penguin:2011/02/24(木) 08:57:55.75 ID:+LhVKrWL.net
mdadmだと、気にせず個々に大きいHDDに取り替えていけばいいんじゃね?
で、全部が320GB overになったらgrowしてみる、と。

335 :login:Penguin:2011/02/26(土) 01:13:09.50 ID:AjpK4IVQ.net
アレイの構築中の負荷で他に影響を与えないようにioniceやniceコマンドを
mdadmコマンド実行時に前段に追加して実行してもダメなんすね。

実際に仕事してるのは別プロセスのようなので、(md0_raid5とかmd0_resyncとか)
mdadm実行後に立ち上がったプロセスをreniceとioniceで後から優先度を変更するしか
アレイ構築やチェックの処理優先度を下げさせることできないんでしょうか?

336 :login:Penguin:2011/02/26(土) 01:29:23.11 ID:vu/EQK7u.net
man 4 md


337 :login:Penguin:2011/02/26(土) 12:05:23.19 ID:l2UEaSXl.net
manってアレイごとの
/sys/block/mdN/md/
が抜けてるよね

338 :login:Penguin:2011/02/26(土) 23:26:00.10 ID:YHKS4Qz2.net
あれぃ?

339 :login:Penguin:2011/03/03(木) 23:19:11.12 ID:aPgrBUX+.net
HDD3台で構成されてるRAID5の/devmd0に
ディスクを--addで追加してスペアディスクとして組み込んだ状態から
RAID60レベル変更にしたいのですが、

# mdadm --grow --level=6 --raid-disks=4 /dev/md0
mdadm: /dev/md0: Cannot reshape array without increasing size (yet).

# mdadm --grow --level=6 --raid-disks=4 --size=max /dev/md0
mdadm: can change at most one of size, raiddisks, bitmap, and layout

という感じでエラーになります。引数に何が足りないんでしょうか?
もしくはmdadm.confに予め何か設定しておく必要があったりしますか?


340 :login:Penguin:2011/03/04(金) 22:31:20.60 ID:dpTfiBPG.net
>>339
上のコマンド打った後以下コマンド実行で動かない?
# echo raid6 > /sys/block/md0/md/level

参考このへん: ttp://xblog.hellokitty68.main.jp/?eid=1016578


341 :login:Penguin:2011/03/06(日) 04:55:31.91 ID:RPfF2gcb.net
mdadmってどう呼んでる?
マダドム?マダッドム?
マダムとダッドの合体語?

342 :login:Penguin:2011/03/06(日) 11:09:04.36 ID:9frQ4hTx.net
エムディエイディエム

343 :login:Penguin:2011/03/06(日) 11:10:44.71 ID:Zh9h7jx2.net
自分では
エム ディー アドミン

人に伝えるときは
エム ディー エー ディー エム
あくまでも個人的な意見。

344 :399:2011/03/06(日) 19:51:57.84 ID:JhgND8E+.net
>>340
行けました!
RAIDレベル変更の拡張の場合はmdadm側のコマンドで変更後のレベル指定するんじゃなくて
/sys/block/mdX/md/level
の中の記載を書き換えることで実現するんすねー。

345 :login:Penguin:2011/03/07(月) 10:14:23.53 ID:OwxqRXoH.net
エムディーアダモステ

346 :login:Penguin:2011/03/18(金) 10:29:31.58 ID:aNs3epMu.net
質問。
mdadmでraid1を作っているんだが、sdbで不良セクタ発生。
再構築をしたいのだが、今は計画停電期間中。
停電が終わってから最長でも18時間で必ず次の停電が来てしまう。

dev.raid.*を設定しても18時間じゃ1.4TBのパーティションの同期完了が厳しい
(丸一日くらいかかった気がする)。
UPSは2台あるが3時間の停電はとても耐えられない。

計画停電が終わるまで再構成はムリかな?

347 :login:Penguin:2011/03/18(金) 10:42:54.87 ID:ekMBduVz.net
先月のだからもう解決済みかもなあ。

>>335
md の resync の下限と上限は

/proc/sys/dev/raid/speed_limit_min
/proc/sys/dev/raid/speed_limit_max

をそれぞれ sudo echo xxxxx > ファイル、で数値を直に書き換えられる。
まずは cat して現在値を確認のこと。max はデフォルト値 200000 kB/s。
再起動すると元に戻るのでご注意を。
(個々のデバイスだと /sys/blocks/md*/md/sync_* あたりらしいけど使ったことない)

ファイルのパス込みの正式名をどうしても覚えられないので、
設定が必要になるたびggりなおしてるw


>>341
エムディーアダム。
原義からするとアドムのほうが近いんだろうけど、語感が好きじゃないのでアダム。

348 :347:2011/03/18(金) 10:48:09.76 ID:ekMBduVz.net
>>346
347 に書いた方法で制限速度(limix_max)は上げられるけど、
小手先だし間に合わないんじゃないかなあ。
過負荷でアレイが壊れてかまわないなら、まずはレッツトライ。

349 :346:2011/03/18(金) 11:09:00.33 ID:aNs3epMu.net
>>348
レス有難う。
dev.raid.speed_limit_minやdev.raid.speed_limit_maxをageまくって丸一日なんだ。
アレイが壊れるのは困るから…方法がないなら放置かな。
不良セクタ箇所以外は生きている(はずだ)し。

350 :login:Penguin:2011/03/18(金) 11:46:35.90 ID:YwOrhI0Y.net
>>349
案1
ディスクをもう1組用意して、パーティションを何個か切る(sdc1-4, sdd1-4とか)。
それぞれのパーティションでアレイを組んで(sdc1+sdd1->md1,...)1組ごとに同期をとる。
できたmdをLVMでくっつけて、縮退したアレイのデータが収まる大きさまで育ったらデータをコピる。

案2
バックアップとったら電源落として、のんびりする。


351 :346:2011/03/18(金) 14:28:59.63 ID:aNs3epMu.net
>>350
ありがとう。案1は私の力じゃ作業に不安があるな。

今日の二回目の停電が中止になって30時間以上間が開いたから、
ソッコーで同期始めた。
>>348,350ありがとう。

352 :login:Penguin:2011/03/26(土) 00:36:56.81 ID:NFqGjfij.net
>>346
bitmap作ればできなくない?

353 :login:Penguin:2011/03/26(土) 11:31:47.15 ID:xd62/6A8.net
ディスクが1発死んだときに、新しいディスクに交換してリビルドする前にバックアップとるとすると、
バックアップ先のハードウェアって何にしてる?
容量の大きなRAID組んでると、バックアップ先もでかい容量が必要になると思うんだけど、USBの外付け
ハードディスク買ってきても、いいとこ3TBだし。


354 :login:Penguin:2011/03/27(日) 10:51:40.31 ID:C3vM+KLD.net
別PCにバックアップ用のアレイを組んでるよ


355 :login:Penguin:2011/03/28(月) 01:12:47.84 ID:9esJblgo.net
質問です。
HDD1台のみでスパニングモードのアレイを設定(マザボ付属のraid)して、
その後にアレイを解除した場合、データは消去されたのでしょうか?

2TBのHDDを誤ってスパニング設定し、解除してしまったところです。
ウィンドウズの「ディスク管理」では「ディスク1 ベーシック 1863.01GB オンライン 未割り当て」、
Nvidiaの「ストレージ設定表示」では「基本ディスク」と表示されています。
マザボはGF8100 M2+SEです。

よろしくお願いします。

356 :login:Penguin:2011/03/28(月) 16:43:40.09 ID:g1P3BYn9.net
同じ設定で組めば OK

357 :355:2011/03/29(火) 09:18:30.95 ID:G7JKKN1D.net
>>356
ありがとうございます。
本日試してみます。

358 :355:2011/03/31(木) 10:30:36.15 ID:rUfaoVMQ.net
355です。結果報告です。
アレイ同じ構成に戻してもウィンドウズ上からは認識されませんでした。
そこでtestdiskを使い、HDDは復旧しました。

359 :login:Penguin:2011/04/10(日) 00:06:51.69 ID:NuOE1clz.net
質問させていただきます。
CentOSでRAID5を組んでいるのですが、共有ディレクトリにアクセスしようとすると、異様に時間がかかり、
Linuxマシン側に糞長いエラーログが出ます。
ata6.00: status: { DRDY }
とか出ているので、構成アレイの最後の一本にアクセスしようとして失敗しているっぽいです。
ただ、cat /proc/mdstatしても[5/5] [UUUUU]ですし、mdadm -D /dev/md0しても active syncです。
しかし、怪しい構成アレイはsmartctlもできなくなっていますし、RAIDから切り離すとアクセスが安定します。
これはHDD自体が死んでいるのでしょうか?

360 :login:Penguin:2011/04/10(日) 00:48:54.94 ID:sZ+yw5+B.net
>>359
その糞SATAケーブルを交感してから試してみやがれこの糞野郎
とエスパーしてみたり


361 :login:Penguin:2011/04/18(月) 14:03:20.39 ID:LohzKB9l.net
NEC Express5800/GT110b に HDD 4台で RAID 組もうとしているんですが、マザボの SATA に2系統あるようで、
 SATA0 (赤): sda
 SATA1 (青): sdc
 SATA2 (赤): sdb
 SATA3 (青): sdd
のようになります (赤・青はボード上のソケットの色)。
この場合、RAID1 を2セット組むとしたら sda-sdb, sdc-sdd で組むべき? sda-sdc, sdb-sdd で組むべき?
なお、/boot は作成する RAID1 (md0) に入れるつもりです。

362 :login:Penguin:2011/04/18(月) 14:42:10.50 ID:bX7LZUHN.net
なぜ自分で計測しないの?

363 :login:Penguin:2011/04/18(月) 15:51:50.84 ID:LohzKB9l.net
>>362
計測?
sda, sdb ... と順に組んでくのがいいのか、SATA の系統をまたいで組むのが良いのか、作法を聞きたいのですが。
ググってみたのですが、あまりこの辺について書いているものを見つけられませんでした。

364 :login:Penguin:2011/04/18(月) 16:13:58.59 ID:mCb2yyO9.net
奇数偶数でワンセットにしたい人もいるだろうし、
連番でワンセットにしたい人もいる。


やりたいよいにやればいい。

365 :login:Penguin:2011/04/18(月) 16:59:09.56 ID:Pmlfe7XY.net
チップセットのブロック図くらい読んでこいや

366 :login:Penguin:2011/04/18(月) 17:47:19.26 ID:Hd6IlzqC.net
俺なら同じ色同士でやる

367 :login:Penguin:2011/04/18(月) 18:03:37.68 ID:Pmlfe7XY.net
言っておくが赤を切ると爆発するぞ

368 :login:Penguin:2011/04/18(月) 18:09:14.12 ID:bX7LZUHN.net
作法というなら、単一障害点を減らすのがRAIDの基本だべ

369 :361:2011/04/18(月) 18:21:17.58 ID:LohzKB9l.net
sda-sdc, sdb-sdd でやってみることにしました。

370 :login:Penguin:2011/04/20(水) 16:15:57.39 ID:HQS7YCBa.net
>>360
回答ありがとうございます。
ケーブル交換では修正できなかったので、拡張PCIカードの不良を疑って交換したら見事に治りました。
ありがとうございます。

371 :login:Penguin:2011/04/30(土) 11:12:50.28 ID:ZWLOhJze.net
既存のHDDを使ってRAID5あたりを組もうと思っているんですが
もともと中にあったファイルを保持したままRAIDを組むっていうのは無理ですよね

372 :login:Penguin:2011/04/30(土) 14:46:46.73 ID:lxU/ZmU/.net
>>371
やり方は色々あるけどできるよ

373 :login:Penguin:2011/04/30(土) 19:57:43.37 ID:ZWLOhJze.net
>>372
マジですか
ぜひともやり方を教えていただけると…

374 :login:Penguin:2011/04/30(土) 20:00:40.12 ID:U5mQf/ym.net
>>373
HDDに結構な負荷かかるから古いHDDだと構築時に逝くかもしれないぜ?

375 :login:Penguin:2011/04/30(土) 20:27:08.48 ID:ZWLOhJze.net
古いと言っても1~2年なので多分大丈夫だと思います

376 :login:Penguin:2011/04/30(土) 21:49:53.47 ID:ajiH1WGa.net
>>373
エスパーじゃないから元の環境と(ボリューム数とかLVM使用の有無とか)
RAID5にしたい時のボリューム数がわからんので何も助言できない


377 :login:Penguin:2011/04/30(土) 22:03:22.26 ID:IxyBD6MT.net
>>371
LinuxのソフトウェアRAIDなら以下の手順で出来るよ。

1.新しいディスクを2台買ってきて取り付ける
2.新しいディスク2台で縮退状態のアレイを作る
3.アレイに既存のディスクの中身(ファイルシステム、論理ボリュームなど)をコピーする
4.既存のディスクをアレイに追加して、同期が終わるまでじっと待つ

注意事項は、新しいディスクが既存のディスクより大容量な場合、アレイを作る際に丸ごと使わないこと。

新しいディスクが3台以上あるなら普通に新しいディスクだけでアレイを作ってデータをコピーし、
最後に領域拡張するという手もある。

378 :login:Penguin:2011/04/30(土) 22:56:21.61 ID:ZWLOhJze.net
>>376
環境はとりあえず今からRAIDができるOSを入れようと思っています
なのでなんでもいいです

ボリューム数は5
LVMは使えば複数HDDを一つに見せることが可能という認識でいいでしょうか
であればぜひ使いたいです

>>377
やっぱりいくつか買い足さないと駄目ですかね?
出来れば買い足さず今あるHDDで済ませたいのですが…

379 :377:2011/04/30(土) 23:14:28.57 ID:IxyBD6MT.net
>>378
え、ひょっとして手持ちのディスクをデータをそのままにRAID5のアレイにまとめようとか考えてる?

380 :login:Penguin:2011/04/30(土) 23:18:38.64 ID:3faszs44.net
そうとしか読み取れなかったが

381 :377:2011/04/30(土) 23:34:22.61 ID:IxyBD6MT.net
>>380
いや、手持ちのディスク1台のデータを保ったままRAID5アレイに移行するってのはアリだけど、
よもや5台全部のデータをそのままRAID5に移行したいなんて物理的に無理なことを考えてるとは思わなくて。

382 :login:Penguin:2011/04/30(土) 23:43:04.11 ID:ajiH1WGa.net
空きディスク1発あればRAID1縮退作って1発分移動して
RAID1→RAID5変換してファイル移動して空いたディスクをRAID5にaddしてgrowしてを繰り返せば理論上できなくもないけど
変換だけで実時間3・4日くらい使うぞ


383 :login:Penguin:2011/05/01(日) 00:07:10.63 ID:bc06QFlz.net
やっぱり無理ですよね…
素人で申し訳ないです

384 :login:Penguin:2011/05/01(日) 01:36:51.51 ID:Gb8UNBEf.net
あまったRAIDカードと容量バラバラのHDD8台でRAID5組んで遊びで運用してるけど、一向に不具合こない
RAIDは同じ型番のHDDでって思ってたけどそこまで関係ないものなのかな

385 :質問:2011/05/08(日) 16:46:59.11 ID:iKVL8NzG.net
CentOS5.4でのソフトウェアRAID5を勉強中ですが、ディスクの交換のところでうまくいきません。
下記手順で進めていきましたが、ディスク交換→mdの再構築まではうまくいくのですが、
再起動をかけるとRAID5の構成デバイスがまた元に戻ってしまいます。
再起動後でもhdd7がRAID5のアクティブデバイスであるためには何か必要なのでしょうか?
いろいろ調べてみたのですが、どのサイトにもそのようなことが書かれておらず困っています。


RAIDデイバス作成
# mdadm -C -a yes -l raid5 -n3 -x1 /dev/md0 /dev/hda2 /dev/hdd1 /dev/hdd5 /dev/hdd6

確認
# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
md0 : active raid5 hdd5[2] hdd6[3](S) hdd1[1] hda2[0]
1975680 blocks level 5, 64k chunk, algorithm 2 [3/3] [UUU]

フォーマットとマウントして、利用できることを確認
# mkfs -t ext3 /dev/md0
# mount /dev/md0 /test1

fstabに登録
# vi /etc/fstab
/dev/md0 /test1 ext3 defaults 1 2

再起動しても利用できることを確認
# shutdown -r now

(本文が長いとでるのでこの後続きます)


386 :385:2011/05/08(日) 16:48:44.75 ID:iKVL8NzG.net
(続きです)

検証のため2台のデバイスを削除
# mdadm --manage /dev/md0 -f /dev/hda2
# mdadm --manage /dev/md0 -f /dev/hdd1
# mdadm --manage /dev/md0 -r /dev/hda2
# mdadm --manage /dev/md0 -r /dev/hdd1

# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
md0 : active raid5 hdd6[0] hdd5[2]
1975680 blocks level 5, 64k chunk, algorithm 2 [3/2] [U_U]

予備で用意していた/dev/hdd7があることを確認
# fdisk -l/dev/hdd
/dev/hdd1 1 123 987966 fd Linux raid 自動検出
/dev/hdd2 124 3042 23446867+ 5 拡張領域
/dev/hdd3 3043 9122 48837600 83 Linux
/dev/hdd4 9123 11555 19543072+ 83 Linux
/dev/hdd5 124 246 987966 fd Linux raid 自動検出
/dev/hdd6 247 369 987966 fd Linux raid 自動検出
/dev/hdd7 370 492 987966 fd Linux raid 自動検出

387 :385:2011/05/08(日) 16:49:04.87 ID:iKVL8NzG.net
(つづきです)
/dev/hdd7を追加
# mdadm --manage /dev/md0 -a /dev/hdd7

しばらくして確認
# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
md0 : active raid5 hdd7[1] hdd6[0] hdd5[2]
1975680 blocks level 5, 64k chunk, algorithm 2 [3/3] [UUU]

再起動しても問題ないか確認
# shutdown -r now

↓なぜかhdd7が消えている
# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
md0 : active raid5 hdd6[0] hdd5[2]
1975680 blocks level 5, 64k chunk, algorithm 2 [3/2] [U_U]

388 :login:Penguin:2011/05/08(日) 18:32:50.44 ID:dbrlUN8D.net
リビルド

389 :login:Penguin:2011/05/09(月) 01:28:01.10 ID:S+FHQdJ2.net
>>387
/dev/hdd7 が拡張領域の最後のパーティションであるところが臭いな。
それでスーパーブロックの自動認識がコケてるんじゃないのかな。
実験で使わない /dev/hdd8 を作ってみればどうだろう。
パーティションタイプは fd 以外で。

390 :login:Penguin:2011/05/09(月) 05:38:07.68 ID:Mo4D+3QG.net
起動後にdmesgとかは見た?

391 :login:Penguin:2011/05/09(月) 17:20:30.78 ID:NP2vgjMG.net
>>385 を見ると
最初の段階では hda1/2/5 の3台でボリューム作ってて
hdd6がスペアだよね?
で、>>386では hda1/2 を抜いたように見えるんだが…
3台構成中の2台抜いちゃったらボリュームの再構成はできないのでは。

書いてないけど、1台抜く→リビルド終了→もう1台抜く
てな段取りでやったのかな?

392 :login:Penguin:2011/05/09(月) 18:43:18.57 ID:MY5ZQwLA.net
RAID5
hda2、hdd1、hdd5、hdd6 (スペア)

この状態で hda2、hdd1 を外したら、RAID5 は消滅してるよね?
それとも、hda2 を抜いたあとのスペアを使ってのリビルドを終えてから hdd1 を外してるってこと?

393 :login:Penguin:2011/05/09(月) 22:06:58.52 ID:8NVZ92rG.net
>>385
とりあえずmdadm.confをチェックしたらいいんじゃないかと思うが。

394 :login:Penguin:2011/05/09(月) 23:41:17.38 ID:ljI9s1dP.net
arrayぶっ壊した祭りキタ━━━━(°Д°)━━━━?

395 :login:Penguin:2011/05/11(水) 20:56:17.03 ID:zBKnKrbv.net
S-ATAのRAIDカードで、
RAID組まずにS-ATAのHDD2台増設として使用できますか?
この玄人志向カードです。
http://www.kuroutoshikou.com/modules/display/?iid=86


また、複数毎挿しは可能でしょうか?

396 :395:2011/05/11(水) 20:58:32.96 ID:zBKnKrbv.net


OSはWindows7
M/BはG31M7-TE、G31MX-Kを考えています。

397 :login:Penguin:2011/05/11(水) 23:25:01.38 ID:GMmHnJqe.net
帰れ

398 :login:Penguin:2011/05/12(木) 08:32:00.30 ID:IfSMMkdB.net
http://kuroutoshikou.com/modules/kurobbs/?tid=1839
SiliconImage社から配布されているファームウェアで、
bから始まるものを当てると、RAID機能が無効になり、ただのSATAカードと認識されます。
逆にrから始まる物を当てれば、再びRAID機能が有効になり、RAIDボードとして認識します。

ちなみに、私が使ったのはb4384.binというファームでした。



399 :login:Penguin:2011/05/12(木) 09:27:14.34 ID:IfSMMkdB.net
http://www.siliconimage.com/support/searchresults.aspx?pid=29&cat=15
BIOS-003512-xxx-4384
にrがある。

400 :login:Penguin:2011/05/12(木) 21:00:26.48 ID:tVRwKmAN.net
リビルド 言っただろ
案の定、リビルド終わってないんじゃないかと言う意見たくさん出てるな

401 :login:Penguin:2011/05/13(金) 22:54:16.70 ID:BHN+ryP5.net
>>395
SiI3512 - PCI to 2 Port SATA150
http://www.siliconimage.com/products/product.aspx?pid=29
これって3TB対応してるのかな?

402 :385:2011/05/14(土) 11:47:25.61 ID:eKhgKtI/.net
みなさん、貴重なご意見ありがとうございます。
ひとつずつ検証して結果をレスさせていただきます。
なにぶん、1週間たつと頭が真っ白になっていますので・・・


その前に、386の訂正です

デバイスをいきなり2台削除したのではなく、
# mdadm --manage /dev/md0 -f /dev/hda2
でスペアのhdd6がアクティブ(同期される)ことを/proc/mdstatで確認

# mdadm --manage /dev/md0 -f /dev/hdd1

# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
md0 : active raid5 hdd5[2] hdd6[0] hdd1[3](F) hda2[4](F)
1975680 blocks level 5, 64k chunk, algorithm 2 [3/2] [U_U]
を確認 (3台構成のうち2台が生きている状態)

その後で、
# mdadm --manage /dev/md0 -r /dev/hda2
# mdadm --manage /dev/md0 -r /dev/hdd1

403 :login:Penguin:2011/05/14(土) 12:12:03.65 ID:ASYKen8E.net
>>402だけ見て適当な意見
raid5で2台をFにしていいの?

404 :385:2011/05/14(土) 12:15:03.42 ID:eKhgKtI/.net
>>402は >>391 >>392さんからの意見をみての訂正です。

>書いてないけど、1台抜く→リビルド終了→もう1台抜く
>てな段取りでやったのかな?

>それとも、hda2 を抜いたあとのスペアを使ってのリビルドを終えてから hdd1 を外してるってこと?
ご指摘通りです。

質問をしておいて肝心な部分を省略してしまいました。大変失礼しました。

405 :login:Penguin:2011/05/14(土) 12:22:25.52 ID:aKnDiMTq.net
mdadm.confが見当たらないが?

406 :385:2011/05/14(土) 12:42:23.63 ID:eKhgKtI/.net
>>403
今回の検証の目的として、
@1台がこけたときに、スペアが自動的にアクティブとなって同期するか?
Aさらに1台がこけて3台のうち2台構成であっても、RAID5として機能するか?
Bあらかじめ用意していたディスクをRAID5に追加しても機能するか?
なんですが、
@の検証のためにまずはhda2をFにしました
つづいてAの検証のためにhdd1もFにしました
そのため表示上は2台がF状態ですが、>>402の手順では3台のうち常に2台は
アクティブ状態なのでRAID5としては大丈夫だと思っていますが・・

407 :login:Penguin:2011/05/14(土) 12:47:18.94 ID:GMaEcG2w.net
物理的に抜かないといけないんじゃなかったか?

408 :385:2011/05/14(土) 12:51:45.16 ID:eKhgKtI/.net
>>405
今回は特にmdadm.confは使用していません。
理由として、
mdadmコマンドでは、mdadm.confが無くてもRAIDの構成ができるということと、
もしディスク構成が変わったときにmdadm.confの情報が古いため、再起動があったときに問題が生じる可能性がある
と思ったからです。

ただし今回の問題においては、ディスク構成が変わったときにmdadm.confにも構成情報を記述したら、
再起動時にmdadm.confを参照してうまくいくのでは?と思ってやってみたのですがうまくいきませんでした。
今回もう一度チャレンジしてみる予定です。

409 :385:2011/05/14(土) 12:59:59.86 ID:eKhgKtI/.net
>>407
肝心の交換する物理的なディスクがないんです・・
そこで、論理パーティション(fd用)を作成してこれを交換用ディスクと仮定して検証しています。

ん・・
今思ったのですが、RAID5構成が2/3になった場合、本来は
RAID5障害 → shutdown → ディスク交換 → 起動 → パーティション作成 → RAID5再構築と思いますが、
自分のやり方だと、
RAID5障害 → RAID5再構築 となって、一番肝心の再起動をすっとばしています
RAID障害と再構築の間でshutdownが必要なのかも? ちょっと後で検証してみます。


410 :login:Penguin:2011/05/14(土) 15:09:30.64 ID:MxTWk7g0.net
/dev/hdd? ってことはPATAだよね。
SATAでやった方がいいんじゃね?
要再起動ではRAIDの価値半減では。

411 :login:Penguin:2011/05/14(土) 15:50:35.85 ID:MxTWk7g0.net
ん?
よく見たら
一台の物理HDDをパーティション切ってRAIDにしてるんだw
リビルドとか何それHDDいじめ? w

単なる実験だとしても
RAMディスク上に小さいディスクイメージを必要数作って
VM上のLinuxにマウントしてやるとかの方が
実用的な実験になるんでないか?

412 :385:2011/05/14(土) 20:03:03.74 ID:eKhgKtI/.net
>>411
15年前のPC(メモリ192MB)には残酷です すでにGUIインスト・起動もできなくなるほどの老体ですので・・

413 :385:2011/05/14(土) 20:13:54.14 ID:eKhgKtI/.net
>>390
基本となるログ確認を忘れていました。
dmesgだとタイムスタンプが表示されないので、syslog経由で/var/log/dmesgに記録するようにしました

が、すみません
387のようにhdd7をmd0に参加させてアクティブにして、3/3構成になっていることを確認後、
shutdownし、その後のdmesgを確認しようとしたのですが、
なぜか起動する時点で、
RAID5に必要なデバイスが2個しかないので/dev/md0の作成ができない、
だからfsckできない
/dev/md0開けない、スーバーブロックの〜〜がおかしい
とかエラーになって起動に失敗するようになりました。

朝はちゃんとできていたんですけど・・やったといえば空の/etc/mdadm.confを削除したぐらい?
/etc/mdadm.confはいる子なんですかね。


414 :login:Penguin:2011/05/14(土) 20:42:06.54 ID:x6YKLIxD.net
>>413
手でmdadm.confを書いて再起動してみ。

415 :login:Penguin:2011/05/14(土) 20:54:54.56 ID:VCCnnm+r.net
mdadm.conf
名前からして mdadm の設定ファイル

そりゃ無くしちゃ駄目だろうw

416 :385:2011/05/14(土) 21:01:22.65 ID:eKhgKtI/.net
今回の件に関してリビルドという書き込みがあるのですが、
>>402 にもあるように、
@/dev/hda2をFにすると、予備の/dev/hdd6がアクティブとなりデータが復元される
 それを/proc/mdstatで完了したことを確認し、さらに/dev/hdd1をFにする
 このときはすでに予備のディスクが無いので/proc/mdstatでは、3/2表示
A/dev/hdd7をmd0に参加させて、/dev/hdd7にデータが復元される
 /proc/mdstatで確認すると3/3の状態に戻っている
この@、Aのときに起こっていることがRAID5でのリビルド(再構築)ではないのですか?

417 :login:Penguin:2011/05/14(土) 23:23:21.58 ID:Wn3DLmQA.net
?なこと
RAID5 4台構成+スペア1
RAID5 4台構成のうち2台外す

RAID5は2台外したら機能しないよ
2台外した後に1台スペア追加したからって再構築もできないよ

スペア有る状態で構築してある2台外す→データあぼーん

やるなら、
スペア有る状態で構築してある1台外す→スペアを使って再構築→もう1台外す→データ生きてる
って感じじゃないのか?


418 :login:Penguin:2011/05/15(日) 02:02:46.54 ID:KURhrqN1.net
>>412
ttp://nttxstore.jp/_II_HP13476513 でも買ったら?
送料無料12800円でdual core
メモリも2GB載ってる

419 :login:Penguin:2011/05/20(金) 22:03:27.94 ID:Hx10u45z.net
スレ違いも甚だしいのだけど、
 ttp://nttxstore.jp/_II_HP13476513
の「メーカ HP(旧コンパック)」の(旧コンパック)表記は未だに必要なのだろうか、と疑問に思ったw



420 :login:Penguin:2011/05/21(土) 02:16:43.53 ID:MIbSZT6Q.net
(1) OS (例えば CentOS 5.5) インストール時に RAID5 で Array 作成
(2) 作った Array にとりあえず色々ファイル書き込む
(3) OS の入ったディスクをわざと消して、OS (例えば CentOS 5.6) を再インストール
Linux のソフトウェア RAID は、こんな風に OS が入れ替わっても Array の入ってた
ディスクの設定とかを弄らなければ普通に認識してくれるもんなんでしょうか?

421 :login:Penguin:2011/05/21(土) 02:19:02.64 ID:jo2LkPkL.net
>>420
何がRAIDをコントロールしているかを考えれ・・・・・・。

422 :login:Penguin:2011/05/21(土) 10:46:47.58 ID:/ULFXKmI.net
RAIDで使ったHDDの一片をUSBに持っていったり
一片を別なPCに付けてiSCSIで接続しても元に戻るよ


423 :login:Penguin:2011/05/21(土) 11:05:29.19 ID:MIbSZT6Q.net
戻らねぇよカスw

424 :login:Penguin:2011/05/21(土) 11:15:10.45 ID:/ULFXKmI.net
やってみるといいよカス

425 :login:Penguin:2011/05/21(土) 20:16:06.77 ID:H1P/c5OE.net
>>420
使用したOS内蔵のソフトウェアRAIDに互換性があれば再認識させる事はできる。
USBだろうがiSCSIだろうがRAID構成に使用できるデバイスとして見えるなら元のアレイを取り戻す事はできる。
その気になればRAIDを構成するディスクすべてをそれぞれ別のマシンのiSCSIターゲットから提供してもらって構築する事もできる。

もちろんCentOSでできるかどうかは自分で調べてくれ。

426 :login:Penguin:2011/05/21(土) 21:06:15.97 ID:/nyg0oy0.net
横から失礼

LinuxのSoftwareRAIDって結構柔軟なんですね。
構成に必要な設定はそれぞれのHDDに含まれてて、ディスクが揃えば構成は元に戻る。

って事なんかな?

それともmdadm.confが残ってること(また自力でなんとか書き起こせた場合)が前提?

427 :login:Penguin:2011/05/21(土) 22:53:08.25 ID:cuk2hA/s.net
>>422
ソフトウエアRAIDだと戻りそうだが、ハードウエアRAIDだと戻らないだろうね

428 :login:Penguin:2011/05/21(土) 23:10:09.49 ID:cuk2hA/s.net
>>426
以前オレがやったこと。
その1
マザー4ポートとRAIDカード4ポートにHDDを接続してソフトウエアRAIDで構築

RAIDカード8ポートのものに交換

何も考えずHDD8台接続

起動したらそのまま使えた

その2
OSドライブにUSBメモリを使い debian 5.0 lennyでソフトウエアRAID組んで運用

OSドライブを交換するため、USBメモリを外すと同時にソフトウエアRAIDを組んでたドライブを全部外す

HDDに交換 debian 6.0 squeeze クリーンインスコ

ソフトウエアRAID組んでたドライブを取り付ける

再構築

マウントしたら、データ残ってて普通に使えた


429 :login:Penguin:2011/05/22(日) 01:24:19.56 ID:mz99SHzs.net
ふむふむ


てことは、Linuxから認識が出来て、
パーティションをいじらない限りは
普通に使えそうですね。



430 :login:Penguin:2011/05/22(日) 17:17:48.63 ID:UuMWPsxa.net
>>426 >>429
パーティションなりディスクボリュームなりの最後にスーパーブロックがあって、
そこにマジック書き込んであって認識される。
RAIDのどのタイプか、何番目のディスクか、動作状態は健全かデグレートか等々。
したがってRAIDから外したディスクを再利用するつもりなら --zero-superblock
しとかないと、既存のRAIDの一部とみなされて後々変なトラブルが出る。

>>427
ハードウェアRAIDでも同じ。ディスクのどこかに「しるし」を書き込むよ。

431 :login:Penguin:2011/05/22(日) 17:24:17.90 ID:UuMWPsxa.net
追記。
「変なトラブル」の大半は、RAIDボリュームの一部なのに他と合わないので
RAID構成から外すとかRAIDの方も停止状態にした、というもの。

各ディスクには出来上がったRAIDボリュームのUUIDと動作状態の
チェックサムも記録されているので、偶然の一致は無い。

432 :login:Penguin:2011/05/22(日) 19:03:12.62 ID:2Faawrj0.net
>>430
> ハードウェアRAIDでも同じ。ディスクのどこかに「しるし」を書き込むよ。

無責任に一般化するなよw

433 :login:Penguin:2011/05/22(日) 20:09:37.56 ID:GBnvxDPM.net
>>432
無知乙

434 :login:Penguin:2011/05/23(月) 00:19:26.19 ID:7v6SLhKz.net
>>433
無知とか何とかって話ではなく、
この話がそもそも >420 からの続きだってこと
理解してるのか?

つか一言でハードウェアRAIDったって
例えば3wareとRocketRAIDじゃ
全然違うだろうに
更に言えば機種後との互換性すら
メーカーごとに全然扱いが違うんだが

435 :login:Penguin:2011/05/23(月) 01:49:04.69 ID:8su/jpd5.net
>>433
メーカーAのカードでハードウエアRAID組んだドライブを
メーカーBのカードにつないでハードウエアRAIDにしても問題なく今までのデータ使えるんだ?w

436 :login:Penguin:2011/05/23(月) 01:57:47.85 ID:+Ld7qqz/.net
その「しるし」がハード固有だって事ぐらい分かるだろ?
それを挙げ足取りみたいにして喜んでさ、根暗だよね〜。

437 :login:Penguin:2011/05/23(月) 07:51:45.28 ID:WeXZ1aBl.net
>>434-435
ここまで頭のわるいやつらだったとは

438 :login:Penguin:2011/05/23(月) 10:38:53.40 ID:b7qa5pVu.net
>>420にはソフトウェアRAIDって書いてあるのに
延々とハードウェアRAID基準で語るとか
日本語が不自由な奴が多いのか


439 :login:Penguin:2011/05/23(月) 20:49:21.35 ID:T2qGWxDH.net
>>437
ソフトウエアRAIDの話をしているのにハードウエアRAIDの話に持っていく
そして、ハードウエアRAID固有の問題を挙げると揚げ足取りとか言う
馬鹿なのかアホなのか



440 :login:Penguin:2011/05/23(月) 22:21:48.36 ID:BzlQ03Y+.net
次スレ案
【ハードも】RAID総合スレッド No.6【ソフトも】

441 :login:Penguin:2011/05/23(月) 22:25:37.02 ID:JXT2n+qb.net
ハードも可とすると、自作PC板の
http://hibari.2ch.net/test/read.cgi/jisaku/1303039530/
との住み分けも考える必要がありそうすね。


442 :login:Penguin:2011/05/23(月) 22:35:49.44 ID:BzlQ03Y+.net
次スレ案2
【ソフトでも】Linux de RAIDスレ No.6【ハードでも】

443 :login:Penguin:2011/05/23(月) 22:39:06.68 ID:LESgUC77.net
ハードウェアRAIDの最低ラインはMegaSASにしようぜ(w

444 :login:Penguin:2011/05/23(月) 23:16:44.85 ID:c0/6JENF.net
>>442
懐かしすぎて吹いた


445 :login:Penguin:2011/05/23(月) 23:19:26.81 ID:c0/6JENF.net
>>443
ハードウエアRAIDは使ってないからわかんないけど、
ハードウエアRAIDをLinux板でやる意味はあるの?
自作PC板かハードウェア板でやったほうが有意義では?

446 :login:Penguin:2011/05/24(火) 09:57:13.61 ID:uNp2NbCh.net
自作板にはすでにRAIDカードのスレがあるよ。

RAIDカードあれこれ 43枚目
ttp://hibari.2ch.net/test/read.cgi/jisaku/1303039530/

447 :login:Penguin:2011/05/24(火) 12:37:53.94 ID:rRC5sbA8.net
総合スレなんだから総合らしくやればいいだけのこと

448 :login:Penguin:2011/05/24(火) 21:39:57.63 ID:3OuK7Gis.net
ハードウエアRAIDでアレイ構築してるのにlinux板のRAIDスレで何聞くんだろ?


449 :login:Penguin:2011/05/25(水) 03:45:59.14 ID:3S9STLoJ.net
ドライバ関係とかツールのインストール関係とか
Linux依存の話はいろいろあると思うが

450 :login:Penguin:2011/05/25(水) 10:35:24.97 ID:61mBVb84.net
次スレ談議は950あたりでやればいいよ。

451 :430:2011/05/26(木) 13:11:33.96 ID:WzPNJ81w.net
>>434-436
異方式での互換?「藁人形論法」なんて幼稚な事しなさんな。

ソフトウェアRAID込みでRAID共通化の提言は確かインテル主導で
(アンド、mdadmの人も入ってる)だいぶ前からあるはずだけど、
はたしてまとまるのかねえ。

>>432
ではその事例を挙げるべし。教えてもらえると助かるよ。

>>445
dmraidがあるんだから、語ればいいと思う。

452 :login:Penguin:2011/05/26(木) 15:18:08.67 ID:Vlfbg01s.net
アホは放置の方向で

453 :login:Penguin:2011/05/26(木) 23:10:45.61 ID:2O6Wds09.net
なんだ、反論できないからアホ呼ばわりかw

454 :login:Penguin:2011/05/27(金) 21:26:08.03 ID:SK+T648j.net
mdraidのsuperblockを修正するツールのraidzapについてなんだけど。
これって、superblock1.0にも対応してる?
先日、謎の瞬断で四本のディスクで構成していたraid5アレイが崩壊してしまい修復を図っているところなんだけど、ツールだとno superblockとかなってしまう。
でも、mdadm --exmineだとちゃんと表示されるんだよな〜。
1.0系と0.9系のsuperblockでは書き込まれている場所が違うからなんじゃないかと思っているんだけど。
ソースみても読み込み位置を指定する部分がよくわからない。。。


455 :login:Penguin:2011/05/27(金) 23:34:46.71 ID:LfJimWf2.net
>>454
対応していない

0.9と1.xではsuperblockの構造体が違う
raidzapは0.9系の構造体使ってる

位置は末尾決め打ち


456 :login:Penguin:2011/05/28(土) 02:11:28.82 ID:DR8xEqFb.net
>>454
なるほど、ありがとう。

だが・・・困ったなぁ。。。
md.cに何かヒントないかな。


457 :login:Penguin:2011/05/28(土) 02:12:55.99 ID:DR8xEqFb.net
455へのレスだった・・・ごめんなす。

458 :login:Penguin:2011/05/28(土) 13:01:46.86 ID:17piUe8k.net
>>454
mdadm -A -l<level> dev dev...
とかやって無理やりassembleしてもだめだった?


459 :454:2011/05/28(土) 15:22:38.14 ID:DR8xEqFb.net
>>458
--forceとかつけてやってみたんだけど、ダメだった。。。
# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
md1 : inactive sdb1[1](S) sdd1[5](S) sda1[4](S) sdc1[2](S)
7813690476 blocks super 1.2

全部、なぜかスペア扱いwwww


460 :454:2011/05/28(土) 15:34:46.55 ID:DR8xEqFb.net
ちょっと情報が少なかったので補足。
・もともと、sd[abcd]1でRAID5を構築していた。
・東京電力が謎の瞬断。
・ログを見ると、sdaとsddが外れていた。
・assembleかけてみたが、なぜかスペアで組み込まれてしまう。。。

ログを見ると、(ほとんど差は無いが)時間的にはsda、sddの順で外れていたので、
復旧の方向性としては、まずなんとかsddを組み込んで縮退状態での起動を
目指す…でいいよね?


461 :login:Penguin:2011/05/28(土) 17:00:28.23 ID:o/JG/Ps/.net
RAID組んでるならUPSぐらい……

# 今まで日本は恵まれていたんだよ。これからは海外並みにUPSが当たり前。

462 :login:Penguin:2011/05/28(土) 17:48:01.24 ID:17piUe8k.net
>>460
-A sd[bcd]1が無理なら--createする時に縮退で組めば
resyncが発生せずにメタデータ上書きだけでデータ本体はそのまま残る。
--createするときはチャンクサイズとかレイアウトとかも要設定。
まずは仮想マシンで手順とか確認。


463 :454:2011/05/28(土) 22:41:58.42 ID:DR8xEqFb.net
>>461
まぁ、それを言われちゃうと申し訳ないとしか言えないが…
計画停電もあったし、アキバで中古のUPS買おうとは思ってたんだけどなぁ。

>>462
createは最後にやってみようと思う。
おそらく、そこは失敗すると二度と戻れない手順ですよね。
もう少し、Faultyフラグを書き換える方法をいろいろ調べてみます。
ちなみにcreateする場合、自分の場合だと構成デバイスはsddだけにして、missing にsd[abc]入れる感じ?

464 :login:Penguin:2011/05/28(土) 23:42:14.88 ID:17piUe8k.net
>>463
各ボリュームがどこの位置にあったのかは-E /dev/ボリュームのDeviceRoleでわかる
Device Role : Active device 0
Array State : AAAA ('A' == active, '.' == missing)

createする時のdevicesは--detailのRaidDevice順になるからアレイから見て抜きたいところにmissing入れる
なので元々dev.No = sda.0/sdb.1/sdc.2/sdd.3
となっていてsddがDevice Role=3で新規アレイの3の位置に戻して-Cするなら
-C (中略) -l5 -n4 missing missing missing /dev/sdd
になる。dev.noは上のままと仮定して0抜きの1/2/3で縮退-Cでstartする場合のdevicesは
missing /dev/sdb /dev/sdc /dev/sdd
になる
失敗してもアレイのメタデータが飛ぶだけでLVM/PVに使っていてもそのメタデータが
破損する亊はないけどその状態で書くと多分死ぬ
各アレイの頭4096 sectorsずつくらいddでコピーして仮想マシンで試すとかいうのも手


465 :454:2011/05/29(日) 03:09:04.90 ID:HSES09fA.net
>>464
まじですごい!!!
createで復活したよ!!!
いくら、礼を言っても足りないくらいだ。
最初、lvmがinactiveになっていてactivateする必要はあったけど、見事に復活しました。
mount直後にext4の自動修正が走ったので、多少はデータに欠損があったのかもしれないが、いまのところ壊れたファイルは無さそうです。

466 :454:2011/05/29(日) 03:34:13.70 ID:HSES09fA.net
これは素晴らしいノウハウなので、復旧した流れををちょっと書き記します。
ちょっとログが流れてしまったので、一部記憶を頼りに書いています。

> 各ボリュームがどこの位置にあったのかは-E /dev/ボリュームのDeviceRoleでわかる
> Device Role : Active device 0
> Array State : AAAA ('A' == active, '.' == missing)
# mdadm -E /dev/sd[abcd]1 | grep Role
Device Role : Active device 0
Device Role : Active device 1
Device Role : Active device 2
Device Role : Active device 3

# mdadm -E /dev/sd[abcd]1 | grep State
Array State : AAA. ('A' == active, '.' == missing)
Array State : AAA. ('A' == active, '.' == missing)
Array State : AAA. ('A' == active, '.' == missing)
Array State : .AA. ('A' == active, '.' == missing)

> createする時のdevicesは--detailのRaidDevice順になるからアレイから見て抜きたいところにmissing入れる
# mdadm --detail /dev/md1
(中略)
Layout : left-symmetric
Chunk Size : 512K
(中略)
Number Major Minor RaidDevice State
4 8 1 0 failure
1 8 17 1 active sync /dev/sdb1
2 8 33 2 active sync /dev/sdc1
3 8 49 3 failure
5 ? ? ? spare /dev/sda1
6 ? ? ? spare /dev/sdd1


467 :login:Penguin:2011/05/29(日) 03:37:10.10 ID:HSES09fA.net
# mdadm -C /dev/md1 -c512 -l5 --layout=left-symmetric -n4 missing /dev/sdb1 /dev/sdc1 /dev/sdd1
以下、復活後の確認
# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
md1 : active raid5 sdd1[3] sdc1[2] sdb1[1]
ちょっと怖いが、sdaも瞬断で外れただけで、壊れていないと判断してスペアに組み込んだ。
# mdadm --detail /dev/md1
Version : 1.2
Creation Time : Sun May 29 02:46:23 2011
Raid Level : raid5
Array Size : 5860267008 (5588.79 GiB 6000.91 GB)
Used Dev Size : 1953422336 (1862.93 GiB 2000.30 GB)
Raid Devices : 4
Total Devices : 4
Persistence : Superblock is persistent
Update Time : Sun May 29 03:29:10 2011
State : clean, degraded, recovering
Active Devices : 3
Working Devices : 4
Failed Devices : 0
Spare Devices : 1
Layout : left-symmetric
Chunk Size : 512K
Rebuild Status : 6% complete
Name : sa22c:1 (local to host sa22c)
UUID : edb063f2:f934a5bb:1bf36d16:54d746ca
Events : 7
Number Major Minor RaidDevice State
4 8 1 0 spare rebuilding /dev/sda1
1 8 17 1 active sync /dev/sdb1
2 8 33 2 active sync /dev/sdc1
3 8 49 3 active sync /dev/sdd1

468 :454:2011/05/29(日) 03:47:51.48 ID:HSES09fA.net
それにしてもHDDは、まだ買ってから3〜4ヶ月のWD20EARSなのに外れなのかなぁ。。。
5本買って、1週間で1本ぶっ飛んで交換してもらったというのに。
とりあえず、sdaとsddの2本は心配なので早急に換装を検討します。

もう、WDは買わない。

あらためて、464には本当にお世話になりました。
有難うございました!

469 :login:Penguin:2011/05/31(火) 14:33:41.81 ID:XlrTIdtB.net
WD20EARS 5本を常用してる私が来ましたよ。
454さんのような復旧時にはresync必須だけど、その逆で。

create/assemble 時に state:clean にして sync を省くオプション。
--assume-clean

xfs@64bit がスタック問題で固まってた頃に多用しました。

470 :login:Penguin:2011/05/31(火) 17:32:00.62 ID:t1HBdX4P.net
こうやって問題が解決したときに結果を報告してくれる人ってのはすばらしいと思う

お疲れ様&情報ありがとう。

471 :login:Penguin:2011/05/31(火) 20:30:44.98 ID:IpyDmIcQ.net
https://raid.wiki.kernel.org/index.php/Initial_Array_Creation
そういやどっかのPerl MongerがRAID5構築時に無責任に--assume-clean勧めてたっけ

472 :login:Penguin:2011/06/01(水) 20:11:08.58 ID:68ZL2HmJ.net
無責任艦長

473 :login:Penguin:2011/06/01(水) 22:36:50.36 ID:pRX2jIbT.net
タイラー!!!

474 :login:Penguin:2011/07/02(土) 09:21:27.65 ID:Gf0bFLPz.net
RAID10のリビルドはRAID6と比べて早いのではと想像しているのですが、
この考えは正しいでしょうか?

全部同一の2TBディスクを使ってのLinuxソフトウェアRAIDですが、
・6本でRAID6
を、
・8本でRAID10
に変更した場合、容量がざっくりレベルで同じになってリビルドが早くなるなら
変更したいと考えています。
現状のRAID6だと故障からリビルド完了までに丸2日近くかかっています。
構成は、Pen4マザーにPCI-SATAカード4枚刺しにしてディスクを分散して
います。この構成を変えずにリビルド時間を短縮するのが目的です。
アドバイスお願いします。

475 :474:2011/07/02(土) 09:24:02.18 ID:Gf0bFLPz.net
補足ですが、データは全て別マシンにフルバックアップがあります。
変更といいつつアレイががっさり再構築になることは理解しています。

476 :login:Penguin:2011/07/09(土) 11:02:10.07 ID:Zeh7W9MH.net
>>474
その「リビルド」とやらを、一体システムの何が律速してるのか調べろよ。

ちょっと考えるだけでも

・パリティ計算を行うCPU
・SATAコントローラがぶら下がるPCIバスの帯域幅
・SATAコントローラ自体の性能
・SATAの帯域幅
・ハードディスクの速度

あたりが律速する要因だろう、と見当はつくだろ。
CPUが律速してないのにRAIDの構成いじってもあまり意味は無いぞ。

あと、Linuxのmdアレイはリビルドだけでマシンパワーを使い切らないようにリミッターが
かかってるから、その辺もありうるな。

477 :login:Penguin:2011/07/09(土) 11:17:58.17 ID:6cpMxatu.net
>>474
他にもボトルネックになっている可能性はあるけど、PCIバスが確実にボトルネックになるので
構成変えずに頑張っても大して効果はない。
ちなみにうちの2TBx5(RAID5)でのリビルドは、半日はかからなかったはず。


478 :login:Penguin:2011/07/10(日) 06:14:38.03 ID:pX9rtczw.net
ちょっと質問です
>RAID5はRAIDボリュームクラッシュ時に手の打ちようがない
>RAID10の方がまだマシだからRAID10にしておいた方が良い
と言う話を聞いた事があるんだけど、RAIDボリュームクラッシュ時からの
回復率ってRAID5(RAID6,RAID-Z等含む)とRAID10で変わるのかな?

479 :login:Penguin:2011/07/11(月) 23:29:52.79 ID:OOaET+Az.net
>>478
簡単に計算してみる。
RAID5は10台中2台以上破損で回復できない。
RAID10は10台中6台以上破損で回復できない。

480 :login:Penguin:2011/07/11(月) 23:36:04.41 ID:48uiNmM9.net
>>479
A-A'
B-B'
C-C'
D-D'
E-E'

A-A'が同時に壊れる可能性もあるわけだ。
そう考えると簡単な計算すら難しくなりそう。
ちなみに、俺には計算出来ない。数学は高一で放棄したから

481 :login:Penguin:2011/07/12(火) 00:40:57.00 ID:2zy6hBSr.net
RAID6+スペア2台で任意の4台までOKですよ(リビルト中に壊れない限り)
スペア2台は一台目死亡時点でで気づく様な仕組みにしておけよ、と思ってしまうけど

482 :login:Penguin:2011/07/12(火) 01:02:43.08 ID:LDQ+b/Dh.net
>>481
つauto rebuild

483 :login:Penguin:2011/07/12(火) 01:23:02.33 ID:bzOh2LuE.net
HDD4 RAID6 / Hot Spare 6

そうそう壊れないだろw

484 :login:Penguin:2011/07/12(火) 01:35:42.33 ID:KnVTEP27.net
アレイのI/Fが2つ以上に分かれていて
そのうち1つのI/F死ぬとコロっといくかもな

485 :login:Penguin:2011/07/12(火) 03:30:30.00 ID:bzOh2LuE.net
それはどのRAIDでも言えること

486 :login:Penguin:2011/07/16(土) 23:21:39.73 ID:RQME3r/e.net
初心者です。質問させて下さい。
HDD2台でRaid0を組んだ場合のバックアップの取り方なんですが、どのようにされていますか?
Raid対応のバックアップソフトが市販されてますが、やはりバックアップ用のHDDも2台必要なのでしょうか。
できれば費用を節約して1台に集約したいのですが。



487 :login:Penguin:2011/07/16(土) 23:42:33.24 ID:pf3M1bS/.net
・・・

488 :login:Penguin:2011/07/17(日) 00:09:54.21 ID:l0XJkxsN.net
>>486
1GB HDD×2のものを2GB×1にバックアップしたいって意味?


…じゃなさそうだな…

489 :login:Penguin:2011/07/17(日) 02:07:20.16 ID:O6oORdmv.net
>>488
いえ、その通りです。
2台のHDDにストライピングしたデータを1台のHDDでバックアップしたいのです。

490 :login:Penguin:2011/07/17(日) 02:21:53.74 ID:T2Qdi5fJ.net
そんなの、十分な容量のバックアップ先にコピーでも何でも好きにすりゃいいんじゃない?
その容量なら、その辺で売ってる安いUSBメモリでも間に合うぜ?

491 :login:Penguin:2011/07/17(日) 09:40:59.84 ID:8HtPnhxy.net
>>490
それは単位間違いじゃないか。
そもそも、1GBうんぬんは質問者の >>486 が言っているわけじゃなく、>>488 のコメントだし。

>>486
このスレだと、RAID"0" はバックアップいらないデータの置き場所っていう感じあるからなぁ。
1台で容量足りないならバックアップ先も RAID 組むしか無い。
そもそも RAID0 でバックアップもとりたいなら RAID10 組むことが多い気がする。





492 :login:Penguin:2011/07/17(日) 09:44:41.92 ID:8HtPnhxy.net
ところで、ubuntu 道場で NAS の話が出ていて、
ttp://ascii.jp/elem/000/000/619/619406/index-4.html
RAID 組んだら定期的に dd of=/dev/null if=/dev/sda とかでデータなめておいた方が
いいとかあるんだけど、結構常識だったりする?
はじめて聞いたんだけど。

493 :login:Penguin:2011/07/17(日) 11:07:52.82 ID:euYEF6jy.net
その理由を書いていないのでオカルト。
そもそもddでなくてもmdにアレイの整合性をチェックさせて
問題があればエラーを吐かせる為のメソッドがsysfsに用意されてるし

494 :login:Penguin:2011/07/17(日) 12:31:49.13 ID:O6oORdmv.net
>>491

>>486で質問した者です。
十分な容量のHDDさえ用意できれば1台でバックアップ取れるのでしょうか?つまり、
ストライピングでHDD2台に分散させたデータを通常の形のデータ(Raid0構成でないシステムでも読めるデータ)に戻してHDD1台に保存できるのでしょうか?


495 :login:Penguin:2011/07/17(日) 12:52:44.01 ID:C0QOi8+q.net
いや普通にバックアップとればいいんじゃないの?
何悩んでるかしらんが

496 :login:Penguin:2011/07/17(日) 17:24:13.10 ID:sAxoGETv.net
>>494
RAIDを実際に使ったことないの?

使えば分かるがRAIDってのは大雑把に言って
「複数のHDDを一つのHDDとして扱う技術」だ。
OSからはまとめて一つのHDDに見えてるんだから
扱いとしてはHDD 1対1のコピーと何も変わらんぞ。
むしろ構成してる物理HDD別々にバックアップをする方が大変。

497 :login:Penguin:2011/07/17(日) 17:50:22.73 ID:O6oORdmv.net
>>495
>>496
まだ実際にRaidで組んだことがないもので・・。アホな質問で申し訳ありませんでした。
普通にできるんですね。
どうもありがとうございました。

498 :login:Penguin:2011/07/19(火) 14:08:40.91 ID:YOk0NYds.net
RAIDに詳しい人が多いようなので質問します。
今、センチュリーのCRIB35EU3という外付ケースを利用してRAID5を組んでいるのですが
先日、バックアップをとろうと電源を入れ、アクセスしようとすると
フォーマットされていませんというメッセージが表示されるようになりました。
おそらく論理障害だと思いますが、簡単に直す方法などありますでしょうか?
※FINALDATAでは中身を見ることができました。ただいまバックアップをとっています。

499 :login:Penguin:2011/07/19(火) 14:28:35.01 ID:EEEP93x/.net
板名音読しろ

500 :login:Penguin:2011/07/19(火) 14:39:11.43 ID:9QgtZQ/U.net
OK牧場かYahoo痴恵袋行け

501 : 【東電 67.6 %】 忍法帖【Lv=31,xxxPT】 :2011/08/01(月) 19:05:41.74 ID:ddnJTrg6.net
Ubuntu初心者板でも匙投げられたのでどうかご教授お願いします

【初心者スレ】Ubuntu Linux 67
http://hibari.2ch.net/test/read.cgi/linux/1311389692/351

> 恐れ入ります
> 私のマシンは少し構成が入り組んでいるのですが、Ubuntuをどのような手順で入れればいいでしょうか
> 特に4ポートのRAIDボードが邪魔をして、この間もWindowsXPとのデュアルブートを試みたのですが
> ブートドライブにインストールされないで、他のRAID1を破壊するだけの結果におわりました
> ご指導よろしくお願いします
>
> マザーボード:P7P55D-E
> メモリ:2Gbyte×2
>
> 現在オンボードはIDEモードでSATA→eSATA変換ブラケットで2台HDDが外付けになっている
> ただし、それらはブートドライブには使わない
>
> PCI及びPCI-exスロットの並び
> 1:HighPoint Rocket RAID 3120(それにHDD2台でRAID1)→ブートドライブ
> 2:玄人志向 GF210-LE512HD(nVidiaグラフィックボード)
> 3:玄人志向GbE-PCIe(LANボード)
> 4:カノープスMTV1200FX(使用禁止にする予定)
> 5:空き(SATA→eSATA変換ブラケット×2にて2台ハードウェアRAIDを装着中)
> 6:CMI8738-4CHPCI(サウンドボード)
> 7:HighPoint Rocket RAID 2300(それにHDD4台でRAID1×2セット)→データドライブメインとバックアップ
>
> 音も鳴るのにどうしてこうなった…orz
>
厳密には3120がハードウェアRAIDボードで2300はソフトウェアRAIDボードなのにUbuntu板ではそう思っていないようです


502 :login:Penguin:2011/08/01(月) 19:18:25.37 ID:MoOsZ/eN.net
そう思っていないとは、どう思っているのかがその文からは全然わからん


503 :login:Penguin:2011/08/01(月) 20:22:31.58 ID:LMFTrc05.net
ブートに使うドライブだけ付けて OS をインストールして、
インストールが終わったら順番に付けろ。
そもそも OS インストールを助けるスレじゃねぇぞ。と。

504 :login:Penguin:2011/08/02(火) 23:14:34.99 ID:10Xubh93.net
>>501
> Ubuntu板ではそう思っていないようです
すでに手放して久しいんだが、RocketRAID(めんどくさいから以下RR)2300はHighPointのドライバ入れないと
「Marvell製コントローラを搭載したnon-RAIDなSATAアダプタ」として認識されるんじゃなかったかな?
今でもそうだったら、Ubuntuスレが正しい。

RR3120のアレイにインストールできないのはよく知らん。
HighPointのサイト見たら「Ubuntu 8.10以降ならカーネルにRR3120のドライバ入ってます」とかゆってるけど。

505 :login:Penguin:2011/08/09(火) 10:03:24.01 ID:hTCbJlvG.net
RAID童貞です。Windowsなんですけどここでいいですか?
いいとして質問します。もし他に適当なスレがあれば誘導してください。

現在データは全て外付けHDDに入れて、もう1台の外付けHDDにバックアップソフトで
定期的にミラーリングしています。
それだとちょっと面倒なのでRAID1でミラーリングしたいです。
ちなみにこれを使う予定です。
http://buffalo.jp/product/hdd/external/hd-wlu3_r1/

本文が長すぎると2chに怒られたので分割します。

506 :login:Penguin:2011/08/09(火) 10:04:52.77 ID:hTCbJlvG.net
続き

質問1
RAID1を構成した2台のHDDは、PCからは1台のHDDとして見えるとのことですが、
他のPCに繋いでも同じように動作するのでしょうか。

質問2
RAID1を構成した2台のどちらか一方または両方を、後でRAIDではなく普通の
外付けHDDとして読み書き削除したり、それを再度RAID化したりできるのでしょうか。

質問3
一方のHDDが壊れてももう一方が生きていればそのまま問題なく使えるのはいいのですが、
壊れたことはどうやって知るのでしょうか。

質問4
RAID1の2台のHDDをTrueCryptで暗号化した場合、ヘッダは2台共通でしょうか、別々でしょうか。
また、壊れた場合の復旧も含めて、暗号化しない場合と全てにおいてまったく同じように使えるのでしょうか。
それとも何か制限があるのでしょうか。


以上初歩的な質問で申し訳ありませんがよろしくお願いいたします。

507 :login:Penguin:2011/08/09(火) 10:21:30.30 ID:8OkAJdZz.net
Linux板で
>Windowsなんですけどここでいいですか?
とか、ネタなら笑いどころがわからないし、本気なら人生やり直しが必要

508 :login:Penguin:2011/08/09(火) 10:24:12.41 ID:NGWTHhbE.net
>>506
回答1-4
HDD買って自分で全て試してから質問しろ
まあがんばれ

509 :login:Penguin:2011/08/09(火) 10:25:09.82 ID:dChPzCWQ.net
(1)YES
(2)NO (参考:ttp://www.touki.info/howto/howtoReadRAID1.html)
(3)外付けならBEEPが鳴ったり、付属ツールで知ります (HW RAID I/F の場合は、それら機能はカード側に有り)
(4)仮想ドライブの実態はファイルです(これで意味が分からなければ TrueCrypt は使わないほうが良いかな?)

510 :login:Penguin:2011/08/09(火) 11:03:22.91 ID:NGWTHhbE.net
>>509
ブロックデバイスそのものをTruecryptで暗号化できるぞ。その上でext3,4なりxfsなりでフォーマット可能

511 :506:2011/08/09(火) 19:01:28.28 ID:hTCbJlvG.net
>>509
何か問題が生じたときに面倒そうですね。
やっぱり私にはRAIDは敷居が高そうなので、今まで通り、暗号化したHDD2台を
手動でちまちまミラーリングすることにします。
ありがとうございました。

512 :login:Penguin:2011/08/09(火) 22:51:15.48 ID:ZNuJPM5g.net
手動バックアップできるならそのほうがいいよ。
操作ミスで消してしまってもバックアップから戻せるし。
RAIDだと両方同時に消えちゃうんだぜ。

513 :login:Penguin:2011/08/09(火) 23:11:11.55 ID:qheaWxpd.net
highpoint RR2740で起こっている症状なんですが、おしえてください。
RAID5
windows7 ultimate64 2TBX4 アレイ3個で運用していたのですが
増設して3TBX4のアレイを追加したのですが
再起動するとアレイが消滅してlegacy の表示になっていました。
2740のwindowsドライバをアップデートしたらアレイが消滅することはなくなったのですが
bios画面では相変わらずlegacyの単独ドライブが2個表示される異常な状態
でも、windows 上ではアレイが認識されて使用出来ます。
3TBはまだ完全に対応しきってない、ということなのでしょうか?

514 :login:Penguin:2011/08/10(水) 00:09:19.62 ID:zijbgalB.net
板違いだつってんだろクソが

515 :login:Penguin:2011/08/10(水) 10:38:40.00 ID:3blPM5vJ.net
>>513
1.ハードディスクを窓から投げ捨てる
2.RR2740を電子レンジで30秒ほどチンする
3.Linuxに入れ替えてからこのスレを再訪する

これで君を悩ます諸問題は解決だ。おめでとう。

516 :login:Penguin:2011/08/10(水) 15:24:41.67 ID:LTIBIK6s.net
ZFSで運用した場合、トランザクション管理されるため、
RAID 5書き込みホールの問題は起こらないという認識で間違いないですか?

517 :login:Penguin:2011/08/10(水) 19:17:02.70 ID:N8zlOHLY.net
Native ZFS for Linux
ってもう使ってる人多いのかな?

518 :login:Penguin:2011/08/10(水) 20:20:33.31 ID:xLNWbyKZ.net
>>513 ですがぼーっとしてた ごめん。

519 :login:Penguin:2011/08/18(木) 20:06:21.02 ID:C6hWIJ/5.net
>>509
質問2はRAIDカードによるよね?

520 :login:Penguin:2011/08/19(金) 00:14:26.66 ID:/dF3zyqQ.net
RAIDカードによらずともマウントする際に色々パラメータ弄ってやればマウントはどれも可能なはず


521 :login:Penguin:2011/09/02(金) 13:50:56.07 ID:DvSMkTFj.net
mdraidは最初は対応してなかったraid6に対応したみたいに、raidZ対応したりしないのかな
それだとext4であと5年は戦えるきがするんだ
resize2fs(resize4fs?)が16Tの壁乗り越えてくれればだけど

522 :login:Penguin:2011/09/05(月) 03:13:11.48 ID:Gem/5tJp.net
mdadmで構成したHDD4台のRAID5アレイでhdd側に障害が発生。
一時的に構成しているHDDが通電していない状態になったようなのですが、
瞬断と思い電源コネクタを付け直してサーバの再起動をしました。

すると/proc/mdstat上で構成しているHDD4台全てが
[S]が付いて全台スペアディスクになってしまっているようです。
おそらくこれが原因でmdadm.confに記入していても自動で起動できず inactive の状態からアレイを起動できません。
強制的にアレイの起動をかけても、 no superblock assembly のエラーを吐いてしまう状態です。

スペアディスクの属性をクリアできればよいような気がするのですが、ここからの復旧方法についてアドバイスいただけないでしょうか。



523 :522:2011/09/05(月) 03:35:07.39 ID:Gem/5tJp.net
詳細1

# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md126 : inactive sdh1[4](S) sdg1[2](S) sde1[1](S) sdb1[0](S)
7814049792 blocks super 1.2

md127 : active raid5 sdd1[3] sdc1[0] sdf1[1]
5860528128 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU]

unused devices: <none>


524 :522:2011/09/05(月) 03:36:18.11 ID:Gem/5tJp.net
詳細2
# mdadm --examine /dev/sdb1
/dev/sdb1:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x0
Array UUID : 234703b1:5d4cfec5:95fc05bb:78160d2f
Name : ubuntu:0 (local to host ubuntu)
Creation Time : Sun Jul 24 23:50:32 2011
Raid Level : raid5
Raid Devices : 4

Avail Dev Size : 3907024896 (1863.01 GiB 2000.40 GB)
Array Size : 11721071616 (5589.04 GiB 6001.19 GB)
Used Dev Size : 3907023872 (1863.01 GiB 2000.40 GB)
Data Offset : 2048 sectors
Super Offset : 8 sectors
State : active
Device UUID : 8c8ddf45:f164c9ed:a130b98c:2d811627

Update Time : Sun Sep 4 23:10:41 2011
Checksum : fdf9230e - correct
Events : 83

Layout : left-symmetric
Chunk Size : 512K

Device Role : Active device 0
Array State : AAAA ('A' == active, '.' == missing)


525 :522:2011/09/05(月) 03:37:04.14 ID:Gem/5tJp.net
詳細3
# mdadm --examine /dev/sde1
/dev/sde1:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x0
Array UUID : 234703b1:5d4cfec5:95fc05bb:78160d2f
Name : ubuntu:0 (local to host ubuntu)
Creation Time : Sun Jul 24 23:50:32 2011
Raid Level : raid5
Raid Devices : 4

Avail Dev Size : 3907024896 (1863.01 GiB 2000.40 GB)
Array Size : 11721071616 (5589.04 GiB 6001.19 GB)
Used Dev Size : 3907023872 (1863.01 GiB 2000.40 GB)
Data Offset : 2048 sectors
Super Offset : 8 sectors
State : active
Device UUID : 5198bcfd:a5d03642:14c34e0b:06a622d4

Update Time : Sun Sep 4 23:14:18 2011
Checksum : 35e6562b - correct
Events : 1234

Layout : left-symmetric
Chunk Size : 512K

Device Role : Active device 1
Array State : .AAA ('A' == active, '.' == missing)


526 :522:2011/09/05(月) 03:37:48.24 ID:Gem/5tJp.net
詳細4
# mdadm --examine /dev/sdg1
/dev/sdg1:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x0
Array UUID : 234703b1:5d4cfec5:95fc05bb:78160d2f
Name : ubuntu:0 (local to host ubuntu)
Creation Time : Sun Jul 24 23:50:32 2011
Raid Level : raid5
Raid Devices : 4

Avail Dev Size : 3907024896 (1863.01 GiB 2000.40 GB)
Array Size : 11721071616 (5589.04 GiB 6001.19 GB)
Used Dev Size : 3907023872 (1863.01 GiB 2000.40 GB)
Data Offset : 2048 sectors
Super Offset : 8 sectors
State : active
Device UUID : 256bfd77:421f8083:95a02e33:19164d06

Update Time : Sun Sep 4 23:14:18 2011
Checksum : 4b7ac530 - correct
Events : 1234

Layout : left-symmetric
Chunk Size : 512K

Device Role : Active device 2
Array State : .AAA ('A' == active, '.' == missing)


527 :login:Penguin:2011/09/05(月) 03:38:29.46 ID:Gem/5tJp.net
詳細5
# mdadm --examine /dev/sdh1
/dev/sdh1:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x0
Array UUID : 234703b1:5d4cfec5:95fc05bb:78160d2f
Name : ubuntu:0 (local to host ubuntu)
Creation Time : Sun Jul 24 23:50:32 2011
Raid Level : raid5
Raid Devices : 4

Avail Dev Size : 3907024896 (1863.01 GiB 2000.40 GB)
Array Size : 11721071616 (5589.04 GiB 6001.19 GB)
Used Dev Size : 3907023872 (1863.01 GiB 2000.40 GB)
Data Offset : 2048 sectors
Super Offset : 8 sectors
State : active
Device UUID : e81fc343:3e114959:003c90b1:e8d210c6

Update Time : Sun Sep 4 23:14:18 2011
Checksum : 2b2ec42c - correct
Events : 1234

Layout : left-symmetric
Chunk Size : 512K

Device Role : Active device 3
Array State : .AAA ('A' == active, '.' == missing)


528 :522:2011/09/05(月) 03:41:43.66 ID:Gem/5tJp.net
おそらくは/dev/sdb1のみが
Array State : AAAA ('A' == active, '.' == missing)
と成っていてHDD4台ともActiveと認識しているのに対し
残り3台は
Array State : .AAA ('A' == active, '.' == missing)
となっているあたりが原因のような気がしています。

529 :login:Penguin:2011/09/06(火) 03:20:24.29 ID:pUNE1oun.net
ナルホド('A'

530 :login:Penguin:2011/09/06(火) 08:21:56.98 ID:znO8rUOJ.net
>>528
Update Timeから、/dev/sdb1が真っ先にアクセス不能になったのは分かるけど、
spareになるのは想像つかん

superblockのフォーマット↓
ttps://raid.wiki.kernel.org/index.php/RAID_superblock_formats
dev_rolesが0xFFFFになってるのがスペア

異常なDiskと正常(?)なDiskのsuperblockを見比べて見ると何か分かるかも
# dd if=/dev/sdb1 count=10 2>/dev/null | od -tx -Ax -v | grep -A17 a92b4efc
# dd if=/dev/sde1 count=10 2>/dev/null | od -tx -Ax -v | grep -A17 a92b4efc


531 :522:2011/09/06(火) 22:35:23.61 ID:Bbl4LkEB.net
>>530
アドバイスありがとうございます。実行してみました。

# dd if=/dev/sdb1 count=10 2>/dev/null | od -tx -Ax -v | grep -A17 a92b4efc
001000 a92b4efc 00000001 00000000 00000000
001010 b1034723 c5fe4c5d bb05fc95 2f0d1678
001020 6e756275 303a7574 00000000 00000000
001030 00000000 00000000 00000000 00000000
001040 4e2c3138 00000000 00000005 00000002
001050 e8e07400 00000000 00000400 00000004
001060 00000000 00000000 00000000 00000000
001070 00000000 00000000 00000000 00000000
001080 00000800 00000000 e8e07800 00000000
001090 00000008 00000000 00000000 00000000
0010a0 00000000 00000000 45df8d8c edc964f1
0010b0 8cb930a1 2716812d 00000000 00000000
0010c0 4e6386e1 00000000 00000053 00000000
0010d0 00000000 00000000 fdf9230e 00000180
0010e0 00000000 00000000 00000000 00000000
0010f0 00000000 00000000 00000000 00000000
001100 00010000 fffe0002 fffe0003 fffefffe
001110 fffefffe fffefffe fffefffe fffefffe

# dd if=/dev/sde1 count=10 2>/dev/null | od -tx -Ax -v | grep -A17 a92b4efc
#

/dev/sdb1 側にのみ a92b4efc が存在しているようです。

532 :login:Penguin:2011/09/07(水) 00:39:07.00 ID:0NsdsTrQ.net
>>531
sde1のsuperblock飛んでる?
だとするとmdadm --examineで表示されるのが変なんだけど

同様に↓は?
# dd if=/dev/sdg1 count=10 2>/dev/null | od -tx -Ax -v | grep -A17 a92b4efc
# dd if=/dev/sdh1 count=10 2>/dev/null | od -tx -Ax -v | grep -A17 a92b4efc


533 :522:2011/09/07(水) 00:50:40.62 ID:6aXKWA2G.net
>>532
大変失礼しました。 # も含めてコピペしてコメント扱いになっているだけでした。残り3台分の実行結果です。

# dd if=/dev/sde1 count=10 2>/dev/null | od -tx -Ax -v | grep -A17 a92b4efc
001000 a92b4efc 00000001 00000000 00000000
001010 b1034723 c5fe4c5d bb05fc95 2f0d1678
001020 6e756275 303a7574 00000000 00000000
001030 00000000 00000000 00000000 00000000
001040 4e2c3138 00000000 00000005 00000002
001050 e8e07400 00000000 00000400 00000004
001060 00000000 00000000 00000000 00000000
001070 00000000 00000000 00000000 00000000
001080 00000800 00000000 e8e07800 00000000
001090 00000008 00000000 00000000 00000000
0010a0 00000001 00000000 fdbc9851 4236d0a5
0010b0 0b4ec314 d422a606 00000000 00000000
0010c0 4e6387ba 00000000 000004d2 00000000
0010d0 00000000 00000000 35e6562b 00000180
0010e0 00000000 00000000 00000000 00000000
0010f0 00000000 00000000 00000000 00000000
001100 0001fffe fffe0002 fffe0003 fffefffe
001110 fffefffe fffefffe fffefffe fffefffe


534 :522:2011/09/07(水) 00:51:21.93 ID:6aXKWA2G.net
# dd if=/dev/sdg1 count=10 2>/dev/null | od -tx -Ax -v | grep -A17 a92b4efc
001000 a92b4efc 00000001 00000000 00000000
001010 b1034723 c5fe4c5d bb05fc95 2f0d1678
001020 6e756275 303a7574 00000000 00000000
001030 00000000 00000000 00000000 00000000
001040 4e2c3138 00000000 00000005 00000002
001050 e8e07400 00000000 00000400 00000004
001060 00000000 00000000 00000000 00000000
001070 00000000 00000000 00000000 00000000
001080 00000800 00000000 e8e07800 00000000
001090 00000008 00000000 00000000 00000000
0010a0 00000002 00000000 77fd6b25 83801f42
0010b0 332ea095 064d1619 00000000 00000000
0010c0 4e6387ba 00000000 000004d2 00000000
0010d0 00000000 00000000 4b7ac530 00000180
0010e0 00000000 00000000 00000000 00000000
0010f0 00000000 00000000 00000000 00000000
001100 0001fffe fffe0002 fffe0003 fffefffe
001110 fffefffe fffefffe fffefffe fffefffe


535 :522:2011/09/07(水) 00:52:03.35 ID:6aXKWA2G.net
# dd if=/dev/sdh1 count=10 2>/dev/null | od -tx -Ax -v | grep -A17 a92b4efc
001000 a92b4efc 00000001 00000000 00000000
001010 b1034723 c5fe4c5d bb05fc95 2f0d1678
001020 6e756275 303a7574 00000000 00000000
001030 00000000 00000000 00000000 00000000
001040 4e2c3138 00000000 00000005 00000002
001050 e8e07400 00000000 00000400 00000004
001060 00000000 00000000 00000000 00000000
001070 00000000 00000000 00000000 00000000
001080 00000800 00000000 e8e07800 00000000
001090 00000008 00000000 00000000 00000000
0010a0 00000004 00000000 43c31fe8 5949113e
0010b0 b1903c00 c610d2e8 00000000 00000000
0010c0 4e6387ba 00000000 000004d2 00000000
0010d0 00000000 00000000 2b2ec42c 00000180
0010e0 00000000 00000000 00000000 00000000
0010f0 00000000 00000000 00000000 00000000
001100 0001fffe fffe0002 fffe0003 fffefffe
001110 fffefffe fffefffe fffefffe fffefffe


536 :login:Penguin:2011/09/08(木) 00:02:44.15 ID:O6bwqAQc.net
superblock上ではスペアになっているDISKは無い
/proc/mdstatで"(S)"になってるのは起動時のチェックで
エラーがあったからだと思う
起動時のログに何かエラー出てない?

あと、↓は実行出来る?
# mdadm --detail /dev/md126

sdb1外して再起動すれば復活するような気がするんだけど

537 :522:2011/09/08(木) 01:10:05.32 ID:X3JJWFjL.net
>>536
度々ありがとうございます。 /var/log/dmesg 上のログ全ては出し切れないので怪しそうな部分の抜粋です。

↓/dev/md127に関するログは当然あるが、 /dev/md126に関するログが何も出ていない(エラー系のものも含めて)

[ 6.544320] sd 1:0:5:0: [sdg] Attached SCSI disk
[ 6.593606] md: bind<sdf1>
[ 6.597609] md: bind<sdc1>
[ 6.606304] md: bind<sdb1>
[ 6.612664] md: bind<sde1>
[ 6.619733] md: bind<sdd1>
[ 6.622390] bio: create slab <bio-1> at 1
[ 6.622417] md/raid:md127: device sdd1 operational as raid disk 2
[ 6.622420] md/raid:md127: device sdc1 operational as raid disk 0
[ 6.622423] md/raid:md127: device sdf1 operational as raid disk 1
[ 6.622951] md/raid:md127: allocated 3230kB
[ 6.623015] md/raid:md127: raid level 5 active with 3 out of 3 devices, algorithm 2
[ 6.623019] RAID conf printout:
[ 6.623021] --- level:5 rd:3 wd:3
[ 6.623024] disk 0, o:1, dev:sdc1
[ 6.623026] disk 1, o:1, dev:sdf1
[ 6.623028] disk 2, o:1, dev:sdd1
[ 6.623064] md127: detected capacity change from 0 to 6001180803072
[ 6.639598] EXT4-fs (sda1): mounted filesystem with ordered data mode. Opts: (null)
[ 6.651689] md: bind<sdg1>
[ 6.662636] md127: p1
[ 6.674039] md: bind<sdh1>
[ 6.963670] ses 1:0:7:0: Attached Enclosure device
[ 38.039547] Adding 1325356k swap on /dev/sda5. Priority:-1 extents:1 across:1325356k


538 :522:2011/09/08(木) 01:17:27.06 ID:X3JJWFjL.net
気になるログその2 ATA14のHDDでエラー。こいつが今件の初発の原因??

[ 5.680895] /build/buildd/linux-2.6.38/drivers/scsi/mvsas/mv_sas.c 1388:found dev[6:5] is gone.
[ 5.685621] ata14.00: ATA-8: WDC WD20EARS-00MVWB0, 51.0AB51, max UDMA/133
[ 5.685624] ata14.00: 3907029168 sectors, multi 0: LBA48 NCQ (depth 31/32)
[ 5.689622] ata14.00: configured for UDMA/133
[ 5.689676] scsi 1:0:5:0: Direct-Access ATA WDC WD20EARS-00M 51.0 PQ: 0 ANSI: 5
[ 5.693872] /build/buildd/linux-2.6.38/drivers/scsi/mvsas/mv_sas.c 1388:found dev[7:5] is gone.

[ 39.559395] ata14: translated ATA stat/err 0x01/04 to SCSI SK/ASC/ASCQ 0xb/00/00
[ 39.559400] ata14: status=0x01 { Error }
[ 39.559403] ata14: error=0x04 { DriveStatusError }
[ 39.564298] ata14: translated ATA stat/err 0x51/04 to SCSI SK/ASC/ASCQ 0xb/00/00
[ 39.564303] ata14: status=0x51 { DriveReady SeekComplete Error }
[ 39.564307] ata14: error=0x04 { DriveStatusError }
[ 39.564735] ata14: translated ATA stat/err 0x01/04 to SCSI SK/ASC/ASCQ 0xb/00/00
[ 39.564739] ata14: status=0x01 { Error }
[ 39.564742] ata14: error=0x04 { DriveStatusError }

あと、以前も試して同じ結果でしたが
# mdadm --detail /dev/md126
mdadm: md device /dev/md126 does not appear to be active.
でした。

正常に動作しているmd127は、/dev/md/以下に別名のアレイ名称のシンボリックリンクが作成されていますが
md126については、シンボリックリンクは作成されていませんが、 /dev/md126 自体は生成されている状態になっています。


539 :522:2011/09/10(土) 13:46:51.44 ID:NMszAiJM.net
復旧を継続して試みていますが、 sdb1 のHDDを取り外して起動しなおしても状況は変わりませんでした。
# mdadm -D /dev/md126
/dev/md126:
Version : 1.2
Creation Time : Sun Jul 24 23:50:32 2011
Raid Level : raid5
Used Dev Size : 1953511936 (1863.01 GiB 2000.40 GB)
Raid Devices : 4
Total Devices : 3
Persistence : Superblock is persistent

Update Time : Sun Sep 4 23:14:18 2011
State : active, degraded, Not Started
Active Devices : 3
Working Devices : 3
Failed Devices : 0
Spare Devices : 0

Layout : left-symmetric
Chunk Size : 512K

Name : ubuntu:0 (local to host ubuntu)
UUID : 234703b1:5d4cfec5:95fc05bb:78160d2f
Events : 1234

Number Major Minor RaidDevice State
0 0 0 0 removed
1 8 65 1 active sync /dev/sde1
2 8 97 2 active sync /dev/sdg1
4 8 113 3 active sync /dev/sdh1

540 :522:2011/09/10(土) 13:50:59.81 ID:NMszAiJM.net
sdb1のHDDを

Number Major Minor RaidDevice State
0 0 0 0 removed
1 8 65 1 active sync /dev/sde1
2 8 97 2 active sync /dev/sdg1
4 8 113 3 active sync /dev/sdh1

のremovedの位置に認識させられればアレイを起動できる状態になりそうなのですが、
一旦sdb1のsuperblockを飛ばすなり、パーティションを作成しなおしてからでないとスペアとして組み込めないのですかね・・・?

541 :login:Penguin:2011/09/10(土) 16:18:48.11 ID:efd1VIH5.net
>>540
取り外したDISKがremovedになってるのは当然

これの↓実行結果は?
# cat /sys/block/md126/md/array_state

あと、/proc/mdstatでまだ"(S)"付いてる?

542 :522:2011/09/10(土) 16:27:16.54 ID:NMszAiJM.net
なんとか sdb1 をスペアに組み込むところまではたどり着きました。
再起動を何回か実施しているので、 md126 が md127 に入り繰りになってます。

# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md126 : active raid5 sdd1[3] sdf1[1] sdc1[0]
5860528128 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU]

md127 : inactive sdg1[2] sdh1[4] sde1[1] sdb1[5](S)
7814049792 blocks super 1.2




543 :522:2011/09/10(土) 16:28:11.25 ID:NMszAiJM.net
# mdadm --detail /dev/md127
/dev/md127:
Version : 1.2
Creation Time : Sun Jul 24 23:50:32 2011
Raid Level : raid5
Used Dev Size : 1953511936 (1863.01 GiB 2000.40 GB)
Raid Devices : 4
Total Devices : 4
Persistence : Superblock is persistent

Update Time : Sun Sep 4 23:14:18 2011
State : active, degraded, Not Started
Active Devices : 3
Working Devices : 4
Failed Devices : 0
Spare Devices : 1

Layout : left-symmetric
Chunk Size : 512K

Name : ubuntu:0 (local to host ubuntu)
UUID : 234703b1:5d4cfec5:95fc05bb:78160d2f
Events : 1234

Number Major Minor RaidDevice State
0 0 0 0 removed
1 8 65 1 active sync /dev/sde1
2 8 97 2 active sync /dev/sdg1
4 8 113 3 active sync /dev/sdh1

5 8 17 - spare /dev/sdb1

544 :522:2011/09/10(土) 16:30:05.08 ID:NMszAiJM.net
>>541
# cat /sys/block/md127/md/array_state
inactive

mdstatの各HDについていた (S) は無くなりました。

ただ、この状態からでもアレイの起動はできずの状態です。
# mdadm -R /dev/md127
mdadm: failed to run array /dev/md127: Input/output error

545 :login:Penguin:2011/09/10(土) 17:25:26.05 ID:efd1VIH5.net
>>544
sdbって新品?
元々使ってた奴なら、アレイに追加する前に単体で読み書きテストした?

とりあえず、強制的にactive
# echo active > /sys/block/md127/md/array_state

ttp://lxr.linux.no/#linux+v3.0.4/drivers/md/md.c#L3354


546 :522:2011/09/11(日) 11:24:57.03 ID:AqZU9mQD.net
>>545
sdbは使い回しています。 まだメーカーのHDDチェックツールでのHDD単体全体のスキャンチェックは完了していませんが、読み込みは問題ないようです。
# hdparm -Tt /dev/sdb

/dev/sdb:
Timing cached reads: 2108 MB in 2.00 seconds = 1054.63 MB/sec
Timing buffered disk reads: 366 MB in 3.00 seconds = 121.99 MB/sec

復旧できなくなる要員になるようなことは極力避けようと思い、sdbへの書き込みチェックはまだ実施していません。

547 :522:2011/09/11(日) 11:27:14.34 ID:AqZU9mQD.net
強制activeを試みましたが原因不明の入出力エラーの状態で、ここにアレイを起動できない原因があるのかもしれません。
# ls -l /sys/block/md127/md/array_state
-rw-r--r-- 1 root root 4096 2011-09-11 11:15 /sys/block/md127/md/array_state

# cat /sys/block/md127/md/array_state
inactive

# echo active > /sys/block/md127/md/array_state
bash: echo: 書き込みエラー: 入力/出力エラーです

# ls -l /sys/block/md127/md/
合計 0
-rw-r--r-- 1 root root 4096 2011-09-11 11:00 array_size
-rw-r--r-- 1 root root 4096 2011-09-11 11:18 array_state
drwxr-xr-x 2 root root 0 2011-09-11 11:00 bitmap
-rw-r--r-- 1 root root 4096 2011-09-11 11:00 chunk_size
-rw-r--r-- 1 root root 4096 2011-09-11 11:00 component_size
drwxr-xr-x 2 root root 0 2011-09-11 11:00 dev-sdb1
drwxr-xr-x 2 root root 0 2011-09-11 11:00 dev-sde1
drwxr-xr-x 2 root root 0 2011-09-11 11:00 dev-sdg1
drwxr-xr-x 2 root root 0 2011-09-11 11:00 dev-sdh1
-rw-r--r-- 1 root root 4096 2011-09-11 11:00 layout
-rw-r--r-- 1 root root 4096 2011-09-11 11:00 level
-rw-r--r-- 1 root root 4096 2011-09-11 11:00 max_read_errors
-rw-r--r-- 1 root root 4096 2011-09-11 11:00 metadata_version
--w------- 1 root root 4096 2011-09-11 11:00 new_dev
-rw-r--r-- 1 root root 4096 2011-09-11 11:00 raid_disks
-rw-r--r-- 1 root root 4096 2011-09-11 11:00 reshape_position
-rw-r--r-- 1 root root 4096 2011-09-11 11:00 resync_start
-rw-r--r-- 1 root root 4096 2011-09-11 11:00 safe_mode_delay

548 :login:Penguin:2011/09/11(日) 23:05:24.48 ID:lb+4D791.net
>>547
んじゃ、↓で。"active"と違って縮退状態のままアレイ開始
# echo clean > /sys/block/md127/md/array_state

ここまで動かないと、ハードウェア側を疑いたくなるんだけど


549 :login:Penguin:2011/09/12(月) 13:01:15.87 ID:Bts/njAy.net
たった4台のraid5でなにを大騒ぎしてんだろ……
ステータスのクリーンは筋が悪い。

b1が腐ってるんだろ?

新台入れるか(パチンコみたいだなw)
普通に
mdadm -S /dev/md127
mdadm -A /dev/md(新しい数字) -a /dev/sd(e, g, h)1
これが通ったら、
mdadm --zero-superblock /dev/sdb1 ←ここがポイントのはず
mdadm -A /dev/md(新しい数字) -a /dev/sdb1
でよかないか?

書き換えるのが怖いなら/dev/sdbをコピーとってからやればよい。

550 :login:Penguin:2011/09/12(月) 13:08:18.91 ID:Bts/njAy.net
蛇足。
mdadm -A /dev/md(新しい数字) -a /dev/sd(e, g, h)1
この記法ってあってたかどうか自信ない。

素直に
mdadm -A /dev/md(新しい数字) -a /dev/sde1 /dev/sdg1 /dev/sdh1
にすべきか。

551 :login:Penguin:2011/09/12(月) 21:29:15.15 ID:5pzJNgRd.net
>>550
# mdadm -A /dev/md(新しい数字) -a /dev/sd[egh]1
では?
http://www.ioss.jp/sohodiy/mdadm8-1_5.html
だと、
# mdadm -A /dev/md(新しい数字) -a /dev/sd['egh']1
だけど。

552 :550:2011/09/15(木) 08:13:23.76 ID:sKBE5Whs.net
ああ、思い出した。 >>551 の前者で正しい。
-C の場合は認識順が意図した順番と違っちゃうけど、 -A なら問題ない。

553 :login:Penguin:2011/09/16(金) 23:15:29.48 ID:BraekazM.net
ARC-1880ix-24の"Advanced Configurations"に関するドキュメントってどっかに無いですかね。




554 :login:Penguin:2011/10/02(日) 17:50:56.90 ID:kYnPDMiF.net
mdadmによるRAID6でchunkサイズの違いによるパフォーマンスを計測したのでチラ裏を。
 ML110G6
 WD25EZRX-00MMMB0を4台(OSは別HDD)
 CentOS 5.7(x86_64)
 mdadm-2.6.9-3.el5
 各HDD上で2GB領域を作成しmd0を構成
 ext3フォーマット

WRITE:# dd if=/dev/zero of=/storage/1GB.img bs=1M count=1024
READ :# hdparm -t /dev/md0

計測結果は次レスで。
(ほかにもいろいろテストしたかったけど疲れたのでw)

555 :login:Penguin:2011/10/02(日) 17:54:55.86 ID:kYnPDMiF.net
■chunk 4k
READ :Timing buffered disk reads: 332 MB in 3.01 seconds = 110.46 MB/sec
WRITE:1073741824 bytes (1.1 GB) copied, 2.25816 seconds, 475 MB/s

■chunk 64K (default)
READ :Timing buffered disk reads: 488 MB in 3.00 seconds = 162.43 MB/sec
WRITE:1073741824 bytes (1.1 GB) copied, 2.77056 seconds, 388 MB/s

■chunk 128K
READ :Timing buffered disk reads: 548 MB in 3.00 seconds = 182.54 MB/sec
WRITE:1073741824 bytes (1.1 GB) copied, 1.72971 seconds, 621 MB/s

556 :login:Penguin:2011/10/02(日) 17:58:51.36 ID:kYnPDMiF.net
■chunk 256K
READ :Timing buffered disk reads: 546 MB in 3.00 seconds = 181.93 MB/sec
WRITE:1073741824 bytes (1.1 GB) copied, 1.92294 seconds, 558 MB/s

■chunk 512K
READ :Timing buffered disk reads: 522 MB in 3.01 seconds = 173.50 MB/sec
WRITE:1073741824 bytes (1.1 GB) copied, 2.23327 seconds, 481 MB/s

■chunk 1024K
READ :Timing buffered disk reads: 542 MB in 3.02 seconds = 179.54 MB/sec
WRITE:1073741824 bytes (1.1 GB) copied, 4.35082 seconds, 247 MB/s

557 :login:Penguin:2011/10/02(日) 18:04:10.65 ID:XKBCXxnC.net
RAIDなし単体でのベンチマークと見比べたかったな。

558 :login:Penguin:2011/10/02(日) 18:22:22.99 ID:kYnPDMiF.net
/dev/sdb1 として 2GB 領域を作成し ext3 フォーマット、コマンドは同じで。

READ :Timing buffered disk reads: 304 MB in 3.01 seconds = 100.83 MB/sec
WRITE:1073741824 bytes (1.1 GB) copied, 3.07366 seconds, 349 MB/s

559 :login:Penguin:2011/10/04(火) 23:51:41.62 ID:2uRB3/YB.net
こないだ作ったraid5は、過去256kだったのをなんとなく
128kに変えたけど、それで無難だったのか。

560 :login:Penguin:2011/10/25(火) 11:37:42.73 ID:9XR7fcw7.net
>>492,493
> そもそもddでなくてもmdにアレイの整合性をチェックさせて
> 問題があればエラーを吐かせる為のメソッドがsysfsに用意されてるし
読んだ時なるほどれならリビルドの時の障害起きにくくなるなと思ったんだけどそもそもシステムにそういう機能があるからやらなくてok てこと?


561 :login:Penguin:2011/10/25(火) 16:54:38.88 ID:/PmSxWz5.net
機能があっても使われなきゃ意味が無い
RedHat系なら自分で仕込むまでもなくcron.weeklyにraid-checkが入れられる
Ubuntuには無いみたいだけどね

562 :login:Penguin:2011/10/25(火) 20:32:10.73 ID:RuQRT1PJ.net
>>561
てことはUbuntu(Debian も?)だとraid-check というのを自分で設定するか,dd で舐めるとかしなきゃ駄目ってことなのかな
raid-check 調べてみる

563 :login:Penguin:2011/11/25(金) 02:01:00.42 ID:DfspjuOn.net
HDD2台のraid0とHDD4台のraid5について質問です。
ベンチマークとか見るとHDD2台のraid0が200MB/s、HDD4台のraid5が150MB/sくらいになってるけど、
実際の体感速度はどうなんでしょう? 主に動画編集などで使います。


564 :login:Penguin:2011/11/25(金) 04:47:32.00 ID:x3Tq0gHW.net
体感速度は自分で確かめるしかないべ、マジで。

565 :login:Penguin:2011/11/25(金) 16:51:59.33 ID:FaCKtUuk.net
編集だから書き込み速度はあまり気にしなくてもいいのかもしれないけど、
それ読み込み速度でしょ。

巨大なストレージの確保で見たら RAID5 でいいんじゃないのかなと。

566 :login:Penguin:2011/11/27(日) 23:08:23.83 ID:CjNOkzQ7.net
1TBのHDD×4でRAID0組んでみた
seq READ 400MB/s WRITE 350MB/s
ってがんばってる方?

567 :login:Penguin:2011/11/28(月) 01:54:44.62 ID:zJmMr8wx.net
良い成績だと思うよ
ブロックサイズは64KBだっけ?の方が良い成績が残ったような気がする。

568 :login:Penguin:2011/11/28(月) 14:31:17.43 ID:SzpgZCSv.net
だれか助けてください。
CentOS5.7からScientificLinux6.1への乗り換えのさい、
CentOSで運用していたRAID5のアレイがScientificLinuxでmd127と認識されたのが気に入らず、

# mdadm /dev/md127 -f /dev/sd[bcd]1
# mdadm --misc --stop /dev/md127
# mdadm -C /dev/md0 -l 5 -n 3 /dev/sd[bcd]1

としたところ、データが飛びましたorz
どうにかしてサルベージすることはできませんか・・・・


569 :568:2011/11/28(月) 14:42:31.84 ID:SzpgZCSv.net
現在分かっていることは、CentOS5.7とScientificLinux6.1では
アレイを作る際のメタデータのバージョンが違うようです。
CentOSは0.9で、Scientificでは1.2です。

また、無指定でアレイを構築した際の、chunksizeも違うようです。
CentOSは64K、Scientificは512Kのようです。

もともと64Kだったchunksizeが512Kで構築しなおされてしまったようです。
なんとか助ける方法はありませんか

570 :568:2011/11/28(月) 14:50:52.12 ID:SzpgZCSv.net
連投すみません。
仮想環境で
# mdadm -C /dev/md0 --chunk 64K -l 5 -n 3 /dev/sd[bcd]1
とすればデータは無傷だったということは確認しました。

また、一旦chunksize=512Kで構築されたアレイを解除して、
64Kで作り直してもデータは復旧しませんでした。

571 :568:2011/11/28(月) 15:01:22.13 ID:SzpgZCSv.net
はたまた連投すみません
512Kで再構築されてしまった場合でも、mkfsなど余計なことしなければ

# mdadm /dev/md0 -f /dev/sd[bcd]1
# mdadm --misc --stop /dev/md0
# mdadm -C /dev/md0 --chunk 64K -l 5 -n 3 /dev/sd[bcd]1
で仮想環境では復旧しました。
一人で勝手に騒いですみません。
現実環境のリビルドが完了したら試してみようと思います。

おっちょこちょいな自分の失敗が誰かの役に立てばと思います。

572 :568:2011/11/28(月) 15:38:35.38 ID:SzpgZCSv.net
現実環境でやってみましたがダメでした。
メタデータのバージョンが同じでないとうまくいかないような感じです。
CentOSで64kで構築

Scientificで512kで構築

Scientificで64kで再構築

ダメ ←いまここ

です。
これからCentOSで64kで再構築してみます。
まずは仮想環境でやってみようと思います。

573 :568:2011/11/28(月) 16:23:08.43 ID:SzpgZCSv.net
バージョンによってメタデータの書き込まれる場所が違うことがわかりました
http://hellokitty68.main.jp/wiki/Mdadm#metadata
ここにあるように、0.9と1.2ではずいぶんと違うようです。
これは困りました。
さらに、これだけがわかっても自分にはどうしたらいいのかわかりません。

574 :login:Penguin:2011/11/28(月) 16:47:50.20 ID:zJmMr8wx.net
dd でディスク毎に吸い上げて処理したほうが早くないか?

575 :568:2011/11/28(月) 16:54:58.39 ID:SzpgZCSv.net
>>574
現在、本番環境でのddでの吸い上げ先がない状態ですが、
ddで吸い上げた後にどう処理すればいいのか教えていただけますか?

metadataがあると思われる部分をddでファイルに書き出して
hexdumpなんてしてみましたが、どうしたらいいのかさっぱりわかりませんでした。

576 :login:Penguin:2011/11/28(月) 18:43:29.50 ID:GpepBfXK.net
dd で吸い出してそこで作業したら失敗してもやり直しが効く
そのデータがどのくらい大事かに寄るね
失ってもいいのであれば実HDDで作業してもいいかも

577 :login:Penguin:2011/11/28(月) 19:55:43.30 ID:nPrmxBAd.net
>>575
losetupでloopデバイスを割り当てる

ddで吸い上げたイメージをdisk1.img, disk2.imgとすると
↓こんな感じでloopデバイスを割り当てられる(未使用のloopデバイスはlosetup -f で確認)
# losetup /dev/loop0 disk1.img
# losetup /dev/loop1 disk2.img

/dev/sd*の代わりに、このloopデバイスでRAID1を作ったり出来る
# mdadm --create /dev/md0 --raid-devices=2 --level=1 --verbose /dev/loop0 /dev/loop1
mdadm: size set to 131008K
mdadm: array /dev/md0 started.

578 :login:Penguin:2011/11/29(火) 10:25:15.02 ID:00jPXJK8.net
吸い上げたイメージ同士でデータとメタデータ領域が重なってるので、稀だけど壊れることないか。
真面目にするならメタデータ領域分は切り貼りして揃えてから再構築、かな?

579 :login:Penguin:2011/11/29(火) 12:25:33.10 ID:Yf0+yFDJ.net
RAID0組んでるHDDにOS再インストールするときって、そのままOSインストール作業する?
それとも、一度、Delete RAID Volumeで崩してからCreate RAID VolumeでまたRAID構築してからOSインストールしてる?

580 :login:Penguin:2011/11/29(火) 15:13:40.75 ID:iTSjKJPG.net
バージョンが同じならそのまま
違う場合は別の環境でテストしてOKならそのまま
違うなら別のPCを用意
かな

581 :568:2011/11/29(火) 15:46:31.33 ID:nWLFZrGz.net
>>577
わざわざ丁寧にありがとうございます。
その方法ももちろん考えたのですが、
いかんせん、退避場所がありません。
タイの洪水でHDDの価格が高騰しているため手軽に買えない状況です・・・

582 :568:2011/11/29(火) 15:54:45.87 ID:nWLFZrGz.net
さて、今日もシコシコと仮想環境で試行錯誤していましたら、
もしかしたら、完全復活はできなくても
一部の復活はできるかもしれない方法を見つけました。

簡単に言うとアレイをバージョン0.9のメタデータで構築しなおし、
思い切ってfsckをかける方法です。
仮想環境でやってみたところ、とりあえずデータの復活を確認しました。
後は本番環境ですが、>>581に書いたとおり、HDDが高くてすぐには実行できません。
アレイのサイズが1TBが3台のRAID5なので、余裕を持って2TBを
2本ほどRAID0で動かして作業をしたいところです。
それか、2TB1本にして縮退状態でやるかといった感じです。

ちなみにメタデータ、chunksizeを指定してアレイを構築する場合は以下のようになります

mdadm -C /dev/md0 -l 5 -n 3 --chunk=64K --metadata=0.9 /dev/sd[bcd]1

583 :login:Penguin:2011/11/30(水) 10:23:52.58 ID:/CGQEQQw.net
md127の何が気にくわないのか。
自分はそのまま使ってるぞ。
直すスキルがないってのは内緒・・・

584 :login:Penguin:2011/11/30(水) 13:28:21.02 ID:OuQeDi8o.net
>>583
ちゃんと流れを読めよw

585 :login:Penguin:2011/12/03(土) 20:43:01.66 ID:TtU/rjkx.net
127が気に入らないならアレイ止めてからこれだけでよかったのにずいぶん余計なことを

mdadm -A /dev/md0 /dev/sd[bcd]1

586 :login:Penguin:2011/12/05(月) 23:56:34.31 ID:6e/+yMbn.net
/boot を RAID1, swap を RAID0 にして、
あと全部 / で RAID1 にして普通にインストール成功 (ScientificLinux)
再起動してみるとBIOS直後から何も表示せず立ち上がらない。
どうしてかわかる人いる?

587 :login:Penguin:2011/12/06(火) 16:20:07.48 ID:D33FO92h.net
>>586
ドライバが足りなくて
> /boot を RAID1
のとこで転けてるんじゃ?

588 :login:Penguin:2011/12/06(火) 22:50:52.50 ID:ICuP3dI/.net
>>586
レイドパーティションを/bootにする場合は、メタデータを0.90にしないと
だめだよ。それかメタデータを1.2にして、grubを1.0以上にする。

589 :586:2011/12/08(木) 19:52:18.26 ID:Hmnoh3H0.net
>>587-588
ありがとう。インストーラのバグなのか
grub が default では /dev/md0 に入ってしまっていた。
オプションで grub を /dev/sda1 の MBR に書くと起動した。
片方が死んだときのために
RAID 構成ディスクの /dev/sdb1 にも grub を入れた。
これで大丈夫だといいんだが。

590 :login:Penguin:2011/12/09(金) 00:31:48.61 ID:u1j4XOSq.net
/bootなんか、わざわざRAIDに置かずに別途USBメモリに保存したほうが
トラブルも無く、運用も楽。
そりゃ、万一の時は多少手間が増えるが。

591 :login:Penguin:2012/01/16(月) 23:15:31.22 ID:dNv1dJCa.net
システムとデータ置く場所分けるのって普通じゃないの?

592 :login:Penguin:2012/01/17(火) 16:47:13.56 ID:emiM46gm.net
以前安全第一に色んなRAIDを組んだが、結局実用性のあるのはRAID1または10だって聞いた。
技術屋が習った理論値だけでRAID5,6を勧める洗脳習慣があるがそれで騙されたと。
なぜならHDDの故障は同時に起きることが多いからだそうで、同じ時期・ロットで買うのが常だからそうな。
なので業務では同時期に故障するので上のような結論に至ったと。
まあ時間と費用対効果と実利を追求する立場の経営者らしい発言なんだが。
それと同じ流れが、このサイトの解説(技術屋)とそれに対するコメント
>現実にはHDDのロット不良で複数台がある日まとめてイカれることなんかもよくあるので、性能との兼ね合いから1+0と筐体間ミラーで冗長性を確保すんのが堅いんじゃないですかね。

↑に現れているのにワラタ
http://d.hatena.ne.jp/tagomoris/20110419/1303181958

まああくまでも個人趣味のRAID使いとは立ち位置が違うだろうけど。参考まで。

593 :login:Penguin:2012/01/17(火) 18:00:21.03 ID:FutM6o/Y.net
何故、RAID6は同時に壊れるのに、RAID1や10は同時に壊れないと考えるかね。
何故、業務で重要なデータを扱うのに、別ロット品を用意しないかね。

594 :login:Penguin:2012/01/17(火) 19:04:42.41 ID:BXI1XlYH.net
うむ
危険を知りつつ「同じ時期・ロットで買うのが常」となるのがアホ。
購入先をバラバラの店にするくらいのことは普通するだろう。

595 :login:Penguin:2012/01/17(火) 19:07:45.69 ID:BXI1XlYH.net
RAID Level 5,6の一番のメリットは主に後日の容量拡張に対する低コスト性でしょ。

騙されたというより「××が一番」と単純に決めてかかって
各Levelの仕組みやメリット・デメリットを理解していないだけに見える。
要件に応じて何が一番は変わってくるはずなのだが。

596 :login:Penguin:2012/01/17(火) 20:07:40.88 ID:lQDWN3hD.net
こっちは遊びでやってる訳じゃないんで

597 :login:Penguin:2012/01/17(火) 21:52:42.00 ID:HNf5VqOI.net
貧乏RAIDなんぞ
リビルド時に多数のHDDが同時に負担掛かる
壊れて当然

598 :login:Penguin:2012/01/17(火) 22:15:21.01 ID:LzT2WzI0.net
>>592
> 技術屋が習った理論値だけで

背伸びすんなw 日ごろ本読まないのが分かるぞ。

599 :login:Penguin:2012/01/18(水) 02:36:09.49 ID:MT8YnrYO.net
同ロットの場合使う前の慣らしで差を付けるようにしてるな
新品のHDDに数十TB書いたり消したりしてからRAID組んだりとか

600 :login:Penguin:2012/02/24(金) 11:51:55.45 ID:NhjGTZRD.net
ここって、ハードウェアRAIDもおkですか?


601 :login:Penguin:2012/02/24(金) 12:39:13.53 ID:05Bx6FJT.net
ソフトウエアRAIDのほうがダメ

602 :login:Penguin:2012/02/27(月) 19:23:39.94 ID:azLoe4Za.net
むしろRAIDがダメ

603 :login:Penguin:2012/03/06(火) 16:22:59.12 ID:aEszU72c.net
しもつかRAID

604 :login:Penguin:2012/03/10(土) 10:29:13.09 ID:2wTf5GSz.net
RAIDはいろいろ怖いは

複数サーバへの自動レプリケーションが一番安全では?

605 :login:Penguin:2012/03/10(土) 10:48:49.85 ID:Srv9LesP.net
にいちゃんそれはバックアップや

606 :login:Penguin:2012/03/12(月) 22:53:00.77 ID:qSthFN/T.net
megaRAIDの9260なのですが、
MSMを使って、ホットスペアの登録はできないのでしょうか。

対象ディスクはオンラインにはなるのですが、
ホットスペアにするための選択肢が右クリックメニューが表示されません。

どうすればMSMで可能になるかお願いします。


607 :login:Penguin:2012/04/03(火) 18:06:34.82 ID:Tl38JNkl.net
>>604
両方やるのが普通。

608 :login:Penguin:2012/04/04(水) 10:25:12.86 ID:nk2cOSgy.net
>>607
ですよねー
耐障害をRAIDで追い求めるのは流行らない気がするけど、パフォーマンスとデバイス単独の故障ぐらいはRAIDで面倒みたい

609 :login:Penguin:2012/04/04(水) 19:21:16.67 ID:Sy3sxEbM.net
君はRAIDを誤解している
流行りの問題じゃないんだよ

610 :login:Penguin:2012/04/07(土) 10:33:34.53 ID:G5g9V3Ho.net
ってか、この手の記事の結論は「RAIDアレイはちゃんと(バックアップ・レプリケーションも含めて)構築運営することが前提、それを怠っ
てたらどのRAIDレベルだろうが信頼性なんてあったもんじゃない」っていう話な気が。
(結局運営管理の余裕度期待値、設置場所の空間効率やストレージの容量効率の限度なども考慮してどれだけイニシャル
コストやランニングコストをかけられるか、という話に落ち着くわけだが)

611 :login:Penguin:2012/04/07(土) 14:07:30.76 ID:KSYDqPut.net
意味も無くアレイを組んでみる
言葉の響きに憧れてRAID環境を構築してみる
HDDを数枚束ねただけで何やらすごいことをやり遂げた気になって満足する

そんなオナニーのようなRAID環境の構築があってもいいと思うんだ

612 :login:Penguin:2012/04/07(土) 14:16:44.98 ID:+AlcbrUs.net
それが自由というもの
たとえUSBメモリやSDカードでRAID0を組んだとしても
会社の金や研究室の金でなきゃOK

613 :login:Penguin:2012/04/07(土) 15:59:45.80 ID:KSYDqPut.net
USBメモリで思い出した
以前10ポートUSBハブとアクセスLED付のUSBメモリでRAID-Z組んで遊んだことがあった
I/O発生のたびにチカチカ光って面白かったから展示用にいいかとも思ったけど
結局人前に出す機会が無かったな

614 :login:Penguin:2012/06/05(火) 09:21:15.12 ID:omEzA/Pd.net
Ubuntu12.04LTSとか、GNOMEディスクユーティリティがある環境で
mdadmを組み込めば、GUI操作でUSBメモリーでRAID5とか作れるよ。

個々の操作の表現とか、わかんない人にはわかんないかもしんないけど
mdadmをCLIで操作するよりは簡単。
RAIDを止めて、USBメモリーを安全に取り外すための操作もできる。

USBが3系統あるM/Bなら、USB2.0の理論値を超える高速ストレージが作れるよ。

20GBの動画データとか持ち歩く機会があるなら
32GBのUSB2.0メモリーを買うよりも
8GBのUSB2.0メモリー三本をRAID5で使うほうが速い。
よほどCPUが遅くないかぎり、書きこみもRAID5のほうが速いんじゃないかな。

ただ、RAIDを止めずに一本抜くと、当然デグレードになる。
で、抜いたやつを、RAIDに戻すことはGNOMEディスクユーティリティではできないっぽい。

dd if=/dev/zero of=デバイス bs=512 count=1とかやって
管理情報を抹消した上で戻さないといけないんじゃないかな。
(ヲレはmdadm直でaddしなおしたから、よくわかんない)

LinuxNASにこういう機能つくとバックアップ用とか嬉しいけど
さすがに、三系統のUSBを搭載するのはNAS製品にはコスト高か…


615 :login:Penguin:2012/06/05(火) 13:24:21.88 ID:Mrh4VurP.net
>>614
本気で毎回移動のたびにそれやるのか?
取り外しも面倒、持ち運び先で再構成するのも面倒
コスト云々以前にそんな需要があるとは到底思えん

「20GBの動画データ」程度だったら
そんなクソめいどいことやるよりBD-Rにでも焼いた方がマシじゃないか?
つか普通に外付けHDDで十分だろう
5000円も出せばその10倍以上の容量のが買えるし
eSATA接続のなら速度もUSBメモリの3〜5倍程度は出るだろう

616 :login:Penguin:2012/06/05(火) 13:27:34.61 ID:dNi4aywP.net
>>614
そもそもDMA転送が出来ないUSBメモリなんかでやっても、元々が超絶に遅いわけでメリットは薄い。

617 :login:Penguin:2012/06/05(火) 18:57:55.48 ID:yguEp4b6.net
せっかくの中学生の自由研究を、そんな全力で叩いてやるなよ・・・

618 :login:Penguin:2012/06/05(火) 20:06:08.33 ID:0kbzgeRg.net
>>615
HDDで充分?
どう考えても、USBメモリー三本持ち歩くほうが
HDDを持ち歩くより手軽で気軽だろ。

それに問題は、運んでいるデータが確実に渡せるか?
そこ考えない人がRAID板にいるわけ?

外付けHDDなんて、途中で転んだくらいで壊れるかもしんないぜ。
HDDや光学ディスクで二重化して運ぶより
RAID5 USBメモリーのほうが手軽で確実だと思うよ。


619 :login:Penguin:2012/06/05(火) 20:07:49.01 ID:OKyzu6z9.net
はいはいワロスワロス

620 :login:Penguin:2012/06/05(火) 21:02:51.35 ID:/mAjwi/y.net
USBメモリでソフトウェアRAIDとかトリッキーな方法をやってて
「運んでいるデータが確実に渡せるか?」ってのは…w

> そこ考えない人がRAID板にいるわけ?

何度も書かれている話だが、RAIDってのは「可用性を向上させる」ための技術なんだよ。
そもそもデバイスを何度もバラしたり再構成する時点で危険だと思わんのかな。
そういう用途はまったく考慮されていないんだが。

621 :login:Penguin:2012/06/05(火) 21:20:40.73 ID:3WRw8J5h.net
>>618
実際やってんの?

622 :login:Penguin:2012/06/05(火) 21:39:21.71 ID:G+jpT85B.net
わざわざ簡単なことを難しくしてどうすんの?
USBメモリーでRAID....

623 :login:Penguin:2012/06/05(火) 23:23:11.10 ID:rny4qOt8.net
きたるべき本番環境のディスク障害に備えて着脱しやすいUSBメモリで
障害時の対応をトレーニングしてるんだよ、多分。

624 :login:Penguin:2012/06/06(水) 01:04:41.36 ID:YABJZgvf.net
> どう考えても、USBメモリー三本持ち歩くほうが

一体何をどう考えて
そのような結論に到ったのか

その点には興味がある

625 :login:Penguin:2012/06/06(水) 05:11:07.28 ID:AVPndVth.net
3本それぞれ別なポケットにいれておいて
1本落としても大丈夫とか?

626 :login:Penguin:2012/06/06(水) 11:55:50.17 ID:dtTtCKqz.net
一本のUSBメモリは簡単に折れちゃうけど、三本束になれば・・・
毛利元就リスペクトなんだよ

627 :login:Penguin:2012/06/06(水) 13:36:00.87 ID:IE+X83hD.net
まあ、世の中にはFDRAIDなんてものもあるくらいだからいいんでない?

628 :login:Penguin:2012/06/07(木) 08:55:29.15 ID:qPhT8sHE.net
Mega Floppy 2006:フロッピー13台でRAID - Engadget Japanese
http://japanese.engadget.com/2006/04/20/mega-floppy/

これだな。


629 :login:Penguin:2012/06/09(土) 03:27:34.10 ID:932RdDKe.net
せっかく持っていったディスクが
壊れてて読めなかった経験が無い人は幸せだと思うよ。やれやれ。


630 :login:Penguin:2012/06/09(土) 18:31:57.34 ID:U+xwRovp.net
どうしても読む必要があるなら
同じ内容のディスクを複数持ってくだろ
普通は

「確実」が必要なときに
イレギュラーな手法でわざわざリスクを冒すのはアホ

631 : [―{}@{}@{}-] login:Penguin:2012/06/09(土) 18:50:34.87 ID:W9fDi93L.net
バックアップできないときの妥協策だよ。
RAIDはそう思ってつかわないと泣くことになるよ。

632 :login:Penguin:2012/06/09(土) 20:14:29.81 ID:sCvtYlDF.net
>>629
お前まだいたのかw
32GBのUSBメモリが1500円で買える時代にわずかな金をケチって
リスクも手間暇も増やして一体何が嬉しいのやら。
毛利元就リスペクトなら素直に32GBのを三つ買えよw
どうしてもRAIDが使いたいならそれをLevel 1三面ミラーにする方が1k倍まし。

633 :login:Penguin:2012/06/09(土) 22:19:43.83 ID:TcU9ente.net
少ない頭で精いっぱい考えたんだからあんまりいじめてやるなよ

634 :login:Penguin:2012/06/22(金) 16:45:39.28 ID:lE87y+ps.net
と、実際に実験も構築も出来ない情弱が妬んでいます。

635 :login:Penguin:2012/06/22(金) 16:56:13.77 ID:Xi0QH2tS.net
ププ

636 :login:Penguin:2012/06/22(金) 17:33:34.17 ID:qU8lO/3Z.net
ネタじゃなくてガチでRAID5のUSBメモリ持って歩くのか
なんというか奇特な奴も居たもんだな

637 :login:Penguin:2012/06/22(金) 18:10:35.21 ID:OzS6wkdm.net
放置推奨

638 :login:Penguin:2012/07/07(土) 01:38:09.97 ID:PNfVu+wq.net
RAID1ってHDDが壊れたら交換できる点は安心できるが、むしろ本体が壊れてどうにもならなくなるのが不安。

RAID1本体が壊れた場合、HDD1台だけ取り出してPCに繋いで、データそのままに、普通のHDDとして使い続けることってできるの?
それとも、RAID1本体買い直さないと、データ復旧できないの?


639 :login:Penguin:2012/07/07(土) 01:55:44.43 ID:PbHFbG1/.net
ソフトウェアRAIDなら安心。
壊れる可能性がある部品点数が少ないことは、直接的に可用性を高める。

640 :login:Penguin:2012/07/07(土) 04:10:00.72 ID:ewqlEoaI.net
壊れる可能性がある部品点数は大して変わらんだろう。
壊れたとき他のもので代用が利くかどうかが大きいだけ。

641 :login:Penguin:2012/07/07(土) 04:18:15.48 ID:PbHFbG1/.net
ハードウェアRAIDの場合はRAIDコントローラー自体が故障することも珍しくない。
確実に故障する部品が1点多い。

642 :login:Penguin:2012/07/07(土) 04:20:37.90 ID:zPj7LkaZ.net
HDD1台でRAID組まないほうが部品点数少ないし、やっぱRAIDはやめとくわ。

643 :login:Penguin:2012/07/07(土) 04:24:00.24 ID:mqFMtDIz.net
しかし、ウィンドウズソフトウェアRAIDの短所としてはRAIDコントローラを使うよりシステム資源をより多く使用するということです。

また、RAIDの構成目的が性能とデータ保護という側面を考えれば、OS従属的なソフトウェアRAID方式が長期的なデータ保存及び管理を難しくすることもあるという点を考慮しなければなりません。

644 :login:Penguin:2012/07/07(土) 04:28:39.83 ID:PbHFbG1/.net
>>642
故障率の計算くらいしろよwww
何の為にRAIDがあるんだw

645 :login:Penguin:2012/07/07(土) 04:35:18.88 ID:PbHFbG1/.net
>>643
ここLinux板なんだけど。
しかも10年前ならいざ知らず、今時ソフトウェアRAIDに必要なリソースなんて鼻クソみたいなもん。
また、データを格納する領域自体はOS従属的なフォーマットを使用するわけで、それで管理がどうこうなんて意味のない発想。

646 :login:Penguin:2012/07/07(土) 10:07:07.52 ID:7bcI23+j.net
>>638
できなきゃ何のためのミラーなんだ?

647 :login:Penguin:2012/07/07(土) 13:29:50.89 ID:JAwP/+wE.net
>>638
普通のパーティションとしてマウントし、読み書きできるよ、たぶん大抵は。

648 :login:Penguin:2012/07/07(土) 13:31:54.06 ID:ewqlEoaI.net
>>641
ソフトウェアRAIDの場合でも
SATA等のコントローラは絶対に必要なんだよ。
だから「部品点数」は大差ない、と。
(それが「壊れる可能性」は違うとしても)

ソフトウェアRAIDならハードウェア絡みのトラブルは
絶対発生しないから「安心」などと油断してるといつか酷い目にあうぞ。
俺は酷い目にあったことがあるから断言できるw

649 :login:Penguin:2012/07/07(土) 14:13:01.95 ID:M9eWZLdw.net
>>648
ねえよ。つーか、池沼はレスすんな。

650 :login:Penguin:2012/07/07(土) 17:17:45.78 ID:WbHxuWdt.net
ここまで文脈読めないようでは何やっても酷い目に遭いそうだな>>648
RAIDコントローラ1点という文字すら読めないとは…

651 :login:Penguin:2012/07/07(土) 22:12:25.72 ID:IGZu3ily.net
mdadm,mdドライバーで運用するソフトウェアRAIDでも
当然ながら、IDEコントローラーやSATAコントローラーが壊れることはある。
これはWindowsで流行りのM/B機能としてのRAID(FakeRAID)と等価。


ただ、FakeRAIDが、故障時に同仕様のパーツを用意せざるを得ないのに対して
(M/B内蔵でやれば、実質M/B交換に追い込まれる場合もある)
mdドライバーは、任意のHDDコントローラーで補うことができる。

FakeRAIDでは、このM/BとこのM/Bなら入れ替え可能という情報が
明記された公式資料で判断できるわけではない。
あくまでも、同系統の部品で、互換性が得られるものを探すしか無い。

これは、本来のハードウェアRAIDの場合に
「予備のHDDだけでなく、予備のRAIDカードも用意しとけ」
と言われているのと同レベルの問題と考えられる。

mdドライバーは、オンボードのポート三つと
SATAカードの2ポートを併用してRAID6を組むことさえ自由。
当然、後から、別のコントローラーのHDDをRAIDに参加させることも自由。

理論上は、HDDが一個だけのノートPCで、HDDに8GBの領域を作って
SDカードスロットの8GB SDカードとの間で、RAID1ストレージを作ることもできる。
(ただ、起動時の自動認識とかHibernate時の正常動作の可否は知らん)



652 :login:Penguin:2012/07/08(日) 16:05:28.00 ID:3E97kSLe.net
長々書かんでも
それは皆知ってるから

653 :login:Penguin:2012/07/08(日) 21:11:38.02 ID:iOgcEjiw.net
>>639,642みたいに
勘違いしている人がいるから、まとめて書いてんじゃん。

RAID1の話をしている流れの中で
642のセリフは、どう見ても
RAID0をやるかやらないかの話をしているようにしか見えない。

無知とは恐ろしいものだと思う。


654 :login:Penguin:2012/07/08(日) 23:25:53.94 ID:3E97kSLe.net
>>642を文字通りの意味に取る人がいることに驚いた

655 :login:Penguin:2012/07/24(火) 00:49:15.98 ID:TFe8Nvyi.net
>>641
個人でハードウェアRAIDしてる奴ってRAIDボードぶっ壊れたらどうするんだろうな。
RAIDボードが吹っ飛んだ頃にはRAIDボードの販売打ち切られてるよな。
RAID1以外は、RAIDボードの製品依存だから同じRAIDボードもうひとつ持ってない限り
復旧は絶望的じゃね。

656 :login:Penguin:2012/07/24(火) 07:39:08.82 ID:zL5BLmXL.net
>>655
何が絶望的なんだ?
当然バックアップが取ってあるだろうから
新しいの(別機種でも)買ってきて書き戻せば
特に問題はないと思うが

657 :login:Penguin:2012/07/24(火) 14:42:48.67 ID:KoEjXtzj.net
>当然バックアップが取ってあるだろうから
あるといいね

658 :login:Penguin:2012/07/24(火) 15:06:52.91 ID:C/yYiNto.net
なんで人の状況とか完全無視して「当然取ってる」とか言うんだろう
お前の当然は俺の当然じゃねえよ

659 :login:Penguin:2012/07/24(火) 19:43:24.14 ID:TFe8Nvyi.net
>>656
バックアップがRAID上にあったら終わりじゃね

660 :login:Penguin:2012/07/25(水) 09:34:50.58 ID:awrtnZbc.net
そんなのはバックアップとは言わない

661 :login:Penguin:2012/07/25(水) 10:58:41.81 ID:PNkPFV4l.net
うーん。RAID上にあってもいいと思うけど、
せめて最低でもオリジナルとは物理的に別のドライブ、
オリジナルとは別の論理ボリューム上にないとね。
じゃなきゃただのコピーじゃないか。

662 :login:Penguin:2012/07/25(水) 21:59:26.40 ID:syhEyuJZ.net
RAIDとバックアップの違いが分かってないやつが
長期休暇になるたびに沸いて出て来るな

663 :login:Penguin:2012/07/25(水) 22:10:59.34 ID:96VagKPM.net
ストライピングをちょっと例外としてあつかうとすると、
RAIDはシステムの冗長性を実現する。
一方、バックアップはデータの冗長性を実現する。

RAIDがバックアップを含んでいるケースがあっても、逆は無い。
データのバックアップだけでシステムを冗長化させることはムリ。

ってとこですか先生!

664 :login:Penguin:2012/07/25(水) 23:23:47.18 ID:9pkk0/J3.net
違います

665 :login:Penguin:2012/07/25(水) 23:39:33.00 ID:7ZVhCVS/.net
可用性と冗長性を一緒にするな

666 :login:Penguin:2012/07/26(木) 01:08:05.36 ID:rr+6Q+e9.net
RAIDがどうこうじゃなくて、バックアップと称する複製先が、
複製元と同じメディア、あるいは同じ論理ボリュームに存在する場合、
バックアップとしての意味がないでしょう、ということが指摘されてる。
何故なら複製元が壊れたら一緒に死んでしまうからです。
なので、RAIDでも何でもいいけれども、とにかく、
複製先は、複製元とは物理的に別のメディア上の、
かつ、別の論理ボリューム上に複製されていなければ、
バックアップとしての意味を成さない、ということだと思います。

667 :login:Penguin:2012/07/26(木) 03:09:45.59 ID:e/cA1U51.net
はい
ついでに地理的に離れていたほうがいいです

668 :login:Penguin:2012/07/26(木) 06:22:56.14 ID:stSoERZi.net
>>667
まぁPCが爆破されても復旧できるように…
事業所が爆破されても復旧できるように…

それがバックアップというものです。

寝タバコ野郎のせいで、従業員寮全焼を体験したオレが言うんだからまちがいない。


669 :login:Penguin:2012/07/26(木) 21:25:31.54 ID:8u0oJVQv.net
>>666
RAID上にバックアップ取るつったら
同じRAIDボードでバックアップ取ってる訳無いだろ
ハードは別と捉えるのが不文律だろ

670 :login:Penguin:2012/07/26(木) 22:50:07.36 ID:+KEwCbGi.net
流れ読まずに何言ってんだ?

671 :login:Penguin:2012/07/27(金) 14:27:50.10 ID:oraEzXt4.net
>>668
事業用なら1拠点の水没火災で全滅しないようにしたほうがいいとは思う
バックアップのスケジュールやリカバリ手順書の作成・メンテとかは予算に応じてかな
RAID関係ないんでそろそろ消える

672 :login:Penguin:2012/07/30(月) 00:30:36.80 ID:0v7bR4Gs.net
>>669
不文律を知らないあほなサービスが最近「やらかした」じゃん。

673 :login:Penguin:2012/07/30(月) 16:42:46.89 ID:F+Ovgqg7.net
先生質問です。インテルチップがsata-III, 6GでRAID6対応してるんで
こいつでSSDのRAID組みたいんですが
sata-III 6G対応のポート数が8本くらいのポートマルチプライヤって売ってないんですか?


674 :login:Penguin:2012/07/30(月) 17:51:13.50 ID:F+Ovgqg7.net
あっ6ポート3gで使えばいいみたい

675 :login:Penguin:2012/07/30(月) 18:34:55.79 ID:NwwDXFir.net
趣味でやるのをとめるつもりはないけど、個人でRAIDとか復旧が必要になったときに涙目になる将来しか見えない
RAIDはある一定レベルまでの故障は耐えるけど、そこ超えたら地獄だぞ

676 :login:Penguin:2012/07/30(月) 18:43:28.01 ID:F+Ovgqg7.net
こんなのみつけた

つ RAIDON iS2880


677 :login:Penguin:2012/07/30(月) 18:46:48.28 ID:F+Ovgqg7.net
>>675
それ、RAIDの異常を監視できてないからでしょ。
データ破壊なら必ずエラーが記録されてるはず。
まぁインフラ系でも、ディスク関連のエラーを管理できるところはほとんどないね。
ていうのも、データ専門系の某企業がそれやってるはずなんだけど
どうも中の人達でさえ大変らしい
まぁ 所詮白人どもの作ったシステムだからね 結構適当


678 :login:Penguin:2012/07/30(月) 18:48:37.65 ID:F+Ovgqg7.net
インテグレータ系じゃ ディスクのデータのエラー管理まで手まわる人材はほとんどいないし
かと言って、ディスク管理用ソフトがあるわけでもないし


679 :login:Penguin:2012/07/30(月) 18:49:51.87 ID:F+Ovgqg7.net
本来、こういうのはOSレベルの機能なんだけど
今のところだれもやる気ないみたいだしね
何年か前にグーグルがちょこっとだけデータとってたね


680 :login:Penguin:2012/07/30(月) 19:17:28.00 ID:NwwDXFir.net
趣味なら好きにやればいいと思うし、システムとして止めないことを目指しているならもっと大きな枠組みの話になっちまう
金をかけてRAID5とかそれ以上の何かを組むより、異常の疑いのあるノードを検知・排除してスイッチする方がいいってのがGoogleのレポートの結論じゃなかったっけ

681 :login:Penguin:2012/07/30(月) 19:31:30.87 ID:TinkYeMd.net
入ってた電気工事の事故で、過電圧? よくわからんけど、
電源一個とRAID5で二台ディスクがぶっ飛んだ。
サーバ自体も冗長化してあったので、あとの二台が何故か無傷で色々助かった。

682 :login:Penguin:2012/07/30(月) 19:31:44.71 ID:F+Ovgqg7.net
こんなのもみつけた

ディラック DIR-1040SS


683 :login:Penguin:2012/07/30(月) 23:27:49.01 ID:42Q/P55U.net
>>677
同型のRAIDボードを持ってなかったら
ボードが死んだらHDDの中身は全て没
定期的バックアップがんばれよ
ソフトRAID組んで楽する方法もあるけど
(こっちもバックアップ取ってなけりゃソフト的に壊れたらアウトだけどね)

684 :login:Penguin:2012/07/31(火) 03:44:47.58 ID:79ga/vr4.net
mdadmはメール飛ばせることくらい知っとくべき。
あと、どっから白人ども、とかずれた話が出てくるんだか……
夏とは言えちょっと怖いわ。

685 :login:Penguin:2012/07/31(火) 11:16:30.55 ID:Ip7kWy5u.net
raidは根本的な欠陥を抱えているんだよ。
なのに、それを冗長化という別の機能性が隠してしまっている。


686 :login:Penguin:2012/07/31(火) 11:19:09.47 ID:Ip7kWy5u.net
raidはSPF(Single Point Failure)単一故障に耐えられない。


687 :login:Penguin:2012/07/31(火) 11:20:50.98 ID:Ip7kWy5u.net
これからは、プログラマブルraidコントローラみたいなのが欲しいね
FPGAみたいな感じでプログラムできるのがいいかも


688 :login:Penguin:2012/07/31(火) 11:21:56.54 ID:8q18KPQO.net
>>686
ソフトウェアRAIDならそういう問題はない。

689 :login:Penguin:2012/07/31(火) 12:26:47.86 ID:Ip7kWy5u.net
>>684
品質に対する考え方がまるで違うんだが?
肉なら、日本人は生で食べても食中毒にならない大腸菌レベルを要求するが
あいつらは、焼いて食べて食中毒にならない大腸菌レベルの管理で満足する

日本人と白豚じゃ考え方が根本的に違うよ
だから、日本人は個々の品質をひたすら改善しようとする
一方、白豚はそれら若干劣悪な条件の上でも何とかやれる別の方法を考える

まぁあいつらと仕事したこともなしにフリーソフト程度の品質で満足するようなら
趣味の範囲でやるならともかく、日本じゃIT系の職業は止めた方がいい。
日本品質と グローバルスタンダート品質の間に苦悩するだけだ。


690 :login:Penguin:2012/07/31(火) 12:28:42.90 ID:Ip7kWy5u.net
簡単に言うと
日本人: 多少コストかけても満足度(カスタマイズ&高品質)
白豚: コスト(利益)最優先(ビジネスだもん♪ 割り切る割り切るw)

691 :login:Penguin:2012/07/31(火) 12:44:54.39 ID:hnnpk3Z9.net
ソフトウェアの世界では、明らかに日本は低品質な上に時代遅れだろw

692 :login:Penguin:2012/07/31(火) 13:04:48.60 ID:xo9C1TjI.net
そこにこだわってもしょうがないんじゃねってところに労力を割いてるだけでしょ

693 :login:Penguin:2012/07/31(火) 13:31:20.74 ID:Uy5SfSri.net
向こうのほうが何から何まで合理的だと思うけどな。
ある程度以上複雑なものを、完成まで持っていく力は、
欧米人にはスゴイもんがあると思う。エンジンしかり、
オーケストラしかり、OSしかり。

日本だと、個人レベルの巧の技、小さいチームの巧の技は尋常じゃないけど、
ある程度以上母体が大きくなると柔軟さや躍動感を失って豆腐みたいなチームになっちゃう。

694 :login:Penguin:2012/07/31(火) 16:52:33.85 ID:9dS9b2J4.net
>>693
豆腐って固かったか?

695 :login:Penguin:2012/07/31(火) 22:51:11.17 ID:l714knS4.net
>>688
本気でそう思ってるのか?
ギャグだよね

696 :login:Penguin:2012/08/01(水) 00:20:44.33 ID:k6GuRC1u.net
お前の存在がギャグ

697 :login:Penguin:2012/08/03(金) 01:20:29.58 ID:KIMzOXN/.net
RAIDと単一障害はセグメントが違うからソフトウェアRAIDでは確かに無いな
単一障害に対してはmultipathが対応してるし

698 :login:Penguin:2012/08/04(土) 12:21:19.36 ID:3Ct1XI4y.net
なんか「単一障害」を誤解してる人が複数いるようだな

http://ja.wikipedia.org/wiki/単一障害点
> 単一障害点(たんいつしょうがいてん。英: Single Point of Failure, SPOF)とは、その単一箇所が働かないと、
> システム全体が働かないような箇所を指す。情報システム工学や通信、サプライチェーン・マネジメントなどの
> 分野で使われる概念である。単一故障点と訳されることもある。

> 一般的なコンピュータシステムの例では以下が挙げられる。
>
> ・ハードディスクをRAIDで冗長化しても、そのRAIDアダプターが1枚ではRAIDアダプター障害時には全体が障害となる
> ・RAIDコントローラが2重化されたディスク装置でも、ファームウェア障害や筐体障害の場合は全体が障害になりうる
> ・ディスク装置の全ハードウェアを冗長化しても、ソフトウェア障害などによるデータ破損時にはバックアップデータ
>  が無ければ復旧できない

699 :login:Penguin:2012/08/04(土) 12:22:44.08 ID:3Ct1XI4y.net
一つのシステム上でソフトウェアRAIDを構成した場合、確かに「RAIDコントローラ」という単一障害点は
なくなるけど、CPUやメモリが壊れりゃシステム全体が止まるのだから依然として単一障害点は存在する。
完全に単一障害点をなくすためには、構成するすべての要素を冗長化するしかない。

700 :login:Penguin:2012/08/04(土) 13:33:18.11 ID:Is1MSVtJ.net
RAID関係ないな

701 :login:Penguin:2012/08/04(土) 19:17:10.00 ID:bDdwwLuO.net
だからセグメントが違うと

702 :login:Penguin:2012/08/05(日) 10:23:32.09 ID:eK7odna0.net
うん、だからどこまでの障害に耐えるのかコスパを考えてしっかり検討しましょうって当たり前の結論に達するだけでしょ
RAIDを突き詰めるだけで安全ハイパフォーマンスなストレージが手に入るわけじゃない。無理にRAIDでがんばると費用に見合わなくなるし、そもそもそれが必要なの?って疑問点が出てくる
そんなことは真面目に物事を考えたことがあるヤツなら誰でもわかってる

ここでのメインってそういうガチな話じゃないっしょ
個人でRAID組むのならこの辺がいいよ、とか、なんかRAID-Zとか出たから組んでみたぜ!という人柱報告とか
あとは個人でRAID組んでたら障害復旧でこんなめんどくさいことになったよって話が聞きたいな
そういう意味ではUSBメモリでRAID6とか好きだぜ
ハードウェア板に行ったほうがいいのだろうけど

703 :login:Penguin:2012/08/08(水) 04:47:40.46 ID:f7Qojt2Z.net
>>689
知らなかったなら知らなかったって書けよw
肉の話にして誤魔化そうなんてまともじゃない。

704 :login:Penguin:2012/08/09(木) 22:29:02.57 ID:JQHTZcEY.net
>>698
そこでSASですよ?


705 :login:Penguin:2012/08/26(日) 13:16:13.04 ID:tjRQBEDB.net
ESXi5.0 をMegaraid 9240-4iで零度にしています。
仮想ホストとかは、普通に動作しているのですが、
Windows XP(仮想ホストでない)にインストールしたMegaRAID Storage Managerが9240-4iを全然認識しません。

何が悪いのでしょうか?


706 :マルチポストにはマルチで対応:2012/08/26(日) 15:34:04.25 ID:5dpJ9q2O.net
機種は異なるが、おいらは、これで解決。
http://blog.livedoor.jp/otonax/archives/7406476.html


 カクカク  ,ィヘ⌒ヽフ  ブヒブヒブヒブヒブヒブヒブヒブヒブヒブヒブヒブヒブヒブヒブヒブヒ!!
    / (  ・ω・)) -=3
 ε//   し ヘ⌒ヽフ   ドッピューーーーーーーーーーーーーーーーーーーーーーーー!!
  ( (  _,.ノ(  ・ω・)) -=3
   し しー し─J ブッヒィーーーーーーーーーーーーーーーーーーーーーーー!!

707 :login:Penguin:2012/09/23(日) 22:29:32.03 ID:yzRW/N1R.net
>>685
同意。
実際の運用の現場で故障発生の相関係数が高いことを踏まえると
RAIDにはあまり議論されていない課題がある

参考
http://green-rabbit.sakura.ne.jp/blog/2012/09/16/3424/

708 :login:Penguin:2012/09/24(月) 02:37:37.21 ID:eysfNf5P.net
RAID1の一方が壊れたと思った。
ら、M/B側のSATAケーブル脱落だった。

PCに8本あるSATAケーブルのうち
1本だけ、まにあわせのロックなしケーブルだったんだけど
てきめんに、それが抜けた。

ロックなしSATAケーブルと
ケーブルをロックできないHDD(2.5インチとかにある)は
議論されるまでもない油断だった。

2.5インチHDDのほうが、抜けないようになんとか固定しているけどね。


709 :login:Penguin:2012/09/26(水) 01:04:59.50 ID:0iXLFioF.net
ショップブランドPCのHDDのSATAケーブルはテープで固定しちゃうところもあるね
ガチガチじゃなくてはがせる程度だけど、708見る限りは脱落事故(クレーム)多いのかな

710 :login:Penguin:2012/09/26(水) 01:11:58.33 ID:3y1ph55R.net
>>709
多分輸送時に震動で緩むとかじゃないかな

711 :login:Penguin:2012/10/02(火) 23:27:24.57 ID:zzeqCD+j.net
mdRAID5環境で、1台のHDDにセクタ代替が発生した場合
残りのディスクから破損箇所のデータは復元されますか?

712 :login:Penguin:2012/10/03(水) 12:53:57.66 ID:iUfgamjf.net
セクタ代替?じゃなくて不良セクタだよね。

disk A+B+CのRAID5でdiskAに不良セクタで読み込み不可のデータが
生じたとしたら、当然diskAのデータはdiskB+Cから読みだせる。

ところで、diskAの問題のデータは代替用セクタに書き込まれる
はずだけど、代替用セクタが全部うまったらどういう処理が
されるんだろうね。

713 :login:Penguin:2012/10/03(水) 13:04:25.26 ID:z0mTWkEg.net
代替用セクタが使われ始めるようなハードディスクはハードディスク内部での
読み取りのリトライが頻発してヘッドのアームの機械的な部分が
代替用セクタを使い切る前に壊れて使えなくなってくる感じ。

714 :login:Penguin:2012/10/03(水) 18:19:36.29 ID:zLPQA8rU.net
>>712
1. diskAに読み込み不可セクタが発生
2. diskAのハードウェアレベルで代替処理発生(データは破損する)
3. RAIDの整合性チェックでdiskAの代替先にdiskB,Cから正しいデータが復元される

って理解であってますか?

あと私の環境だと/usr/sbin/raid-checkというスクリプトがcronに登録されてるんですが
これで3の処理が行われると考えていいでしょうか?

715 :login:Penguin:2012/11/04(日) 11:24:06.83 ID:/g7lvmmy.net
今までmdでRAID5してたんだけど、SMB2.1につられてwin8の記憶域プール機能に
乗り換えたんだけど、これすっごい遅い。

mdだったら70MB/s超えるくらいの速度が出てたのに、35MB/sがいいところになった。
同じPCでやってるのに、パフォーマンスは半減。

うーん、残念。

716 :login:Penguin:2012/11/04(日) 11:27:50.95 ID:vanQxexr.net
thin provisioningやめろ

717 :login:Penguin:2012/11/04(日) 11:40:25.73 ID:/g7lvmmy.net
>>716
ああ!それが原因か。
でもだいぶデータをいれちゃったから、今更変更はできないなあ。
サンクス!

718 :login:Penguin:2012/11/06(火) 06:53:36.69 ID:eRuSkrOz.net
【悲報】オレのRAIDメンバーが低速病になった【WD】

ここ数日、HDD LEDが/dev/sde(注:デバイス名が表示されるわけではない)のとこが
点いたままになってんなぁ…と思っていたら、RAID1ストレージが非常に遅い。

録画の大量書き込みに追従できなかったためか、resyncかかってた。
hdparmで見るとudma2になっている…これが世に言う低速病か…
ちなみにWD20EARX-00PASB0(FW:51.0AB51)をUbuntu10.04LTS上のmdで使ってた。

とりあえず、対処方法…
cat /proc/mdstatでRAIDメンバーのデバイスファイル確認
hdparmで各デバイスの転送速度を確認(で/dev/sdeと特定)
fail付けて、removeして、低速病に効くとされるパーティションテーブル抹消

次にうちの場合ホットスワップにとりかかる。

find /sys -name sdeで対象のdeleteの場所を特定(もっとスマートな方法がある気がする)
root権限でecho 1 > /sys/......./delete
ホットスワップ対応のHDDケージのsdeの電源を落として、数秒後再度投入
(ここで抜いたけど、よく考えたら、電源落としているからわざわざ抜く意味はない)

再認識(用のスクリプト作ってあるけど割愛)させてfdisk -lでデバイス確認。
ddでの読み出しで速度確認(確実性があるかは知らんが、うちはこれで回復してた)
あとは、fdiskでfdのパーティション作って、addしてresync待ち。今6.6%。

実は録画ストレージ自体のRAID化は最近やったばっかりで
そうで無かったら、致命的ダメージ受けてた、ふぅ…じゃ、仕事行くわ。


719 :login:Penguin:2012/11/06(火) 09:08:45.05 ID:qbmI0eRv.net
intellipark は無効にしてる?
もし SMART の Load_Cycle_Count が異常に高い値になってたら、たぶん寿命が近い。


720 :718:2012/11/06(火) 18:23:58.38 ID:hiuD0w8t.net
録画兼ファイルサーバーなので、8基のHDDがありますが
録画用のRAID1は二基とも34000前後
それより古い積ん録及び雑倉庫のRAID5は四基とも27000台
一番古い起動用は、(/var/lib/mysqlがあるからかな)ずばぬけて170万台。
起動用のバックアップにする予定で、放置していた中古HDDは4703。

ということは、2,3万はまだまだ普通の範疇と考えていいんでしょうか?

今回のトラブッたHDD自体は、まだ購入から1,2ヶ月のものでした。
RAIDに使っている6基は、badblocksテスト済みで正常を確認したものです。

つまり起動用HDDが一番故障リスクでかいという片手落ち orz
起動用ドライブをRAID1にしたこと無いのですが、そろそろやるかなぁ…

ちなみに今見たら、resync終わってclean。


721 :login:Penguin:2012/11/07(水) 02:34:57.26 ID:32iQhr8/.net
WD20EARX とかは、だいたい30万くらいで寿命って噂なんで、まだ一割強だね。

ちなみに、うちの WD20EARX は半年くらいで30万突破して、速度低下 -> 認識率低下 -> 動かなくなるって経過だった。


722 :login:Penguin:2012/11/07(水) 10:18:42.54 ID:eA1fqBZz.net
intellipark なんて聞いたこと無くて今確認したら、
うちの WD20EARS 3台は Load_Cycle_Count が125万に達していた……。

723 :login:Penguin:2012/11/07(水) 11:52:42.11 ID:9EcxHeBt.net
うちの、6台でRAID5な、WD20EARSちゃん死んじゃうの?
193 Load_Cycle_Count 0x0032 001 001 000 Old_age Always - 3857098
193 Load_Cycle_Count 0x0032 001 001 000 Old_age Always - 3130065
193 Load_Cycle_Count 0x0032 001 001 000 Old_age Always - 1930449
193 Load_Cycle_Count 0x0032 001 001 000 Old_age Always - 4043078
193 Load_Cycle_Count 0x0032 001 001 000 Old_age Always - 4138466
193 Load_Cycle_Count 0x0032 001 001 000 Old_age Always - 4183900

724 :login:Penguin:2012/11/08(木) 06:36:15.18 ID:dPb8y1A5.net
400万とか行ってても死なないんだね。
うちのが噂通りのタイミングで死んだからそういうもんかと思ってたけど、はずれ引いたのかな…

725 :login:Penguin:2012/11/08(木) 13:58:21.96 ID:/zKKDrtf.net
データシート上の上限は30万回だよ
低速病や故障との因果関係はわからないが気分的に嫌なので一応無効にして使ってる
20EARS*7台mdRAID5環境、稼働時間15,000時間前後で Load_Cycle_Countは100回程度

linux上からintelliPark切れる非公式ツール
http://idle3-tools.sourceforge.net/

726 :login:Penguin:2012/11/09(金) 21:20:24.38 ID:JjWiZS1u.net
うちはファイルサーバー負荷が高いから
IntelliParkはあってもいいかな。ただ8秒は短いかも。

PT2録画の書き込み時、あるいは再生するときに
どのくらいの間隔が書き込みがあるのか把握していないけど
8秒じゃなくて、30秒くらい待ってからでいいんじゃないかと思う。

あ、今…序録画してるけど、見てみると5,6秒アクセスしないことあるな。

まぁ、逆にそういう仕様になっているから
30万程度では余裕の設計になっているはずだとは思う。

10秒に1度ログを書く仕組みになっていると、その都度止まって
1日にして8万を超える。4日で30万突破だ。
それじゃおかしいだろ(笑)

727 :login:Penguin:2012/11/09(金) 21:22:13.71 ID:JjWiZS1u.net
誤:うちはファイルサーバー負荷が高いから
正:うちはファイルサーバー負荷が高くないから

orz

728 :login:Penguin:2012/11/09(金) 21:24:10.60 ID:JjWiZS1u.net
あ、ごめん、なんか今日疲れているわ。
計算式が完全におかしかった。

さすがに4日は無いわな。
40日くらいでいいんだっけ、なんかもう計算しなおす気もしない。

729 :login:Penguin:2012/11/09(金) 21:34:16.68 ID:9DMWjMmw.net
なんか知らんがお疲れさま

730 :login:Penguin:2012/11/10(土) 09:22:22.04 ID:Z5NhURJu.net
失礼ですが、DebianでRAIDやLVM(ソフト)を実際に会社で運用している人いますか?

731 :login:Penguin:2012/11/10(土) 11:17:44.64 ID:78GJ6K5S.net
>>730
RAID というのが mdraid ならつかってるよ。
kernel はバニラだし、utility も自前でコンパイルしてるけど、
パッケージのものを使ってもそれほど変わらないと思う。
LVM も一部(バックアップ作成用DBなど)で利用してる。
#(ソフト)は RAID のほうにつけたかった?

どちらも、debian に限らず最近の鳥なら、
パフォーマンスを除けば問題なく使えるのではないかな

732 :login:Penguin:2012/11/10(土) 15:25:13.65 ID:Z5NhURJu.net
>>731
> >>730
> RAID というのが mdraid ならつかってるよ。
なるほど。じゃあ、外付けHDDを二台買って、それをUSB接続してソフトウェアRAIDすることも可能であり、
使われているんですね。安心しました。貧乏なもので(^^;)。

733 :login:Penguin:2012/11/10(土) 15:55:22.88 ID:8tkujktf.net
>>732
用途や構成によるけど、usb 越しは私なら避けるかな
かなりパフォーマンス落ちるはずだし、感覚的な話だが安定性についてもあまり信用出来ない

なおsataネイティブの mdraid とか lvm は仮想マシンホストのような高負荷な環境で多用しているが特に問題無い

734 :login:Penguin:2012/11/10(土) 16:36:44.40 ID:Z5NhURJu.net
>>733
> >>732
> 用途や構成によるけど、usb 越しは私なら避けるかな
> かなりパフォーマンス落ちるはずだし、感覚的な話だが安定性についてもあまり信用出来ない
>
> なおsataネイティブの mdraid とか lvm は仮想マシンホストのような高負荷な環境で多用しているが特に問題無い

SATAのHDDカスタム仕様だったら安定するんですねぇ。なるほど。ありがとうございます。

735 :login:Penguin:2012/11/10(土) 22:07:58.91 ID:phqWLVKE.net
eSATA使えばいいんじゃ

736 :login:Penguin:2012/11/10(土) 22:17:09.50 ID:KgcTAGUW.net
>>732
USB接続で使う場合、USB外付けHDD自体が
信頼性に不安をかかえているという説があるから、微妙。

この問題は、USBの電力供給能力,ホットプラグに関する扱い,バスとしての本質的性能
コントローラーチップ,USB-SATA変換基盤などなど、いろんな要素が予想されるが…

実際に、USB外付けHDDで、パーティションテーブルが吹っ飛んだなんて体験をした人が
総じて、技術的知識を持たず、状況を的確に分析しリポートできないため
単なる、誤った運用によるトラブルにすぎない可能性もあると考えられている。


ともかく、USBの一つのコントローラーに2つのHDDを繋いで
RAID1を組んどけば、そのリスクは半減する…のかどうかも定かではない。

USBメモリーとかでRAID1,0,5について、短時間のテストはしたけど
信頼性については、どうかと思うよ。ネタとしては面白いけど。

内蔵HDDのデータ用パーティションと
USB3.0のHDDの同サイズパーティションでRAID1なら
まぁ、わからんでも無いかなぁ…

737 :login:Penguin:2012/11/10(土) 22:22:20.33 ID:KgcTAGUW.net
なお、USB2.0の480Mbpsというスペックは
一つのバスとしての帯域で、個々の端子の帯域ではない。

PCの側面に2つのUSB端子があったとしても
実際には、内部的に分配されたもので
同時利用では、2ポート合計で480Mbpsしか出ない場合がある。

USBハブを介して行なうならなおのこと。

Linuxだとlsusb -tで分配状況がある程度わかるので
組み合わせに注意したほうがいい。


なお、少なくともうちにあるUSB3.0ハブは
USB2.0機器を2つ同時に使う場合は
USB2.0枠として480Mbpsのバスが使われるようで…

USB3.0としては5Gbpsの性能を持つハブでありながら
USB2.0x2のRAID0での実性能は30〜40MB/sにとどまる。

USB3.0x2でのRAID0は、普通にRAID0的な高速化が得られる。

738 :login:Penguin:2012/11/12(月) 18:07:38.08 ID:bJD5n25a.net
>>737
ハブの動作としては間違っちゃいないな。

とゆうか、USBでそういう動作をさせようとすると、HUBが3.0のクライアント且つ2.0のホストにならないとだな。
恐らく、そんなHUBは出ないと思うけど。

739 :login:Penguin:2012/11/12(月) 21:47:24.17 ID:K6MNGw6C.net
なるほど、USB3.0か。ありがとうございます。

740 :login:Penguin:2012/11/12(月) 22:57:02.33 ID:aZ90sho6.net
Multi TT

741 :login:Penguin:2012/11/13(火) 21:41:21.00 ID:cNP+TL42.net
>>736
> 実際に、USB外付けHDDで、パーティションテーブルが吹っ飛んだなんて体験をした人が
> 総じて、技術的知識を持たず、状況を的確に分析しリポートできないため
> 単なる、誤った運用によるトラブルにすぎない可能性もあると考えられている。

耳が痛い…

742 :login:Penguin:2012/11/13(火) 23:00:12.78 ID:Sj2nUtPI.net
>>741
> >>736
> > 実際に、USB外付けHDDで、パーティションテーブルが吹っ飛んだなんて体験をした人が
> > 総じて、技術的知識を持たず、状況を的確に分析しリポートできないため
> > 単なる、誤った運用によるトラブルにすぎない可能性もあると考えられている。
>
> 耳が痛い…

やっぱり同じ事考えますよねぇ。> USB接続HDD RAID化

743 :login:Penguin:2012/11/16(金) 02:28:24.87 ID:bEGF+VgY.net
Fedora16、mdadmで3TB×6のRAID5を組んでいるんだが、
OS起動時に自動でアレイが起動しないようにする方法ある?

電源オフしてPCケース内いじってOS再起動なんかすると、
たまに1個のHDDの電源ケーブルとか抜けてて、縮退運転でアレイが起動しちゃう
こうなると2日とかかかるrecoveryするしかないのが嫌で、常に手動でアレイ起動したい

744 :login:Penguin:2012/11/16(金) 02:48:56.85 ID:TLJ3ep61.net
>>743
/etc/mdadm.conf から該当するDEVICEとARRAY消して、起動後手動で、
# mdadm --assemble /dev/md0 /dev/sd[a-e]1
とかやればいいんじゃ?

745 :login:Penguin:2012/11/16(金) 06:03:29.35 ID:9TnovmpM.net
縮退運転のときは起動してすぐメールくるでしょ
そこで気づけばrecoveryしなくて済むと思うんだが

746 :login:Penguin:2012/11/16(金) 22:49:44.68 ID:Z6wK/4vW.net
一度縮退したら、歯抜けになったHDDを再度つないでもリカバリはじまったような気がする。

747 :login:Penguin:2012/11/16(金) 22:54:18.02 ID:Z6wK/4vW.net
そいやぁ某大手メーカー製サーバにHW-RAIDコントローラーとHDD2台を
純正パーツで追加してRAID1指定して購入したんだが、起動させてみたら
RAID1の同期がされてなかったよ。つまりHDD挿してRAID1の設定してすぐ
電源落として納品しただけ。ふざけちょー。

748 :743:2012/11/17(土) 02:59:16.17 ID:pz7uG5YX.net
>>744 /etc/mdadm.conf にARRAY書かなくても自動起動する。DEVICEは書いていない。
(2枚のSATA拡張カードのHDDの認識順序が毎回変わるんでDEVICEは書きたくない)

>>745 フラッシュメモリとHDDの空き領域使っていろいろ試してみた
●アレイ作成
# mdadm --create /dev/md8 --metadata=1.2 --level=5 --raid-devices=3 /dev/sda2 /dev/md1p2 /dev/sdm2
mdadm: array /dev/md8 started.

●縮退運転でしか起動しなくなる手順
フラッシュメモリ(/dev/sdm)抜く

アレイ停止
# mdadm --stop /dev/md8
mdadm: stopped /dev/md8

フラッシュメモリ(/dev/sdm)挿す

アレイがフラッシュメモリだけで起動するので停止
# mdadm --stop /dev/md8
mdadm: stopped /dev/md8

縮退運転で起動
# mdadm --assemble --run /dev/md8 /dev/sda2 /dev/md1p2
mdadm: /dev/md8 has been started with 2 drives (out of 3).

アレイ停止
# mdadm --stop /dev/md8
mdadm: stopped /dev/md8

通常起動しても縮退運転
# mdadm --assemble /dev/md8 /dev/sda2 /dev/md1p2 /dev/sdm2
mdadm: /dev/md8 has been started with 2 drives (out of 3).

749 :743:2012/11/17(土) 03:00:10.02 ID:pz7uG5YX.net
●縮退運転した後、通常起動する手順1
アレイ停止
# mdadm --stop /dev/md8
mdadm: stopped /dev/md8

フラッシュメモリ(/dev/sdm)抜く

縮退運転で起動
# mdadm --assemble --run /dev/md8 /dev/sda2 /dev/md1p2
mdadm: /dev/md8 has been started with 2 drives (out of 3).

アレイ停止
# mdadm --stop /dev/md8
mdadm: stopped /dev/md8

フラッシュメモリ(/dev/sdm)挿す

アレイがフラッシュメモリだけで起動するので停止
# mdadm --stop /dev/md8
mdadm: stopped /dev/md8

通常起動する
# mdadm --assemble /dev/md8 /dev/sda2 /dev/md1p2 /dev/sdm2
mdadm: /dev/md8 has been started with 3 drives.

750 :743:2012/11/17(土) 03:00:45.76 ID:pz7uG5YX.net
●縮退運転した後、通常起動する手順2
アレイ停止
# mdadm --stop /dev/md8
mdadm: stopped /dev/md8

フラッシュメモリ(/dev/sdm)抜く

フラッシュメモリ(/dev/sdm)挿す

アレイがフラッシュメモリだけで起動するので停止
# mdadm --stop /dev/md8
mdadm: stopped /dev/md8

縮退運転で起動
# mdadm --assemble --run /dev/md8 /dev/sda2 /dev/md1p2
mdadm: /dev/md8 has been started with 2 drives (out of 3).

アレイ停止
# mdadm --stop /dev/md8
mdadm: stopped /dev/md8

通常起動する
# mdadm --assemble /dev/md8 /dev/sda2 /dev/md1p2 /dev/sdm2
mdadm: /dev/md8 has been started with 3 drives.

751 :743:2012/11/17(土) 03:06:09.23 ID:pz7uG5YX.net
連投失礼。

結論:良く分からんw
>>743のケースは●縮退運転した後、通常起動する手順1 に近い気がするが、
経験上は一度縮退運転しちゃうと、縮退運転でしか起動しなくなるんだよな。。。

752 :login:Penguin:2012/11/17(土) 08:47:27.85 ID:+VvG7kSs.net
おそらくだけど、RAID関係のモジュールがOS起動時に読み込まれないように
すれば良いです。後からinsmodで差し込むスクリプトを書けばいいです。

但しOSが入っている部分はRAID使ってない事が前提だけどね。

initrd関係を細工すれば良いだけだけど、OSの起動プロセスをいじるので
この説明だけでわからなければやめときな。

753 :login:Penguin:2012/11/17(土) 08:53:40.82 ID:+VvG7kSs.net
そいやぁ、いにしえの時代、一部のブートセレクターが使っていたMBRに書いてあるファイルシステムのタイプにダミーの
値を書いておいて、自動認識させないって技があるな。

今でも使えるかどうかはしらないが。

まぁ、これも、この説明だけでわからなければやめときな。

754 :login:Penguin:2012/11/17(土) 17:00:56.02 ID:eBy54vcW.net
>>748
試してないから想像だけど

>フラッシュメモリ(/dev/sdm)抜く

この時点で/dev/sdmがfail扱いでまだアレイに残ってるとか?
一回removeしてみたらどうかな

>>751
まあ起動後に書き込み発生したらその時点でアウトだろうし

755 :login:Penguin:2012/11/17(土) 22:09:10.22 ID:FbyUYDUH.net
書き込みしなければ(マウントしなければ)resync 不要だったような

756 :login:Penguin:2012/12/06(木) 13:34:44.83 ID:j0iF6s/f.net
4KBセクタの2TBのHDDx4でmdadm使ってRAID5組んでいるところに、
mdadm --growで512Bセクタの2TB HDDを1台足したいと思ってるんだけど、
RAIDの玉の中で4KBセクタと512Bセクタが混在するのって問題ありますか?

757 :login:Penguin:2012/12/06(木) 17:22:24.05 ID:al1iycmV.net
AFTでLinuxからの論理ブロックサイズが512Bに見えてるなら
混在しても動かないとか障害が起きやすいとかは特になさそう。

アライメント揃える話もパーティション切る段階の問題で、MDとしてはv1.0かv1.2で構成してあるならMD部分でケアすることはない。

論理ブロックサイズが違うデバイスをミックスしたらどうなるのかは実験で苛めてみたら面白そう。どこかにうっかりバグとか入ってて踏めるかも?

758 :login:Penguin:2012/12/06(木) 19:00:22.35 ID:j0iF6s/f.net
ややスレ違いになりますが、既存RAIDを構成しているAFTなはずのHDDも、dmesgなpartedからは
512B/セクタと認識されてますね。OSはCentOS5.8なんですが、カーネルが古いせい?

なので、MDのメタデータもVer0.9で作られてます。1.0以上にしないとまずいんでしょうか…。

既存HDDは1HDD1パーティションで切っていて、64セクタ目を開始セクタにしてあるので、この点は問題ないかと思っているのですが。

759 :login:Penguin:2012/12/06(木) 23:59:26.96 ID:al1iycmV.net
MD v0.9はうろ覚えだから省略したけど、これも末尾にメタデータ置いたと思うのでアライメント問題は起こさないはず。
AFTなのに512B/sectorと認識されるのは「なのに」じゃなくて正しい仕様。ただ、OSによってはAFTであることを検出して、書き込み手順を最適化するらしい。

まあアライメントがずれててもバッファリングありの書き込みだとたいして影響しない。
データベースとかでO_SYNC/O_DIRECTな書き込みばかりしてるなら気になるだろうけど。

760 :login:Penguin:2012/12/07(金) 03:18:23.86 ID:RaSp1DL4.net
レイヤが違うと理解できれば心配することなんてないんだけどな。

761 :login:Penguin:2012/12/07(金) 09:34:25.02 ID:WhLhdtP/.net
>>759
>まあアライメントがずれててもバッファリングありの書き込みだとたいして影響しない。

えーと、大量のシーケンシャル書き込みでも、両端の1セクタはパーシャルライトになります。
で、その部分では、普通であれば1/2回転である「平均回転待ち時間」が3倍になるわけです。
単純に計算して、5400rpmのHDDだと平均5.5msの回転待ちが
平均16.5msになり、一箇所の書き込み毎に平均11ms余分に待たされるわけですね。
(ただし、RAID環境だと元々が平均1/2周待ちではないので、確かに影響は少な目と言えるかも)
まあ11msで読み書きできる量なんて、せいぜい1MBとか1.5MBとかその程度なので
毎回その程度の量を余分に書き込みしている程度の差でしかありませんが。


ちなみにRAID5だと、「パーシャル」になるサイズが
(構成台数やチャンクサイズにもよりますが)かなり大きくなりますね。
OSがこのサイズを意識してバッファリングしてるかは知りませんが。

で、パーシャルでの書き込み時は、パリティ構成セットの全台の同期待ちがあるので
そもそもの「回転待ち時間」が平均1/2周よりも平均1周に近くなり
その上でもう1周かけて全台に書き込みを行うので
書き込みの回転待ちは単純に4倍近いと考えてよいかと思います。
RAID6はさらに倍ですね。(パリティセットの構成セクタが両パリティで大きく異なると思われるので)

これが「RAID5の書き込みの遅さ」の正体なので
以前から時々みかける「昔はCPUパワーが云々」というのは的外れかと思います。

762 :login:Penguin:2012/12/07(金) 10:43:14.06 ID:hU0pzwy2.net
なんとなく言ってることはわかるんだけど、
全部ライトキャッシュで吸収できるとしか思えないんだが
そういうもんでもないの?

763 :756=758:2012/12/07(金) 20:04:02.74 ID:bv0W75lf.net
ありがとうございます。

一応、追加する512BセクタのHDDの開始セクタも、既存4KBセクタのHDDに
あわせて64セクタ目にして(意味ない?)、いま mdadm --growを始めました。
6TBから8TBにするのに丸3日かかるらしい…。

764 :login:Penguin:2012/12/07(金) 23:07:55.93 ID:aaphApJl.net
うちにある3T x 2 のRAID1はresyncに10時間かかるなぁ。

HDDの大容量化にHDDの速度がついてきてないね。

765 :login:Penguin:2012/12/08(土) 03:37:10.82 ID:eJ4oWL2e.net
RAID5のgrowは何回もやってるので、うちの環境の場合(おおよそ)
6TB(1.5TB×5)→7.5TB(1.5TB×6) 1日半
7.5TB(1.5TB×6)→9TB(1.5TB×7) 2日弱
10TB(2TB×6)→12TB(2TB×7) 2日
12TB(3TB×5)→15TB(3TB×6) 2日

HDDはほとんどWDの緑。CPUはCeleron420。
マザーにSATAUとかついているが、SATA4P-PCIにHDD4台とか平気で繋げる。
NAS専用機なので他に仕事はやらせてない。

深く考えた事もないが、growのボトルネックって単純にHDDの書き込みか?

766 :763:2012/12/09(日) 11:53:15.60 ID:EnG3W2Aq.net
mdadm --grow中に、なぜか既存のHDDがfailしてgrow動作が停止orz

smartctlでチェックしても特にエラーは見つからないので、このHDDを再度アレイに突っ込みたいんだけど、大丈夫かな…。

767 :login:Penguin:2012/12/09(日) 12:33:41.39 ID:/NLIFmmO.net
HDDの異常が無いなら、コントローラーの方は大丈夫なの?

かなりの高負荷になっているはずだけど。

768 :763:2012/12/09(日) 14:08:36.07 ID:EnG3W2Aq.net
HDDは全てオンボードのICH9Rに繋がってるんだが…。

769 :login:Penguin:2012/12/09(日) 17:19:24.80 ID:2xwUCBvU.net
オンボードだろうがなんだろうが
壊れるときは壊れるw

770 :login:Penguin:2012/12/09(日) 17:54:29.72 ID:EdH5h/1Z.net
>>766
俺も昔raid5でそれやってヒヤッとしたわ
データ死んだと思ったが運良く縮退運転でリスタートできた

771 :login:Penguin:2012/12/10(月) 00:56:14.21 ID:cZdt/6Ph.net
デグレード3T7400回転x3に3T5600回転足したところ、
リビルドに8時間ほどかかったな。


>>766-770
ビットマップでどの範囲まで書き換えたかの状態を持ってるはず。

772 :login:Penguin:2012/12/10(月) 00:56:59.92 ID:cZdt/6Ph.net
リビルドじゃなくリシンクだっけ。

773 :766:2012/12/10(月) 10:52:16.65 ID:K1Lkr8pN.net
degradedではあるもののRAIDは生きてたので、エラーを起こしたHDDを
remove後 --zero-superblock したあと再びaddしました。

そしたらresyncが走って(これは数時間程度で終了)stateはcleanになったけど、
mdadm --detail で Delta Devices : 1, (4->5) になったまま、当初数日間かかると
思われたリビルド動作は再開されず…。--grow /dev/md1 --size=max したら
アレイのサイズは大きくなったけど、やっぱりリビルドは始まらず。

というわけでgrowが中途半端なままアレイ領域が拡張されて、stateは
cleanというものすごく中途半端な状態になってしまいました。
--examine で各構成HDDをみると、Reshape pos'n というところに
どこまでreshapeが完了したのかの記録は残ってるんですが…。

たびたびでホントすいません。アドバイスお願いします(泣

774 :login:Penguin:2012/12/10(月) 13:28:03.59 ID:K1Lkr8pN.net
うわ、なんかあちこちファイル壊れてるorz

775 :login:Penguin:2012/12/10(月) 18:57:51.55 ID:xR1l6fhz.net
ご愁傷様

776 :login:Penguin:2012/12/10(月) 19:13:27.30 ID:xw1lg7L3.net
エラー起こしたHDD戻したのか
とりあえず今すぐ新しいHDD買って来てバックアップ

777 :login:Penguin:2012/12/10(月) 20:18:49.13 ID:XfGmS0PV.net
RAIDばバックアップの代わりにならないとあれほど言ったのに (こころの中でな)

778 :login:Penguin:2012/12/10(月) 20:30:05.31 ID:K1Lkr8pN.net
問題はエラー起こしたHDDを戻したことではなく、reshapeが終わってないうちに
アレイのサイズを大きくしちゃったことのようです (大きくしたのはアレイだけで
ファイルシステムはまだだったのに)。

いったんmdadm -Sで止めて、--assembleで再開させたら、reshapeが
続きから再開されました。アレイを大きくする前にはじめからこうしておけばよかったorz

779 :login:Penguin:2012/12/10(月) 21:21:37.16 ID:EKqSJiAU.net
バックアップ用のストレージをRAIDで組むとええんや
さらにそのストレージのスナップショットを地理的に離れたデータセンターにだな・・・

780 :login:Penguin:2012/12/10(月) 22:06:50.49 ID:cZdt/6Ph.net
どれがなにかさっぱりわからん。

781 :login:Penguin:2012/12/10(月) 23:09:37.22 ID:MkxRoykS.net
まぁバックアップは別のPCに取るべきだな。
本来なら遠隔地にバックアップPCを置くべきだが
コストとネットワーク帯域的にむりぽ。

782 :login:Penguin:2012/12/13(木) 14:11:07.28 ID:N3gbc7LR.net
AWSのアレ使えば日本じゃないところにバックアップを取るのも難しくはない
自分でRAID組むよりお手軽で安全ではあるが、帯域・転送量重量課金の問題は消せないな

783 :login:Penguin:2013/01/05(土) 16:15:24.01 ID:gZxAAKH+.net
質問なんですが、半端な容量のhdd複数をまとめてそれに対してRAID1をやりたいのですが、スパンとRAID1の両方に対応してる製品で可能でしょうか?

784 :login:Penguin:2013/01/05(土) 16:28:55.85 ID:kJh4a19j.net
製品つか
このスレで聞いたら mdraid でやればいいんでね? という話になると思うが

俺は半端な容量のヤツを全部捨てて
大きいのを二つ買ってきた方がいいと思う

785 :login:Penguin:2013/01/05(土) 17:37:07.28 ID:gZxAAKH+.net
専ブラの検索結果からきたのでlinux板とはつゆ知らず。失礼しました。

786 :login:Penguin:2013/02/01(金) 09:55:58.65 ID:0zptWhTj.net
Chunkサイズの最適値がいまいち判らん
参考になるサイトを教えて、エロい人

787 :login:Penguin:2013/02/01(金) 14:59:08.56 ID:6Z2cs7J8.net
前試したことあるけどうちの環境だと128kがベストだったよ

WD緑2TBの6台くらいのRAID5、ファイルシステムはext4で
試したチャンクサイズは64k/128k/256k/512k
でかい動画ファイル数個と、細かいファイル多数を用意して
それぞれ実際にコピーにかかる時間を計測した

具体的な数値は割愛するけど、
チャンクサイズが大きいとでかいファイルの書き込みがわずかに早くなったが
それも誤差といっていいレベルで、代わりに読み込み速度が著しく低下した
結局一番バランスが良かったのが128k

ただこのアレイの使途がsambaファイル鯖だったんで、
計測は実際の使用状況に近い状態(ネットワーク経由)で行ったため、
厳密なベンチとしてはやや不正確かもしれない
まあ参考までに

788 :login:Penguin:2013/02/01(金) 15:27:11.30 ID:+LcFVFp5.net
>>787
横からだが、こういう情報はありがたい。
うち WD 緑キャビア 2TB 4台の RAID5 だから環境近いなーと思って mdstat 確認してみたら……512k だった orz.

実害無いけど、今度組む時は気をつけようと思った。

789 :768:2013/02/01(金) 21:16:19.95 ID:0zptWhTj.net
>> 787
3TBx7、RAID5、XFSでベンチ取ったけど複数回の平均でないせいか、いまいち安定しないんだよね

dd if=/dev/zero of=/srv/32GB.img bs=1M count=32768
dd if=/srv/32GB.img of=/dev/null bs=1M count=32768
bonnie++ -d /srv -u root

■Chunk 4K
34359738368 バイト (34 GB) コピーされました、 48.4232 秒、 710 MB/秒
34359738368 バイト (34 GB) コピーされました、 58.3853 秒、 588 MB/秒
1.96,1.96,B75M,1,1359660716,31976M,,1645,92,673629,36,184346,23,3614,90,810132,68,381.1,13,16,,,,,1930,4,+++++,+++,2936,6,1493,3,+++++,+++,2077,4,4718us,39590us,211ms,16259us,100ms,191ms,36571us,103us,132us,151us,37us,4993ms

■Chunk 8K
34359738368 バイト (34 GB) コピーされました、 56.4166 秒、 609 MB/秒
34359738368 バイト (34 GB) コピーされました、 52.2211 秒、 658 MB/秒
1.96,1.96,B75M,1,1359662863,31976M,,1657,93,513626,27,187980,19,3518,88,912221,55,552.0,18,16,,,,,1852,4,+++++,+++,4805,10,3000,7,+++++,+++,4656,10,4637us,32371us,188ms,25171us,99881us,63085us,16483us,106us,164us,128us,76us,2915ms

■Chunk 16K
34359738368 バイト (34 GB) コピーされました、 57.9357 秒、 593 MB/秒
34359738368 バイト (34 GB) コピーされました、 48.7993 秒、 704 MB/秒
1.96,1.96,B75M,1,1359673482,31976M,,1657,94,485183,26,181746,16,3481,86,980625,46,533.1,17,16,,,,,3027,7,+++++,+++,9270,20,5068,11,+++++,+++,6055,14,5285us,35016us,180ms,44198us,100ms,116ms,16531us,124us,132us,221us,62us,1192ms

790 :768:2013/02/01(金) 21:17:37.47 ID:0zptWhTj.net
■Chunk 32K
34359738368 バイト (34 GB) コピーされました、 101.545 秒、 338 MB/秒
34359738368 バイト (34 GB) コピーされました、 76.322 秒、 450 MB/秒
1.96,1.96,B75M,1,1359674495,31976M,,313,35,300159,19,182774,14,5003,97,641331,21,1736,53,16,,,,,3856,3,+++++,+++,+++++,+++,+++++,+++,+++++,+++,+++++,+++,9372us,156ms,166ms,10635us,19026us,8914us,11857us,514us,1063us,378us,30us,1032us


■Chunk 64K
34359738368 バイト (34 GB) コピーされました、 69.354 秒、 495 MB/秒
34359738368 バイト (34 GB) コピーされました、 44.3628 秒、 775 MB/秒
1.96,1.96,B75M,1,1359671414,31976M,,1660,93,469444,25,195754,14,3153,78,920928,28,540.4,17,16,,,,,3581,8,+++++,+++,20406,44,12794,29,+++++,+++,18666,42,4734us,31388us,223ms,10643us,46512us,72471us,14313us,113us,131us,127us,74us,72us

■Chunk 128K
34359738368 バイト (34 GB) コピーされました、 102.281 秒、 336 MB/秒
34359738368 バイト (34 GB) コピーされました、 77.3459 秒、 444 MB/秒
1.96,1.96,B75M,1,1359670105,31976M,,353,40,301179,20,181007,14,4970,97,640319,21,1743,54,16,,,,,4025,4,+++++,+++,+++++,+++,+++++,+++,+++++,+++,+++++,+++,9350us,160ms,179ms,12648us,18613us,8668us,10107us,507us,1071us,378us,23us,1101us

■Chunk 256K
34359738368 バイト (34 GB) コピーされました、 76.2661 秒、 451 MB/秒
34359738368 バイト (34 GB) コピーされました、 44.8381 秒、 766 MB/秒
1.96,1.96,B75M,1,1359665523,31976M,,1645,92,348592,18,185896,13,3311,84,1020281,28,558.1,17,16,,,,,11249,25,+++++,+++,18695,41,12323,28,+++++,+++,17883,40,4635us,19945us,202ms,27348us,44991us,51579us,13328us,118us,129us,222us,27us,67us

791 :768:2013/02/01(金) 21:19:40.94 ID:0zptWhTj.net
マシンのスペックは
Celeron G550
RAM 16GB
M/B Asrock B75M
です。

792 :login:Penguin:2013/02/09(土) 19:38:52.58 ID:1SxvoiaZ.net
mdでraid1組んでて、縮退状態でgrowすることってできないんですかね?
500GB x 2でそれぞれ運用していたんだけど片方のディスクをOS以外で使ってない
状態だったので、データが入ってるディスクとRAID1を組みたかったのですが
データ側のディスクは退避場所がないのでインストール時に8GBのUSBメモリと
500GBのHDDでRAID1を組んで、その後片肺にしてgrowで広げてデータをコピー、
そのあと元データ用ディスクとRAIDを組もうと思ったのですが。。。

片肺で領域を拡張しようと
# mdadm --grow /dev/md1 -z max
mdadm: component size of /dev/md1 unchanged at 7564288K

とか言われて拡張してくれません。

どなたかヒントをいただければとおもいます。

793 :login:Penguin:2013/02/09(土) 22:51:25.15 ID:wfZpuM/d.net
アレイ構築するときに最初から一つmissingにして500GB確保してみたら?
やったことないからできるのかしらんけど

794 :login:Penguin:2013/02/10(日) 10:23:18.19 ID:aKCZGvvp.net
俺の名はジェフ。
人力RAID1を運用している。
ハードウェア障害でデータを失ったこと一度としてない。

795 :login:Penguin:2013/02/10(日) 10:28:58.85 ID:aKCZGvvp.net
俺の名はサンチェス。
人力RAID0の運用を試みたが、無意味だった。
わはははは。

796 :login:Penguin:2013/02/10(日) 10:29:29.06 ID:aKCZGvvp.net
俺の名はサンチェス。
気づかずにageていた。
わはははは。

797 :login:Penguin:2013/02/10(日) 13:15:43.39 ID:ZMQ8cuTs.net
面白いのか?

798 :768:2013/02/14(木) 22:49:51.18 ID:flsevwor.net
色々とテストしましたが、結局シーケンシャルは4Kが速かった

799 :login:Penguin:2013/03/30(土) 10:32:13.16 ID:DOTYDVGP.net
Adaptecの

HBA 71605H と RAID 71605E の違いは簡易RAIDの違いだけなのかな?
http://www.adaptec.com/ja-jp/products/

Eのほうが機能面で優れてるのに、
なぜか市場では、Eのほうが安いんだけど。

なぜ?

800 :login:Penguin:2013/03/30(土) 12:45:44.64 ID:hvTSP+Zp.net
自作PC板から出てくんな

801 :login:Penguin:2013/03/30(土) 14:44:42.63 ID:rmVuOfpx.net
Adaptecの

HBA 71605H と RAID 71605E の違いは簡易RAIDの違いだけなのかな?
http://www.adaptec.com/ja-jp/products/

Eのほうが機能面で優れてるのに、
なぜか市場では、Eのほうが安いんだけど。

なぜ?

802 :login:Penguin:2013/03/30(土) 16:30:02.59 ID:gTyMR/ay.net
>>801
Eのが先に販売開始で たしか38K位で販売開始
その後円安が一気にすすんでからHが発売
ドルベースではHの方が安いけど
円高時に輸入したものと円がさがったから輸入したHで
逆転しているだけかと

Eも40K台に値上がりが始まったんで先月購入した俺は
そう思ってる。

803 :login:Penguin:2013/04/03(水) 16:32:39.16 ID:NLrILeA6.net
>>802
EもHBAとして使用出来るよね?
あと、Eはフラッシュモジュールコネクタが付いてるけどHには無い
(フラッシュモジュールはRAID用だからHには付いてない)

HよりEを買ったほうがましって事かな?

804 :login:Penguin:2013/05/07(火) 03:12:56.84 ID:JbnXh7Uj.net
mdadmのRAID1だけど、HDD交換って結構めんどいね。

805 :login:Penguin:2013/05/07(火) 10:38:11.85 ID:/2C/HqPM.net
>>804
慣れたら、ハードウェアに依存せず同じやり方がどこでも通用するから楽だよ。
新しい環境でも、事前の復旧手順の確認とかテストがいらない。

806 :login:Penguin:2013/05/07(火) 23:40:24.96 ID:JbnXh7Uj.net
>>805
でもさ、取り外しと新規受け入れと、
自動コマンドの1つ2つに簡略化できることだと思うんだ。

807 :login:Penguin:2013/05/10(金) 23:20:33.22 ID:5kOyl+fb.net
>>806
必要だと思ったら
そういうスクリプトを書けば済むから
そんなもの誰も作らないんだよ

808 :login:Penguin:2013/05/11(土) 13:37:59.32 ID:FNlfjU+b.net
>>807
そのスクリプトを同梱してほしいってことだろう?

809 :login:Penguin:2013/05/11(土) 20:19:53.33 ID:fLDJUPdU.net
MDで悩むのは故障したディスクに対応するスロットが一体どれなんだ、というあたりだな。間違ったの抜くと死ねるしな。

810 :login:Penguin:2013/05/11(土) 22:37:00.64 ID:nDHgl23T.net
HDDのよく見える位置にシリアル下4桁くらい書いたテープ貼ってる

811 :login:Penguin:2013/05/11(土) 22:53:51.15 ID:axS4nYk9.net
ラベルには必ず書いてあるだろうし、奥側(端子の反対側)にシールが張ってある機種も多いと思うんだけど
両方、取り付けちゃうと見えないんだよね。
書いてあって欲しいのは、端子側とその右側面端子寄りなのに。

812 :login:Penguin:2013/05/12(日) 03:26:16.87 ID:kkiLCU9i.net
>>807
引数ドライブに対して -f して -r して -a だからな。
悩みようがない

>>809-811
ほぼ全台ホットスワップベイに入れたので、
「とりあえず引き抜いてシリアルを見る」が
可能になった。

813 :login:Penguin:2013/05/12(日) 17:06:31.10 ID:jviuJYh/.net
>>812
おれは、ホットスワップに対応してても「とりあえず引きぬく」は無理だ。
挿し直したらいきなりリビルドが始まったりしたことがあるので、
正常なものは極力触りたくない。

あとは、 2台で RAID1 してるとか、RAID5とかの場合に1台壊れて交換する場合は、
その方法取れないしね。
1Uサーバとかの場合は、1スロット毎にLED があるので、dd して生きてるディスクを
確認してから引き抜けるけどタワーとかだと厳しいから、ラベリングするしかないか。

mdasm のコマンドに関しては、大いに賛成。
これ以上まとめる必要性を感じない。

814 :login:Penguin:2013/05/12(日) 20:01:51.40 ID:zlTIK5KC.net
個別のアクセスランプ付きのHDDケージを使っていると
異常がおきているHDDがどれかわかりやすくていいな。

常に判別できるというわけでは無いかもしれないけど
最近では、低速病に陥ったHDDがあることが
アクセスランプの様子から判別できた。

一旦RAIDメンバーから外して、ddで管理情報抹消して
改めて、0xfdパーティションを作って戻した。
以降数ヶ月、低速病の再発は確認されていない。

815 :login:Penguin:2013/05/13(月) 00:12:27.53 ID:3KzN6MUr.net
>>809
SATA の場合、/dev/sdX で指定すると割り当てがコロコロ変わっちゃうから
ドライブは /dev/disk/by-path 以下のリンクで指定するのが俺的常識。
これだと接続インターフェイスでの指定だからリムーバブルフレームとか使ってても問題なし。

816 :login:Penguin:2013/05/16(木) 08:50:41.33 ID:xcOX8LOP.net
by-uuid使ってるけど、いずれにしても事前マーキングしてないと抜くスロットで悩むのは同じ。OSから見えてる情報と物理的なスロット構成の対応が機材で違うからなー。

817 :login:Penguin:2013/05/16(木) 13:12:21.09 ID:ES3WaKgr.net
smart情報でとれるhddのシリアルが、hddに貼られているものと一緒だからそれを見た方が確実だとおもわれ。

818 :login:Penguin:2013/05/16(木) 18:32:52.64 ID:YX1AiN38.net
そのシリアルがHDDはずさないと見えない配置になってることが多いからメモって見えるところに貼っておくって話でしょ

819 :login:Penguin:2013/05/16(木) 18:50:14.15 ID:EMUaJpUf.net
SES2やGPIO対応のenclosure使えば良いんだろうけど、
高いしなぁ。

820 :login:Penguin:2013/05/17(金) 14:01:44.47 ID:TOCFd70R.net
スロット毎にLCDかなんかがついていて、表示内容を設定できればいいのに・・・
そして何十人月の苦心の後、ついに日本は全面電子ペーパのサーバを開発した。







一方ロシアは鉛筆(とラベルシール)を使った。

821 :login:Penguin:2013/06/10(月) 11:12:21.15 ID:W5e3AeHs.net
既出かもしれませんが教えて下さい

ICH10RのRapidraidは
usb接続のhddでraidを組むことが出来るかご存知の方いらっしゃいますか?

822 :login:Penguin:2013/06/10(月) 12:56:49.05 ID:ljnH0yIe.net
無理に決まってるだろw

823 :821:2013/06/10(月) 14:24:51.73 ID:W5e3AeHs.net
>>822
早速レスありがとうございます
諦めますw

824 :login:Penguin:2013/06/10(月) 15:22:35.00 ID:ljnH0yIe.net
なんでそんな実用性無視のネタみたいなことをやろうとするのか知らんが、mdraidでやれ。
フロッピーディスクでもRAID組める。

825 :login:Penguin:2013/06/11(火) 02:37:34.69 ID:B91H3XVO.net
確かDVD-RAMでRAID組んだ人がいた

826 :login:Penguin:2013/07/17(水) NY:AN:NY.AN ID:mh0pAdtr.net
sda1とsdb1をmdraidでRAID1組んでて(/割り当て)
それやめてsdaの方でもbの方でもいいから
そのまま再インスコとか無しでシングルディスク環境に戻す手順てどっかにある?

827 :login:Penguin:2013/07/17(水) NY:AN:NY.AN ID:V2lEbHYo.net
縮退運転のまま使い続けりゃいいじゃん
今はメタデータがデバイス先頭だしめんどくせーよ

828 :login:Penguin:2013/07/17(水) NY:AN:NY.AN ID:j3wrwZso.net
>>826
片方をremoveしてからzero-superblockしてmkfsして/をコピー。

829 :login:Penguin:2013/07/18(木) NY:AN:NY.AN ID:QnHc7U2p.net
それが妥当だけど
GRUB2とかのインストールの手順を、おれは把握していない。
GRUBの頃は、何度かレスキューディスクからインストールしたんだけどね。

あと、Ubuntu系はパーティション(ボリューム)の指定に
デバイス名やLABELでは無く、UUIDを使っていたりする。

UUIDはblkidコマンドで確認できるけど
GRUB2を把握していないと、苦戦するね。
/etc/fstabの書き換えは面倒くさいだけだけど。

830 :login:Penguin:2013/07/18(木) NY:AN:NY.AN ID:jtzqih+/.net
>>828
結局は「通常のファイルシステムを作って丸コピー」しなきゃならんのですね
回答感謝です

831 :login:Penguin:2013/07/18(木) NY:AN:NY.AN ID:OtctLi2T!.net
degrade状態で運用したほうが、あとで気が変わった時にディスク追加もしやすいのでお勧め。

832 :login:Penguin:2013/08/16(金) NY:AN:NY.AN ID:iJricHcN.net
degradeで運用って、私がOS設計者だったらdegrade状態だと同期書き込み
とか安全側に振る設計をすると思うな。パフォーマンスが落ちてないか
検証や、そういうコードが入ってないか調査した方が良いよ。

833 :login:Penguin:2013/08/16(金) NY:AN:NY.AN ID:qDpOtOOB.net
ブロックデバイスレイヤーで非同期書き込みという阿保発想

834 :login:Penguin:2013/08/22(木) NY:AN:NY.AN ID:KJHrAiH/.net
得意先のためにDellからサーバを注文したんだけど、
Linuxでソフトraidを試そうとraid controllerを注文から外したのに
Dellから電話掛かってきて、raid controllerを薦められた
もちろん使うOSはLinuxだと聞いたうえで・・・

それでraid controller追加注文して、Centosを入れようとしてもHDDが認識されない!
ググったらこの PERC S300 は Linux 非対応だって・・・なんてこと!
しかもケーブルを繋ぎ直さないとLinuxでは決して使えないみたいで・・

サーバのフタって簡単に開けられるものなのか?PowerEdge R210II だけど

835 :login:Penguin:2013/08/22(木) NY:AN:NY.AN ID:huT8xeQY.net
なんかだらだら書いてあってよくわからんけど

>>834
> サーバのフタって簡単に開けられるものなのか?PowerEdge R210II だけど
質問はここでいいのかな?

836 :login:Penguin:2013/08/22(木) NY:AN:NY.AN ID:/vgoGT/z.net
ハードウェア保守マニュアルも無いサーバーなんかごめんだぜ

837 :login:Penguin:2013/08/22(木) NY:AN:NY.AN ID:mOMqa82R.net
>>834
S300だったか覚えてないが、Linuxで認識出来ないRAID カードを
買ってしまったと相談受けた事がある。さらにタチが悪い事にSAS
だったのでオンボードSATAに挿せないというオチまでついてた。

その後どうなったか聞いてないが、結局、、自腹切ってRAIDカード
買ったんじゃないかなって感じだった。

838 :login:Penguin:2013/08/22(木) NY:AN:NY.AN ID:eZDnXXPx.net
ワロタ
そんなのdellにクレーム入れて
対応品に交換させればいいだけのこと。
うろたえる意味がわからん。

839 :login:Penguin:2013/08/22(木) NY:AN:NY.AN ID:tV/uuoPY.net
得意先の機材に関する疑問点を
こーゆーとこで尋ねるってのは

840 :login:Penguin:2013/08/23(金) NY:AN:NY.AN ID:s5xTT2j/.net
IntelマザーのFakeRAIDにて3TBをRAID1で使用したいのですがどうしても746GBに引っかかってしまいます
OSに対応したドライバが無い場合は大人しくソフトウェアか対応してるハードウェアでやるしかないのでしょうか?

841 :login:Penguin:2013/08/23(金) NY:AN:NY.AN ID:hopnqMhY.net
結局 >>834 は何がしたかったんだ。

842 :login:Penguin:2013/08/23(金) NY:AN:NY.AN ID:OK3Pqybw.net
>>840
デバイスドライバを書くという手も無しにあらず。。。

一度LANカードで困った事があって、ソース追いかけたら
修正できた事があるよ。

とりあえずソースを読んでみたら。

843 :login:Penguin:2013/08/23(金) NY:AN:NY.AN ID:Ncu5DUVw.net
RAID Option ROMが腐ってんだから頑張るだけ無駄

844 :login:Penguin:2013/08/24(土) NY:AN:NY.AN ID:QfBM6VJO.net
標準カーネルで未対応なだけで、ベンダドライバは普通あるだよ。

標準カーネルに入っていないということの苦しさはたっぷり味わえるだろうけど、
サーバ系機材なら使えないということはまずありえない。

845 :login:Penguin:2013/08/25(日) NY:AN:NY.AN ID:ApL5D/HA.net
CentOS4.*の頃、ベンダードライバーで導入したけどyum updateで
kernelの更新エラーが出るので、CentOS4のマイナーバージョン番号が
上がってもkernelが更新出来なくて、変なエラーがいっぱい出る状態で
運用してた事があったな。ベンダードライバも更新がなかなかなくて、
結局kernel標準のSoftware raidドライバに変更して再インスコしたな。

846 :login:Penguin:2013/10/05(土) 18:09:23.46 ID:kLPLF6HV.net
mdadm について教えて下さい。

現在、Terastation の4玉中3玉(RAID5)からの復旧をしています。
mdadm --misc --detail /dev/md0 の結果は以下のような感じです。

Number Major Minor RaidDevice State
0     0   0   0   removed
1     8   22   1   active sync /dev/sdb6
2     8   70   2   active sync /dev/sde6
3     0   0   3   removed

0     8   38   -   spare /dev/sdc6

/dev/sdc6 を組み込み混めば、/dev/md0 が使えるようになると思うのですが
どのオプションを使用すれば良いでしょうか?

removed に -f を指定できれば、自動で組みまれるような気がするのですが
-f はデバイスしか指定できない感じです。

847 :login:Penguin:2013/10/06(日) 00:28:16.72 ID:L9SWaVQG.net
4玉中2玉死んでるようにみえるが・・・

848 :login:Penguin:2013/10/06(日) 01:18:17.91 ID:pIk1pLgP.net
>>846
ホットスペアでしょ?自動で組み込まれるはずだけどそうじゃないみたいだしもう無理じゃね
同時に2台HDD逝ったんか?

849 :login:Penguin:2013/10/06(日) 06:03:46.25 ID:RzEPiHGH.net
mdraidなんて別に物理的損傷が0でも
何かの拍子にHDDが一瞬見えなくなったら即failureじゃん

850 :846:2013/10/06(日) 09:21:17.18 ID:Kl4DhMi0.net
コメントありがとうございます。
お察しの通り2玉逝ったのですが、そのうち1玉(/dev/sdc6)は
Checksum が correct なので、データ部は無事のようです。

なんとか手動で組み込めないでしょうか。

851 :login:Penguin:2013/10/06(日) 11:15:55.70 ID:L9SWaVQG.net
>>850
>>454からの流れが参考になりそう
あとraidzap使って解決した事例が前スレ>>64以降にあるけど
>>455によると最近のsuperblockには対応してないっぽい

ちょっと状況は異なるが俺もRAID5を2台飛ばしたことあるけど運良く復旧できた
今回のケースも割と勝算ありそうに見える
焦らず冷静にいった方がいい

852 :846:2013/10/06(日) 13:11:39.27 ID:Kl4DhMi0.net
>>851
ありがとうございます。
やっぱり superblock の修正になりますか。
raidzap 作者さんのサイトとソースも見てました。

create はイチかバチかですね。肝が据わったらやってみます。

853 :846:2013/10/06(日) 13:52:21.93 ID:Kl4DhMi0.net
>>851
重ね重ねありがとうございます。ホント参考になりました。
wiki mdadm の、Recovering from a loss of RAID superblock あたりにも
記載がありました。
http://en.wikipedia.org/wiki/Mdadm

最終覚悟が出来たらやってみます。(ヘタレなので、たぶん来週)

854 :login:Penguin:2013/10/06(日) 16:19:37.73 ID:RzEPiHGH.net
一番運が良ければ
--run --force 付きのassembleで崩壊状態から復旧できた気がする

855 :846:2013/10/06(日) 21:58:41.93 ID:Kl4DhMi0.net
>>854
米ありがとうございます。

以下の事例では、--run --force 付きの assemble で復旧しているようですが
3玉とも Active の必要があるのではないかと思います。
http://wimax.blog64.fc2.com/blog-entry-153.html

856 :login:Penguin:2013/10/06(日) 22:29:14.56 ID:9PLvjutT.net
RAID6で3ロストから普及しとるが
https://raid.wiki.kernel.org/index.php/Recovering_a_failed_software_RAID

857 :login:Penguin:2013/10/07(月) 01:18:01.95 ID:gHrLvuyS.net
>>856
リビルド中に2個追加で壊れた状況からの復旧で、
サルベージ出来てるのはリビルドが完了していた部分だけ

858 :846:2013/10/19(土) 21:59:44.61 ID:FqL+LSkB.net
結果報告です。
create で、どうにか残りの1玉を RAID に組み込めたのですが
FileSystem が認識出来ない状態でした。

xfs_repair でも復旧せず、Windows で復旧天使XFS RAID対応版 (NAS製品)も
試したのですが、全くファイルを見つけられない状態でした。

3TB で構成していたのも敗因ですかね・・・

残念ながら諦めることにします。
アドバイスありがとうございました。

859 :login:Penguin:2013/11/11(月) 22:28:05.55 ID:Mqk3Urwo.net
>>858
すでに手遅れ感満載だけど・・・
1.何が起こったのかを確認する。2台以上逝った場合は逝った順番は重要
2.全ドライブのクローンを作る
3.サルベージ作業開始
逝ったRAIDセットを復旧させたいならこのくらいの慎重さが要るのでは

RAIDアレイに追加する順番を間違えて余計壊したオチのような気もする

#以前にNASの構築で知人のSEに相談したらRAID5は止めておけと言われた
#理由は逝ったときに詰むからだそうだ。素直にRAID10にしておけとアドバイスされた

860 :login:Penguin:2013/11/11(月) 23:43:05.89 ID:+KEk6sHH.net
RAID10なんてごちゃごちゃしたのはやめとけ。

RAIDなしでもかまわんから、サーバ二台で相互ミラーしろ。

crontabで自動でな。

金があったらRAID1で相互ミラーだ。

RAIDはバックアップの代わりにはならん。

861 :login:Penguin:2013/11/12(火) 11:46:59.21 ID:AM4+qcIU.net
トラブル起こしたときは、RAID5もRAID10も大して変わらないような。
最悪の時に単体でもデータが拾い出せるRAID1が安心だよ。
もちろん別にリモートバックアップも必須。

862 :login:Penguin:2013/11/13(水) 11:25:47.28 ID:IZ34VZXw.net
週に一回、RAID1でバックアップ取ってる。
同期用ビットマップ有効にしておけば差分書き出すだけで取れるから高速。

863 :login:Penguin:2014/01/22(水) 02:13:32.09 ID:5EusCFvJ.net
すんまそん
質問です
3ware 9650seって2TB以上のHDD対応してますか?
(最新ファームで)

864 :login:Penguin:2014/01/22(水) 02:41:33.86 ID:oNoNDeUd.net
>>863
対応してる。
↓のDrive Compatibility List参照
ttp://mycusthelp.info/LSI/_cs/AnswerDetail.aspx?inc=7475

865 :login:Penguin:2014/01/25(土) 06:35:25.55 ID:acEylKVH.net
>>864
ありがとうございます

866 :login:Penguin:2014/06/23(月) 07:11:19.05 ID:caZUCSXN.net
USBで組むなんて剛気だなぁ

867 :login:Penguin:2014/06/23(月) 23:42:38.68 ID:QDtjUhDf.net
lvmで困っていて助言いただきたいことがあります.
lvmのスレが見つからなかったのですがスレチなら大変申し訳ありません.

○ 状況

4つの3TB-HDDで12TBのLVを組んでいた(各HDDにPVが1つずつ,4PV→1VG→1LV).
HDDの1つが物理障害で認識しなくなった.
残り3つのHDDに入っているデータを救出したい.

○ 解決方法: 次のやり方であっていますか?

* 物理障害HDDをはずして,代わりに空の1つのPVを作ったHDDを指す
* 当VGから,物理障害HDDのPVをVGメンバーからはずす(vgreduce)
* 当VGに,空のPVを追加する(vgextend)
* ここでマウントしてファイルを読めるか試す

なお,正常HDD3つだけで活性化(vgchange -ay --partial)したものは,FSが壊
れててマウントできないと言われました.

868 :login:Penguin:2014/06/24(火) 02:06:10.79 ID:+Co2UKI2.net
>>867
> ○ 解決方法: 次のやり方であっていますか?
いいえ。空のHDDを追加してもファイルシステム的には何の意味もないです。

> なお,正常HDD3つだけで活性化(vgchange -ay --partial)したものは,FSが壊
> れててマウントできないと言われました.
その状態でfsckするしかないです。
ファイルシステムがXFSの場合、物理メモリ沢山無いとダメかも

869 :login:Penguin:2014/06/24(火) 20:01:25.92 ID:JfKjhcDg.net
>>868
ご親切にどうもありがとうございました!
物理障害のHDDの復旧見込みがなければfsckをかけて
取り出せるものだけでも取り出してみます.
ファイルシステムはext4です.

870 :login:Penguin:2014/08/11(月) 07:02:11.03 ID:qgb08vBt.net




871 :login:Penguin:2014/12/07(日) 02:48:14.78 ID:na1/ZZeq.net
mdの定期rsync中にディスクの1本で failed command: READ FPDMA QUEUED とか
エラーが出たんだけど、rsync自体は正常に終わった。
これってファイルシステム的にはパリティのおかげでまだ正常ってことで
いいのかな。

さっさと替えのディスク買ってこないと…。

872 :login:Penguin:2015/01/05(月) 00:18:33.00 ID:TTDp3r5L.net
mdadmを使ってソフトウェアraid5を組んでるんですが、今のmd0をそのまま別サーバに移行ってできるんでしょうか?
例:
 /dev/sda ←/とか/varとか/usrとか
 /dev/md0 ←/home
となっているサーバAから/dev/md0のHDDをそっくりそのまま抜いてきて、同じような構成の別サーバBに移行したいのです。
ソフトウェアraid、サーバ移行とかの単語で探したのですがヒットしませんでした。
ここ読め!とかでも良いので教えて頂きたく。

873 :login:Penguin:2015/01/05(月) 00:29:34.97 ID:wf/+QoW4.net
サーバBのfstabにマウント情報書いて
mdadm.confにUUID書いときゃいいんじゃないの

874 :login:Penguin:2015/01/12(月) 06:56:41.54 ID:3G/HLs+s.net
たぶん>>873でOKだけど、もう少しだけ詳しく書く
OS再インストールは何回かやってるので。大した事はやってませんが。
コマンドはすべて例。

1.OS再インストール作業

2.md0の再構成
# mdadm --assemble --run /dev/md0 /dev/sd[bcde]1

3.md0の再構成確認
# mdadm --detail /dev/md0
# more /proc/mdstat

4.md0の設定保存
# mdadm --detail --scan >> /etc/mdadm.conf

5.fstab編集してマウント
raidが縮退運転している時にマウントしてうっかりファイルとか保存するとリビルドするはめになるので、
最初からfstab書いてマウントするのは避けてる。
(ただ、OS起動時にraidが縮退運転していた時はread-onlyかもしれん。詳しくは知らない)

875 :login:Penguin:2015/01/18(日) 13:15:05.30 ID:XKgmmL2O.net
・HDDを後から追加して1つのボリュームに見せかけたい
・ディスクの冗長性は確保したい
って場合は
Linux+mdadmのほかに何があるでしょうか?

876 :login:Penguin:2015/01/18(日) 19:23:48.04 ID:sf/ZLikS.net
それは事実上RAIDの話題じゃないね…

877 :login:Penguin:2015/01/18(日) 19:31:42.30 ID:XKgmmL2O.net
お手数ですが、該当スレを教えてください

878 :login:Penguin:2015/01/18(日) 20:40:54.84 ID:pWrP4d0N.net
>>877
くだらねえ質問はここに書き込め! Part 217 [転載禁止](c)2ch.net
http://hayabusa6.2ch.net/test/read.cgi/linux/1420966699/

879 :login:Penguin:2015/01/30(金) 00:20:28.40 ID:WXSV3RMj.net
>>873,875
なるほど。情報ありがとうございます。
検討段階だったので頂いた内容でちょっとやってみます!

880 :login:Penguin:2015/04/08(水) 11:08:52.84 ID:xivX3yMh.net
2,3年前に廃棄したGentooのデータドライブRAID内データが
久しぶりに必要になり、しかし当時起動してたOSはもう残ってないので
手元にあったUSBのGentooで起動しなんとかmdadmで見える状態まで持ってきた、
んだけど、パーティションが全部吹き飛んでた。

旧OSのetcバックアップから復旧したmdadm.confで起動してて、UUIDは間違いない。
mdadm --detailで見ると正常かつクリーン、Creation Timeもたぶん合ってて特に異常は見られない。
fdiskやgdiskでも見えないし、当然pvscan(LVM2で使ってた)でも何も見えず。

こんなことって起こり得ます…?
testdiskとかやっても何も出てこず途方に暮れてるんですが、
何か良い復旧方法はないでしょうか。

881 :881:2015/04/08(水) 11:29:35.07 ID:xivX3yMh.net
/etc/lvm/backupにあるバックアップファイルの日付が古くて
なんでバックアップないのかな…と思いながらtestdiskであれこれやってたんですが、
パーティションテーブルタイプをGPTでもMBRでもなくNoneにしたら
ext4パーティションが検出されました。
LVMで使ってたのは昔の話で、最終的には/dev/md0に直接ext4で
書いてたんだった…ような気がする。
testdiskでは中身のファイルも見えてるので問題なさそうです。
お騒がせしました。

しかし何せNoneを選んでるので、testdiskでパーティションテーブルの書き込みができない。
これ開始終了の数値メモってGPTとMBR両方で書いてみて使えた方でOKですよね。
頭ではわかってるけど怖くて踏ん切りがつかないw

882 :881:2015/04/08(水) 12:13:22.20 ID:xivX3yMh.net
MBRもGPTもまったく跡形もなく消えてる意味がわからず
さらにtestdiskでは何の問題もなく中身が見えるという点をよくよく考えてみて
思い出しました。
/dev/md0を直接ext4でフォーマットして使ってたんだった。
直マウントで中身見えた。
ほんとお騒がせしました。

883 :login:Penguin:2015/04/08(水) 15:52:28.44 ID:FyM5qWeQ.net
まあ解決したみたいで何より

884 :login:Penguin:2015/04/09(木) 19:24:42.71 ID:H+KDI5Z2.net
おっかない。壊さなくて良かったですね

885 :login:Penguin:2015/05/31(日) 11:46:18.53 ID:daGA6Mzi.net
Serial ATA HDD で、linux md で RAID1 なり 6 なりでアレイを構成して、
激しく書き込んでる途中で、ディスク引き抜いたりして遊んだことあるやついる?
あるいは、md の RAID ボリュームにそれなに激しいアクセスを伴う運用中に、
メンバディスクが死んじゃったとか、食らったやついる?
そんときに、
「ファイルシステムがコテンパンにブッこわれた。」とか、
「カーネルがハングしたけど、リブート後に fsck してまぁ、大きな問題はなかった。」とか、
「システムは生きてたけど、ファイルシステムにアクセスすると固まる、
アレイにアクセス中のプロセスが固まってた。」 とか、
「数秒のストールがあったようだが、そのまま運用が続いたようだ。」とか、
「アレイにアクセス中のプロセスになんの影響もなかった。」とか、
そのへんどうだった?
まぁ、ファイルシステムがこわれるのは、md だけじゃなくて、ファイルシステムの種類と
マウントオプションにもよるだろうけど、データが保護されるのは、ある意味当たり前で、
俺的に重要なのは、システム稼動が問題なく継続されるかどうかなのです。
root filesystem を置いているボリュームが md の アレイ上か否かによっても、システム稼動の
結果がかわると思うし、そのへんの状況もふくめて教えてくれるとたすかるます。
とくに知りたいのは、データが保護されるのは当たり前で、「システム稼動が
継続されたか?」です。「何の影響も、遅延もなく、データベースエンジンが動き続けた、
ログが記録され続けた」とか、「30秒くらい固まった」とか、そのへんです。
まぁ、チップセットや、ディスクコントローラが違えば、その状況もちがうんだろうけどね。
でも参考にしたい。
今、上記のようなことを実験しようとして、古い予備用 SATA HDD 10本 ダンボールから
あさってきたんだが、全部死んでて、だめぽい。Maxtor の SATA HDD 。
で、とりあえず、諦めた。おまいらなら知ってるはずだ。よろしくね。

886 :886:2015/05/31(日) 13:12:40.83 ID:daGA6Mzi.net
886 なんだけど、今新品の WD Red 3TB を 2本おろして、20回くらいためしたわ。

1: RAID1 で、xfs デフォルトでファイルシステムつくっった。
2: 0.01 秒間隔でデータを unbuf で書きながら、その前後で gettimeofday して、
 その差を記録するコード書いた。
3: コードを実行している途中で、ディスクをぶっこぬいた。
4: 遅延ログを確認した。
5: ミラーをリビルドして、3: に戻る。

遅延の最小が 0.03 秒で、最大が 8.6秒くらいだわ。
そのあいだで結構ばらけてるわ。

100回くらいためそうとおもったんだけど、HDD が逝った。
予備の新品ディスクはまだ 5本くらいあるけど、まぁこんくらいでいいわ。

887 :login:Penguin:2015/06/08(月) 11:41:53.89 ID:33i77Ovx.net
debian8 に apt で mdadm を入れました。
別のPCの mdadm で作った RAID のディスクアレイ(HDD 3台の RAID)を USB で繋いだところ、自動的に認識され、mdデバイスが構成されました。

このような、繋いだだけで勝手にmdデバイス化する動作を止めたいのですが、どう設定すればいいでしょうか。
自分で明示的に mdadm -A したいです。
あと mdadm -A した時は自動的に read-only モードになるのですが、デフォルトで ro にするこの設定はどこにあるのでしょうか。

888 :login:Penguin:2015/06/08(月) 13:14:17.43 ID:PIT1ewpk.net
/sys/module/md_mod/parameters/start_ro

889 :login:Penguin:2015/06/08(月) 14:40:17.31 ID:69Meu/sc.net
>>887
udevだな。

890 :888:2015/06/09(火) 01:26:47.23 ID:HLY+qbCf.net
>>888
それでした。ありがとうございます。
でもリブートしたら戻っちゃうんですね。
ここに初期値を与えてるのはどこなんでしょう?

>>889
/etc/udev/ の udev.conf はコメントだけ、rules.d/ には NIC の設定しか無かったです。

といった感じでまだ解決できてませんが、ヒントを貰えましたのでがんばってみます。
ひとまずありがとうございました。

891 :login:Penguin:2015/06/09(火) 13:18:19.02 ID:LsPEDiCg.net
/lib/udev/rules.d/

892 :login:Penguin:2015/06/20(土) 17:46:16.48 ID:hpDz+Ksr.net
linux勉強中の身です。ご教授頂けたら幸いです。

debianの8.1.0をインストール時にソフトRAID1を組みました。
起動後、sdbを外すと起動せず、

画面上に
---------
ALERT! /dev/disk/by-uuid/long-UUID-here does not exist.
Dropping to a shell!
modprobe: module ehci-orion not found in modules.dep

BusyBox v1.22.1 (Debian 1:1.22.0-9+deb8u1) built-in shell (ash)
Enter 'help' for a list of built-in commands.

/bin/sh: can't access tty; job control turned off
(initramfs)
---------------
と表示されました。
sdbを取り付け、sdaを外しても同じでした。
grubはどちらのhddにもインストールし、update-grubもしたんですが。。。
grubは1.2で、ext4にしました。

よろしければ博識の方お教え下さい。お願い致します。

893 :login:Penguin:2015/06/22(月) 08:03:54.52 ID:AjMI9S57.net
位置からやり直して間違い探せ
http://www.nslabs.jp/raid1-convert.rhtml

894 :login:Penguin:2015/06/22(月) 20:18:12.63 ID:5AZiVbyG.net
>>893
ご教授ありがとうございます。
Cent7で同じことしてみたらできました。
なぜdebianでできないのか初心者の私にはわかりません。
色々勉強してから再度挑戦したいと思います。
ありがとうございました。

895 :login:Penguin:2015/07/18(土) 18:09:51.85 ID:Lxtp7iMB.net
すでにdebian機を運用してるんだけど、途中からraid1に組むことは可能?
システムファイル系はssdでhome領域をハードディスクで構成してるんだけど、home領域のみraid組みたい

896 :login:Penguin:2015/07/19(日) 07:55:20.67 ID:AI1bRQAf.net
新しく追加する方のHDDでRAID1を縮退モードで作って
元のHDDの内容をその新しい縮退モードのアレイにコピーして
元のHDDをアレイにaddすればいんじゃねっけ

897 :sage:2015/08/15(土) 00:40:42.79 ID:wIWYGOHk.net
ちょっと教えてほしい
mdraidでデータ領域用2TBx3のraid5があり、現状問題なく動いているんだが
事情があってそのうちの一本を交換したい
ちなみに電源落として抜き差しとかはOKだが、その場合はできれば作業は半日以内に抑えたい
入れ替えてリビルドもできれば避けたい
指定した物理ディスクのスペアを作成しておいて再起動で認識させて終了が望ましい
ぱっと思いついたのは電源落として別のPCにてddで丸コピーだが
もっといい方法が有ったら教えてほしい

898 :login:Penguin:2015/08/15(土) 00:49:35.87 ID:ek28CQrG.net
だいたい、なんでリビルド避けたいの。
パフォーマンスが、とか却下な。理由になんねぇ。
他のディスクが道連れに・・・なんてなら、
んなもん、3本新品買って、別に作って、データコピーだろ。

RAID組んで運用してるストレージで、そんなに
危ない橋を渡りたい訳?

899 :login:Penguin:2015/08/15(土) 03:44:00.93 ID:X5vWbdCE.net
>>897
dd でいいんじゃね?
クローン機能が付いたHDDスタンドとかあるけど、多分 PC で dd した方が速いと思う。

900 :sage:2015/08/15(土) 04:43:51.18 ID:wIWYGOHk.net
>>899
ありがと
mdadmのmanみてもそれらしい機能が無かったがやっぱddか
同じロットの別のディスクがraid1の方でこけたから
今日明日なら半日止めれるからraid5の方を別ロットのスペアと入れ替えて
万が一問題の有ったロットがまたこけても復旧の楽なraid1にまわす予定なんだ
ddして再起動、動作確認なら最悪スペアがアウトでも戻せるしね

901 :login:Penguin:2015/08/15(土) 07:23:57.64 ID:pyOU0v8J.net
>>900を読んでもリビルドを避けたい理由がよく分からなかった。

902 :login:Penguin:2015/08/15(土) 08:55:41.52 ID:X5vWbdCE.net
>>901
リビルド中はパフォーマンス落ちるから、使わない時に予防交換したい、でも時間は半日しかない、ってだけの話なんじゃない?
それほど難しいこと言ってるようには思えないけど。

んまあスペア云々の手順はよくわからんが。
PC止めてる間に黙って複製したディスクに入れ換えりゃそれだけで交換完了な気がするが、ここで言ってるスペアってのは RAID で言うところのスペアではないのかな。

903 :login:Penguin:2015/08/15(土) 14:42:44.37 ID:0uh43RUl.net
いわゆる都市伝説を信じてる人間だってのは分かったな

904 :login:Penguin:2015/08/29(土) 11:20:36.13 ID:J50Jrhrw.net
HP ProLiant Microserver N54L に
Ubuntu Server をインストールして、
ファイルサーバにするつもりです。
システムはマザボに直挿ししたUSBメモリにインストールし、
HDDは4TBを4台積むつもりです。
Linux用のソフトウェアRAIDは、
mdadmというパッケージを使うらしいことまでは解りました。
RAIDについて完全に無知なのですが、
まずはここから勉強しろ!っていう
アドバイスを頂けませんでしょうか。

905 :login:Penguin:2015/08/29(土) 11:34:01.33 ID:VLNUqLsb.net
RAID5は使うな
RAID10にしておけ

906 :login:Penguin:2015/08/29(土) 12:22:53.51 ID:ESizgWEQ.net
RAID6 がいいよ

907 :login:Penguin:2015/08/29(土) 16:48:13.97 ID:DM5GPTlO.net
ミニタワーで増やせるなら6にしとけば拡張が楽だけど
Microserverは4台までで基本増やせないから5以外なら10でも6でもいいな

と言うかそもそも>>904は冗長性が要るのかどうかって所からのような気も

908 :login:Penguin:2015/08/29(土) 17:06:49.47 ID:xqS9JtHE.net
Microserver で mdadm RAID5 な俺涙目。

909 :login:Penguin:2015/08/29(土) 17:29:05.33 ID:2w3LsRXM.net
>>904
md 使ったNAS製品のひとつに ReadyNAS があるけど、これが唱ってる X-RAID2 ってのを参考にしておくとディスク追加や大容量ディスクへの換装での柔軟性が出てくる。
まあ md と LVM とオンラインリサイズが可能なファイルシステムを組み合わせただけなんだけど、便利だよ。

910 :login:Penguin:2015/08/29(土) 23:50:19.26 ID:7JoFRoi4.net
4台の場合、RAID6とRAID5+1hotspareではどちらがベター?
2台同時故障想定するならRAID6しかないとは思うが、パフォーマンス的にも
6でいいの?

911 :login:Penguin:2015/08/29(土) 23:56:05.82 ID:GHA+ikyn.net
Raid5は欠陥
ホットスペアがあろうがディスク障害時にリビルドにかかる時間は変わらないから何もかわらない

912 :login:Penguin:2015/08/30(日) 00:34:41.33 ID:1a/4IFJ+.net
>>910
パフォーマンスで言えば、書き込み時はパリティ2種類も計算しないといけない RAID6 は部が悪い。
読み取り時はパリティ関係無いから理屈で言えば RAID5 も 6 も変わらないか、データが 1台多くに分散された RAID6 の方が有利かもしれない。
1台故障時は理屈から言えば RAID5 も 6 も変わらない。

信頼性で言えば、RAID5 + スペアはデグレ時のディスク交換を自動にしただけで、RAID5 のリスクを何も解決してない。
どうせ 1台余計に電源入れておくなら寝かせとくよりパリティに使う方が有意義じゃね?

913 :login:Penguin:2015/08/30(日) 23:15:30.48 ID:WOYK8c1F.net
普通に OpenFiler、FreeNas、Nas4Free、OpenMediaVault とか使えば?
ただし、大容量ディスクに対して、半端なメモリ積んで zfs のデダップつかうのだけはやめとけ。

914 :login:Penguin:2015/08/31(月) 22:48:37.24 ID:BCaOBWlD.net
>>912の最後の1行にはなんか納得した

915 :login:Penguin:2015/08/31(月) 23:11:08.11 ID:i38UiTCe.net
でもMicroserverにRAID6は荷が重いんでは
RAID10かメモリたくさん積むならRAIDZがいいような

916 :login:Penguin:2015/08/31(月) 23:25:19.17 ID:8viju9LA.net
今時、パリティの計算の負荷なんてたいしたこと無いよ

917 :login:Penguin:2015/09/03(木) 21:56:42.65 ID:lb++qTB4.net
>>915
ただの Raidz にメモリなんてほぼいらない。デダップするなら搭載するディスク容量抑えなきゃ最大メモリ容量までましても全然足りない。(全域にかけなきゃ問題ない

918 :login:Penguin:2015/09/04(金) 03:58:26.22 ID:m+vT9yLx.net
どうでもいいけどdedupって読み方はデダップなの?デデュープだと思ってたんだけど。最後にeがないからデダップになるのかな

919 :login:Penguin:2015/09/04(金) 07:27:09.58 ID:fJfmSR6/.net
デデュープの方が普通

920 :login:Penguin:2015/09/14(月) 12:13:30.95 ID:bRiIt4to.net
RAID5でも6でも、
後からHDDを追加できますよね?
OSはLinuxなんですが。

921 :login:Penguin:2015/09/14(月) 13:51:47.91 ID:mXm50jDF.net
何でRAID組んでるかによるんじゃないすか
たいていできると思うけど

922 :login:Penguin:2015/09/14(月) 23:53:11.66 ID:JtN791v/.net
大抵出来ないと思う
raidにraidでストライプとかはできるけど

923 :login:Penguin:2015/09/15(火) 01:06:46.17 ID:b2pu4c1r.net
md だったらできるよ
ディスク足してボリューム容量増やした後でファイルスシテムの拡大を行えばいい

924 :login:Penguin:2015/09/16(水) 05:03:55.27 ID:YBELeZPw.net
だね
addしてgrowしてresizeすればいいだけ
これができるから最初から容量計算とかしないで適当にやってる個人運用なんかはmdraidが使い勝手が良い

流行りのzfsでRAID-Z2のストレージプールとかだと
新たにもう一つRAID-Z2デバイスを作ってそれを『プールに追加して』プールそのものの容量増やすとかはできるけど
そのプールを構成している『RAID-Z2デバイス自体にHDDを追加して』4本のZ2→5本のZ2みたいに
デバイスそのものの容量を増やす事はできない

925 :login:Penguin:2015/09/16(水) 07:31:29.84 ID:deOQbRKP.net
>>924
RAID-ZはなんでHDD追加で容量うpを実装しないんだろうな?
特許がらみでできないのかと思ってみたいるするが、
ZFS on Linuxで独自実装とかしないかなぁ。

926 :login:Penguin:2015/09/16(水) 07:59:48.13 ID:y7jlhJdA.net
RAID の構成ディスク減らせるようにしてくれないかな。
小さいディスク多数から大きいディスク少数に移行できると便利だと思う。
drobo はそれできるけど、特殊過ぎて使いたくない。

あと md の RAID6 をディスク 3本から構成できるようにしてくれないかな。
もちろん後で本数は増やす前提だけど、とりあえず二重冗長の最小構成で初期化できればいいのに。

927 :login:Penguin:2015/09/16(水) 09:52:02.18 ID:AQ/6rXG3.net
>>925
もともとエンタープライズ用だからそんな貧乏くさいことはしないんだろ

928 :login:Penguin:2015/09/16(水) 12:03:40.37 ID:sDO9e2Qi.net
>>925
1Stripe = 1RecordにZFSはならないからなぁ。

一般的なRAIDなら、ストリッピング単位で詰めるなりして、
パリティ再計算で済むけど、
ZFSでは、そういう訳にはいかないからな。

恐らく、機構的にZFSのマイグレーションは無理だと思うわ。

929 :login:Penguin:2015/09/16(水) 18:22:04.69 ID:deOQbRKP.net
>>927
そう言っちゃうと身もふたもないが、オープンソースでやっていたんだし、
なんだかんだで実装してくれそうな気もするんだがw

>>928
技術的に厳しいのか(´・ω・`)
しかし、特許とかではないんだったら、きっと誰かが...

930 :login:Penguin:2015/09/16(水) 20:57:46.88 ID:sDO9e2Qi.net
>>929
やりよう有るんかなぁ・・・

http://blog.delphix.com/matt/2014/06/06/zfs-stripe-width/
ここにもあるように、RAID-Zの場合、
Z1で組んでたとしても、1Stripに複数のパリティブロックやら、
パディングブロックやらが出来るからなぁ。

読み込みは旧構成、書き込みは新構成って区分けを
VDEV単位に出来るようにした上で、
全データDisk to Diskのコピーやるぐらいしか、思いつかない。
ただ、単純に此やった場合、フラグメントがえらいことに
なりそうな悪寒。

複数のVDEV纏めてpool作ってたりすると、さらに
ややこしい話に・・・

931 :login:Penguin:2015/10/27(火) 15:41:00.85 ID:8wadZpx7.net
できるようになってほしいですおね(´・ω・`)

932 :login:Penguin:2015/10/28(水) 20:24:03.45 ID:geRsrFHR.net
Linux mdのRAID0,5,6あたりでディスク追加してreshapeが途中で電源落ちるなどで失敗した場合って、
backup-filesを指定してればなんの問題もないのかな?

933 :login:Penguin:2015/10/29(木) 15:29:42.07 ID:HDYb4/56.net
mdでRAID5にするかRAID-Zにするか迷ってるんだけどどっちが良いかな?
mdだとHDD追加して簡単に容量増やせること、
RAID-Zだとサイレントクラッシュが無いことがお互いに対する利点だと
思うんだけど他にあるかな?

934 :login:Penguin:2015/10/29(木) 15:54:19.06 ID:6h6xLaWN.net
>>933
raidzというかzfsはLinuxでいうとlvm+mdraid
設定自体はzfsの方が使いやすい
あとL2ARCやらZILやら重複排他が使える
それと残容量が少なくなると極端にパフォーマンス落ちる(10%以下くらい?)
100%使い切るとメモリが少ないと最悪どうにもできなくなる

935 :login:Penguin:2015/10/29(木) 15:55:05.08 ID:GQVHoBxw.net
mdの方がユーザーが多いだろうし問題も出尽くして枯れてるだろうから、トラブったときの対処はmdの方が簡単そうな気がするけど、ZFS使い込んでるわけじゃないのでなんとも言えない。
RAID-Zはブラックボックスっぽいような気が

936 :login:Penguin:2015/10/30(金) 00:38:20.09 ID:8BFDFAdG.net
計画して構築してるなら何も困らないが、無計画に使うとあとですごい辛いことになるのが Raidz。
md は枯れてるから特に言うことはない。サイレントクラッシュくらいか?

937 :login:Penguin:2015/10/30(金) 00:40:14.36 ID:8BFDFAdG.net
100% 使い切っても救えるように、ESXi とかのメモリのオーバーコミット使える仮想上で動かすと幸せになれる。

938 :login:Penguin:2015/10/30(金) 03:02:10.35 ID:SWgCXTbH.net
quotaで制限かけられるけどね
既に書かれてるように容量増やしたいときにディスクを追加できないのと
増やすなら全ディスクを更新しないといけないから
メモリの件もあるし金かけられないならやめといたほうがいいんじゃないの

939 :login:Penguin:2015/11/04(水) 16:40:31.72 ID:i/XZ7rvj.net
容量の拡張は可能。
出来ないのは既存VDEVへのHDD追加。
同一構成のVDEVを追加して行く分には、何の問題も無い。
というか、そうやって増やせと言われてる。

1本単位とかケチな事いうから、面倒な話になるだけ。

940 :login:Penguin:2016/06/17(金) 18:47:19.28 ID:xFd1czyy.net
Ubuntu16.04をraid1にインストールして縮退させると起動しないんだけどなんなの
initramfsになって調べるとraid0扱いされてる

941 :login:Penguin:2016/09/29(木) 15:22:43.87 ID:l8qd7TRT.net
RAID5にしたいんだけどHDDマザボに繋いでbiosで設定すればいいのかそれとも何かフリーソフトダウンロードしてそれで設定するのとどっちがいいんや?

942 :login:Penguin:2016/09/29(木) 15:28:22.99 ID:nTuJMoZi.net
君は普通にHDD複数使ってバックアップしてたほうが幸せになれるよ

943 :login:Penguin:2016/12/20(火) 23:55:52.96 ID:rglzPsHb.net
RAID組むときどうやってHDD調達してる?
同時に購入した同一型番のHDDを2台で構成してたRAIDでprimary,secondaryがほぼ同時に逝ってしまった。
同一ロット回避とかって大事なのかね?

944 :login:Penguin:2017/01/05(木) 12:31:47.28 ID:rvA/kxnR.net
基本だろ基本

945 :login:Penguin:2017/03/05(日) 09:31:15.10 ID:J7fo8PtK.net
せっかくRAIDで正しいデータを持ってこれるんだから、「リードエラーが出たセクタには一度書き込んでみる」
こんな仕組みをmdraidが持ってたりしないかな


今時のHDDってさ、多少の不良セクタが出来ても、そこに書き込もうとする時に自動的に代替処理が行われて
何か書き込んだらそれ以降は何もなかったかのように読み書き出来るでしょ?
だから、いわゆるゼロフィルで復活して見えるHDDも多いし、実際それをまた普通に使えたりするわけで

でさ、RAIDで読み込みエラーがあったディスクは、当然何度もリトライして結果失敗だから
dmesgとかで見るとエラーがたくさん出ているんだけど
こういうディスクも、ゼロフィルしたり、場合によってはさらに全読みしたりして復活出来る場合も多い
mdadmだと、一度除外してddで埋めて、そのあとaddするとちゃんとrecoveryが正常に終了したり


てことはさ、要は、一度そのエラーっぽいセクタに書き込みさえすれば復活する可能性が十分あるわけで

HDDの不良セクタ代替ツール、例えばhdat2なんかは、そうやって自動的な代替処理を促している
で、そこに書き込みべきデータってのは、誰にもわからないから、ゼロだったりするし、
ゼロで埋めたら、使っている場所ならばデータやファイルシステムに異常が出てしまって危険もある

けれど、RAIDだったら、「正しいデータ」は別のところから持ってこれるわけで
それを一度書き込めば、本当にそれこそ何もなかったかのようにシステム全体が安定を保てるかもしれない
用途にもよるけど、リードエラーが出たディスクをfailとして外してしまうより、
周辺のデータごと一度書き込むことで、自動的に代替処理させてそのまま使い続けられる方が、ありがたいケースもあるはず

946 :login:Penguin:2017/03/05(日) 10:21:02.35 ID:RX97dB1J.net
これを自動で(failにすることなく)やってほしい、と

不良セクタのあるRAIDディスクの修復
http://hs-it-notes.blogspot.jp/2013/06/raid.html

947 :login:Penguin:2017/03/09(木) 21:57:17.96 ID:JmuRsazB.net
mdadmでRAID組んでるんだけど、HDD容量を大幅に増やすためにもう一個RAID組もうと思うんだが、
名前何にしてる?
md0ならmd1とか?

948 :login:Penguin:2017/03/09(木) 23:04:21.22 ID:8KR5qTbq.net
newmd

949 :login:Penguin:2017/03/09(木) 23:45:51.58 ID:8sL0mHJs.net
昔、勝手にmd127とかわけのわからん番号が振られたことがあったな

950 :login:Penguin:2017/03/27(月) 00:32:33.11 ID:FK5wGF+P.net
RAIDアレイのサイズを変更しようとしてたのだけど、mdadmのバグ?仕様?にはまった

元々各ディスクの使用サイズが4866861248kBのRAID5を縮めようとしていたのだけれども、まず、4866861248の数字を指定してサイズ変更必要なしと出てくることを確認したくて
同じ数字を--sizeに入れた

# mdadm /dev/md1 --grow --size=4866861248
mdadm: component size of /dev/md1 has been set to 571893952K
unfreeze

4866861248kを指定したのに571893952Kになってアレイが想定外に小さくなって(RAID superblock)が壊れた
4866861248 - 571893952 = 4294967296 なんで、uint32以上の数字を入れてはいけないみたい
これを例えば4752794Mとか指定すると大丈夫みたいなんで、kB単位で正確に4TB以上を指定しようとするとダメみたい

OSはCentOS7(x86_64)

RAID superblockのバックアップをとっておくか、もう一度createしなおせば戻せたんだけど(一度それで戻してる)、--growで大きめの数字入れて戻せば大丈夫だろうと浅い考えで--growし直して
reshapeが走って壊してしまった

デカい数字をコマンドラインで入れるのは注意が必要だね

951 :login:Penguin:2017/03/31(金) 20:44:49.74 ID:zCpOau61.net
>>950のバグはmdadm 3.3.2で起きてたけど、githubのリポジトリ見てたら2014/10/31ぐらいに修正されてるっぽいので、
mdadm 3.3.3以降を使えば大丈夫みたい。
ループバックデバイスでテストしただけだけどgithubの最新のものではとりあえず-z 4294967297Kが1Kに扱われることはなかった

952 :login:Penguin:2017/04/02(日) 23:39:53.33 ID:RnYlUaFX.net
先生、SATAのHDD2(〜3)つをRAID1で、できるだけ全部のファイルを同期させたいと思ってます
mdで作れるRAIDの理解ってこれで合ってますでしょうか

・あくまで物理ディスクのパーティション単位でRAIDが組まれる
・物理ディスク自体が見えてるから普通にSMART見れる
・swap領域をRAIDの内側に作る必要はない

・2本をRAID1にして両方とも起動可能にしたけりゃgrubはRAID関係ないところで両方に入れなきゃいけない
・grubはRAIDを認識してくれるから/etcがRAIDの中にあっても大丈夫(mdadm.confなくても動くのはむしろそのため?
・(RAIDごとに固有なIDも含めて?)構成情報がパーティションのケツに入ってるから
  RAID構成丸ごとを他のPCに追加してもmountできて中身見れたりする
・というかKnoppixとかでも中身見れたりする

・ディスク入れ替えるときはまずfdiskでパーティション切ってあげないといけない(あと必要ならブートローダとかも)
・パーティション切れてまともに動いてるならM/B下のSATAでもPCIe下のSATAでもUSBとかでも任意の組み合わせでRAID組める
・とりあえずRAID1なら片肺死んでもOS落ちたりしない(?)

・シェルとかアプリからは普通にmountされたただのディスクとして使える
・別の場所にコピーした/dev/urandomとかもちゃんと同期してくれる

953 :login:Penguin:2017/04/03(月) 18:24:37.90 ID:daGGDCcL.net
>>952
行数が多いので箇条書き修正ですまん

・パーティション単位もしくはディスク単位で作れる、正確にはブロックデバイス単位で作れる(ループバックデバイスとかでもOK)
・物理ディスク自体が見えてるから普通にSMART見れる
・swap領域をRAIDの内側に作る必要はないが、ディスクが壊れたときにシステムが止まらないという意味ではswapをRAID1にするのはあり

・2本をRAID1にして両方とも起動可能にしたけりゃgrubはRAID関係ないところで両方に入れなきゃいけない
・grubがRAIDを認識してくれるから、/bootがRAIDの中にあっても大丈夫。/etc/mdadm.confの情報はinitrdの中に書かれていて、initrdは/bootに入っている。mdadm.confを書き換えたらinitrdの再作成が必要
・(最近のLinux mdでは)構成情報が入ってるのはパーティションの「頭」
・Knoppixとかでも中身見れたりする

・ディスク入れ替えるときはまずfdiskでパーティション切ってあげないといけない(あと必要ならブートローダとかも)
・パーティション切れてまともに動いてるならM/B下のSATAでもPCIe下のSATAでもUSBとかでも任意の組み合わせでRAID組める
・とりあえずRAID1なら片肺死んでもOS落ちたりしない

・シェルとかアプリからは普通にmountされたただのディスクとして使える
・/dev/urandomはディスクに実体があるわけじゃないのでRAIDは関係ない

954 :login:Penguin:2017/04/04(火) 20:45:17.73 ID:VCtA/mOH.net
>>953
先生ありがとうございます!
ブロックデバイスとかinitrdとか正直「あーアレねアレアレ」状態なんで勉強してきます

デバイスファイルは /dev/random からコピーした /var/named/chroot/dev/random はどうなるんだろうとか考えてました
そもそもsymlinkなのか特別などこかに記録されてるか知らないのであわせて勉強してきます

955 :login:Penguin:2017/04/05(水) 01:29:57.20 ID:By9DfOzE.net
>>954
デバイスファイルについては、コピーと言うか、devfsという特殊なファイルシステムがマウントされるんだと思う
デバイスに応じてファイルが勝手にできたりするやつね。/dev/以下は本質的にはメジャー番号、マイナー番号で識別するIOに名前がついてるだけだと思う(あんまりよくわかってない)
/dev/randomならmajor=1 minor=8 /dev/sdaならmajor=8 minor=0 /dev/md0ならmajor=9 minor=0みたいな
mknodで指定する番号もこれだよね

956 :login:Penguin:2017/04/08(土) 15:23:44.08 ID:Vmnum/8T.net
>>955
先生あざっす!
デバイスファイルのコピー(新規生成)はcpのRオプション使ってましたがmknod見ると確かに仰るとおり
コピー元とコピー先を見てみるとメジャー/マイナー番号まで全く同一でした

linux kernelのドキュメント読んでみてもさっぱり状態でしたが
この際なので後でRAID組んだときに実地で確認しようと思います

957 :login:Penguin:2017/04/27(木) 21:54:53.22 ID:lFCWhwR6.net
btrfsがmdの代わりになるのかと思ってたらRAID1の三面ミラーはサポートしてないのね

958 :login:Penguin:2017/08/08(火) 14:56:21.55 ID:odyWg+jK.net
ZFSでRAID-Z組んだんですけど、後から容量の異なるHDD又は同じ容量のHDDは増設出来ないですか?
FreeNAS使ってマス。

959 :login:Penguin:2017/12/29(金) 14:17:42.21 ID:S/CsVkMC.net
誰でも簡単にパソコン1台で稼げる方法など
参考までに、
⇒ 『宮本のゴウリエセレレ』 というブログで見ることができるらしいです。

グーグル検索⇒『宮本のゴウリエセレレ』

FK07YHDEDH

960 :login:Penguin:2018/01/01(月) 04:31:44.78 ID:iONo9f0F.net
RAID5または6で運用中に不良セクタを検出した時
他のディスクからデータを計算して一度そのセクタへの書き込みを試み
ディスクの自動的な内部代替処理をさせることで、
アレイから外さないまま0フィルで復旧したのと同様になる機能
いずれ実装されますように

961 :login:Penguin:2018/05/22(火) 08:27:54.66 ID:Czl6p0FW.net
僕の知り合いの知り合いができた副業情報ドットコム
関心がある人だけ見てください。
グーグルで検索するといいかも『ネットで稼ぐ方法 モニアレフヌノ』

Y2FW7

962 :login:Penguin:2018/12/22(土) 11:40:50.70 ID:d71pHgKe.net
Some Linux Users Are Reporting Software RAID Issues With ASRock Motherboards
https://www.phoronix.com/scan.php?page=news_item&px=Linux-Software-RAID-ASRock

963 :login:Penguin:2019/01/05(土) 07:19:13.64 ID:W/ep4H5P.net
勝手にディスクのメタデータ修正しようとして失敗するとかマジfuckでfuckでfuckな話だな

964 :login:Penguin:2019/01/13(日) 14:31:37.89 ID:7zHss5MH.net
結局RAID@が最強らしいね。

965 :login:Penguin:2019/01/13(日) 17:48:16.28 ID:aCoqYr0u.net
手動RSYNCが実は一番いい ボソッ

966 :login:Penguin:2019/01/20(日) 11:59:50.17 ID:fVFDHHET.net
RAID1をBIOS設定していた場合、CMOS電池は交換出来ないとは本当ですか?
データが消えてしまう可能性があるという記述を見かけました。
データ復旧の専門家と思われる複数のサイトで確認したので、
まったくあり得ない話ではないと思いますが、一般人が質問に答える
掲示板のようなサイトでは、BIOSを再設定すれば問題ないと言っている人もいます。
消える可能性もあるけど、そんなに可能性は高くはないって事かな?
で、専門家は責任問題になりかねないので、慎重に最悪を想定した解答をしていると。

最悪を想定するとやっぱりCMOS電池は交換しない方がいいとなるけど、
何もしなくても4〜5年で電池切れの可能性がありますよね。
ノートパソコンなら切れてないバッテリーを外さなければCMOS電池は消費しないから
そこだけ気を付けてれば何とかなるかな。デスクトップパソコンはシャットダウンしなければ、
スリープモードとか休止モードならCMOS電池は消費しないんですかね。
そうだとすれば、シャットダウンしなけれ電池も長持ちしそう。

いずれにしても5〜6年以上も使えば電池切れのリスクは上がっていきそう。
その場合は電池切れになる前にデータのバックアップを取ってCMOS電池交換。
BIOS再設定でも起動出来なかったら、OS再インストール。というのが最善かな?
5〜6年で電池切れになるという説が強いから、余裕を見るなら3〜4年ごとに
この作業を繰り返すと。どーせ3〜4年も使うとゴミが溜まってOSの動作が
不安定になってくるし、再インストールした方が得策。

と、この方策で問題ないと思いますか。それとももっといい対策法がありますか?

967 :login:Penguin:2019/01/30(水) 13:45:52.72 ID:HRiYgPvn.net
シャットダウンだろうがハイバネートだろうがスタンバイだろうがコンセント繋がってんなら変わらねえよ

968 :login:Penguin:2019/01/30(水) 16:35:41.69 ID:v5iOWCNB.net
今のRAID板はもしかすっとHOSが入ってるのかも。

削除しても再起動してもまだ動く! (パトレイバー)

969 :login:Penguin:2019/02/02(土) 20:59:46.67 ID:JUgSFGHX.net
>>968
その論理だと接続したデバイス片っ端から破壊するんですが

970 :login:Penguin:2019/02/02(土) 22:03:58.32 ID:rK7WtUwB.net
>>969
あああああああ!

971 :login:Penguin:2019/02/05(火) 08:27:23.11 ID:OkurSNI4.net
debian上でraid1を3つLVMで1つにまとめて使用していました。
/dev/sdaがハードウェアraid
/dev/sdbと/dev/sdcを/dev/md1、/dev/sddと/dev/sdeを/dev/md2のソフトウェアraid
という構成です。起動ディスクは/dev/sdfを使用していました。

起動ディスクが破損してしまい、ディスクを交換してdebianを新規インストールしたのですが、再構成に失敗した挙句、迷走してmd1をmdadm --createで上書きしてしまいました。
sdbをhexdumpすると以前のuuidが残っているようなのでリカバリ可能なのかもしれませんが、どうしたらよいでしょうか。

あと、md1が修復不可能だったとして、sdaやmd2に入っていたデータを救出する方法はあるでしょうか。

972 :login:Penguin:2019/02/06(水) 06:28:38.29 ID:DyXQTFH9.net
>>971
superblockのバージョンが同じならデータ部分には変更がないはず
同じパラメーターで作り直せばmdのuuidが異なるだけで同じ大きさのブロックデバイスになるからそれで認識できるようにならんかな
mdとlvmの構成情報というか/etcとhistoryはこれ以上ヤバくなる前に保存しといた方がいい

973 :login:Penguin:2019/02/06(水) 12:40:59.29 ID:lV0hRsfb.net
>>972
ありがとうございます。

結果としては、md1を復旧させることはできませんでした。
かなりのデータが消えたものの、重要なデータは(多分)無事な模様です。
消えてしまったものは、幸いにも復旧可能なものか、削除してもそれほど問題ないものでした。

バックアップの重要性を再認識したのと、LVMでまとめるのは便利だけど、私のような未熟者が扱うにはちょっと怖いというのが実感です。

974 :login:Penguin:2019/06/09(日) 23:24:45.20 ID:AQ1E44Ma.net
あげる

975 :login:Penguin:2019/07/15(月) 12:17:15.76 ID:Ki0aajfS.net
設定弄っている途中だが、興味がある人向けに情報提供

構成:AMD Ryzen9 3900X + ASRock X570 TAICHI
CentOS7.6で mdadmを使用した SATA SDD 960GB×8 RAID6 を組んでみたところ、

READ 3300MiB位
WRITE 450MiB位

出ている。(dd で /dev/md? に対する測定)
readは満足だが、write が遅い原因を調査中。

参考までに、上記構成で Windows10 で crystaldiskmark を 1台に対して8GBでテストを8台同時の場合(次々に実行しただけなのであまり正確ではない)
READ 1台あたり525MiB位 (8台で 4200MiB位)
WRITE 1台あたり 450MiB位 (8台で 3600MiB位)
出ていた。

消費電力が大きい&価格が高いと不評な X570だが、追加ハード無しでソフトウェアRAIDやらせるにはいいチップセットになる予感。
SATA 12ch以上あるマザーが安く出て欲しいところ。

976 :login:Penguin:2019/08/11(日) 21:37:39.83 ID:aM+RKpE0.net
megasrでraid1組んでたHDDをasm1061につなげたらmdadmがアレイ組んでresync始めた…

977 :login:Penguin:2019/08/25(日) 02:59:12.92 ID:bA5u9fMA.net
RAIDにしてればバックアップしなくていい、などという運用をしていると、
いつか泣くからな。覚悟しておけ。

978 :login:Penguin:2019/08/25(日) 22:11:29.49 ID:Z27Expoe.net
結局espはmdadmのmetadata<=1.0でmirrorすればいいのか?

979 :login:Penguin:2019/09/24(火) 22:22:56.94 ID:UMotR1HR.net
質問させて下さい。
オンボードのソフトウェアRAIDを有効にし、A,B,C3台のHDDでAを単独RAID0(システム)とし、B,CをRIAD1(データ)としてVistaで稼働させていました。
このPCのオンボードRAIDを無効にしてAにインストールしたVistaを通常起動させたいのですが、これは根本的に不可能な事なのでしょうか?
RAIDユーティリティ(RAID BIOS)にてアレイのコンフィグをクリアし、マザボ上のジャンパーピンをRAID不使用の位置に戻してOSを通常起動すると途中でSTOPエラー7Bが出てしまいます。
無論起動ディスクの設定はやり直しています。
オンボードRAIDを有効にした状態で記憶域コントローラーにあるRAIDドライバを削除したりもしましたがSTOPエラーとは関係ない様でした。
もうオンボードRAIDを使用する事はありませんので不可逆的な手段で構いません。
アドバイス宜しくお願いします。
ちなみにWin10をインストールしてデュアルブート環境を作りたく、まずはVistaが非RAIDで起動する状態にしたいのです。
時々Vistaにインストールされている古いソフト(ハードウェア)を使う必要がある為です。

980 :login:Penguin:2019/09/24(火) 22:40:36.89 ID:k1eJ4sB7.net
>>979
RAIDを組んでる時点で単独RAID0だとしても通常パーティションとはレイアウトが違って、読むのに失敗しているんじゃないかな。

無効にした状態でUSBディスクなどからなんかのOSで起動して、システムパーティションを読むことはできる?

できないのなら、AOMEI BackupperみたいなツールでRAID0有効状態から一旦別の場所にパーティションのイメージを作って、
RAID無効状態にして書き戻してMBRの設定をやりなおしたら動くかもしれない

981 :login:Penguin:2019/09/24(火) 22:52:57.02 ID:UMotR1HR.net
>>980
ありがとうございます。
RAID0のHDDを別のPCで開いてみましたが、通常通り読み書きは可能な状態でした。
RAIDの設定方法情報は沢山見つかるのですが、解除についての情報は殆ど見当たりませんのでアドバイスいただけて助かります。
ちょっとした事で起動するのではという淡い期待を抱いておりますが…

982 :login:Penguin:2019/09/24(火) 22:55:42.68 ID:UMotR1HR.net
すみません、用事があり急いて読んでアドバイスの趣旨を勘違いしていたかもしれません。
後程また読み直させていただきます。

983 :login:Penguin:2019/10/01(火) 11:55:16.83 ID:j7gkL1kk.net
https://support.microsoft.com/ja-jp/help/922976

984 :login:Penguin:2019/10/02(水) 11:58:59.99 ID:dCNI3+aj.net
980です。
>>983
ありがとうございます。
ストップエラーを頼りに多数のサイトを参考に同様の修正を試しましたが起動には至りませんでした。

発想を転換して通常インストールしたOSに再インストール無しでRAIDドライバを適用する方法を検索したところ下記サイトをみつけました。
ttps://nishy-software.com/ja/dev-sw/dev-sw-win/enable-intel-raid-without-reinstall/

当方が目的とするOSの再インストール無しでRAIDドライバを外す事についても言及されていますが、環境が全く異なる自環境でどう試せば良いのか読み換えで頓挫しています。

985 :login:Penguin:2019/11/12(火) 21:53:07.98 ID:/wdIzndT.net
デスクトップPCのデータドライブをRAID1にしたいのですが、おすすめのHDDはありますか?

986 :login:Penguin:2019/11/14(木) 00:03:35.13 ID:Kag2RLNw.net
read が 1台目に偏るコントローラなら、1台目は高速ドライブ、2台目はSMRの安いやつ。
SMRは瓦の書き戻しとreadの混在でパフォーマンス低下が大きいが、readが他方に行きほとんどwriteしか来なくなるなら悪くない。
極端な大量writeが多い用途ならCMRが無難だろうが。

987 :login:Penguin:2019/11/14(木) 22:24:53.79 ID:g0SJiIRO.net
>>986
CMRだとなにかおすすめあります?
WDのpurpleってRAID組んで大丈夫なのでしょうか

988 :login:Penguin:2019/12/12(木) 21:46:36.76 ID:wZa++7VD.net
システムディスクのraid1ならWindows10pro標準とirstどっちのraidがおすすめですか?
是非理由も教えていただきたいです

989 :login:Penguin:2019/12/12(木) 22:31:30.52 ID:uokVUydy.net
ダイナミックディスクはもうメンテすらされてないっぽいから論外

990 :login:Penguin:2019/12/13(金) 02:42:23.41 ID:CXGWJlJH.net
>>989
知りませんでした!
貴重なご意見ありがとうございます!

991 :login:Penguin:2019/12/13(金) 11:49:52.49 ID:HuWVeZ8/.net
>>988
ためしにWindows10でベーシックからダイナミックディスクに変換したら、スタートメニュー→エクスプローラでエラーが出るようになった
やっぱり起動ドライブをダイナミックディスクにするのはおすすめしないね

992 :login:Penguin:2019/12/13(金) 11:53:41.56 ID:HuWVeZ8/.net
ちなみにエラーはこんな感じね
おとなしくintelRSTに1票
https://i.imgur.com/UG1QOJ9.jpg

993 :login:Penguin:2019/12/13(金) 21:11:37.07 ID:o5Hn6BRk.net
>>988
前も書いたけどwinのソフトRAID1解除したら
中身見えないよ

994 :login:Penguin:2019/12/13(金) 21:13:59.23 ID:o5Hn6BRk.net
Intel Chipの IRSTのRAIDが一番かな

995 :login:Penguin:2019/12/14(土) 07:57:11.74 ID:ejhkYUnR.net
>>993
ありがとうございます
ろくにログも読まず書き込んでしまい申し訳ないです

システムドライブをベーシックからダイナミックに変換(ミラーリング設定もしてない状態)して再起動

問題なく起動したので電源オフ

システムドライブ引っこ抜き別のPCに外付け変換ケーブルでUSBで繋いでみる

中身表示されず、ディスクの管理で見ると「無効」となる

中身を見るためにはベーシックに無理やり変換するソフトを使う必要あり
(この時点でリスキーなためWindows10proの標準のraid1はNGと判断しました)

もしかしたらミラーリング設定してたら読めたのかな、なんて思ってた矢先のレスだったんで無駄足を踏まずに助かりました

Windows標準のミラーリングをシステムディスクに適用し、他のPCに繋ぐだけで起動もしくは中身が救済できるかググってもなかなか見つからずここで相談させていただきました

Windowsでしか読めないはずのダイナミックディスクがWindowsですら読めないというのは本当に面白いですね

996 :login:Penguin:2019/12/14(土) 08:04:15.60 ID:ejhkYUnR.net
あれ、>>995だけ見るとなにがしたいの?ってなりますね
やりたかったのはraid1で故障した場合、他のパソコンで中身が見れるか、または同じ構成のパソコンにシステムディスクを繋ぐだけで復旧可能か、をテスト中でした
ダイナミックディスクにせずraid1が組めるirstなら可能だったのにWindows標準ではだめそうですね

997 :994:2019/12/14(土) 09:44:27.67 ID:IThU2YOn.net
他のPCで あれ?読めないのかよ

HDDを元のWin RAID1に戻して立ち上げる

あああああエラー修復なんかしてるううう

ファイルがいろいろと消えた

ファイナルデータで復旧途中(←重要じゃない録画データだけ現在も放置中)

998 :login:Penguin:2019/12/14(土) 13:19:14.16 ID:ejhkYUnR.net
>>997
エラー修復?再構築のことかな?
最後に生きてたドライブ>ポート番号が若いドライブ
こんな優先順位で再構築している気がする
先月ssd+ssd+hddの構成でssdの2つをraid1にしてたpcが片方のssd認識しなくなった
再起動してctrl+iでraidのメニュー入っただけなのに勝手にhddに再構築されたなんてことがあった
これはきっとレアケースだよね

999 :login:Penguin:2019/12/22(日) 18:53:37.81 ID:7BCh+jDR.net
1000Get!!!

1000 :2ch.net投稿限界:Over 1000 Thread
2ch.netからのレス数が1000に到達しました。

総レス数 1000
336 KB
掲示板に戻る 全部 前100 次100 最新50
read.cgi ver 2014.07.20.01.SC 2014/07/20 D ★