バックアップ_(2)
あ、新スレ立ったのか。乙>1 ところで、バックアップツールで一つ発見。(GNU な)cp は メモリリークするので使ってはいけない。250GBのデータコピーしたら メモリを使い果たしてシステムごとあぼーんしました。ガイシュツ? これはリークじゃないけど、rsyncもオンメモリで比較用データ持つから 巨大なファイルツリーの転送には使えないんだよな。どっちも本格的 バックアップには元々使わないだろうけど、対象が巨大化すると こういった細かいツールが思うように使えなくなって困る。 >>6 それじゃ解決しない。差分計算のところじゃなくて、転送対象 一覧管理でのメモリ消費が問題だから。 - http://samba.anu.edu.au/rsync/FAQ.html#4 - http://samba.anu.edu.au/rsync/FAQ.html#5 のこと。ウン百万ファイル数のツリーコピーで死ねます。 結局速度の問題もあって、今はRAID1の玉交換でバックアップしてる。 dar も同じで、ファイル管理情報でメモリ一杯になる orz 変な質問で申し訳ない。 AIXでmtxを使用することはできますか? これのこと?→ http://mtx.badtux.net/ かなり低レベルなSCSIアクセスするみたいだから、無理じゃね? 開発対象外だし、動作レポートはSolaris/Linux/FreeBSDで埋め尽く されてるから動いたとしても安定稼動できるかは「?」だろうし。 rsyncでsshを経由してバックアップを行っています。 日本語を使用したディレクトリ下のファイルが転送されないのですが、 日本語ファイルは扱えないのでしょうか? 普通に使えると思うが、エンコーディングは? ローカルで rsync foo/ bar/ でも駄目なの? >>12 OSによる。Windowsだと日本語ファイルには完全には対応していない。 Windowsだったら、UTF-8化したcygwinのrsync使えば日本語可能だけどね UTF-8化したcygwinはどこで手にはいるのでしょうか? rsyncもうまくディレクトリ分けて実行すれば何とかなるのでは? webdavに対してrsyncを使いたいのですが、どのオプションを使えばよいのでしょうか? google に対して rsync を… amazon に対して rsync を… ○△□ に対して rsync を… rsync って、2つのディレクトリを比較して差分ミラーしてくれるけど、 前回の情報ってどこに保存してるの? それとも毎回全部比較してるの? >>28 「毎回全部比較しない」ってどういう挙動を期待してるの? >28 自分で比較しなくていいものを指示しろ i.e. 比較が必要なものを明示しろ rsyncでバックアップを取る際に、バックアップ元にないファイルは削除したいのですが、どのオプションをつければよいのでしょうか? 現在のオプションはavzです。これだと差分だけ転送されてバックアップできるのですが、削除はされません。 よろしくお願いします。 >>28 亀だけどLinuxなら $ inotifywait -m -e delete -e close_write -e move -r /tmp とかで変更操作内容を記録しておける。これを使えば差分転送を 比較なしにできるよ。OSによってAPIが違うみたいなので、他のOSの 場合はそこから調べないといけないけど。 圧縮した状態でバックアップしておきたいのですが、みなさんはどのようなツールをお使いですか? Winodws上の日本語ファイル名のファイルを CygwinのrsyncでLinux上にコピーしたとき Linux上でのファイル名は意味不明の数字になります。 Linux上で作った日本語ファイル名のファイルは 正常に日本語が見えています。 rsyncでコピーしたファイルの日本語ファイル名が 適切な文字コードに変換されるようにできないでしょうか? rsync はファイル名の変換をしてないので、自分で変換するコードを入れるか、 rsync したあと自分で変換するわけだが... mv $file `echo $file| nkf -W8 -s` とか。ただし、rsync する意味はなくなくるけどね。 Linux 側をUTF locale にするとそのまま見えたりするかも。まぁ、Windows と 一緒に使う奴ならlocale はShift JISなんだろうけどな。 なんか FreeBSD の /sbin/dump って最近変わった? 新しいテープでもなんでもこんなことをいわれるんだけど: # dump 0ufabh /dev/nsa0 256 0 /home DUMP: WARNING: should use -L when dumping live read-write filesystems! DUMP: Date of this level 0 dump: Mon Mar 12 15:03:23 2007 DUMP: Date of last level 0 dump: the epoch DUMP: Dumping /dev/da1s1a (/home) to /dev/nsa0 DUMP: mapping (Pass I) [regular files] DUMP: mapping (Pass II) [directories] DUMP: estimated 31198136 tape blocks. DUMP: End of tape detected DUMP: Closing /dev/nsa0 DUMP: Change Volumes: Mount volume #2 DUMP: Is the new volume mounted and ready to go?: ("yes" or "no") dump - | dd of=/dev/nsa0 bs=256k で書き込む分には 全然問題なく書き込めるんだが... rdiff-backupな人はおらんの? つーか、cygwin→debianで使ってるんだけど、cygwin側のパーミションの取得に失敗してるのか、強制的に000になってて泣ける。それ以外はいいソフトなんだけど。 むかしはrsyncを一日一回動かしてたけど、たとえば、ファイルサイズを0にするウィルスにかかって、気づかず間にrsyncが走ったら・・・と思って怖くなって移行した。 cygwin相手にrdiff-backupなんてなあ... とてもじゃないが恐くてできない。 今、AIT-Turbo試しているんだけど、くソニーが SATA版の ドライバのOS範囲を拡充しないので、どうしたものか。 超遅レスですが、私も rdiff-backup を使い始めました。 Linux to Linux です。 pdumpfs は、リモートからの(or リモートへの)バックアップに対応していないので rdiff-backup を使い始めたのですが、 # rdiff-backup ./foo user@host::/bar するにしても # rdiff-backup user@host::/foo /bar するにしても、相手方に rdiff-backup がインストールしていないとダメなんだよね (やってみたらそうなった) rdiff-backup は、バックアップから取り出すときの指定は、pdumpfs よりいろいろできそうだけど、 pdumpfs の、YYYY/MM/DD ごとにファイルが並ぶほうが、直感的でわかりやすいな。 pdumpfs-rsync というのもみつけた。 rsyncをcronで実行しているのですが、実行結果をログの形で残すことはできないでしょうか? rsyncをcronで実行しているのですが、実行結果のログを残す方法を教えてください rsyncが止まって動かなくなるんで、バックアップに使えなくなった・・・orz. scpに切り替えてしまうのが吉。 rsyncは規模に対する限界が速すぎるので、scpにして後は回線帯域を 投げて解決。フルコピーできない場合はmd5sumとか取っておいて、それを 比較して該当分だけscp。 たかがファイルコピーだが、規模が大きくなると別種の問題になるよね。 rsyncはメモリリークしてるわけじゃないけど結構前のGNU cpではリークしてて、 数百GB、数百万ファイルのcp -aしたらメモリが尽きてお亡くなりに。 そりゃ普通はリークしてもすぐ終了するから問題ないんだけどね・・・ rsyncは対象ファイルが多くなればなるほどメモリ使うからね 数が多いと数ギガとか使われる >>56 規模が大きいことを前提としておいて scp とか md5sum とかあり得ない。 そんなことするくらいなら、古典的な tar の差分バックアップの方がずっとまし。 ついでに言うと rsync 3.0 でその手の問題は解決。 Win のデータを Linux サーバに、Unison というソフトで同期バックアップをしているのですが、 日本語のファイル・フォルダ名が入っていると、バックアップができません。 パッチとか、良い方法はありますか? rsyncだとできるのかね? >>16 ttp://kony.no-ip.info/~kon/wiki/index.php?Windowsでrsyncを使う >>60 それはまった。Linux側ではUTF-8、Windows側でSJISでうまく同期できず。 OCamlなんて言語で書いてあるから直す気も失せた。 現状うまく使う方法としてはSamba経由でドライブにマウントして、 その上でunisonをドライブ同士でかけることかな。もっとも自分は Windowsのオフラインフォルダに逃げた逃亡兵。 >>62 smbget でミラーつくったりしてるけど。 >>62 おお、同志よ!やっぱりはまりましたか! じゃ私は、Unison 諦めて Mercurial に逃げます! バックアップを暗号化したいのですが、定番のやり方ってあります? 現在は、cron+dumpでファイルに落として、そのファイルを別ホストにミラーするのと DVDに焼くのとでバックアップを回してます。これだとダンプしたファイルを 秘匿しないといけないのが難だなってことで、暗号化したいと思っています。 初めはGnuPGがいいかなと思ったのですが、同一のパスフレーズから完全一致する 鍵ペアを再生成する方法がわからなかったので、鍵ペアの保守に困りそう... てことで、mcryptを調べたりしているところです。 対象ホストはLinuxですが、なるべくOSに依存しない手段を選べると嬉しいです。 何かアドバイスがいただけるとありがたいです。 bacula はバックアップの暗号化をサポートしてるで >>65 熟練管理者御用達のバックアップツール「rsync 3.0」 - Mac対応強化 | エンタープライズ | マイコミジャーナル http://journal.mycom.co.jp/news/2008/03/03/015/index.html rsyncの挙動について - 教えて!goo http://oshiete1.goo.ne.jp/qa1614836.html?ans_count_asc=1 ファイル数多いからバックアップにtar通せみたいな流れになっているんですが、 差分バックアップはどうするんだろう? あとrsyncってメモリ消費型なんですね・・・ ファイル数多いと馬鹿食いするのかー。 UNIXには、Windowsの fastcopy みたいなツールはないんでしょうか? fastcopy は、100万ファイルあってもメモリ消費は少、コピー自体も爆速なんですが。 >>70 ファイル数が多いとすぐ1Gとか行っちゃうよ 個々のファイルサイズにもよるけど tarで固めて全部送ったほうが速い場合もある rsyncで処理するのが不適当なファイル数なら、俺なら(ufs)dump/restore使うなあ。 そういう意味ではなく、全体のファイル数が多くて、差分コピーするって話なのですが・・・ 500GBのストレージで10GBしか更新されたファイルがないようなときです >>70 その fastcopy ってやつの仕組みは rsync とどう違うの? >>70 rsync-3.0はあまりメモリ食わないみたいよ 着目するべきなのは容量でなくファイル数。 まあrsyncで実際に試してみりゃ問題ないのわかると思うけど。 >>75 FastCopyはこれです http://www.ipmsg.org/tools/fastcopy.html 元々は、小さなファイルなどをオンメモリで一括コピーするような 高速なファイルコピー、削除ツールなのですが、 UNICODE対応、省メモリなのがこれしかなくて、 Windowsでのバックアップ、ミラーリングに使ってます (バックアップ専用ソフトでもこういうのがなかなかない) HDD内に100万ファイルくらいあってもメモリ量はびびたるもの。 前にWindowsでBunBackupというのを使ったのですが、こちらは、 100万ファイルだと1.0GBほどメモリを使いましたw rsyncのソースは読んだことないのですが、 メモリをたくさん食う方だとネットでも見ているのですが、 そうなるとクリティカルなバックアップ局面では使えない気がします 3.0では解決された? >>78 rsync 3.0ではファイルの数が多くてもメモリの使用量は少ない. ただし, ・更新元にないファイルをどのタイミングで消すか ・ハードリンクをどれくらいちゃんと扱うか といった条件次第では, 転送を開始する前に両端での各ファイルの stat 結果を保持することになるのでメモリの使用量は従来同様多い. >>78 ipmsgのファイル転送も最強に速いからね ただ、FastCopyはファイル転送ツールじゃないでしょ? >>80 いつからここはファイル転送ツールスレ(しかもWindows)になったんだ? まあ rsync がベンリすぎて remote 相手でなく ローカルで使うことも多いってことの弊害(?)だわな 人に聞く前に自分で試せ その方が三億倍早いだろうが お前の手と目と頭は飾りか? ext3専用→dump Reiser4でdumpと同じようなソフトは何かある? 初歩的な質問ですみません。OSはGNU/Linuxです。 tarを使ってバックアップを採っていたのですが、どうやらこのプロセスが ハングアップしてしまったようで、psコマンドで見ると以下のような状態になって しまいました。 で、kill -9 も効きません。 # ps aux USER PID %CPU %MEM VSZ RSS TTY STAT START TIME COMMAND ・・・・・ 抜粋 ・・・・・ root 4254 0.0 0.0 0 0 ? DW Apr18 1:56 [tar] また、テープデバイスも道連れになってしまったようで、テープの操作が できません。offlineも駄目です。 なんとかテープドライブを使える状態にしたいのですが、リブートせずに テープデバイスを開放する方法は無いでしょうか? # mt -f /dev/st0 status /dev/st0: Device or resource busy # mt -f /dev/st0 offline /dev/st0: Device or resource busy kernelの中でIO待ちになってしまっているので、いくらkillしても IO待ちが終わらないとsignalは届かないだろう。 テープ無理矢理イジェクトするとか、ドライブの電源落としてみるとかすれば、 運が良ければtimeoutして戻ってきてくれるかもしれない。 ドライブの eject ボタンを5秒ほど押すと、リセットできるドライブが 多いんだがドライブの取説には書いてないか? いちおう kill -HUP kill -INT kill -QUIT ダメなら rmmod -f st これはパニって死ぬかもw アドバイスありがとうございます。 >>88 内蔵のドライブなのでドライブのみ電源を落とす、てのはできませんでした。 ただ、イジェクトボタンでのイジェクトは出来ました。 そこでどうだっ! とkill -9 でしたがやっぱり駄目でした。 >>89 テープのイジェクト状態で、ボタンの長押しもやってみましたが残念ながら 状態は変わりませんでした。 >>90 ありがとうございます。試してみます。 kill -HUP は-9の前にやってみたんですが、他は明日やってみます。 …rmmodはちょっと怖い(動いてないけど捕まえてるみたいだし)ので保留という 事で… スミマセン。 なんとなく、[tar]を殺せばなんとかなりそうな感じもするんですが、調べてみる と「まあ、まずはテープを開放しろ」てなページも多かったりで(その方法も判か らないでいますが)どっちが先なのだ?と言う感じになってしまっています。 上手く行ったらご報告しますね。 テープがSCSIならSCSIケーブル抜けばドライバがバスリセットかけて 復活するかも。その後でもっかいつなぎなおしてrescan-scsi-busすればいい。 結局ベンダーへ問い合わせしました。 今結果待ち。結構待ってます。 >>92 ありがとうございます。 ただ、内蔵なんですこれが。 ちなみに、windows系のサーバなんかだと周辺機器へのアクセスが無い事を確認し て、結構 機器のoff→ON!とかやっちゃう事はあるのですが(今回のように内蔵 だとそれもままなりませんが)solarisやらLinuxで同様の事ってやって大丈夫な ものなんでしょうか?・・・・ここで聞くこ事でもないのかもしれませんが。 カーネルがパニックとかになると、結構怖いかも(イジェクトボタン長押しはやり ましたが。。) scsi*系コマンドでリセット命令送信することができたような・・・ バックアップしたい500Gのドライブがあって400Gまで溜まったので そろそろバックアップしたいと思います。 テープバックアップは考えておらず、HDDは以前にモータが壊れた事があるので DVDでバックアップを考えています。 差分のイメージを作成し圧縮してDVDに保存することは可能でしょうか? >>96 可能 だけど、圧縮なんて、ほとんど効果無いし、焼き損じの可能性を 考慮するとリスキー >>96 じゃないんだけど便乗で。 つまりお薦めはやっぱりテープということに? >>98 オヌヌメは同容量のHDDだな ddの後でザット内容を確認したら、保管しておけば ます故障は無い 心配なら2台取れば良いし 俺なら、新品を装着して、古いのをバックアップにしまうけどね だいたい、毎日使っていて壊れないのに 引き出し保管で壊れる訳がないんだよ DVDの劣化の方がもっと心配じゃね? 差分を取るのも基本的には同じ考え。 テープやDVDにコマギレでしまうなら、HDDのほうが信頼感はある テープは週単位とかの書き換え前提な一時的なバックアップだな。 >>99 >だいたい、毎日使っていて壊れないのに ダウト。毎日使っているから壊れない。 HDDへのバックアップは極めてお勧めしない。 >100 そうなんです。 HDDは通電してないと、モータの寿命が早まる気がしています。 基本的にまわし続けていたほうが長いと思います。 やはりDVDでやりたいと思います。 年中無休発狂妄想爆裂憤死寸前粘着真性キチガイ包茎池沼病気猿男(狂猿)◆QfF6cO2gD6による気違いカキコの続き: リナックスデスクトップ画像 Part19 http://pc11.2ch.net/test/read.cgi/linux/1210695705/163 163 名前:login:Penguin[sage] 投稿日:2008/06/02(月) 18:40:08 ID:NHwjZMfE FreeBSDスレにいたキチガイじゃ!! 初心者もOK! FreeBSD質問スレッド その95 http://pc11.2ch.net/test/read.cgi/unix/1210728872/793 793 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2008/06/02(月) 18:41:54 このkitty guyは、ここより大人しいがLinux板にもいるぞw アク禁にならないのが不思議w 795 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2008/06/02(月) 18:53:54 やはり本人だったかw 797 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2008/06/02(月) 18:55:10 特徴ありすぎて他板でもすぐにわかるな彼 かわいい なんも知らないLinuxについて教えてのスレ http://pc11.2ch.net/test/read.cgi/os/1211461879/67 67 名前:Be名無しさん[sage] 投稿日:2008/05/30(金) 18:29:07 某基地害猿みたいな奴はどこにでもいるんだな -------------------------------------------------------------------------------------------- UNIX板のあちこちのスレッドを荒らしている凶悪メンヘラ・真性キチガイ猿粘着◆QfF6cO2gD6。 いつも荒らしを憎むようなレスをするが、実際に荒らしているのは自分。 気色の悪い年中無休発狂粘着真性キチガイ包茎池沼病気猿男(狂猿)◆QfF6cO2gD6があちこちのスレに 遂に理解できないような基地害カキコをし始めた!気持ちが悪い…。 >>100 ,101 壊れてもいいんだよ。 バックアップの効果は寿命が異なるメディアにデータを乗せることで 片方が壊れたときにもう一方が生きている可能性を高めるだけだから、 バックアップ側が違うタイミングで壊れる限り、問題なし。 すみません。 この調子でいくとデータが1Tをオーバーするんですけど、 HDDの容量をオーバーする場合、2台になり管理が難しくなります。 スナップショットを利用すると解決するのでしょうか。 スレからするとバックアップをどうとるかについての疑問? バックアップ側のHDDもRAID にするしかないでしょう or 素直に LTO-4 辺りを使うか >>104 おいおい、壊れるタイミングは違うだろうけど、 バックアップが先に死んでいたらどうするんだ? HDDは止めている方が死にやすいんだから、バックアップ側が先に全滅ってのは 大いにあるぞ。 で、バックアップが全滅しているのに気付くのは、大抵リストアしようとしたとき… 差分バックアップだったら, dump, tar, cpioお好きなのをどうぞ. しかし、アニメ・3D系の制作会社のテラレベルのバックアップはどーなってんの! otsuneモヒカン先生が詳しそうだけど ギョームの話はあまり書かないからなぁ HDDはRAID以外使い道無いって事か 保管や可搬性を考慮した場合、DVDかテープという事に? テラレベルのバックアップなぞ、HDD以外考えれん。 DVD はムチャでしょ。 いったい何枚いるのやら。 定期的に生死を確認するだけでも一苦労だと思うけど。 テープは強力だとは思うけど、 LTO とか個人で使うには高すぎるよね。 DDS じゃ容量的に DVD や BD と大差ないだろうし。 現実的なのは HDD しかないと思う。 放送業界だとLTOで納入じゃなかったっけか。 バックアップも自然とテープでしょ。 なんか前提がはっきりしないから話がまとまらないね HDD を使わないで保管しておく場合、どれくらいで壊れるの? 例えば、新品で買って、バックアップ取って、そのまま保存した場合、とかさ もしくは、実際に壊れた人は体験談を教えてよ >>124 迷信だろ うちは10年で50-60台じゃ効かないくらいの バックアップHDDが保管庫にあるが、一番古いものでも 全く問題ないよ いちおう、安全を考えて多重化もしてるけどね むしろDAT時代のテープが復帰できないことが多かった 書き込み不良もあるんだろうけど とにかく時間が掛かるんで、確認もおろそかだったし 不人気なので今は一切使われていない ローカル単位だとDVDもDLTもあるんだが DVDは多少の焼き損じが発生してるので、バックアップの総元締めのHDDから戻す 信頼性が抜群なのは、8単位の紙テープ これは、信頼度100%だね もう廃棄が進んで、ほんの少ししか保管されてないけど 8/5/3.5FDは完全廃棄済み DTLA(旧IBM)製でデータが全て飛んだことがあるから、怖いんだわ。 DTLA30台買って、結局全て壊れたもんなぁ 今はseagate使ってるよ。 おまいらはscsiつかってるのか? サーバリプレイスと共にディスクはSASに移行中 バックアップメディアは今もDDSです 昔あったのだと、 Seagateの4G、3年もので2勝3敗、Quantumの4G、5年もので2勝1敗。 ってことで、今ではLTO使ってる。 >>126 それはDTLA だからだろ、と俺は突っ込みたい HDDバックアップしてる人に質問 バックアップ先のファイルシステムは何ですか? もれは鯖:xfs バックアップ先:xfs ファイルシステムにせずに、ブロックデバイスに直接 tarです。 >>134 なにそれ? High-performance File System な。 UFSみたいなもんだよ 本来はJFSなんだろうけど、過去の資産からの継承でHFSなだけ 紙に書き写しておいて、データが飛んだら復活の呪文を唱えると… しかしHDD って3-5年程度寝かせるだけで駄目になるもんなのかね ブロックデバイス間でコピーしてるからファイルシステム関係ない。 xfs->xfsとかでやると速度どれくらい?ファイルシステム的にはそっちの方が いいだろうから、速度次第でやってみたい。 ダイレクトだと50MB/s程度は出る。 >>139 低温、低湿の保管庫なら 10年間くらいはは、全く問題ない 定期的に繋いでスピンアップさえしとけばいいもんだと思ってたが。 個別のファイルのバックアップは HDD2HDD が 利便性を含めて一般化してきているのではないかな? HDDの一領域とかでなく,きちんとバックアップ用HDDという 意識で別に運用する分にはかなり有効だと思う。 毎日の差分とかも取り出す作業含めてテープよりやりやすいし。 でも,システム丸ごとの「これ、バックアップね」って シール貼って保管する用はテープの方が安心感100倍だけど > でも,システム丸ごとの「これ、バックアップね」って > シール貼って保管する用はテープの方が安心感100倍だけど かかるコストの割に使用頻度が低い(というか、ない)ので 今後はそういった慣習は無くなるのではないだろうか。 まあ、保険みたいなものだな。 保険にどれだけ金を掛けるかは、守るもの次第。 そう言う事 モーターなんか壊れたって取り換えれば良いんだよ 記録面自体は壊れていないんだから モーターなんて、すぐ換えれるのか!? いくらかかるの? 基板が死んだだけなら、同じ方のやつと交換すれば戻ったりするらしいけど。 モーターの交換はクリーンルームみたいな所じゃなくても大丈夫なの? モーター交換って現実的じゃなさそう。 ttp://www.guestone.net/data/q_hdd.htm#hdd07 >>152 一時的に読み出せば、捨てて良いのだから クリーンルームは不要 つーか長期在庫のHDDが壊れると思ってるのは 何の伝説を盲信してるの? >何の伝説を盲信してるの? 何が目的でD2Dの布教活動してるの? >155 伝説だというのなら まずはおまえが試して10年後に報告してくれ 温度管理とか統計的誤差評価とかも忘れずにな >>156-157 オマエら新品買う度に、製造年月日とにらめっこすんの? 卵じゃねーんだからさぁ(w 取れたての新鮮なHDを産地直送! なんか嫌な表現だなぉぃw ちょっとスレチかもしれませんが、質問させてください。 バックアップで使用するテープドライブ(DDS/SDLT/LTO等)の クリーニングについて調べていたら、 ドライブの累積走行時間を目安に実施してください、的な説明があったのですが、 ドライブの累積走行時間は何かUNIXのコマンドで分かるのでしょうか? とりあえず、mt -f /dev/st0 status は試したのですが、 それらしい情報はありませんでした。 mtのmanもよく読んだんですが、該当するオプションはありませんでした。 OSはRHEL4で、mtのバージョンは0.8です。 何かご存知の方がいらしたら、よろしくお願いします。 >>160 週に何回、どれくらいのテープをとか 月に何回とかの頻度を考えて、オオヨソの時間を考える LTO,DLTはドライブによっちゃ、クリーナ入れても必要なけりゃ そのままドライブ側でスルーするよ レスありがとうございます。 >>161 やっぱり運用でカバーしかないですよね。 >>162 なるほど。 LTOやDLTではやり過ぎは良くないみたいですね。 自分はロギング大好きなので、 毎月記録を残そうかと思ってたんですが、 ググっても、マニュアル読んでも、 情報が出てこないのであきらめます。 LTO,DLT (リニア系?)は槍杉は× ベンダ側も「クリーニングランプ点灯時以外やるな」 DDS,AIT とかのヘリカルスキャン系は ある程度積極的にやるのを推奨なので ランプ点灯しなくても定期的にやるとか そんなのが推奨されてるんじゃなかったかな D2Dの場合、通電は必須。 ミッドレンジのまともなストレージならば、定期的にDiskの 表面チェックをやってくれる。Checksum値が異なっていたら エラーを出力して、HotSpareに切り替える。 こうした機構が無い場合、データが飛んでも分からないだろ。 電気代がもったいない? そんな時はMAIDを買えば良い。一定時間ごとに通電して表面 チェックしてくれる テープドライブ取り扱いに関する資料を置いときますね ベンダ(テープメーカーじゃないけどサーバ屋さん)からの お・ね・が・い http://www.express.nec.co.jp/teci/tecbook-pdf/tb070509/option/back.pdf 結構参考になるんじゃないかな 何か長期保存可能かつ長期可用性に優れたメディアってないかな? テープはカビや劣化とか磁気転写が問題になるし CDやDVDも色素が飛んだら終わりだし。 他のデジタルメディアも長期供給可能かどうかわからんし 何よりも再生機器が現存してるかどうか問題。 実家の押入に眠っていた大量のVHSテープとデータが記録されたカセットテープを見てふと思った。 >>168 MO テープ 紙 現実的にはこれらだろ。MOとテープは30年だっけか。 紙は和紙と墨だと何百年も持つ。 >>168 穿孔紙テープだろうな 8単位10巻くらいなら、在庫有るよ お安くしておきますが(w バックアップってのはさぁ 意味わかってる? バックアップなんだよ。(w 磁気情報が消えるとか、物理劣化してしまうとか 機器劣化してしまうとか、読み出せなくなる「可能性」に対して バックアップを取るの。 まず2系統取って、確認して、常識的な劣化時間を考えて その前に、その媒体を、その時代に安全な媒体で*バックアップ*する それを繰り返すんだよ その頻度と手間暇を勘定して、石に彫るもよし 和紙に綴るもよし DVD 系(もう少し普及したらBD?)を複数とっておくのが無難じゃないかなぁ DVD は割と長く再生互換な機器は出回るんじゃない? >>168 ttp://h50146.www5.hp.com/products/storage/whitepaper/pdfs/tapemedia_WP.pdf こんなのがあったので貼っておく。 MO,PD,DVD-RAMだな、長持ちするのは。 PDはメディアより規格が先に寿命を迎えたが。 >173 技術的にはそういう主張をしたくなるかもしれないが いずれも規格の寿命は短いぞ DVD±RW は読める期間は長そうだが DVD-RAM 対応ドライブがいつまで供給されるか… 「その時」は DVD±RW メディアの寿命よりは先に来るでしょう DVD±Rは規格寿命より個々のメディア寿命の方が短いな。 なにしろただの色素ですんで・・・ メディアの寿命にしろ規格の寿命にしろ、現状は大して長持ちしないわけだ。 ひたすらコピーし続けるしかないのか。 100年先は生きていないから、そんなに持たなくていいよ。 3.5"FDでとっといた98の資産が、見事に全部読み込めなかった俺が通りますよ。 磁気メディアは一切信用しねえ。 全然触れられていないけれどmicroSDとかCFか゛ だいぶ安くなっている。DVD-RAMよりちょっと高い程度だけれど なんやかやでms-dosfsとか無難 CFとかはIDEにつないでブートデバイスにもなる。 電子機器だけどもちはいいんじゃないかな。 テキストとか写真は2Gbyteくらいのにバックアップしている。 最初はまとまったらDVD-Rに焼こうかと思ったけれど 小さいしどんどん値下がりするのでこのままでいいかなと 繰り返し使っているとドライバとか対応しないと特定の場所ばかり使うことになるだろうから ファイルを累積させていらないものは落としてあとはROM使用というのなら問題ないと思う。 だめなやつは初期にパーになるらしいから最初は分散保存しておくのが良いとは思う。 >>182 リンク先の記事根本的に「100万回」を勘違いしているよね、 単に不良品掴んだだけ メーカーによってはずれのでやすいものと全然でないものとあるみたいだから しばらく「運搬用」とかに使って大丈夫だと思ったらROM的に書き込み チェックしたらそれでReadOnlyにするのがよさそう。 >>184 回数の勘違いはあるけど、他のメディアなら読み取りエラーになるところを、 エラーなく化けたデータが読み込めているのが、怖い バックアップをとるのには、いまのところrsync3が選択肢として最有力? rdiff-backup使ってみたけど、なんかエラーで動かない・・・ 何をしたいかによって異なるのに 前提なしの最強を決めようとな? ええっと、何をしたいか、ということについて どのような選択肢がありますか? >188 とりあえず以下について調べてレポートしてくれ給え dump/restore, zfs send/receive, tar, afio, rsync, unison, pdumpfs, rdiff-backup, duplicity, amanda, bacula, よろしく! >189-191 ちょ、、、少し時間を下さい・・・orz ところで、少し古いパソコンにLinux(debian)を入れて、rsyncで200GBほどのデータをほかのパソコンから コピーしようとしたら、途中で応答がなくなってかたまってしまいます。 壊れているのか、原因がちょっとわからないのですが、とりあえず、メモリが224MBしか乗っていないのですが、 これだと不十分ということはあるでしょうか? >193 rsync 2.x だと全体容量は関係ないけど 200GB というのが「多数のファイル」の場合には メモリ食い過ぎて死ぬ可能性はある 転送中に top で rsync がメモリを食う様子くらいは眺めても罰はあたらない rsync は 3.x 以降だとその辺は変わっているので 改善されるかもしれないような気もするかもしれない rsync だめなら tar cf - xxx|ssh dokosoko 'tar xpf -' とかかな 2台が同じLAN内だったら、NFSマウントしてcp -aとか。 rsyncはファイル数に依存するね ファイル数が多いとすぐ1Gくらいメモリ食ったりする もういちどrsyncを実行して、top画面を見てみました。 メモリ使用量10%弱のところでハングアップしてしまいました。 メモリ量ではないようですね 壊れてるにしても、どこがいかれているんだろう・・・・orz すいません、もはや板違いですが、再起動したらBIOS画面で Mwmory Testing : 229376K OK のところで止まって起動しなくなってしまいました。 何回か電源を切って、入れてを繰り返すと起動しましたが・・・ どこが壊れてるんでしょう? 暖めてみれば? ていうか古い機械ならもう寿命かもね 各所の接触が悪くなっているとか 部品の劣化とか memtest86をはしらせてみたら40%でかたまってしまった メモリエラーじゃなくて、テストプログラム自体がフリーズしてる・・・ 寿命ですかね・・・ ごく短い間隔でミラーリングをとる方法ってありますか? ミラーリングというか、ごく短いスパンでミラーリングをかけたいのですが 10分おきとか >>203 cronでrsync廻せばいいじゃん。 そもそも想定しているものの容量によっては 10分で終わらない罠 zfsとかnetappあたりのスナップショット機能つきの ファイルシステムを使うのが手っ取り早いかと。 すいません、わけわからんこと言ってるのは分かってるんですけど^^; Raidのミラーリングなら、同時に二台のHDDにデータを書き込んでるわけですが たとえば一台のデータを間違って消してしまったら、ミラーのデータも同時に消されてしまうんですよね? そこで、ミラーリングしながらなおかつ遅延をかけるというか・・・ あ、やべっ、って時に、ぎりぎり直前までバックアップがとれてる、みたいな事はできるのかな?とふと思ったもので なんかテレビのHDD録画みたいですね(遅れて見られる) あと Raid なんて気持ち悪い書き方すんな。 RAID だ。 >208 ググってきました たしかに、よさそうですね >209 スマソ IMAPサーバーのメールをバックアップしたいんです。 できればバックアップというよりはレプリケーションしたいんです。 それも遠いところ(500kmほど離れたVPNで繋がっているLAN)にあるディスクに バックアップ(レプリケーション)したいんです。 同じサイズのISCSIなディスクを使えば解決できるだろう。 と思います。つまり、できたも同然なのですが、 具体的にどうすればよいのかという些細な点で躓いています。 例えば、二つのISCSIディスクをミラーリングすればパーフェクトなレプリケーションができるはずですが、 VPNが切れたときにリビルドされると随分時間がかかるなあとか、思います。 rsyncとかでいいかな?とも思うのですがrsyncだとファイルがディレクトリー間で移動させられたときには コピーが発生するのかな、と思うとブルーな気分になります。 なにか良い方法はないですか? これがうまくいったら、地震でメールサーバーのあるビルが崩壊してみんなが途方に暮れているときに、 「こんなこともあろうか○○支社にコピーしてあったのですよ」と颯爽と回復して見せれば ボーナスの査定が上がるのも間違いないですし(もし出れば)、女子社員たちも 「△山さんカッコいい。抱いて」とくるのは確実なので、そのときは皆さんにも紹介してあげます。 よろしくお願いします。 > つまり、できたも同然なのですが、 > 具体的にどうすればよいのかという些細な点で躓いています。 新しいコピペにするには決めゼリフがちょっと長すぎるような? できたも同然なのですが、些細な点で躓いています。 こんな感じですか なるほど。暖かいご指摘ありがとうございます。勉強になります。 DRBDを使ってprimaryとsecondaryを一台のマシンで動作させて(出来ないのかもしれませんが)、 primaryをこっちのiSCSIディスク、secondaryを遠くのiSCSIディスクにすれば出来るような気がしますが、 DRBDとiSCSIでネットワークの不安定さをより考慮しているのはDRBDでしょうから、 ネックになる遠くとのVPNトンネルを通過するのがiSCSIなのは何かサブプライムローンやリボ払い的な 問題があるように思います。 secondary側にもlinux機を置いてDRBDというのが正攻法でしょうか。 あと、回答してもらいたいときには、これを書いておいたほうがいいというの教えてもらったので書いておきます。 「私は女子高生です。」 >ボーナスの査定が上がるのも間違いないですし(もし出れば)、女子社員たちも >「△山さんカッコいい。抱いて」とくるのは確実なので、そのときは皆さんにも紹介してあげます。 >「私は女子高生です。」 百合は大好物です。 どうも、こんにちは。 向こう(遠いほう)のLANのユーザーも、こっちのメールボックスを使ってるんですが IMAPなら向こうとこっちは別にしたほうがいいなと思います。 だったら向こうにもIMAPサーバーを置いて、こっちのIMAPサーバーと向こうのIMAPサーバーで DRBDで相互にレプリケーションし合えば万事オッケーな気がします。 それと「女子高生です」と書くとレスをもらえるというのが本当だったのでうれしいです。 でもレズはいらないです。 rsync(2.6.9) で、例えばこんな状態になっていて sync/a/1/ sync/a/2/A/x.txt sync/b/1/B/y.txt sync/b/2/ nオプション付きだと $ /usr/bin/rsync --delete -auvn --include "/1/" --include "/1/*" --include "/2/" --include "/2/*" --include "/2/A/" --include "/2/A/*" --exclude "*" "./sync/a/" "./sync/b/" building file list ... done deleting 1/B/ 1/ 2/ 2/A/ 2/A/x.txt 「deleting 1/B/」とでるのに 実際に実行すると $ /usr/bin/rsync --delete -auv --include "/1/" --include "/1/*" --include "/2/" --include "/2/*" --include "/2/A/" --include "/2/A/*" --exclude "*" "./sync/a/" "./sync/b/" building file list ... done 1/ 2/ 2/A/ 2/A/x.txt 「sync/b/1/B/」ディレクトリが削除されません。 削除させる方法はあるのでしょうか? (複数の場所を指定したくて「include」がたくさんな書き方になっています) 補足ですが、 --exclude "*" で全否定して、include で追加というイメージです。 >>206 >>208 スナップショット系はディスクスペースの無駄を増やすだけ 管理ポリシーがないひとが使うとゴミだらけになる。 zfsは完全にパーになる可能性もあるから 実態の明確なファイルバックアップには向かない。 気づけば再起不能 管理ポリシーは作ればいい。 バックアップは別にやればいい。 先生っ! 実態の明確な の意味がサッパリ分かりません rsyncが使うネットワークの帯域を制限する方法はありませんか? --bwlimit=KBPS This option allows you to specify a maximum transfer rate in kilobytes per second. This option is most effective when using rsync with large files (several megabytes and up). Due to the nature of rsync transfers, blocks of data are sent, then if rsync determines the transfer was too fast, it will wait before sending the next data block. The result is an average transfer rate equaling the specified limit. A value of zero specifies no limit. もちろん >>231 も読んだ上で 「ありません」 と答えてるわけだが、、 >237 あちこちに書けば書くほど宣伝の逆効果になってるって バックアップに最適な圧縮フォーマットを教えてください。 7zは高圧縮で良いのですが、更新されていないファイルもすべて圧縮し直さなければなりません。 できれば、更新されたファイルのみを圧縮し追加できるとよいのですが。 >>239 gzで各ファイルを圧縮するのが良いと思うよ xfsdump でオートローダを使う方法が分かりません。 man page には-cオプションが「メディア交換が必要になったときに 実行するプログラムを指定する」とあるので、オートローダのカートリッジ交換を 行うスクリプトを指定しました。 すると、カートリッジ交換は正しく行なわれたものの、その後 please change media in drive 0 1: media change declined (timeout in 3600 sec) 2: media changed (default) -> というプロンプトが現れ、そのままタイムアウトさせるとabortしてしまいます。 (default というのは「enter のみ入力の場合」という意味で timeout時は 1 を実行) -F オプションを使うのか? とも思いましたが、-c を使うときは -F は使うな、という 情報もありましたので…→ http://www.tek-tips.com/viewthread.cfm?qid=764503 「xfsdump autoloader」などとぐぐってみても解決法は見つけられませんでした。 オートローダで運用してる方がいらっしゃったら正しい指定方法をご教示頂けないでしょうか。 使っているのはCentOS 5.4、現在の指定オプションは以下の通りです。 xfsdump \ -l 0 -o \ -L $session_name \ -M $media_label \ -c $change_cartridge_script \ -f /dev/st0 \ $backup_target # expectを使うしかない? # かなり面倒なことになりそうな… xfsdumpのソース見てみましたが無理そうですね。-cはメディア交換メッセー ジを出す前に指定のコマンドを実行するという意味しかないようです。ソース を書き換えるのが手っ取り早いでしょう。 >>243 調べていただいてありがとうございます。 となると対策としては (1)timeout で media changed が実行されるようにソースを書き換える (2)メッセージを読んで正常終了で終わってなければ xfsdump -R を実行するよう スクリプトを書き換える (3)expect で enter を入力するようスクリプトを書き換える のどれかって感じですかね。 ちょいと考えてみます。 しかし、>>242 のリンク先によると、IRIXでは入れ替えスクリプトだけでOKとのこと。 IRIX版とLinux版では実装が違ってるんでしょうかね。 う〜む。 xfsdump の件ですが、結局ソースを書き換えて timeout→再開にしました。 ところが、今度は使用テープが一巡したとき -o オプションを指定してもなぜか 「overwrite しますか?」のプロンプトが出てくる。 (そして timeout で再びカートリッジ交換のスクリプト実行→再びプロンプトを永久に続ける、とゆー) -o は man pageによると「テープのブロックサイズが読み取れないときに使用する」となってるけれど、 どうやら問答無用で overwrite してくれるわけではないらしい。 ダイアログが出て上書きをユーザが選択しなければならないとなるとこのオプションの存在意味は一体? と思うけれど、調べるのも面倒になったので、これまた問答無用で上書きするようソースを書き換えました。 …どうも釈然としない……… その他、2本目以降の media label をコマンドラインから指定する方法がない、など xfsdumpは対話実行が基本で「自動化」というものは想定されていないコマンドなのですね。 自動化したけりゃ面倒でも expect を使って応答するスクリプトを作成するのが正解なようです。 最新版のchagelogを見ても機能的にはあまり変わってない雰囲気なので、 オートローダを使いたければ他のバックアップソフトを使え、というのが基本スタンスのようで。 スクリプトでの操作を重視しないというのは、unix系のこの手のツールにしては珍しいですね。 rsyncでリモートのサーバにコピーする際に、特定のサーバだけパーミッションが000になってしまいエラーが出て継続できません。 別のサーバでは特にそのような問題は起きていません。 --chmodオプションで何とかなりますが、これって何で決まるのでしょうか? おすすめの圧縮可能なファイルシステムを教えてください。 Linuxだと意外と少ないのね。 >>250 Linux なら Linux 板で聞いた方がいい。 すみませんがUNIX板にてLinuxに精通されている方のみ回答をお願いします それでは、回答終了ということで回答陣の審査を行ないます。 審査結果は、 不合格 です。もう一度質問サポート精神の基本を勉強して 受験し直してください。 Unixに標準的に備わっているものだけでMacのタイムマシンのようなことはできませんか? Unixに標準的に備わっているZFSでLinuxのdump|restoreのようなことはできませんか? >>261 send / receive するか、単に snapshot 取れば良いんじゃないの 遅ればせながら百合スレと聞いてバックアップされに来ました。 ZFSからEXT4に dump|restore したいんですが、そういう方法はありますか? tar|tar や cpio|cpio等以外でお願いします。 rsync等以外でお願いします 普通のファイルとしてアクセスする系以外でということです >265 釣りは釣り堀でお願い 「以外」の理由が分からない限り全部 >267 って答えるでしょ わからん質問しては、その回答は不正解、レベル低いプププ って流行ってるのか? Macのタイムマシンの代わりになるようなソフトはありませんか? bacula 5.0.3 を構築しているんですが、rescue cd ってどうやって作るのでしょうか? bacula-rescueがどうすれば手に入るのか全然判らん・・・orz また、他にもっと簡単な方法ってありますかね? フルバックアップを取っているのですがリカバリー計画が全然たてられない・・・ OSはCentOS4 と CentOS5 です。 よろしくおねがいいたします。 Unixに標準的に備わっているコマンドだけでシンボリックリンクのタイムスタンプの保存はできませんか? AIXスレでTSMネタはここだって言われて来ました 過疎? TSM普通に新規で入れまくってるぞ(;´д`) 古いもの扱いなのか… Q. バックアップ作業は UNIX のスキルアップにつながりますか? A. バックアップ作業は UNIX のスキルが低い人間に定型作業として従事させるには向いていますが UNIX のスキルアップにはつながりません。 オレの世話になった先生も 研究所で下っ端の頃はテープにバックアップ取るのを ルーチンワークとして与えられてたって言ってたわ バックアップをとるだけならルーチンワーク。 けど設計にはそれなりにきちんとした知識が必要だと思ってる。 「RAIDしてるからバックアップはばっちり!」みたいな とんちんかんなことをいう人のなんと多いことか。 バックアップだけして、リストアの訓練をしない組織の多い事 リストアの訓練させると新しいファイルを古いバックアップで上書きする事故多発 unixのバックアップする時にdvdとかcdromから起動するのはなぜ? HDDのファイルシステムをマウントせずにバックアップするためです。 マウント中のHDDは整合性がとれてない。 バックアップ中にアクセスされないようにするため、 ディスクをOSに認識させずに、、、、といった所でしょうか、、 coolnovoはどのようにバックアップしてますか。 HDDが壊れてしまったUNIXマシンがあります。 ちょっと前までのバックアップ(/以下をtar -Cしたもの)が 別のWindowsマシンの中にあります。 新しいHDDを買ってきて、バックアップの状態を復元するのに 一番短い手順を教えて下さい。 ブラウザの履歴、ブックマークのバックアップはどのようにしてますか。 >>305 もじらのエリアをバックアップしてるだけだが。 最近は duplicity だな。暗号化もできるし、AmazonS3 にも対応している。 dumpでバックアップしたアーカイブを、展開せずに(重要)、tarに変換したいのですが、 何か方法ありますか? バックアップ用HDDのホットクラブってできますか? バックアップとコピーとアーカイブの違いを教えてください >>313 正確な定義はしらないが バックアップとは稼働中のシステムを助ける、支援するという意味で そのシステムが障害が起きても、その障害時に復旧できるような支援。 つまりシステムは、常時内容を更新され続けてるのだから とっさの障害時の状態に「極力近い」部分に早期復帰させるような考え。 バックアップに関しては定期的なものも冗長的なものもあるんでケースバイケース。 コピーは「複製」でしかなく、その時点での複製コピーで近い未来には 元本の内容は書き換わっている可能性が高い。 2015.08.24.13:22のhogehoge.txtのコピーとかね。 アーカイブは単純に保存であるから、稼働中システムの何かを保存しておくだけ。 一般的にはシステム上から抹消するような情報を、保存の上で抹消するような意味合い。 5年前のデータはアーカイブ(倉庫にしまって)の上でシステム上から消去します。って感じ。 ハゲ侍 サブコミュ イケメン スカイプ マリリンマンソン Twitter マリオ64 ゲーム実況者 マリオカート ハゲ侍 ツイッター 星のカービィ64 マリオサンシャイン ニコニコ超会議 ポケモン フレコ MH4G アメブロ ハゲ侍 アメーバブログ 仕事 Skype ツイキャス モンハン 歌い手 スプラトゥーン マニアック ハゲ侍 動画 顔 ドリームクラブ 好き 刃牙 サイレントヒル ドラゴンボール イケボ ハゲ侍 漫画 フレンドコード NG縛り ニコニコ生放送 歌ってみた 太刀 ニコニコ超パーティー コミュニティ ハゲ侍 大学 アキネーター 配信 ニコ生 サブコミュ マリリンマンソン イケメン 学歴 ハゲ侍 マリオカート Twitter スカイプ マリオ64 ツイッター ゲーム実況者 星のカービィ64 ニコニコ超会議 ハゲ侍 ポケモン マリオサンシャイン フレコ MH4G アメーバブログ 仕事 Skype ツイキャス ハゲ侍 モンハン 歌い手 マニアック 動画 アメブロ スプラトゥーン 刃牙 ドリームクラブ ハゲ侍 好き サイレントヒル ドラゴンボール 漫画 顔 NG縛り フレンドコード ニコニコ生放送 http://kanae.2ch.net/test/read.cgi/pcqa/1421101110/51 http://kanae.2ch.net/test/read.cgi/pcqa/1415921104/55 http://kanae.2ch.net/test/read.cgi/pcqa/1436852775/17 誰でも簡単にパソコン1台で稼げる方法など 参考までに、 ⇒ 『宮本のゴウリエセレレ』 というブログで見ることができるらしいです。 グーグル検索⇒『宮本のゴウリエセレレ』 3SH3FE1M0P 知り合いから教えてもらったパソコン一台でお金持ちになれるやり方 時間がある方はみてもいいかもしれません グーグルで検索するといいかも『ネットで稼ぐ方法 モニアレフヌノ』 77XXC >>320 > dar 2.5.17 コンパイルでエラー吐いて、使えなかった。RC4に戻すわ。 read.cgi ver 08.0u [upliftProject] - 2023/07/09 Walang Kapalit ★ | uplift ★ 5ちゃんねる