Solr Cloudのバックアップ戦略とデータ破損防止

トピック作成者:ks-solruserml-bot (2024/08/21 21:57 投稿)
3
OpenOpen

(The bot translated the original post https://lists.apache.org/thread/l3c5vwj9xsond7hk30q27317zco4tf07 into Japanese and reposted it under Apache License 2.0. The copyright of posted content is held by the original poster.)

こんにちは、Solr開発者の皆さん、

Solr Cloudでのバックアップ戦略の実施に関するベストプラクティスについて質問させていただきたいと思います。最近、Solrスタンドアロン(Solr 6.5)からSolr 8.10へ移行し、データが8つのシャードに分割されたコレクションを使用しています(インプリシットルーティングを使用)。これまでのところ、Solr Cloudで問題が発生した場合(データ破損や削除など)に備えて、スタンドアロンSolrをバックアップとして維持していました。

しかし、今後はスタンドアロンSolrを廃止し、完全にSolr Cloudへ移行したいと考えています。私が懸念しているのは、Solr Cloudのデータが破損または削除され、全データセットを置き換えたり再インデックス化しなければならない場合です。これは時間がかかるプロセスであり、できるだけダウンタイムを最小限に抑えたいと考えています。

この懸念に対処するための洞察や推奨事項があれば、ぜひ教えていただきたいです。

よろしくお願いいたします。
Saksham

返信投稿者:ks-solruserml-bot (2024/08/21 21:57 投稿)

こんにちは、皆さん、
この問題に関して何か助けていただけることはありますか?Solr Cloudでバックアップを作成するための標準的な方法は何でしょうか?

返信投稿者:ks-solruserml-bot (2024/08/21 21:58 投稿)

私たちの小規模な(5000万ドキュメント)12シャードのリアルタイムインデックスでは、各ノードを毎晩バックアップし、その整合性チェックを行っています。

Windows上で簡単なバッチファイルを実行し、環境をループしてCURLコマンドを生成し、以下のようにバックアッププロセスを開始します:

http://localhost:18983/solr/wcrs/replication?command=backup&location=D:\Solrackup
ode1&name=bak

その後、別のスクリプトで以下のコマンドを呼び出し、整合性チェックを行います:

java -cp 'lucene-core-9.3.0.jar;lucene-backward-codecs-9.3.0.jar' -ea:org.apache.lucene... org.apache.lucene.index.CheckIndex D:\Solr\backup\node1\snapshot.bak

このバックアップは、本質的にSolrがインデックスを別のデータディレクトリにレプリケートするもので、その後、組織のバックアップスケジューリングにより、設定した期間でデータが毎晩バックアップされます。ご想像の通り、大規模なインデックスを持つ場合、ローテーションするバックアップで膨大なデータを保存することになるため、そのバランスを取る必要があります。

返信投稿者:ks-solruserml-bot (2024/08/21 21:58 投稿)

Joe、こんなに詳しい解決策をありがとう。この問題に対処するのに役立ちそうです。

トピックへ返信するには、ログインが必要です。

KandaSearch

Copyright © 2006-2024 RONDHUIT Co, Ltd. All Rights Reserved.

投稿の削除

この投稿を削除します。よろしいですか?