# # Translators: # Tomoyuki KATO , 2013-2014 msgid "" msgstr "" "Project-Id-Version: OpenStack Manuals\n" "POT-Creation-Date: 2014-08-19 21:02+0000\n" "PO-Revision-Date: 2014-08-20 00:20+0000\n" "Last-Translator: Tomoyuki KATO \n" "Language-Team: Japanese (http://www.transifex.com/projects/p/openstack-manuals-i18n/language/ja/)\n" "MIME-Version: 1.0\n" "Content-Type: text/plain; charset=UTF-8\n" "Content-Transfer-Encoding: 8bit\n" "Language: ja\n" "Plural-Forms: nplurals=1; plural=0;\n" #: ./doc/high-availability-guide/ch_controller.xml8(title) msgid "Cloud controller cluster stack" msgstr "クラウドコントローラーのクラスタースタック" #: ./doc/high-availability-guide/ch_controller.xml10(para) msgid "" "The cloud controller runs on the management network and must talk to all " "other services." msgstr "クラウドコントローラーは、管理ネットワークで動作し、他のすべてのサービスと通信できる必要があります。" #: ./doc/high-availability-guide/ch_ha_aa_network.xml8(title) msgid "OpenStack network nodes" msgstr "OpenStack ネットワークノード" #: ./doc/high-availability-guide/ch_ha_aa_network.xml10(para) msgid "OpenStack network nodes contain:" msgstr "OpenStack ネットワークノードは次のものを含みます。" #: ./doc/high-availability-guide/ch_ha_aa_network.xml13(para) msgid "neutron DHCP agent" msgstr "Neutron DHCP エージェント" #: ./doc/high-availability-guide/ch_ha_aa_network.xml18(para) msgid "neutron L2 agent" msgstr "neutron L2 エージェント" #: ./doc/high-availability-guide/ch_ha_aa_network.xml23(para) msgid "Neutron L3 agent" msgstr "neutron L3 エージェント" #: ./doc/high-availability-guide/ch_ha_aa_network.xml28(para) msgid "neutron metadata agent" msgstr "neutron メタデータエージェント" #: ./doc/high-availability-guide/ch_ha_aa_network.xml33(para) msgid "neutron lbaas agent" msgstr "neutron LBaaS エージェント" #: ./doc/high-availability-guide/ch_ha_aa_network.xml39(para) msgid "" "The neutron L2 agent does not need to be highly available. It has to be " "installed on each Data Forwarding Node and controls the virtual networking " "drivers as Open vSwitch or Linux Bridge. One L2 agent runs per node and " "controls its virtual interfaces. That’s why it cannot be distributed and " "highly available." msgstr "neutron L2 エージェントは高可用性にする必要がありません。各データ転送ノードにインストールされる必要があります。また、Open vSwitch または Linux Bridge として仮想ネットワークドライバーを制御します。1 つの L2 エージェントをノードごとに実行し、その仮想インターフェースを制御します。これが分散できず、高可用性にできない理由です。" #: ./doc/high-availability-guide/ch_pacemaker.xml8(title) msgid "The Pacemaker cluster stack" msgstr "Pacemaker クラスタースタック" #: ./doc/high-availability-guide/ch_pacemaker.xml10(para) msgid "" "OpenStack infrastructure high availability relies on the Pacemaker cluster stack, the " "state-of-the-art high availability and load balancing stack for the Linux " "platform. Pacemaker is storage and application-agnostic, and is in no way " "specific to OpenStack." msgstr "OpenStack インフラの高可用性は Pacemaker クラスター・スタックに依存しています。これは Linux プラットフォームにおける最先端の高可用性および負荷分散のスタックです。Pacemaker はストレージとアプリケーションに依存しません。また、OpenStack に固有ではありません。" #: ./doc/high-availability-guide/ch_pacemaker.xml15(para) msgid "" "Pacemaker relies on the Corosync messaging layer for " "reliable cluster communications. Corosync implements the Totem single-ring " "ordering and membership protocol. It also provides UDP and InfiniBand based " "messaging, quorum, and cluster membership to Pacemaker." msgstr "Pacemaker は信頼できるクラスター通信として Corosync メッセージング層に依存しています。Corosync は Totem 単一リング順序制御・メンバー管理プロトコルを実装しています。また、UDP および InfiniBand によるメッセージング、クォーラムおよびクラスターメンバー管理を Pacemaker に提供します。" #: ./doc/high-availability-guide/ch_pacemaker.xml20(para) msgid "" "Pacemaker interacts with applications through resource " "agents (RAs), of which it supports over 70 natively. Pacemaker " "can also easily use third-party RAs. An OpenStack high-availability " "configuration uses existing native Pacemaker RAs (such as those managing " "MySQL databases or virtual IP addresses), existing third-party RAs (such as " "for RabbitMQ), and native OpenStack RAs (such as those managing the " "OpenStack Identity and Image Services)." msgstr "Pacemaker は リソースエージェント (RA) を経由してアプリケーションと通信します。これは標準で 70 近くのアプリケーションをサポートします。Pacemaker はサードパーティーの RA を簡単に使用することもできます。OpenStack の高可用性設定は、既存の標準の Pacemaker RA (MySQL データベースまたは仮想 IP アドレスの管理など)、既存のサードパーティー RA (RabbitMQ など)、および標準の OpenStack RA (OpenStack 認証サービスおよびイメージサービスなど) を使用します。" #: ./doc/high-availability-guide/ch_ha_aa_rabbitmq.xml8(title) msgid "RabbitMQ" msgstr "RabbitMQ" #: ./doc/high-availability-guide/ch_ha_aa_rabbitmq.xml10(para) msgid "" "RabbitMQ is the default AMQP server used by many OpenStack services. Making " "the RabbitMQ service highly available involves the following steps:" msgstr "RabbitMQ が多くの OpenStack サービスにより使用される標準の AMQP サーバーです。RabbitMQ サービスを高可用性にすることは、以下の手順が関連します。" #: ./doc/high-availability-guide/ch_ha_aa_rabbitmq.xml14(para) #: ./doc/high-availability-guide/ha_aa_rabbitmq/section_install_rabbitmq.xml7(title) msgid "Install RabbitMQ" msgstr "RabbitMQ のインストール" #: ./doc/high-availability-guide/ch_ha_aa_rabbitmq.xml19(para) msgid "Configure RabbitMQ for HA queues" msgstr "高可用性 キュー用の RabbitMQ の設定" #: ./doc/high-availability-guide/ch_ha_aa_rabbitmq.xml24(para) msgid "Configure OpenStack services to use Rabbit HA queues" msgstr "RabbitMQ HA キューを使用するための OpenStack サービスの設定" #: ./doc/high-availability-guide/ch_intro.xml8(title) msgid "Introduction to OpenStack High Availability" msgstr "OpenStack 高可用性の概要" #: ./doc/high-availability-guide/ch_intro.xml10(para) msgid "High Availability systems seek to minimize two things:" msgstr "高可用性システムは以下の二つを最小化しようとします。" #: ./doc/high-availability-guide/ch_intro.xml13(para) msgid "" "System downtime — occurs when a " "user-facing service is unavailable beyond a specified " "maximum amount of time, and" msgstr "システム停止時間 — 指定された最大時間を超えるユーザーが直面するサービスの利用不可能な時間の発生。" #: ./doc/high-availability-guide/ch_intro.xml17(para) msgid "" "Data loss — accidental deletion or " "destruction of data." msgstr "データ損失 — 不慮の削除、またはデータの破損。" #: ./doc/high-availability-guide/ch_intro.xml21(para) msgid "" "Most high availability systems guarantee protection against system downtime " "and data loss only in the event of a single failure. However, they are also " "expected to protect against cascading failures, where a single failure " "deteriorates into a series of consequential failures." msgstr "多くの高可用性システムは単一障害事象のみで、システム停止やデータ損失に対する保護を保証します。しかしながら、単一障害が一連の障害を悪化させていく、段階的な障害に対しても保護することが期待されます。" #: ./doc/high-availability-guide/ch_intro.xml22(para) msgid "" "A crucial aspect of high availability is the elimination of single points of" " failure (SPOFs). A SPOF is an individual piece of equipment or software " "which will cause system downtime or data loss if it fails. In order to " "eliminate SPOFs, check that mechanisms exist for redundancy of:" msgstr "高可用性の重要な側面は単一障害点 (SPOF) を減らすことです。SPOF は、障害が発生した場合にシステム停止やデータ損失を引き起こす、設備やソフトウェアの個々の部品です。SPOF を削減するために、以下の冗長性に対するメカニズムを確認します。" #: ./doc/high-availability-guide/ch_intro.xml25(para) msgid "Network components, such as switches and routers" msgstr "スイッチやルーターなどのネットワークの構成要素" #: ./doc/high-availability-guide/ch_intro.xml30(para) msgid "Applications and automatic service migration" msgstr "アプリケーションおよび自動的なサービスのマイグレーション" #: ./doc/high-availability-guide/ch_intro.xml35(para) msgid "Storage components" msgstr "ストレージ構成要素" #: ./doc/high-availability-guide/ch_intro.xml40(para) msgid "Facility services such as power, air conditioning, and fire protection" msgstr "電源、空調、防火などに関する設備" #: ./doc/high-availability-guide/ch_intro.xml45(para) msgid "" "Most high availability systems will fail in the event of multiple " "independent (non-consequential) failures. In this case, most systems will " "protect data over maintaining availability." msgstr "多くの高可用性システムは複数の独立した (不連続な) 障害が発生すると停止します。この場合、多くのシステムは可用性の維持よりデータの保護を優先します。" #: ./doc/high-availability-guide/ch_intro.xml46(para) msgid "" "High-availability systems typically achieve uptime of 99.99% or more, which " "roughly equates to less than an hour of cumulative downtime per year. In " "order to achieve this, high availability systems should keep recovery times " "after a failure to about one to two minutes, sometimes significantly less." msgstr "高可用性システムは一般的に 99.99% かそれ以上の稼働時間を達成します。これは、年間の累積停止時間として 1 時間以内ほどです。これを達成するために、高可用性システムは、障害発生後の復旧時間を1、2分に、ときどきさらに短時間にする必要があります。" #: ./doc/high-availability-guide/ch_intro.xml47(para) msgid "" "OpenStack currently meets such availability requirements for its own " "infrastructure services, meaning that an uptime of 99.99% is feasible for " "the OpenStack infrastructure proper. However, OpenStack " "doesnot guarantee 99.99% " "availability for individual guest instances." msgstr "OpenStack は自身のインフラストラクチャーサービスに対して、現在そのような要件を満たしています。99.99% の稼働時間が OpenStack インフラストラクチャーに対して完全に実現するという意味です。しかしながら、OpenStack は個々のゲストインスタンスに対して 99.99% の可用性を保証していません。" #: ./doc/high-availability-guide/ch_intro.xml48(para) msgid "" "Preventing single points of failure can depend on whether or not a service " "is stateless." msgstr "単一障害点を無くすことは、サービスがステートレスであるかどうかに依存する可能性があります。" #: ./doc/high-availability-guide/ch_intro.xml51(title) msgid "Stateless vs. Stateful services" msgstr "ステートレスサービスとステートフルサービス" #: ./doc/high-availability-guide/ch_intro.xml53(para) msgid "" "A stateless service is one that provides a response after your request, and " "then requires no further attention. To make a stateless service highly " "available, you need to provide redundant instances and load balance them. " "OpenStack services that are stateless include nova-api, nova-conductor, " "glance-api, keystone-api, neutron-api and nova-scheduler." msgstr "ステートレスなサービスは、リクエストの後に応答を返すもので、その後の注意をする必要がないものです。ステートレスなサービスを高可用性にするには、冗長なインスタンスとそれらの負荷分散を提供する必要があります。ステートレスな OpenStack サービスは nova-api、nova-conductor、glance-api、keystone-api、neutron-api、nova-scheduler があります。" #: ./doc/high-availability-guide/ch_intro.xml54(para) msgid "" "A stateful service is one where subsequent requests to the service depend on" " the results of the first request. Stateful services are more difficult to " "manage because a single action typically involves more than one request, so " "simply providing additional instances and load balancing will not solve the " "problem. For example, if the Horizon user interface reset itself every time " "you went to a new page, it wouldn’t be very useful. OpenStack services that " "are stateful include the OpenStack database and message queue." msgstr "ステートフルサービスは、最初のサービスリクエストの結果に基づいて、後続のものがサービスにリクエストします。ステートフルサービスは管理することがより難しいです。その理由は、単一のアクションが複数のリクエストに関係するため、単に追加インスタンスと負荷分散を提供しても問題が解決しないからです。たとえば、Horizon ユーザーインターフェースが新しいページに移動するたびにリセットすると、かなり使い勝手が悪くなります。ステートフルな OpenStack サービスに OpenStack データベースとメッセージキューがあります。" #: ./doc/high-availability-guide/ch_intro.xml55(para) msgid "" "Making stateful services highly available can depend on whether you choose " "an active/passive or active/active configuration." msgstr "ステートフルサービスの高可用性は、アクティブ / パッシブとアクティブ / アクティブのどちらの設定を選択するかに依存する可能性があります。" #: ./doc/high-availability-guide/ch_intro.xml59(title) msgid "Active/Passive" msgstr "アクティブ/パッシブ" #: ./doc/high-availability-guide/ch_intro.xml61(para) msgid "" "In an active/passive configuration, systems are set up to bring additional " "resources online to replace those that have failed. For example, OpenStack " "would write to the main database while maintaining a disaster recovery " "database that can be brought online in the event that the main database " "fails." msgstr "アクティブ / パッシブの設定の場合、システムは故障したリソースを置き換えるために、オンラインで追加リソースをセットアップします。たとえば、メインのデータベースが故障したときにオンラインになる災害対策データベースを維持する限り、OpenStack はメインのデータベースに書き込みます。" #: ./doc/high-availability-guide/ch_intro.xml62(para) msgid "" "Typically, an active/passive installation for a stateless service would " "maintain a redundant instance that can be brought online when required. " "Requests may be handled using a virtual IP address to facilitate return to " "service with minimal reconfiguration required." msgstr "" #: ./doc/high-availability-guide/ch_intro.xml63(para) msgid "" "A typical active/passive installation for a stateful service maintains a " "replacement resource that can be brought online when required. A separate " "application (such as Pacemaker or Corosync) monitors these services, " "bringing the backup online as necessary." msgstr "一般的にステートレスサービスをアクティブ / パッシブにインストールすると、必要に応じてオンラインにできる置換リソースを維持します。 独立したアプリケーション (Pacemaker や Corosync など) がこれらのサービスを監視し、必要に応じてバックアップ側をオンラインにします。" #: ./doc/high-availability-guide/ch_intro.xml67(title) msgid "Active/Active" msgstr "アクティブ/アクティブ" #: ./doc/high-availability-guide/ch_intro.xml69(para) msgid "" "In an active/active configuration, systems also use a backup but will manage" " both the main and redundant systems concurrently. This way, if there is a " "failure the user is unlikely to notice. The backup system is already online," " and takes on increased load while the main system is fixed and brought back" " online." msgstr "アクティブ / アクティブの設定の場合、システムはバックアップ側も使用しますが、メインと冗長システムを同時に管理します。このように、ユーザーが気が付かない障害が発生した場合、バックアップシステムはすでにオンラインであり、メインシステムが復旧され、オンラインになるまでの間は負荷が高くなります。" #: ./doc/high-availability-guide/ch_intro.xml70(para) msgid "" "Typically, an active/active installation for a stateless service would " "maintain a redundant instance, and requests are load balanced using a " "virtual IP address and a load balancer such as HAProxy." msgstr "一般的にステートレスサービスをアクティブ / アクティブにインストールすると、冗長なインスタンスを維持することになります。リクエストは HAProxy のような仮想 IP アドレスとロードバランサーを使用して負荷分散されます。" #: ./doc/high-availability-guide/ch_intro.xml71(para) msgid "" "A typical active/active installation for a stateful service would include " "redundant services with all instances having an identical state. For " "example, updates to one instance of a database would also update all other " "instances. This way a request to one instance is the same as a request to " "any other. A load balancer manages the traffic to these systems, ensuring " "that operational systems always handle the request." msgstr "一般的にステートレスサービスをアクティブ / アクティブにインストールすることは、すべてのインスタンスが同じ状態を持つ冗長なサービスになることを含みます。たとえば、あるインスタンスのデータベースの更新は、他のすべてのインスタンスも更新されます。このように、あるインスタンスへのリクエストは、他へのリクエストと同じです。ロードバランサーがこれらのシステムのトラフィックを管理し、利用可能なシステムが常にリクエストを確実に処理します。" #: ./doc/high-availability-guide/ch_intro.xml72(para) msgid "" "These are some of the more common ways to implement these high availability " "architectures, but they are by no means the only ways to do it. The " "important thing is to make sure that your services are redundant, and " "available; how you achieve that is up to you. This document will cover some " "of the more common options for highly available systems." msgstr "これらの高可用性アーキテクチャーを実現する、より一般的な方法がいくつかありますが、それらは唯一の方法ではありません。重要なことは、サービスが冗長であり、利用可能であることを確実にすることです。あなたがしたいように達成します。このドキュメントは高可用性システムのより一般的なオプションをいくつか取り扱います。" #: ./doc/high-availability-guide/bk-ha-guide.xml8(title) msgid "OpenStack High Availability Guide" msgstr "OpenStack 高可用性ガイド" #: ./doc/high-availability-guide/bk-ha-guide.xml12(firstname) msgid "Florian" msgstr "Florian" #: ./doc/high-availability-guide/bk-ha-guide.xml13(surname) msgid "Haas" msgstr "Haas" #: ./doc/high-availability-guide/bk-ha-guide.xml15(email) msgid "florian@hastexo.com" msgstr "florian@hastexo.com" #: ./doc/high-availability-guide/bk-ha-guide.xml17(orgname) msgid "hastexo" msgstr "hastexo" #: ./doc/high-availability-guide/bk-ha-guide.xml21(year) msgid "2012" msgstr "2012" #: ./doc/high-availability-guide/bk-ha-guide.xml22(year) msgid "2013" msgstr "2013" #: ./doc/high-availability-guide/bk-ha-guide.xml23(year) msgid "2014" msgstr "2014" #: ./doc/high-availability-guide/bk-ha-guide.xml24(holder) msgid "OpenStack Contributors" msgstr "OpenStack 貢献者" #: ./doc/high-availability-guide/bk-ha-guide.xml26(releaseinfo) msgid "current" msgstr "カレント" #: ./doc/high-availability-guide/bk-ha-guide.xml27(productname) msgid "OpenStack" msgstr "OpenStack" #: ./doc/high-availability-guide/bk-ha-guide.xml31(remark) msgid "Copyright details are filled in by the template." msgstr "Copyright details are filled in by the template." #: ./doc/high-availability-guide/bk-ha-guide.xml35(para) msgid "" "This guide describes how to install, configure, and manage OpenStack for " "high availability." msgstr "このガイドは、高可用性 OpenStack をインストール、設定、管理する方法について記載します。" #: ./doc/high-availability-guide/bk-ha-guide.xml40(date) msgid "2014-05-16" msgstr "2014-05-16" #: ./doc/high-availability-guide/bk-ha-guide.xml44(para) msgid "Conversion to Docbook." msgstr "Docbook 形式への変換。" #: ./doc/high-availability-guide/bk-ha-guide.xml50(date) msgid "2014-04-17" msgstr "2014-04-17" #: ./doc/high-availability-guide/bk-ha-guide.xml54(para) msgid "" "Minor cleanup of typos, otherwise no major revisions for Icehouse release." msgstr "誤字脱字の軽微な修正。Icehouse リリース向けの大きな改版はありません。" #: ./doc/high-availability-guide/bk-ha-guide.xml61(date) msgid "2012-01-16" msgstr "2012-01-16" #: ./doc/high-availability-guide/bk-ha-guide.xml65(para) msgid "Organizes guide based on cloud controller and compute nodes." msgstr "クラウドコントローラーとコンピュートノードに基づいてガイドを整理しました。" #: ./doc/high-availability-guide/bk-ha-guide.xml71(date) msgid "2012-05-24" msgstr "2012-05-24" #: ./doc/high-availability-guide/bk-ha-guide.xml75(para) msgid "Begin trunk designation." msgstr "trunk 指定を始めました。" #: ./doc/high-availability-guide/ch_network.xml8(title) msgid "Network controller cluster stack" msgstr "ネットワークコントローラーのクラスタースタック" #: ./doc/high-availability-guide/ch_network.xml10(para) msgid "" "The network controller sits on the management and data network, and needs to" " be connected to the Internet if an instance will need access to the " "Internet." msgstr "" #: ./doc/high-availability-guide/ch_network.xml12(para) msgid "" "Both nodes should have the same hostname since the Networking scheduler will" " be aware of one node, for example a virtual router attached to a single L3 " "node." msgstr "Networking スケジューラーが 1 つのノードに認識するよう、両方のノードが同じホスト名を持つべきです。たとえば、単一の L3 ノードに接続された仮想ルーターです。" #: ./doc/high-availability-guide/ch_ha_aa_haproxy.xml8(title) msgid "HAProxy nodes" msgstr "HAProxy ノード" #: ./doc/high-availability-guide/ch_ha_aa_haproxy.xml10(para) msgid "" "HAProxy is a very fast and reliable solution offering high availability, " "load balancing, and proxying for TCP and HTTP-based applications. It is " "particularly suited for web sites crawling under very high loads while " "needing persistence or Layer 7 processing. Supporting tens of thousands of " "connections is clearly realistic with today’s hardware." msgstr "HAProxy は高可用性、負荷分散、TCP と HTTP ベースのアプリケーションに対するプロキシを提供する非常に高速かつ信頼性のあるソリューションです。とくに永続性とレイヤー 7 処理を必要とする、非常に負荷の高いウェブサイトに適しています。数千の接続をサポートすることは、今日のハードウェアではかなり現実的です。" #: ./doc/high-availability-guide/ch_ha_aa_haproxy.xml14(para) msgid "" "For installing HAProxy on your nodes, you should consider its official documentation. Also, " "you have to consider that this service should not be a single point of " "failure, so you need at least two nodes running HAProxy." msgstr "HAProxy をインストールするために、公式ドキュメントを参考にすべきです。また、このサービスが単一障害点にならないように考慮する必要があります。そのため、HAProxy を実行するノードが少なくとも 2 つ必要です。" #: ./doc/high-availability-guide/ch_ha_aa_haproxy.xml17(para) msgid "Here is an example for HAProxy configuration file:" msgstr "これは HAProxy 設定ファイルの例です。" #: ./doc/high-availability-guide/ch_ha_aa_haproxy.xml157(para) msgid "After each change of this file, you should restart HAProxy." msgstr "このファイルの変更後、HAProxy を再起動すべきです。" #: ./doc/high-availability-guide/ch_ha_aa_controllers.xml8(title) msgid "OpenStack controller nodes" msgstr "OpenStack コントローラーノード" #: ./doc/high-availability-guide/ch_ha_aa_controllers.xml10(para) msgid "OpenStack controller nodes contain:" msgstr "OpenStack コントローラーノードは次のものを含みます。" #: ./doc/high-availability-guide/ch_ha_aa_controllers.xml13(para) msgid "All OpenStack API services" msgstr "すべての OpenStack API サービス" #: ./doc/high-availability-guide/ch_ha_aa_controllers.xml18(para) msgid "All OpenStack schedulers" msgstr "すべての OpenStack スケジューラー" #: ./doc/high-availability-guide/ch_ha_aa_controllers.xml23(para) msgid "Memcached service" msgstr "Memcached サービス" #: ./doc/high-availability-guide/part_active_passive.xml8(title) msgid "HA using active/passive" msgstr "アクティブ/パッシブを使用した HA" #: ./doc/high-availability-guide/ch_api.xml8(title) msgid "API node cluster stack" msgstr "API ノードクラスタースタック" #: ./doc/high-availability-guide/ch_api.xml10(para) msgid "" "The API node exposes OpenStack API endpoints onto external network " "(Internet). It must talk to the cloud controller on the management network." msgstr "API ノードは外部ネットワーク (インターネット) にある OpenStack API エンドポイントにさらされています。管理ネットワークでクラウドコントローラーと通信する必要があります。" #: ./doc/high-availability-guide/ch_ha_aa_db.xml8(title) msgid "Database" msgstr "データベース" #: ./doc/high-availability-guide/ch_ha_aa_db.xml10(para) msgid "" "The first step is installing the database that sits at the heart of the " "cluster. When we talk about High Availability, we talk about several " "databases (for redundancy) and a means to keep them synchronized. In this " "case, we must choose the MySQL database, along with Galera for synchronous " "multi-master replication." msgstr "最初の手順は、クラスターの中心にあるデータベースをインストールすることです。私たちが高可用性について議論するとき、複数の (冗長性のための) データベースとそれらを同期させる方法について議論しています。この場合、MySQL データベースを、マルチマスターレプリケーション同期のために Galera と一緒に使用する必要があります。" #: ./doc/high-availability-guide/ch_ha_aa_db.xml14(para) msgid "" "The choice of database isn’t a foregone conclusion; you’re not required to " "use MySQL. It is, however, a fairly common choice in OpenStack " "installations, so we’ll cover it here." msgstr "データベースの選択は決められたものではありません。必ずしも MySQL を使用する必要がありません。しかしながら、OpenStack のインストール環境ではかなり一般的な選択肢であるため、ここでは MySQL を取り扱います。" #: ./doc/high-availability-guide/part_active_active.xml8(title) msgid "HA using active/active" msgstr "アクティブ/アクティブを使用した HA" #: ./doc/high-availability-guide/ha_aa_db/section_ha_aa_db_galera_monitoring.xml7(title) msgid "Galera monitoring scripts" msgstr "Galera 監視スクリプト" #: ./doc/high-availability-guide/ha_aa_db/section_ha_aa_db_galera_monitoring.xml9(para) msgid "(Coming soon)" msgstr "(近日公開)" #: ./doc/high-availability-guide/ha_aa_db/section_ha_aa_db_mysql_galera.xml7(title) msgid "MySQL with Galera" msgstr "Galera を用いた MySQL" #: ./doc/high-availability-guide/ha_aa_db/section_ha_aa_db_mysql_galera.xml9(para) msgid "" "Rather than starting with a vanilla version of MySQL, and then adding " "Galera, you will want to install a version of MySQL patched for wsrep (Write" " Set REPlication) from https://launchpad.net/codership-mysql/0.7. The wsrep API " "is suitable for configuring MySQL High Availability in OpenStack because it " "supports synchronous replication." msgstr "MySQL の派生バージョンから始めるよりは、https://launchpad.net/codership-mysql/0.7 にある wsrep (Write Set REPlication) のパッチを適用したバージョンの MySQL をインストールするとよいでしょう。wsrep API は、同期レプリケーションをサポートするので、OpenStack で高可用性 MySQL を設定するのに適しています。" #: ./doc/high-availability-guide/ha_aa_db/section_ha_aa_db_mysql_galera.xml14(para) msgid "" "Note that the installation requirements call for careful attention. Read the" " guide https://launchpadlibrarian.net/66669857/README-wsrep to " "ensure you follow all the required steps." msgstr "インストール要件は注意を要することに気をつけてください。すべての必要な手順を確実に満たすために、https://launchpadlibrarian.net/66669857/README-wsrep のガイドを参照してください。" #: ./doc/high-availability-guide/ha_aa_db/section_ha_aa_db_mysql_galera.xml19(title) msgid "Installing Galera through a MySQL version patched for wsrep:" msgstr "wsrep 用パッチ適用済み MySQL バージョンの Galera をインストールします。" #: ./doc/high-availability-guide/ha_aa_db/section_ha_aa_db_mysql_galera.xml22(para) msgid "" "Download Galera from https://launchpad.net/galera/+download," " and install the *.rpms or *.debs, which takes care of any dependencies that" " your system doesn’t already have installed." msgstr "Galera を https://launchpad.net/galera/+download からダウンロードします。そして、システムにまだインストールされていない依存パッケージに注意しながら、*.rpms または *.debs をインストールします。" #: ./doc/high-availability-guide/ha_aa_db/section_ha_aa_db_mysql_galera.xml29(para) msgid "Adjust the configuration:" msgstr "設定を調整します。" #: ./doc/high-availability-guide/ha_aa_db/section_ha_aa_db_mysql_galera.xml32(para) msgid "" "In the system-wide my.conf file, make sure mysqld isn’t" " bound to 127.0.0.1, and that /etc/mysql/conf.d/ is " "included. Typically you can find this file at " "/etc/my.cnf:" msgstr "システム全体の my.conf ファイルで、mysqld が 127.0.0.1 に制限されておらず、/etc/mysql/conf.d/ がインクルードされることを確認します。このファイルは一般的に /etc/my.cnf にあります。" #: ./doc/high-availability-guide/ha_aa_db/section_ha_aa_db_mysql_galera.xml40(para) msgid "" "When adding a new node, you must configure it with a MySQL account that can " "access the other nodes. The new node must be able to request a state " "snapshot from one of the existing nodes:" msgstr "新しいノードを追加するとき、他のノードにアクセスできる MySQL アカウントを用いて設定する必要があります。新しいノードは、既存のノードのどれかから、状態に関するスナップショットを実行できるようにするためです。" #: ./doc/high-availability-guide/ha_aa_db/section_ha_aa_db_mysql_galera.xml45(para) msgid "" "Specify your MySQL account information in " "/etc/mysql/conf.d/wsrep.cnf:" msgstr "/etc/mysql/conf.d/wsrep.cnf に MySQL アカウント情報を指定します。" #: ./doc/high-availability-guide/ha_aa_db/section_ha_aa_db_mysql_galera.xml51(para) msgid "Connect as root and grant privileges to that user:" msgstr "root として接続し、そのユーザーに権限を与えます。" #: ./doc/high-availability-guide/ha_aa_db/section_ha_aa_db_mysql_galera.xml57(para) msgid "" "Remove user accounts with empty user names because they cause problems:" msgstr "また、問題を引き起こす可能性があるので、空のユーザー名を用いてユーザーアカウントを削除します。" #: ./doc/high-availability-guide/ha_aa_db/section_ha_aa_db_mysql_galera.xml63(para) msgid "" "Set up certain mandatory configuration options within MySQL itself. These " "include:" msgstr "MySQL 自身の中で特定の必須設定オプションを設定します。これらには次のものがあります。" #: ./doc/high-availability-guide/ha_aa_db/section_ha_aa_db_mysql_galera.xml74(para) msgid "" "Check that the nodes can access each other through the firewall. Depending " "on your environment, this might mean adjusting iptables, as in:" msgstr "最後に、ノードがファイアウォール越しにお互いにアクセスできることを確認します。お使いの環境によっては、次のような iptables の調整を意味するかもしれません。" #: ./doc/high-availability-guide/ha_aa_db/section_ha_aa_db_mysql_galera.xml84(para) msgid "" "This might also mean configuring any NAT firewall between nodes to allow " "direct connections. You might need to disable SELinux, or configure it to " "allow mysqld to listen to sockets at unprivileged ports." msgstr "直接通信を許可するためにノード間の NAT ファイアウォールを設定することを意味するかもしれません。SELinux を無効化する必要があるかもしれません。または、mysqld が非特権ポートでソケットをリッスンできるよう設定する必要があるかもしれません。" #: ./doc/high-availability-guide/ha_aa_db/section_ha_aa_db_mysql_galera.xml89(para) msgid "Now you’re ready to create the cluster." msgstr "これでクラスターを作成する準備ができました。" #: ./doc/high-availability-guide/ha_aa_db/section_ha_aa_db_mysql_galera.xml92(title) msgid "Create the cluster" msgstr "クラスターの作成" #: ./doc/high-availability-guide/ha_aa_db/section_ha_aa_db_mysql_galera.xml94(para) msgid "" "In creating a cluster, you first start a single instance, which creates the " "cluster. The rest of the MySQL instances then connect to that cluster:" msgstr "クラスターを作成するとき、クラスターを作成する、単独のインスタンスをまず起動します。MySQL インスタンスの残りはそのクラスターに接続します。" #: ./doc/high-availability-guide/ha_aa_db/section_ha_aa_db_mysql_galera.xml99(title) msgid "An example of creating the cluster:" msgstr "クラスター作成の例:" #: ./doc/high-availability-guide/ha_aa_db/section_ha_aa_db_mysql_galera.xml102(para) msgid "" "Start on the first node having IP address 10.0.0.10 by " "executing the command:" msgstr "" #: ./doc/high-availability-guide/ha_aa_db/section_ha_aa_db_mysql_galera.xml110(para) msgid "" "Connect to that cluster on the rest of the nodes by referencing the address " "of that node, as in:" msgstr "次のとおり、そのノードを参照することにより、残りのノードからそのクラスターに接続します。" #: ./doc/high-availability-guide/ha_aa_db/section_ha_aa_db_mysql_galera.xml117(para) msgid "" "You also have the option to set the wsrep_cluster_address" " in the /etc/mysql/conf.d/wsrep.cnf file, or within the" " client itself. (In fact, for some systems, such as MariaDB or Percona, this" " may be your only option.)" msgstr "/etc/mysql/conf.d/wsrep.cnf ファイル、またはクライアント自身の中に wsrep_cluster_address を設定できます。(実際、MariaDB や Percona のようないくつかのシステムは、これが唯一の選択肢になるでしょう。) " #: ./doc/high-availability-guide/ha_aa_db/section_ha_aa_db_mysql_galera.xml123(title) msgid "An example of checking the status of the cluster." msgstr "クラスターの状態の確認例。" #: ./doc/high-availability-guide/ha_aa_db/section_ha_aa_db_mysql_galera.xml126(para) msgid "Open the MySQL client and check the status of the various parameters:" msgstr "MySQL クライアントを開き、さまざまなパラメーターの状態を確認します。" #: ./doc/high-availability-guide/ha_aa_db/section_ha_aa_db_mysql_galera.xml133(para) msgid "You should see a status that looks something like this:" msgstr "このように見える状態を確認すべきです。" #: ./doc/high-availability-guide/ha_aa_db/section_other_ways_to_provide_a_highly_available_database.xml7(title) msgid "Other ways to provide a highly available database" msgstr "高可用性データベースを提供する別の方法" #: ./doc/high-availability-guide/ha_aa_db/section_other_ways_to_provide_a_highly_available_database.xml9(para) msgid "" "MySQL with Galera is by no means the only way to achieve database HA. " "MariaDB (https://mariadb.org/) " "and Percona (http://www.percona.com/) also work " "with Galera. You also have the option to use PostgreSQL, which has its own " "replication, or another database HA option." msgstr "MySQL/Galera は、データベースを高可用化する唯一の方法ではありません。MariaDB (https://mariadb.org/) や Percona (http://www.percona.com/) も Galera と一緒に動作します。PostgreSQL を使用することもできます。独自のレプリケーション機能や他のデータベース高可用化の方法があります。" #: ./doc/high-availability-guide/ha_aa_network/section_run_neutron_l3_agent.xml7(title) msgid "Run neutron L3 agent" msgstr "Neutron L3 エージェントの実行" #: ./doc/high-availability-guide/ha_aa_network/section_run_neutron_l3_agent.xml9(para) msgid "" "The neutron L3 agent is scalable thanks to the scheduler that allows " "distribution of virtual routers across multiple nodes. But there is no " "native feature to make these routers highly available. At this time, the " "Active / Passive solution exists to run the Neutron L3 agent in failover " "mode with Pacemaker. See the Active / Passive section of this guide." msgstr "仮想ルーターを複数のノードに渡り配布できるスケジューラーのおかげで、Neutron L3 エージェントがスケール可能になりました。しかし、これらのルーターを高可用性にする独自の機能はありません。今のところ、Pacemaker のフェイルオーバーモードで Neutron L3 エージェントを実行させる、アクティブ / パッシブのソリューションがあります。このガイドのアクティブ / パッシブのセクションを参照ください。" #: ./doc/high-availability-guide/ha_aa_network/section_run_neutron_metadata_agent.xml7(title) msgid "Run neutron metadata agent" msgstr "Neutron メタデータエージェントの実行" #: ./doc/high-availability-guide/ha_aa_network/section_run_neutron_metadata_agent.xml9(para) msgid "" "There is no native feature to make this service highly available. At this " "time, the Active / Passive solution exists to run the neutron metadata agent" " in failover mode with Pacemaker. See the Active / Passive section of this " "guide." msgstr "このサービスを高可用性にする独自の機能はありません。今のところ、Pacemaker のフェイルオーバーモードで Neutron メタデータエージェントを実行させる、アクティブ / パッシブのソリューションがあります。このガイドのアクティブ / パッシブのセクションを参照ください。" #: ./doc/high-availability-guide/ha_aa_network/section_run_neutron_dhcp_agent.xml7(title) msgid "Run neutron DHCP agent" msgstr "Neutron DHCP エージェントの実行" #: ./doc/high-availability-guide/ha_aa_network/section_run_neutron_dhcp_agent.xml9(para) msgid "" "OpenStack Networking service has a scheduler that lets you run multiple " "agents across nodes. Also, the DHCP agent can be natively highly available. " "For details, see OpenStack Configuration " "Reference." msgstr "OpenStack Networking Service はノードをまたがり複数のエージェントを実行できるスケジューラーがあります。また、DHCP エージェントはネイティブで高可用性にできます。詳細は OpenStack 設定リファレンスを参照してください。" #: ./doc/high-availability-guide/api/section_cinder_api.xml7(title) msgid "Highly available Block Storage API" msgstr "高可用性 Block Storage API" #: ./doc/high-availability-guide/api/section_cinder_api.xml9(para) msgid "" "Making the Block Storage (cinder) API service highly available in active / " "passive mode involves" msgstr "Block Storage (cinder) API サービスのアクティブ / パッシブモードでの高可用化" #: ./doc/high-availability-guide/api/section_cinder_api.xml12(para) msgid "Configure Block Storage to listen on the VIP address," msgstr "Block Storage がその仮想 IP アドレスをリッスンする設定" #: ./doc/high-availability-guide/api/section_cinder_api.xml17(para) msgid "managing Block Storage API daemon with the Pacemaker cluster manager," msgstr "Pacemaker クラスターマネージャーを用いた Block Storage API デーモンの管理" #: ./doc/high-availability-guide/api/section_cinder_api.xml22(para) #: ./doc/high-availability-guide/api/section_glance_api.xml23(para) #: ./doc/high-availability-guide/api/section_keystone.xml23(para) msgid "Configure OpenStack services to use this IP address." msgstr "OpenStack のサービスがこの IP アドレスを使用するよう設定します。" #: ./doc/high-availability-guide/api/section_cinder_api.xml28(para) msgid "" "Here is the documentation for " "installing Block Storage service." msgstr "ここに Block Storage のインストールに関するドキュメントがあります。" #: ./doc/high-availability-guide/api/section_cinder_api.xml34(title) msgid "Add Block Storage API resource to Pacemaker" msgstr "Block Storage API リソースの Pacemaker への追加" #: ./doc/high-availability-guide/api/section_cinder_api.xml36(para) #: ./doc/high-availability-guide/api/section_glance_api.xml35(para) #: ./doc/high-availability-guide/api/section_neutron_server.xml35(para) #: ./doc/high-availability-guide/api/section_ceilometer_agent_central.xml27(para) #: ./doc/high-availability-guide/api/section_keystone.xml35(para) #: ./doc/high-availability-guide/network/section_highly_available_neutron_metadata_agent.xml15(para) #: ./doc/high-availability-guide/network/section_highly_available_neutron_l3_agent.xml19(para) #: ./doc/high-availability-guide/network/section_highly_available_neutron_dhcp_agent.xml19(para) msgid "First of all, you need to download the resource agent to your system:" msgstr "まず初めに、リソースエージェントをシステムにダウンロードする必要があります。" #: ./doc/high-availability-guide/api/section_cinder_api.xml40(para) msgid "" "You can now add the Pacemaker configuration for Block Storage API resource. " "Connect to the Pacemaker cluster with crm configure, and " "add the following cluster resources:" msgstr "Block Storage API リソース用の Pacemaker 設定を追加できます。crm configure を用いて Pacemaker クラスターに接続し、以下のクラスターリソースを追加します。" #: ./doc/high-availability-guide/api/section_cinder_api.xml47(para) #: ./doc/high-availability-guide/api/section_glance_api.xml45(para) #: ./doc/high-availability-guide/api/section_ceilometer_agent_central.xml37(para) #: ./doc/high-availability-guide/controller/section_rabbitmq.xml191(para) #: ./doc/high-availability-guide/controller/section_mysql.xml203(para) #: ./doc/high-availability-guide/network/section_highly_available_neutron_metadata_agent.xml26(para) #: ./doc/high-availability-guide/network/section_highly_available_neutron_l3_agent.xml30(para) msgid "This configuration creates" msgstr "この設定により、次のものが作成されます。" #: ./doc/high-availability-guide/api/section_cinder_api.xml50(para) msgid "" "p_cinder-api, a resource for manage Block Storage API " "service" msgstr "p_cinder-api, Block Storage API サービスを管理するためのリソース" #: ./doc/high-availability-guide/api/section_cinder_api.xml54(para) msgid "" "crm configure supports batch input, so you may copy and " "paste the above into your live pacemaker configuration, and then make " "changes as required. For example, you may enter edit p_ip_cinder-" "api from the crm configure menu and edit the " "resource to match your preferred virtual IP address." msgstr "crm configure はバッチ入力をサポートします。そのため、現在の pacemaker 設定の中に上をコピー・ペーストし、適宜変更を反映できます。たとえば、お好みの仮想 IP アドレスに一致させるために、crm configure メニューから edit p_ip_cinder-api と入力し、リソースを編集できます。" #: ./doc/high-availability-guide/api/section_cinder_api.xml59(para) msgid "" "Once completed, commit your configuration changes by entering " "commit from the crm configure menu. " "Pacemaker will then start the Block Storage API service, and its dependent " "resources, on one of your nodes." msgstr "完了すると、crm configure メニューから commit と入力し、設定の変更をコミットします。Pacemaker は Block Storage API サービスおよび依存するリソースを同じノードに起動します。" #: ./doc/high-availability-guide/api/section_cinder_api.xml65(title) msgid "Configure Block Storage API service" msgstr "Block Storage API サービスの設定" #: ./doc/high-availability-guide/api/section_cinder_api.xml67(para) msgid "Edit /etc/cinder/cinder.conf:" msgstr "/etc/cinder/cinder.conf を編集します。" #: ./doc/high-availability-guide/api/section_cinder_api.xml80(title) msgid "Configure OpenStack services to use highly available Block Storage API" msgstr "高可用性 Block Storage API を使用するための OpenStack サービスの設定" #: ./doc/high-availability-guide/api/section_cinder_api.xml82(para) msgid "" "Your OpenStack services must now point their Block Storage API configuration" " to the highly available, virtual cluster IP address — rather than a Block " "Storage API server’s physical IP address as you normally would." msgstr "OpenStack サービスは、通常どおり Block Storage API サーバーの物理 IP アドレスを指定する代わりに、Block Storage API の設定が高可用性と仮想クラスター IP アドレスを指し示す必要があります。" #: ./doc/high-availability-guide/api/section_cinder_api.xml85(para) msgid "You must create the Block Storage API endpoint with this IP." msgstr "この IP を用いて Block Storage API エンドポイントを作成する必要があります。" #: ./doc/high-availability-guide/api/section_cinder_api.xml87(para) msgid "" "If you are using both private and public IP, you should create two Virtual " "IPs and define your endpoint like this:" msgstr "プライベート IP とパブリック IP の両方を使用する場合、2 つの仮想 IP アドレスを作成し、次のようにエンドポイントを定義すべきです。" #: ./doc/high-availability-guide/api/section_api_pacemaker.xml7(title) msgid "Configure Pacemaker group" msgstr "Pacemaker グループの設定" #: ./doc/high-availability-guide/api/section_api_pacemaker.xml9(para) msgid "" "Finally, we need to create a service group to ensure that" " the virtual IP is linked to the API services resources:" msgstr "" #: ./doc/high-availability-guide/api/section_glance_api.xml7(title) msgid "Highly available OpenStack Image API" msgstr "高可用性 OpenStack Image API" #: ./doc/high-availability-guide/api/section_glance_api.xml9(para) msgid "" "OpenStack Image Service offers a service for discovering, registering, and " "retrieving virtual machine images. To make the OpenStack Image API service " "highly available in active / passive mode, you must:" msgstr "OpenStack Image Service は仮想マシンイメージの検索、登録、取得に関するサービスを提供します。OpenStack Image API サービスをアクティブ / パッシブモードで高可用性にするために、以下を実行する必要があります。" #: ./doc/high-availability-guide/api/section_glance_api.xml13(para) msgid "Configure OpenStack Image to listen on the VIP address." msgstr "OpenStack Image がその仮想 IP アドレスをリッスンするよう設定します。" #: ./doc/high-availability-guide/api/section_glance_api.xml18(para) msgid "Manage OpenStack Image API daemon with the Pacemaker cluster manager." msgstr "Pacemaker クラスターマネージャーを用いた OpenStack Image API デーモンを管理します。" #: ./doc/high-availability-guide/api/section_glance_api.xml29(para) msgid "" "Here is the documentation for " "installing the OpenStack Image API service." msgstr "" #: ./doc/high-availability-guide/api/section_glance_api.xml33(title) msgid "Add OpenStack Image API resource to Pacemaker" msgstr "OpenStack Image API リソースの Pacemaker への追加" #: ./doc/high-availability-guide/api/section_glance_api.xml39(para) msgid "" "You can now add the Pacemaker configuration for OpenStack Image API " "resource. Connect to the Pacemaker cluster with crm " "configure, and add the following cluster resources:" msgstr "OpenStack Image API リソース用の Pacemaker 設定を追加できます。crm configure を用いて Pacemaker クラスターに接続し、以下のクラスターリソースを追加します。" #: ./doc/high-availability-guide/api/section_glance_api.xml48(para) msgid "" "p_glance-api, a resource for managing OpenStack Image API" " service" msgstr "" #: ./doc/high-availability-guide/api/section_glance_api.xml52(para) msgid "" "crm configure supports batch input, so you may copy and " "paste the above into your live Pacemaker configuration, and then make " "changes as required. For example, you may enter edit p_ip_glance-" "api from the crm configure menu and edit the " "resource to match your preferred virtual IP address." msgstr "" #: ./doc/high-availability-guide/api/section_glance_api.xml57(para) msgid "" "Once completed, commit your configuration changes by entering " "commit from the crm configure menu. " "Pacemaker will then start the OpenStack Image API service, and its dependent" " resources, on one of your nodes." msgstr "完了すると、crm configure メニューから commit と入力し、設定の変更をコミットします。Pacemaker は OpenStack Image API サービスおよび依存するリソースを同じノードに起動します。" #: ./doc/high-availability-guide/api/section_glance_api.xml63(title) msgid "Configure OpenStack Image Service API" msgstr "OpenStack Image Service API の設定" #: ./doc/high-availability-guide/api/section_glance_api.xml65(para) msgid "Edit /etc/glance/glance-api.conf:" msgstr "/etc/glance/glance-api.conf を編集します。" #: ./doc/high-availability-guide/api/section_glance_api.xml81(title) msgid "Configure OpenStack services to use high available OpenStack Image API" msgstr "高可用性 OpenStack Image Service API を使用するための OpenStack サービスの設定" #: ./doc/high-availability-guide/api/section_glance_api.xml83(para) msgid "" "Your OpenStack services must now point their OpenStack Image API " "configuration to the highly available, virtual cluster IP address — rather " "than an OpenStack Image API server’s physical IP address as you normally " "would." msgstr "OpenStack サービスは、通常どおり OpenStack Image API サーバーの物理 IP アドレスを指定する代わりに、OpenStack Image API の設定が高可用性と仮想クラスター IP アドレスを指し示す必要があります。" #: ./doc/high-availability-guide/api/section_glance_api.xml86(para) msgid "" "For OpenStack Compute, for example, if your OpenStack Image API service IP " "address is 192.168.42.103 as in the configuration explained here, you would " "use the following line in your nova.conf file:" msgstr "" #: ./doc/high-availability-guide/api/section_glance_api.xml90(para) msgid "You must also create the OpenStack Image API endpoint with this IP." msgstr "この IP を用いて OpenStack Image API エンドポイントを作成する必要があります。" #: ./doc/high-availability-guide/api/section_glance_api.xml92(para) #: ./doc/high-availability-guide/api/section_neutron_server.xml86(para) msgid "" "If you are using both private and public IP addresses, you should create two" " Virtual IP addresses and define your endpoint like this:" msgstr "プライベート IP とパブリック IP の両方を使用する場合、2 つの仮想 IP アドレスを作成し、次のようにエンドポイントを定義すべきです。" #: ./doc/high-availability-guide/api/section_neutron_server.xml7(title) msgid "Highly available OpenStack Networking server" msgstr "高可用性 OpenStack Networking サーバー" #: ./doc/high-availability-guide/api/section_neutron_server.xml9(para) msgid "" "OpenStack Networking is the network connectivity service in OpenStack. " "Making the OpenStack Networking Server service highly available in active / " "passive mode involves the following tasks:" msgstr "" #: ./doc/high-availability-guide/api/section_neutron_server.xml13(para) msgid "Configure OpenStack Networking to listen on the virtual IP address," msgstr "OpenStack Networking が仮想 IP アドレスをリッスンするよう設定します。" #: ./doc/high-availability-guide/api/section_neutron_server.xml18(para) msgid "" "Manage the OpenStack Networking API Server daemon with the Pacemaker cluster" " manager," msgstr "" #: ./doc/high-availability-guide/api/section_neutron_server.xml23(para) msgid "Configure OpenStack services to use the virtual IP address." msgstr "OpenStack のサービスが仮想 IP アドレスを使用するよう設定します。" #: ./doc/high-availability-guide/api/section_neutron_server.xml29(para) msgid "" "Here is the documentation for " "installing OpenStack Networking service." msgstr "ここに OpenStack Networking Service をインストールするためのドキュメントがあります。" #: ./doc/high-availability-guide/api/section_neutron_server.xml33(title) msgid "Add OpenStack Networking Server resource to Pacemaker" msgstr "OpenStack Networking Server リソースの Pacemaker への追加" #: ./doc/high-availability-guide/api/section_neutron_server.xml39(para) msgid "" "You can now add the Pacemaker configuration for OpenStack Networking Server " "resource. Connect to the Pacemaker cluster with crm " "configure, and add the following cluster resources:" msgstr "OpenStack Networking Server リソース用の Pacemaker 設定を追加できます。crm configure を用いて Pacemaker クラスターに接続し、以下のクラスターリソースを追加します。" #: ./doc/high-availability-guide/api/section_neutron_server.xml46(para) msgid "" "This configuration creates p_neutron-server, a resource " "for manage OpenStack Networking Server service" msgstr "この設定は OpenStack Networking サーバーサービスを管理するためのリソース p_neutron-server を作成します。" #: ./doc/high-availability-guide/api/section_neutron_server.xml47(para) msgid "" "crm configure supports batch input, so you may copy and " "paste the above into your live pacemaker configuration, and then make " "changes as required. For example, you may enter edit p_neutron-" "server from the crm configure menu and edit the" " resource to match your preferred virtual IP address." msgstr "crm configure はバッチ入力をサポートします。そのため、現在の pacemaker 設定の中に上をコピー・ペーストし、適宜変更を反映できます。たとえば、お好みの仮想 IP アドレスに一致させるために、crm configure メニューから edit p_neutron-server と入力し、リソースを編集できます。" #: ./doc/high-availability-guide/api/section_neutron_server.xml52(para) msgid "" "Once completed, commit your configuration changes by entering " "commit from the crm configure menu. " "Pacemaker will then start the OpenStack Networking API service, and its " "dependent resources, on one of your nodes." msgstr "完了すると、crm configure メニューから commit と入力し、設定の変更をコミットします。Pacemaker は OpenStack Networking API サービスおよび依存するリソースを同じノードに起動します。" #: ./doc/high-availability-guide/api/section_neutron_server.xml58(title) msgid "Configure OpenStack Networking server" msgstr "OpenStack Networking Server の設定" #: ./doc/high-availability-guide/api/section_neutron_server.xml60(para) msgid "Edit /etc/neutron/neutron.conf:" msgstr "/etc/neutron/neutron.conf を編集します。" #: ./doc/high-availability-guide/api/section_neutron_server.xml77(title) msgid "" "Configure OpenStack services to use highly available OpenStack Networking " "server" msgstr "高可用性 OpenStack Networking を使用するための OpenStack サービスの設定" #: ./doc/high-availability-guide/api/section_neutron_server.xml79(para) msgid "" "Your OpenStack services must now point their OpenStack Networking Server " "configuration to the highly available, virtual cluster IP address — rather " "than an OpenStack Networking server’s physical IP address as you normally " "would." msgstr "OpenStack サービスは、通常どおり OpenStack Networking サーバーの物理 IP アドレスを指定する代わりに、OpenStack Networking サーバーの設定が高可用性と仮想クラスター IP アドレスを指し示す必要があります。" #: ./doc/high-availability-guide/api/section_neutron_server.xml82(para) msgid "" "For example, you should configure OpenStack Compute for using highly " "available OpenStack Networking server in editing " "nova.conf file:" msgstr "たとえば、高可用性 Networking サーバーを使用するために、nova.conf ファイルを編集して OpenStack Compute を設定する必要があります :" #: ./doc/high-availability-guide/api/section_neutron_server.xml84(para) msgid "" "You need to create the OpenStack Networking server endpoint with this IP." msgstr "この IP を用いて OpenStack Networking Server エンドポイントを作成する必要があります。" #: ./doc/high-availability-guide/api/section_ceilometer_agent_central.xml7(title) msgid "Highly available Telemetry central agent" msgstr "高可用性 Telemetry 中央エージェント" #: ./doc/high-availability-guide/api/section_ceilometer_agent_central.xml9(para) msgid "" "Telemetry (ceilometer) is the metering and monitoring service in OpenStack. " "The Central agent polls for resource utilization statistics for resources " "not tied to instances or compute nodes." msgstr "Telemetry (ceilometer) は OpenStack のメータリングとモニタリングのサービスです。中央エージェントは、インスタンスやコンピュートノードに結びつけられていないリソースに対して、リソースの利用状況の統計情報を収集します。" #: ./doc/high-availability-guide/api/section_ceilometer_agent_central.xml13(para) msgid "" "Due to limitations of a polling model, a single instance of this agent can " "be polling a given list of meters. In this setup, we install this service on" " the API nodes also in the active / passive mode." msgstr "収集モデルの制限により、このエージェントの単一のインスタンスが指定された一覧の利用状況を収集できます。このセットアップの場合、このサービスもアクティブ / パッシブモードで API ノードにインストールします。" #: ./doc/high-availability-guide/api/section_ceilometer_agent_central.xml17(para) msgid "" "Making the Telemetry central agent service highly available in active / " "passive mode involves managing its daemon with the Pacemaker cluster " "manager." msgstr "Telemetry 中央エージェントサービスをアクティブ / パッシブモードで高可用性にすることは、Pacemaker クラスターマネージャーでそのデーモンを管理することが関連します。" #: ./doc/high-availability-guide/api/section_ceilometer_agent_central.xml20(para) msgid "" "You will find at this page the process to install the " "Telemetry central agent." msgstr "Telemetry 中央エージェントをインストールする手順がこのページにあります。" #: ./doc/high-availability-guide/api/section_ceilometer_agent_central.xml25(title) msgid "Add the Telemetry central agent resource to Pacemaker" msgstr "Telemetry 中央エージェントリソースの Pacemaker への追加" #: ./doc/high-availability-guide/api/section_ceilometer_agent_central.xml31(para) msgid "" "You may then proceed with adding the Pacemaker configuration for the " "Telemetry central agent resource. Connect to the Pacemaker cluster with " "crm configure, and add the following cluster resources:" msgstr "Telemetry 中央エージェントリソース用の Pacemaker 設定を追加して、次に進むことができます。crm configure を用いて Pacemaker クラスターに接続し、以下のクラスターリソースを追加します。" #: ./doc/high-availability-guide/api/section_ceilometer_agent_central.xml40(para) msgid "" "p_ceilometer-agent-central, a resource for manage " "Ceilometer Central Agent service" msgstr "p_ceilometer-agent-central, Ceilometer 中央エージェントサービスを管理するためのリソース。" #: ./doc/high-availability-guide/api/section_ceilometer_agent_central.xml44(para) #: ./doc/high-availability-guide/network/section_highly_available_neutron_l3_agent.xml37(para) #: ./doc/high-availability-guide/network/section_highly_available_neutron_dhcp_agent.xml37(para) msgid "" "crm configure supports batch input, so you may copy and " "paste the above into your live pacemaker configuration, and then make " "changes as required." msgstr "crm configure はバッチ入力をサポートします。そのため、現在の pacemaker 設定の中に上をコピー・ペーストし、適宜変更を反映できます。" #: ./doc/high-availability-guide/api/section_ceilometer_agent_central.xml47(para) msgid "" "Once completed, commit your configuration changes by entering " "commit from the crm configure menu. " "Pacemaker will then start the Ceilometer Central Agent service, and its " "dependent resources, on one of your nodes." msgstr "完了すると、crm configure メニューから commit と入力し、設定の変更をコミットします。Pacemaker は Ceilometer 中央エージェント サービスおよび依存するリソースを同じノードに起動します。" #: ./doc/high-availability-guide/api/section_ceilometer_agent_central.xml53(title) msgid "Configure Telemetry central agent service" msgstr "Telemetry 中央エージェントサービスの設定" #: ./doc/high-availability-guide/api/section_ceilometer_agent_central.xml55(para) msgid "Edit /etc/ceilometer/ceilometer.conf:" msgstr "/etc/ceilometer/ceilometer.conf を編集します。" #: ./doc/high-availability-guide/api/section_keystone.xml7(title) msgid "Highly available OpenStack Identity" msgstr "高可用性 OpenStack Identity" #: ./doc/high-availability-guide/api/section_keystone.xml9(para) msgid "" "OpenStack Identity is the Identity Service in OpenStack and used by many " "services. Making the OpenStack Identity service highly available in active /" " passive mode involves" msgstr "OpenStack Identity は OpenStack における認証サービスです。OpenStack Identity Service をアクティブ / パッシブモードで高可用性にすることは、次のことが関連します。" #: ./doc/high-availability-guide/api/section_keystone.xml13(para) msgid "Configure OpenStack Identity to listen on the VIP address," msgstr "OpenStack Identity がその仮想 IP アドレスでリッスンするよう設定します。" #: ./doc/high-availability-guide/api/section_keystone.xml18(para) msgid "managing OpenStack Identity daemon with the Pacemaker cluster manager," msgstr "Pacemaker クラスターマネージャーを用いた OpenStack Identity デーモンの管理" #: ./doc/high-availability-guide/api/section_keystone.xml29(para) msgid "" "Here is the documentation for " "installing OpenStack Identity service." msgstr "ここに OpenStack Identity Service をインストールするためのドキュメントがあります。" #: ./doc/high-availability-guide/api/section_keystone.xml33(title) msgid "Add OpenStack Identity resource to Pacemaker" msgstr "OpenStack Identity リソースの Pacemaker への追加" #: ./doc/high-availability-guide/api/section_keystone.xml41(para) msgid "" "You can now add the Pacemaker configuration for OpenStack Identity resource." " Connect to the Pacemaker cluster with crm configure, and" " add the following cluster resources:" msgstr "OpenStack Identity リソース用の Pacemaker 設定を追加できます。crm configure を用いて Pacemaker クラスターに接続し、以下のクラスターリソースを追加します。" #: ./doc/high-availability-guide/api/section_keystone.xml47(para) msgid "" "This configuration creates p_keystone, a resource for " "managing the OpenStack Identity service." msgstr "この設定は OpenStack Identity サービスを管理するためのリソース p_keystone を作成します。" #: ./doc/high-availability-guide/api/section_keystone.xml48(para) msgid "" "crm configure supports batch input, so you may copy and " "paste the above into your live pacemaker configuration, and then make " "changes as required. For example, you may enter edit " "p_ip_keystone from the crm configure menu and " "edit the resource to match your preferred virtual IP address." msgstr "crm configure はバッチ入力をサポートします。そのため、現在の pacemaker 設定の中に上をコピー・ペーストし、適宜変更を反映できます。たとえば、お好みの仮想 IP アドレスに一致させるために、crm configure メニューから edit p_ip_keystone と入力し、リソースを編集できます。" #: ./doc/high-availability-guide/api/section_keystone.xml53(para) msgid "" "Once completed, commit your configuration changes by entering " "commit from the crm configure menu. " "Pacemaker will then start the OpenStack Identity service, and its dependent " "resources, on one of your nodes." msgstr "完了すると、crm configure メニューから commit と入力し、設定の変更をコミットします。Pacemaker は OpenStack Identity サービスおよび依存するリソースを同じノードに起動します。" #: ./doc/high-availability-guide/api/section_keystone.xml59(title) msgid "Configure OpenStack Identity service" msgstr "OpenStack Identity Service の設定" #: ./doc/high-availability-guide/api/section_keystone.xml61(para) msgid "" "You need to edit your OpenStack Identity configuration file " "(keystone.conf) and change the bind parameters:" msgstr "OpenStack Identity の設定ファイル (keystone.conf) を編集し、バインドのパラメーターを変更する必要があります。" #: ./doc/high-availability-guide/api/section_keystone.xml62(para) msgid "On Havana:" msgstr "Havana の場合:" #: ./doc/high-availability-guide/api/section_keystone.xml64(para) msgid "" "On Icehouse, the admin_bind_host option lets you use a " "private network for the admin access." msgstr "Icehouse の場合、admin_bind_host オプションにより管理アクセス用のプライベートネットワークを使用できます。" #: ./doc/high-availability-guide/api/section_keystone.xml67(para) msgid "" "To be sure all data will be highly available, you should be sure that you " "store everything in the MySQL database (which is also highly available):" msgstr "確実にすべてのデータが高可用性にするために、確実にすべてのものを (高可用性な) MySQL データベースに保存すべきです。" #: ./doc/high-availability-guide/api/section_keystone.xml77(title) msgid "" "Configure OpenStack services to use the highly available OpenStack Identity" msgstr "高可用性 OpenStack Identity を使用するための OpenStack サービスの設定" #: ./doc/high-availability-guide/api/section_keystone.xml79(para) msgid "" "Your OpenStack services must now point their OpenStack Identity " "configuration to the highly available, virtual cluster IP address — rather " "than a OpenStack Identity server’s physical IP address as you normally " "would." msgstr "OpenStack サービスは、通常どおり OpenStack Identity サーバーの物理 IP アドレスを指定する代わりに、OpenStack Identity サーバーの設定が高可用性と仮想クラスター IP アドレスを指し示す必要があります。" #: ./doc/high-availability-guide/api/section_keystone.xml82(para) msgid "" "For example with OpenStack Compute, if your OpenStack Identity service IP " "address is 192.168.42.103 as in the configuration explained here, you would " "use the following line in your API configuration file (api-" "paste.ini):" msgstr "OpenStack Compute を用いた例として、OpenStack Identity Service の IP アドレスがここで説明された設定にあるように 192.168.42.103 ならば、API 設定ファイル (api-paste.ini) で以下の行を使用する必要があります。" #: ./doc/high-availability-guide/api/section_keystone.xml87(para) msgid "You also need to create the OpenStack Identity Endpoint with this IP." msgstr "この IP を用いて OpenStack Identity エンドポイントを作成する必要があります。" #: ./doc/high-availability-guide/api/section_keystone.xml88(para) msgid "" "NOTE: If you are using both private and public IP addresses, you should " "create two Virtual IP addresses and define your endpoint like this:" msgstr "注: プライベート IP とパブリック IP の両方を使用する場合、2 つの仮想 IP アドレスを作成し、次のようにエンドポイントを定義すべきです。" #: ./doc/high-availability-guide/api/section_keystone.xml93(para) msgid "" "If you are using the horizon dashboard, you should edit the " "local_settings.py file:" msgstr "Dashboard を使用している場合、local_settings.py ファイルを編集する必要があります。" #: ./doc/high-availability-guide/api/section_api_vip.xml7(title) msgid "Configure the VIP" msgstr "仮想 IP の設定" #: ./doc/high-availability-guide/api/section_api_vip.xml9(para) msgid "" "First, you must select and assign a virtual IP address (VIP) that can freely" " float between cluster nodes." msgstr "まず初めに、クラスターノード間で自由に移動できる仮想 IP アドレス (VIP) を選択して割り当てる必要があります。" #: ./doc/high-availability-guide/api/section_api_vip.xml10(para) msgid "" "This configuration creates p_ip_api, a virtual IP address" " for use by the API node (192.168.42.103):" msgstr "この設定は API ノードにより使用される仮想 IP アドレス (192.168.42.103) p_ip_api を作成します。" #: ./doc/high-availability-guide/controller/section_rabbitmq.xml12(title) msgid "Highly available RabbitMQ" msgstr "高可用性 RabbitMQ" #: ./doc/high-availability-guide/controller/section_rabbitmq.xml14(para) msgid "" "RabbitMQ is the default AMQP server used by many OpenStack services. Making " "the RabbitMQ service highly available involves:" msgstr "RabbitMQ が多くの OpenStack サービスにより使用される標準の AMQP サーバーです。RabbitMQ サービスを高可用性にすることは、次のことが関連します。" #: ./doc/high-availability-guide/controller/section_rabbitmq.xml18(para) msgid "configuring a DRBD device for use by RabbitMQ," msgstr "RabbitMQ により使用するための DRBD デバイスを設定します。" #: ./doc/high-availability-guide/controller/section_rabbitmq.xml23(para) msgid "" "configuring RabbitMQ to use a data directory residing on that DRBD device," msgstr "RabbitMQ が DRBD デバイスにあるデータディレクトリを使用するよう設定します。" #: ./doc/high-availability-guide/controller/section_rabbitmq.xml29(para) msgid "" "selecting and assigning a virtual IP address (VIP) that can freely float " "between cluster nodes," msgstr "クラスターノード間で自由に移動できる仮想 IP アドレス (VIP) を選択して割り当てます。" #: ./doc/high-availability-guide/controller/section_rabbitmq.xml35(para) msgid "configuring RabbitMQ to listen on that IP address," msgstr "RabbitMQ がその IP アドレスでリッスンするよう設定します。" #: ./doc/high-availability-guide/controller/section_rabbitmq.xml40(para) msgid "" "managing all resources, including the RabbitMQ daemon itself, with the " "Pacemaker cluster manager." msgstr "RabbitMQ デーモン自身を含む、すべてのリソースを Pacemaker クラスターマネージャーで管理します。" #: ./doc/high-availability-guide/controller/section_rabbitmq.xml47(para) msgid "" "There is an alternative method of configuring RabbitMQ for high " "availability. That approach, known as active-active mirrored " "queues, happens to be the one preferred by the RabbitMQ " "developershowever it has shown less than ideal consistency and reliability " "in OpenStack clusters. Thus, at the time of writing, the Pacemaker/DRBD " "based approach remains the recommended one for OpenStack environments, " "although this may change in the near future as RabbitMQ active-active " "mirrored queues mature." msgstr "RabbitMQ を高可用性に設定する別の方法があります。この方法は、アクティブ・アクティブのキューのミラーとして知られ、RabbitMQ 開発者に好まれているものです。しかしながら、OpenStack クラスターにおける理想的な一貫性と信頼性よりは劣るものです。そのため、執筆時点では、Pacemaker/DRBD による方法が OpenStack 環境に対する推奨事項として残されています。これは RabbitMQ のアクティブ・アクティブのキューのミラーが成熟すると、近い将来に変更される可能性もあります。" #: ./doc/high-availability-guide/controller/section_rabbitmq.xml59(title) #: ./doc/high-availability-guide/controller/section_mysql.xml56(title) msgid "Configure DRBD" msgstr "DRBD の設定" #: ./doc/high-availability-guide/controller/section_rabbitmq.xml61(para) msgid "" "The Pacemaker based RabbitMQ server requires a DRBD resource from which it " "mounts the /var/lib/rabbitmq directory. In this example, " "the DRBD resource is simply named rabbitmq:" msgstr "Pacemaker ベースの RabbitMQ サーバーは /var/lib/rabbitmq ディレクトリをマウントする DRBD リソースが必要です。この例では、DRBD リソースは単に rabbitmq という名前になっています。" #: ./doc/high-availability-guide/controller/section_rabbitmq.xml66(title) msgid "" "rabbitmq DRBD resource configuration " "(/etc/drbd.d/rabbitmq.res)" msgstr "rabbitmq DRBD リソース設定 (/etc/drbd.d/rabbitmq.res)" #: ./doc/high-availability-guide/controller/section_rabbitmq.xml82(para) msgid "" "This resource uses an underlying local disk (in DRBD terminology, a " "backing device) named " "/dev/data/rabbitmq on both cluster nodes, " "node1 and node2. Normally, this would " "be an LVM Logical Volume specifically set aside for this purpose. The DRBD " "meta-disk is internal, meaning DRBD-" "specific metadata is being stored at the end of the disk " "device itself. The device is configured to communicate between IPv4 " "addresses 10.0.42.100 and 10.0.42.254, using TCP port 7701. Once enabled, it" " will map to a local DRBD block device with the device minor number 1, that " "is, /dev/drbd1." msgstr "このリソースは、両方のクラスターノード node1node2 において、/dev/data/rabbitmq という名前のバックエンドのローカルディスク (DRBD の用語で backing device) を使用します。通常、これはこの目的のために特別に設定された LVM 論理ボリュームでしょう。DRBD meta-diskinternal です。これは DRBD 固有のメタデータが disk デバイス自身の最後に保存されることを意味します。このデバイスは IPv4 アドレス 10.0.42.100 と 10.0.42.254 の間で TCP ポート 7701 を使用して通信するよう設定されます。一度有効化されると、デバイスマイナー番号 1 を持つローカル DRBD ブロックデバイス、つまり /dev/drbd1 にマップされます。" #: ./doc/high-availability-guide/controller/section_rabbitmq.xml91(para) #: ./doc/high-availability-guide/controller/section_mysql.xml88(para) msgid "" "Enabling a DRBD resource is explained in detail in the DRBD " "User’s Guide. In brief, the proper sequence of commands is this:" msgstr "DRBD リソースを有効化する方法は DRBD ユーザーガイド に詳細に説明されています。要約すると、正しいコマンドの流れはこのとおりです。" #: ./doc/high-availability-guide/controller/section_rabbitmq.xml99(para) msgid "" "Initializes DRBD metadata and writes the initial set of metadata to " "/dev/data/rabbitmq. Must be completed on both nodes." msgstr "DRBD メタデータを初期化し、メタデータの初期セットを /dev/data/rabbitmq に書き込みます。両方のノードで完了する必要があります。" #: ./doc/high-availability-guide/controller/section_rabbitmq.xml105(para) msgid "" "Creates the /dev/drbd1 device node, " "attaches the DRBD device to its backing store, and " "connects the DRBD node to its peer. Must be completed " "on both nodes." msgstr "/dev/drbd1 デバイスノードを作成し、DRBD デバイスをそのバックエンドに接続し、DRBD ノードを同期先に接続します。両方のノードで完了する必要があります。" #: ./doc/high-availability-guide/controller/section_rabbitmq.xml112(para) #: ./doc/high-availability-guide/controller/section_mysql.xml109(para) msgid "" "Kicks off the initial device synchronization, and puts the device into the " "primary (readable and writable) role. See Resource " "roles (from the DRBD User’s Guide) for a more detailed description of" " the primary and secondary roles in DRBD. Must be completed on one" " node only, namely the one where you are about to continue with " "creating your filesystem." msgstr "初期デバイス同期を開始し、デバイスを プライマリ (読み書き可能) ロールにします。DRBD のプライマリロールとセカンダリロールの詳細は (DRBD User’s Guide の) Resource roles を参照してください。必ず一つのノードのみで実行する必要があります。つまり、ファイルシステムを作成しようとしているノードのみです。" #: ./doc/high-availability-guide/controller/section_rabbitmq.xml126(title) msgid "Create a file system" msgstr "ファイルシステムの作成" #: ./doc/high-availability-guide/controller/section_rabbitmq.xml128(para) msgid "" "Once the DRBD resource is running and in the primary role (and potentially " "still in the process of running the initial device synchronization), you may" " proceed with creating the filesystem for RabbitMQ data. XFS is generally " "the recommended filesystem:" msgstr "DRBD リソースが実行中になり、プライマリロールになると (まだ初期デバイス同期が実行中かもしれません)、RabbitMQ データのファイルシステムの作成を進められます。XFS が一般的に推奨されるファイルシステムです。" #: ./doc/high-availability-guide/controller/section_rabbitmq.xml133(para) #: ./doc/high-availability-guide/controller/section_mysql.xml130(para) msgid "" "You may also use the alternate device path for the DRBD device, which may be" " easier to remember as it includes the self-explanatory resource name:" msgstr "DRBD デバイスに対する代替デバイスパスを使用することもできます。これは自己説明的なリソース名を含むため、より覚えやすいでしょう。" #: ./doc/high-availability-guide/controller/section_rabbitmq.xml137(para) #: ./doc/high-availability-guide/controller/section_mysql.xml134(para) msgid "" "Once completed, you may safely return the device to the secondary role. Any " "ongoing device synchronization will continue in the background:" msgstr "一度完了すると、デバイスを安全にセカンダリロールに戻せます。すべての動作中のデバイス同期はバックエンドで継続されます。" #: ./doc/high-availability-guide/controller/section_rabbitmq.xml144(title) msgid "Prepare RabbitMQ for Pacemaker high availability" msgstr "Pacemaker 高可用性のための RabbitMQ の準備" #: ./doc/high-availability-guide/controller/section_rabbitmq.xml146(para) msgid "" "In order for Pacemaker monitoring to function properly, you must ensure that" " RabbitMQ’s .erlang.cookie files are identical on all " "nodes, regardless of whether DRBD is mounted there or not. The simplest way " "of doing so is to take an existing .erlang.cookie from " "one of your nodes, copying it to the RabbitMQ data directory on the other " "node, and also copying it to the DRBD-backed filesystem." msgstr "Pacemaker の監視を正しく機能させるために、DRBD がマウントされているかどうかに関わらず、RabbitMQ の .erlang.cookie ファイルをすべてのノードで必ず同じにする必要があります。そうする最も簡単な方法は、どこかのノードから既存の .erlang.cookie を取得し、他のノードの RabbitMQ データディレクトリおよび DRBD のバックエンドファイルシステムにコピーすることです。" #: ./doc/high-availability-guide/controller/section_rabbitmq.xml159(title) msgid "Add RabbitMQ resources to Pacemaker" msgstr "RabbitMQ リソースの Pacemaker への追加" #: ./doc/high-availability-guide/controller/section_rabbitmq.xml161(para) msgid "" "You may now proceed with adding the Pacemaker configuration for RabbitMQ " "resources. Connect to the Pacemaker cluster with crm " "configure, and add the following cluster resources:" msgstr "OpenStack RabbitMQ リソース用の Pacemaker 設定を追加して、次に進むことができます。crm configure を用いて Pacemaker クラスターに接続し、以下のクラスターリソースを追加します。" #: ./doc/high-availability-guide/controller/section_rabbitmq.xml194(para) msgid "" "p_ip_rabbitmq, a virtual IP address for use by RabbitMQ " "(192.168.42.100)," msgstr "p_ip_rabbitmq, RabbitMQ により使用される仮想 IP アドレス (192.168.42.100)," #: ./doc/high-availability-guide/controller/section_rabbitmq.xml199(para) msgid "" "p_fs_rabbitmq, a Pacemaker managed filesystem mounted to " "/var/lib/rabbitmq on whatever node currently runs the " "RabbitMQ service," msgstr "p_fs_rabbitmq, 現在 RabbitMQ サービスを実行している、すべてのノードにおいて /var/lib/rabbitmq にマウントされている、Pacemaker が管理しているファイルシステム。" #: ./doc/high-availability-guide/controller/section_rabbitmq.xml205(para) msgid "" "ms_drbd_rabbitmq, the master/slave " "set managing the rabbitmq DRBD resource," msgstr "ms_drbd_rabbitmq, rabbitmq DRBD リソースを管理しているマスター/スレーブの組。" #: ./doc/high-availability-guide/controller/section_rabbitmq.xml210(para) #: ./doc/high-availability-guide/controller/section_mysql.xml222(para) msgid "" "a service group and order and " "colocation constraints to ensure resources are started on" " the correct nodes, and in the correct sequence." msgstr "リソースが適切なノードにおいて、適切な順序で起動されることを確実にする、サービスの group, order および colocation 制約。" #: ./doc/high-availability-guide/controller/section_rabbitmq.xml216(para) msgid "" "crm configure supports batch input, so you may copy and " "paste the above into your live pacemaker configuration, and then make " "changes as required. For example, you may enter edit " "p_ip_rabbitmq from the crm configure menu and " "edit the resource to match your preferred virtual IP address." msgstr "crm configure はバッチ入力をサポートします。そのため、現在の pacemaker 設定の中に上をコピー・ペーストし、適宜変更を反映できます。たとえば、お好みの仮想 IP アドレスに一致させるために、crm configure メニューから edit p_ip_rabbitmq と入力し、リソースを編集できます。" #: ./doc/high-availability-guide/controller/section_rabbitmq.xml221(para) msgid "" "Once completed, commit your configuration changes by entering " "commit from the crm configure menu. " "Pacemaker will then start the RabbitMQ service, and its dependent resources," " on one of your nodes." msgstr "完了すると、crm configure メニューから commit と入力し、設定の変更をコミットします。Pacemaker は RabbitMQ サービスおよび依存するリソースを同じノードに起動します。" #: ./doc/high-availability-guide/controller/section_rabbitmq.xml227(title) msgid "Configure OpenStack services for highly available RabbitMQ" msgstr "高可用性 RabbitMQ のための OpenStack サービスの設定" #: ./doc/high-availability-guide/controller/section_rabbitmq.xml229(para) msgid "" "Your OpenStack services must now point their RabbitMQ configuration to the " "highly available, virtual cluster IP addressrather than a RabbitMQ server" msgstr "OpenStack サービスは、通常どおり RabbitMQ サーバー代わりに、RabbitMQ の設定が高可用性な仮想クラスター IP アドレスを指し示す必要があります。" #: ./doc/high-availability-guide/controller/section_rabbitmq.xml232(para) msgid "" "For OpenStack Image, for example, if your RabbitMQ service IP address is " "192.168.42.100 as in the configuration explained here, you would use the " "following line in your OpenStack Image API configuration file (glance-api.conf):" msgstr "OpenStack Image の例として、RabbitMQ サーバーの IP アドレスがここで説明された設定にあるように 192.168.42.100 ならば、OpenStack Image API 定ファイル (glance-api.conf) で以下の行を使用する必要があります。" #: ./doc/high-availability-guide/controller/section_rabbitmq.xml237(para) msgid "" "No other changes are necessary to your OpenStack configuration. If the node " "currently hosting your RabbitMQ experiences a problem necessitating service " "failover, your OpenStack services may experience a brief RabbitMQ " "interruption, as they would in the event of a network hiccup, and then " "continue to run normally." msgstr "OpenStack の設定に他の変更は必要ありません。現在 RabbitMQ を稼働しているノードが、サービスのフェイルオーバーを必要とする問題に遭遇した場合、ネットワークの中断と通常どおりの動作継続により、OpenStack のサービスは MySQL の短時間の中断に遭遇するかもしれません。" #: ./doc/high-availability-guide/controller/section_mysql.xml12(title) msgid "Highly available MySQL" msgstr "高可用性 MySQL" #: ./doc/high-availability-guide/controller/section_mysql.xml14(para) msgid "" "MySQL is the default database server used by many OpenStack services. Making" " the MySQL service highly available involves" msgstr "MySQL は多くの OpenStack サービスにより使用される標準のデータベースサーバーです。MySQL サービスを高可用性にするには、次のことが関係します。" #: ./doc/high-availability-guide/controller/section_mysql.xml18(para) msgid "Configure a DRBD device for use by MySQL," msgstr "MySQL により使用するための DRBD デバイスの設定," #: ./doc/high-availability-guide/controller/section_mysql.xml23(para) msgid "Configure MySQL to use a data directory residing on that DRBD device," msgstr "MySQL がこの DRBD デバイスにあるデータディレクトリを使用するよう設定します。" #: ./doc/high-availability-guide/controller/section_mysql.xml29(para) msgid "" "Select and assign a virtual IP address (VIP) that can freely float between " "cluster nodes," msgstr "" #: ./doc/high-availability-guide/controller/section_mysql.xml35(para) msgid "Configure MySQL to listen on that IP address," msgstr "その IP アドレスをリッスンするよう MySQL を設定します。" #: ./doc/high-availability-guide/controller/section_mysql.xml40(para) msgid "" "Manage all resources, including the MySQL daemon itself, with the Pacemaker " "cluster manager." msgstr "" #: ./doc/high-availability-guide/controller/section_mysql.xml47(para) msgid "" "MySQL/Galera is an " "alternative method of configuring MySQL for high availability. It is likely " "to become the preferred method of achieving MySQL high availability once it " "has sufficiently matured. At the time of writing, however, the " "Pacemaker/DRBD based approach remains the recommended one for OpenStack " "environments." msgstr "" #: ./doc/high-availability-guide/controller/section_mysql.xml58(para) msgid "" "The Pacemaker based MySQL server requires a DRBD resource from which it " "mounts the /var/lib/mysql directory. In this example, the" " DRBD resource is simply named mysql:" msgstr "Pacemaker ベースの MySQL サーバーは /var/lib/mysql ディレクトリをマウントする DRBD リソースが必要です。この例では、DRBD リソースが単に mysql という名前になっています。" #: ./doc/high-availability-guide/controller/section_mysql.xml63(title) msgid "" "mysql DRBD resource configuration " "(/etc/drbd.d/mysql.res)" msgstr "mysql DRBD リソース設定 (/etc/drbd.d/mysql.res)" #: ./doc/high-availability-guide/controller/section_mysql.xml79(para) msgid "" "This resource uses an underlying local disk (in DRBD terminology, a " "backing device) named " "/dev/data/mysql on both cluster nodes, " "node1 and node2. Normally, this would " "be an LVM Logical Volume specifically set aside for this purpose. The DRBD " "meta-disk is internal, meaning DRBD-" "specific metadata is being stored at the end of the disk " "device itself. The device is configured to communicate between IPv4 " "addresses 10.0.42.100 and 10.0.42.254, using TCP port 7700. Once enabled, it" " will map to a local DRBD block device with the device minor number 0, that " "is, /dev/drbd0." msgstr "このリソースは、両方のクラスターノード node1node2 において、/dev/data/mysql という名前のバックエンドのローカルディスク (DRBD の用語で backing device) を使用します。通常、これはこの目的のために特別に設定された LVM 論理ボリュームでしょう。DRBD meta-diskinternal です。これは DRBD 固有のメタデータが disk デバイス自身の最後に保存されることを意味します。このデバイスは IPv4 アドレス 10.0.42.100 と 10.0.42.254 の間で TCP ポート 7700 を使用して通信するよう設定されます。一度有効化されると、デバイスマイナー番号 0 を持つローカル DRBD ブロックデバイス、つまり /dev/drbd0 にマップされます。" #: ./doc/high-availability-guide/controller/section_mysql.xml96(para) msgid "" "Initializes DRBD metadata and writes the initial set of metadata to " "/dev/data/mysql. Must be completed on both nodes." msgstr "DRBD メタデータを初期化し、メタデータの初期セットを /dev/data/mysql に書き込みます。両方のノードで完了する必要があります。" #: ./doc/high-availability-guide/controller/section_mysql.xml102(para) msgid "" "Creates the /dev/drbd0 device node, " "attaches the DRBD device to its backing store, and " "connects the DRBD node to its peer. Must be completed " "on both nodes." msgstr "/dev/drbd0 デバイスノードを作成し、DRBD デバイスをそのバックエンドに接続し、DRBD ノードを同期先に接続します。両方のノードで完了する必要があります。" #: ./doc/high-availability-guide/controller/section_mysql.xml123(title) msgid "Creating a file system" msgstr "ファイルシステムの作成" #: ./doc/high-availability-guide/controller/section_mysql.xml125(para) msgid "" "Once the DRBD resource is running and in the primary role (and potentially " "still in the process of running the initial device synchronization), you may" " proceed with creating the filesystem for MySQL data. XFS is the generally " "recommended filesystem due to its journaling, efficient allocation, and " "performance:" msgstr "" #: ./doc/high-availability-guide/controller/section_mysql.xml141(title) msgid "Prepare MySQL for Pacemaker high availability" msgstr "Pacemaker 高可用性のための MySQL の準備" #: ./doc/high-availability-guide/controller/section_mysql.xml143(para) msgid "" "In order for Pacemaker monitoring to function properly, you must ensure that" " MySQL’s database files reside on the DRBD device. If you already have an " "existing MySQL database, the simplest approach is to just move the contents " "of the existing /var/lib/mysql directory into the newly " "created filesystem on the DRBD device." msgstr "Pacemaker の監視を正しく機能させるために、MySQL のデータベースファイルを必ず DRBD デバイスに置く必要があります。既存の MySQL データベースがあれば、最も簡単な方法は、既存の /var/lib/mysql ディレクトリの中身を、DRBD デバイスに新しく作成したファイルシステムにそのまま移動することです。" #: ./doc/high-availability-guide/controller/section_mysql.xml149(para) msgid "" "You must complete the next step while the MySQL database server is shut " "down." msgstr "MySQL データベースサーバーがシャットダウンしている間に、次の手順を完了する必要があります。" #: ./doc/high-availability-guide/controller/section_mysql.xml155(para) msgid "" "For a new MySQL installation with no existing data, you may also run the " "mysql_install_db command:" msgstr "既存のデータが無い新しい MySQL インストール環境の場合、mysql_install_db コマンドを実行する必要があるかもしれません。" #: ./doc/high-availability-guide/controller/section_mysql.xml160(para) msgid "" "Regardless of the approach, the steps outlined here must be completed on " "only one cluster node." msgstr "その方法に関わらず、ここに概要が示された手順は一つだけのクラスターノードで完了する必要があります。" #: ./doc/high-availability-guide/controller/section_mysql.xml165(title) msgid "Add MySQL resources to Pacemaker" msgstr "MySQL リソースの Pacemaker への追加" #: ./doc/high-availability-guide/controller/section_mysql.xml167(para) msgid "" "You can now add the Pacemaker configuration for MySQL resources. Connect to " "the Pacemaker cluster with crm configure, and add the " "following cluster resources:" msgstr "これで MySQL リソース用の Pacemaker 設定を追加できます。crm configure を用いて Pacemaker クラスターに接続し、以下のクラスターリソースを追加します。" #: ./doc/high-availability-guide/controller/section_mysql.xml206(para) msgid "" "p_ip_mysql, a virtual IP address for use by MySQL " "(192.168.42.101)," msgstr "p_ip_mysql, MySQL により使用される仮想 IP アドレス (192.168.42.101)," #: ./doc/high-availability-guide/controller/section_mysql.xml211(para) msgid "" "p_fs_mysql, a Pacemaker managed filesystem mounted to " "/var/lib/mysql on whatever node currently runs the MySQL " "service," msgstr "p_fs_mysql, 現在 MySQL サービスを実行している、すべてのノードにおいて /var/lib/mysql にマウントされている、Pacemaker が管理しているファイルシステム。" #: ./doc/high-availability-guide/controller/section_mysql.xml217(para) msgid "" "ms_drbd_mysql, the master/slave set " "managing the mysql DRBD resource," msgstr "ms_drbd_mysql, mysql DRBD リソースを管理しているマスター/スレーブの組。" #: ./doc/high-availability-guide/controller/section_mysql.xml228(para) msgid "" "crm configure supports batch input, so you may copy and " "paste the above into your live pacemaker configuration, and then make " "changes as required. For example, you may enter edit " "p_ip_mysql from the crm configure menu and edit" " the resource to match your preferred virtual IP address." msgstr "crm configure はバッチ入力をサポートします。そのため、現在の pacemaker 設定の中に上をコピー・ペーストし、適宜変更を反映できます。たとえば、お好みの仮想 IP アドレスに一致させるために、crm configure メニューから edit p_ip_mysql と入力し、リソースを編集できます。" #: ./doc/high-availability-guide/controller/section_mysql.xml233(para) msgid "" "Once completed, commit your configuration changes by entering " "commit from the crm configure menu. " "Pacemaker will then start the MySQL service, and its dependent resources, on" " one of your nodes." msgstr "完了すると、crm configure メニューから commit と入力し、設定の変更をコミットします。Pacemaker は MySQL サービスおよび依存するリソースを同じノードに起動します。" #: ./doc/high-availability-guide/controller/section_mysql.xml239(title) msgid "Configure OpenStack services for highly available MySQL" msgstr "高可用性 MySQL のための OpenStack サービスの設定" #: ./doc/high-availability-guide/controller/section_mysql.xml241(para) msgid "" "Your OpenStack services must now point their MySQL configuration to the " "highly available, virtual cluster IP addressrather than a MySQL server" msgstr "OpenStack サービスは、MySQL サーバーの代わりに、MySQL の設定が高可用性と仮想クラスター IP アドレスを指し示す必要があります。" #: ./doc/high-availability-guide/controller/section_mysql.xml244(para) msgid "" "For OpenStack Image, for example, if your MySQL service IP address is " "192.168.42.101 as in the configuration explained here, you would use the " "following line in your OpenStack Image registry configuration file " "(glance-registry.conf):" msgstr "OpenStack Image の例として、MySQL サーバーの IP アドレスがここで説明された設定にあるように 192.168.42.101 ならば、OpenStack Image レジストリ設定ファイル (glance-registry.conf) で以下の行を使用する必要があります。" #: ./doc/high-availability-guide/controller/section_mysql.xml249(para) msgid "" "No other changes are necessary to your OpenStack configuration. If the node " "currently hosting your database experiences a problem necessitating service " "failover, your OpenStack services may experience a brief MySQL interruption," " as they would in the event of a network hiccup, and then continue to run " "normally." msgstr "OpenStack の設定に他の変更は必要ありません。現在データベースを稼働しているノードが、サービスのフェイルオーバーを必要とする問題に遭遇した場合、ネットワークの中断と通常どおりの動作継続により、OpenStack のサービスは MySQL の短時間の中断に遭遇するかもしれません。" #: ./doc/high-availability-guide/ha_aa_controllers/section_memcached.xml7(title) msgid "Memcached" msgstr "Memcached" #: ./doc/high-availability-guide/ha_aa_controllers/section_memcached.xml9(para) msgid "" "Most of OpenStack services use an application to offer persistence and store" " ephemeral data (like tokens). Memcached is one of them and can scale-out " "easily without any specific tricks required." msgstr "" #: ./doc/high-availability-guide/ha_aa_controllers/section_memcached.xml11(para) msgid "" "To install and configure it, read the official " "documentation." msgstr "インストールおよび設定するために、公式ドキュメントを参照します。" #: ./doc/high-availability-guide/ha_aa_controllers/section_memcached.xml12(para) msgid "" "Memory caching is managed by oslo-incubator so the way to use multiple " "memcached servers is the same for all projects." msgstr "メモリキャッシュは、複数の memcached サーバーを使用する方法がすべてのプロジェクトで同じにするために、Oslo インキュベーターにより管理されています。" #: ./doc/high-availability-guide/ha_aa_controllers/section_memcached.xml13(para) msgid "Example with two hosts:" msgstr "2 つのホストを用いた例:" #: ./doc/high-availability-guide/ha_aa_controllers/section_memcached.xml15(para) msgid "" "By default, controller1 handles the caching service but if the host goes " "down, controller2 does the job. For more information about memcached " "installation, see the OpenStack Cloud Administrator Guide." msgstr "デフォルトで、controller1 がキャッシュサービスを処理します。しかし、このホストが停止すると、controller2 がこのジョブを実行します。memcached のインストールに関する詳細は OpenStack クラウド管理者ガイドを参照してください。" #: ./doc/high-availability-guide/ha_aa_controllers/section_run_openstack_api_and_schedulers.xml7(title) msgid "Run OpenStack API and schedulers" msgstr "OpenStack API & スケジューラーの実行" #: ./doc/high-availability-guide/ha_aa_controllers/section_run_openstack_api_and_schedulers.xml11(title) msgid "API services" msgstr "API サービス" #: ./doc/high-availability-guide/ha_aa_controllers/section_run_openstack_api_and_schedulers.xml13(para) msgid "" "All OpenStack projects have an API service for controlling all the resources" " in the Cloud. In Active / Active mode, the most common setup is to scale-" "out these services on at least two nodes and use load balancing and virtual " "IP (with HAProxy & Keepalived in this setup)." msgstr "すべての OpenStack プロジェクトは、すべてのクラウドのリソースを制御するために、API サービスを持ちます。アクティブ/アクティブモードでは、最も一般的なセットアップは、これらの少なくとも 2 つのノードにスケールアウトし、(HAProxy と Keepalived を用いて) 負荷分散と仮想 IP を使用することです。" #: ./doc/high-availability-guide/ha_aa_controllers/section_run_openstack_api_and_schedulers.xml17(emphasis) msgid "Configure API OpenStack services" msgstr "OpenStack サービスの API の設定" #: ./doc/high-availability-guide/ha_aa_controllers/section_run_openstack_api_and_schedulers.xml19(para) msgid "" "To configure our Cloud using Highly available and scalable API services, we " "need to ensure that:" msgstr "私たちのクラウド環境が高可用性かつスケーラブルな API サービスを使用するよう設定するために、以下の事項を確認する必要があります。" #: ./doc/high-availability-guide/ha_aa_controllers/section_run_openstack_api_and_schedulers.xml22(para) msgid "You use virtual IPs when configuring OpenStack Identity endpoints." msgstr "" #: ./doc/high-availability-guide/ha_aa_controllers/section_run_openstack_api_and_schedulers.xml27(para) msgid "All OpenStack configuration files should refer to virtual IPs." msgstr "すべての OpenStack 設定ファイルが仮想 IP を参照すべきです。" #: ./doc/high-availability-guide/ha_aa_controllers/section_run_openstack_api_and_schedulers.xml33(emphasis) msgid "In case of failure" msgstr "失敗の場合" #: ./doc/high-availability-guide/ha_aa_controllers/section_run_openstack_api_and_schedulers.xml35(para) msgid "" "The monitor check is quite simple since it just establishes a TCP connection" " to the API port. Comparing to the Active / Passive mode using Corosync " "& Resources Agents, we don’t check if the service is actually running). " "That’s why all OpenStack API should be monitored by another tool, for " "example Nagios, with the goal to detect failures in the Cloud Framework " "infrastructure." msgstr "API ポートへの TCP 接続を確立するだけのため、監視チェックは極めてシンプルです。Corosync とリソースエージェントを使用するアクティブ / パッシブモードと比べて、サービスが実際に動作しているかを確認しません。そのため、クラウドのフレームワーク環境における障害を検知するために、すべての OpenStack API は他のツール (例: Nagios) により監視すべきです。" #: ./doc/high-availability-guide/ha_aa_controllers/section_run_openstack_api_and_schedulers.xml42(title) msgid "Schedulers" msgstr "スケジューラー" #: ./doc/high-availability-guide/ha_aa_controllers/section_run_openstack_api_and_schedulers.xml44(para) msgid "" "OpenStack schedulers are used to determine how to dispatch compute, network " "and volume requests. The most common setup is to use RabbitMQ as messaging " "system already documented in this guide. Those services are connected to the" " messaging backend and can scale-out:" msgstr "OpenStack スケジューラーは、コンピュート、ネットワーク、ボリュームのリクエストをどのようにディスパッチするかを決めるために使用されます。最も一般的なセットアップ環境は、このガイドにドキュメント化されたメッセージングシステムとして RabbitMQ を使用することです。これらのサービスはメッセージングのバックエンドに接続され、スケールアウトできます。" #: ./doc/high-availability-guide/ha_aa_controllers/section_run_openstack_api_and_schedulers.xml49(para) msgid "nova-scheduler" msgstr "nova-scheduler" #: ./doc/high-availability-guide/ha_aa_controllers/section_run_openstack_api_and_schedulers.xml54(para) msgid "nova-conductor" msgstr "nova-conductor" #: ./doc/high-availability-guide/ha_aa_controllers/section_run_openstack_api_and_schedulers.xml59(para) msgid "cinder-scheduler" msgstr "cinder-scheduler" #: ./doc/high-availability-guide/ha_aa_controllers/section_run_openstack_api_and_schedulers.xml64(para) msgid "neutron-server" msgstr "neutron-server" #: ./doc/high-availability-guide/ha_aa_controllers/section_run_openstack_api_and_schedulers.xml69(para) msgid "ceilometer-collector" msgstr "ceilometer-collector" #: ./doc/high-availability-guide/ha_aa_controllers/section_run_openstack_api_and_schedulers.xml74(para) msgid "heat-engine" msgstr "heat-engine" #: ./doc/high-availability-guide/ha_aa_controllers/section_run_openstack_api_and_schedulers.xml79(para) msgid "" "Please refer to the RabbitMQ section for configure these services with " "multiple messaging servers." msgstr "これらのサービスを複数のメッセージングサービスを用いて設定する方法は、RabbitMQ のセクションを参照してください。" #: ./doc/high-availability-guide/pacemaker/section_start_pacemaker.xml6(title) msgid "Start Pacemaker" msgstr "Pacemaker の開始" #: ./doc/high-availability-guide/pacemaker/section_start_pacemaker.xml7(para) msgid "" "Once the Corosync services have been started and you have established that " "the cluster is communicating properly, it is safe to start " "pacemakerd, the Pacemaker master control process:" msgstr "Corosync サービスが起動し、クラスターが正しく通信し始めると、Pacemaker のマスター制御プロセス pacemakerd を安全に起動できます。" #: ./doc/high-availability-guide/pacemaker/section_start_pacemaker.xml12(para) msgid "/etc/init.d/pacemaker start (LSB)" msgstr "/etc/init.d/pacemaker start (LSB)" #: ./doc/high-availability-guide/pacemaker/section_start_pacemaker.xml16(para) msgid "service pacemaker start (LSB, alternate)" msgstr "service pacemaker start (LSB, 代替)" #: ./doc/high-availability-guide/pacemaker/section_start_pacemaker.xml20(para) msgid "start pacemaker (upstart)" msgstr "start pacemaker (upstart)" #: ./doc/high-availability-guide/pacemaker/section_start_pacemaker.xml24(para) msgid "systemctl start pacemaker (systemd)" msgstr "systemctl start pacemaker (systemd)" #: ./doc/high-availability-guide/pacemaker/section_start_pacemaker.xml28(para) msgid "" "Once Pacemaker services have started, Pacemaker will create a default empty " "cluster configuration with no resources. You may observe Pacemaker’s status " "with the crm_mon utility:" msgstr "Pacemaker サービスが開始されると、Pacemaker はリソースを持たない空の標準クラスター設定を作成します。crm_mon ユーティリティを用いて Pacemaker の状態を確認できます。" #: ./doc/high-availability-guide/pacemaker/section_set_up_corosync.xml6(title) msgid "Set up Corosync" msgstr "Corosync のセットアップ" #: ./doc/high-availability-guide/pacemaker/section_set_up_corosync.xml7(para) msgid "" "Besides installing the corosync package, you must also " "create a configuration file, stored in " "/etc/corosync/corosync.conf. Most distributions ship an" " example configuration file (corosync.conf.example) as " "part of the documentation bundled with the corosync " "package. An example Corosync configuration file is shown below:" msgstr "corosync パッケージのインストールに関連して、/etc/corosync/corosync.conf に保存する、設定ファイルを作成する必要があります。多くのディストリビューションは、corosync パッケージに同梱されているドキュメントの一部として、サンプル設定ファイル (corosync.conf.example) が同梱されています。サンプルの Corosync 設定ファイルを以下に示します:" #: ./doc/high-availability-guide/pacemaker/section_set_up_corosync.xml15(title) msgid "Corosync configuration file (corosync.conf)" msgstr "Corosync 設定ファイル (corosync.conf)" #: ./doc/high-availability-guide/pacemaker/section_set_up_corosync.xml89(para) msgid "" "The token value specifies the time, in milliseconds, " "during which the Corosync token is expected to be transmitted around the " "ring. When this timeout expires, the token is declared lost, and after " "token_retransmits_before_loss_const lost tokens the non-" "responding processor (cluster node) is declared dead. " "In other words, token × " "token_retransmits_before_loss_const is the maximum time a" " node is allowed to not respond to cluster messages before being considered " "dead. The default for token is 1000 (1 second), with 4 " "allowed retransmits. These defaults are intended to minimize failover times," " but can cause frequent \"false alarms\" and unintended failovers in case of" " short network interruptions. The values used here are safer, albeit with " "slightly extended failover times." msgstr "token の値は、Corosync トークンがリングを 1 周するまでの時間をミリ秒単位で指定します。このタイムアウトを経過した場合、トークンが消失したと判定します。token_retransmits_before_loss_const はトークンを失った後、応答のない processor (クラスターノード) が障害と判定されます。言い換えると、token × token_retransmits_before_loss_const が、ノードが障害と判定されるまでに、クラスターメッセージに応答しなくてもよい最大時間です。 token の規定値は 1000 (1 秒) で、再送 が 4 回まで許可されます。これらの規定値は、フェイルオーバー時間を最小化する狙いですが、頻繁に「誤報」を起こし、短時間のネットワーク障害により意図せずフェイルオーバーする可能性があります。ここで使用されている値は、フェイルオーバー時間をわずかに延ばしたとしても、より安全なものです。" #: ./doc/high-availability-guide/pacemaker/section_set_up_corosync.xml105(para) msgid "" "With secauth enabled, Corosync nodes mutually " "authenticate using a 128-byte shared secret stored in " "/etc/corosync/authkey, which may be generated with the " "corosync-keygen utility. When using " "secauth, cluster communications are also encrypted." msgstr "secauth を有効化している場合、Corosync ノードは /etc/corosync/authkey に保存されている 128 ビットの共有シークレットを使用して相互に認証します。このシークレットは corosync-keygen ユーティリティを用いて生成できます。secauth を使用するとき、クラスター通信も暗号化されます。" #: ./doc/high-availability-guide/pacemaker/section_set_up_corosync.xml113(para) msgid "" "In Corosync configurations using redundant networking (with more than one " "interface), you must select a Redundant Ring Protocol " "(RRP) mode other than none. active is " "the recommended RRP mode." msgstr "冗長ネットワーク (複数の interface) を使用した Corosync 設定の場合、Redundant Ring Protocol (RRP) モードを none 以外で選択する必要があります。active が推奨 RRP モードです。" #: ./doc/high-availability-guide/pacemaker/section_set_up_corosync.xml120(para) msgid "" "There are several things to note about the recommended interface " "configuration:" msgstr "インターフェースの推奨設定に関する注意事項がいくつかあります。" #: ./doc/high-availability-guide/pacemaker/section_set_up_corosync.xml126(para) msgid "" "The ringnumber must differ between all configured " "interfaces, starting with 0." msgstr "ringnumber はすべての設定済みインターフェースで異なる必要があります。0 から始まります。" #: ./doc/high-availability-guide/pacemaker/section_set_up_corosync.xml132(para) msgid "" "The bindnetaddr is the network " "address of the interfaces to bind to. The example uses two network addresses" " of /24 IPv4 subnets." msgstr "bindnetaddr はバインドするインターフェースのネットワークアドレスです。この例は二つの /24 IPv4 サブネットのネットワークアドレスを使用します。" #: ./doc/high-availability-guide/pacemaker/section_set_up_corosync.xml138(para) msgid "" "Multicast groups (mcastaddr) must " "not be reused across cluster boundaries. In other words, no two " "distinct clusters should ever use the same multicast group. Be sure to " "select multicast addresses compliant with RFC 2365, \"Administratively " "Scoped IP Multicast\"." msgstr "マルチキャストグループ (mcastaddr) は、クラスターの境界をまたがって再利用できません。違い言い方をすると、2 つの別のクラスターは同じマルチキャストグループを使用できません。RFC 2365, \"Administratively Scoped IP Multicast\" に適合しているマルチキャストアドレスを必ず選択してください。" #: ./doc/high-availability-guide/pacemaker/section_set_up_corosync.xml147(para) msgid "" "For firewall configurations, note that Corosync communicates over UDP only, " "and uses mcastport (for receives) and " "mcastport-1 (for sends)." msgstr "ファイアウォール設定に関して、Corosync は UDP のみを使用して通信し、mcastport (受信用) と mcastport-1 (送信用) を使用することに注意してください。" #: ./doc/high-availability-guide/pacemaker/section_set_up_corosync.xml156(para) msgid "" "The service declaration for the " "pacemaker service may be placed in the " "corosync.conf file directly, or in its own separate " "file, /etc/corosync/service.d/pacemaker." msgstr "pacemaker サービスに関する service 宣言は、corosync.conf ファイルに直接置かれるか、別のファイル /etc/corosync/service.d/pacemaker に置かれるかもしれません。" #: ./doc/high-availability-guide/pacemaker/section_set_up_corosync.xml163(para) msgid "" "Once created, the corosync.conf file (and the " "authkey file if the secauth option " "is enabled) must be synchronized across all cluster nodes." msgstr "一度作成すると、corosync.conf ファイル (および、secauth オプションが有効化されている場合は authkey ファイル) はすべてのクラスターノードで同期する必要があります。" #: ./doc/high-availability-guide/pacemaker/section_install_packages.xml6(title) msgid "Install packages" msgstr "パッケージのインストール" #: ./doc/high-availability-guide/pacemaker/section_install_packages.xml7(para) msgid "" "On any host that is meant to be part of a Pacemaker cluster, you must first " "establish cluster communications through the Corosync messaging layer. This " "involves installing the following packages (and their dependencies, which " "your package manager will normally install automatically):" msgstr "Pacemaker クラスターに参加させるすべてのホストにおいて、まず Corosync メッセージング層によるクラスター通信を確立する必要があります。これは、以下のパッケージをインストールする必要があります。(また通常、パッケージ管理ソフトウェアが自動的にそれらに依存するものをインストールします):" #: ./doc/high-availability-guide/pacemaker/section_install_packages.xml14(para) msgid "" "pacemaker (Note that the crm shell should be downloaded " "separately.)" msgstr "pacemaker (crm シェルを別途ダウンロードする必要があるかもしれないことに注意してください。)" #: ./doc/high-availability-guide/pacemaker/section_install_packages.xml19(literal) msgid "crmsh" msgstr "crmsh" #: ./doc/high-availability-guide/pacemaker/section_install_packages.xml24(literal) msgid "corosync" msgstr "corosync" #: ./doc/high-availability-guide/pacemaker/section_install_packages.xml29(literal) msgid "cluster-glue" msgstr "cluster-glue" #: ./doc/high-availability-guide/pacemaker/section_install_packages.xml33(para) msgid "" "fence-agents (Fedora only; all other distributions use " "fencing agents from cluster-glue)" msgstr "fence-agents (Fedora のみ、他のすべてのディストリビューションは cluster-glue からフェンシング・エージェントを使用します)" #: ./doc/high-availability-guide/pacemaker/section_install_packages.xml39(literal) msgid "resource-agents" msgstr "resource-agents" #: ./doc/high-availability-guide/pacemaker/section_set_basic_cluster_properties.xml7(title) msgid "Set basic cluster properties" msgstr "基本的なクラスターのプロパティの設定" #: ./doc/high-availability-guide/pacemaker/section_set_basic_cluster_properties.xml9(para) msgid "" "Once your Pacemaker cluster is set up, it is recommended to set a few basic " "cluster properties. To do so, start the crm shell and " "change into the configuration menu by entering configure." " Alternatively. you may jump straight into the Pacemaker configuration menu " "by typing crm configure directly from a shell prompt." msgstr "Pacemaker クラスターを構築すると、いくつかの基本的なクラスタープロパティを設定することを推奨します。そうするために、crm シェルを開始し、configure と入力して設定メニューに変更します。代わりに、シェルプロンプトから直接 crm configure と入力して、Pacemaker 設定メニューに入ることもできます。" #: ./doc/high-availability-guide/pacemaker/section_set_basic_cluster_properties.xml15(para) msgid "Then, set the following properties:" msgstr "そして、以下のプロパティを設定します。" #: ./doc/high-availability-guide/pacemaker/section_set_basic_cluster_properties.xml23(para) msgid "" "Setting no-quorum-policy=\"ignore\" is required in 2-node" " Pacemaker clusters for the following reason: if quorum enforcement is " "enabled, and one of the two nodes fails, then the remaining node can not " "establish a majority of quorum votes necessary to run " "services, and thus it is unable to take over any resources. In this case, " "the appropriate workaround is to ignore loss of quorum in the cluster. This " "should only only be done in 2-node clusters: do not set" " this property in Pacemaker clusters with more than two nodes. Note that a " "two-node cluster with this setting exposes a risk of split-brain because " "either half of the cluster, or both, are able to become active in the event " "that both nodes remain online but lose communication with one another. The " "preferred configuration is 3 or more nodes per cluster." msgstr "" #: ./doc/high-availability-guide/pacemaker/section_set_basic_cluster_properties.xml34(para) msgid "" "Setting pe-warn-series-max, pe-input-series-" "max and pe-error-series-max to 1000 instructs " "Pacemaker to keep a longer history of the inputs processed, and errors and " "warnings generated, by its Policy Engine. This history is typically useful " "in case cluster troubleshooting becomes necessary." msgstr "pe-warn-series-maxpe-input-series-max および pe-error-series-max を 1000 に設定することにより、Pacemaker のポリシーエンジンにより、処理された入力、生成されたエラーと警告の履歴をより長く保持するよう Pacemaker に指示します。この履歴は一般的にクラスターのトラブルシューティングが必要となる場合に役に立ちます。" #: ./doc/high-availability-guide/pacemaker/section_set_basic_cluster_properties.xml43(para) msgid "" "Pacemaker uses an event-driven approach to cluster state processing. " "However, certain Pacemaker actions occur at a configurable interval, " "cluster-recheck-interval, which defaults to 15 minutes. " "It is usually prudent to reduce this to a shorter interval, such as 5 or 3 " "minutes." msgstr "Pacemaker はクラスター状態の処理にイベント駆動の方法を使用します。しかしながら、特定の Pacemaker アクションは、設定可能な間隔 cluster-recheck-interval で発生します。このデフォルトは 15 分です。一般的に 5 分や 3 分のようにより短い間隔にこれを慎重に減らします。" #: ./doc/high-availability-guide/pacemaker/section_set_basic_cluster_properties.xml52(para) msgid "" "Once you have made these changes, you may commit the " "updated configuration." msgstr "これらの変更を実行すると、更新した設定を commit できます。" #: ./doc/high-availability-guide/pacemaker/section_starting_corosync.xml7(title) msgid "Starting Corosync" msgstr "Corosync の開始" #: ./doc/high-availability-guide/pacemaker/section_starting_corosync.xml9(para) msgid "" "Corosync is started as a regular system service. Depending on your " "distribution, it may ship with an LSB init script, an upstart job, or a " "systemd unit file. Either way, the service is usually named " "corosync:" msgstr "Corosync は、通常のシステムサービスとして起動します。お使いのディストリビューションにより、LSB init スクリプト、upstart ジョブ、systemd ユニットファイルを同梱しているかもしれません。どちらにしても、このサービスは通常 corosync という名前です。" #: ./doc/high-availability-guide/pacemaker/section_starting_corosync.xml15(para) msgid "/etc/init.d/corosync start (LSB)" msgstr "/etc/init.d/corosync start (LSB)" #: ./doc/high-availability-guide/pacemaker/section_starting_corosync.xml19(para) msgid "service corosync start (LSB, alternate)" msgstr "service corosync start (LSB, 代替)" #: ./doc/high-availability-guide/pacemaker/section_starting_corosync.xml23(para) msgid "start corosync (upstart)" msgstr "start corosync (upstart)" #: ./doc/high-availability-guide/pacemaker/section_starting_corosync.xml27(para) msgid "systemctl start corosync (systemd)" msgstr "systemctl start corosync (systemd)" #: ./doc/high-availability-guide/pacemaker/section_starting_corosync.xml31(para) msgid "You can now check the Corosync connectivity with two tools." msgstr "2 つのツールを用いて Corosync 接続性を確認できます。" #: ./doc/high-availability-guide/pacemaker/section_starting_corosync.xml32(para) msgid "" "The corosync-cfgtool utility, when invoked with the " "-s option, gives a summary of the health of the " "communication rings:" msgstr "corosync-cfgtool ユーティリティは、-s オプションを用いるとき、通信リングの健全性の概要を表示します:" #: ./doc/high-availability-guide/pacemaker/section_starting_corosync.xml43(para) msgid "" "The corosync-objctl utility can be used to dump the " "Corosync cluster member list:" msgstr "corosync-objctl ユーティリティは Corosync クラスターのメンバー一覧をダンプするために使用できます:" #: ./doc/high-availability-guide/pacemaker/section_starting_corosync.xml52(para) msgid "" "You should see a status=joined entry for each of your " "constituent cluster nodes." msgstr "組み込まれているそれぞれのクラスターノードの項目が status=joined になっていることが確認できるはずです。" #: ./doc/high-availability-guide/ha_aa_rabbitmq/section_configure_openstack_services_to_user_rabbitmq.xml7(title) msgid "Configure OpenStack services to use RabbitMQ" msgstr "RabbitMQ を使用するための OpenStack サービスの設定" #: ./doc/high-availability-guide/ha_aa_rabbitmq/section_configure_openstack_services_to_user_rabbitmq.xml9(para) msgid "" "We have to configure the OpenStack components to use at least two RabbitMQ " "nodes." msgstr "2 つ以上の RabbitMQ ノードを使用するよう、OpenStack のコンポーネントを設定する必要があります。" #: ./doc/high-availability-guide/ha_aa_rabbitmq/section_configure_openstack_services_to_user_rabbitmq.xml10(para) msgid "Do this configuration on all services using RabbitMQ:" msgstr "RabbitMQ を使用するすべてのサービスでこの設定を行います。" #: ./doc/high-availability-guide/ha_aa_rabbitmq/section_configure_openstack_services_to_user_rabbitmq.xml11(para) msgid "RabbitMQ HA cluster host:port pairs:" msgstr "RabbitMQ HA クラスターの host:port の組:" #: ./doc/high-availability-guide/ha_aa_rabbitmq/section_configure_openstack_services_to_user_rabbitmq.xml13(para) msgid "How frequently to retry connecting with RabbitMQ:" msgstr "RabbitMQ と再接続する頻度:" #: ./doc/high-availability-guide/ha_aa_rabbitmq/section_configure_openstack_services_to_user_rabbitmq.xml15(para) msgid "How long to back-off for between retries when connecting to RabbitMQ:" msgstr "RabbitMQ に接続するとき再試行するまでにバックオフする間隔:" #: ./doc/high-availability-guide/ha_aa_rabbitmq/section_configure_openstack_services_to_user_rabbitmq.xml17(para) msgid "" "Maximum retries with trying to connect to RabbitMQ (infinite by default):" msgstr "RabbitMQ に接続を試行する最大回数 (デフォルトで無制限):" #: ./doc/high-availability-guide/ha_aa_rabbitmq/section_configure_openstack_services_to_user_rabbitmq.xml19(para) msgid "Use durable queues in RabbitMQ:" msgstr "RabbitMQ での永続キューの使用:" #: ./doc/high-availability-guide/ha_aa_rabbitmq/section_configure_openstack_services_to_user_rabbitmq.xml21(para) msgid "Use HA queues in RabbitMQ (x-ha-policy: all):" msgstr "" #: ./doc/high-availability-guide/ha_aa_rabbitmq/section_configure_openstack_services_to_user_rabbitmq.xml23(para) msgid "" "If you change the configuration from an old setup which did not use HA " "queues, you should interrupt the service:" msgstr "HA キューを使用していない古いセットアップから設定を変更した場合、サービスを中断しなければいけません。" #: ./doc/high-availability-guide/ha_aa_rabbitmq/section_configure_openstack_services_to_user_rabbitmq.xml27(para) msgid "" "Services currently working with HA queues: OpenStack Compute, OpenStack " "Block Storage, OpenStack Networking, Telemetry." msgstr "次のサービスはいま HA キューで動作しています。OpenStack Compute、OpenStack Cinder、OpenStack Networking、Telemetry。" #: ./doc/high-availability-guide/ha_aa_rabbitmq/section_install_rabbitmq.xml9(para) msgid "This setup has been tested with RabbitMQ 2.7.1." msgstr "このセットアップは RabbitMQ 2.7.1 を用いてテストしました。" #: ./doc/high-availability-guide/ha_aa_rabbitmq/section_install_rabbitmq.xml12(title) msgid "On Ubuntu / Debian" msgstr "Ubuntu / Debian の場合" #: ./doc/high-availability-guide/ha_aa_rabbitmq/section_install_rabbitmq.xml14(para) #: ./doc/high-availability-guide/ha_aa_rabbitmq/section_install_rabbitmq.xml24(para) msgid "RabbitMQ is packaged on both distros:" msgstr "RabbitMQ がどちらもパッケージ化されています。" #: ./doc/high-availability-guide/ha_aa_rabbitmq/section_install_rabbitmq.xml17(link) msgid "Official manual for installing RabbitMQ on Ubuntu / Debian" msgstr "Ubuntu / Debian に RabbitMQ をインストールする方法の公式マニュアル" #: ./doc/high-availability-guide/ha_aa_rabbitmq/section_install_rabbitmq.xml22(title) msgid "On Fedora / RHEL" msgstr "Fedora / RHEL の場合" #: ./doc/high-availability-guide/ha_aa_rabbitmq/section_install_rabbitmq.xml27(link) msgid "Official manual for installing RabbitMQ on Fedora / RHEL" msgstr "Fedora / RHEL に RabbitMQ をインストールする方法の公式マニュアル" #: ./doc/high-availability-guide/ha_aa_rabbitmq/section_configure_rabbitmq.xml7(title) msgid "Configure RabbitMQ" msgstr "RabbitMQ の設定" #: ./doc/high-availability-guide/ha_aa_rabbitmq/section_configure_rabbitmq.xml9(para) msgid "" "Here we are building a cluster of RabbitMQ nodes to construct a RabbitMQ " "broker. Mirrored queues in RabbitMQ improve the availability of service " "since it will be resilient to failures. We have to consider that while " "exchanges and bindings will survive the loss of individual nodes, queues and" " their messages will not because a queue and its contents is located on one " "node. If we lose this node, we also lose the queue." msgstr "これから RabbitMQ ブローカーを構築するために RabbitMQ ノードのクラスターを構築します。障害の耐性ができるため、RabbitMQ のキューミラーによりサービスの可用性を高められます。メッセージ交換とバインドにより個々のノードの損失があると、キューとその内容が 1 つのノードに置かれているため、キューとそれらのメッセージが無くなることに注意してください。このノードが失われた場合、キューも失われます。" #: ./doc/high-availability-guide/ha_aa_rabbitmq/section_configure_rabbitmq.xml14(para) msgid "" "We consider that we run (at least) two RabbitMQ servers. To build a broker, " "we need to ensure that all nodes have the same Erlang cookie file. To do so," " stop RabbitMQ everywhere and copy the cookie from rabbit1 server to other " "server(s):" msgstr "(少なくとも) 2 つの RabbitMQ サーバーを実行することを検討します。ブローカーを構築するために、すべてのノードが必ず同じ Erlang クッキーファイルを持つ必要があります。そうするために、全サーバーの RabbitMQ を停止し、rabbit1 サーバーのクッキーを他のサーバーにコピーします。" #: ./doc/high-availability-guide/ha_aa_rabbitmq/section_configure_rabbitmq.xml19(para) msgid "" "Then, start RabbitMQ on nodes. If RabbitMQ fails to start, you can’t " "continue to the next step." msgstr "そして、ノードで RabbitMQ を起動します。RabbitMQ の起動に失敗した場合、次の手順に進めません。" #: ./doc/high-availability-guide/ha_aa_rabbitmq/section_configure_rabbitmq.xml21(para) msgid "Now, we are building the HA cluster. From rabbit2, run these commands:" msgstr "これで、HA クラスターの構築ができました。rabbit2 からこれらのコマンドを実行します。" #: ./doc/high-availability-guide/ha_aa_rabbitmq/section_configure_rabbitmq.xml25(para) msgid "To verify the cluster status:" msgstr "クラスターの状態を確認する方法:" #: ./doc/high-availability-guide/ha_aa_rabbitmq/section_configure_rabbitmq.xml31(para) msgid "" "If the cluster is working, you can now proceed to creating users and " "passwords for queues." msgstr "クラスターが動作していれば、キュー用のユーザーとパスワードを作成する手順に進めます。" #: ./doc/high-availability-guide/ha_aa_rabbitmq/section_configure_rabbitmq.xml33(emphasis) msgid "Note for RabbitMQ version 3" msgstr "RabbitMQ バージョン 3 の注意事項" #: ./doc/high-availability-guide/ha_aa_rabbitmq/section_configure_rabbitmq.xml35(para) msgid "" "Queue mirroring is no longer controlled by the x-ha-" "policy argument when declaring a queue. OpenStack can continue to" " declare this argument, but it won’t cause queues to be mirrored. We need to" " make sure that all queues (except those with auto-generated names) are " "mirrored across all running nodes:" msgstr "キューの宣言時、キューミラーが x-ha-policy 引数により制御されなくなりました。OpenStack がこの引数を宣言し続けますが、キューはミラーされません。すべてのキュー (自動生成された名前を除いて) が実行中の全ノードにわたり確実にミラーされる必要があります。" #: ./doc/high-availability-guide/ha_aa_rabbitmq/section_configure_rabbitmq.xml40(link) msgid "More information about High availability in RabbitMQ" msgstr "RabbitMQ の高可用性に関する詳細" #: ./doc/high-availability-guide/network/section_highly_available_neutron_metadata_agent.xml6(title) msgid "Highly available neutron metadata agent" msgstr "高可用性 Neutron Metadata Agent" #: ./doc/high-availability-guide/network/section_highly_available_neutron_metadata_agent.xml7(para) msgid "" "Neutron metadata agent allows Compute API metadata to be reachable by VMs on" " tenant networks. High availability for the metadata agent is achieved by " "adopting Pacemaker." msgstr "Neutron Metadata エージェントにより Nova API Metadata がプロジェクトのネットワークにある仮想マシンによりアクセスできるようになります。Metadata エージェントの高可用性は Pacemaker の適用により実現されます。" #: ./doc/high-availability-guide/network/section_highly_available_neutron_metadata_agent.xml11(para) msgid "" "Here is the documentation " "for installing Neutron Metadata Agent." msgstr "ここに Neutron Metadata エージェントをインストールするためのドキュメントがあります。" #: ./doc/high-availability-guide/network/section_highly_available_neutron_metadata_agent.xml14(title) msgid "Add neutron metadata agent resource to Pacemaker" msgstr "Neutron Metadata Agent リソースの Pacemaker への追加" #: ./doc/high-availability-guide/network/section_highly_available_neutron_metadata_agent.xml19(para) msgid "" "You may now proceed with adding the Pacemaker configuration for neutron " "metadata agent resource. Connect to the Pacemaker cluster with crm " "configure, and add the following cluster resources:" msgstr "OpenStack Metadata Agent リソース用の Pacemaker 設定を追加して、次に進むことができます。crm configure を用いて Pacemaker クラスターに接続し、以下のクラスターリソースを追加します。" #: ./doc/high-availability-guide/network/section_highly_available_neutron_metadata_agent.xml29(para) msgid "" "p_neutron-metadata-agent, a resource for manage Neutron " "Metadata Agent service" msgstr "p_neutron-metadata-agent, Neutron Metadata Agent サービスを管理するためのリソース。" #: ./doc/high-availability-guide/network/section_highly_available_neutron_metadata_agent.xml34(para) msgid "" "crm configure supports batch input, so you may copy and " "paste the above into your live Pacemaker configuration, and then make " "changes as required." msgstr "" #: ./doc/high-availability-guide/network/section_highly_available_neutron_metadata_agent.xml37(para) msgid "" "Once completed, commit your configuration changes by entering " "commit from the crm configure menu. " "Pacemaker will then start the neutron metadata agent service, and its " "dependent resources, on one of your nodes." msgstr "完了すると、crm configure メニューから commit と入力し、設定の変更をコミットします。Pacemaker は Neutron Metadata Agent サービスおよび依存するリソースを同じノードに起動します。" #: ./doc/high-availability-guide/network/section_highly_available_neutron_l3_agent.xml7(title) msgid "Highly available neutron L3 agent" msgstr "高可用性 Neutron L3 エージェント" #: ./doc/high-availability-guide/network/section_highly_available_neutron_l3_agent.xml9(para) msgid "" "The neutron L3 agent provides L3/NAT forwarding to ensure external network " "access for VMs on tenant networks. High availability for the L3 agent is " "achieved by adopting Pacemaker." msgstr "Neutron L3 エージェントは、プロジェクトのネットワークにある仮想マシンが確実に外部ネットワークにアクセスできるように、L3/NAT 転送機能を提供します。" #: ./doc/high-availability-guide/network/section_highly_available_neutron_l3_agent.xml13(para) msgid "" "Here is the documentation for " "installing neutron L3 agent." msgstr "ここに Neutron L3 エージェントをインストールするためのドキュメントがあります。" #: ./doc/high-availability-guide/network/section_highly_available_neutron_l3_agent.xml17(title) msgid "Add neutron L3 agent resource to Pacemaker" msgstr "Neutron L3 Agent リソースの Pacemaker への追加" #: ./doc/high-availability-guide/network/section_highly_available_neutron_l3_agent.xml23(para) msgid "" "You may now proceed with adding the Pacemaker configuration for neutron L3 " "agent resource. Connect to the Pacemaker cluster with crm " "configure, and add the following cluster resources:" msgstr "Neutron L3 Agent リソース用の Pacemaker 設定を追加して、次に進むことができます。crm configure を用いて Pacemaker クラスターに接続し、以下のクラスターリソースを追加します。" #: ./doc/high-availability-guide/network/section_highly_available_neutron_l3_agent.xml33(para) msgid "" "p_neutron-l3-agent, a resource for manage Neutron L3 " "Agent service" msgstr "p_neutron-l3-agent, Neutron L3 Agent サービスを管理するためのリソース。" #: ./doc/high-availability-guide/network/section_highly_available_neutron_l3_agent.xml40(para) msgid "" "Once completed, commit your configuration changes by entering " "commit from the crm configure menu. " "Pacemaker will then start the neutron L3 agent service, and its dependent " "resources, on one of your nodes." msgstr "完了すると、crm configure メニューから commit と入力し、設定の変更をコミットします。Pacemaker は Neutron L3 Agent サービスおよび依存するリソースを同じノードに起動します。" #: ./doc/high-availability-guide/network/section_highly_available_neutron_l3_agent.xml44(para) msgid "" "This method does not ensure a zero downtime since it has to recreate all the" " namespaces and virtual routers on the node." msgstr "この方法は、ノードですべての名前空間と仮想ルーターを再作成する必要があるため、無停止を保証しません。" #: ./doc/high-availability-guide/network/section_manage_network_resources.xml7(title) msgid "Manage network resources" msgstr "ネットワークリソースの管理" #: ./doc/high-availability-guide/network/section_manage_network_resources.xml9(para) msgid "" "You can now add the Pacemaker configuration for managing all network " "resources together with a group. Connect to the Pacemaker cluster with " "crm configure, and add the following cluster resources:" msgstr "すべてのネットワークリソースをグループと一緒に管理するための Pacemaker 設定を追加できます。crm configure を用いて Pacemaker クラスターに接続し、以下のクラスターリソースを追加します。" #: ./doc/high-availability-guide/network/section_highly_available_neutron_dhcp_agent.xml7(title) msgid "Highly available neutron DHCP agent" msgstr "高可用性 Neutron DHCP Agent" #: ./doc/high-availability-guide/network/section_highly_available_neutron_dhcp_agent.xml9(para) msgid "" "Neutron DHCP agent distributes IP addresses to the VMs with dnsmasq (by " "default). High availability for the DHCP agent is achieved by adopting " "Pacemaker." msgstr "Neutron DHCP エージェントは (デフォルトで) dnsmasq を用いて仮想マシンに IP アドレスを配布します。DHCP エージェントの高可用性は Pacemaker の適用により実現されます。" #: ./doc/high-availability-guide/network/section_highly_available_neutron_dhcp_agent.xml13(para) msgid "" "Here is the documentation for" " installing neutron DHCP agent." msgstr "ここに Neutron DHCP エージェントをインストールするためのドキュメントがあります。" #: ./doc/high-availability-guide/network/section_highly_available_neutron_dhcp_agent.xml17(title) msgid "Add neutron DHCP agent resource to Pacemaker" msgstr "Neutron DHCP Agent リソースの Pacemaker への追加" #: ./doc/high-availability-guide/network/section_highly_available_neutron_dhcp_agent.xml23(para) msgid "" "You may now proceed with adding the Pacemaker configuration for neutron DHCP" " agent resource. Connect to the Pacemaker cluster with crm " "configure, and add the following cluster resources:" msgstr "OpenStack DHCP Agent リソース用の Pacemaker 設定を追加して、次に進むことができます。crm configure を用いて Pacemaker クラスターに接続し、以下のクラスターリソースを追加します。" #: ./doc/high-availability-guide/network/section_highly_available_neutron_dhcp_agent.xml30(para) msgid "This configuration creates:" msgstr "この設定により、以下が作成されます。" #: ./doc/high-availability-guide/network/section_highly_available_neutron_dhcp_agent.xml33(para) msgid "" "p_neutron-agent-dhcp, a resource for manage Neutron DHCP " "Agent service." msgstr "p_neutron-agent-dhcp, Neutron DHCP Agent サービスを管理するためのリソース。" #: ./doc/high-availability-guide/network/section_highly_available_neutron_dhcp_agent.xml40(para) msgid "" "Once completed, commit your configuration changes by entering " "commit from the crm configure menu. " "Pacemaker will then start the neutron DHCP agent service, and its dependent " "resources, on one of your nodes." msgstr "完了すると、crm configure メニューから commit と入力し、設定の変更をコミットします。Pacemaker は Neutron DHCP Agent サービスおよび依存するリソースを同じノードに起動します。" #. Put one translator per line, in the form of NAME , YEAR1, YEAR2 #: ./doc/high-availability-guide/network/section_highly_available_neutron_dhcp_agent.xml0(None) msgid "translator-credits" msgstr "Tomoyuki KATO , 2012-2014"