diff --git a/doc/common/source/locale/id/LC_MESSAGES/common.po b/doc/common/source/locale/id/LC_MESSAGES/common.po index 95c3bd39a3..0439fd44be 100644 --- a/doc/common/source/locale/id/LC_MESSAGES/common.po +++ b/doc/common/source/locale/id/LC_MESSAGES/common.po @@ -6,7 +6,7 @@ msgid "" msgstr "" "Project-Id-Version: Common documents 1.0.0\n" "Report-Msgid-Bugs-To: \n" -"POT-Creation-Date: 2016-12-02 05:00+0000\n" +"POT-Creation-Date: 2016-12-05 04:01+0000\n" "MIME-Version: 1.0\n" "Content-Type: text/plain; charset=UTF-8\n" "Content-Transfer-Encoding: 8bit\n" @@ -2731,9 +2731,6 @@ msgstr "Cloudbase-Init" msgid "Clustering service" msgstr "Layanan Clustering" -msgid "Code name for the DNS service project for OpenStack." -msgstr "Nama kode untuk proyek layanan DNS untuk OpenStack." - msgid "" "Collection of Compute components that represent the global state of the " "cloud; talks to services, such as Identity authentication, Object Storage, " @@ -5051,24 +5048,6 @@ msgstr "" msgid "OpenStack mailing lists" msgstr "OpenStack milis" -msgid "" -"OpenStack project that aims to make cloud services easier to consume and " -"integrate with application development process by automating the source-to-" -"image process, and simplifying app-centric deployment. The project name is " -"solum." -msgstr "" -"Proyek OpenStack yang bertujuan untuk membuat layanan cloud lebih mudah " -"untuk mengkonsumsi dan mengintegrasikan dengan proses pengembangan aplikasi " -"dengan mengotomatisasi proses source-to-image, dan menyederhanakan " -"penyebaran aplikasi-sentris. Nama proyek solum." - -msgid "" -"OpenStack project that provides a Software Development Lifecycle Automation " -"service." -msgstr "" -"Proyek OpenStack yang menyediakan layanan Software Development Lifecycle " -"Automation." - msgid "" "OpenStack project that provides a scalable data-processing stack and " "associated management interfaces." @@ -5076,15 +5055,6 @@ msgstr "" "Proyek OpenStack yang menyediakan setumpuk pengolahan data terukur dan " "antarmuka manajemen terkait." -msgid "" -"OpenStack project that provides scalable, on demand, self service access to " -"authoritative DNS services, in a technology-agnostic manner. The code name " -"for the project is designate." -msgstr "" -"Proyek OpenStack yang menyediakan scalable, on demand, akses layanan diri ke " -"layanan DNS otoritatif, secara technology-agnostic . Nama kode untuk proyek " -"ini adalah designate." - msgid "" "OpenStack provides an :term:`Infrastructure-as-a-Service (IaaS)` solution " "through a set of interrelated services. Each service offers an :term:" @@ -5898,9 +5868,6 @@ msgstr "" "Batas lunak pada jumlah lalu lintas jaringan instance VM Compute dapat " "mengirim dan menerima." -msgid "Software Development Lifecycle Automation service" -msgstr "Software Development Lifecycle Automation service" - msgid "" "Software component providing the actual implementation for Networking APIs, " "or for Compute APIs, depending on the context." diff --git a/doc/common/source/locale/ja/LC_MESSAGES/common.po b/doc/common/source/locale/ja/LC_MESSAGES/common.po index 6d23da1b82..57af8a5e39 100644 --- a/doc/common/source/locale/ja/LC_MESSAGES/common.po +++ b/doc/common/source/locale/ja/LC_MESSAGES/common.po @@ -15,7 +15,7 @@ msgid "" msgstr "" "Project-Id-Version: Common documents 1.0.0\n" "Report-Msgid-Bugs-To: \n" -"POT-Creation-Date: 2016-12-02 05:00+0000\n" +"POT-Creation-Date: 2016-12-05 04:01+0000\n" "MIME-Version: 1.0\n" "Content-Type: text/plain; charset=UTF-8\n" "Content-Transfer-Encoding: 8bit\n" @@ -2741,9 +2741,6 @@ msgstr "Clustering service" msgid "Code name for :term:`Workflow service `." msgstr ":term:`Workflow サービス ` のコード名。" -msgid "Code name for the DNS service project for OpenStack." -msgstr "OpenStack の DNS サービスプロジェクトのコード名。" - msgid "" "Code name of the :term:`Key Manager service `." @@ -5167,23 +5164,6 @@ msgstr "" msgid "OpenStack mailing lists" msgstr "OpenStack メーリングリスト" -msgid "" -"OpenStack project that aims to make cloud services easier to consume and " -"integrate with application development process by automating the source-to-" -"image process, and simplifying app-centric deployment. The project name is " -"solum." -msgstr "" -"クラウドサービスをより簡単に利用し、アプリケーション開発プロセスと統合するこ" -"とを目的とする OpenStack プロジェクト。ソースからイメージまでの手順を自動化" -"し、アプリケーション中心の開発を単純化します。プロジェクト名は solum。" - -msgid "" -"OpenStack project that provides a Software Development Lifecycle Automation " -"service." -msgstr "" -"ソフトウェア開発ライフサイクル自動化サービスを提供する OpenStack プロジェク" -"ト。" - msgid "" "OpenStack project that provides a framework for performance analysis and " "benchmarking of individual OpenStack components as well as full production " @@ -5199,15 +5179,6 @@ msgstr "" "スケールアウト可能なデータ処理基盤と関連する管理インターフェースを提供する、" "OpenStack のプロジェクト。" -msgid "" -"OpenStack project that provides scalable, on demand, self service access to " -"authoritative DNS services, in a technology-agnostic manner. The code name " -"for the project is designate." -msgstr "" -"技術によらない方法で、権威 DNS サービスへの拡張可能、オンデマンド、セルフサー" -"ビスのアクセスを提供する OpenStack プロジェクト。このプロジェクトのコード名" -"は designate。" - msgid "" "OpenStack provides an :term:`Infrastructure-as-a-Service (IaaS)` solution " "through a set of interrelated services. Each service offers an :term:" @@ -6048,9 +6019,6 @@ msgstr "" "Compute の仮想マシンインスタンスが送受信できるネットワーク通信量のソフト制" "限。" -msgid "Software Development Lifecycle Automation service" -msgstr "ソフトウェア開発ライフサイクル自動化サービス" - msgid "" "Software component providing the actual implementation for Networking APIs, " "or for Compute APIs, depending on the context." diff --git a/doc/common/source/locale/ko_KR/LC_MESSAGES/common.po b/doc/common/source/locale/ko_KR/LC_MESSAGES/common.po index d4a61b536e..4f23aa4d88 100644 --- a/doc/common/source/locale/ko_KR/LC_MESSAGES/common.po +++ b/doc/common/source/locale/ko_KR/LC_MESSAGES/common.po @@ -5,7 +5,7 @@ msgid "" msgstr "" "Project-Id-Version: Common documents 1.0.0\n" "Report-Msgid-Bugs-To: \n" -"POT-Creation-Date: 2016-12-02 05:00+0000\n" +"POT-Creation-Date: 2016-12-05 04:01+0000\n" "MIME-Version: 1.0\n" "Content-Type: text/plain; charset=UTF-8\n" "Content-Transfer-Encoding: 8bit\n" @@ -2737,10 +2737,6 @@ msgstr "Cloudbase-Init" msgid "Clustering service" msgstr "Clustering service" -# auto translated by TM merge from project: openstack-manuals, version: stable-liberty, DocId: doc/common-rst/source/locale/common-rst -msgid "Code name for the DNS service project for OpenStack." -msgstr "OpenStack을 위한 DNS 서비스 프로젝트 코드명입니다." - # auto translated by TM merge from project: openstack-manuals, version: master, DocId: doc/glossary/locale/glossary msgid "" "Collection of Compute components that represent the global state of the " @@ -4927,22 +4923,6 @@ msgstr "" msgid "OpenStack mailing lists" msgstr "OpenStack 메일링 리스트" -msgid "" -"OpenStack project that aims to make cloud services easier to consume and " -"integrate with application development process by automating the source-to-" -"image process, and simplifying app-centric deployment. The project name is " -"solum." -msgstr "" -"소스에 대한 이미지로의 프로세스를 자동화하고 app 중심의 배포를 간략화함으로" -"써 응용 프로그램 개발 프로세스와의 통합 빛 사용을 보다 쉽게 하는 클라우드 서" -"비스를 만드는 것을 목표로 하는 OpenStack 프로젝트입니다. 프로젝트 이름은 " -"solum 입니다." - -msgid "" -"OpenStack project that provides a Software Development Lifecycle Automation " -"service." -msgstr "소프트웨어 개발 주기 자동화 서비스를 제공하는 OpenStack 프로젝트." - # auto translated by TM merge from project: openstack-manuals, version: stable-mitaka, DocId: doc/common/source/locale/common msgid "" "OpenStack project that provides a scalable data-processing stack and " @@ -4951,16 +4931,6 @@ msgstr "" "확장 가능한 데이터 처리 stack 및 관련된 관리 인터페이스를 제공하는 OpenStack " "프로젝트." -# auto translated by TM merge from project: openstack-manuals, version: stable-liberty, DocId: doc/common-rst/source/locale/common-rst -msgid "" -"OpenStack project that provides scalable, on demand, self service access to " -"authoritative DNS services, in a technology-agnostic manner. The code name " -"for the project is designate." -msgstr "" -"신뢰할 수 있는 DNS 서비스에 대한 확장 가능한, 온디맨드, 셀프 서비스 액세스를 " -"기술에 의존적이지 않은 방식으로 제공하는 OpenStack 프로젝트입니다. 해당 프로" -"젝트의 코드 이름은 designate입니다." - msgid "OpenStack services" msgstr "OpenStack 서비스" @@ -5764,9 +5734,6 @@ msgstr "" "어떤 Compute VM 인스턴스가 보내고 받을 수 있는 네트워크 트래픽량에 대한 소프" "트 한계 값." -msgid "Software Development Lifecycle Automation service" -msgstr "소프트웨어 개발 주기 자동화 서비스" - msgid "" "Software programs used to protect sensitive information and prevent it from " "leaking outside a network boundary through the detection and denying of the " diff --git a/doc/common/source/locale/vi_VN/LC_MESSAGES/common.po b/doc/common/source/locale/vi_VN/LC_MESSAGES/common.po index 13453373f7..ee756abc80 100644 --- a/doc/common/source/locale/vi_VN/LC_MESSAGES/common.po +++ b/doc/common/source/locale/vi_VN/LC_MESSAGES/common.po @@ -13,7 +13,7 @@ msgid "" msgstr "" "Project-Id-Version: Common documents 1.0.0\n" "Report-Msgid-Bugs-To: \n" -"POT-Creation-Date: 2016-11-30 01:05+0000\n" +"POT-Creation-Date: 2016-12-05 04:01+0000\n" "MIME-Version: 1.0\n" "Content-Type: text/plain; charset=UTF-8\n" "Content-Transfer-Encoding: 8bit\n" @@ -1767,9 +1767,6 @@ msgstr "Giao diện Quản lý Cơ sở hạ tầng Cloud (CIMI)" msgid "Cloudbase-Init" msgstr "Cloudbase-Init" -msgid "Code name for the DNS service project for OpenStack." -msgstr "Tên mã dự án dịch vụ DNS của OpenStack." - msgid "" "Collection of Compute components that represent the global state of the " "cloud; talks to services, such as Identity authentication, Object Storage, " @@ -2828,15 +2825,6 @@ msgstr "" "Một dự án OpenStack cung cấp một stack xử lý dữ liệu có khả năng mở rộng " "cùng với các giao diện quản lý đi kèm." -msgid "" -"OpenStack project that provides scalable, on demand, self service access to " -"authoritative DNS services, in a technology-agnostic manner. The code name " -"for the project is designate." -msgstr "" -"Dự án của OpenStack cung cấp các truy cập có khả năng mở rộng, theo yêu cầu " -"và tự phục vụ đến các dịch vụ DNS có thẩm quyền, theo kiểu độc lập với công " -"nghệ. Tên mã của dự án này là designate." - msgid "OpenStack supports accessing the Amazon EC2 API through Compute." msgstr "OpenStack hỗ trợ truy cập vào Amazon EC2 API thông qua Compute." diff --git a/doc/common/source/locale/zh_CN/LC_MESSAGES/common.po b/doc/common/source/locale/zh_CN/LC_MESSAGES/common.po index e399bc7808..fa4867d68d 100644 --- a/doc/common/source/locale/zh_CN/LC_MESSAGES/common.po +++ b/doc/common/source/locale/zh_CN/LC_MESSAGES/common.po @@ -18,7 +18,7 @@ msgid "" msgstr "" "Project-Id-Version: Common documents 1.0.0\n" "Report-Msgid-Bugs-To: \n" -"POT-Creation-Date: 2016-12-02 05:00+0000\n" +"POT-Creation-Date: 2016-12-05 04:01+0000\n" "MIME-Version: 1.0\n" "Content-Type: text/plain; charset=UTF-8\n" "Content-Transfer-Encoding: 8bit\n" @@ -1845,9 +1845,6 @@ msgstr "" msgid "Cloud Infrastructure Management Interface (CIMI)" msgstr "云基础设施管理接口(CIMI)" -msgid "Code name for the DNS service project for OpenStack." -msgstr "OpenStack中DNS服务项目的代号。" - msgid "" "Collection of Compute components that represent the global state of the " "cloud; talks to services, such as Identity authentication, Object Storage, " @@ -2973,33 +2970,11 @@ msgstr "" msgid "OpenStack mailing lists" msgstr "OpenStack 邮件列表" -msgid "" -"OpenStack project that aims to make cloud services easier to consume and " -"integrate with application development process by automating the source-to-" -"image process, and simplifying app-centric deployment. The project name is " -"solum." -msgstr "" -"旨在通过自动化资源到镜像进程,和简化以应用为中心开发,来使云服务更易于消化和" -"整合应用程序开发进程的OpenStack项目。项目名是solum。" - -msgid "" -"OpenStack project that provides a Software Development Lifecycle Automation " -"service." -msgstr "提供软件开发生命周期自动化服务的OpenStack项目。" - msgid "" "OpenStack project that provides a scalable data-processing stack and " "associated management interfaces." msgstr "提供可伸缩数据处理栈和关联管理接口的OpenStack项目。" -msgid "" -"OpenStack project that provides scalable, on demand, self service access to " -"authoritative DNS services, in a technology-agnostic manner. The code name " -"for the project is designate." -msgstr "" -"以技术不可知方式向权威DNS服务提供按需可伸缩自服务访问的OpenStack项目。项目代" -"号为designate。" - msgid "OpenStack services" msgstr "OpenStack 服务" @@ -3472,9 +3447,6 @@ msgid "" "and receive." msgstr "一个计算服务虚机实例可以发送和接受的网络流量的软限制值。" -msgid "Software Development Lifecycle Automation service" -msgstr "软件开发生命周期自动化服务" - msgid "" "Software component providing the actual implementation for Networking APIs, " "or for Compute APIs, depending on the context." diff --git a/doc/ha-guide/source/locale/ja/LC_MESSAGES/ha-guide.po b/doc/ha-guide/source/locale/ja/LC_MESSAGES/ha-guide.po index 08a6e6dfab..b194d9881b 100644 --- a/doc/ha-guide/source/locale/ja/LC_MESSAGES/ha-guide.po +++ b/doc/ha-guide/source/locale/ja/LC_MESSAGES/ha-guide.po @@ -5,7 +5,7 @@ msgid "" msgstr "" "Project-Id-Version: High Availability Guide 0.0.1\n" "Report-Msgid-Bugs-To: \n" -"POT-Creation-Date: 2016-10-21 09:31+0000\n" +"POT-Creation-Date: 2016-12-05 04:01+0000\n" "MIME-Version: 1.0\n" "Content-Type: text/plain; charset=UTF-8\n" "Content-Transfer-Encoding: 8bit\n" @@ -16,41 +16,6 @@ msgstr "" "X-Generator: Zanata 3.7.3\n" "Plural-Forms: nplurals=1; plural=0\n" -msgid "**Cluster Address** List the IP addresses for each cluster node." -msgstr "**クラスターアドレス** 各クラスターノードの IP アドレスを表示します。" - -msgid "**Cluster Name** Define an arbitrary name for your cluster." -msgstr "**クラスター名** 任意のクラスターの名前を定義します。" - -msgid "**Corosync configuration file fragment for unicast (corosync.conf)**" -msgstr "**ユニキャスト向け Corosync 設定ファイルの断片 (corosync.conf)**" - -msgid "**Data loss**" -msgstr "**データロス**" - -msgid "**Example Corosync configuration file for multicast (corosync.conf)**" -msgstr "**マルチキャスト用の Corosync 設定ファイル例 (corosync.conf)**" - -msgid "**Node Address** Define the IP address of the cluster node." -msgstr "**ノードアドレス** クラスターノードの IP アドレスを定義します。" - -msgid "**Node Name** Define the logical name of the cluster node." -msgstr "**ノード名** クラスターノードの論理名を定義します。" - -msgid "**System downtime**" -msgstr "**システムの停止時間**" - -msgid "" -"**wsrep Provider** The Galera Replication Plugin serves as the wsrep " -"Provider for Galera Cluster. It is installed on your system as the " -"``libgalera_smm.so`` file. You must define the path to this file in your " -"``my.cnf``." -msgstr "" -"**wsrep Provider** Galera Replication Plugin は、Galera Cluster の wsrep " -"Provider として動作します。お使いのシステムに ``libgalera_smm.so`` ファイルと" -"してインストールされます。このファイルへのパスを ``my.cnf`` に定義する必要が" -"あります。" - msgid "/etc/neutron/neutron.conf parameters for high availability" msgstr "高可用性のための /etc/neutron/neutron.conf のパラメーター" @@ -72,18 +37,6 @@ msgstr ":command:`# zypper addrepo -f obs://Cloud:OpenStack:Kilo/SLE_12 Kilo`" msgid ":command:`# zypper install rabbitmq-server`" msgstr ":command:`# zypper install rabbitmq-server`" -msgid "" -":command:`crm configure` supports batch input so you may copy and paste the " -"above lines into your live Pacemaker configuration, and then make changes as " -"required. For example, you may enter edit ``p_ip_keystone`` from the :" -"command:`crm configure` menu and edit the resource to match your preferred " -"virtual IP address." -msgstr "" -":command:`crm configure` はバッチ入力をサポートします。そのため、現在の " -"pacemaker 設定の中に上をコピー・ペーストし、適宜変更を反映できます。例えば、" -"お好みの仮想 IP アドレスに一致させるために、:command:`crm configure` メニュー" -"から ``edit p_ip_keystone`` と入力し、リソースを編集できます。" - msgid ":doc:`Networking DHCP agent`" msgstr ":doc:`Networking DHCP エージェント `" @@ -96,13 +49,6 @@ msgstr ":doc:`Networking LBaaS エージェント `" msgid ":doc:`Neutron metadata agent`" msgstr ":doc:`Networking メタデータエージェント `" -msgid "" -":ref:`Configure OpenStack services to use Rabbit HA queues `" -msgstr "" -":ref:`RabbitMQ HA キューを使用するための OpenStack サービスの設定 `" - msgid ":ref:`Configure RabbitMQ for HA queues`" msgstr ":ref:`高可用性 キュー用の RabbitMQ の設定 `" @@ -200,47 +146,6 @@ msgid "" "is:" msgstr ":file:`corosync.conf` ファイルの votequorum サービス設定例:" -msgid "" -"A service that provides a response after your request and then requires no " -"further attention. To make a stateless service highly available, you need to " -"provide redundant instances and load balance them. OpenStack services that " -"are stateless include ``nova-api``, ``nova-conductor``, ``glance-api``, " -"``keystone-api``, ``neutron-api`` and ``nova-scheduler``." -msgstr "" -"リクエストに応答して、その後さらなる注意を必要としないサービス。ステートレス" -"なサービスを高可用化するために、複数のインスタンスを配備して、負荷分散する必" -"要があります。ステートレスな OpenStack サービスに ``nova-api``、``nova-" -"conductor``、``glance-api``、``keystone-api``、``neutron-api``、``nova-" -"scheduler`` があります。" - -msgid "" -"A service where subsequent requests to the service depend on the results of " -"the first request. Stateful services are more difficult to manage because a " -"single action typically involves more than one request, so simply providing " -"additional instances and load balancing does not solve the problem. For " -"example, if the horizon user interface reset itself every time you went to a " -"new page, it would not be very useful. OpenStack services that are stateful " -"include the OpenStack database and message queue. Making stateful services " -"highly available can depend on whether you choose an active/passive or " -"active/active configuration." -msgstr "" -"最初のリクエストの結果に応じて、後続のリクエストがあるサービス。ステートフル" -"サービスは、あるアクションが一般的に複数のリクエストに影響するため、管理する" -"ことが難しいです。そのため、単純に追加インスタンスを配備して負荷分散するだけ" -"では、問題を解決できません。例えば、horizon ユーザーインターフェースが、新し" -"いページを開くたびに毎回リセットされると、ほとんど役に立たないでしょう。ス" -"テートフルな OpenStack サービスには、OpenStack のデータベース、メッセージ" -"キューがあります。ステートレスなサービスの高可用化には、アクティブ/パッシブま" -"たはアクティブ/アクティブな設定のどちらを選択するかに依存する可能性がありま" -"す。" - -msgid "" -"A shared implementation and calculation of `quorum `_." -msgstr "" -"`クォーラム `_ の" -"共有実装と計算" - msgid "" "A typical active/active installation for a stateful service includes " "redundant services, with all instances having an identical state. In other " @@ -259,40 +164,9 @@ msgstr "" msgid "API isolation" msgstr "API 分離" -msgid "" -"Ability to take periodic \"snap shots\" throughout the installation process " -"and \"roll back\" to a working configuration in the event of a problem." -msgstr "" -"インストール中に定期的に「スナップショット」を取得したり、問題発生時に動作す" -"る設定に「ロールバック」したりできます。" - msgid "Abstract" msgstr "概要" -msgid "" -"Access to RabbitMQ is not normally handled by HAproxy. Instead, consumers " -"must be supplied with the full list of hosts running RabbitMQ with " -"``rabbit_hosts`` and turn on the ``rabbit_ha_queues`` option." -msgstr "" -"RabbitMQ へのアクセスは、通常 HAproxy により取り扱われません。利用者は代わり" -"に、 ``rabbit_hosts`` を用いて RabbitMQ を実行しているホストの一覧を指定し" -"て、 ``rabbit_ha_queues`` オプションを有効化する必要があります。" - -msgid "" -"Access to memcached is not handled by HAproxy because replicated access is " -"currently only in an experimental state. Instead OpenStack services must be " -"supplied with the full list of hosts running memcached." -msgstr "" -"重複アクセスは現在実験的な位置づけのため、memcached へのアクセスは HAproxy を" -"利用しません。代わりに、OpenStack のサービスは memcached を実行しているホスト" -"をすべて指定する必要があります。" - -msgid "Accidental deletion or destruction of data." -msgstr "意図しないデータの削除や破損。" - -msgid "Active/Passive vs. Active/Active" -msgstr "アクティブ/パッシブとアクティブ/アクティブ" - msgid "Add Block Storage API resource to Pacemaker" msgstr "Block Storage API リソースの Pacemaker への追加" @@ -308,16 +182,6 @@ msgstr "Shared File Systems API リソースの Pacemaker への追加" msgid "Additional parameters" msgstr "追加パラメーター" -msgid "" -"After completing these steps, commit your configuration changes by entering :" -"command:`commit` from the :command:`crm configure` menu. Pacemaker then " -"starts the OpenStack Image API service and its dependent resources on one of " -"your nodes." -msgstr "" -"これらの手順の完了後、:command:`crm configure` メニューから :command:" -"`commit` と入力し、設定の変更をコミットします。Pacemaker は OpenStack Image " -"API サービスおよび依存するリソースを同じノードに起動します。" - msgid "" "After installing the Corosync package, you must create the :file:`/etc/" "corosync/corosync.conf` configuration file." @@ -335,45 +199,9 @@ msgstr "" "後、Pacemaker のマスター制御プロセス :command:`pacemakerd` を起動できます。以" "下の 4 通りの方法からどれかを選択してください。" -msgid "" -"After the ``pacemaker`` service have started, Pacemaker creates a default " -"empty cluster configuration with no resources. Use the :command:`crm_mon` " -"utility to observe the status of ``pacemaker``:" -msgstr "" -"``pacemaker`` サービスの起動後、Pacemaker がリソースを持たないデフォルトの空" -"クラスターを作成します。 :command:`crm_mon` ユーティリティーを使用して、" -"``pacemaker`` の状態を確認します。" - -msgid "" -"After you add these resources, commit your configuration changes by " -"entering :command:`commit` from the :command:`crm configure` menu. Pacemaker " -"then starts the OpenStack Identity service and its dependent resources on " -"all of your nodes." -msgstr "" -"これらのリソースの追加後、:command:`crm configure` メニューから :command:" -"`commit` と入力し、設定の変更をコミットします。Pacemaker は OpenStack " -"Identity サービスおよび依存するリソースを同じノードに起動します。" - -msgid "After you make these changes, you may commit the updated configuration." -msgstr "これらの変更実行後、更新した設定を範囲する必要があるかもしれません。" - -msgid "" -"After you set up your Pacemaker cluster, you should set a few basic cluster " -"properties:" -msgstr "" -"Pacemaker クラスターのセットアップ後、いくつかの基本的なクラスターのプロパ" -"ティーを設定すべきです。" - msgid "All routers are highly available by default." msgstr "すべてのルーターは、デフォルトで高可用性になっています。" -msgid "" -"Almost all services in this stack benefit from being proxied. Using a proxy " -"server provides:" -msgstr "" -"このスタックのほぼすべてのサービスは、プロキシーする恩恵を受けられます。プロ" -"キシーサーバを使用することにより、以下が提供されます。" - msgid "" "Alternatively, if the database server is running, use the " "``wsrep_last_committed`` status variable:" @@ -474,19 +302,6 @@ msgstr "" "を覚えておいてください。長い間、Galera Cluster のセキュリティーポリシーを開発" "して、SELinux を enforcing モードに切り替える必要があります。" -msgid "" -"Bear in mind, while setting this parameter to ``1`` or ``2`` can improve " -"performance, it introduces certain dangers. Operating system failures can " -"erase the last second of transactions. While you can recover this data from " -"another node, if the cluster goes down at the same time (in the event of a " -"data center power outage), you lose this data permanently." -msgstr "" -"このパラメーターを ``1`` か ``2`` に設定することにより、性能を改善できます" -"が、ある種の危険性があることを覚えておいてください。オペレーティングシステム" -"の障害が、最後の数秒のトランザクションを消去する可能性があります。このデータ" -"を他のノードから復旧することもできますが、クラスターが同時に停止した場合 " -"(データセンターの電源障害時)、このデータを完全に失います。" - msgid "" "Before following this guide to configure the highly available OpenStack " "cluster, ensure the IP ``10.0.0.11`` and hostname ``controller`` are not in " @@ -495,9 +310,6 @@ msgstr "" "このガイドを読み進める前に、高可用性 OpenStack クラスターが IP アドレス " "``10.0.0.11`` とホスト名 ``controller`` を使わないよう設定してください。" -msgid "Before you attempt this, verify that you have the following ready:" -msgstr "これを試す前に、以下の準備ができていることを確認します。" - msgid "" "Before you launch Galera Cluster, you need to configure the server and the " "database to operate as part of the cluster." @@ -505,54 +317,9 @@ msgstr "" "Galera クラスターを起動する前に、クラスターの一部として動作するよう、サーバー" "とデータベースを設定する必要があります。" -msgid "" -"Block Storage service (cinder) can use LVM or Ceph RBD as the storage back " -"end." -msgstr "" -"Block Storage サービス (cinder) は、ストレージバックエンドとして LVM や Ceph " -"RBD を使用できます。" - -msgid "" -"Both the central and the compute agent can run in an HA deployment, which " -"means that multiple instances of these services can run in parallel with " -"workload partitioning among these running instances." -msgstr "" -"中央エージェントとコンピュートエージェントの両方は、高可用性で動作できます。" -"これらのサービスの複数のインスタンスが、これらを実行しているインスタンス間で" -"並行して負荷分散できることを意味します。" - -msgid "" -"By default, cluster nodes do not start as part of a Primary Component. " -"Instead they assume that one exists somewhere and attempts to establish a " -"connection with it. To create a Primary Component, you must start one " -"cluster node using the ``--wsrep-new-cluster`` option. You can do this using " -"any cluster node, it is not important which you choose. In the Primary " -"Component, replication and state transfers bring all databases to the same " -"state." -msgstr "" -"クラスターノードは、デフォルトで Primary Component の一部として起動しません。" -"代わりに、それがどこかに存在すると仮定し、そこへの接続を確立しようとします。" -"1 つのクラスターノードを ``--wsrep-new-cluster`` オプションを付けて起動して、" -"Primary Component を作成する必要があります。任意のクラスターノードを使用して" -"実行でき、どれを選択するかは重要ではありません。Primary Component において、" -"レプリケーションと状態転送により、すべてのデータベースが同じ状態になります。" - msgid "Ceph" msgstr "Ceph" -msgid "" -"Ceph RBD provides object replication capabilities by storing Block Storage " -"volumes as Ceph RBD objects; Ceph RBD ensures that each replica of an object " -"is stored on a different node. This means that your volumes are protected " -"against hard drive and node failures or even the failure of the data center " -"itself." -msgstr "" -"Ceph RBD は、Ceph RBD オブジェクトとして Block Storage のボリュームを保存する" -"ことにより、オブジェクトレプリケーション機能を提供します。オブジェクトの各レ" -"プリカが別々のノードに保存されることを保証します。このことは、お使いのボ" -"リュームがハードディスクやノードの障害時、データセンター自体の障害時にも保護" -"されることを意味します。" - msgid "" "Certain services running on the underlying operating system of your " "OpenStack database may block Galera Cluster from normal operation or prevent " @@ -568,15 +335,6 @@ msgstr "クラスターが定数になるために期待されるボート数を msgid "Change the number of votes assigned to a node" msgstr "ノードに割り当てられたボート数を変更します" -msgid "" -"Cinder provides 'block storage as a service' suitable for performance " -"sensitive scenarios such as databases, expandable file systems, or providing " -"a server with access to raw block level storage." -msgstr "" -"Cinder は、データベースなどの性能を必要とするシナリオ、拡張可能なファイルシス" -"テム、ローブロックレベルストレージにアクセスするサーバーに適するサービスとし" -"て「block storage as a service」を提供します。" - msgid "Clusters and quorums" msgstr "クラスターとクォーラム" @@ -614,15 +372,6 @@ msgstr "" msgid "Configure OpenStack services to use Rabbit HA queues" msgstr "RabbitMQ HA キューを使用するための OpenStack サービスの設定" -msgid "Configure OpenStack services to use highly available Block Storage API" -msgstr "高可用性 Block Storage API を使用するための OpenStack サービスの設定" - -msgid "" -"Configure OpenStack services to use highly available OpenStack Image API" -msgstr "" -"高可用性 OpenStack Image Service API を使用するための OpenStack サービスの設" -"定" - msgid "" "Configure OpenStack services to use the highly available OpenStack Identity" msgstr "高可用性 OpenStack Identity を使用するための OpenStack サービスの設定" @@ -633,9 +382,6 @@ msgstr "高可用性 キュー用の RabbitMQ の設定" msgid "Configure Shared File Systems API service" msgstr "Shared File Systems API サービスの設定" -msgid "Configure high availability on compute nodes" -msgstr "コンピュートノードにおける高可用性の設定" - msgid "Configure the VIP" msgstr "仮想 IP の設定" @@ -651,22 +397,9 @@ msgstr "InnoDB の設定" msgid "Configuring OpenStack services to use this IP address" msgstr "OpenStack のサービスがこの IP アドレスを使用する設定" -msgid "" -"Configuring RAID on the hard drives that implement storage protects your " -"data against a hard drive failure. If, however, the node itself fails, data " -"may be lost. In particular, all volumes stored on an LVM node can be lost." -msgstr "" -"ストレージを実装するハードディスクに RAID を設定することにより、ハードディス" -"ク障害からデータを保護します。しかしながら、ノード自体が故障した場合、データ" -"が失われるかもしれません。とくに、LVM ノードに保存されている全ボリュームは失" -"われる可能性があります。" - msgid "Configuring Storage for high availability" msgstr "ストレージの高可用性の設定" -msgid "Configuring ``mysqld``" -msgstr "``mysqld`` の設定" - msgid "Configuring the compute node for high availability" msgstr "コンピュートノードの高可用性の設定" @@ -717,20 +450,6 @@ msgstr "" "``disable`` ディレクトリーにデータベースサーバーへのシンボリックリンクを作成" "します。" -msgid "Create the cluster, giving it a name, and start it:" -msgstr "名前を指定してクラスターを作成し、起動します。" - -msgid "" -"Currently, no native feature is provided to make the LBaaS agent highly " -"available using the default plug-in HAProxy. A common way to make HAProxy " -"highly available is to use the VRRP (Virtual Router Redundancy Protocol). " -"Unfortunately, this is not yet implemented in the LBaaS HAProxy plug-in." -msgstr "" -"現在、デフォルトのプラグイン HAProxy を使用して、LBaaS エージェントを高可用化" -"する組み込み機能はありません。HAProxy を高可用化する一般的な方法は、VRRP " -"(Virtual Router Redundancy Protocol) を使用することです。残念ながら、これはま" -"だ LBaaS HAProxy プラグインに実装されていません。" - msgid "" "Data integrity through fencing (a non-responsive process does not imply it " "is not doing anything)" @@ -744,13 +463,6 @@ msgstr "データベース (Galera クラスター) の高可用性" msgid "Database configuration" msgstr "データベース設定" -msgid "" -"Database hosts with Galera Cluster installed. You need a minimum of three " -"hosts;" -msgstr "" -"Galera Cluster クラスターがインストールされたデータベースホスト。少なくとも " -"3 つのホストが必要です。" - msgid "" "Define the InnoDB memory buffer pool size. The default value is 128 MB, but " "to compensate for Galera Cluster's additional memory usage, scale your usual " @@ -781,28 +493,12 @@ msgstr "" "てテーブルに ``INSERT`` ステートメントを発行するかもしれません。これは、シス" "テムが応答不可になる解決不能なデッドロックに陥ります。" -msgid "Do this configuration on all services using RabbitMQ:" -msgstr "RabbitMQ を使用するすべてのサービスでこの設定を行います。" - msgid "" "Each configured interface must have a unique ``ringnumber``, starting with 0." msgstr "" "設定済みの各インターフェースは、0 から始まる一意な ``ringnumber`` を持つ必要" "があります。" -msgid "Each instance has its own IP address;" -msgstr "各インスタンスは、自身の IP アドレスを持ちます。" - -msgid "" -"Each instance of HAProxy configures its front end to accept connections only " -"from the virtual IP (VIP) address and to terminate them as a list of all " -"instances of the corresponding service under load balancing, such as any " -"OpenStack API service." -msgstr "" -"HAProxy の各インスタンスは、仮想 IP アドレスからの接続のみを受け付け、" -"OpenStack API サービスなど、負荷分散するサービスの全インスタンスの一覧に振り" -"分けるよう、そのフロントエンドを設定します。" - msgid "" "Each service also has a backup but manages both the main and redundant " "systems concurrently. This way, if there is a failure, the user is unlikely " @@ -814,13 +510,6 @@ msgstr "" "ムはすでにオンラインであり、メインシステムが復旧され、オンラインになるまでの" "間は負荷が高くなります。" -msgid "" -"Edit the :file:`/etc/glance/glance-api.conf` file to configure the OpenStack " -"image service:" -msgstr "" -":file:`/etc/glance/glance-api.conf` ファイルを編集して、OpenStack Image サー" -"ビスを設定します。" - msgid "Edit the :file:`/etc/manila/manila.conf` file:" msgstr "`/etc/manila/manila.conf` ファイルを編集します。" @@ -831,19 +520,9 @@ msgstr "" ":file:`keystone.conf` ファイルを編集して、 :manpage:`bind(2)` パラメーターの" "値を変更します。" -msgid "Edit the ``/etc/cinder/cinder.conf`` file:" -msgstr "``/etc/cinder/cinder.conf`` ファイルを編集します。" - msgid "Enhanced failure detection" msgstr "高度な障害検出" -msgid "" -"Ensure that the InnoDB locking mode for generating auto-increment values is " -"set to ``2``, which is the interleaved locking mode." -msgstr "" -"自動インクリメント値を生成するための InnoDB ロックモードがをきちんと``2`` に" -"設定してください。これは、インターリーブ・ロックモードです。" - msgid "" "Ensure that the InnoDB log buffer is written to file once per second, rather " "than on each commit, to improve performance:" @@ -861,25 +540,6 @@ msgstr "" msgid "Ensure that the default storage engine is set to InnoDB:" msgstr "デフォルトのストレージエンジンをきちんと InnoDB に設定してください。" -msgid "" -"Ephemeral storage is allocated for an instance and is deleted when the " -"instance is deleted. The Compute service manages ephemeral storage. By " -"default, Compute stores ephemeral drives as files on local disks on the " -"Compute node but Ceph RBD can instead be used as the storage back end for " -"ephemeral storage." -msgstr "" -"一時ストレージは、インスタンスのために割り当てられ、インスタンスの削除時に削" -"除されます。Compute サービスが一時ストレージを管理します。Compute はデフォル" -"トで、コンピュートノードのローカルディスクにファイルとして一時ディスクを保存" -"します。代わりに、Ceph RBD が一時ストレージのストレージバックエンドとして使用" -"できます。" - -msgid "Example Config File" -msgstr "サンプル設定ファイル" - -msgid "Example configuration with three hosts:" -msgstr "3 ホストでの設定例:" - msgid "Facility services such as power, air conditioning, and fire protection" msgstr "電源、空調、防火などに関する設備" @@ -898,24 +558,6 @@ msgstr "" "ローラーノードにおいて Networking サービスを実行します。このガイドでは、便宜" "上、「ネットワークノード」という言葉を使用します。" -msgid "" -"For OpenStack Compute, for example, if your OpenStack Identity service IP " -"address is 10.0.0.11, use the following configuration in your :file:`api-" -"paste.ini` file:" -msgstr "" -"例えば、OpenStack Compute の場合、OpenStack Identity サービスの IP アドレス" -"が 10.0.0.11 ならば、以下の設定を :file:`api-paste.ini` ファイルに使用しま" -"す。" - -msgid "" -"For OpenStack Compute, for example, if your OpenStack Image API service IP " -"address is 10.0.0.11 (as in the configuration explained here), you would use " -"the following configuration in your :file:`nova.conf` file:" -msgstr "" -"例えば、OpenStack Compute の場合、OpenStack Image API サービスの IP アドレス" -"が (ここで説明されている設定のように) 10.0.0.11 ならば、以下の設定を :file:" -"`nova.conf` ファイルに使用します。" - msgid "" "For SLES 12, the packages are signed by GPG key 893A90DAD85F9316. You should " "verify the fingerprint of the imported GPG key before using it." @@ -957,76 +599,12 @@ msgstr "" "デモや学習の場合、仮想マシンにテスト環境をセットアップできます。これには以下" "の利点があります。" -msgid "" -"For detailed instructions about installing HAProxy on your nodes, see its " -"`official documentation `_." -msgstr "" -"お使いのノードに HAProxy をインストールする方法の詳細は `公式ドキュメント " -"`_ を参照してください。" - -msgid "" -"For environments that do not support multicast, Corosync should be " -"configured for unicast. An example fragment of the :file:`corosync.conf` " -"file for unicastis shown below:" -msgstr "" -"マルチキャストをサポートしていない場合、Corosync はユニキャストで設定すべきで" -"す。ユニキャスト向け :file:`corosync.conf` ファイルの設定例を以下に示します。" - -msgid "" -"For firewall configurations, note that Corosync communicates over UDP only, " -"and uses ``mcastport`` (for receives) and ``mcastport - 1`` (for sends)." -msgstr "" -"ファイアウォール設定に向け、Corosync は UDP のみで通信して、 ``mcastport`` " -"(受信用) と ``mcastport - 1`` (送信用) を使用することに注意してください。" - -msgid "" -"For more information on configuring SELinux to work with Galera Cluster, see " -"the `Documentation `_" -msgstr "" -"Galera Cluster と動作する SELinux を設定する方法の詳細は `ドキュメント " -"`_ を参照してく" -"ださい。" - msgid "" "For more information, see the official installation manual for the " "distribution:" msgstr "" "詳細はディストリビューションの公式インストールガイドを参照してください。" -msgid "For servers that use ``systemd``, instead run these commands:" -msgstr "" -"``systemd`` を使用するサーバーの場合、これらのコマンドを代わりに実行します。" - -msgid "For servers that use ``systemd``, instead run this command:" -msgstr "" -"``systemd`` を使用するサーバーの場合、代わりにこのコマンドを実行します。" - -msgid "" -"For the documentation of these parameters, wsrep Provider option and status " -"variables available in Galera Cluster, see `Reference `_." -msgstr "" -"Galera Cluster において利用できる、これらのパラメーター、wsrep プロバイダーオ" -"プション、状態変数のドキュメントは、`Reference `_ を参照してください。" - -msgid "" -"For this reason, the use of a cluster manager like `Pacemaker `_ is highly recommended." -msgstr "" -"この理由により、 `Pacemaker `_ のようなクラスターマ" -"ネージャーの利用が強く推奨されます。" - -msgid "" -"Galera Cluster configuration parameters all have the ``wsrep_`` prefix. " -"There are five that you must define for each cluster node in your OpenStack " -"database." -msgstr "" -"Galera Cluster の設定パラメーターは、すべて ``wsrep_`` プレフィックスを持ちま" -"す。OpenStack データベースにおいて、各クラスターノード向けに定義する必要があ" -"るものが 5 個あります。" - msgid "" "Galera Cluster does not support non-transactional storage engines and " "requires that you use InnoDB by default. There are some additional " @@ -1036,36 +614,9 @@ msgstr "" "ん。デフォルトでは InnoDB を使用する必要があります。競合を避けるために定義す" "る必要のある追加パラメーターがいくつかあります。" -msgid "Galera Cluster requires that you open four ports to network traffic:" -msgstr "" -"Galera Cluster は、ネットワーク通信のために 4 つのポートを開く必要がありま" -"す。" - msgid "Galera can be configured using one of the following strategies:" msgstr "Galera は、以下の方法のどれかにより設定できます。" -msgid "Galera runs behind HAProxy." -msgstr "Galera は HAProxy の後ろで動作します" - -msgid "" -"Galera synchronous replication guarantees a zero slave lag. The failover " -"procedure completes once HAProxy detects that the active back end has gone " -"down and switches to the backup one, which is then marked as 'UP'. If no " -"back ends are up (in other words, the Galera cluster is not ready to accept " -"connections), the failover procedure finishes only when the Galera cluster " -"has been successfully reassembled. The SLA is normally no more than 5 " -"minutes." -msgstr "" -"Galera の同期レプリケーションは、スレーブのラグがないことを保証します。フェイ" -"ルオーバー手順は、アクティブなバックエンドがダウンしたことを HAProxy が検知す" -"ると、バックアップに切り替え、「UP」状態になります。バックエンドが UP になら" -"ない場合、つまり Galera クラスターが接続を受け付ける準備ができていない場合、" -"Galera クラスターが再び正常に再構成された場合のみ、フェイルオーバー手順が完了" -"します。SLA は、通常 5 分以内です。" - -msgid "Get a list of nodes known to the quorum service" -msgstr "クォーラムサービスが把握しているノード一覧の取得" - msgid "Glossary" msgstr "用語集" @@ -1090,29 +641,12 @@ msgstr "" "要とする、非常に高負荷な Web サイトに適しています。最近のハードウェアを用いる" "と、数千の接続を現実的にサポートします。" -msgid "" -"HAProxy should not be a single point of failure. It is advisable to have " -"multiple HAProxy instances running, where the number of these instances is a " -"small odd number like 3 or 5. You need to ensure its availability by other " -"means, such as Keepalived or Pacemaker." -msgstr "" -"HAProxy は単一障害点になってはいけません。HAProxy のインスタンスは 3台 また" -"は 5台のような奇数の複数台構成にすることを推奨します。Keepalived や " -"Pacemaker などの他の手段により、可用性を保証する必要があります。" - msgid "Hardware considerations for high availability" msgstr "高可用性のためのハードウェア考慮事項" msgid "Hardware setup" msgstr "ハードウェアのセットアップ" -msgid "" -"Here is an example ``/etc/haproxy/haproxy.cfg`` configuration file. You need " -"a copy of it on each controller node." -msgstr "" -"これは ``/etc/haproxy/haproxy.cfg`` 設定ファイルの例です。各コントローラー" -"ノードにコピーする必要があります。" - msgid "High availability concepts" msgstr "高可用性の概念" @@ -1134,9 +668,6 @@ msgstr "" msgid "High availability is turned off as the default in OpenStack setups." msgstr "高可用性は、デフォルトの OpenStack セットアップで無効化されています。" -msgid "High availability systems seek to minimize two things:" -msgstr "高可用性システムは、以下の 2 つを最小にすることを目指しています。" - msgid "" "High availability systems typically achieve an uptime percentage of 99.99% " "or more, which roughly equates to less than an hour of cumulative downtime " @@ -1163,44 +694,6 @@ msgstr "高可用性 Shared File Systems API" msgid "Highly available Telemetry API" msgstr "高可用性 Telemetry API" -msgid "" -"How frequently to retry connecting with RabbitMQ: [TODO: document the unit " -"of measure here? Seconds?]" -msgstr "" -"How frequently to retry connecting with RabbitMQ: [TODO: document the unit " -"of measure here? Seconds?]" - -msgid "" -"How long to back-off for between retries when connecting to RabbitMQ: [TODO: " -"document the unit of measure here? Seconds?]" -msgstr "" -"How long to back-off for between retries when connecting to RabbitMQ: [TODO: " -"document the unit of measure here? Seconds?]" - -msgid "" -"However, OpenStack does not require a significant amount of resources and " -"the following minimum requirements should support a proof-of-concept high " -"availability environment with core services and several instances:" -msgstr "" -"しかしながら、OpenStack は膨大なリソースを必要としません。以下の最小要件は、" -"コアサービスといくつかのインスタンスを動かす検証 (POC) 環境には対応できること" -"でしょう。" - -msgid "" -"However, running an OpenStack environment on VMs degrades the performance of " -"your instances, particularly if your hypervisor and/or processor lacks " -"support for hardware acceleration of nested VMs." -msgstr "" -"しかしながら、仮想マシン上で OpenStack 環境を実行すると、インスタンスの性能が" -"悪くなります。とくに、ハイパーバイザーとプロセッサーが nested 仮想マシンの" -"ハードウェア支援機能をサポートしない場合は顕著です。" - -msgid "" -"However, the reasons vary and are discussed under each component's heading." -msgstr "" -"しかしながら、理由はさまざまであり、各コンポーネントの項目において議論されま" -"す。" - msgid "" "If the Block Storage service runs on the same nodes as the other services, " "then it is advisable to also include:" @@ -1208,34 +701,12 @@ msgstr "" "Block Storage サービスが他のサービスと同じノードで実行している場合、以下も含" "めることを推奨します。" -msgid "" -"If the ``broadcast`` parameter is set to yes, the broadcast address is used " -"for communication. If this option is set, the ``mcastaddr`` parameter should " -"not be set." -msgstr "" -"``broadcast`` パラメーターが yes に設定されている場合、ブロードキャストアドレ" -"スが通信に使用されます。このオプションが設定されている場合、``mcastaddr`` パ" -"ラメーターは設定すべきではありません。" - msgid "" "If the cluster is working, you can create usernames and passwords for the " "queues." msgstr "" "クラスターが動作していると、キューのユーザー名とパスワードを作成できます。" -msgid "" -"If you are using Corosync version 2 on Ubuntu 14.04, remove or comment out " -"lines under the service stanza, which enables Pacemaker to start up. Another " -"potential problem is the boot and shutdown order of Corosync and Pacemaker. " -"To force Pacemaker to start after Corosync and stop before Corosync, fix the " -"start and kill symlinks manually:" -msgstr "" -"Ubuntu 14.04 において Corosync バージョン 2 を使用している場合、サービスの節" -"の下にある行を削除するかコメントアウトします。これにより、Pacemaker が起動で" -"きます。別の潜在的な問題は、Corosync と Pacemaker の起動と停止の順番です。必" -"ず Pacemaker が Corosync の後に起動して、Corosync の前に停止させるために、" -"start と kill のシンボリックリンクを手動で修正します。" - msgid "" "If you are using Corosync version 2, use the :command:`corosync-cmapctl` " "utility instead of :command:`corosync-objctl`; it is a direct replacement." @@ -1244,20 +715,6 @@ msgstr "" "りに :command:`corosync-cmapctl` ユーティリティーを使用します。これは、そのま" "ま置き換えられます。" -msgid "" -"If you are using both private and public IP addresses, you should create two " -"virtual IP addresses and define your endpoint like this:" -msgstr "" -"プライベート IP とパブリック IP の両方を使用する場合、2 つの仮想 IP アドレス" -"を作成し、次のようにエンドポイントを定義すべきです。" - -msgid "" -"If you are using both private and public IP addresses, you should create two " -"virtual IPs and define your endpoint like this:" -msgstr "" -"プライベート IP アドレスとパブリック IP アドレスの両方を使用する場合、2 つの" -"仮想 IP アドレスを作成し、次のようにエンドポイントを定義すべきです。" - msgid "" "If you are using both private and public IP addresses, you should create two " "virtual IPs and define your endpoints like this:" @@ -1272,56 +729,6 @@ msgstr "" "Block Storage サービス OCF エージェントを使用している場合、いくつかの設定は入" "力されていて、設定ファイルを短くできます。" -msgid "" -"If you are using the horizon dashboard, edit the :file:`local_settings.py` " -"file to include the following:" -msgstr "" -"Dashboard を使用している場合、以下の内容を含めた :file:`local_settings.py` " -"ファイルを編集します。" - -msgid "" -"If you change the configuration from an old set-up that did not use HA " -"queues, you should restart the service:" -msgstr "" -"HA キューを使用していない古いセットアップから設定を変更した場合、サービスを再" -"起動しなければいけません。" - -msgid "" -"If you use HAProxy for load-balancing client access to Galera Cluster as " -"described in the :doc:`controller-ha-haproxy`, you can use the " -"``clustercheck`` utility to improve health checks." -msgstr "" -":doc:`controller-ha-haproxy` に記載されているとおり、Galera Cluster へのクラ" -"イアントアクセスを負荷分散するために、HAProxy を使用している場合、 " -"``clustercheck`` ユーティリティーを使用して、より良くヘルスチェックできます。" - -msgid "" -"Image service (glance) can use the Object Storage service (swift) or Ceph " -"RBD as the storage back end." -msgstr "" -"Image サービス (glance) は、ストレージバックエンドとして Object Storage サー" -"ビス (swift) や Ceph RBD を使用できます。" - -msgid "" -"In Corosync configurations using redundant networking (with more than one " -"interface), you must select a Redundant Ring Protocol (RRP) mode other than " -"none. ``active`` is the recommended RRP mode." -msgstr "" -"(複数のインターフェースを用いた) 冗長ネットワークを使用する Corosync 設定にお" -"いて、none ではなく、Redundant Ring Protocol (RRP) を選択する必要があります。" -"``active`` が RRP の推奨モードです。" - -msgid "" -"In Galera Cluster, the Primary Component is the cluster of database servers " -"that replicate into each other. In the event that a cluster node loses " -"connectivity with the Primary Component, it defaults into a non-operational " -"state, to avoid creating or serving inconsistent data." -msgstr "" -"Galera Cluster では、Primary Component が、お互いにレプリケーションするデータ" -"ベースサーバーのクラスターです。クラスターノードが Primary Component との接続" -"性を失った場合、不整合なデータの作成や処理を避けるために、デフォルトで非稼働" -"状態になります。" - msgid "" "In Red Hat Enterprise Linux or CentOS environments, this is a recommended " "path to perform configuration. For more information, see the `RHEL docs " @@ -1348,9 +755,6 @@ msgstr "" "一般的に、すべての OpenStack コンポーネントは 3 つのカテゴリーに分割できま" "す。" -msgid "In summary though:" -msgstr "概要:" - msgid "" "In the event that you need to restart any cluster node, you can do so. When " "the database server comes back it, it establishes connectivity with the " @@ -1361,44 +765,12 @@ msgstr "" "サーバーが戻ってきたとき、Primary Component との接続を確立して、停止中に失っ" "た変更をすべて自身に適用します。" -msgid "" -"In theory, you can run the Block Storage service as active/active. However, " -"because of sufficient concerns, it is recommended running the volume " -"component as active/passive only." -msgstr "" -"理論的には、Block Storage サービスをアクティブ/アクティブとして実行できます。" -"しかしながら、十分な課題のため、ボリュームコンポーネントをアクティブ/パッシブ" -"のみとして実行することが推奨されます。" - -msgid "In this case that is a problem though, because:" -msgstr "この場合、以下の理由で、それは問題になります。" - msgid "" "In this configuration, each service runs in a dedicated cluster of 3 or more " "nodes." msgstr "" "この設定では、各サービスが 3 以上のノードの専用クラスターで動作します。" -msgid "" -"In this configuration, there is a single cluster of 3 or more nodes on which " -"every component is running." -msgstr "" -"この設定では、すべてのコンポーネントが動作する、3 つ以上のノードを持つシング" -"ルクラスターがあります。" - -msgid "" -"Individual cluster nodes can stop and be restarted without issue. When a " -"database loses its connection or restarts, Galera Cluster brings it back " -"into sync once it reestablishes connection with the Primary Component. In " -"the event that you need to restart the entire cluster, identify the most " -"advanced cluster node and initialize the Primary Component on that node." -msgstr "" -"各クラスターノードは、問題なく停止したり再起動したりできます。データベースが" -"接続を失ったり、再起動したりしたとき、Primary Component と再接続されると、" -"Galera Cluster は同期状態に戻ります。クラスター全体を再起動する必要があると" -"き、最も高度なクラスターノードを識別し、そのノードの Primary Component を初期" -"化します。" - msgid "" "Initialize the Primary Component on one cluster node. For servers that use " "``init``, run the following command:" @@ -1412,12 +784,6 @@ msgstr "クラスターの初期化" msgid "Install RabbitMQ" msgstr "RabbitMQ のインストール" -msgid "Install memcached" -msgstr "memcached のインストール" - -msgid "Install operating system on each node" -msgstr "各ノードへのオペレーティングシステムのインストール" - msgid "Install packages" msgstr "パッケージのインストール" @@ -1432,17 +798,6 @@ msgstr "" "1 つ以上のコンポーネントに対して、別々のアプローチをとることができますが、ボ" "トルネックになり、思い出すことが難しいアプローチを使用する可能性があります。" -msgid "" -"It is important to note that HAProxy has no idea that any of this is " -"happening. As far as its process is concerned, it called ``write()`` with " -"the data and the kernel returned success. The resolution is already " -"understood and just needs to make its way through a review." -msgstr "" -"HAProxy は、これが発生したときのアイディアがないことに、とくに注意してくださ" -"い。そのプロセスが関係している限り、データと一緒に ``write()`` を呼び出し、" -"カーネルが成功を返します。この解決方法は、すでにわかっていて、ただレビューを" -"通す必要があります。" - msgid "" "It is possible to add controllers to such an environment to convert it into " "a truly highly available environment." @@ -1450,20 +805,6 @@ msgstr "" "コントローラーをそのような環境に追加して、それを信頼できる高可用性環境に変え" "られます。" -msgid "Jon Bernard writes:" -msgstr "Jon Bernard は次のように書きました。" - -msgid "" -"Jon Eck found the `core issue `_ and went into some detail regarding the " -"`history and solution `_ on his blog." -msgstr "" -"Jon Eck さんは、 `コアな問題 `_ を発見して、彼のブログにおいて `経緯と解決策 " -"`_ " -"に関する詳細を述べました。" - msgid "" "Link to `OpenStack Networking Guide `_ for configuration details." @@ -1474,17 +815,6 @@ msgstr "" msgid "Load distribution" msgstr "負荷分散" -msgid "" -"Log in to the database client and grant the ``clustercheck`` user " -"``PROCESS`` privileges." -msgstr "" -"データベースクライアントにログインして、``clustercheck`` ユーザーに " -"``PROCESS`` 権限を与えます。" - -msgid "Make sure pcs is running and configured to start at boot time:" -msgstr "" -"pcs が実行中で、ブート時に起動するよう設定されていることを確認してください。" - msgid "" "Making the Block Storage (cinder) API service highly available in active/" "active mode involves:" @@ -1492,13 +822,6 @@ msgstr "" "Block Storage (cinder) API サービスのアクティブ/アクティブモードでの高可用性" "は、以下が関係します。" -msgid "" -"Making the OpenStack Identity service highly available in active / passive " -"mode involves:" -msgstr "" -"OpenStack Identity Service をアクティブ / パッシブモードで高可用性にすること" -"は、次のことが関連します。" - msgid "" "Making the RabbitMQ service highly available involves the following steps:" msgstr "RabbitMQ サービスを高可用性にすることは、以下の手順が関連します。" @@ -1510,13 +833,6 @@ msgstr "" "Shared File Systems (manila) API サービスのアクティブ/パッシブモードでの高可" "用性は、以下が関係します。" -msgid "" -"Making this Block Storage API service highly available in active/passive " -"mode involves:" -msgstr "" -"Block Storage API サービスのアクティブ/パッシブモードでの高可用性は、以下が関" -"係します。" - msgid "Management" msgstr "マネジメント" @@ -1570,16 +886,6 @@ msgstr "" msgid "Memory" msgstr "メモリー" -msgid "" -"Memory caching is managed by `oslo.cache `_ so the way " -"to use multiple memcached servers is the same for all projects." -msgstr "" -"メモリーキャッシュは `oslo.cache `_ により管理されています。そ" -"のため、複数の memcached サーバーを使用する方法が、すべてのプロジェクトで同じ" -"になります。" - msgid "Messaging service for high availability" msgstr "メッセージサービスの高可用性" @@ -1605,23 +911,6 @@ msgstr "MongoDB" msgid "More information is available in the RabbitMQ documentation:" msgstr "詳細は RabbitMQ のドキュメントにあります。" -msgid "" -"Most OpenStack services can use memcached to store ephemeral data such as " -"tokens. Although memcached does not support typical forms of redundancy such " -"as clustering, OpenStack services can use almost any number of instances by " -"configuring multiple hostnames or IP addresses. The memcached client " -"implements hashing to balance objects among the instances. Failure of an " -"instance only impacts a percentage of the objects and the client " -"automatically removes it from the list of instances." -msgstr "" -"ほとんどの OpenStack サービスは、トークンなどの一時データを保存するために " -"memcached を使用できます。memcached はクラスターなどの一般的な形式の冗長化を" -"サポートしませんが、OpenStack サービスは複数のホスト名や IP アドレスを設定す" -"ることにより、ほぼ任意の数のインスタンスを使用できます。Memcached クライアン" -"トは、インスタンス間でオブジェクトを分散するハッシュ機能を持ちます。インスタ" -"ンスの障害は、オブジェクトの使用率のみに影響します。クライアントは、インスタ" -"ンスの一覧から自動的に削除されます。" - msgid "" "Most distributions ship an example configuration file (:file:`corosync.conf." "example`) as part of the documentation bundled with the Corosync package. An " @@ -1640,46 +929,6 @@ msgstr "" "す。この場合、多くのシステムは可用性の維持よりデータを保護することを優先しま" "す。" -msgid "" -"Most high availability systems guarantee protection against system downtime " -"and data loss only in the event of a single failure. However, they are also " -"expected to protect against cascading failures, where a single failure " -"deteriorates into a series of consequential failures. Many service providers " -"guarantee :term:`Service Level Agreement (SLA)` including uptime percentage " -"of computing service, which is calculated based on the available time and " -"system downtime excluding planned outage time." -msgstr "" -"多くの高可用性システムは、単一障害事象のみにおいて、システム停止時間やデータ" -"損失に対する保護を保証します。しかしながら、単一障害が一連の障害を悪化させて" -"いく、段階的な障害に対しても保護されることが期待されます。多くのサービスプロ" -"バイダーは、コンピューティングサービスの稼働率などの :term:`Service Level " -"Agreement (SLA)` を保証します。それは、計画停止を除くシステム停止時間と稼働時" -"間に基づいて計算されます。" - -msgid "" -"Most of this guide concerns the control plane of high availability: ensuring " -"that services continue to run even if a component fails. Ensuring that data " -"is not lost is the data plane component of high availability; this is " -"discussed here." -msgstr "" -"このガイドのほとんどは、コントロールプレーンの高可用性を取り扱います。コン" -"ポーネントが故障した場合でも、そのサービスが動作しつづけることを保証します。" -"データ失われないことを保証することは、データプレーンのコンポーネントの高可用" -"性です。それは、ここで議論します。" - -msgid "" -"Multicast groups (``mcastaddr``) must not be reused across cluster " -"boundaries. In other words, no two distinct clusters should ever use the " -"same multicast group. Be sure to select multicast addresses compliant with " -"`RFC 2365, \"Administratively Scoped IP Multicast\" `_." -msgstr "" -"マルチキャストグループ (``mcastaddr``) は、クラスターの境界を越えて再利用でき" -"ません。別の言い方をすると、2 つの独立したクラスターは、同じマルチキャストグ" -"ループを使用すべきではありません。選択したマルチキャストアドレス をきちんと" -"`RFC 2365, \"Administratively Scoped IP Multicast\" `_ に準拠させてください。" - msgid "" "MySQL databases, including MariaDB and Percona XtraDB, manage their " "configurations using a ``my.cnf`` file, which is typically located in the ``/" @@ -1722,30 +971,9 @@ msgstr "" "Neutron エージェントは、アクティブ/アクティブ向けにすべきです。シングルエー" "ジェントのインスタンスは推奨されません。" -msgid "No firewalls between the hosts;" -msgstr "ホスト間にファイアウォールがないこと。" - -msgid "" -"No native feature is available to make this service highly available. At " -"this time, the Active/Passive solution exists to run the neutron metadata " -"agent in failover mode with Pacemaker." -msgstr "" -"このサービスを高可用化するための組み込み機能はありません。現状、アクティブ/" -"パッシブのソリューションが存在し、Pacemaker を用いてフェイルオーバーモードで " -"neutron メタデータエージェントを実行します。" - msgid "Node type" msgstr "ノード種別" -msgid "" -"Note that setting the quorum to a value less than floor(n/2) + 1 is not " -"recommended and would likely cause a split-brain in a face of network " -"partitions." -msgstr "" -"クォーラムの値を floor(n/2) + 1 より小さく設定することは推奨されないことに注" -"意してください。これはネットワーク分割の発生時にスプリットブレインを引き起こ" -"す可能性があります。" - msgid "Note the following about the recommended interface configuration:" msgstr "インターフェースの推奨設定に関する注意事項がいくつかあります。" @@ -1755,33 +983,9 @@ msgstr "以下に注意してください。" msgid "Notes from planning outline:" msgstr "計画の概要からのメモ:" -msgid "" -"Occurs when a user-facing service is unavailable beyond a specified maximum " -"amount of time." -msgstr "指定された最大時間を超えて、ユーザーサービスが利用不可能になること。" - -msgid "" -"Of these options, the second one is highly recommended. Although Galera " -"supports active/active configurations, we recommend active/passive (enforced " -"by the load balancer) in order to avoid lock contention." -msgstr "" -"これらの選択肢のうち、2 番目が強く推奨されます。Galera はアクティブ/アクティ" -"ブ設定をサポートしますが、ロック競合を避けるために、(ロードバランサーにより強" -"制される) アクティブ/パッシブを推奨します。" - msgid "On CentOS, RHEL, openSUSE, and SLES:" msgstr "CentOS、RHEL、openSUSE、SLES の場合:" -msgid "" -"On RHEL-based systems, you should create resources for cinder's systemd " -"agents and create constraints to enforce startup/shutdown ordering:" -msgstr "" -"RHEL 系のシステムでは、cinder の systemd エージェント向けリソースを作成して、" -"起動と停止の順番を強制する制約を作成すべきです。" - -msgid "On Ubuntu, it is configured by default." -msgstr "Ubuntu の場合、デフォルトで設定されています。" - msgid "" "On ``3306``, Galera Cluster uses TCP for database client connections and " "State Snapshot Transfers methods that require the client, (that is, " @@ -1791,62 +995,6 @@ msgstr "" "用します。また、クライアント 、つまり ``mysqldump`` を必要とする State " "Snapshot Transfers メソッドを使用します。" -msgid "" -"On ``4444`` Galera Cluster uses TCP for all other State Snapshot Transfer " -"methods." -msgstr "" -"``4444`` では、Galera Cluster が他のすべての State Snapshot Transfer メソッド" -"のために TCP を使用します。" - -msgid "" -"On ``4567`` Galera Cluster uses TCP for replication traffic. Multicast " -"replication uses both TCP and UDP on this port." -msgstr "" -"``4567`` では、Galera Cluster が複製通信のために TCP を使用します。マルチキャ" -"ストレプリケーションは、このポートで TCP と UDP を使用します。" - -msgid "On ``4568`` Galera Cluster uses TCP for Incremental State Transfers." -msgstr "" -"``4568`` では、Galera Cluster が Incremental State Transfers のために TCP を" -"使用します。" - -msgid "On a RHEL-based system, it should look something like:" -msgstr "RHEL 系システムの場合、次のようになるでしょう。" - -msgid "" -"On any host that is meant to be part of a Pacemaker cluster, you must first " -"establish cluster communications through the Corosync messaging layer. This " -"involves installing the following packages (and their dependencies, which " -"your package manager usually installs automatically):" -msgstr "" -"Pacemaker クラスターに参加させる各ホストで、まず Corosync メッセージレイヤー" -"でクラスター通信を行う必要があります。これには、以下のパッケージをインストー" -"ルする必要があります (依存パッケージも含みます。依存パッケージは通常パッケー" -"ジマネージャーにより自動的にインストールされます)。" - -msgid "" -"On each target node, verify the correct owner, group, and permissions of the " -"file :file:`erlang.cookie`." -msgstr "" -"各ターゲットノードにおいて、 :file:`erlang.cookie` の所有者、所有グループ、" -"パーミッションが正しいことを確認します。" - -msgid "" -"On the infrastructure layer, the SLA is the time for which RabbitMQ cluster " -"reassembles. Several cases are possible. The Mnesia keeper node is the " -"master of the corresponding Pacemaker resource for RabbitMQ; when it fails, " -"the result is a full AMQP cluster downtime interval. Normally, its SLA is no " -"more than several minutes. Failure of another node that is a slave of the " -"corresponding Pacemaker resource for RabbitMQ results in no AMQP cluster " -"downtime at all." -msgstr "" -"インフラ層では、SLA は RabbitMQ クラスターが再構成されるまでの時間です。いく" -"つかの場合では実現できます。Mnesia keeper ノードは、対応する RabbitMQ 用 " -"Pacemaker リソースのマスターです。停止したとき、結果として AMQP クラスターの" -"停止時間になります。通常、その SLA は、数分間より長くなることはありません。対" -"応する RabbitMQ 用 Pacemaker リソースのスレーブになっている、他のノードの停止" -"により AMQP クラスターが停止することはありません。" - msgid "" "Once completed, commit your configuration changes by entering :command:" "`commit` from the :command:`crm configure` menu. Pacemaker then starts the " @@ -1856,33 +1004,6 @@ msgstr "" "`commit` と入力し、設定の変更をコミットします。Pacemaker は Block Storage " "API サービスおよび依存するリソースを同じノードに起動します。" -msgid "" -"Once completed, commit your configuration changes by entering :command:" -"`commit` from the :command:`crm configure` menu. Pacemaker then starts the " -"Shared File Systems API service and its dependent resources on one of your " -"nodes." -msgstr "" -"これらの手順の完了後、:command:`crm configure` メニューから :command:" -"`commit` と入力し、設定の変更をコミットします。Pacemaker は Shared File " -"Systems API サービスおよび依存するリソースを同じノードに起動します。" - -msgid "" -"Once configured (see example file below), add HAProxy to the cluster and " -"ensure the VIPs can only run on machines where HAProxy is active:" -msgstr "" -"設定すると (以下のサンプルファイル参照)、HAProxy をクラスターに追加して、仮" -"想 IP が HAProxy の動作しているマシンにおいてのみ動作できることを確認してくだ" -"さい。" - -msgid "" -"Once created, the :file:`corosync.conf` file (and the :file:`authkey` file " -"if the secauth option is enabled) must be synchronized across all cluster " -"nodes." -msgstr "" -"作成後、 :file:`corosync.conf` ファイル (および、secauth オプションが有効化さ" -"れている場合、 :file:`authkey` ファイル) が、すべてのクラスターノードにわたり" -"同期されている必要があります。" - msgid "" "Once the database server starts, check the cluster status using the " "``wsrep_cluster_size`` status variable. From the database client, run the " @@ -1899,13 +1020,6 @@ msgstr "" "1 台の物理サーバーで複数のノードを構築できます。各ノードは複数のネットワーク" "インターフェースを持てます。" -msgid "" -"OpenStack APIs, these are HTTP(s) stateless services written in python, easy " -"to duplicate and mostly easy to load balance." -msgstr "" -"OpenStack API。これらは HTTP のステートレスサービスです。Python で書かれてい" -"て、簡単に冗長化でき、かなり簡単に負荷分散できます。" - msgid "OpenStack Block Storage" msgstr "OpenStack Block Storage" @@ -1958,17 +1072,6 @@ msgstr "高可用性ストレージの概要" msgid "Pacemaker cluster stack" msgstr "Pacemaker クラスタースタック" -msgid "" -"Pacemaker does not inherently (need or want to) understand the applications " -"it manages. Instead, it relies on resource agents (RAs), scripts that " -"encapsulate the knowledge of how to start, stop, and check the health of " -"each application managed by the cluster." -msgstr "" -"Pacemaker は、管理するアプリケーションを本質的に理解してません (必要ありませ" -"ん)。代わりに、リソースエージェント (RA) に依存します。これは、クラスターによ" -"り管理される各アプリケーションの起動、停止、ヘルスチェック方法に関する知識を" -"隠蔽するスクリプトです。" - msgid "" "Pacemaker relies on the `Corosync `_ " "messaging layer for reliable cluster communications. Corosync implements the " @@ -2027,26 +1130,6 @@ msgstr "" msgid "Possible options are:" msgstr "利用できるオプションは次のとおりです。" -msgid "" -"Preventing single points of failure can depend on whether or not a service " -"is stateless." -msgstr "" -"単一障害点をなくせるかは、サービスがステートレスであるかに依存する場合があり" -"ます。" - -msgid "" -"Production servers should run (at least) three RabbitMQ servers; for testing " -"and demonstration purposes, it is possible to run only two servers. In this " -"section, we configure two nodes, called ``rabbit1`` and ``rabbit2``. To " -"build a broker, we need to ensure that all nodes have the same Erlang cookie " -"file." -msgstr "" -"本番サーバーは、(少なくとも) 3 つの RabbitMQ サーバーを実行すべきです。テスト" -"やデモの目的の場合、サーバーを 2 つだけ実行することもできます。このセクション" -"では、``rabbit1`` と ``rabbit2`` という 2 つのノードを設定します。ブローカー" -"を構築するために、すべてのノードがきちんと同じ Erlang クッキーファイルを持つ" -"必要があります。" - msgid "Proxy server" msgstr "プロキシーサーバー" @@ -2062,16 +1145,6 @@ msgstr "RHEL, Fedora, CentOS" msgid "RabbitMQ" msgstr "RabbitMQ" -msgid "RabbitMQ HA cluster host:port pairs:" -msgstr "RabbitMQ HA クラスターの「ホスト:ポート」のペア:" - -msgid "" -"RabbitMQ nodes fail over both on the application and the infrastructure " -"layers." -msgstr "" -"RabbitMQ ノードは、アプリケーションとインフラ層の両方においてフェイルオーバー" -"します。" - msgid "" "Rather than configuring neutron here, we should simply mention physical " "network HA methods such as bonding and additional node/network requirements " @@ -2096,14 +1169,6 @@ msgstr "Red Hat" msgid "Redundancy and failover" msgstr "冗長性とフェールオーバー" -msgid "" -"Regardless of which flavor you choose, it is recommended that the clusters " -"contain at least three nodes so that we can take advantage of `quorum " -"`_." -msgstr "" -"選択したフレーバーに関わらず、`quorum `_ の利点を得るために、少なく" -"とも 3 ノードを持つクラスターを推奨します。" - msgid "Remote backup facilities" msgstr "リモートバックアップ機能" @@ -2157,9 +1222,6 @@ msgstr "1 番目のノード以外の各ノードで以下のコマンドを実 msgid "SELinux" msgstr "SELinux" -msgid "SELinux and AppArmor set to permit access to ``mysqld``;" -msgstr "SELinux や AppArmor が ``mysqld`` にアクセスを許可していること。" - msgid "SLES 12" msgstr "SLES 12" @@ -2185,20 +1247,6 @@ msgstr "" msgid "Search in this guide" msgstr "ガイド内検索" -msgid "" -"Security-Enhanced Linux is a kernel module for improving security on Linux " -"operating systems. It is commonly enabled and configured by default on Red " -"Hat-based distributions. In the context of Galera Cluster, systems with " -"SELinux may block the database service, keep it from starting or prevent it " -"from establishing network connections with the cluster." -msgstr "" -"Security-Enhanced Linux は、Linux オペレーティングシステムにおいてセキュリ" -"ティーを向上させるためのカーネルモジュールです。Red Hat 系のディストリビュー" -"ションでは、一般的にデフォルトで有効化され、設定されています。Galera Cluster " -"の観点では、SELinux を有効化したシステムは、データベースサービスをブロックす" -"るかもしれません。また、クラスターを起動しても、ネットワーク接続を確立できな" -"いかもしれません。" - msgid "" "See :doc:`networking-ha` for more information about configuring Networking " "for high availability." @@ -2208,20 +1256,6 @@ msgstr "" msgid "Segregated" msgstr "Segregated" -msgid "" -"Services like RabbitMQ and Galera have complicated boot-up sequences that " -"require co-ordination, and often serialization, of startup operations across " -"all machines in the cluster. This is especially true after site-wide failure " -"or shutdown where we must first determine the last machine to be active." -msgstr "" -"RabbitMQ や Galera などのサービスは、複雑な起動順番を持ちます。クラスター内の" -"全マシンに渡り、起動処理の協調動作を必要とし、しばしば順番に実行する必要があ" -"ります。とくに、サイト全体の障害後、最後にアクティブにするマシンを判断する必" -"要のあるシャットダウンのときに当てはまります。" - -msgid "Set a password for hacluster user **on each host**." -msgstr "**各ホストにおいて** hacluster ユーザーのパスワードを設定します。" - msgid "Set automatic L3 agent failover for routers" msgstr "ルーター向け L3 エージェントの自動フェイルオーバーの設定" @@ -2240,51 +1274,6 @@ msgstr "votequorum ライブラリーを使う場合の Corosync の設定" msgid "Set up the cluster with `crmsh`" msgstr "`crmsh` を用いたクラスターのセットアップ" -msgid "Set up the cluster with `pcs`" -msgstr "`pcs` を用いたセットアップ" - -msgid "" -"Setting ``last_man_standing`` to 1 enables the Last Man Standing (LMS) " -"feature; by default, it is disabled (set to 0). If a cluster is on the " -"quorum edge (``expected_votes:`` set to 7; ``online nodes:`` set to 4) for " -"longer than the time specified for the ``last_man_standing_window`` " -"parameter, the cluster can recalculate quorum and continue operating even if " -"the next node will be lost. This logic is repeated until the number of " -"online nodes in the cluster reaches 2. In order to allow the cluster to step " -"down from 2 members to only 1, the ``auto_tie_breaker`` parameter needs to " -"be set; this is not recommended for production environments." -msgstr "" -"``last_man_standing`` を 1 に設定することにより、Last Man Standing (LMS) 機能" -"を有効化できます。デフォルトで、無効化されています (0 に設定)。クラスターが、" -"``last_man_standing_window`` パラメーターに指定した時間より長く、クォーラム" -"エッジ (``expected_votes:`` が 7 に設定、 ``online nodes:`` が 4 に設定) にあ" -"る場合、クラスターはクォーラムを再計算して、次のノードが失われても動作を継続" -"します。この論理は、クラスターのオンラインノードが 2 になるまで繰り返されま" -"す。クラスターが 2 つのメンバーから 1 つだけに減ることを許可するために、 " -"``auto_tie_breaker`` パラメーターを設定する必要があります。これは本番環境では" -"推奨されません。" - -msgid "" -"Setting ``wait_for_all`` to 1 means that, When starting up a cluster (all " -"nodes down), the cluster quorum is held until all nodes are online and have " -"joined the cluster for the first time. This parameter is new in Corosync 2.0." -msgstr "" -"``wait_for_all`` を 1 に設定することは、クラスター起動 (全ノードダウン) 時、" -"クラスターのクォーラムは、すべてのノードがオンラインになり、まずクラスターに" -"参加するまで保持されることを意味しますこのパラメーターは Corosync 2.0 の新機" -"能です。" - -msgid "" -"Setting the ``pe-warn-series-max``, ``pe-input-series-max`` and ``pe-error-" -"series-max`` parameters to 1000 instructs Pacemaker to keep a longer history " -"of the inputs processed and errors and warnings generated by its Policy " -"Engine. This history is useful if you need to troubleshoot the cluster." -msgstr "" -"パラメーター ``pe-warn-series-max``, ``pe-input-series-max``, ``pe-error-" -"series-max`` を 1000 に設定することにより、Pacemaker が処理した入力履歴、ポリ" -"シーエンジンにより生成されたログと警告を保持するよう指定できます。この履歴" -"は、クラスターのトラブルシューティングを必要とする場合に役立ちます。" - msgid "Shared services for high availability" msgstr "共有サービスの高可用性" @@ -2303,23 +1292,9 @@ msgstr "" "に通信を向ける前に、それらを独立した環境において設定してテストする、アップグ" "レードシナリオにおいて非常に役立ちます。" -msgid "" -"Since the cluster is a single administrative domain, it is generally " -"accepted to use the same password on all nodes." -msgstr "" -"クラスターは単一の管理ドメインなので、一般的にすべてのノードで同じパスワード" -"を使用できます。" - msgid "Single-controller high availability mode" msgstr "シングルコントローラーの高可用性モード" -msgid "" -"Specifying ``corosync_votequorum`` enables the votequorum library; this is " -"the only required option." -msgstr "" -"``corosync_votequorum`` を指定することにより、votequorum ライブラリーを有効化" -"します。これは唯一の必須オプションです。" - msgid "Start Corosync" msgstr "Corosync の開始" @@ -2340,27 +1315,12 @@ msgstr "" "すべての他のクラスターノードにおいてデータベースサーバーを起動します。" "``init`` を使用するサーバーに対して、以下のコマンドを実行します。" -msgid "" -"Start the message queue service on all nodes and configure it to start when " -"the system boots." -msgstr "" -"すべてのノードにおいてメッセージキューサービスを起動し、システム起動時に起動" -"するよう設定します。" - msgid "Stateful service" msgstr "ステートフルサービス" -msgid "Stateful services may be configured as active/passive or active/active:" -msgstr "" -"ステートフルサービスは、アクティブ/パッシブまたはアクティブ/アクティブとして" -"設定できます。" - msgid "Stateless service" msgstr "ステートレスサービス" -msgid "Stateless vs. stateful services" -msgstr "ステートレスサービスとステートフルサービス" - msgid "Storage" msgstr "ストレージ" @@ -2370,45 +1330,12 @@ msgstr "ストレージバックエンド" msgid "Storage components" msgstr "ストレージ構成要素" -msgid "" -"TCP generally holds on to hope for a long time. A ballpark estimate is " -"somewhere on the order of tens of minutes (30 minutes is commonly " -"referenced). During this time it will keep probing and trying to deliver the " -"data." -msgstr "" -"TCP は一般的に長く接続されています。概算として数十分 (一般的に 30 分として参" -"照されます) のレベルです。この間、プルーブして、データを配送しようとします。" - msgid "Telemetry" msgstr "Telemetry" msgid "Telemetry central agent" msgstr "Telemetry 中央エージェント" -msgid "" -"The :command:`crm configure` command supports batch input, so you may copy " -"and paste the above into your live Pacemaker configuration and then make " -"changes as required. For example, you may enter edit ``p_ip_glance-api`` " -"from the :command:`crm configure` menu and edit the resource to match your " -"preferred virtual IP address." -msgstr "" -":command:`crm configure` はバッチ入力をサポートします。そのため、現在の " -"pacemaker 設定の中に上をコピー・ペーストし、適宜変更を反映できます。例えば、" -"お好みの仮想 IP アドレスに一致させるために、:command:`crm configure` メニュー" -"から ``edit p_ip_glance-api`` と入力し、リソースを編集できます。" - -msgid "" -"The :command:`crm configure` supports batch input, so you may copy and paste " -"the lines above into your live Pacemaker configuration and then make changes " -"as required. For example, you may enter ``edit p_ip_manila-api`` from the :" -"command:`crm configure` menu and edit the resource to match your preferred " -"virtual IP address." -msgstr "" -":command:`crm configure` はバッチ入力をサポートします。そのため、現在の " -"pacemaker 設定の中に上の行をコピー・ペーストし、適宜変更を反映できます。例え" -"ば、お好みの仮想 IP アドレスに一致させるために、:command:`crm configure` メ" -"ニューから ``edit p_ip_manila-api`` と入力し、リソースを編集できます。" - msgid "" "The Galera cluster configuration directive ``backup`` indicates that two of " "the three controllers are standby nodes. This ensures that only one node " @@ -2418,40 +1345,6 @@ msgstr "" "この Galera cluster の設定ディレクティブ ``backup`` は、3 つのコントローラー" "の内 2 つがスタンバイノードであることを意味します。" -msgid "" -"The Memcached client implements hashing to balance objects among the " -"instances. Failure of an instance only impacts a percentage of the objects " -"and the client automatically removes it from the list of instances. The SLA " -"is several minutes." -msgstr "" -"Memcached クライアントは、インスタンス間でオブジェクトを分散するハッシュ機能" -"を持ちます。インスタンスの障害は、オブジェクトの使用率のみに影響します。クラ" -"イアントは、インスタンスの一覧から自動的に削除されます。SLA は数分です。" - -msgid "" -"The OpenStack Image service offers a service for discovering, registering, " -"and retrieving virtual machine images. To make the OpenStack Image API " -"service highly available in active / passive mode, you must:" -msgstr "" -"OpenStack Image サービスは、仮想マシンイメージを検索、登録、取得するための" -"サービスを提供します。OpenStack Image API サービスをアクティブ/パッシブモード" -"で高可用性にするために、以下が必要になります。" - -msgid "" -"The OpenStack Networking service has a scheduler that lets you run multiple " -"agents across nodes; the DHCP agent can be natively highly available. To " -"configure the number of DHCP agents per network, modify the " -"``dhcp_agents_per_network`` parameter in the :file:`/etc/neutron/neutron." -"conf` file. By default this is set to 1. To achieve high availability, " -"assign more than one DHCP agent per network." -msgstr "" -"OpenStack Networking サービスには、ノードにまたがって複数のエージェントを実行" -"できるスケジューラーがあります。 DHCP エージェントは本質的に高可用性がありま" -"す。ネットワークあたりの DHCP エージェント数を設定するには、 file:`/etc/" -"neutron/neutron.conf` ファイルの``dhcp_agents_per_network`` パラメーターを変" -"更します。このパラメーターのデフォルト値は 1 です。高可用性を持たせるには、" -"ネットワークあたりの DHCP エージェント数を 1 以上にする必要があります。" - msgid "The Pacemaker architecture" msgstr "Pacemaker アーキテクチャー" @@ -2462,32 +1355,6 @@ msgstr "" "Pacemaker サービスは、以下の内容で作成された、追加の設定ファイル ``/etc/" "corosync/uidgid.d/pacemaker`` も必要とします。" -msgid "" -"The Telemetry API service configuration does not have the ``option httpchk`` " -"directive as it cannot process this check properly. TODO: explain why the " -"Telemetry API is so special" -msgstr "" -"The Telemetry API service configuration does not have the ``option httpchk`` " -"directive as it cannot process this check properly. TODO: explain why the " -"Telemetry API is so special" - -msgid "" -"The Telemetry central agent can be configured to partition its polling " -"workload between multiple agents, enabling high availability." -msgstr "" -"Telemetry 中央エージェントは、高可用性を有効化した、複数のエージェント間で" -"ポーリングする負荷を分割するよう設定できます。" - -msgid "" -"The `Tooz `__ library provides the " -"coordination within the groups of service instances. It provides an API " -"above several back ends that can be used for building distributed " -"applications." -msgstr "" -"`Tooz `__ ライブラリーは、サービスインスタ" -"ンスのグループ内に条件を提供します。分散アプリケーションを構築するために使用" -"できる、いくつかのバックエンドに上の API を提供します。" - msgid "" "The ``admin_bind_host`` parameter lets you use a private network for admin " "access." @@ -2502,47 +1369,6 @@ msgstr "" "``bindnetaddr`` は、バインドするインターフェースのネットワークアドレスです。" "この例は、2 つの /24 IPv4 サブネットを使用します。" -msgid "" -"The ``token`` value specifies the time, in milliseconds, during which the " -"Corosync token is expected to be transmitted around the ring. When this " -"timeout expires, the token is declared lost, and after " -"``token_retransmits_before_loss_const lost`` tokens, the non-responding " -"processor (cluster node) is declared dead. In other words, ``token × " -"token_retransmits_before_loss_const`` is the maximum time a node is allowed " -"to not respond to cluster messages before being considered dead. The default " -"for token is 1000 milliseconds (1 second), with 4 allowed retransmits. These " -"defaults are intended to minimize failover times, but can cause frequent " -"\"false alarms\" and unintended failovers in case of short network " -"interruptions. The values used here are safer, albeit with slightly extended " -"failover times." -msgstr "" -"``token`` の値は、Corosync トークンがリング内を転送されることが予想される時間" -"をミリ秒単位で指定します。このタイムアウトを過ぎると、トークンが失われます。 " -"``token_retransmits_before_loss_const lost`` トークンの後、応答しないプロセッ" -"サー (クラスターノード) が停止していると宣言されます。言い換えると、 ``token " -"× token_retransmits_before_loss_const`` は、ノードが停止とみなされるまでに、" -"クラスターメッセージに応答しないことが許される最大時間です。トークン向けのデ" -"フォルトは、1000 ミリ秒 (1 秒)、4 回の再送許可です。これらのデフォルト値は、" -"フェイルオーバー時間を最小化することを意図していますが、頻繁な「誤検知」と短" -"いネットワーク中断による意図しないフェイルオーバーを引き起こす可能性がありま" -"す。ここで使用される値は、フェイルオーバー時間がわずかに長くなりますが、より" -"安全です。" - -msgid "" -"The ``transport`` directive controls the transport mechanism used. To avoid " -"the use of multicast entirely, specify the ``udpu`` unicast transport " -"parameter. This requires specifying the list of members in the ``nodelist`` " -"directive; this could potentially make up the membership before deployment. " -"The default is ``udp``. The transport type can also be set to ``udpu`` or " -"``iba``." -msgstr "" -"``transport`` ディレクティブは使用するトランスポートメカニズムを制御します。 " -"マルチキャストを完全に無効にするためには、``udpu`` ユニキャストトランスポート" -"パラメーターを指定します。``nodelist`` ディレクティブにメンバー一覧を指定する" -"必要があります。展開する前にメンバーシップを構成することができます。デフォル" -"トは ``udp`` です。トランスポート形式は ``udpu`` や ``iba`` に設定することも" -"できます。" - msgid "" "The application layer is controlled by the ``oslo.messaging`` configuration " "options for multiple AMQP hosts. If the AMQP node fails, the application " @@ -2553,15 +1379,6 @@ msgstr "" "ンにより制御されます。AMQP ノードが故障したとき、アプリケーションが、指定され" "た再接続間隔で、設定された次のノードに再接続します。" -msgid "" -"The availability check of the instances is provided by heartbeat messages. " -"When the connection with an instance is lost, the workload will be " -"reassigned within the remained instances in the next polling cycle." -msgstr "" -"インスタンスの死活監視は、ハートビートメッセージによって提供されます。インス" -"タンスとの接続が失われた時、次のポーリングサイクルにて、ワークロードは、残っ" -"たインスタンスの中で再割り当てが行われます。" - msgid "" "The benefits of this approach are the physical isolation between components " "and the ability to add capacity to specific components." @@ -2585,18 +1402,6 @@ msgstr "" "設定した ``expected_votes`` で完全に動作します。ノードの一覧は ``nodelist`` " "に指定された場合、 ``expected_votes`` の値は無視されます。" -msgid "" -"The command :command:`crm configure` supports batch input, so you may copy " -"and paste the lines above into your live pacemaker configuration and then " -"make changes as required. For example, you may enter ``edit p_ip_cinder-" -"api`` from the :command:`crm configure` menu and edit the resource to match " -"your preferred virtual IP address." -msgstr "" -":command:`crm configure` コマンドはバッチ入力をサポートします。そのため、現在" -"の Pacemaker 設定の中に上の行をコピー・ペーストし、適宜変更を反映できます。例" -"えば、お好みの仮想 IP アドレスに一致させるために、:command:`crm configure` メ" -"ニューから ``edit p_ip_cinder-api`` と入力し、リソースを編集できます。" - msgid "" "The commands for installing RabbitMQ are specific to the Linux distribution " "you are using:" @@ -2604,13 +1409,6 @@ msgstr "" "RabbitMQ のインストールコマンドは、使用している Linux ディストリビューション" "により異なります。" -msgid "" -"The common practice is to locate an HAProxy instance on each OpenStack " -"controller in the environment." -msgstr "" -"一般的なプラクティスは、環境内の各 OpenStack コントローラーに HAProxy インス" -"タンスを置くことです。" - msgid "" "The configuration uses static routing without Virtual Router Redundancy " "Protocol (VRRP) or similar techniques implemented." @@ -2618,13 +1416,6 @@ msgstr "" "この設定は、Virtual Router Redundancy Protocol (VRRP) や類似技術を実装するこ" "となく、静的ルーティングを使用します。" -msgid "" -"The correct path to ``libgalera_smm.so`` given to the ``wsrep_provider`` " -"parameter." -msgstr "" -"``wsrep_provider`` パラメーターに指定された ``libgalera_smm.so`` への適切なパ" -"ス。" - msgid "" "The default node type is a disc node. In this guide, nodes join the cluster " "as RAM nodes." @@ -2662,64 +1453,9 @@ msgid "" msgstr "" "OpenStack 環境に使用される最も一般的な AMQP ソフトウェアは RabbitMQ です。" -msgid "" -"The neutron L3 agent is scalable, due to the scheduler that supports Virtual " -"Router Redundancy Protocol (VRRP) to distribute virtual routers across " -"multiple nodes. To enable high availability for configured routers, edit " -"the :file:`/etc/neutron/neutron.conf` file to set the following values:" -msgstr "" -"neutron L3 エージェントは、スケーラブルです。複数のノードにわたり仮想ルーター" -"を分散するために、スケジューラーが Virtual Router Redundancy Protocol (VRRP) " -"をサポートするためです。設定済みのルーターを高可用化するために、 :file:`/etc/" -"neutron/neutron.conf` ファイルを編集して、以下の値を設定します。" - -msgid "" -"The service declaration for the pacemaker service may be placed in the :file:" -"`corosync.conf` file directly or in its own separate file, :file:`/etc/" -"corosync/service.d/pacemaker`." -msgstr "" -"Pacemaker サービスに関するサービス定義は、直接 :file:`corosync.conf` ファイル" -"にあるか、単独ファイル :file:`/etc/corosync/service.d/pacemaker` にある可能性" -"があります。" - -msgid "" -"The source address for the connection from HAProxy back to the client is the " -"VIP address. However the VIP address is no longer present on the host. This " -"means that the network (IP) layer deems the packet unroutable, and informs " -"the transport (TCP) layer. TCP, however, is a reliable transport. It knows " -"how to handle transient errors and will retry. And so it does." -msgstr "" -"HAProxy プロキシーからクライアントに戻る接続の送信元アドレスは、仮想 IP アド" -"レスになります。しかしながら、仮想 IP アドレスはすでにホストに存在しません。" -"つまり、ネットワーク (IP) 層はパケットをルーティングできないと判断して、トラ" -"ンスポート (TCP) 層に通知します。しかしながら、TCP は信頼できる転送になりま" -"す。一時的なエラーを処理して、再試行する方法がわかっているからです。また、実" -"際にそうします。" - -msgid "The standard hardware requirements:" -msgstr "標準的なハードウェア要件:" - msgid "The steps to implement the Pacemaker cluster stack are:" msgstr "Pacemaker クラスタースタックを実行する手順は、次のとおりです。" -msgid "" -"The votequorum library has been created to replace and eliminate qdisk, the " -"disk-based quorum daemon for CMAN, from advanced cluster configurations." -msgstr "" -"votequorum ライブラリーは、高度なクラスター設定により、qdisk、CMAN 向けディス" -"クベースのクォーラムデーモンを置き換えて除去するために作成されます。" - -msgid "" -"The votequorum library is part of the corosync project. It provides an " -"interface to the vote-based quorum service and it must be explicitly enabled " -"in the Corosync configuration file. The main role of votequorum library is " -"to avoid split-brain situations, but it also provides a mechanism to:" -msgstr "" -"votequorum ライブラリーは corosync プロジェクトの一部です。投票ベースのクォー" -"ラムサービスへのインターフェースを提供し、Corosync 設定ファイルにおいて明示的" -"に有効化する必要があります。votequorum ライブラリーのおもな役割は、スプリット" -"ブレイン状態を避けるためですが、以下の機能も提供します。" - msgid "" "These agents must conform to one of the `OCF `_, `SysV Init " @@ -2773,13 +1509,6 @@ msgstr "" "この設定は Shared File Systems API サービスを管理するためのリソース " "``p_manila-api`` を作成します。" -msgid "" -"This configuration creates ``vip``, a virtual IP address for use by the API " -"node (``10.0.0.11``):" -msgstr "" -"この設定は、API ノード (``10.0.0.11``) により使用される仮想 IP アドレス " -"``vip`` を作成します。" - msgid "" "This example assumes that you are using NFS for the physical storage, which " "will almost never be true in a production installation." @@ -2787,41 +1516,12 @@ msgstr "" "この例は、物理ストレージに NFS を使用していることを仮定します。これは、ほとん" "どの本番環境のインストールにおいて正しくありません。" -msgid "" -"This guide is a work-in-progress and changing rapidly while we continue to " -"test and enhance the guidance. Please note where there are open \"to do\" " -"items and help where you are able." -msgstr "" -"このガイドは、作成中であり、頻繁に変更されています。テストと内容の改善を継続" -"しています。「To Do」項目が残っていますので、手伝える部分があれば手伝ってくだ" -"さい。" - msgid "This guide uses the following example IP addresses:" msgstr "このガイドは、以下の IP アドレス例を使用します。" msgid "This is the most common option and the one we document here." msgstr "これは最も一般的なオプションで、ここにドキュメント化します。" -msgid "" -"This is why setting the quorum to a value less than floor(n/2) + 1 is " -"dangerous. However it may be required for some specific cases, like a " -"temporary measure at a point it is known with 100% certainty that the other " -"nodes are down." -msgstr "" -"これがクォーラムの値を floor(n/2) + 1 より小さく設定することが危険な理由で" -"す。しかしながら、いくつかの特別な場合に必要となる可能性があります。例えば、" -"他のノードが 100% 確実に停止していることがわかっている場合の一時的な計測など" -"です。" - -msgid "" -"This makes the instances of HAProxy act independently and fail over " -"transparently together with the network endpoints (VIP addresses) failover " -"and, therefore, shares the same SLA." -msgstr "" -"HAProxy のインスタンスが独立して動作して、ネットワークエンドポイント (仮想 " -"IP アドレス) のフェールオーバーと一緒に透過的にフェールオーバーするため、同" -"じ SLA を共有します。" - msgid "" "This scenario can be visualized as below, where each box below represents a " "cluster of three or more guests." @@ -2832,15 +1532,6 @@ msgstr "" msgid "This scenario can be visualized as below." msgstr "このシナリオは以下のように可視化できます。" -msgid "" -"This scenario has the advantage of requiring far fewer, if more powerful, " -"machines. Additionally, being part of a single cluster allows us to " -"accurately model the ordering dependencies between components." -msgstr "" -"このシナリオは、より高性能ならば、より少ないマシンを必要とする利点がありま" -"す。加えて、シングルクラスターの一部になることにより、コンポーネント間の順序" -"依存関係を正確にモデル化できます。" - msgid "" "This section discusses ways to protect against data loss in your OpenStack " "environment." @@ -2848,13 +1539,6 @@ msgstr "" "このセクションは、お使いの OpenStack 環境におけるデータ損失から保護する方法を" "議論します。" -msgid "" -"This value increments with each transaction, so the most advanced node has " -"the highest sequence number, and therefore is the most up to date." -msgstr "" -"この値は各トランザクションによりインクリメントされます。ほとんどの高度なノー" -"ドは、最大のシーケンス番号を持つため、ほとんど最新です。" - msgid "" "To be sure that all data is highly available, ensure that everything is " "stored in the MySQL database (which is also highly available):" @@ -2869,13 +1553,6 @@ msgstr "" "各クラスターノードにおいて以下の手順を実行して、Galera Cluster を正常に動作さ" "せるために AppArmor を設定します。" -msgid "" -"To do so, stop RabbitMQ everywhere and copy the cookie from the first node " -"to each of the other node(s):" -msgstr "" -"そうするために、すべての場所で RabbitMQ を停止して、1 番目のノードのクッキー" -"を他のノードにコピーします。" - msgid "" "To ensure that all queues except those with auto-generated names are " "mirrored across all running nodes, set the ``ha-mode`` policy key to all by " @@ -2885,51 +1562,9 @@ msgstr "" "ドで確実にミラーするために、以下のコマンドをどこかのノードで実行して、 ``ha-" "mode`` ポリシーキーを all に設定します。" -msgid "" -"To find the most advanced cluster node, you need to check the sequence " -"numbers, or seqnos, on the last committed transaction for each. You can find " -"this by viewing ``grastate.dat`` file in database directory," -msgstr "" -"最も高度なクラスターノードを見つけるために、各ノードの最新コミットのトランザ" -"クションにあるシーケンス番号を確認する必要があります。データベースディレクト" -"リーにある ``grastate.dat`` ファイルを表示すると、これを見つけられます。" - -msgid "" -"To implement any changes made to this you must restart the HAProxy service" -msgstr "" -"これの変更を反映するために、HAProxy サービスを再起動する必要があります。" - -msgid "To start ``corosync`` with systemd unit file:" -msgstr "systemd ユニットファイルでcorosyncの起動" - -msgid "To start ``corosync`` with the LSB init script:" -msgstr "LSBinitスクリプトでCorosync の起動" - -msgid "To start ``corosync`` with upstart:" -msgstr "upstartでcorosyscの起動" - -msgid "To start ``pacemaker`` with the LSB init script:" -msgstr "LSB init スクリプトを用いた ``pacemaker`` の起動" - -msgid "To start ``pacemaker`` with the systemd unit file:" -msgstr "systemd ユニットファイルを用いた ``pacemaker`` の起動" - -msgid "To start ``pacemaker`` with upstart:" -msgstr "upstart を用いた ``pacemaker`` の起動" - msgid "To start the cluster, complete the following steps:" msgstr "以下の手順を実行して、クラスターを起動します。" -msgid "To verify the cluster status:" -msgstr "クラスターの状態を確認する方法:" - -msgid "" -"Tooz supports `various drivers `__ including the following back end solutions:" -msgstr "" -"Tooz は、以下のバックエンドソリューションを含む、 `さまざまなドライバー " -"`__ をサポートします。" - msgid "True" msgstr "True (真)" @@ -2945,31 +1580,9 @@ msgstr "" msgid "Ubuntu, Debian" msgstr "Ubuntu, Debian" -msgid "Use HA queues in RabbitMQ (x-ha-policy: all):" -msgstr "RabbitMQ における HA キューの使用 (x-ha-policy: all):" - -msgid "" -"Use MySQL/Galera in active/passive mode to avoid deadlocks on ``SELECT ... " -"FOR UPDATE`` type queries (used, for example, by nova and neutron). This " -"issue is discussed more in the following:" -msgstr "" -"MySQL/Galera をアクティブ/パッシブモードで使用して、 ``SELECT ... FOR " -"UPDATE`` のような形式のクエリーにおけるデッドロックを避けます (例えば、nova " -"や neutron により使用されます)。この問題は、以下において詳細に議論されていま" -"す。" - msgid "Use durable queues in RabbitMQ:" msgstr "RabbitMQ での永続キューの使用:" -msgid "" -"Use that password to authenticate to the nodes which will make up the " -"cluster. The :option:`-p` option is used to give the password on command " -"line and makes it easier to script." -msgstr "" -"このパスワードを使用して、クラスターを構成するノードに認証します。 :option:`-" -"p` オプションは、コマンドラインにおいてパスワードを指定して、スクリプト化しや" -"すくするために使用されます。" - msgid "" "Use the :command:`corosync-cfgtool` utility with the :option:`-s` option to " "get a summary of the health of the communication rings:" @@ -2990,93 +1603,6 @@ msgstr "値" msgid "Verify that the nodes are running:" msgstr "そのノードが動作していることを検証します。" -msgid "" -"We are building a cluster of RabbitMQ nodes to construct a RabbitMQ broker, " -"which is a logical grouping of several Erlang nodes." -msgstr "" -"RabbitMQ ブローカーを構成する RabbitMQ ノードのクラスターを構築しています。こ" -"れは、いくつかの Erlang ノードの論理グループです。" - -msgid "" -"We have to configure the OpenStack components to use at least two RabbitMQ " -"nodes." -msgstr "" -"2 つ以上の RabbitMQ ノードを使用するよう、OpenStack のコンポーネントを設定す" -"る必要があります。" - -msgid "" -"We recommend HAProxy as the load balancer, however, there are many " -"alternatives in the marketplace." -msgstr "" -"ロードバランサーとして HAProxy を推奨しますが、マーケットプレースにさまざまな" -"同等品があります。" - -msgid "" -"We use a check interval of 1 second, however, the timeouts vary by service." -msgstr "1 秒間隔でチェックしますが、タイムアウト値はサービスにより異なります。" - -msgid "What is a cluster manager" -msgstr "クラスターマネージャーとは" - -msgid "" -"When Ceph RBD is used for ephemeral volumes as well as block and image " -"storage, it supports `live migration `_ of VMs with ephemeral drives; LVM only " -"supports live migration of volume-backed VMs." -msgstr "" -"Ceph RBD をブロックストレージやイメージストレージと同じように一時ストレージ用" -"に使用する場合、一時ボリュームを持つ仮想マシンの `ライブマイグレーション " -"` が" -"サポートされます。LVM のみがボリュームをバックエンドとした仮想マシンのライブ" -"マイグレーションをサポートします。" - -msgid "" -"When configuring an OpenStack environment for study or demonstration " -"purposes, it is possible to turn off the quorum checking; this is discussed " -"later in this guide. Production systems should always run with quorum " -"enabled." -msgstr "" -"学習やデモの目的に OpenStack 環境を設定している場合、クォーラムのチェックを無" -"効化できます。このガイドで後から議論します。本番システムは必ずクォーラムを有" -"効化して実行すべきです。" - -msgid "" -"When each cluster node starts, it checks the IP addresses given to the " -"``wsrep_cluster_address`` parameter and attempts to establish network " -"connectivity with a database server running there. Once it establishes a " -"connection, it attempts to join the Primary Component, requesting a state " -"transfer as needed to bring itself into sync with the cluster." -msgstr "" -"各クラスターノードが起動したとき、``wsrep_cluster_address`` パラメーターに指" -"定された IP アドレスを確認して、それで動作しているデータベースサーバーへの" -"ネットワーク接続性を確立しようとします。接続が確立されると、クラスターを同期" -"するために必要となる状態転送を要求する、Primary Component に参加しようとしま" -"す。" - -msgid "" -"When you finish the installation and configuration process on each cluster " -"node in your OpenStack database, you can initialize Galera Cluster." -msgstr "" -"各ノードにおいて、お使いの OpenStack データベースのインストールと設定を完了す" -"ると、Galera Cluster を初期化できます。" - -msgid "" -"When you have all cluster nodes started, log into the database client on one " -"of them and check the ``wsrep_cluster_size`` status variable again." -msgstr "" -"すべてのクラスターノードを起動したとき、どれか 1 つにデータベースクライアント" -"からログインして、``wsrep_cluster_size`` 状態変数を再び確認します。" - -msgid "" -"While all of the configuration parameters available to the standard MySQL, " -"MariaDB or Percona XtraDB database server are available in Galera Cluster, " -"there are some that you must define an outset to avoid conflict or " -"unexpected behavior." -msgstr "" -"標準的な MySQL、MariaDB、Percona XtraDB データベースに利用できる設定パラメー" -"ターは Galera Cluster で利用できますが、競合や予期しない動作を避けるために始" -"めに定義する必要があるものがあります。" - msgid "" "While the application can still run after the failure of several instances, " "it may not have sufficient capacity to serve the required volume of " @@ -3088,17 +1614,6 @@ msgstr "" "は自動的に故障したインスタンスを復旧して、さらなる負荷が障害を引き起こさない" "ようにできます。" -msgid "" -"With ``secauth`` enabled, Corosync nodes mutually authenticate using a 128-" -"byte shared secret stored in the :file:`/etc/corosync/authkey` file, which " -"may be generated with the :command:`corosync-keygen` utility. When using " -"``secauth``, cluster communications are also encrypted." -msgstr "" -"``secauth`` を有効化すると、Corosync ノードが :file:`/etc/corosync/authkey` " -"に保存された 128 バイトの共有シークレットを使用して相互に認証されます。これ" -"は、 :command:`corosync-keygen` ユーティリティーを使用して生成できます。 " -"``secauth`` を使用している場合、クラスター通信も暗号化されます。" - msgid "" "Within the ``nodelist`` directive, it is possible to specify specific " "information about the nodes in the cluster. The directive can contain only " @@ -3112,19 +1627,6 @@ msgstr "" "プションを指定します。すべてのノードは、少なくとも ``ring0_addr`` の項目を入" "力する必要があります。" -msgid "" -"Without the ``backend_url`` option being set only one instance of both the " -"central and compute agent service is able to run and function correctly." -msgstr "" -"``backend_url`` オプションを設定しないと、中央エージェントとコンピュートエー" -"ジェントのインスタンスのどちらかのみが正しく動作して機能できます。" - -msgid "" -"You also need to create the OpenStack Identity Endpoint with this IP address." -msgstr "" -"この IP アドレスを用いて OpenStack Identity エンドポイントを作成する必要があ" -"ります。" - msgid "" "You can achieve high availability for the OpenStack database in many " "different ways, depending on the type of database that you want to use. " @@ -3133,22 +1635,6 @@ msgstr "" "使用したいデータベースの種類に応じて、さまざまな情報で OpenStack のデータベー" "スの高可用性を実現できます。Galera Cluster は 3 種類の実装があります。" -msgid "" -"You can alternatively use a commercial load balancer, which is a hardware or " -"software. A hardware load balancer generally has good performance." -msgstr "" -"代わりに、ハードウェアやソフトウェアの商用ロードバランサーを使用することもで" -"きます。ハードウェアロードバランサーは、一般的に高性能です。" - -msgid "" -"You can have up to 16 cluster members (this is currently limited by the " -"ability of corosync to scale higher). In extreme cases, 32 and even up to 64 " -"nodes could be possible, however, this is not well tested." -msgstr "" -"クラスターのメンバーを 16 まで持てます (これは、corosync をよりスケールさせる" -"機能による、現在の制限です)。極端な場合、32 や 64 までのノードさえ利用できま" -"すが、十分にテストされていません。" - msgid "" "You can now add the Pacemaker configuration for Block Storage API resource. " "Connect to the Pacemaker cluster with the :command:`crm configure` command " @@ -3158,33 +1644,6 @@ msgstr "" "configure` を用いて Pacemaker クラスターに接続し、以下のクラスターリソースを" "追加します。" -msgid "" -"You can now add the Pacemaker configuration for the OpenStack Identity " -"resource by running the :command:`crm configure` command to connect to the " -"Pacemaker cluster. Add the following cluster resources:" -msgstr "" -"ここで OpenStack Identity リソース向けに Pacemaker の設定を追加できます。:" -"command:`crm configure` コマンドを使用して、Pacemaker クラスターに接続しま" -"す。以下のクラスターリソースを追加します。" - -msgid "" -"You can now add the Pacemaker configuration for the OpenStack Image API " -"resource. Use the :command:`crm configure` command to connect to the " -"Pacemaker cluster and add the following cluster resources:" -msgstr "" -"ここで OpenStack Image API リソース向けに Pacemaker の設定を追加できます。:" -"command:`crm configure` コマンドを使用して、Pacemaker クラスターに接続して、" -"以下のクラスターリソースを追加します。" - -msgid "" -"You can now add the Pacemaker configuration for the Shared File Systems API " -"resource. Connect to the Pacemaker cluster with the :command:`crm configure` " -"command and add the following cluster resources:" -msgstr "" -"Shared File Systems API リソース用の Pacemaker 設定を追加できます。 :command:" -"`crm configure` を用いて Pacemaker クラスターに接続し、以下のクラスターリソー" -"スを追加します。" - msgid "" "You can now check the ``corosync`` connectivity with one of these tools." msgstr "corosyncの接続性をそれらのツールの一つで確認することができます。" @@ -3200,16 +1659,6 @@ msgstr "" "`psuedo roadmap `_ があります。" -msgid "" -"You must also create the OpenStack Image API endpoint with this IP address. " -"If you are using both private and public IP addresses, you should create two " -"virtual IP addresses and define your endpoint like this:" -msgstr "" -"この IP アドレスを用いて OpenStack Image API エンドポイントを作成する必要があ" -"ります。プライベート IP アドレスとパブリック IP アドレスを両方使用している場" -"合、2 つの仮想 IP アドレスを作成して、次のようにエンドポイントを定義する必要" -"があります。" - msgid "" "You must configure a supported Tooz driver for the HA deployment of the " "Telemetry services." @@ -3217,27 +1666,11 @@ msgstr "" "Telemetry サービスの高可用性デプロイのために、サポートされる Tooz ドライバー" "を設定する必要があります。" -msgid "You must create the Block Storage API endpoint with this IP." -msgstr "" -"この IP を用いて Block Storage API エンドポイントを作成する必要があります。" - msgid "You must create the Shared File Systems API endpoint with this IP." msgstr "" "この IP を用いて Shared File Systems API エンドポイントを作成する必要がありま" "す。" -msgid "" -"You must first download the OpenStack Identity resource to Pacemaker by " -"running the following commands:" -msgstr "" -"まず、以下のコマンドを実行して、OpenStack Identity リソースを Pacemaker にダ" -"ウンロードする必要があります。" - -msgid "You must first download the resource agent to your system:" -msgstr "" -"まず、お使いのシステムにリソースエージェントをダウンロードする必要がありま" -"す。" - msgid "" "You must select and assign a virtual IP address (VIP) that can freely float " "between cluster nodes." @@ -3259,15 +1692,6 @@ msgstr "" "どれか 1 つのクラスターノードにおいてのみ実行する必要があります。Galera " "Cluster が、他のすべてのノードにユーザーを複製します。" -msgid "" -"You should be familiar with `OpenStack Identity service `_ before " -"proceeding, which is used by many services." -msgstr "" -"進める前に `OpenStack Identity サービス `_ に慣れておくべきです。これは多くの" -"サービスにより使用されます。" - msgid "" "You should see a ``status=joined`` entry for each of your constituent " "cluster nodes." @@ -3294,16 +1718,6 @@ msgstr "" "理 IP アドレスを指定する代わりに、Block Storage API の設定が高可用性と仮想ク" "ラスター IP アドレスを指し示す必要があります。" -msgid "" -"Your OpenStack services must now point their OpenStack Identity " -"configuration to the highly available virtual cluster IP address rather than " -"point to the physical IP address of an OpenStack Identity server as you " -"would do in a non-HA environment." -msgstr "" -"OpenStack サービスが、非 HA 環境であるような OpenStack Identity サーバーの物" -"理 IP アドレスを指し示す代わりに、高可用性な仮想クラスター IP アドレスを指し" -"示すように、それらの OpenStack Identity の設定を変更する必要があります。" - msgid "" "Your OpenStack services must now point their OpenStack Image API " "configuration to the highly available, virtual cluster IP address instead of " @@ -3339,13 +1753,6 @@ msgstr "" "[TODO Need discussion of network hardware, bonding interfaces, intelligent " "Layer 2 switches, routers and Layer 3 switches.]" -msgid "" -"[TODO: Verify that Oslo supports hash synchronization; if so, this should " -"not take more than load balancing.]" -msgstr "" -"[TODO: Verify that Oslo supports hash synchronization; if so, this should " -"not take more than load balancing.]" - msgid "" "[TODO: Add discussion of remote backup facilities as an alternate way to " "secure ones data. Include brief mention of key third-party technologies with " @@ -3355,39 +1762,6 @@ msgstr "" "secure ones data. Include brief mention of key third-party technologies with " "links to their documentation]" -msgid "" -"[TODO: Does this list need to be updated? Perhaps we need a table that shows " -"each component and the earliest release that allows it to work with HA " -"queues.]" -msgstr "" -"[TODO: Does this list need to be updated? Perhaps we need a table that shows " -"each component and the earliest release that allows it to work with HA " -"queues.]" - -msgid "[TODO: Should the example instead use a minimum of three nodes?]" -msgstr "[TODO: Should the example instead use a minimum of three nodes?]" - -msgid "" -"[TODO: Should the main example now use corosync-cmapctl and have the note " -"give the command for Corosync version 1?]" -msgstr "" -"[TODO: Should the main example now use corosync-cmapctl and have the note " -"give the command for Corosync version 1?]" - -msgid "" -"[TODO: This hands off to two different docs for install information. We " -"should choose one or explain the specific purpose of each.]" -msgstr "" -"[TODO: This hands off to two different docs for install information. We " -"should choose one or explain the specific purpose of each.]" - -msgid "" -"[TODO: This section should begin with a brief mention about what HA queues " -"are and why they are valuable, etc]" -msgstr "" -"[TODO: This section should begin with a brief mention about what HA queues " -"are and why they are valuable, etc]" - msgid "" "[TODO: Update this information. Can this service now be made HA in active/" "active mode or do we need to pull in the instructions to run this service in " @@ -3409,50 +1783,15 @@ msgstr "" msgid "[TODO: need more discussion of these parameters]" msgstr "[TODO: need more discussion of these parameters]" -msgid "[TODO: replace \"currently\" with specific release names]" -msgstr "[TODO: replace \"currently\" with specific release names]" - msgid "[TODO: update this section.]" msgstr "[TODO: update this section.]" -msgid "" -"[TODO: we need more commentary about the contents and format of this file]" -msgstr "" -"[TODO: we need more commentary about the contents and format of this file]" - -msgid "[Verify fingerprint of imported GPG key; see below]" -msgstr "[Verify fingerprint of imported GPG key; see below]" - -msgid "" -"`Ceph RBD `_ is an innately high availability storage back " -"end. It creates a storage cluster with multiple nodes that communicate with " -"each other to replicate and redistribute data dynamically. A Ceph RBD " -"storage cluster provides a single shared set of storage nodes that can " -"handle all classes of persistent and ephemeral data -- glance, cinder, and " -"nova -- that are required for OpenStack instances." -msgstr "" -"`Ceph RBD `_ は、本質的に高可用性なストレージバックエンドで" -"す。複数のノードを用いてストレージクラスターを作成し、お互いに通信して動的に" -"レプリケーションとデータ再配布を実行します。Ceph RBD ストレージクラスターは、" -"OpenStack インスタンスに必要となる、すべての種類の永続データと一時データ " -"(glance、cinder、nova) を取り扱える、単一の共有ストレージノードを提供します。" - msgid "`Clustering Guide `_" msgstr "`Clustering Guide `_" msgid "`Debian and Ubuntu `_" msgstr "`Debian および Ubuntu `_" -msgid "`Fedora `_" -msgstr "`Fedora `_" - -msgid "" -"`Galera Cluster for MySQL `_ The MySQL reference " -"implementation from Codership, Oy;" -msgstr "" -"`Galera Cluster for MySQL `_ Codership, Oy による " -"MySQL リファレンス実装" - msgid "`Highly Available Queues `_" msgstr "`Highly Available Queues `_" @@ -3465,35 +1804,6 @@ msgstr "" "`LP1349398 `_ are " "related.]" -msgid "" -"`MariaDB Galera Cluster `_ The MariaDB implementation " -"of Galera Cluster, which is commonly supported in environments based on Red " -"Hat distributions;" -msgstr "" -"`MariaDB Galera Cluster `_ Galera Cluster の MariaDB 実" -"装、一般的に Red Hat 系ディストリビューションの環境においてサポートされます" - -msgid "`Memcached `__." -msgstr "`Memcached `__." - -msgid "" -"`Pacemaker `_ cluster stack is the state-of-the-art " -"high availability and load balancing stack for the Linux platform. Pacemaker " -"is useful to make OpenStack infrastructure highly available. Also, it is " -"storage and application-agnostic, and in no way specific to OpenStack." -msgstr "" -"`Pacemaker `_ クラスタースタックは、Linux プラット" -"フォーム向けの最高水準の高可用性と負荷分散を実現します。Pacemaker は " -"OpenStack インフラを高可用化するために役立ちます。また、ストレージとアプリ" -"ケーションから独立していて、OpenStack 特有の方法はありません。" - -msgid "" -"`Percona XtraDB Cluster `_ The XtraDB " -"implementation of Galera Cluster from Percona." -msgstr "" -"`Percona XtraDB Cluster `_ Percona による Galera " -"Cluster の XtraDB 実装" - msgid "" "`RPM based `_ (RHEL, Fedora, " "CentOS, openSUSE)" @@ -3501,77 +1811,12 @@ msgstr "" "`RPM ベース `_ (RHEL, Fedora, " "CentOS, openSUSE)" -msgid "`Redis `__." -msgstr "`Redis `__。" - -msgid "" -"`Telemetry service `__ provides data collection service and alarming service." -msgstr "" -"`Telemetry サービス `__ は、データ収集サービスとアラームサービスを提供しま" -"す。" - -msgid "" -"`Ubuntu `_" -msgstr "" -"`Ubuntu `_" - -msgid "`Zookeeper `__." -msgstr "`Zookeeper `__。" - -msgid "" -"``Corosync`` is started as a regular system service. Depending on your " -"distribution, it may ship with an LSB init script, an upstart job, or a " -"systemd unit file. Either way, the service is usually named ``corosync``:" -msgstr "" -"Corosync は通常のシステムサービスとして起動します。お使いのディストリビュー" -"ションに応じて、LSB init スクリプト、upstart ジョブ、systemd ユニットファイル" -"を同梱している場合があります。どちらにしても、通常、サービスは corosync とい" -"う名前です。" - msgid "``crmsh``" msgstr "``crmsh``" -msgid "" -"``last_man_standing_window`` specifies the time, in milliseconds, required " -"to recalculate quorum after one or more hosts have been lost from the " -"cluster. To do the new quorum recalculation, the cluster must have quorum " -"for at least the interval specified for ``last_man_standing_window``; the " -"default is 10000ms." -msgstr "" -"``last_man_standing_window`` は、1 つ以上のホストがクラスターから失われた後、" -"クォーラムを再計算するために必要となる時間をミリ秒単位で指定します。新しく" -"クォーラムを再計算するために、クラスターは少なくとも " -"``last_man_standing_window`` に指定された間隔はクォーラムを保持する必要があり" -"ます。デフォルトは 10000ms です。" - -msgid "" -"``nodeid`` is optional when using IPv4 and required when using IPv6. This is " -"a 32-bit value specifying the node identifier delivered to the cluster " -"membership service. If this is not specified with IPv4, the node id is " -"determined from the 32-bit IP address of the system to which the system is " -"bound with ring identifier of 0. The node identifier value of zero is " -"reserved and should not be used." -msgstr "" -"``nodeid`` は、IPv4 を使用するときにオプション、IPv6 を使用するときに必須で" -"す。クラスターメンバーシップサービスに配信される、ノード識別子を指定する 32 " -"ビットの値です。IPv4 で指定されていない場合、ノード ID は、システムがリング識" -"別子 0 に割り当てた 32 ビットの IP アドレスになります。ノード識別子の値 0 " -"は、予約済みであり、使用してはいけません。" - msgid "``pcs``" msgstr "``pcs``" -msgid "" -"``ring{X}_addr`` specifies the IP address of one of the nodes. {X} is the " -"ring number." -msgstr "" -"``ring{X}_addr`` は、1 つのノードの IP アドレスを指定します。{X} はリングの番" -"号です。" - msgid "allow_automatic_l3agent_failover" msgstr "allow_automatic_l3agent_failover" @@ -3581,18 +1826,9 @@ msgstr "コンピュートノード" msgid "controller node" msgstr "コントローラーノード" -msgid "corosync" -msgstr "corosync" - -msgid "fence-agents (CentOS or RHEL) or cluster-glue" -msgstr "fence-agents (CentOS、RHEL) または cluster-glue" - msgid "l3_ha" msgstr "l3_ha" -msgid "libqb0" -msgstr "libqb0" - msgid "max_l3_agents_per_router" msgstr "max_l3_agents_per_router" @@ -3601,12 +1837,3 @@ msgstr "min_l3_agents_per_router" msgid "openSUSE" msgstr "openSUSE" - -msgid "pacemaker" -msgstr "pacemaker" - -msgid "pcs (CentOS or RHEL) or crmsh" -msgstr "pcs (CentOS、RHEL) または crmsh" - -msgid "resource-agents" -msgstr "resource-agents" diff --git a/doc/ops-guide/source/locale/ja/LC_MESSAGES/ops-guide.po b/doc/ops-guide/source/locale/ja/LC_MESSAGES/ops-guide.po index 9ab5439ce3..9eb3550d34 100644 --- a/doc/ops-guide/source/locale/ja/LC_MESSAGES/ops-guide.po +++ b/doc/ops-guide/source/locale/ja/LC_MESSAGES/ops-guide.po @@ -35,7 +35,7 @@ msgid "" msgstr "" "Project-Id-Version: Operations Guide 0.0.1\n" "Report-Msgid-Bugs-To: \n" -"POT-Creation-Date: 2016-11-30 01:05+0000\n" +"POT-Creation-Date: 2016-12-05 04:02+0000\n" "MIME-Version: 1.0\n" "Content-Type: text/plain; charset=UTF-8\n" "Content-Transfer-Encoding: 8bit\n" @@ -134,9 +134,6 @@ msgstr "" "**ovs-ofctl コマンドを使用することにより、外部 VLAN 向けに使用されている内部 " "VLAN タグを検索します。**" -msgid "**To perform the rollback**" -msgstr "**ロールバック方法**" - msgid "**To update Block Storage quotas for a tenant (project)**" msgstr "**プロジェクトの Block Storage クォータの更新方法**" @@ -3400,13 +3397,6 @@ msgstr "2012年12月13日" msgid "Dec 16, 2013" msgstr "2013年12月16日" -msgid "" -"Decrease DHCP timeouts by modifying ``/etc/nova/nova.conf`` on the compute " -"nodes back to the original value for your environment." -msgstr "" -"コンピュートノードにおいて ``/etc/nova/nova.conf`` を変更することにより、" -"DHCP タイムアウトを元の環境の値に減らして戻します。" - msgid "" "Dedicate entire disks to certain partitions. For example, you could allocate " "disk one and two entirely to the boot, root, and swap partitions under a " @@ -4260,13 +4250,6 @@ msgstr "" "クラウドからメトリクスを抽出する方法など、メトリクスの追跡については、 :doc:" "`ops-logging-monitoring` を参照してください。" -msgid "" -"For an example of instance metadata, users can generate and register SSH " -"keys using the :command:`nova` command:" -msgstr "" -"インスタンスのメタデータの場合、ユーザーが :command:`nova` コマンドを使用し" -"て SSH 鍵を生成および登録できます。" - msgid "" "For compute nodes, ``nova-scheduler`` will take care of differences in " "sizing having to do with core count and RAM amounts; however, you should " @@ -4657,9 +4640,6 @@ msgstr "" msgid "General Security Groups Configuration" msgstr "一般的なセキュリティグループの設定" -msgid "General upgrade process" -msgstr "一般的なアップグレード作業" - msgid "Generate signature of image and convert it to a base64 representation:" msgstr "イメージの署名を生成して、base64 形式に変換します。" @@ -5504,13 +5484,6 @@ msgstr "" "に向けた提案があります。完全に規定されたドキュメントではありませんが、停止時" "間やデータ損失を避けるための方法や技術を提供しています。" -msgid "" -"If you decide to continue this step manually, don't forget to change " -"``neutron`` to ``quantum`` where applicable." -msgstr "" -"これらの手順を手動で続けることを決定した場合、適切なところにある ``neutron`` " -"を ``quantum`` に変更することを忘れないでください。" - msgid "" "If you do not follow last three steps, OpenStack Compute cannot manage the " "instance any longer. It fails to respond to any command issued by OpenStack " @@ -6582,19 +6555,6 @@ msgstr "" msgid "Liberty" msgstr "Liberty" -msgid "" -"Like all major system upgrades, your upgrade could fail for one or more " -"reasons. You should prepare for this situation by having the ability to roll " -"back your environment to the previous release, including databases, " -"configuration files, and packages. We provide an example process for rolling " -"back your environment in :ref:`rolling_back_a_failed_upgrade`." -msgstr "" -"すべてのシステムのメジャーアップグレードと同じく、いくつかの理由により、アッ" -"プグレードに失敗する可能性があります。データベース、設定ファイル、パッケージ" -"など、お使いの環境をロールバックできるようにしておくことにより、この状況に備" -"えるべきです。お使いの環境をロールバックするためのプロセス例が :ref:" -"`rolling_back_a_failed_upgrade` にあります。" - msgid "" "Limit the total size (in bytes) or number of objects that can be stored in a " "single container." @@ -6779,15 +6739,6 @@ msgstr "" msgid "Maintenance, Failures, and Debugging" msgstr "メンテナンス、故障およびデバッグ" -msgid "" -"Make a full database backup of your production data. As of Kilo, database " -"downgrades are not supported, and the only method available to get back to a " -"prior database version will be to restore from backup." -msgstr "" -"本番データの完全バックアップを取得します。Kilo 時点では、データベースのダウン" -"グレードはサポートされません。以前のバージョンのデータベースに戻す唯一の方法" -"は、バックアップからリストアすることです。" - msgid "Make another storage endpoint on the same system" msgstr "同じシステムに別のストレージエンドポイントの作成" @@ -12912,21 +12863,6 @@ msgstr "" "ジトリーを作成し、 :command:`apt-get update`` を実行して、環境をロールバック" "することになった問題を解決するまで、偶然アップグレードすることを防ぎます。" -msgid "" -"This tells us the currently installed version of the package, newest " -"candidate version, and all versions along with the repository that contains " -"each version. Look for the appropriate Grizzly version— " -"``1:2013.1.4-0ubuntu1~cloud0`` in this case. The process of manually picking " -"through this list of packages is rather tedious and prone to errors. You " -"should consider using the following script to help with this process:" -msgstr "" -"これにより、パッケージの現在インストールされているバージョン、候補となる最新" -"バージョン、各バージョンを含むリポジトリーにある全バージョンを把握できます。" -"適切な Grizzly バージョン、この場合 ``1:2013.1.4-0ubuntu1~cloud0`` を探しま" -"す。このパッケージ一覧から手動で探し当てる手順は、むしろ退屈で間違えやすいで" -"す。この手順を支援するために、以下のスクリプトを使用することを検討すべきで" -"す。" - msgid "" "This user data can be put in a file on your local system and then passed in " "at instance creation with the flag :option:`--user-data` ``\n" "Language: zh-CN\n" "Plural-Forms: nplurals=1; plural=0;\n" @@ -542,9 +542,18 @@ msgstr ":guilabel:`虚拟机管理器`:查看虚拟机管理器概况。" msgid ":guilabel:`IP Version`: Select IPv4 or IPv6." msgstr "标签‘IP版本’:选择IPv4或IPv6." +msgid ":guilabel:`Image Description`" +msgstr ":guilabel:`镜像描述`" + msgid ":guilabel:`Image File` or :guilabel:`Image Location`" msgstr ":guilabel:`镜像文件`或者:guilabel:`镜像位置`" +msgid ":guilabel:`Image Metadata`" +msgstr ":guilabel:`镜像元数据`" + +msgid ":guilabel:`Image Name`" +msgstr ":guilabel:`镜像名称`" + msgid ":guilabel:`Image Source`" msgstr ":guilabel:`镜像源`" @@ -869,6 +878,9 @@ msgstr ":guilabel:`用户`:输入用户名称。" msgid ":guilabel:`Users`: View, create, enable, disable, and delete users." msgstr ":guilabel:`用户`:查看、创建、禁用、激活和删除用户。" +msgid ":guilabel:`Visibility`" +msgstr ":guilabel:`可见性`" + msgid ":guilabel:`Volume Name`: Specify a name for the volume." msgstr ":guilabel:`卷名称`:为卷指定一个名称。" @@ -1581,6 +1593,11 @@ msgstr "将交换磁盘连接到实例。" msgid "Attach a volume to an instance" msgstr "将卷附加到实例上" +msgid "" +"Attach a volume to an instance after the instance is active, and the volume " +"is available" +msgstr "当实例为正常状态且卷为可用状态时,将卷连接到实例。" + msgid "Attach an ephemeral disk to an instance." msgstr "连接一个临时磁盘到实例。" @@ -1765,6 +1782,24 @@ msgstr "" "`Description of Compute configuration options `_ " +msgid "" +"By default, the :command:`openstack server shelve` command gives the guest " +"operating system a chance to perform a controlled shutdown before the " +"instance is powered off. The shutdown behavior is configured by the " +"``shutdown_timeout`` parameter that can be set in the :file:`nova.conf` " +"file. Its value stands for the overall period (in seconds) a guest operation " +"system is allowed to complete the shutdown. The default timeout is 60 " +"seconds. See `Description of Compute configuration options `_ for " +"details." +msgstr "" +"默认情况下,:command:`openstack server shelve`命令在实例关机前,客户操作系统" +"有机会执行一次可控的关机操作。关机操作相关配置使用:file:`nova.conf`文件中的" +"``shutdown_timeout``参数进行设置。该值表示允许操作系统执行关机的超时时间" +"(秒)。默认为60秒。详细信息请参考`Description of Compute configuration " +"options `_" + msgid "" "By default, the Object Storage API uses a ``text/plain`` response format. In " "addition, both JSON and XML data serialization response formats are " @@ -2128,6 +2163,11 @@ msgstr "创建一个“current”容器存放当前版本的对象。" msgid "Create a bare-metal node" msgstr "创建裸金属节点" +msgid "" +"Create a bootable volume from an image. Cinder makes a volume bootable when " +"``--image`` parameter is passed." +msgstr "从镜像创建可启动卷。传入``--image``参数可将一个卷设置为可启动。" + msgid "" "Create a cluster by using the :command:`trove cluster-create` command. This " "command creates a one-shard cluster. Pass in:" @@ -3046,14 +3086,6 @@ msgstr "" "如果全部匹配,API创建manifest对象并设置元数据``X-Static-Large-Object``为" "``true``, 标明manifest是静态对象。" -msgid "" -"If more than one IP address pool is available, you can specify from which " -"pool to allocate the IP address, using the pool's name. For example, to " -"allocate a floating IP address from the ``test`` pool, run:" -msgstr "" -"如果有多个IP地址池可用,可以使用地址池的名称来指定一个具体的地址池分配IP地" -"址。例如,从``test``地址池中分配IP,运行:" - msgid "" "If needed, you can assign a **floating (public) IP address** to a running " "instance." @@ -3912,6 +3944,9 @@ msgstr "使用 :command:`trove cluster-list`命令列出所有的集群。" msgid "List all users" msgstr "列出所有的用户" +msgid "List all volumes, noticing the volume status" +msgstr "列出所有卷,注意卷状态" + msgid "List bare-metal nodes and interfaces" msgstr "列出裸金属节点和接口" @@ -4229,6 +4264,15 @@ msgstr "计量" msgid "Method" msgstr "方法" +msgid "" +"Modify security group rules with the :command:`openstack security group " +"rule` commands. Before you begin, source the OpenStack RC file. For details, " +"see :doc:`../common/cli-set-environment-variables-using-openstack-rc`." +msgstr "" +"使用命令:command:`openstack security group rule`修改安全组规则。开始之前,使" +"用source命令执行OpenStack RC文件。更多细节,参考:doc:`../common/cli-set-" +"environment-variables-using-openstack-rc`。" + msgid "MongoDB" msgstr "MongoDB" @@ -4674,6 +4718,18 @@ msgstr "" "用或用于存储任何类型的文件,包括虚拟机镜像、备份、归档,或媒体文件。在" "OpenStack的控制界面上,你仅能管理容器和对象。" +msgid "" +"OpenStack Orchestration is a service that you can use to orchestrate " +"multiple composite cloud applications. This service supports the use of both " +"the Amazon Web Services (AWS) CloudFormation template format through both a " +"Query API that is compatible with CloudFormation and the native OpenStack :" +"term:`Heat Orchestration Template (HOT)` format through a REST API." +msgstr "" +"OpenStack编排(OpenStack Orchestration)是一个可实现对多个组合云应用进行编排" +"的服务。该服务支持通过兼容CloudFormation的Query API使用Amazon Web Services " +"(AWS) CloudFormation模板,同时也支持通过REST API使用原生OpenStack:term:`Heat " +"Orchestration Template (HOT)`模板。" + msgid "OpenStack Python SDK" msgstr "OpenStack Python SDK" @@ -4762,6 +4818,16 @@ msgstr "" "或者,在:guilabel:`添加接口`对话框中,为用于所选子网的路由接口设置:guilabel:" "`IP地址`。" +msgid "" +"Optionally, you can provide a key name for access control and a security " +"group for security. You can also include metadata key and value pairs. For " +"example, you can add a description for your server by providing the ``--" +"property description=\"My Server\"`` parameter." +msgstr "" +"可选地,您可以为访问控制提供一个关键字,为安全指定安全组。您也可以包括元数据" +"关键字和值对。比如,提供参数``--property description=\"My Server\"``,为您的" +"服务器添加一个描述。" + msgid "" "Orchestration is compatible with the CloudFormation template, but you can " "also write heat templates to orchestrate cloud resources." @@ -5137,6 +5203,11 @@ msgid "" "stack fails to launch." msgstr "如果希望服务在栈无法启动时回滚更改,请选中此复选框。" +msgid "" +"Select this check box to ensure that only users with permissions can delete " +"the image. ``Yes`` or ``No``." +msgstr "选中此复选框以确保只有具有权限的用户才能删除该镜像。``是`` or ``否``。" + msgid "Selected Networks" msgstr "已选择的网络" @@ -5363,6 +5434,14 @@ msgstr "为数据库指定根密码。" msgid "Specify the size of the instance to launch." msgstr "指定启动实例的大小" +msgid "" +"Specify this option to add resource metadata. The glance Metadata Catalog " +"provides a list of metadata image definitions. (Note: Not all cloud " +"providers enable this feature.)" +msgstr "" +"指定该选项以增加资源元数据。glance元数据目录提供了元数据镜像定义列表。(注" +"意:并非所有云提供商都启用此功能。)" + msgid "Specify this option to copy image data to the Image service." msgstr "指定此选项可将镜像数据复制到镜像服务。" @@ -5437,6 +5516,9 @@ msgstr "" "供他们``guest2``'的名字、IP地址,以及其它他们需要的信息。(您可以获取这些信" "息,通过命令`trove show` 。)" +msgid "Template" +msgstr "模板" + msgid "" "The **flavor** for your instance, which defines the compute, memory, and " "storage capacity of nova computing instances. A flavor is an available " @@ -5730,6 +5812,9 @@ msgstr "访问被创建" msgid "The access is removed." msgstr "访问被删除" +msgid "The access permission for the image. ``Public`` or ``Private``." +msgstr "镜像的访问权限。``公共`` or ``私有``。" + msgid "" "The actual device name might differ from the volume name because of " "hypervisor settings." @@ -6211,6 +6296,9 @@ msgstr "" "斜线结尾的,那么该返回值将引用真正的对象。伪目录不存在content-type,当然,每" "个伪目录在JSON和XML结果的响应中都有自己的``subdir``条目。比如:" +msgid "The template for the stack." +msgstr "栈模板。" + msgid "" "The template languages are described in the `Template Guide `_ in the `Heat " @@ -6683,6 +6771,9 @@ msgstr "删除容器时,单击:guilabel:`更多`按钮,并选择:guilabel:` msgid "To delete a network:" msgstr "删除一个网络" +msgid "To delete a security group rule, specify the ID of the rule." +msgstr "要删除一个安全组规则,请指定规则ID。" + msgid "To delete a specified group, enter the following command:" msgstr "要删除指定的组,请输入以下命令:" @@ -7100,6 +7191,16 @@ msgid "" "and look in ``/var/lib/cloud`` for the file." msgstr "使用ssh连接到实例,查看``/var/lib/cloud``验证文件是否成功注入" +msgid "" +"To verify that the server was deleted, run the :command:`openstack server " +"list` command:" +msgstr "要验证服务器已被删除,运行“命令”:“openstack server list”:" + +msgid "" +"To view the available options for the :command:`openstack server list` " +"command, run the following command:" +msgstr "运行以下命令查看命令:command:`openstack server list`的可用选项:" + msgid "Topology" msgstr "拓扑" @@ -7237,11 +7338,6 @@ msgid "" "a bare-metal node:" msgstr "使用 :command:`nova baremetal-node-show` 查看裸金属节点的详细信息:" -msgid "" -"Use the :command:`nova floating-ip-*` commands to manage floating IP " -"addresses." -msgstr "使用:命令:'nova floating-ip-*'命令管理浮动IP地址" - msgid "Use the :command:`nova image-create` command to take a snapshot:" msgstr "使用命令`nova image-create`创建一个快照" @@ -7253,6 +7349,14 @@ msgid "" "the status is ``active``:" msgstr "使用命令`openstack image list`来检查快照状态,直到状态是``active``:" +msgid "" +"Use the :command:`openstack server list` command to confirm that the " +"instance shows a ``SHUTOFF`` status:" +msgstr "使用:command:`openstack server list`命令来确保实例状态是``SHUTOFF``:" + +msgid "Use the :command:`openstack` commands to manage floating IP addresses." +msgstr "使用:command:`openstack`命令管理浮动IP地址。" + msgid "" "Use the :command:`ssh` command to make a secure connection to the instance. " "For example:" @@ -7964,6 +8068,13 @@ msgstr "" msgid "You can run the following shelving tasks:" msgstr "执行如下释放命令:" +msgid "" +"You can search for an instance using the IP address parameter, :option:`--" +"ip`, with the :command:`openstack server list` command." +msgstr "" +"可以通过:command:`openstack server list`命令的:option:`--ip`参数使用IP地址查" +"询实例。" + msgid "" "You can set the ``Accept`` request header to one of the following values to " "define the response format:"