Edge pour Private Cloud v4.18.01
Ce document explique comment ajouter un centre de données (également appelé région) à un centre de données existant.
Éléments à prendre en compte avant d'ajouter un centre de données
Avant d'installer un centre de données, vous devez comprendre comment configurer les serveurs OpenLDAP, ZooKeeper, Cassandra et Postgres dans les centres de données. Vous devez également vous assurer que les ports nécessaires sont ouverts entre les nœuds des deux centres de données.
- OpenLDAP
Chaque centre de données dispose de son propre serveur OpenLDAP configuré avec la réplication activée. Lorsque vous installez le nouveau centre de données, vous devez configurer OpenLDAP pour utiliser la réplication, et reconfigurer le serveur OpenLDAP dans le centre de données existant pour utiliser la réplication. - ZooKeeper
Pour la propriété ZK_HOSTS des deux centres de données, spécifiez les adresses IP ou les noms DNS de tous les nœuds ZooKeeper des deux centres de données, dans le même ordre, et marquez tous les nœuds avec le modificateur ":observer". Les nœuds sans le modificateur ":observer" sont appelés "électeurs". Vous devez avoir un nombre impair de "électeurs" dans votre configuration.
Dans cette topologie, l'hôte ZooKeeper sur l'hôte 9 est l'observateur:
Dans l'exemple de fichier de configuration ci-dessous, le nœud 9 est tagué avec le modificateur ":observer" afin d'avoir cinq votants: Nœuds 1, 2, 3, 7 et 8.
Pour la propriété ZK_CLIENT_HOSTS de chaque centre de données, spécifiez uniquement les adresses IP ou les noms DNS des nœuds ZooKeeper du centre de données, dans le même ordre, pour tous les nœuds ZooKeeper du centre de données. - Cassandra
Tous les centres de données doivent avoir le même nombre de nœuds Cassandra.
Pour CASS_HOSTS pour chaque centre de données, assurez-vous de spécifier toutes les adresses IP Cassandra (et non les noms DNS) pour les deux centres de données. Pour le centre de données 1, listez d'abord les nœuds Cassandra de ce centre de données. Pour le centre de données 2, commencez par répertorier les nœuds Cassandra de ce centre de données. Répertoriez les nœuds Cassandra dans le même ordre pour tous les nœuds Cassandra du centre de données.
Tous les nœuds Cassandra doivent comporter un suffixe ':<d>,<r>', par exemple '<ip>:1,1 = centre de données 1 et rack/zone de disponibilité 1 et '<ip>:2,1 = centre de données 2 et rack/zone de disponibilité 1.
Par exemple, "192.168.124.201:1,1 192.168.124.202:1,1 192.168.124.203:1,1 192.168.124.204:2,1 192.168.124.205:2,1 192.168.124.206:2,1"
Le premier nœud du rack/de la zone de disponibilité 1 de chaque centre de données sera utilisé comme serveur de référence. Dans ce modèle de déploiement, la configuration de Cassandra se présente comme suit:
-
Postgres
Par défaut, Edge installe tous les nœuds Postgres en mode maître. Toutefois, lorsque vous disposez de plusieurs centres de données, vous configurez les nœuds Postgres pour qu'ils utilisent la réplication maître en mode veille. Ainsi, en cas de défaillance du nœud maître, le nœud de secours peut continuer à acheminer le trafic du serveur. En règle générale, vous configurez le serveur Postgres principal dans un centre de données et le serveur de secours dans un deuxième centre de données.
Si le centre de données existant est déjà configuré pour disposer de deux nœuds Postgres s'exécutant en mode maître/de secours, désenregistrez le nœud de secours existant et remplacez-le par un nœud de secours dans le nouveau centre de données.
Le tableau suivant présente la configuration Postgres avant et après pour les deux scénarios:
Avant
Après
Nœud Postgres maître dans dc-1
Nœud Postgres maître dans dc-1
Nœud Postgres de secours dans dc-2
Nœud Postgres maître dans dc-1
Nœud Postgres de secours dans dc-1
Nœud Postgres maître dans dc-1
Nœud Postgres de secours dans dc-2
Désenregistrer l'ancien nœud Postgres de secours dans dc-1
- Exigences concernant les ports
Vous devez vous assurer que les ports nécessaires sont ouverts entre les nœuds des deux centres de données. Pour obtenir un schéma des ports, consultez la section Conditions requises pour l'installation.
Mettre à jour le centre de données existant
Pour ajouter un centre de données, vous devez suivre la procédure d'installation et de configuration des nœuds du nouveau centre de données, mais aussi mettre à jour les nœuds du centre de données d'origine. Ces modifications sont nécessaires, car vous ajoutez de nouveaux nœuds Cassandra et ZooKeeper dans le nouveau centre de données qui doivent être accessibles au centre de données existant, et vous devez reconfigurer OpenLDAP pour utiliser la réplication.
Créer les fichiers de configuration
Vous trouverez ci-dessous les fichiers de configuration silencieuses pour les deux centres de données, où chaque centre de données comporte six nœuds, comme indiqué dans la section Topologies d'installation. Notez que le fichier de configuration de dc-1 ajoute des paramètres supplémentaires aux éléments suivants:
- Configurez OpenLDAP avec réplication sur deux nœuds OpenLDAP.
- Ajoutez les nouveaux nœuds Cassandra et ZooKeeper de dc-2 au fichier de configuration de dc-1.
# Datacenter 1 IP1=IPorDNSnameOfNode1 IP2=IPorDNSnameOfNode2 IP3=IPorDNSnameOfNode3 IP7=IPorDNSnameOfNode7 IP8=IPorDNSnameOfNode8 IP9=IPorDNSnameOfNode9 HOSTIP=$(hostname -i) MSIP=$IP1 ADMIN_EMAIL=opdk@google.com APIGEE_ADMINPW=Secret123 LICENSE_FILE=/tmp/license.txt USE_LDAP_REMOTE_HOST=n LDAP_TYPE=2 LDAP_SID=1 LDAP_PEER=$IP7 APIGEE_LDAPPW=secret MP_POD=gateway-1 REGION=dc-1 ZK_HOSTS="$IP1 $IP2 $IP3 $IP7 $IP8 $IP9:observer" ZK_CLIENT_HOSTS="$IP1 $IP2 $IP3" # Must use IP addresses for CASS_HOSTS, not DNS names. CASS_HOSTS="$IP1:1,1 $IP2:1,1 $IP3:1,1 $IP7:2,1 $IP8:2,1 $IP9:2,1" SKIP_SMTP=n SMTPHOST=smtp.example.com SMTPUSER=smtp@example.com SMTPPASSWORD=smtppwd SMTPSSL=n SMTPPORT=25 SMTPMAILFROM="My Company <myco@company.com>" |
# Datacenter 2 IP1=IPorDNSnameOfNode1 IP2=IPorDNSnameOfNode2 IP3=IPorDNSnameOfNode3 IP7=IPorDNSnameOfNode7 IP8=IPorDNSnameOfNode8 IP9=IPorDNSnameOfNode9 HOSTIP=$(hostname -i) MSIP=$IP7 ADMIN_EMAIL=opdk@google.com APIGEE_ADMINPW=Secret123 LICENSE_FILE=/tmp/license.txt USE_LDAP_REMOTE_HOST=n LDAP_TYPE=2 LDAP_SID=2 LDAP_PEER=$IP1 APIGEE_LDAPPW=secret MP_POD=gateway-2 REGION=dc-2 ZK_HOSTS="$IP1 $IP2 $IP3 $IP7 $IP8 $IP9:observer" ZK_CLIENT_HOSTS="$IP7 $IP8 $IP9" # Must use IP addresses for CASS_HOSTS, not DNS names. CASS_HOSTS="$IP7:2,1 $IP8:2,1 $IP9:2,1 $IP1:1,1 $IP2:1,1 $IP3:1,1" SKIP_SMTP=n SMTPHOST=smtp.example.com SMTPUSER=smtp@example.com SMTPPASSWORD=smtppwd SMTPSSL=n SMTPPORT=25 SMTPMAILFROM="My Company <myco@company.com>" |
Procédure d'ajout d'un centre de données
Dans cette procédure, les centres de données sont nommés comme suit:
- dc-1: centre de données existant
- dc-2: nouveau centre de données
- Sur dc-1, réexécutez le fichier setup.sh sur les nœuds Cassandra d'origine avec le nouveau fichier de configuration dc-1, qui inclut les nœuds Cassandra de dc-2:
/opt/apigee/apigee-setup/bin/setup.sh -p ds -f configFile1 - Sur dc-1, exécutez à nouveau setup.sh sur le nœud du serveur de gestion:
> /opt/apigee/apigee-setup/bin/setup.sh -p ms -f configFile1 - Sur dc-2, installez apigee-setup sur tous les nœuds. Pour en savoir plus, consultez Installer l'utilitaire apigee-setup Edge.
- Sur dc-2, installez Cassandra et ZooKeeper sur les nœuds appropriés:
/opt/apigee/apigee-setup/bin/setup.sh -p ds -f configFile2 - Sur dc-2, exécutez la commande de reconstruction sur tous les nœuds Cassandra, en spécifiant le nom de la région dc-1:
> /opt/apigee/apigee-cassandra/bin/nodetool -h cassIP rebuild dc-1 - Sur dc-2, installez le serveur de gestion sur le nœud approprié:
> /opt/apigee/apigee-setup/bin/setup.sh -p ms -f configFile2 - Sur le nœud du serveur de gestion dans dc-2, installez apigee-provision, qui installe l'utilitaire apigee-adminapi.sh:
> /opt/apigee/apigee-service/bin/apigee-service apigee-provision install - Sur dc-2, installez les routes et les processeurs de messages sur les nœuds appropriés:
> /opt/apigee/apigee-setup/bin/setup.sh -p rmp -f configFile2 - Sur dc-2, installez Qpid sur les nœuds appropriés:
> /opt/apigee/apigee-setup/bin/setup.sh -p qs -f configFile2 - Sur dc-2, installez Postgres sur le nœud approprié:
> /opt/apigee/apigee-setup/bin/setup.sh -p ps -f configFile2 - Configurez le maître/le nœud de secours Postgres pour les nœuds Postgres. Le nœud Postgres de dc-1 est le maître, et le nœud Postgres de dc-2 est le serveur de secours.
Remarque: Si le contrôleur dc-1 est déjà configuré pour que deux nœuds Postgres s'exécutent en mode maître/de secours, utilisez le nœud Postgres maître existant dans dc-1 en tant que maître et le nœud Postgres dans dc-2 en tant que serveur de secours. Plus loin dans cette procédure, vous désenregistrerez le serveur de secours Postgres existant dans dc-1.- Sur le nœud maître de dc-1, modifiez le fichier de configuration pour définir:
PG_MASTER=IPorDNSofDC1Master
PG_STANDBY=IPorDNSofDC2Standby - Activez la réplication sur le nouveau maître:
> /opt/apigee/apigee-service/bin/apigee-service apigee-postgresql setup-replication-on-master -f configFIle - Sur le nœud de secours de dc-2, modifiez le fichier de configuration pour définir les valeurs suivantes:
PG_MASTER=IPorDNSofDC1Master
PG_STANDBY=IPorDNSofDC2Standby - Sur le nœud de secours de dc-2, arrêtez le serveur, puis supprimez toutes les données Postgres existantes:
> /opt/apigee/apigee-service/bin/apigee-service apigee-postgresql stop
> rm -rf /opt/apigee/data/apigee-postgresql/
Remarque: Si nécessaire, vous pouvez sauvegarder ces données avant de les supprimer. - Configurez le nœud de secours dans dc-2:
> /opt/apigee/apigee-service/bin/apigee-service apigee-postgresql setup-replication-on-standby -f configFile
- Sur le nœud maître de dc-1, modifiez le fichier de configuration pour définir:
- Sur dc-1, mettez à jour la configuration d'analyse et configurez les organisations.
- Sur le nœud du serveur de gestion de dc-1, obtenez l'UUID du nœud PostgreSQL:
> apigee-adminapi.sh servers list -r dc-1 -p analytics -t postgres-server --admin adminEmail --pwd adminPword --host localhost
L'UUID s'affiche à la fin des données renvoyées. Enregistrez cette valeur.
Remarque: Si dc-1 est configuré pour que deux nœuds Postgres s'exécutent en mode maître/veille, deux adresses IP et UUID s'affichent dans le résultat. Enregistrez les deux UUID. À partir des adresses IP, vous devriez pouvoir déterminer quel UUID correspond au maître et quel UUID correspond au nœud de secours. - Sur le nœud du serveur de gestion de dc-2, récupérez l'UUID du nœud Postgres comme indiqué à l'étape précédente. Conservez cette valeur.
- Sur le nœud du serveur de gestion de dc-1, déterminez le nom des groupes d'analyse et de consommateurs. Bon nombre des commandes ci-dessous nécessitent cette information.
Par défaut, le nom du groupe d'analyse est axgroup-001 et celui du groupe de consommateurs est consumer-group-001. Dans le fichier de configuration silencieuse d'une région, vous pouvez définir le nom du groupe d'analyse à l'aide de la propriété AXGROUP.
Si vous ne connaissez pas le nom des groupes d'analyse et des groupes de consommateurs, utilisez la commande suivante pour les afficher:
> apigee-adminapi.sh analytics groups list --admin adminEmail --pwd adminPword --host localhost
Cette commande renvoie le nom du groupe d'analyse dans le champ "name" (nom) et le nom du groupe de consommateurs dans le champ "consumer-groups" (groupes de consommateurs). - Sur le nœud du serveur de gestion de dc-1, supprimez le serveur Postgres existant du groupe d'analyse :
UUID
UUID
-
Sur le nœud du serveur de gestion de dc-1, ajoutez les nouveaux serveurs Postgres maître/de secours au groupe d'analyse :
- Ajoutez les deux serveurs Postgres au groupe d'analyse:
> apigee-adminapi.sh groupes d'analyse postgres_server add -g axgroup-001 -u "UUID_1,UUID_2" --admin adminEmail --pwd adminPword --host localhost
où UUID_localhost et dc-1 correspond au nœud maître Postgres-UUID- Postgres - Ajoutez les serveurs PG au groupe "consumer-group" en tant que "master/standby" :
> apigee-adminapi.sh analytics groups consumer_groups datastores add -g axgroup-001 -c consumer-group-001 -u "UUID_1,UUID_2" --admin adminEmail --pwd adminPword --host localhost
- Ajoutez les deux serveurs Postgres au groupe d'analyse:
- Ajoutez les serveurs Qpid de dc-2 au groupe d'analyse :
- Sur le nœud du serveur de gestion de dc-1, obtenez les UUID des nœuds Qpid dans dc-2:
> apigee-adminapi.sh servers list -r dc-2 -p central -t qpid-server --admin adminEmail --pwd adminPword --host localhost
Les UUID apparaissent à la fin des données renvoyées. Enregistrez ces valeurs.
- Sur le nœud du serveur de gestion de dc-1, obtenez les UUID des nœuds Qpid dans dc-2:
- Annulez l'enregistrement et supprimez l'ancien serveur de secours Postgres de dc-1 :
- Désinscrivez le serveur de secours Postgres dc-1 existant:
> apigee-adminapi.sh servers deregister -u UUID -r dc-1 -p analytics -t postgres-server -Y --admin adminEmail --pwd adminPword --host localhost
où UUID est l'ancien nœud Postgres de secours dans dc-1. - Supprimez le serveur de secours Postgres dc-1 existant:
Remarque: Cette commande ne désinstalle pas le nœud du serveur Postgres. Il ne le supprime que de la liste des nœuds Edge. Vous pourrez ensuite désinstaller Postgres du nœud, si nécessaire.
> apigee-adminapi.sh servers delete -u UUID --admin adminEmail --pwd adminPword --host localhost
- Désinscrivez le serveur de secours Postgres dc-1 existant:
- Sur le nœud du serveur de gestion de dc-1, obtenez l'UUID du nœud PostgreSQL:
- Mettez à jour les espaces de clés Cassandra avec un facteur de réplication correct pour les deux centres de données. Vous ne devez exécuter cette étape qu'une seule fois sur un serveur Cassandra de l'un des centres de données:
Remarque: Les commandes ci-dessous définissent toutes le facteur de réplication sur "3", ce qui indique trois nœuds Cassandra dans le cluster. Modifiez cette valeur si nécessaire pour votre installation.- Démarrez l'utilitaire cqlsh Cassandra:
> /opt/apigee/apigee-cassandra/bin/cqlsh cassandraIP - Exécutez les commandes CQL suivantes à l'invite "cqlsh>" pour définir les niveaux de réplication des espaces de clés Cassandra :
- cqlsh> ALTER KEYSPACE "identityzone" WITH replication = { 'class': 'NetworkTopologyStrategy', 'dc-1': '3','dc-2': '3' };
- cqlsh> ALTER KEYSPACE "system_traces" WITH réplication = { 'class': 'NetworkTopologyStrategy', 'dc-1': '3','dc-2': '3' };
- Affichez les espaces de clés à l'aide de la commande:
cqlsh> select * from system.schema_keyspaces; - Quitter cqlsh:
cqlsh> exit
- Démarrez l'utilitaire cqlsh Cassandra:
- Exécutez la commande nodetool suivante sur tous les nœuds Cassandra dans dc-1 pour libérer de la mémoire:
> /opt/apigee/apigee-cassandra/bin/nodetool -h cassandraIP cleanup - Pour chaque organisation et pour chaque environnement que vous souhaitez prendre en charge dans les centres de données :
- Sur le nœud du serveur de gestion de dc-1, ajoutez le nouveau MP_POD à l'organisation:
> apigee-adminapi.sh orgs pods add -o orgName -r dc-2 -p gateway-2 --admin adminEmail --pwd adminPword --host localhost
où gateway-2 est le nom du pod de passerelle tel que défini par la propriété MP_POD dans le fichier de configuration dc-2. - Ajoutez les nouveaux processeurs de messages à l'organisation et à l'environnement :
- Sur le nœud du serveur de gestion de dc-2, obtenez les UUID des nœuds du processeur de messages dans dc-2:
> apigee-adminapi.sh servers list -r dc-2 -p gateway-2 -t message-processor --admin adminEmail --pwd adminPword --host localhost
Les UUID apparaissent à la fin des données renvoyées. Enregistrez ces valeurs. - Sur le nœud du serveur de gestion de dc-1, pour chaque processeur de messages dans dc-2, ajoutez le processeur de messages à un environnement pour l'organisation:
> apigee-adminapi.sh orgs envs servers add -o orgName -e envName -u UUID --admin adminEmail --pwd adminPword --host localhost
- Sur le nœud du serveur de gestion de dc-2, obtenez les UUID des nœuds du processeur de messages dans dc-2:
- Sur le nœud du serveur de gestion de dc-1, vérifiez l'organisation:
> apigee-adminapi.sh orgs apis deployments -o orgName -a apiProxyName --admin adminEmail --pwd adminPword --host localhost
où apiProxyName est le nom d'un proxy d'API déployé dans l'organisation.
- Sur le nœud du serveur de gestion de dc-1, ajoutez le nouveau MP_POD à l'organisation: