Ajouter un centre de données

Ce document explique comment ajouter un centre de données (également appelé région) à un centre de données existant.

Éléments à prendre en compte avant d'ajouter un centre de données

Avant d'ajouter un centre de données, vous devez savoir comment configurer les serveurs SymasLDAP, ZooKeeper, Cassandra et Postgres dans les centres de données. Vous devez également vous assurer que les ports nécessaires sont ouverts entre les nœuds des deux centres de données.

  • SymasLDAP

    Chaque centre de données possède son propre serveur SymasLDAP configuré avec la réplication activée. Lorsque vous installez le nouveau centre de données, vous devez configurer SymasLDAP pour qu'il utilise la réplication. Vous devez également reconfigurer le serveur SymasLDAP dans le centre de données existant pour qu'il utilise la réplication.

  • ZooKeeper

    Pour la propriété ZK_HOSTS des deux centres de données, spécifiez les adresses IP ou les noms DNS de tous les nœuds ZooKeeper des deux centres de données, dans le même ordre, et marquez les nœuds avec le modificateur ":observer". Les nœuds sans modificateur :observer sont appelés "votants". Votre configuration doit comporter un nombre impair de "votants".

    Dans cette topologie, l'hôte ZooKeeper sur l'hôte 9 est l'observateur :

    Dans l'exemple de fichier de configuration ci-dessous, le nœud 9 est associé au modificateur :observer. Vous disposez ainsi de cinq électeurs : les nœuds 1, 2, 3, 7 et 8.

    Pour la propriété ZK_CLIENT_HOSTS de chaque centre de données, spécifiez les adresses IP ou les noms DNS des nœuds ZooKeeper du centre de données uniquement, dans le même ordre, pour tous les nœuds ZooKeeper du centre de données.

  • Cassandra

    Pour CASS_HOSTS pour chaque centre de données, assurez-vous de spécifier toutes les adresses IP Cassandra (et non les noms DNS) pour les deux centres de données. Pour le centre de données 1, listez d'abord les nœuds Cassandra de ce centre de données. Pour le centre de données 2, listez d'abord les nœuds Cassandra de ce centre de données. Listez les nœuds Cassandra dans le même ordre pour tous les nœuds Cassandra du centre de données.

    Tous les nœuds Cassandra doivent avoir le suffixe ":d,r". Par exemple, ip:1,1 correspond au centre de données 1 et au rack/à la zone de disponibilité 1, et ip:2,1 correspond au centre de données 2 et au rack/à la zone de disponibilité 1.

    Par exemple : "192.168.124.201:1,1 192.168.124.202:1,1 192.168.124.203:1,1 192.168.124.204:2,1 192.168.124.205:2,1 192.168.124.206:2,1"

    Le premier nœud du rack/de la zone de disponibilité 1 de chaque centre de données sera utilisé comme serveur de seed. Dans ce modèle de déploiement, la configuration de Cassandra se présente comme suit :

  • Postgres

    Par défaut, Edge installe tous les nœuds Postgres en mode maître. Toutefois, lorsque vous disposez de plusieurs centres de données, vous configurez les nœuds Postgres pour qu'ils utilisent la réplication maître-veille. Ainsi, en cas de défaillance du nœud maître, le nœud de secours peut continuer à diffuser le trafic. En général, vous configurez le serveur Postgres principal dans un centre de données et le serveur de secours dans le second centre de données.

    Si le centre de données existant est déjà configuré pour exécuter deux nœuds Postgres en mode maître/veille, désinscrivez le nœud de secours existant et remplacez-le par un nœud de secours dans le nouveau centre de données dans le cadre de cette procédure.

    Le tableau suivant montre la configuration Postgres avant et après pour les deux scénarios :

    Avant Après

    Nœud maître Postgres unique dans dc-1

    Nœud maître Postgres dans dc-1

    Nœud Postgres de secours dans dc-2

    Nœud maître Postgres dans dc-1

    Nœud Postgres en veille dans dc-1

    Nœud maître Postgres dans dc-1

    Nœud Postgres de secours dans dc-2

    Désenregistrez l'ancien nœud Postgres de secours dans dc-1.

  • Configuration requise au niveau des ports

    Vous devez vous assurer que les ports nécessaires sont ouverts entre les nœuds des deux centres de données. Pour obtenir un schéma des ports, consultez Exigences concernant les ports.

Mettre à jour le centre de données existant

Pour ajouter un centre de données, vous devez installer et configurer les nœuds du nouveau centre de données, mais vous devez également mettre à jour les nœuds du centre de données d'origine. Ces modifications sont nécessaires, car vous ajoutez de nouveaux nœuds Cassandra et ZooKeeper dans le nouveau centre de données qui doivent être accessibles au centre de données existant. Vous devez également reconfigurer SymasLDAP pour utiliser la réplication.

Créer les fichiers de configuration

Vous trouverez ci-dessous les fichiers de configuration silencieux pour les deux centres de données, chacun comportant six nœuds, comme indiqué dans Topologies d'installation. Notez que le fichier de configuration de dc-1 ajoute des paramètres supplémentaires à :

  • Configurez SymasLDAP avec la réplication sur deux nœuds SymasLDAP.
  • Ajoutez les nouveaux nœuds Cassandra et ZooKeeper de dc-2 au fichier de configuration de dc-1.
# Datacenter 1
IP1=IPorDNSnameOfNode1
IP2=IPorDNSnameOfNode2
IP3=IPorDNSnameOfNode3
IP7=IPorDNSnameOfNode7
IP8=IPorDNSnameOfNode8
IP9=IPorDNSnameOfNode9 
HOSTIP=$(hostname -i)
MSIP=$IP1
ADMIN_EMAIL=opdk@google.com
APIGEE_ADMINPW=Secret123
LICENSE_FILE=/tmp/license.txt
USE_LDAP_REMOTE_HOST=n
LDAP_TYPE=2
LDAP_SID=1
LDAP_PEER=$IP7
APIGEE_LDAPPW=secret
MP_POD=gateway-1
REGION=dc-1
ZK_HOSTS="$IP1 $IP2 $IP3 $IP7 $IP8 $IP9:observer"
ZK_CLIENT_HOSTS="$IP1 $IP2 $IP3"
# Must use IP addresses for CASS_HOSTS, not DNS names.
CASS_HOSTS="$IP1:1,1 $IP2:1,1 $IP3:1,1 $IP7:2,1 $IP8:2,1 $IP9:2,1"
SKIP_SMTP=n
SMTPHOST=smtp.example.com
SMTPUSER=smtp@example.com 
SMTPPASSWORD=smtppwd   
SMTPSSL=n
SMTPPORT=25
SMTPMAILFROM="My Company <myco@company.com>"
# Datacenter 2
IP1=IPorDNSnameOfNode1
IP2=IPorDNSnameOfNode2
IP3=IPorDNSnameOfNode3
IP7=IPorDNSnameOfNode7
IP8=IPorDNSnameOfNode8
IP9=IPorDNSnameOfNode9 
HOSTIP=$(hostname -i)
MSIP=$IP7
ADMIN_EMAIL=opdk@google.com
APIGEE_ADMINPW=Secret123
LICENSE_FILE=/tmp/license.txt
USE_LDAP_REMOTE_HOST=n
LDAP_TYPE=2
LDAP_SID=2
LDAP_PEER=$IP1
APIGEE_LDAPPW=secret
MP_POD=gateway-2
REGION=dc-2
ZK_HOSTS="$IP1 $IP2 $IP3 $IP7 $IP8 $IP9:observer"
ZK_CLIENT_HOSTS="$IP7 $IP8 $IP9"
# Must use IP addresses for CASS_HOSTS, not DNS names.
CASS_HOSTS="$IP7:2,1 $IP8:2,1 $IP9:2,1 $IP1:1,1 $IP2:1,1 $IP3:1,1"
SKIP_SMTP=n
SMTPHOST=smtp.example.com
SMTPUSER=smtp@example.com 
SMTPPASSWORD=smtppwd   
SMTPSSL=n
SMTPPORT=25
SMTPMAILFROM="My Company <myco@company.com>"

Ajouter un centre de données

Utilisez la procédure ci-dessous pour installer un nouveau centre de données.

Dans la procédure, les centres de données sont nommés comme suit :

  • dc-1 : centre de données existant
  • dc-2 : nouveau centre de données

Pour ajouter un centre de données :

  1. Sur dc-1, réexécutez setup.sh sur les nœuds Cassandra d'origine avec le nouveau fichier de configuration dc-1 qui inclut les nœuds Cassandra de dc-2 :
    /opt/apigee/apigee-setup/bin/setup.sh -p ds -f configFile1
  2. Sur dc-1, réexécutez setup.sh sur le nœud du serveur de gestion :
    /opt/apigee/apigee-setup/bin/setup.sh -p ms -f configFile1

    Si vous utilisez Monétisation, réexécutez la commande de configuration de la monétisation :

    /opt/apigee/apigee-setup/bin/setup.sh -p mo -f mint_configFile1

  3. Sur dc-2, installez apigee-setup sur tous les nœuds. Pour en savoir plus, consultez Installer l'utilitaire Edge apigee-setup.
  4. Sur dc-2, installez Cassandra et ZooKeeper sur les nœuds appropriés :
    /opt/apigee/apigee-setup/bin/setup.sh -p ds -f configFile2
  5. Sur dc-2, exécutez la commande de reconstruction sur tous les nœuds Cassandra, en spécifiant le nom de la région dc-1 :
    /opt/apigee/apigee-cassandra/bin/nodetool [-u username -pw password] -h cassIP rebuild dc-1

    Vous n'avez besoin de transmettre votre nom d'utilisateur et votre mot de passe que si vous avez activé l'authentification JMX pour Cassandra.

  6. Sur dc-2, installez le serveur de gestion sur le nœud approprié :
    /opt/apigee/apigee-setup/bin/setup.sh -p ms -f configFile2
  7. Sur le nœud du serveur de gestion dans dc-2, installez apigee-provision, qui installe l'utilitaire apigee-adminapi.sh :
    /opt/apigee/apigee-service/bin/apigee-service apigee-provision install
  8. Sur dc-2, installez les routeurs et les processeurs de messages sur les nœuds appropriés :
    /opt/apigee/apigee-setup/bin/setup.sh -p rmp -f configFile2
  9. Sur dc-2, installez Qpid sur les nœuds appropriés :
    /opt/apigee/apigee-setup/bin/setup.sh -p qs -f configFile2
  10. Sur dc-2, installez Postgres sur le nœud approprié :
    /opt/apigee/apigee-setup/bin/setup.sh -p ps -f configFile2
  11. Configurez le maître/le standby Postgres pour les nœuds Postgres. Le nœud Postgres dans dc-1 est le maître, et le nœud Postgres dans dc-2 est le serveur de secours.
    1. Sur le nœud maître de dc-1, modifiez le fichier de configuration pour définir les éléments suivants :
      PG_MASTER=IPorDNSofDC1Master
      PG_STANDBY=IPorDNSofDC2Standby
    2. Activez la réplication sur la nouvelle instance maître :
      /opt/apigee/apigee-service/bin/apigee-service apigee-postgresql setup-replication-on-master -f configFIle
    3. Sur le nœud de secours de dc-2, modifiez le fichier de configuration pour définir les éléments suivants :
      PG_MASTER=IPorDNSofDC1Master
      PG_STANDBY=IPorDNSofDC2Standby
    4. Sur le nœud de secours dans dc-2, arrêtez le serveur, puis supprimez toutes les données Postgres existantes :
      /opt/apigee/apigee-service/bin/apigee-service apigee-postgresql stop
      rm -rf /opt/apigee/data/apigee-postgresql/

      Si nécessaire, vous pouvez sauvegarder ces données avant de les supprimer.

    5. Configurez le nœud de secours dans dc-2 :
      /opt/apigee/apigee-service/bin/apigee-service apigee-postgresql setup-replication-on-standby -f configFile
  12. Sur dc-1, mettez à jour la configuration Analytics et configurez les organisations.
    1. Sur le nœud du serveur de gestion de dc-1, obtenez l'UUID du nœud Postgres :
      apigee-adminapi.sh servers list -r dc-1 -p analytics -t postgres-server \
        --admin adminEmail --pwd adminPword --host localhost

      L'UUID apparaît à la fin des données renvoyées. Enregistrez cette valeur.

    2. Sur le nœud du serveur de gestion de dc-2, obtenez l'UUID du nœud Postgres, comme indiqué à l'étape précédente. Enregistrez cette valeur.
    3. Sur le nœud du serveur de gestion de dc-1, déterminez le nom des groupes d'analyse et de consommateurs. De nombreuses commandes ci-dessous nécessitent ces informations.

      Par défaut, le nom du groupe Analytics est "axgroup-001" et celui du groupe de consommateurs est "consumer-group-001". Dans le fichier de configuration silencieux d'une région, vous pouvez définir le nom du groupe d'analyse à l'aide de la propriété AXGROUP.

      Si vous ne connaissez pas les noms des groupes d'analyse et de consommateurs, utilisez la commande suivante pour les afficher :

      apigee-adminapi.sh analytics groups list \
        --admin adminEmail --pwd adminPword --host localhost

      Cette commande renvoie le nom du groupe d'analyse dans le champ "name" et le nom du groupe de consommateurs dans le champ "consumer-groups".

    4. Sur le nœud du serveur de gestion de dc-1, supprimez le serveur Postgres existant du groupe d'analyse :
      1. Supprimez le nœud Postgres du groupe de consommateurs :
        apigee-adminapi.sh analytics groups consumer_groups datastores remove \
          -g axgroup-001 -c consumer-group-001 -u UUID \
          -Y --admin adminEmail --pwd adminPword --host localhost

        Si dc-1 est configuré pour exécuter deux nœuds Postgres en mode maître/veille, supprimez-les tous les deux :

        apigee-adminapi.sh analytics groups consumer_groups datastores remove \
          -g axgroup-001 -c consumer-group-001 -u "UUID_1,UUID_2" \
          -Y --admin adminEmail --pwd adminPword --host localhost
      2. Supprimez le nœud Postgres du groupe d'analyse :
        apigee-adminapi.sh analytics groups postgres_server remove \
          -g axgroup-001 -u UUID -Y --admin adminEmail \
          --pwd adminPword --host localhost

        Si dc-1 est configuré pour exécuter deux nœuds Postgres en mode maître/veille, supprimez-les tous les deux :

        apigee-adminapi.sh analytics groups postgres_server \
          remove -g axgroup-001 -u UUID1,UUID2 -Y --admin adminEmail \
          --pwd adminPword --host localhost
    5. Sur le nœud du serveur de gestion de dc-1, ajoutez les nouveaux serveurs Postgres maître/de secours au groupe d'analyse :
      1. Ajoutez les deux serveurs Postgres au groupe "analytics" :
        apigee-adminapi.sh analytics groups postgres_server \
          add -g axgroup-001 -u "UUID_1,UUID_2" --admin adminEmail \
          --pwd adminPword --host localhost

        UUID_1 correspond au nœud maître Postgres dans dc-1, et UUID_2 correspond au nœud Postgres de secours dans dc-2.

      2. Ajoutez les serveurs PG au groupe de consommateurs en tant que maître/veille :
        apigee-adminapi.sh analytics groups consumer_groups datastores \
          add -g axgroup-001 -c consumer-group-001 -u "UUID_1,UUID_2" --admin adminEmail \
          --pwd adminPword --host localhost
    6. Ajoutez les serveurs Qpid de dc-2 au groupe d'analyse :
      1. Sur le nœud du serveur de gestion de dc-1, récupérez les UUID des nœuds Qpid dans dc-2 :
        apigee-adminapi.sh servers list -r dc-2 -p central -t qpid-server \
          --admin adminEmail --pwd adminPword --host localhost

        Les UUID apparaissent à la fin des données renvoyées. Enregistrez ces valeurs.

      2. Sur le nœud du serveur de gestion de dc-1, ajoutez les nœuds Qpid au groupe d'analyse (exécutez les deux commandes) :
        apigee-adminapi.sh analytics groups qpid_server \
          add -g axgroup-001 -u "UUID_1" --admin adminEmail \
          --pwd adminPword --host localhost
        
        apigee-adminapi.sh analytics groups qpid_server \
          add -g axgroup-001 -u "UUID_2" --admin adminEmail \
          --pwd adminPword --host localhost
      3. Sur le nœud du serveur de gestion de dc-1, ajoutez les nœuds Qpid au groupe de consommateurs (exécutez les deux commandes) :
        apigee-adminapi.sh analytics groups consumer_groups consumers \
        add -g axgroup-001 -c consumer-group-001 -u "UUID_1" \
        --admin adminEmail --pwd adminPword --host localhost
        
        apigee-adminapi.sh analytics groups consumer_groups consumers \
        add -g axgroup-001 -c consumer-group-001 -u "UUID_2" \
        --admin adminEmail --pwd adminPword --host localhost

        Si vous utilisez la monétisation, ajoutez les nœuds Qpid au groupe MINT sur le nœud du serveur de gestion de dc-1 :

        apigee-adminapi.sh analytics groups qpid_server \
        add -g mxgroup001 -u UUID_1 --admin adminEmail \
        --pwd adminPword --host localhost
        
        apigee-adminapi.sh analytics groups qpid_server \
        add -g mxgroup001 -u UUID_2 --admin adminEmail \
        --pwd adminPword --host localhost
    7. Annulez l'enregistrement et supprimez l'ancien serveur de secours Postgres de dc-1 :
      1. Annulez l'enregistrement du serveur de secours Postgres dc-1 existant :
        apigee-adminapi.sh servers deregister -u UUID -r dc-1 \
        -p analytics -t postgres-server -Y --admin adminEmail \
        --pwd adminPword --host localhost

        Où UUID est l'ancien nœud Postgres de secours dans dc-1.

      2. Supprimez le serveur de secours Postgres dc-1 existant :
        apigee-adminapi.sh servers delete -u UUID \
        --admin adminEmail --pwd adminPword --host localhost
  13. Mettez à jour les espaces de clés Cassandra avec le facteur de réplication approprié pour les deux centres de données. Vous ne devez exécuter cette étape qu'une seule fois sur n'importe quel serveur Cassandra dans l'un des centres de données :
    1. Démarrez l'utilitaire Cassandra cqlsh :
      /opt/apigee/apigee-cassandra/bin/cqlsh cassandraIP
    2. Exécutez les commandes CQL suivantes à l'invite "cqlsh>" pour définir les niveaux de réplication des espaces de clés Cassandra :
      1. ALTER KEYSPACE "identityzone" WITH replication = { 'class': 'NetworkTopologyStrategy', 'dc-1': '3','dc-2': '3' }; 
      2. ALTER KEYSPACE "system_traces" WITH replication = { 'class': 'NetworkTopologyStrategy', 'dc-1': '3','dc-2': '3' };
      3. Affichez les espaces de clés à l'aide de la commande suivante :
        SELECT * FROM system_schema.keyspaces;
      4. Quittez cqlsh :
        exit
  14. Exécutez la commande nodetool suivante sur tous les nœuds Cassandra de dc-1 pour libérer de la mémoire :
    /opt/apigee/apigee-cassandra/bin/nodetool [-u username -pw password] -h cassandraIP cleanup

    Vous n'avez besoin de transmettre votre nom d'utilisateur et votre mot de passe que si vous avez activé l'authentification JMX pour Cassandra.

  15. Pour chaque organisation et chaque environnement que vous souhaitez prendre en charge dans les centres de données :
    1. Sur le nœud du serveur de gestion de dc-1, ajoutez le nouveau MP_POD à l'organisation :
      apigee-adminapi.sh orgs pods add -o orgName -r dc-2 -p gateway-2 \
        --admin adminEmail --pwd adminPword --host localhost

      gateway-2 correspond au nom du pod de passerelle tel que défini par la propriété MP_POD dans le fichier de configuration dc-2.

    2. Ajoutez les nouveaux processeurs de messages à l'organisation et à l'environnement :
      1. Sur le nœud du serveur de gestion de dc-2, obtenez les UUID des nœuds du processeur de messages dans dc-2 :
        apigee-adminapi.sh servers list -r dc-2 -p gateway-2 \
          -t message-processor --admin adminEmail --pwd adminPword --host localhost

        Les UUID apparaissent à la fin des données renvoyées. Enregistrez ces valeurs.

      2. Sur le nœud du serveur de gestion de dc-1, pour chaque processeur de messages de dc-2, ajoutez le processeur de messages à un environnement pour l'organisation :
        apigee-adminapi.sh orgs envs servers add -o orgName -e envName \
          -u UUID --admin adminEmail --pwd adminPword --host localhost
    3. Sur le nœud du serveur de gestion de dc-1, vérifiez l'organisation :
      apigee-adminapi.sh orgs apis deployments -o orgName -a apiProxyName \
        --admin adminEmail --pwd adminPword --host localhost

      apiProxyName est le nom d'un proxy d'API déployé dans l'organisation.

  16. Si vous utilisez Monétisation, installez le nœud "Monétisation" dans DC2.

    Exécutez la commande de configuration MINT dans les nœuds du serveur de gestion et du processeur de messages de DC2 :

    /opt/apigee/apigee-setup/bin/setup.sh -p mo -f mint_configFile1