Conditions requises pour l'installation

Edge for Private Cloud v4.18.01

Matériel requis

Vous devez disposer de la configuration matérielle minimale requise suivante pour bénéficier d'une infrastructure à disponibilité élevée dans un environnement de production. Pour tous les scénarios d'installation décrits dans la section Topologies d'installation, les tableaux suivants indiquent la configuration matérielle minimale requise pour les composants d'installation.

Dans ces tableaux, les exigences en termes de disque dur s'ajoutent à l'espace disque dur requis par le système d'exploitation. Selon vos applications et le trafic réseau, votre installation peut nécessiter plus ou moins de ressources que celles indiquées ci-dessous.

Composant d'installation Mémoire RAM Processeur Disque dur minimal
Cassandra 16 Go 8 cœurs 250 Go de stockage local avec SSD ou HDD rapide pouvant atteindre 2 000 IOPS
Processeur de messages/Routeur sur la même machine 16 Go 8 cœurs 100 Go
Analyse - Postgres/Qpid sur le même serveur (non recommandé pour la production) 16 Go* 8 cœurs* 500 Go à 1 To** d'espace de stockage réseau***, de préférence avec un backend SSD, acceptant 1 000 IOPS ou plus*
Analyse – Postgres autonome 16 Go* 8 cœurs* 500 Go à 1 To** d'espace de stockage réseau***, de préférence avec un backend SSD, acceptant 1 000 IOPS ou plus*
Analytics - Qpid autonome 8 Go 4 cœurs Entre 30 Go et 50 Go de stockage local avec SSD ou HDD rapide

Pour les installations de plus de 250 tâches par seconde, il est recommandé d'utiliser un stockage HDD avec un stockage local compatible avec 1 000 IOPS.

La taille de la file d'attente Qpid par défaut est de 20 Go. Si vous devez augmenter la capacité, ajoutez des nœuds Qpid supplémentaires.

Autre (OpenLDAP, UI, serveur de gestion) 4GB 2 cœurs 60 Go

* Ajustement de la configuration système requise pour Postgres en fonction du débit:

  • Moins de 250 TPS: le stockage réseau à quatre cœurs de 8 Go peut être envisagé avec un stockage réseau géré*** pouvant atteindre 1 000 IOPS ou plus.
  • Plus de 250 TPS: stockage réseau géré de 16 Go à 8 cœurs*** pouvant atteindre 1 000 IOPS ou plus
  • Plus de 1 000 TPS: stockage réseau géré de 16 Go à 8 cœurs*** pouvant atteindre 2 000 IOPS ou plus
  • Plus de 2 000 TPS: stockage réseau géré de 32 Go à 16 cœurs*** pouvant atteindre 2 000 IOPS ou plus
  • Plus de 4 000 TPS: stockage réseau géré de 64 Go à 32 cœurs*** pouvant atteindre 4 000 IOPS ou plus

** La valeur du disque dur Postgres est basée sur les analyses prêtes à l'emploi capturées par Edge. Si vous ajoutez des valeurs personnalisées aux données d'analyse, ces valeurs doivent être augmentées en conséquence. Estimez l'espace de stockage nécessaire à l'aide de la formule suivante:

bytes of storage needed =

  (# bytes of analytics data/request) *

  (requests/second) *

  (seconds/hour) *

  (hours of peak usage/day) *

  (days/month) *

  (months of data retention)

Exemple :

(2K bytes) * (100 req/sec) * (3600 secs/hr) * (18 peak hours/day) * (30 days/month) * (3 months retention)

= 1,194,393,600,000 bytes or 1194.4 GB

*** Le stockage réseau est recommandé pour la base de données Postgresql, car:

  • Il permet d'augmenter la taille de l'espace de stockage de manière dynamique si et quand cela est nécessaire.
  • Les IOPS réseau peuvent être ajustées à la volée dans la plupart des environnements/sous-systèmes de stockage/réseau actuels.
  • Les instantanés au niveau du stockage peuvent être activés dans le cadre de solutions de sauvegarde et de récupération.

De plus, vous trouverez ci-dessous la configuration matérielle requise si vous souhaitez installer les Services de monétisation:

Composant avec monétisation Mémoire RAM Processeur Disque dur
Serveur de gestion (avec services de monétisation) 8 Go 4 cœurs 60 Go
Analyse - Postgres/Qpid sur le même serveur 16 Go 8 cœurs Entre 500 Go et 1 To d'espace de stockage réseau, de préférence avec un backend SSD, acceptant au moins 1 000 IOPS, ou utilisez la règle indiquée dans le tableau ci-dessus.
Analyse – Postgres autonome 16 Go 8 cœurs Entre 500 Go et 1 To d'espace de stockage réseau, de préférence avec un backend SSD, acceptant au moins 1 000 IOPS, ou utilisez la règle indiquée dans le tableau ci-dessus.
Analytics - Qpid autonome 8 Go 4 cœurs Entre 40 et 500 Go de stockage local avec SSD ou HDD rapide

Pour les installations de plus de 250 tâches par seconde, il est recommandé d'utiliser un stockage HDD avec un stockage local compatible avec 1 000 IOPS.

Voici la configuration matérielle requise si vous souhaitez installer l'API BaaS:

Composant d'API BaaS RAM Processeur Disque dur
ElasticSearch* 8 Go 4 cœurs 60-80 Go
Pile BaaS de l'API* 8 Go 4 cœurs 60-80 Go
Portail BaaS de l'API 1 Go 2 cœurs 20 Go
Cassandra** 16 Go 8 cœurs 250 Go de stockage local avec SSD ou HDD rapide pouvant atteindre 2 000 IOPS

* Vous pouvez installer ElasticSearch et la pile BaaS de l'API sur le même nœud. Dans ce cas, configurez ElasticSearch pour qu'il utilise 4 Go de mémoire (par défaut). Si ElasticSearch est installé sur son propre nœud, configurez-le pour utiliser 6 Go de mémoire.

** Facultatif ; généralement, vous utilisez le même cluster Cassandra pour les services BaaS de périphérie et d'API.

Configuration requise concernant le système d'exploitation et les logiciels tiers

Ces instructions d'installation et les fichiers d'installation fournis ont été testés sur les systèmes d'exploitation et les logiciels tiers répertoriés sur la page Logiciels et versions compatibles.

Créer l'utilisateur Apigee

La procédure d'installation crée un utilisateur du système Unix nommé "apigee". Les répertoires et fichiers Edge appartiennent à "apigee", tout comme les processus Edge. Cela signifie que les composants Edge s'exécutent en tant qu'utilisateur "apigee". Si nécessaire, vous pouvez exécuter les composants en tant qu'utilisateur différent.

Répertoire d'installation

Par défaut, le programme d'installation écrit tous les fichiers dans le répertoire /opt/apigee. Vous ne pouvez pas modifier l'emplacement de ce répertoire. Bien que vous ne puissiez pas modifier ce répertoire, vous pouvez créer un lien symbolique pour mapper /opt/apigee vers un autre emplacement, comme décrit ci-dessous.

Dans les instructions de ce guide, le répertoire d'installation est indiqué sous la forme /opt/apigee.

Créer un lien symbolique à partir de /opt/apigee

Avant de créer le lien symbolique, vous devez d'abord créer un utilisateur et un groupe nommés "apigee". Il s'agit du même groupe et du même utilisateur créés par le programme d'installation Edge.

Pour créer le lien symbolique, procédez comme suit avant de télécharger le fichier bootstrap_4.18.01.sh. Vous devez effectuer toutes ces étapes en mode root:

  1. Créez l'utilisateur et le groupe "apigee" :
    groupadd -r apigee > useradd -r -g apigee -d /opt/apigee -s /sbin/nologin -c "Apigee platform user" apigee
  2. Créez un lien symbolique depuis /opt/apigee vers la racine d'installation souhaitée :
    ln -Ts /srv/myInstallDir /opt/apigee

    /srv/myInstallDir est l'emplacement souhaité des fichiers Edge.

  3. Changez la propriété de la racine d'installation et du lien symbolique par l'utilisateur "apigee" :
    chown -h apigee:apigee /srv/myInstallDir /opt/apigee

Java

Une version compatible de Java 1.8 doit être installée sur chaque machine avant l'installation. Les JDK compatibles sont répertoriés dans la section Logiciels et versions compatibles.

Assurez-vous que JAVA_HOME pointe vers la racine du JDK pour l'utilisateur qui effectue l'installation.

SELinux

En fonction des paramètres que vous avez définis pour SELinux, Edge peut rencontrer des problèmes lors de l'installation et du démarrage des composants Edge. Si nécessaire, vous pouvez désactiver SELinux ou le définir en mode permissif lors de l'installation, puis le réactiver après l'installation. Pour plus d'informations, reportez-vous à la section Installer l'utilitaire de configuration d'Apigee Edge.

Paramètre réseau

Il est recommandé de vérifier le paramètre réseau avant l'installation. Le programme d'installation s'attend à ce que toutes les machines aient une adresse IP fixe. Utilisez les commandes suivantes pour valider le paramètre:

  • hostname renvoie le nom de la machine.
  • hostname -i renvoie l'adresse IP du nom d'hôte qui peut être adressée à partir d'autres machines.

Selon le type et la version de votre système d'exploitation, vous devrez peut-être modifier /etc/hosts et /etc/sysconfig/network si le nom d'hôte n'est pas défini correctement. Pour plus d'informations, consultez la documentation de votre système d'exploitation.

Si un serveur comporte plusieurs cartes d'interface, la commande "hostname -i" renvoie une liste d'adresses IP séparées par des espaces. Par défaut, le programme d'installation Edge utilise la première adresse IP renvoyée, ce qui peut ne pas être correct dans tous les cas. Vous pouvez également définir la propriété suivante dans le fichier de configuration d'installation:

ENABLE_DYNAMIC_HOSTIP=y

Lorsque cette propriété est définie sur "y", le programme d'installation vous invite à sélectionner l'adresse IP à utiliser lors de l'installation. La valeur par défaut est "n". Pour en savoir plus, consultez la documentation de référence sur les fichiers de configuration Edge.

Wrappers TCP

Les wrappers TCP peuvent bloquer la communication de certains ports et affecter l'installation d'OpenLDAP, de Postgres et de Cassandra. Sur ces nœuds, vérifiez /etc/hosts.allow et /etc/hosts.deny pour vous assurer qu'il n'existe aucune restriction de port sur les ports OpenLDAP, Postgres et Cassandra requis.

iptables

Vérifiez qu'aucune règle iptables n'empêche la connectivité entre les nœuds sur les ports périphériques requis. Si nécessaire, vous pouvez arrêter iptables lors de l'installation à l'aide de la commande suivante:

sudo/etc/init.d/iptables stop

Sur CentOS 7.x:

systemctl stop firewalld

Assurez-vous qu'Edge Router peut accéder à /etc/rc.d/init.d/functions

Les nœuds Edge Router et les nœuds de portail BaaS utilisent le routeur Nginx et nécessitent un accès en lecture à /etc/rc.d/init.d/functions.

Si votre processus de sécurité nécessite que vous définissiez des autorisations sur /etc/rc.d/init.d/functions, ne les définissez pas sur 700, sinon le routeur ne démarrera pas. Les autorisations peuvent être définies sur 744 pour autoriser l'accès en lecture à /etc/rc.d/init.d/functions.

Cassandra

Tous les nœuds Cassandra doivent être connectés à un anneau. Cassandra stocke les instances répliquées de données sur plusieurs nœuds pour garantir la fiabilité et la tolérance aux pannes. La stratégie de réplication de chaque espace de clés Edge détermine les nœuds Cassandra où sont placées les instances répliquées. Pour en savoir plus,consultez À propos du facteur de réplication et du niveau de cohérence de Cassandra.

Cassandra ajuste automatiquement la taille du tas de mémoire Java en fonction de la mémoire disponible. Pour en savoir plus, consultez la section Régler les ressources Java. En cas de dégradation des performances ou de consommation de mémoire élevée.

Après avoir installé Edge for Private Cloud, vous pouvez vérifier que Cassandra est correctement configuré en examinant le fichier /opt/apigee/apigee-cassandra/conf/cassandra.yaml. Par exemple, assurez-vous que le script d'installation Edge for Private Cloud définit les propriétés suivantes:

  • cluster_name
  • initial_token
  • partitioner
  • seeds
  • listen_address
  • rpc_address
  • snitch

Base de données PostgreSQL

Après avoir installé Edge, vous pouvez ajuster les paramètres de base de données PostgreSQL suivants en fonction de la quantité de RAM disponible sur votre système:

conf_postgresql_shared_buffers = 35% of RAM      # min 128kB
conf_postgresql_effective_cache_size = 45% of RAM
conf_postgresql_work_mem = 512MB       # min 64kB

Pour définir ces valeurs:

  1. Modifiez le fichier postgresql.properties :
    vi /opt/apigee/customer/application/postgresql.properties

    Si le fichier n'existe pas, créez-le.

  2. Définissez les propriétés indiquées ci-dessus.
  3. Enregistrez les modifications.
  4. Redémarrez la base de données PostgreSQL :
    /opt/apigee/apigee-service/bin/apigee-service apigee-postgresql restart

Limites du système

Assurez-vous d'avoir défini les limites système suivantes sur les nœuds Cassandra et ceux du processeur de messages:

  • Sur les nœuds Cassandra, définissez les limites "soft and hard memlock", "nofile" et "address space" (en tant que) pour l'utilisateur de l'installation (par défaut, "apigee") dans /etc/security/limits.d/90-apigee-edge-limits.conf, comme indiqué ci-dessous :
    apigee soft memlock unlimited
    apigee hard memlock unlimited
    apigee soft nofile 32768
    apigee hard nofile 65536
    apigee soft as unlimited
    apigee hard as unlimited
  • Sur les nœuds de processeur de messages, définissez le nombre maximal de descripteurs de fichier ouverts sur 64 000 dans /etc/security/limits.d/90-apigee-edge-limits.conf, comme indiqué ci-dessous :
    apigee soft nofile 32768
    apigee hard nofile 65536

    Si nécessaire, vous pouvez augmenter cette limite. (par exemple, si un grand nombre de fichiers temporaires sont ouverts simultanément).

jsvc

"jsvc" est une condition préalable à l'utilisation de l'API BaaS. La version 1.0.15-dev est installée lorsque vous installez l'API BaaS.

Services de sécurité réseau (NSS)

Les services de sécurité réseau (NSS) sont un ensemble de bibliothèques qui permettent de développer des applications clientes et serveur sécurisées. Vous devez vous assurer que vous avez installé NSS v3.19 ou version ultérieure.

Pour vérifier la version dont vous disposez:

yum info nss

Pour mettre à jour NSS:

yum update nss

Pour en savoir plus, consultez cet article de RedHat.

Désactiver la résolution DNS sur IPv6 lors de l'utilisation de NSCD (Name Service Cache Daemon)

Si vous avez installé et activé NSCD (Name Service Cache Daemon), les processeurs de messages effectuent deux résolutions DNS: une pour IPv4 et une pour IPv6. Vous devez désactiver la résolution DNS sur IPv6 lorsque vous utilisez NSCD.

Pour désactiver la résolution DNS sur IPv6:

  1. Sur chaque nœud de processeur de messages, modifiez /etc/nscd.conf.
  2. Définissez la propriété suivante :
    enable-cache hosts no

Désactiver IPv6 sur Google Cloud Platform pour RedHat/CentOS 7

Si vous installez Edge sur RedHat 7 ou CentOS 7 sur Google Cloud Platform, vous devez désactiver IPv6 sur tous les nœuds Qpid.

Pour savoir comment désactiver IPv6, consultez la documentation RedHat ou CentOS correspondant à la version de votre système d'exploitation. Par exemple, vous pouvez :

  1. Ouvrez /etc/hosts dans un éditeur.
  2. Insérez un caractère "#" dans la colonne 1 des lignes suivantes pour la mettre en commentaire :
    #::1 localhost localhost.localdomain localhost6 localhost6.localdomain6
  3. Enregistrez le fichier.

AMI AWS

Si vous installez Edge sur une AMI (Amazon Machine Image) AWS pour Red Hat Enterprise Linux 7.x, vous devez d'abord exécuter la commande suivante:

yum-config-manager --enable rhui-REGION-rhel-server-extras rhui-REGION-rhel-server-optional

Outils

Le programme d'installation utilise les outils UNIX suivants dans la version standard fournie par EL5 ou EL6.

awk

expr

libxlsx

tr/min

unzip

basename

grep

Lua-socket

rpm2cpio

ajouter_utilisateur

bash

nom d'hôte

ls

sed

wc

bc

id

net-tools

sudo

wget

curl

Liibaio

perl (à partir de procps)

tar

Xerces-C

Cyrus-Salal libdb4 pgrep (à partir de procps) tr miam

date

libdb-cxx

ps

uuid

Chkconfig

dirname libibverbes pwd Uname  
echo librdmacm python    

ntpdate

Il est recommandé de synchroniser les heures des serveurs. S'il n'est pas déjà configuré, l'utilitaire ntpdate peut remplir cet objectif, ce qui permet de vérifier si les serveurs sont synchronisés. Vous pouvez utiliser yum install ntp pour installer l'utilitaire. Ceci est particulièrement utile pour répliquer les configurations OpenLDAP. Notez que vous avez configuré le fuseau horaire du serveur au format UTC.

openldap 2.4

L'installation sur site nécessite OpenLDAP 2.4. Si votre serveur dispose d'une connexion Internet, le script d'installation Edge télécharge et installe OpenLDAP. Si votre serveur ne dispose pas d'une connexion Internet, vous devez vous assurer qu'OpenLDAP est déjà installé avant d'exécuter le script d'installation Edge. Sous RHEL/CentOS, vous pouvez exécuter yum install openldap-clients openldap-servers pour installer OpenLDAP.

Pour les installations à 13 hôtes et à 12 hôtes avec deux centres de données, vous avez besoin de la réplication OpenLDAP, car plusieurs nœuds hébergent OpenLDAP.

Pare-feu et hôtes virtuels

Le terme virtual est généralement surchargé dans le domaine informatique, et il est donc utilisé dans Apigee Edge pour le déploiement de cloud privé et les hôtes virtuels. Pour clarifier les choses, on distingue deux utilisations principales du terme virtual:

  • Machines virtuelles (VM): option facultative, mais certains déploiements utilisent la technologie de VM pour créer des serveurs isolés pour leurs composants Apigee. Les hôtes de VM, tels que les hôtes physiques, peuvent disposer d'interfaces réseau et de pare-feu.
  • Hôtes virtuels: points de terminaison Web, semblables à un hôte virtuel Apache.

Un routeur d'une VM peut exposer plusieurs hôtes virtuels (à condition qu'ils diffèrent l'un de l'autre par leur alias d'hôte ou leur port d'interface).

À titre d'exemple de dénomination, un seul serveur physique A peut exécuter deux VM, nommées "VM1" et "VM2". Supposons que "VM1" expose une interface Ethernet virtuelle, qui est nommée "eth0" à l'intérieur de la VM, et à laquelle la machine de virtualisation ou un serveur DHCP lui attribue l'adresse IP 111.111.111.111. Supposons ensuite que VM2 expose une interface Ethernet virtuelle également nommée "eth0" et qu'une adresse IP 111.111.111.222 lui soit attribuée.

Un routeur Apigee peut être exécuté sur chacune des deux VM. Les routeurs exposent les points de terminaison de l'hôte virtuel comme dans cet exemple hypothétique:

Le routeur Apigee dans la VM1 expose trois hôtes virtuels sur son interface eth0 (qui possède une adresse IP spécifique), api.mycompany.com:80, api.mycompany.com:443 et test.mycompany.com:80.

Le routeur de la VM2 expose api.mycompany.com:80 (même nom et port que ceux exposés par la VM1).

Le système d'exploitation de l'hôte physique peut disposer d'un pare-feu réseau. Si tel est le cas, celui-ci doit être configuré pour transmettre le trafic TCP lié aux ports exposés sur les interfaces virtualisées (111.111.111.111:{80, 443} et 111.111.111.222:80). De plus, le système d'exploitation de chaque VM peut fournir son propre pare-feu sur son interface eth0, qui doit également autoriser les ports 80 et 443 à se connecter.

Le chemin d'accès de base est le troisième composant impliqué dans le routage des appels d'API vers différents proxys d'API que vous avez pu déployer. Les groupes de proxys d'API peuvent partager un point de terminaison s'ils ont des chemins de base différents. Par exemple, un chemin de base peut être défini comme http://api.mycompany.com:80/ et un autre comme http://api.mycompany.com:80/salesdemo.

Dans ce cas, vous avez besoin d'un équilibreur de charge ou d'un directeur du trafic qui répartit le trafic http://api.mycompany.com:80/ entre les deux adresses IP (111.111.111.111 sur la VM1 et 111.111.111.222 sur la VM2). Cette fonction est spécifique à votre installation et est configurée par votre groupe de mise en réseau local.

Il est défini lorsque vous déployez une API. Dans l'exemple ci-dessus, vous pouvez déployer deux API, mycompany et testmycompany, pour l'organisation mycompany-org avec l'hôte virtuel dont l'alias d'hôte est api.mycompany.com et le port défini sur 80. Si vous ne déclarez pas de chemin de base dans le déploiement, le routeur ne sait pas à quelle API envoyer les requêtes entrantes.

Toutefois, si vous déployez l'API testmycompany avec l'URL de base /salesdemo, les utilisateurs accèdent à cette API à l'aide de http://api.mycompany.com:80/salesdemo. Si vous déployez votre API mycompany avec l'URL de base /, vos utilisateurs accèdent à l'API via l'URL http://api.mycompany.com:80/.

Configuration requise pour le port périphérique

La gestion du pare-feu va au-delà des hôtes virtuels uniquement. Les pare-feu des VM et des hôtes physiques doivent autoriser le trafic permettant aux ports requis par les composants de communiquer entre eux.

L'image suivante montre les exigences en termes de ports pour chaque composant Edge:

Remarques sur ce schéma:

  • * Le port 8082 du processeur de messages ne doit être ouvert au routeur que lorsque vous configurez TLS/SSL entre le routeur et le processeur de messages. Si vous ne configurez pas TLS/SSL entre le routeur et le processeur de messages, le port 8082 par défaut doit toujours être ouvert sur le processeur de messages pour gérer le composant, mais le routeur n'a pas besoin d'y accéder.
  • Les ports précédés de la lettre "M" sont des ports utilisés pour gérer le composant. Ils doivent être ouverts sur le composant et l'être pour que le serveur de gestion puisse y accéder.
  • Les composants suivants nécessitent un accès au port 8080 sur le serveur de gestion: routeur, processeur de messages, UI, Postgres et Qpid.
  • Un processeur de messages doit ouvrir le port 4528 en tant que port de gestion. Si vous disposez de plusieurs processeurs de messages, ils doivent tous être en mesure d'accéder les uns aux autres sur le port 4528 (indiqué par la flèche en boucle dans le schéma ci-dessus pour le port 4528 du processeur de messages). Si vous disposez de plusieurs centres de données, le port doit être accessible depuis tous les processeurs de messages de tous les centres de données.
  • Bien qu'il ne soit pas requis, vous pouvez ouvrir le port 4527 sur le routeur pour y accéder par n'importe quel processeur de messages. Sinon, vous risquez de voir des messages d'erreur dans les fichiers journaux du processeur de messages.
  • Un routeur doit ouvrir le port 4527 en tant que port de gestion. Si vous avez plusieurs routeurs, ils doivent tous être en mesure d'accéder les uns aux autres sur le port 4527 (indiqué par la flèche en forme de boucle dans le schéma ci-dessus pour le port 4527 du routeur).
  • L'interface utilisateur Edge nécessite l'accès au routeur, sur les ports exposés par les proxys d'API, pour prendre en charge le bouton Envoyer dans l'outil de traçage.
  • Le serveur de gestion a besoin d'accéder au port JMX sur les nœuds Cassandra.
  • L'accès aux ports JMX peut être configuré pour exiger un nom d'utilisateur/mot de passe. Pour en savoir plus, consultez la section Surveiller.
  • Vous pouvez éventuellement configurer l'accès TLS/SSL pour certaines connexions, qui peuvent utiliser des ports différents. Pour en savoir plus, consultez la section TLS/SSL.
  • Si vous configurez deux nœuds Postgres pour utiliser la réplication en attente maître, vous devez ouvrir le port 22 sur chaque nœud pour l'accès SSH. Vous pouvez éventuellement ouvrir des ports sur des nœuds individuels pour autoriser l'accès SSH.
  • Vous pouvez configurer le serveur de gestion et l'interface utilisateur Edge pour envoyer des e-mails via un serveur SMTP externe. Dans ce cas, vous devez vous assurer que le serveur de gestion et l'interface utilisateur peuvent accéder au port nécessaire sur le serveur SMTP. Pour le protocole SMTP non TLS, le numéro de port est généralement 25. Pour le protocole SMTP sur lequel TLS est activé, il s'agit souvent de 465. Veuillez vérifier auprès de votre fournisseur SMTP.

Le tableau ci-dessous indique les ports à ouvrir dans les pare-feu, par composant Edge:

Composant Port Description
Ports HTTP standards 80, 443 HTTP, plus tous les autres ports utilisés pour les hôtes virtuels
Serveur de gestion 8080 Port pour les appels d'API de gestion en périphérie. Ces composants nécessitent un accès au port 8080 du serveur de gestion: routeur, processeur de messages, UI, Postgres et Qpid.
1099 Port JMX
4526 Pour les appels de cache distribué et de gestion
UI de gestion 9000 Port permettant au navigateur d'accéder à l'interface utilisateur de gestion
Processeur de messages 8998 Port du processeur de messages pour les communications du routeur
8082

Port de gestion par défaut pour le processeur de messages et doit être ouvert sur le composant pour que le serveur de gestion puisse y accéder.

Si vous configurez TLS/SSL entre le routeur et le processeur de messages, il permet au routeur d'effectuer des vérifications de l'état sur le processeur de messages.

1101 Port JMX
4528 Pour les appels de cache distribué et de gestion entre les processeurs de messages, ainsi que pour la communication depuis le routeur et le serveur de gestion
Routeur 8081 Port de gestion par défaut pour le routeur. Il doit être ouvert sur le composant pour que le serveur de gestion puisse y accéder.
4527 Pour les appels de cache distribué et de gestion
15999

Port de vérification de l'état. Un équilibreur de charge utilise ce port pour déterminer si le routeur est disponible.

Pour obtenir l'état d'un routeur, l'équilibreur de charge envoie une requête au port 15999 du routeur:

curl -v http://routerIP:15999/v1/servers/self/reachable

Si le routeur est accessible, la requête renvoie le code HTTP 200.

59001 Port utilisé pour tester l'installation Edge par l'utilitaire apigee-validate. Cet utilitaire a besoin d'accéder au port 59001 du routeur. Pour en savoir plus sur le port 59001, consultez la section Tester l'installation.
ZooKeeper 2181 Utilisé par d'autres composants tels que le serveur de gestion, le routeur, le processeur de messages, etc.
2888, 3888 Utilisé en interne par ZooKeeper pour la communication du cluster ZooKeeper (appelé ensemble ZooKeeper)
Cassandra 7000, 9042, 9160 Ports Apache Cassandra pour la communication entre les nœuds Cassandra et l'accès aux autres composants de périphérie.
7199 Port JMX. Doit être ouvert au serveur de gestion pour y accéder.
QPID 5672 Utilisé pour les communications du routeur et du processeur de messages vers le serveur Qpid
8083 Port de gestion par défaut sur le serveur Qpid et doit être ouvert sur le composant pour que le serveur de gestion puisse y accéder.
1102 Port JMX
4529 Pour les appels de cache distribué et de gestion
Postgres 5432 Utilisé pour la communication de Qpid (serveur de gestion) vers Postgres
8084 Port de gestion par défaut sur le serveur Postgres qui doit être ouvert sur le composant pour que le serveur de gestion puisse y accéder.
1103 Port JMX
4530 Pour les appels de cache distribué et de gestion
22 Si vous configurez deux nœuds Postgres pour utiliser la réplication en attente maître, vous devez ouvrir le port 22 sur chaque nœud pour l'accès SSH.
LDAP 10389 OpenLDAP
SmartDocs 59002 Port du routeur Edge où les demandes de page SmartDocs sont envoyées.

Le tableau suivant présente les mêmes ports (classés par ordre numérique) avec les composants source et de destination:

Numéro du port Objectif Composant source Composant de destination
virtual_host_port HTTP plus tous les autres ports que vous utilisez pour le trafic des appels d'API de l'hôte virtuel. Les ports 80 et 443 sont les plus couramment utilisés. Le routeur de messages peut interrompre les connexions TLS/SSL. Client externe (ou équilibreur de charge) Écouteur sur le routeur de messages
1099 à 1103 Gestion JMX Client JMX Serveur de gestion (1099)
Processeur de messages (1101)
Serveur Qpid (1102)
Serveur Postgres (1103)
2181 Communication avec le client ZooKeeper Serveur de gestion
Routeur
Processeur de messages
Serveur Qpid
Serveur Postgres
ZooKeeper
2888 et 3888 Gestion des internœuds ZooKeeper ZooKeeper ZooKeeper
4526 Port de gestion RPC Serveur de gestion Serveur de gestion
4527 Port de gestion RPC pour le cache distribué et les appels de gestion, ainsi que pour les communications entre les routeurs Routeur
du serveur de gestion
Routeur
4528 Pour les appels de cache distribués entre les processeurs de messages et pour la communication à partir du routeur Serveur de gestion
Routeur
Processeur de messages
Processeur de messages
4529 Port de gestion RPC pour les appels de cache distribué et de gestion Serveur de gestion Serveur Qpid
4530 Port de gestion RPC pour les appels de cache distribué et de gestion Serveur de gestion Serveur Postgres
5432 Client Postgres Serveur Qpid Postgres
5672

Utilisé pour envoyer des analyses depuis le routeur et le processeur de messages vers Qpid

Routeur
Processeur de messages
Serveur Qpid
7000 Communications entre les nœuds Cassandra Cassandra Autre nœud Cassandra
7199 Gestion JMX Doit être ouvert pour que le serveur de gestion puisse accéder au nœud Cassandra. Client JMX Cassandra
8080 Port pour l'API de gestion Clients de l'API de gestion Serveur de gestion
Entre 8081 et 8084

Ports d'API des composants, utilisés pour émettre des requêtes API directement vers des composants individuels. Chaque composant ouvre un port différent. Le port exact utilisé dépend de la configuration, mais doit être ouvert au niveau du composant pour que le serveur de gestion puisse y accéder.

Clients de l'API de gestion Routeur (8081)
Processeur de messages (8082)
Serveur Qpid (8083)
Serveur Postgres (8084)
8998 Communication entre le routeur et le processeur de messages Routeur Processeur de messages
9000 Port d'interface utilisateur de gestion de périphérie par défaut Visiteur Serveur d'interface utilisateur de gestion
9042 Transport natif CQL Routeur
Processeur de messages
Serveur de gestion
Cassandra
9160 Client de récupération Cassandra Routeur
Processeur de messages
Serveur de gestion
Cassandra
10389 Port LDAP Serveur de gestion OpenLDAP
15999 Port de vérification de l'état. Un équilibreur de charge utilise ce port pour déterminer si le routeur est disponible. Équilibreur de charge Routeur
59001 Port utilisé par l'utilitaire apigee-validate pour tester l'installation Edge apigee-validate Routeur
59002 Port du routeur sur lequel les requêtes de page SmartDocs sont envoyées SmartDocs Routeur

Un processeur de messages maintient un pool de connexions dédiées ouvert à Cassandra, configuré pour ne jamais expirer. Lorsqu'un pare-feu est placé entre un processeur de messages et le serveur Cassandra, la connexion peut expirer. Toutefois, le processeur de messages n'est pas conçu pour rétablir les connexions à Cassandra.

Pour éviter cette situation, Apigee recommande que le serveur Cassandra, le processeur de messages et les routeurs se trouvent dans le même sous-réseau, afin qu'aucun pare-feu ne soit impliqué dans le déploiement de ces composants.

Si un pare-feu se trouve entre le routeur et les processeurs de messages, et qu'un délai d'inactivité tcp est défini, nous vous recommandons de procéder comme suit:

  1. Définissez net.ipv4.tcp_keepalive_time = 1800 dans les paramètres sysctl de l'OS Linux, où 1 800 doit être inférieur au délai d'inactivité tcp du pare-feu. Ce paramètre doit maintenir la connexion à un état établi afin que le pare-feu ne la déconnecte pas.
  2. Sur tous les processeurs de messages, modifiez /opt/apigee/customer/application/message-processor.properties pour ajouter la propriété suivante. Si le fichier n'existe pas, créez-le.
    conf_system_cassandra.maxconnecttimeinmillis=-1
  3. Redémarrez le processeur de messages :
    /opt/apigee/apigee-service/bin/apigee-service edge-message-processor restart
  4. Sur tous les routeurs, modifiez /opt/apigee/customer/application/router.properties pour ajouter la propriété suivante. Si le fichier n'existe pas, créez-le.
    conf_system_cassandra.maxconnecttimeinmillis=-1
  5. Redémarrez le routeur :
    /opt/apigee/apigee-service/bin/apigee-service edge-router restart

Si vous installez les 12 configurations en cluster hôtes avec deux centres de données, assurez-vous que les nœuds des deux centres de données peuvent communiquer via les ports indiqués ci-dessous:

Exigences concernant les ports BaaS de l'API

Si vous choisissez d'installer l'API BaaS, vous ajoutez les composants de la pile BaaS de l'API et du portail BaaS d'API. Ces composants utilisent les ports indiqués dans la figure ci-dessous:

Remarques sur ce schéma:

  • Le portail BaaS de l'API n'envoie jamais de requêtes directement à un nœud de pile BaaS. Lorsqu'un développeur se connecte au portail, l'application Portal est téléchargée dans le navigateur. L'application de portail exécutée dans le navigateur envoie ensuite des requêtes aux nœuds de la pile BaaS.
  • Une installation de production d'API BaaS utilise un équilibreur de charge entre le nœud du portail BaaS de l'API et les nœuds de la pile BaaS de l'API. Lors de la configuration du portail et lorsque vous effectuez des appels d'API BaaS, vous devez spécifier l'adresse IP ou le nom DNS de l'équilibreur de charge, et non des nœuds de pile.
  • Tous les nœuds de pile doivent ouvrir le port 2551 pour y accéder depuis tous les autres nœuds de pile (indiqué par la flèche en forme de boucle dans le schéma ci-dessus pour le port 2551 sur les nœuds de pile). Si vous disposez de plusieurs centres de données, le port doit être accessible depuis tous les nœuds de pile de tous les centres de données.
  • Vous devez configurer tous les nœuds de la pile Baas pour envoyer des e-mails via un serveur SMTP externe. Pour le protocole SMTP non TLS, le numéro de port est généralement 25. Pour le protocole SMTP sur lequel TLS est activé, il s'agit souvent de 465. Veuillez vérifier auprès de votre fournisseur SMTP.
  • Les nœuds Cassandra peuvent être dédiés aux API BaaS ou partagés avec Edge.

Le tableau ci-dessous présente les ports par défaut à ouvrir dans les pare-feu, par composant:

Composant Port Description
Portail BaaS des API 9000 Port pour l'interface utilisateur BaaS de l'API
Pile BaaS API 8080 Port sur lequel les requêtes API sont reçues
2551

Port pour la communication entre tous les nœuds de pile. Doit être accessible par tous les autres nœuds de pile dans le répertoire de données.

Si vous disposez de plusieurs centres de données, le port doit être accessible depuis les nœuds de pile de tous les centres de données.

ElasticSearch 9 200 à 9 400 Pour la communication avec la pile BaaS de l'API et entre les nœuds ElasticSearch

Licences

Chaque installation d'Edge nécessite un fichier de licence unique que vous obtenez auprès d'Apigee. Vous devrez fournir le chemin d'accès au fichier de licence lors de l'installation du serveur de gestion (par exemple, /tmp/license.txt).

Le programme d'installation copie le fichier de licence dans /opt/apigee/customer/conf/license.txt.

Si le fichier de licence est valide, le serveur de gestion valide l'expiration et le nombre de processeurs de messages autorisés. Si l'un des paramètres de licence a expiré, vous trouverez les journaux à l'emplacement suivant: /opt/apigee/var/log/edge-management-server/logs. Dans ce cas, vous pouvez contacter l'assistance Apigee Edge pour obtenir les détails de la migration.

Si vous ne possédez pas encore de licence, contactez le service commercial Apigee.