Edge pour Private Cloud v. 4.17.09
À propos du facteur de réplication Cassandra
Cassandra stocke des répliques de données sur plusieurs nœuds pour assurer la fiabilité et la tolérance aux pannes. La stratégie de réplication pour chaque espace de clés Edge détermine les nœuds sur lesquels les instances répliquées sont placées.
Le nombre total de réplicas d'un espace de clés dans un cluster Cassandra est appelé facteur de réplication de l'espace de clés. Un facteur de réplication de un signifie qu'il n'existe qu'une seule copie de chaque ligne dans le cluster Cassandra. Un facteur de réplication de deux signifie qu'il existe deux copies de chaque ligne, chacune sur un nœud différent. Toutes les instances répliquées ont la même importance. Il n'y a pas d'instance répliquée principale ni principale.
Dans un système de production avec trois nœuds Cassandra ou plus dans chaque centre de données, le facteur de réplication par défaut d'un espace de clés Edge est trois. En règle générale, le facteur de réplication ne doit pas dépasser le nombre de nœuds Cassandra dans le cluster.
Suivez la procédure ci-dessous pour afficher le schéma Cassandra, qui indique le facteur de réplication pour chaque espace de clés Edge:
- Connectez-vous à un nœud Cassandra.
- Exécutez la commande suivante:
> /opt/apigee/apigee-cassandra/bin/cassandra-cli -h $(hostname -i) <<< "show schema;"
où $(hostname -i) correspond à l'adresse IP du nœud Cassandra. Vous pouvez également remplacer $(hostname -i) par l'adresse IP du nœud.
Pour chaque espace de clés, le résultat s'affiche au format suivant:
create keyspace kms with placement_strategy = 'NetworkTopologyStrategy' and strategy_options = {dc-1 : 3} and durable_writes = true;
Vous pouvez voir que pour le centre de données 1, dc-1, le facteur de réplication par défaut pour l'espace de clés kms est de trois pour une installation avec trois nœuds Cassandra.
Si vous ajoutez des nœuds Cassandra supplémentaires au cluster, le facteur de réplication par défaut n'est pas affecté.
Par exemple, si vous augmentez le nombre de nœuds Cassandra à six, mais que vous laissez le facteur de réplication à trois, vous ne vous assurez pas que tous les nœuds Cassandra disposent d'une copie de toutes les données. Si un nœud tombe en panne, un facteur de réplication plus élevé signifie plus de chances que les données du nœud soient présentes sur l'un des nœuds restants. L'inconvénient d'un facteur de réplication plus élevé est une latence accrue sur les écritures de données.
À propos du niveau de cohérence Cassandra
Le niveau de cohérence Cassandra correspond au nombre minimal de nœuds Cassandra devant confirmer une opération de lecture ou d'écriture pour que celle-ci puisse être considérée comme réussie. Vous pouvez attribuer différents niveaux de cohérence à différents espaces de clés Edge.
Lorsque vous vous connectez à Cassandra pour les opérations de lecture et d'écriture, les nœuds du processeur de messages et du serveur de gestion utilisent généralement la valeur Cassandra LOCAL_QUORUM pour spécifier le niveau de cohérence d'un espace de clés. Toutefois, certains espaces de clés sont définis pour utiliser un niveau de cohérence de 1.
La valeur de LOCAL_QUORUM pour un centre de données est calculée comme suit:
LOCAL_QUORUM = (replication_factor/2) + 1
Comme décrit ci-dessus, le facteur de réplication par défaut pour un environnement de production Edge avec trois nœuds Cassandra est de trois. Par conséquent, la valeur par défaut de LOCAL_QUORUM est (3/2) + 1 = 2 (la valeur est arrondie à l'entier inférieur).
Lorsque LOCAL_QUORUM est égal à 2, au moins deux des trois nœuds Cassandra du centre de données doivent répondre à une opération de lecture/écriture pour que celle-ci aboutisse. Pour un cluster Cassandra à trois nœuds, le cluster peut donc tolérer l'interruption d'un nœud par centre de données.
En spécifiant le niveau de cohérence sur LOCAL_QUORUM, Edge évite la latence requise pour valider les opérations sur plusieurs centres de données. Si un espace de clés utilisait la valeur QUORUM de Cassandra comme niveau de cohérence, les opérations de lecture/écriture devraient être validées dans tous les centres de données.
Pour afficher le niveau de cohérence utilisé par les nœuds du processeur de messages Edge ou du serveur de gestion:
- Connectez-vous à un nœud de processeur de messages.
- Accédez au répertoire /opt/apigee/edge-message-processor/conf:
> cd /opt/apigee/edge-message-processor/conf - Pour la cohérence d'écriture:
> grep -ri "write.consistencylevel" * - Pour assurer la cohérence de lecture:
> grep -ri "read.consistencylevel" * - Connectez-vous au nœud du serveur de gestion.
- Accédez au répertoire /opt/apigee/edge-management-server/conf:
> cd /opt/apigee/edge-management-server/conf - Répétez les étapes 3 et 4.
L'ajout de nœuds Cassandra supplémentaires au cluster n'affecte pas le niveau de cohérence.