Edge pour Private Cloud v4.18.05
À propos du facteur de réplication Cassandra
Cassandra stocke des répliques de données sur plusieurs nœuds pour assurer la fiabilité et la tolérance aux pannes. La stratégie de réplication de chaque espace de clés Edge détermine les nœuds sur lesquels les instances dupliquées sont placées.
Le nombre total de réplicas d'un espace de clés dans un cluster Cassandra est appelé facteur de réplication de l'espace de clés. Un facteur de réplication de un signifie qu'il n'existe qu'une seule copie de chaque ligne dans le cluster Cassandra. Un facteur de réplication de deux signifie qu'il existe deux copies de chaque ligne, chacune sur un nœud différent. Tous les réplicas sont également importants. Il n'existe pas de réplica principal.
Dans un système de production avec trois nœuds Cassandra ou plus dans chaque centre de données, le facteur de réplication par défaut d'un espace de clés Edge est trois. En règle générale, le facteur de réplication ne doit pas dépasser le nombre de nœuds Cassandra dans le cluster.
Suivez la procédure ci-dessous pour afficher le schéma Cassandra, qui indique le facteur de réplication pour chaque espace de clés Edge:
- Connectez-vous à un nœud Cassandra.
- Exécutez la commande suivante :
/opt/apigee/apigee-cassandra/bin/cassandra-cli -h $(hostname -i) <<< "show schema;"
où
$(hostname -i)
se résout en adresse IP du nœud Cassandra. Vous pouvez également remplacer$(hostname -i)
par l'adresse IP du nœud.
Pour chaque espace de clés, le résultat s'affiche au format suivant:
create keyspace kms with placement_strategy = 'NetworkTopologyStrategy' and strategy_options = {dc-1 : 3} and durable_writes = true;
Vous pouvez voir que pour le centre de données 1, dc-1
, le facteur de réplication par défaut de l'espace de clés kms
est trois pour une installation avec trois nœuds Cassandra.
Si vous ajoutez des nœuds Cassandra supplémentaires au cluster, le facteur de réplication par défaut n'est pas affecté.
Par exemple, si vous augmentez le nombre de nœuds Cassandra à six, mais que vous laissez le facteur de réplication à trois, vous ne vous assurez pas que tous les nœuds Cassandra disposent d'une copie de toutes les données. Si un nœud tombe en panne, un facteur de réplication plus élevé signifie que les données du nœud sont plus susceptibles d'exister sur l'un des nœuds restants. L'inconvénient d'un facteur de réplication plus élevé est une latence accrue sur les écritures de données.
À propos du niveau de cohérence Cassandra
Le niveau de cohérence Cassandra est défini comme le nombre minimal de nœuds Cassandra qui doivent confirmer une opération de lecture ou d'écriture avant que l'opération puisse être considérée comme réussie. Vous pouvez attribuer différents niveaux de cohérence à différents espaces de clés Edge.
Lorsque vous vous connectez à Cassandra pour les opérations de lecture et d'écriture, les nœuds du processeur de messages et du serveur de gestion utilisent généralement la valeur Cassandra LOCAL_QUORUM
pour spécifier le niveau de cohérence d'un espace de clés. Toutefois, certains espaces de clés sont définis pour utiliser un niveau de cohérence de un.
La valeur de LOCAL_QUORUM
pour un centre de données est calculée comme suit:
LOCAL_QUORUM = (replication_factor/2) + 1
Comme décrit ci-dessus, le facteur de réplication par défaut pour un environnement de production Edge avec trois nœuds Cassandra est de trois. Par conséquent, la valeur par défaut de LOCAL_QUORUM
est (3/2) + 1 = 2 (la valeur est arrondie à l'entier inférieur).
Avec LOCAL_QUORUM
= 2, au moins deux des trois nœuds Cassandra du centre de données doivent répondre à une opération de lecture/écriture pour que l'opération aboutisse. Pour un cluster Cassandra à trois nœuds, le cluster peut donc tolérer un nœud en panne par centre de données.
En spécifiant le niveau de cohérence sur LOCAL_QUORUM
, Edge évite la latence requise pour valider les opérations dans plusieurs centres de données. Si un espace de clés utilisait la valeur QUORUM
de Cassandra comme niveau de cohérence, les opérations de lecture/écriture devraient être validées dans tous les centres de données.
Pour afficher le niveau de cohérence utilisé par les nœuds du processeur de messages Edge ou du serveur de gestion:
- Connectez-vous à un nœud de processeur de messages.
- Accédez au répertoire /opt/apigee/edge-message-processor/conf :
cd /opt/apigee/edge-message-processor/conf
- Pour la cohérence des écritures :
grep -ri "write.consistencylevel" *
- Pour la cohérence en lecture :
grep -ri "read.consistencylevel" *
- Connectez-vous au nœud du serveur de gestion.
- Accédez au répertoire /opt/apigee/edge-management-server/conf :
cd /opt/apigee/edge-management-server/conf
- Répétez les étapes 3 et 4.
Si vous ajoutez des nœuds Cassandra au cluster, le niveau de cohérence n'est pas affecté.