Edge pour Private Cloud v. 4.17.01
À propos du facteur de réplication Cassandra
Cassandra stocke des répliques de données sur plusieurs nœuds pour assurer la fiabilité et la tolérance aux pannes. La stratégie de réplication pour chaque espace de clés Edge détermine les nœuds sur lesquels les instances répliquées sont placées.
Le nombre total de réplicas d'un espace de clés dans un cluster Cassandra est appelé facteur de réplication de l'espace de clés. Un facteur de réplication de un signifie qu'il n'existe qu'une seule copie de chaque ligne dans le cluster Cassandra. Un facteur de réplication de deux signifie qu'il existe deux copies de chaque ligne, où chaque copie se trouve sur un nœud différent. Tous les réplicas sont également importants. Il n'existe pas de réplica principal.
Dans un système de production avec trois nœuds Cassandra ou plus dans chaque centre de données, le facteur de réplication par défaut d'un espace de clés Edge est trois. En règle générale, le facteur de réplication ne doit pas dépasser le nombre de nœuds Cassandra dans le cluster.
Procédez comme suit pour afficher le schéma Cassandra, qui indique le facteur de réplication pour chaque espace de clés Edge:
- Connectez-vous à un nœud Cassandra.
- Exécutez la commande suivante:
> /opt/apigee/apigee-cassandra/bin/cassandra-cli -h $(hostname -i) <<< "show schema;"
Où $(hostname -i) correspond à l'adresse IP du nœud Cassandra. Vous pouvez également remplacer $(hostname -i) par l'adresse IP du nœud.
Pour chaque espace de clés, le résultat s'affiche au format suivant:
create keyspace kms with placement_strategy = 'NetworkTopologyStrategy' and strategy_options = {dc-1 : 3} and durable_writes = true;
Vous pouvez constater que pour le centre de données 1, dc-1, le facteur de réplication par défaut de l'espace de clés kms est de trois pour une installation avec trois nœuds Cassandra.
Si vous ajoutez des nœuds Cassandra supplémentaires au cluster, le facteur de réplication par défaut n'est pas affecté.
Par exemple, si vous augmentez le nombre de nœuds Cassandra à six, mais que vous laissez le facteur de réplication à trois, vous ne vous assurez pas que tous les nœuds Cassandra disposent d'une copie de toutes les données. Si un nœud tombe en panne, un facteur de réplication plus élevé signifie plus de chances que les données du nœud soient présentes sur l'un des nœuds restants. L'inconvénient d'un facteur de réplication plus élevé est une latence accrue sur les écritures de données.
À propos du niveau de cohérence Cassandra
Le niveau de cohérence Cassandra est défini comme le nombre minimal de nœuds Cassandra qui doivent confirmer une opération de lecture ou d'écriture avant que l'opération puisse être considérée comme réussie. Vous pouvez attribuer différents niveaux de cohérence à différents espaces de clés Edge.
Lorsque vous vous connectez à Cassandra pour les opérations de lecture et d'écriture, les nœuds du processeur de messages et du serveur de gestion utilisent généralement la valeur Cassandra LOCAL_QUORUM pour spécifier le niveau de cohérence d'un espace de clés. Toutefois, certains espaces de clés sont définis pour utiliser un niveau de cohérence de 1.
La valeur de LOCAL_QUORUM pour un centre de données est calculée comme suit:
LOCAL_QUORUM = (replication_factor/2) + 1
Comme décrit ci-dessus, le facteur de réplication par défaut pour un environnement de production Edge avec trois nœuds Cassandra est de trois. Par conséquent, la valeur par défaut de LOCAL_QUORUM est (3/2) + 1 = 2 (la valeur est arrondie à l'entier inférieur).
Lorsque LOCAL_QUORUM est égal à 2, au moins deux des trois nœuds Cassandra du centre de données doivent répondre à une opération de lecture/écriture pour que celle-ci aboutisse. Pour un cluster Cassandra à trois nœuds, le cluster peut donc tolérer un nœud en panne par centre de données.
En spécifiant le niveau de cohérence sur LOCAL_QUORUM, Edge évite la latence requise en validant les opérations dans plusieurs centres de données. Si un espace de clés utilise la valeur Cassandra QUORUM comme niveau de cohérence, les opérations de lecture/écriture doivent être validées dans tous les centres de données.
Pour afficher le niveau de cohérence utilisé par les nœuds du processeur de messages Edge ou du serveur de gestion:
- Connectez-vous à un nœud de processeur de messages.
- Accédez au répertoire /opt/apigee/edge-message-processor/conf:
> cd /opt/apigee/edge-message-processor/conf - Pour la cohérence d'écriture:
> grep -ri "write.consistencylevel" * - Pour la cohérence en lecture:
> grep -ri "read.consistencylevel" * - Connectez-vous au nœud du serveur de gestion.
- Accédez au répertoire /opt/apigee/edge-management-server/conf:
> cd /opt/apigee/edge-management-server/conf - Répétez les étapes 3 et 4.
Si vous ajoutez des nœuds Cassandra au cluster, le niveau de cohérence n'est pas affecté.