À propos du facteur de réplication et du niveau de cohérence de Cassandra

À propos du facteur de réplication Cassandra

Cassandra stocke les instances répliquées de données sur plusieurs nœuds pour garantir la fiabilité et la tolérance aux pannes. La stratégie de réplication pour chaque espace de clés Edge détermine les nœuds où sont placées les instances répliquées.

Le nombre total d'instances répliquées d'un espace de clés dans un cluster Cassandra correspond au facteur de réplication de l'espace de clés. Un facteur de réplication de 1 signifie qu'il n'existe qu'une seule copie de chaque ligne dans le cluster Cassandra. Un facteur de réplication de deux signifie qu'il existe deux copies de chaque ligne, chaque copie se trouvant sur un nœud différent. Toutes les instances répliquées ont la même importance. Il n'y a pas d'instance répliquée principale ni maître.

Dans un système de production comportant au moins trois nœuds Cassandra dans chaque centre de données, le facteur de réplication par défaut pour un espace de clés Edge est de trois. En règle générale, le facteur de réplication ne doit pas dépasser le nombre de nœuds Cassandra dans le cluster.

Procédez comme suit pour afficher le schéma Cassandra, qui indique le facteur de réplication pour chaque espace de clés Edge:

  1. Connectez-vous à un nœud Cassandra.
  2. Exécutez la commande suivante :
    /opt/apigee/apigee-cassandra/bin/cassandra-cli -h $(hostname -i) <<< "show schema;"

    $(hostname -i) correspond à l'adresse IP du nœud Cassandra. Vous pouvez également remplacer $(hostname -i) par l'adresse IP du nœud.

Pour chaque espace de clés, le résultat s'affiche sous la forme suivante:

create keyspace kms
  with placement_strategy = 'NetworkTopologyStrategy'
  and strategy_options = {dc-1 : 3}
  and durable_writes = true;

Comme vous pouvez le constater, pour le centre de données 1, dc-1, le facteur de réplication par défaut de l'espace de clés kms est de trois pour une installation avec trois nœuds Cassandra.

Si vous ajoutez des nœuds Cassandra supplémentaires au cluster, le facteur de réplication par défaut n'est pas affecté.

Par exemple, si vous augmentez le nombre de nœuds Cassandra à six, mais que vous conservez le facteur de réplication sur trois, vous ne vous assurez pas que tous les nœuds Cassandra disposent d'une copie de toutes les données. Si un nœud tombe en panne, un facteur de réplication plus élevé indique une plus grande probabilité que les données du nœud existent sur l'un des nœuds restants. L'inconvénient d'un facteur de réplication plus élevé est une latence accrue des écritures de données.

À propos du niveau de cohérence Cassandra

Le niveau de cohérence Cassandra est défini comme le nombre minimal de nœuds Cassandra qui doivent confirmer une opération de lecture ou d'écriture pour que l'opération puisse être considérée comme réussie. Différents niveaux de cohérence peuvent être affectés à différents espaces de clés Edge.

Lors de la connexion à Cassandra pour des opérations de lecture et d'écriture, les nœuds du processeur de messages et du serveur de gestion utilisent généralement la valeur Cassandra de LOCAL_QUORUM pour spécifier le niveau de cohérence d'un espace de clés. Cependant, certains espaces de clés sont définis pour utiliser un niveau de cohérence de 1.

Le calcul de la valeur de LOCAL_QUORUM pour un centre de données est le suivant:

LOCAL_QUORUM = (replication_factor/2) + 1

Comme décrit ci-dessus, le facteur de réplication par défaut pour un environnement de production Edge avec trois nœuds Cassandra est de trois. Par conséquent, la valeur par défaut de LOCAL_QUORUM = (3/2) + 1 = 2 (la valeur est arrondie à un nombre entier).

Avec LOCAL_QUORUM = 2, au moins deux des trois nœuds Cassandra du centre de données doivent répondre à une opération de lecture/écriture pour que l'opération aboutisse. Pour un cluster Cassandra à trois nœuds, le cluster pouvait donc tolérer l'arrêt d'un nœud par centre de données.

En spécifiant le niveau de cohérence sur LOCAL_QUORUM, Edge évite la latence requise en validant les opérations sur plusieurs centres de données. Si un espace de clés utilise la valeur Cassandra QUORUM comme niveau de cohérence, les opérations de lecture/écriture doivent être validées dans tous les centres de données.

Pour afficher le niveau de cohérence utilisé par les nœuds du processeur de messages Edge ou du serveur de gestion:

  1. Connectez-vous à un nœud de processeur de messages.
  2. Accédez au répertoire /opt/apigee/edge-message-processor/conf :
    cd /opt/apigee/edge-message-processor/conf
  3. Pour une cohérence d'écriture :
    grep -ri "write.consistencylevel" *
  4. Pour assurer la cohérence de lecture :
    grep -ri "read.consistencylevel" *
  5. Connectez-vous au nœud du serveur de gestion.
  6. Accédez au répertoire /opt/apigee/edge-management-server/conf :
    cd /opt/apigee/edge-management-server/conf
  7. Répétez les étapes 3 et 4.

Si vous ajoutez des nœuds Cassandra au cluster, le niveau de cohérence n'est pas affecté.