Cluster HA (avancé)

Introduction

Pour installer Relution dans une configuration de haute disponibilité, vous avez la possibilité de mettre en place un cluster. Dans ce cluster, plusieurs instances Relution (nœuds d’application) sont démarrées et se connectent toutes à la même base de données. Un équilibreur de charge doit distribuer le trafic vers ces nœuds en utilisant la méthode round-robin.

La configuration d’un cluster à haute disponibilité ne doit être entreprise que par des administrateurs expérimentés.

Prérequis

Pour établir un cluster, toutes les instances Relution doivent résider sur le même réseau. Les nœuds doivent pouvoir communiquer entre eux via leur nom d’hôte et le port TCP 7800. Pour plus d’informations, veuillez vous référer aux [conditions requises pour le réseau] (/docs/installation/requirements/#network).

Toutes les instances de Relution doivent utiliser les mêmes fichiers de configuration (par exemple, application.yml) ou les mêmes variables d’environnement. La seule exception est lorsque le nom d’hôte ne peut pas être déterminé, auquel cas la variable d’environnement EXTERNAL_IP peut être utilisée pour définir l’adresse IP de l’instance à travers laquelle d’autres instances Relution peuvent y accéder.

Fonctionnalité

Lorsqu’une instance Relution est démarrée, elle se connecte à la base de données et écrit son nom d’hôte dans la table JGROUPSPING. Par la suite, toutes les entrées de la table sont chargées et l’instance établit une connexion avec d’autres instances via le port TCP 7800. L’état du cluster est régulièrement contrôlé via la table de la base de données. Si une instance devient inaccessible, ses entrées sont supprimées de la base de données.

Vérification de l’état de la grappe

Il existe plusieurs façons de vérifier l’état de la grappe.

1. Portail du système

Pour un environnement en grappe, nous recommandons d’activer le [Portail système] (/docs/installation/after-installation/common-task/#system-portal). Le portail système fournit une vue d’ensemble des nœuds enregistrés dans la grappe. Pour qu’il fonctionne pleinement, il faut que les nœuds communiquent entre eux via le port 8099.

Vue d’ensemble des nœuds du portail système

2. Point de terminaison métrique

Vous pouvez vérifier la métrique counter_cluster_size_total en accédant au point de terminaison de l’API pour Prometheus à l’adresse https://127.0.0.1:8099/actuator/prometheus. Cette métrique indique le nombre de nœuds enregistrés avec succès dans le cluster.