Présentation de l'intégration d'Edge MicroGate à Kubernetes

Vous consultez la documentation d'Apigee Edge.
Consultez la documentation Apigee X.
en savoir plus

Vous pouvez utiliser Edge Microgateway pour assurer la gestion des API Apigee pour les services exécutés dans un cluster Kubernetes. Cet article explique pourquoi il peut être utile de déployer Edge Microgateway sur Kubernetes et décrit comment déployer Edge Microgateway sur Kubernetes en tant que service.

Cas d'utilisation

Les services déployés sur Kubernetes exposent généralement des API, soit à des clients externes, soit à d'autres services exécutés dans le cluster.

Dans les deux cas, un problème important doit être résolu: comment allez-vous gérer ces API ? Exemple :

  • Comment allez-vous les sécuriser ?
  • Comment allez-vous gérer le trafic ?
  • Comment allez-vous obtenir des informations sur les modèles de trafic, les latences et les erreurs ?
  • Comment allez-vous publier vos API afin que les développeurs puissent les découvrir et les utiliser ?

Que vous migriez des services et des API existants vers la pile Kubernetes, ou que vous créiez de nouveaux services et API, Edge Microgateway vous offre une expérience de gestion des API de qualité comprenant la sécurité, la gestion du trafic, l'analyse, la publication, etc.

Exécuter Edge Microgateway en tant que service

Lorsqu'il est déployé dans Kubernetes en tant que service, Edge Microgateway s'exécute dans son propre pod. Dans cette architecture, Edge Microgateway intercepte les appels d'API entrants et les achemine vers un ou plusieurs services cibles exécutés dans d'autres pods. Dans cette configuration, Edge Microgateway fournit aux autres services des fonctionnalités de gestion des API telles que la sécurité, l'analyse, la gestion du trafic et l'application des règles.

La figure suivante illustre l'architecture dans laquelle Edge Microgateway s'exécute en tant que service dans un cluster Kubernetes:

Edgemicro en tant que service

Consultez la page Déployer Edge Microgateway en tant que service dans Kubernetes.

Étape suivante