Panoramica dell'integrazione di Edge Microgateway con Kubernetes

Stai visualizzando la documentazione di Apigee Edge.
Vai alla documentazione di Apigee X.
informazioni

Puoi utilizzare Edge Microgateway per fornire la gestione delle API Apigee per i servizi in esecuzione in un cluster Kubernetes. Questo argomento spiega perché potresti voler eseguire il deployment di Edge Microgateway su Kubernetes e come eseguire il deployment di Edge Microgateway in Kubernetes as a Service.

Caso d'uso

I servizi di cui è stato eseguito il deployment in Kubernetes espongono comunemente le API a consumer esterni o ad altri servizi in esecuzione all'interno del cluster.

In entrambi i casi, c'è un problema importante da risolvere: come gestirai queste API? Ad esempio:

  • Come li proteggete?
  • Come gestirai il traffico?
  • Come puoi ottenere insight su modelli di traffico, latenze ed errori?
  • Come intendi pubblicare le tue API in modo che gli sviluppatori possano scoprirle e utilizzarle?

Che tu stia eseguendo la migrazione di API e servizi esistenti allo stack Kubernetes o creando nuovi servizi e API, Edge Microgateway aiuta a fornire un'esperienza di gestione delle API pulita che include sicurezza, gestione del traffico, analisi, pubblicazione e altro ancora.

Esecuzione di Edge Microgateway as a Service

Dopo il deployment in Kubernetes as a Service, Edge Microgateway viene eseguito nel proprio pod. In questa architettura, Edge Microgateway intercetta le chiamate API in entrata e le instrada a uno o più servizi di destinazione in esecuzione in altri pod. In questa configurazione, Edge Microgateway fornisce agli altri servizi funzionalità di gestione delle API come sicurezza, analisi, gestione del traffico e applicazione dei criteri.

La figura seguente illustra l'architettura in cui Edge Microgateway viene eseguito come servizio in un cluster Kubernetes:

Edgemicro as Service

Vedi Eseguire il deployment di Edge Microgateway come servizio in Kubernetes.

Passaggio successivo