Stai visualizzando la documentazione di Apigee Edge.
Vai alla
documentazione di Apigee X. informazioni
Puoi utilizzare Edge Microgateway per fornire la gestione delle API Apigee per i servizi in esecuzione in un cluster Kubernetes. Questo argomento spiega perché potresti voler eseguire il deployment di Edge Microgateway su Kubernetes e come eseguire il deployment di Edge Microgateway in Kubernetes as a Service.
Caso d'uso
I servizi di cui è stato eseguito il deployment in Kubernetes espongono comunemente le API a consumer esterni o ad altri servizi in esecuzione all'interno del cluster.
In entrambi i casi, c'è un problema importante da risolvere: come gestirai queste API? Ad esempio:
- Come li proteggete?
- Come gestirai il traffico?
- Come puoi ottenere insight su modelli di traffico, latenze ed errori?
- Come intendi pubblicare le tue API in modo che gli sviluppatori possano scoprirle e utilizzarle?
Che tu stia eseguendo la migrazione di API e servizi esistenti allo stack Kubernetes o creando nuovi servizi e API, Edge Microgateway aiuta a fornire un'esperienza di gestione delle API pulita che include sicurezza, gestione del traffico, analisi, pubblicazione e altro ancora.
Esecuzione di Edge Microgateway as a Service
Dopo il deployment in Kubernetes as a Service, Edge Microgateway viene eseguito nel proprio pod. In questa architettura, Edge Microgateway intercetta le chiamate API in entrata e le instrada a uno o più servizi di destinazione in esecuzione in altri pod. In questa configurazione, Edge Microgateway fornisce agli altri servizi funzionalità di gestione delle API come sicurezza, analisi, gestione del traffico e applicazione dei criteri.
La figura seguente illustra l'architettura in cui Edge Microgateway viene eseguito come servizio in un cluster Kubernetes:
Vedi Eseguire il deployment di Edge Microgateway come servizio in Kubernetes.
Passaggio successivo
- Per informazioni su come eseguire Edge Microgateway as a Service in Kubernetes, consulta Deployment di Edge Microgateway as a Service in Kubernetes.