Najważniejsze kwestie podczas programowania serwera proxy interfejsu API

Oglądasz dokumentację Apigee Edge.
Wyświetl dokumentację Apigee X.

W tym temacie przedstawiamy kilka podstawowych cech serwerów proxy interfejsu API wraz z linkami do dodatkowych informacji.

Interfejsy API to punkty wejścia jednej aplikacji, które wykorzystują możliwości innej. Aby można było tworzyć interfejsy API, trzeba wdrożyć serwery proxy interfejsów API

W Apigee Edge wdrażasz serwery proxy API, konfigurując logikę serwera proxy interfejsów API jako sekwencję czynności, które są wykonywane w odpowiedzi na żądanie z kodu klienta. Możesz udostępnić klientom interfejs API serwera proxy, definiując punkty końcowe zawierające URL ze ścieżkami zasobów, czasownikiem HTTP, wymaganiami dotyczącymi treści itd.

Chociaż jest nazywany serwerem proxy interfejsu API, z perspektywy kodu klienta to interfejs API.

Omówienie serwerów proxy interfejsów API znajdziesz w artykule Omówienie interfejsów API i serwerów proxy interfejsu API.

Ustalasz sekwencję logiki serwera proxy interfejsu API za pomocą przepływów

W każdej aplikacji dane przepływają przez logikę warunku. W Apigee Edge ścieżka przetwarzania składa się z przepływów. Przepływ to sekwencja etapów („kroków”), które tworzą ścieżkę przetwarzania serwera proxy interfejsu API. Przepływy to sposób, w jaki Apigee Edge udostępnia miejsca do stosowania logiki i zachowania w określonych miejscach – od klienta do zasobu backendu, a następnie z powrotem do klienta.

Więcej informacji o przepływach znajdziesz w artykule o kontrolowaniu wydajności serwera proxy przy użyciu przepływów.

Dostęp do danych o stanie możesz uzyskać za pomocą zmiennych przepływu utworzonych przez serwery proxy interfejsu API

Serwer proxy interfejsu API ma dostęp do zmiennych, które reprezentują stan wykonania. Dostęp do tych zmiennych możesz uzyskać z pliku XML, który konfiguruje serwery proxy i zasady interfejsu API. Możesz też uzyskać do nich dostęp podczas rozszerzania serwera proxy interfejsu API za pomocą języka procedury, takiego jak Java, JavaScript lub Python.

Zmienne te są przechowywane przez Apigee Edge. Niektóre z nich istnieją domyślnie, głównie dlatego, że są często spotykane przez serwery proxy interfejsu API (np. są częścią żądania HTTP). Możesz też utworzyć własne zmienne, aby spełnić wymagania logiczne.

Więcej informacji o zmiennych znajdziesz w artykule Zarządzanie stanem serwera proxy za pomocą zmiennych przepływu.

Możesz warunkowo uruchamiać serwery proxy interfejsu API

Podobnie jak w większości języków programowania, na serwerach proxy interfejsu API możesz uruchamiać kod warunkowo. Warunki często zależą od stanu serwera proxy interfejsu API, do którego możesz uzyskać dostęp za pomocą zmiennych przepływu. Możesz na przykład mieć warunek sprawdzający klienta użytkownika, a następnie odpowiednio przetwarzać żądanie.

Więcej informacji o wykonywaniu warunkowym znajdziesz w artykule Zmienne i warunki przepływu.

Większość logiki wdrażasz w interfejsie API serwera proxy za pomocą zasad

Większość logiki, którą dodajesz do serwera proxy interfejsu API, jest pakowana jako zasady. Zasada to komponent Apigee Edge, który obejmuje funkcje logiczne dotyczące obszaru funkcjonalnego, takiego jak zabezpieczenia lub zarządzanie ruchem. Konfigurujesz zasadę w formacie XML, która określa właściwości bazowej logiki. Ustalasz zasady w sekwencji „kroków” w ramach przepływu, aby Twój serwer proxy interfejsu API wykonał logikę w najlepszej kolejności dla celów Twojego serwera proxy.

Więcej informacji znajdziesz w artykule Co to są zasady?.

Możesz dodać zestawy funkcji wielokrotnego użytku

Jeśli serwer proxy interfejsu API zawiera funkcje logiczne, które będą używane w wielu miejscach w kodzie, np. inne serwery proxy interfejsu API, możesz zbierać te dane do wywołań wielu miejsc. Możesz na przykład zgrupować logikę zabezpieczeń w ramach przepływu współdzielonego, który jest wywoływany przez inne serwery proxy interfejsów API. Pozwala to uniknąć duplikowania serwerów proxy interfejsów API.

Więcej informacji o procesach współdzielonych znajdziesz w artykule Przepływy współdzielone do wielokrotnego wykorzystania. Więcej informacji o łańcuchach proxy interfejsów API znajdziesz w artykule Łańcuchy serwerów proxy interfejsów API.

Możesz debugować serwer proxy za pomocą narzędzia śledzenia

Na platformie Apigee Edge znajduje się narzędzie do śledzenia, które umożliwia badanie przepływu pracy serwera proxy interfejsu API podczas debugowania i testowania. Narzędzie wizualnie przedstawia każdy krok serwera proxy interfejsu API wykonywany dla żądania. Podobnie jak w przypadku debugera na każdym etapie możesz wyświetlić listę wartości zmiennych składających się na stan serwera proxy interfejsu API.

Więcej informacji o debugowaniu śledzenia znajdziesz w artykule Korzystanie z narzędzia śledzenia.

Obsługa błędów serwera proxy interfejsów API jako błędów

Konfigurując moduł obsługi awarii, możesz dostosować błąd zwracany do klienta API. Moduły obsługi błędów dają Ci kontrolę nad komunikatami o błędach niezależnie od tego, czy błąd pochodzi z Twojego kodu czy z zawartego w nim komponentu (np. zasady).

Więcej informacji znajdziesz w sekcji Obsługa błędów.