Najważniejsze kwestie podczas programowania serwera proxy interfejsu API

Wyświetlasz dokumentację Apigee Edge.
Otwórz dokumentację Apigee X.
Informacje

W tym artykule znajdziesz listę podstawowych cech serwerów proxy API oraz linki do dodatkowych informacji.

Interfejsy API to punkty wejścia, które umożliwiają jednej aplikacji korzystanie z funkcji innej aplikacji. Wdrażasz serwery proxy interfejsów API, aby tworzyć interfejsy API

W Apigee Edge implementujesz serwery proxy interfejsu API, konfigurując logikę serwera proxy interfejsu API jako sekwencję kroków, które są wykonywane w odpowiedzi na żądanie z kodu klienta. Interfejs API proxy udostępniasz klientom, definiując punkty końcowe, które zawierają adres URL z ścieżkami zasobów, czasownik HTTP, wymagania dotyczące treści itp.

Chociaż nazywa się go serwerem proxy interfejsu API, z perspektywy kodu klienta jest to interfejs API.

Omówienie serwerów proxy interfejsu API znajdziesz w artykule Interfejsy API i serwery proxy interfejsów API.

Sekwencję logiki proxy interfejsu API określasz za pomocą przepływów.

W każdej aplikacji dane przepływają przez nią zgodnie z logiką warunków. W Apigee Edge ścieżka przetwarzania składa się z przepływów. Przebieg to sekwencja etapów (czyli „kroków”), które stanowią ścieżkę przetwarzania przez interfejs API. Przepływy to miejsca, w których Apigee Edge umożliwia stosowanie logiki i zachowania w określonych miejscach od klienta do zasobu zaplecza, a potem z powrotem do klienta.

Więcej informacji o przepływach znajdziesz w artykule Kontrolowanie sposobu działania serwera proxy za pomocą przepływów.

Dostęp do danych stanu przez zmienne przepływu utworzone przez serwery proxy API

Pośrednik interfejsu API ma dostęp do zmiennych, które reprezentują stan wykonania. Dostęp do tych zmiennych można uzyskać z pliku XML, który konfiguruje proxy i zasady interfejsu API. Możesz też uzyskać do nich dostęp, gdy rozszerzasz serwer proxy API za pomocą języka proceduralnego, takiego jak Java, JavaScript czy Python.

Te zmienne są przechowywane przez Apigee Edge. Niektóre z nich są dostępne domyślnie, zwykle dlatego, że są powszechne w przypadku serwerów proxy interfejsu API (np. dlatego, że są częścią żądania HTTP). Możesz też tworzyć własne zmienne, aby spełnić wymagania logiki.

Więcej informacji o zmiennych znajdziesz w artykule Zarządzanie stanem serwera proxy za pomocą zmiennych przepływu.

Możesz warunkowo uruchamiać zastępcze interfejsy API

Podobnie jak w większości języków programowania, w interfejsach API możesz warunkowo uruchamiać kod. Warunki często opierają się na stanie interfejsu API, do którego możesz uzyskać dostęp za pomocą zmiennych przepływu. Możesz na przykład ustawić warunek, który sprawdza klienta użytkownika, a następnie przetwarza żądanie.

Więcej informacji o wykonywaniu warunkowym znajdziesz w sekcji Warunkowe zmienne i warunki.

Większość logiki wdrażasz w pośredniku interfejsu API, używając zasad

Większość logiki dodanej do serwera proxy interfejsu API jest pakowana jako zasady. Zasada to komponent Apigee Edge, który zawiera logikę dotyczącą obszaru funkcjonalnego, np. zabezpieczeń lub zarządzania ruchem. Konfigurujesz zasadę za pomocą kodu XML, który ustawia właściwości logiki podstawowej. Możesz ustawić kolejność zasad w sekwencji „kroków” w ramach przepływu, aby serwer proxy interfejsu API wykonywał logikę w najlepszym porządku pod kątem celów serwera.

Więcej informacji o zasadach znajdziesz w artykule Czym są zasady?.

Możesz uwzględniać zestawy funkcji do wielokrotnego użytku

Jeśli Twój interfejs API proxy zawiera logikę, która będzie używana w wielu miejscach w Twoim kodzie (np. w innych interfejsach API proxy), możesz zebrać tę logikę do wywołań z wielu miejsc. Możesz na przykład grupować logikę zabezpieczeń w ramach wspólnego przepływu danych, który wywołują inne proxy interfejsu API, co pozwoli Ci ograniczyć duplikowanie w przypadku proxy interfejsu API.

Więcej informacji o przepływach współdzielonych znajdziesz w artykule Wielokrotne używanie przepływów współdzielonych. Więcej informacji o łańcuchowaniu serwerów proxy interfejsu API znajdziesz w artykule Łączenie serwerów proxy interfejsu API.

Debugowanie serwera proxy za pomocą narzędzia Śledzenie

Apigee Edge zawiera narzędzie do śledzenia, które możesz wykorzystać do zbadania przepływu danych w interfejsie API podczas debugowania i testowania. Narzędzie przedstawia wizualnie każdy krok serwera proxy interfejsu API, który jest wykonywany w przypadku żądania. Podobnie jak w debugerze, na każdym kroku możesz wyświetlić listę wartości zmiennych, które tworzą stan pośredniczości interfejsu API.

Więcej informacji o debugowaniu za pomocą narzędzia Trace znajdziesz w artykule Korzystanie z narzędzia Trace.

Błędy proxy interfejsu API są traktowane jako błędy.

Po skonfigurowaniu modułu obsługi błędów możesz dostosować błąd zwracany do klienta interfejsu API. Obsługa błędów umożliwia kontrolowanie komunikatów o błędach, niezależnie od tego, czy błąd pochodzi z Twojego kodu, czy z zawartego w nim komponentu (np. zasad).

Więcej informacji znajdziesz w artykule Zarządzanie błędami.