Najważniejsze kwestie podczas programowania serwera proxy interfejsu API

Przeglądasz dokumentację Apigee Edge.
Otwórz dokumentację Apigee X.
Informacje

W tym temacie przedstawiamy podstawowe cechy serwerów proxy interfejsów API oraz linki do dodatkowych informacji.

Interfejsy API są punktami wejścia jednej aplikacji do korzystania z możliwości innej. Wdrażasz serwery proxy interfejsów API, aby tworzyć interfejsy API

W Apigee Edge implementujesz serwery proxy interfejsu API, konfigurując logikę serwera proxy interfejsu API jako sekwencję kroków wykonywanych w odpowiedzi na żądanie z kodu klienta. Aby udostępnić klientom serwer proxy interfejsu API, zdefiniuj punkty końcowe zawierające adres URL ze ścieżkami zasobów, czasownik HTTP, wymagania dotyczące treści itd.

Nazywa się go serwerem proxy API, ale z punktu widzenia kodu klienta jest to interfejs API.

Omówienie serwerów proxy interfejsów API znajdziesz w artykule Omówienie interfejsów API i serwerów proxy interfejsów API.

Ustalasz kolejność logiki serwera proxy interfejsu API za pomocą przepływów

W dowolnej aplikacji dane przepływają przez nią, korzystając z logiki warunku. W Apigee Edge ścieżka przetwarzania składa się z przepływów. Przepływ to sekwencja etapów (czyli „kroków”), które składają się na ścieżkę przetwarzania serwera proxy interfejsu API. Przepływy to sposób, w jaki Apigee Edge udostępnia miejsca, w których możesz zastosować logikę i zachowanie w określonych miejscach od klienta do zasobu backendu, a następnie z powrotem do klienta.

Więcej informacji o przepływach znajdziesz w artykule o sterowaniu działaniem serwera proxy za pomocą przepływów

Uzyskujesz dostęp do danych o stanie za pomocą zmiennych przepływu utworzonych przez serwery proxy interfejsów API

Serwer proxy interfejsu API ma dostęp do zmiennych reprezentujących stan wykonania. Dostęp do tych zmiennych możesz uzyskać z kodu XML, który konfiguruje serwery proxy i zasady interfejsu API. Możesz też uzyskać do nich dostęp, gdy rozszerzasz serwer proxy interfejsu API o język proceduralny, taki jak Java, JavaScript lub Python.

Te zmienne są przechowywane przez Apigee Edge. Niektóre istnieją domyślnie, zazwyczaj dlatego, że są związane z działaniem serwerów proxy interfejsu API (np. są częścią żądania HTTP). Możesz też tworzyć własne zmienne, aby spełnić wymagania logiczne.

Więcej informacji o zmiennych znajdziesz w sekcji o zarządzaniu stanem serwera proxy za pomocą zmiennych przepływu.

Możesz ustawić warunkowe uruchamianie serwerów proxy API

Podobnie jak w większości języków programowania, w serwerach proxy interfejsów API kod może być wykonywany warunkowo. Warunki są często oparte na stanie serwera proxy interfejsu API, do którego można uzyskać dostęp za pomocą zmiennych przepływu. Możesz np. mieć warunek, który sprawdza klienta użytkownika, a potem odpowiednio przetwarza żądanie.

Więcej informacji o wykonaniu warunkowym znajdziesz w artykule Zmienne i warunki przepływu.

Większość logiki na serwerze proxy interfejsu API wdrażasz za pomocą zasad

Większość logiki, którą dodajesz do serwera proxy interfejsu API, jest tworzona w pakietach jako zasady. Zasada to komponent Apigee Edge, który obejmuje logikę działania funkcjonalnego obszaru, takiego jak zabezpieczenia czy zarządzanie ruchem. Konfigurujesz zasadę za pomocą kodu XML, która ustawia właściwości logiki podstawowej. Zasady są ułożone w sekwencji „kroków” w ramach przepływu tak, by serwer proxy interfejsu API wykonał logikę w najlepszej kolejności zgodnie z celami serwera proxy.

Więcej informacji o zasadach znajdziesz w artykule Co to jest zasada?.

Możesz dodać zestawy funkcji wielokrotnego użytku

Jeśli serwer proxy interfejsu API zawiera logikę, która będzie używana w wielu miejscach w kodzie, np. z innych serwerów proxy interfejsu API, możesz gromadzić tę logikę w przypadku wywołań z wielu miejsc. Możesz na przykład zgrupować logikę zabezpieczeń we wspólnym przepływie wywoływanym przez inne serwery proxy interfejsu API, co ogranicza liczbę duplikatów na serwerach proxy interfejsu API.

Więcej informacji o przepływach udostępnionych znajdziesz w artykule Przepływy współdzielone wielokrotnego użytku. Więcej informacji o łańcuchu proxy interfejsów API znajdziesz w artykule Łączenie serwerów proxy interfejsów API w łańcuchu.

Możesz debugować serwer proxy za pomocą narzędzia do śledzenia

Apigee Edge zawiera narzędzie do śledzenia, które umożliwia sprawdzanie przepływu wykonywania serwera proxy interfejsu API podczas debugowania i testowania. Narzędzie wizualnie przedstawia każdy krok serwera proxy interfejsu API wykonywany w przypadku żądania. Podobnie jak w przypadku debugera, na każdym kroku możesz wyświetlić listę wartości zmiennych, które składają się na stan serwera proxy interfejsu API.

Więcej informacji o debugowaniu za pomocą systemu Trace znajdziesz w artykule Korzystanie z narzędzia do śledzenia.

Błędy serwera proxy interfejsu API obsługujesz jako błędy

Konfigurując moduł obsługi błędów, możesz dostosować komunikat o błędzie zwracany klientowi interfejsu API. Moduły obsługi błędów dają Ci kontrolę nad komunikatami o błędach, niezależnie od tego, czy ich źródłem jest Twój własny kod, czy zawarty w nim komponent (np. zasada).

Więcej informacji znajdziesz w sekcji Obsługa błędów.