Você está visualizando a documentação do Apigee Edge.
Acesse a
documentação da
Apigee X. info
O Apigee Edge aumenta a disponibilidade da sua API ao oferecer suporte integrado para balanceamento de carga e failover em várias instâncias de servidor de back-end.
As configurações do TargetServer separam os URLs de endpoint concretos das configurações do TargetEndpoint. Cada TargetServer é referenciado pelo nome em uma HTTPConnection de TargetEndpoint. Em vez de definir um URL concreto na configuração, é possível configurar um ou mais TargetServers nomeados, conforme descrito na seção TargetEndpoint.
Uma definição de TargetServer consiste em um nome, um host e uma porta, com um elemento extra para indicar se o TargetServer está ativado ou desativado.
Vídeos
Assista os vídeos a seguir para saber mais sobre roteamento de API e balanceamento de carga usando servidores de destino
Vídeo | Descrição |
---|---|
Balanceamento de carga com servidores de destino | APIs de balanceamento de carga em servidores de destino |
Roteamento de API com base no ambiente usando servidores de destino | Encaminhe uma API para outro servidor de destino com base no ambiente. |
Roteamento de API e balanceamento de carga usando servidores de destino (Edge clássico) | Encaminhe uma API para outro servidor de destino com base no ambiente e faça o balanceamento de carga da API entre os servidores de destino na interface clássica do Edge. |
Exemplo de configuração do TargetServer
O código abaixo define um servidor de destino:
<TargetServer name="target1"> <Host>1.mybackendservice.com</Host> <Port>80</Port> <IsEnabled>true</IsEnabled> </TargetServer >
Elementos de configuração do TargetServer
A tabela a seguir descreve os elementos usados para criar e configurar um TargetServer:
Nome | Descrição | Padrão | Obrigatório? |
---|---|---|---|
name |
O nome da configuração do TargetServer, que precisa ser exclusivo no ambiente. O nome do TargetServer só pode conter caracteres alfanuméricos. | N/A | Sim |
Host |
O URL do host do serviço de back-end (sem o protocolo). | N/A | Sim |
Port |
A porta em que o serviço de back-end está escutando | N/A | Sim |
IsEnabled |
Um booleano que indica se a configuração do TargetServer está ativada ou desativada. Isso permite que você remova os TargetServers da rotação sem modificar a configuração do proxy da API. Um uso comum seria criar um app ou script que ative ou desative automaticamente TargetServers com base nos requisitos de capacidade esperados, programações de manutenção e assim por diante. | true |
Sim |
Como gerenciar servidores de destino usando a interface
Gerencie os servidores de destino, conforme descrito abaixo.
Edge
Para gerenciar servidores de destino usando a interface do Edge:
- Faça login em apigee.com/edge.
- Selecione Administrador > Ambientes > Servidores de destino na barra de navegação à esquerda.
- Selecione o ambiente desejado, como test ou prod.
- Para criar um servidor de destino:
- Clique em + Servidor de destino.
- Insira um nome, um host e uma porta para o servidor de destino.
Exemplo:
- Nome:target1
- Host:1.mybackendservice.com
- Porta:80
- Selecione SSL, se necessário.
- Selecione Ativado para ativar o servidor de destino.
- Clique em Adicionar.
- Para editar o servidor de destino:
- Posicione o cursor sobre o servidor de destino que você quer editar para exibir o menu de ações.
- Clique em
.
- Edite os valores do servidor de destino.
- Clique em Atualizar.
- Para excluir o servidor de destino:
- Posicione o cursor sobre o servidor de destino que você quer excluir para exibir o menu de ações.
- Clique em
.
- Clique em Excluir para confirmar a operação.
Edge clássico (nuvem privada)
Para acessar o assistente "Criar proxy" usando a IU do Edge Classic:
- Faça login em
http://ms-ip:9000
, em que ms-ip é o endereço IP ou o nome DNS do nó do servidor de gerenciamento. - Selecione APIs > Configuração do ambiente > Servidores de destino na barra de navegação à esquerda.
- Selecione o ambiente desejado, como test ou prod.
- Para criar um servidor de destino:
- Clique em Editar.
- Clique em + Servidor de destino.
- Insira um nome, um host e uma porta para o servidor de destino.
Exemplo:
- Nome:target1
- Host:1.mybackendservice.com
- Porta:80
- Selecione Ativado para ativar o servidor de destino.
- Clique em Salvar.
- Para editar o servidor de destino:
- Clique em Editar.
- Edite os valores do servidor de destino.
- Clique em Salvar.
- Para excluir o servidor de destino:
- Clique em Editar.
- Clique em Excluir.
Como gerenciar servidores de destino usando a API
É possível usar a API Edge para criar, excluir, atualizar, acessar e listar servidores de destino. Para mais informações, consulte TargetServers.
Use a seguinte chamada de API para criar um servidor de destino:
$ curl -H "Content-Type:text/xml" -X POST -d \ '<TargetServer name="target1"> <Host>1.mybackendservice.com</Host> <Port>80</Port> <IsEnabled>true</IsEnabled> </TargetServer>' \ -u email:password https://api.enterprise.apigee.com/v1/o/{org_name}/environments/test/targetservers
Exemplo de resposta:
{ "host" : "1.mybackendservice.com", "isEnabled" : true, "name" : "target1", "port" : 80 }
Depois de criar o primeiro TargetServer, use a seguinte chamada de API para criar um segundo TargetServer. Ao definir dois TargetServers, você fornece dois URLs que um TargetEndpoint pode usar para o balanceamento de carga:
$ curl -H "Content-type:text/xml" -X POST -d \ '<TargetServer name="target2"> <Host>2.mybackendservice.com</Host> <Port>80</Port> <IsEnabled>true</IsEnabled> </TargetServer >' \ -u email:password https://api.enterprise.apigee.com/v1/o/{org_name}/environments/test/targetservers
Exemplo de resposta:
{ "host" : "2.mybackendservice.com", "isEnabled" : true, "name" : "target2", "port" : 80 }
Use a seguinte chamada de API para recuperar uma lista de TargetServers em um ambiente:
$ curl -u email:password https://api.enterprise.apigee.com/v1/o/{org_name}/environments/test/targetservers
Exemplo de resposta:
[ "target2", "target1" ]
Agora, há dois TargetServers disponíveis para uso por proxies de API implantados no ambiente de teste. Para balancear a carga do tráfego nesses TargetServers, configure a conexão HTTP no endpoint de destino de um proxy de API para usar os TargetServers.
Há um limite de 500 TargetServers por ambiente, conforme documentado no tópico Limites.
Como configurar um TargetEndpoint para balancear a carga em TargetServers nomeados
Agora que há dois TargetServers disponíveis, é possível modificar a configuração de conexão HTTP TargetEndpoint para fazer referência a esses dois TargetServers por nome:
<TargetEndpoint name="default"> <HTTPTargetConnection> <LoadBalancer> <Server name="target1" /> <Server name="target2" /> </LoadBalancer> <Path>/test</Path> </HTTPTargetConnection> </TargetEndpoint>
A configuração acima é a mais básica possível. O balanceador de carga aceita três algoritmos de balanceamento de carga: round-robin, ponderado e dinâmico. Round-robin é o algoritmo padrão. Como nenhum algoritmo é especificado na configuração acima, as solicitações de saída do proxy de API para os servidores de back-end serão alternativas, um para um, entre o destino 1 e o destino 2.
O elemento <Path>
forma o caminho base do URI do TargetEndpoint para
todos os servidores de destino. Ele só é usada quando <LoadBalancer>
é usado. Caso contrário,
será ignorado. No exemplo acima, uma solicitação que chega a "target1" será
http://target1/test
e, da mesma forma, para outros servidores de destino.
Como definir as opções do balanceador de carga
Ajuste a disponibilidade usando as opções de balanceamento de carga e failover no nível do balanceador de carga e do TargetServer. Esta seção descreve essas opções.
Algoritmo
Define o algoritmo usado por <LoadBalancer>
. Os algoritmos disponíveis são RoundRobin
, Weighted
e LeastConnections
, cada um deles documentado abaixo.
Round robin
O algoritmo padrão, round-robin, encaminha uma solicitação para cada TargetServer na ordem em que os servidores estão listados na conexão HTTP do endpoint de destino. Exemplo:
<TargetEndpoint name="default"> <HTTPTargetConnection> <LoadBalancer> <Algorithm>RoundRobin</Algorithm> <Server name="target1" /> <Server name="target2" /> </LoadBalancer> <Path>/test</Path> </HTTPTargetConnection> </TargetEndpoint>
Ponderado
O algoritmo de balanceamento de carga ponderado permite configurar cargas de tráfego proporcionais para
os TargetServers. O LoadBalancer ponderado distribui a solicitação aos TargetServers em proporção
direta ao peso de cada TargetServer. Portanto, o algoritmo ponderado requer que você defina
um atributo weight
para cada TargetServer. Por exemplo:
<TargetEndpoint name="default"> <HTTPTargetConnection> <LoadBalancer> <Algorithm>Weighted</Algorithm> <Server name="target1"> <Weight>1</Weight> </Server> <Server name="target2"> <Weight>2</Weight> </Server> </LoadBalancer> <Path>/test</Path> </HTTPTargetConnection> </TargetEndpoint>
Neste exemplo, duas solicitações serão roteadas para target2 para cada solicitação encaminhada para target1.
Escalonamento dinâmico
LoadBalancers configurados para usar o algoritmo de escalonamento dinâmico roteiam solicitações de saída para o TargetServer com menos conexões HTTP abertas. Exemplo:
<TargetEndpoint name="default"> <HTTPTargetConnection> <LoadBalancer> <Algorithm>LeastConnections</Algorithm> <Server name="target1" /> <Server name="target2" /> </LoadBalancer> </HTTPTargetConnection> <Path>/test</Path> </TargetEndpoint>
Máximo de falhas
O número máximo de solicitações com falha do proxy de API para o TargetServer que fazem com que a solicitação seja redirecionada para outro TargetServer.
Uma falha na resposta significa que a Apigee não recebe resposta de um servidor de destino. Quando isso acontece, o contador de falhas é incrementado em um.
No entanto, quando a Apigee recebe uma resposta de um destino,
mesmo que ela seja um erro de HTTP (como 500
), isso é contabilizado como uma resposta do
servidor de destino e o contador de falha é redefinido. Para garantir que respostas HTTP inválidas
(como 500
) também incrementem o contador de falhas para tirar um servidor não íntegro da rotação do balanceamento de
carga o quanto antes, é possível adicionar o
elemento <ServerUnhealthyResponse>
com elementos filhos
<ResponseCode>
na configuração do balanceador de carga. O Edge também vai contar respostas com esses
códigos como falhas.
No exemplo a seguir, target1
será removido da rotação após cinco
solicitações com falha, incluindo algumas respostas 5XX
do servidor de destino.
<TargetEndpoint name="default"> <HTTPTargetConnection> <LoadBalancer> <Algorithm>RoundRobin</Algorithm> <Server name="target1" /> <Server name="target2" /> <MaxFailures>5</MaxFailures> <ServerUnhealthyResponse> <ResponseCode>500</ResponseCode> <ResponseCode>502</ResponseCode> <ResponseCode>503</ResponseCode> </ServerUnhealthyResponse> </LoadBalancer> <Path>/test</Path> </HTTPTargetConnection> </TargetEndpoint>
O padrão MaxFailures é 0. Isso significa que o Edge sempre tenta se conectar ao destino de cada solicitação e nunca remove o servidor de destino da rotação.
É melhor usar MaxFailures > 0 com um HealthMonitor. Se você configurar o MaxFailures > 0, o TargetServer será removido da rotação quando o destino falhar o número de vezes que você indicar. Quando um HealthMonitor está em vigor, a Apigee coloca automaticamente o TargetServer em rotação após o destino estar em execução novamente, de acordo com a configuração desse HealthMonitor. Consulte Monitoramento de integridade para mais informações.
Como alternativa, se você configurar MaxFailures > 0 e não configurar um monitor de integridade, a Apigee vai tirar o servidor de destino da rotação automaticamente quando a primeira falha for detectada. A Apigee vai verificar a integridade do servidor de destino a cada cinco minutos e o retornará à rotação quando responder normalmente.
Tentar novamente
Se a nova tentativa for ativada, uma solicitação será repetida sempre que ocorrer uma falha de resposta (erro de E/S ou de tempo limite HTTP)
ou a resposta recebida corresponder a um valor definido por <ServerUnhealthyResponse>
.
Consulte Máximo de falhas acima para mais informações sobre a configuração
de <ServerUnhealthyResponse>
.
Por padrão, <RetryEnabled>
é definido como true
. Defina como false
para desativar a nova tentativa.
Por exemplo:
<RetryEnabled>false</RetryEnabled>
IsFallback
Um (e apenas um) TargetServer pode ser definido como o servidor substituto. O TargetServer substituto não será incluído nas rotinas de balanceamento de carga até que todos os outros TargetServers sejam identificados como indisponíveis pelo balanceador de carga. Quando o balanceador de carga determina que todos os TargetServers estão indisponíveis, todo o tráfego é roteado para o servidor substituto. Por exemplo:
<TargetEndpoint name="default"> <HTTPTargetConnection> <LoadBalancer> <Algorithm>RoundRobin</Algorithm> <Server name="target1" /> <Server name="target2" /> <Server name="target3"> <IsFallback>true</IsFallback> </Server> </LoadBalancer> <Path>/test</Path> </HTTPTargetConnection> </TargetEndpoint>
A configuração acima resulta em um balanceamento de carga round-robin entre os destinos 1 e 2 até que nenhum dos dois esteja disponível. Quando os destinos 1 e 2 não estão disponíveis, todo o tráfego é roteado para o destino 3.
Caminho
O caminho define um fragmento de URI que será anexado a todas as solicitações emitidas pelo TargetServer para o servidor de back-end.
Esse elemento aceita um caminho de string literal ou um modelo de mensagem. Um modelo de mensagem permite fazer substituição de strings variáveis no tempo de execução.
Por exemplo, na definição do endpoint de destino a seguir, o valor de {mypath}
é usado para o caminho:
<HTTPTargetConnection> <SSLInfo> <Enabled>true</Enabled> </SSLInfo> <LoadBalancer> <Server name="testserver"/> </LoadBalancer> <Path>{mypath}</Path> </HTTPTargetConnection>
Como configurar um servidor de destino para TLS/SSL
Se você estiver usando um TargetServer para definir o serviço de back-end e esse serviço
exigir a conexão para usar o protocolo HTTPS, será necessário ativar o TLS/SSL na
definição do TargetServer. Isso é necessário porque a tag <Host>
não permite que você
especifique o protocolo de conexão. Confira abaixo a definição do TargetServer para TLS/SSL
unidirecional, em que o Edge faz solicitações HTTPS ao serviço de back-end:
<TargetServer name="target1"> <Host>mocktarget.apigee.net</Host> <Port>443</Port> <IsEnabled>true</IsEnabled> <SSLInfo> <Enabled>true</Enabled> </SSLInfo> </TargetServer>
Se o serviço de back-end exigir o recurso TLS/SSL de duas vias ou mutuo, configure o TargetServer usando as mesmas definições de configuração do TLS/SSL que o TargetEndpoints:
<TargetServer name="TargetServer 1"> <IsEnabled>true</IsEnabled> <Host>www.example.com</Host> <Port>443</Port> <SSLInfo> <Ciphers/> <ClientAuthEnabled>true</ClientAuthEnabled> <Enabled>true</Enabled> <IgnoreValidationErrors>false</IgnoreValidationErrors> <KeyAlias>keystore-alias</KeyAlias> <KeyStore>keystore-name</KeyStore> <Protocols/> <TrustStore>truststore-name</TrustStore> </SSLInfo> </TargetServer >
Para informações sobre as propriedades <SSLInfo>
, como
<Ciphers>
e <ClientAuthEnabled>
, consulte as
informações sobre como definir essas propriedades para um host virtual em Configurar o acesso TLS a uma API
para a nuvem privada.
Para instruções completas sobre como configurar o TLS/SSL de saída, consulte Como configurar o TLS da borda para o back-end (nuvem e nuvem privada).
Esquema do TargetServer
Consulte o esquema do TargetServer e de outras entidades no GitHub.
Monitoramento de integridade
O monitoramento de integridade permite aprimorar as configurações de balanceamento de carga pesquisando ativamente os URLs de serviço de back-end definidos nas configurações do TargetServer. Com o monitoramento de integridade ativado, um TargetServer com falha é colocado automaticamente de volta na rotação quando o HealthMonitor determina que o TargetServer está ativo.
O monitoramento de integridade funciona com <MaxFailures>
. Sem o monitoramento de integridade ativado, <MaxFailures>
especifica o número
máximo de solicitações com falha do proxy de API para o TargetServer que faz com que a solicitação
seja redirecionada para outro TargetServer.
O TargetServer com falha é retirado da rotação até você reimplantar o proxy.
Com o monitoramento de integridade ativado, um TargetServer com falha é colocado automaticamente de volta na rotação e não são necessárias reimplantações de proxy.
O HealthMonitor atua como um cliente simples que invoca um serviço de back-end por TCP ou HTTP:
- Um cliente TCP simplesmente garante que um soquete possa ser aberto.
- Você configura o cliente HTTP para enviar uma solicitação HTTP válida ao serviço de back-end. É possível definir operações HTTP GET, PUT, POST ou DELETE. A resposta da chamada do monitor HTTP precisa corresponder às definições definidas no bloco
<SuccessResponse>
.
Sucessos e falhas
Quando você ativa o monitoramento de integridade, o Edge começa a enviar verificações de integridade para o servidor de destino. Uma verificação de integridade é uma solicitação enviada ao servidor de destino que determina se ele está íntegro ou não.
Uma verificação de integridade pode ter um destes dois resultados:
- Sucesso: o servidor de destino é considerado íntegro quando ocorre uma verificação de
integridade bem-sucedida. Isso normalmente é resultado de um ou mais dos seguintes procedimentos:
- O servidor de destino aceita uma nova conexão com a porta especificada, responde a uma solicitação nessa porta e a fecha dentro do período especificado. A resposta do servidor de destino contém "Connection: close"
- O servidor de destino responde a uma solicitação de verificação de integridade com um código de status HTTP 200 (OK) ou outro que você determinar como aceitável.
- O servidor de destino responde a uma solicitação de verificação de integridade com um corpo de mensagem que corresponde ao esperado.
Quando o Edge determina que um servidor está íntegro, ele continua ou retoma o envio de solicitações para o servidor.
- Falha: o servidor de destino pode falhar em uma verificação de integridade de maneiras diferentes, dependendo do tipo de verificação. Uma falha pode ser registrada quando o servidor de destino:
- recusa uma conexão do Edge com a porta de verificação de integridade;
- não responde a solicitações de verificação de integridade dentro de um período especificado;
- retorna um código de status HTTP inesperado;
- responde com um corpo de mensagem que não corresponde ao corpo esperado da mensagem.
Quando um servidor de destino falha em uma verificação de integridade, o Edge aumenta a contagem de falhas desse servidor. Se o número de falhas desse servidor atingir ou exceder um limite predefinido (
<MaxFailures>
), o Edge vai interromper o envio de solicitações para esse servidor.
Como ativar um HealthMonitor
Para criar um HealthMonitor, adicione o elemento <HealthMonitor>
à configuração HTTPConnection do TargetEndpoint para um proxy. Não é possível fazer isso na IU. Em vez disso, você cria uma configuração de proxy e
faz upload dela como um arquivo ZIP para o Edge. Uma configuração de proxy é uma descrição estruturada de todos os aspectos de um proxy de API. As configurações de proxy consistem em arquivos XML em uma estrutura de diretórios predefinida. Para mais informações, consulte a Referência de configuração do proxy da API.
Um HealthMonitor simples define um IntervalInSec
combinado com um
TCPMonitor ou um HTTPMonitor. O elemento <MaxFailures>
especifica o número
máximo de solicitações com falha do proxy de API para o TargetServer que faz com que a solicitação
seja redirecionada para outro TargetServer. Por padrão, <MaxFailures>
é 0, o que significa que
o Edge não executa nenhuma ação corretiva. Ao configurar um monitor de integridade, configure
<MaxFailures>
na
tag <HTTPTargetConnection>
da tag <TargetEndpoint>
como um valor diferente de zero.
TCPMonitor
A configuração abaixo define um HealthMonitor que pesquisa cada TargetServer abrindo uma conexão na porta 80 a cada cinco segundos. A porta é opcional. Se não for especificada, a porta TCPMonitor será a TargetServer.
- Se a conexão falhar ou levar mais de 10 segundos para se conectar, a contagem de falhas aumentará em 1 para esse TargetServer.
- Se a conexão for bem-sucedida, a contagem de falhas para TargetServer será redefinida como 0.
É possível adicionar um HealthMonitor como um elemento filho do elemento HTTPTargetConnetion do TargetEndpoint, como mostrado abaixo:
<TargetEndpoint name="default"> <HTTPTargetConnection> <LoadBalancer> <Algorithm>RoundRobin</Algorithm> <Server name="target1" /> <Server name="target2" /> <MaxFailures>5</MaxFailures> </LoadBalancer> <Path>/test</Path> <HealthMonitor> <IsEnabled>true</IsEnabled> <IntervalInSec>5</IntervalInSec> <TCPMonitor> <ConnectTimeoutInSec>10</ConnectTimeoutInSec> <Port>80</Port> </TCPMonitor> </HealthMonitor> </HTTPTargetConnection> . . .
HealthMonitor com elementos de configuração TCPMonitor
A tabela a seguir descreve os elementos de configuração do TCPMonitor:
Nome | Descrição | Padrão | Obrigatória? |
---|---|---|---|
IsEnabled |
É um booleano que ativa ou desativa o HealthMonitor. | false | Não |
IntervalInSec |
O intervalo de tempo, em segundos, entre cada solicitação TCP de pesquisa. | 0 | Sim |
ConnectTimeoutInSec |
Tempo em que a conexão com a porta TCP precisa ser estabelecida para ser considerada bem-sucedida. A falha de conexão no intervalo especificado conta como uma falha, aumentando a contagem de falhas do balanceador de carga do TargetServer. | 0 | Sim |
Port |
Opcional. A porta em que a conexão TCP será estabelecida. Se não for especificada, a porta TCPMonitor será a TargetServer. | 0 | Não |
HTTPMonitor
Uma amostra do HealthMonitor que usa um HTTPMonitor enviará uma solicitação GET para o serviço de
back-end uma vez a cada cinco segundos. O exemplo abaixo adiciona um cabeçalho de autorização básica HTTP à
mensagem de solicitação. A configuração de resposta define configurações que serão comparadas com a resposta
real do serviço de back-end. No exemplo abaixo, a resposta esperada é um código de resposta
HTTP 200
e um cabeçalho HTTP personalizado ImOK
, com valor
YourOK
. Se a resposta não for correspondente, a solicitação será tratada como uma falha
pela configuração do balanceador de carga.
O HTTPMonitor é compatível com serviços de back-end configurados para usar protocolos HTTP e HTTPS unidirecionais. No entanto, ele não oferece suporte para:
- HTTPS bidirecional (também chamado de TLS/SSL bidirecional)
- certificados autoassinados
Observe que todas as configurações de Solicitação e Resposta em um monitor HTTP serão específicas para o serviço de back-end que precisa ser invocado.
<HealthMonitor> <IsEnabled>true</IsEnabled> <IntervalInSec>5</IntervalInSec> <HTTPMonitor> <Request> <IsSSL>true</IsSSL> <ConnectTimeoutInSec>10</ConnectTimeoutInSec> <SocketReadTimeoutInSec>30</SocketReadTimeoutInSec> <Port>80</Port> <Verb>GET</Verb> <Path>/healthcheck</Path> <Header name="Authorization">Basic 12e98yfw87etf</Header> <IncludeHealthCheckIdHeader>true</IncludeHealthCheckIdHeader> </Request> <SuccessResponse> <ResponseCode>200</ResponseCode> <Header name="ImOK">YourOK</Header> </SuccessResponse> </HTTPMonitor> </HealthMonitor>
HealthMonitor com elementos de configuração HTTPMonitor
A tabela a seguir descreve os elementos de configuração do HTTPMonitor:
Nome | Descrição | Padrão | Obrigatória? |
---|---|---|---|
IsEnabled |
É um booleano que ativa ou desativa o HealthMonitor. | false | Não |
IntervalInSec |
O intervalo de tempo, em segundos, entre cada solicitação de pesquisa. | 0 | Sim |
Request |
Opções de configuração para a mensagem de solicitação de saída enviada pelo HealthMonitor para os TargetServers na rotação. O caminho não é compatível com variáveis. |
N/A | Sim |
IsSSL |
Especifica se o HTTPS (HTTP seguro) será usado para monitorar conexões. Valores possíveis:
|
falso | Não |
ConnectTimeoutInSec |
Tempo, em segundos, em que o handshake da conexão TCP com o serviço HTTP precisa ser concluído para ser considerado bem-sucedido Falha de conexão nos intervalos especificados conta como uma falha, incrementando a contagem de falhas do LoadBalancer para o TargetServer. | 0 | Não |
SocketReadTimeoutInSec |
Tempo, em segundos, em que os dados precisam ser lidos do serviço HTTP para serem considerados bem-sucedidos. Falha ao ler o intervalo especificado conta como uma falha, incrementando a contagem de falhas do LoadBalancer para o TargetServer. | 0 | Não |
Port |
A porta em que a conexão HTTP com o serviço de back-end será estabelecida. | N/A | Não |
Verb |
O verbo HTTP usado para cada solicitação HTTP de pesquisa para o serviço de back-end. | N/A | Não |
Path |
O caminho anexado ao URL definido no TargetServer. Use o elemento path para configurar uma "solicitação de endpoint" no serviço HTTP. | N/A | Não |
| Permite
rastrear as solicitações de verificação de integridade em sistemas upstream. O
IncludeHealthCheckIdHeader usa um valor booleano e o padrão é false . Se você defini-lo como true , haverá um Header chamado X-Apigee-Healthcheck-Id
que é
injetado na solicitação de verificação de integridade. O valor do cabeçalho é
atribuído dinamicamente e assume a forma
ORG/ENV/SERVER_UUID/N, em que ORG é o
nome da organização, ENV é o nome do ambiente,
SERVER_UUID é um ID exclusivo que identifica o MP, e
N é o número de milissegundos decorridos desde 1º de janeiro de 1970.
Exemplo de cabeçalho de solicitação resultante: X-Apigee-Healthcheck-Id: orgname/envname/E8C4D2EE-3A69-428A-8616-030ABDE864E0/1586802968123
|
falso | Não |
Payload |
O corpo HTTP gerado para cada solicitação HTTP de pesquisa. Esse elemento não é necessário para solicitações GET. | N/A | Não |
SuccessResponse |
Opções de correspondência para a mensagem de resposta HTTP de entrada gerada pelo serviço de back-end pesquisado. Respostas sem correspondência aumentam a contagem de falhas em 1. | N/A | Não |
ResponseCode |
É o código de resposta HTTP esperado do servidor TargetServer pesquisado. Um código diferente do especificado especifica uma falha, e a contagem é incrementada para o serviço de back-end pesquisado. É possível definir vários elementos ResponseCode. | N/A | Não |
Headers |
Uma lista de um ou mais cabeçalhos e valores HTTP que devem ser recebidos do serviço de back-end pesquisado. Todos os cabeçalhos ou valores HTTP na resposta que são diferentes daqueles especificados resultam em uma falha, e a contagem do TargetServer pesquisado é incrementada em 1. É possível definir vários elementos de cabeçalho. | N/A | Não |