Você está vendo a documentação do Apigee Edge.
Consulte a documentação do Apigee X.
O Apigee Edge aumenta a disponibilidade da API fornecendo suporte integrado para balanceamento de carga e failover em várias instâncias do servidor de back-end.
As configurações do TargetServer dissociam os URLs de endpoint concretos das configurações do TargetEndpoint. Cada TargetServer é referenciado pelo nome em um HTTPEndpoint TargetEndpoint. Em vez de definir um URL concreto na configuração, é possível configurar um ou mais TargetServers nomeados, conforme descrito na seção TargetEndpoint.
Uma definição de TargetServer consiste em um nome, um host e uma porta, com um elemento adicional para indicar se o TargetServer está ativado ou desativado.
Vídeos
Assista os vídeos a seguir para saber mais sobre roteamento de API e balanceamento de carga usando servidores de destino
Vídeo | Descrição |
---|---|
Balanceamento de carga com servidores de destino | APIs de balanceamento de carga em servidores de destino |
Roteamento de API com base no ambiente usando servidores de destino | Encaminhe uma API para outro servidor de destino com base no ambiente. |
Roteamento de API e balanceamento de carga usando servidores de destino (versão clássica) | Encaminhe uma API para um servidor de destino diferente com base no ambiente e faça o balanceamento de carga da API em servidores de destino na IU clássica do Edge. |
Exemplo de configuração do TargetServer
O código a seguir define um servidor de destino:
<TargetServer name="target1"> <Host>1.mybackendservice.com</Host> <Port>80</Port> <IsEnabled>true</IsEnabled> </TargetServer >
Elementos de configuração do TargetServer
A tabela a seguir descreve os elementos usados para criar e configurar um TargetServer:
Nome | Descrição | Padrão | Obrigatório? |
---|---|---|---|
name |
O nome da configuração do TargetServer, que precisa ser exclusivo no ambiente. O nome do TargetServer pode conter apenas caracteres alfanuméricos. | N/A | Sim |
Host |
O URL do host do serviço de back-end (sem o protocolo). | N/A | Sim |
Port |
A porta em que o serviço de back-end está escutando | N/A | Sim |
IsEnabled |
Um booleano que indica se a configuração do TargetServer está ativada ou desativada. Isso permite que você remova TargetServers da rotação sem modificar a configuração de proxy da API. Um uso comum seria gravar um app ou script que ativa ou desativa o TargetServers automaticamente com base nos requisitos de capacidade esperados, nas programações de manutenção etc. | true |
Sim |
Como gerenciar servidores de destino usando a IU
Gerencie os servidores de destino, conforme descrito abaixo.
Edge
Para gerenciar servidores de destino usando a IU do Edge:
- Faça login em apigee.com/edge.
- Selecione Administrador > Ambientes > Servidores de destino na barra de navegação à esquerda.
- Selecione o ambiente desejado, como test ou prod.
- Para criar um servidor de destino:
- Clique em + Servidor de destino.
- Digite um nome, um host e uma porta para o servidor de destino.
Por exemplo:
- Nome: target1
- Host:1.mybackendservice.com
- Porta: 80
- Selecione SSL, se necessário.
- Selecione Ativado para ativar o servidor de destino.
- Clique em Adicionar.
- Para editar o servidor de destino:
- Posicione o cursor sobre o servidor de destino que deseja editar para exibir o menu de ações.
- Clique em
.
- Edite os valores do servidor targer.
- Clique em Atualizar.
- Para excluir o servidor de destino:
- Posicione o cursor sobre o servidor de destino que deseja excluir para exibir o menu de ações.
- Clique em
.
- Clique em Excluir para confirmar a operação.
Versão clássica do Cloud Edge (nuvem privada)
Para acessar o assistente "Criar proxy" usando a IU clássica do Edge:
- Faça login em
http://ms-ip:9000
, em que ms-ip é o endereço IP ou o nome DNS do nó do servidor de gerenciamento. - Selecione APIs > Configuração do ambiente > Servidores de destino na barra de navegação à esquerda.
- Selecione o ambiente desejado, como test ou prod.
- Para criar um servidor de destino:
- Clique em Editar.
- Clique em + Servidor de destino.
- Digite um nome, um host e uma porta para o servidor de destino.
Por exemplo:
- Nome: target1
- Host:1.mybackendservice.com
- Porta: 80
- Selecione Ativado para ativar o servidor de destino.
- Clique em Salvar.
- Para editar o servidor de destino:
- Clique em Editar.
- Edite os valores do servidor targer.
- Clique em Salvar.
- Para excluir o servidor de destino:
- Clique em Editar.
- Clique em Excluir.
Como gerenciar servidores de destino usando a API
É possível usar a API Edge para criar, excluir, atualizar, receber e listar servidores de destino. Para mais informações, consulte TargetServers.
Use a seguinte chamada de API para criar um servidor de destino:
$ curl -H "Content-Type:text/xml" -X POST -d \ '<TargetServer name="target1"> <Host>1.mybackendservice.com</Host> <Port>80</Port> <IsEnabled>true</IsEnabled> </TargetServer>' \ -u email:password https://api.enterprise.apigee.com/v1/o/{org_name}/environments/test/targetservers
Exemplo de resposta:
{ "host" : "1.mybackendservice.com", "isEnabled" : true, "name" : "target1", "port" : 80 }
Depois de criar o primeiro TargetServer, use a seguinte chamada de API para criar um segundo TargetServer. Ao definir dois TargetServers, você fornece dois URLs que um TargetEndpoint pode usar para o balanceamento de carga:
$ curl -H "Content-type:text/xml" -X POST -d \ '<TargetServer name="target2"> <Host>2.mybackendservice.com</Host> <Port>80</Port> <IsEnabled>true</IsEnabled> </TargetServer >' \ -u email:password https://api.enterprise.apigee.com/v1/o/{org_name}/environments/test/targetservers
Exemplo de resposta:
{ "host" : "2.mybackendservice.com", "isEnabled" : true, "name" : "target2", "port" : 80 }
Use a seguinte chamada de API para recuperar uma lista de TargetServers em um ambiente:
$ curl -u email:password https://api.enterprise.apigee.com/v1/o/{org_name}/environments/test/targetservers
Exemplo de resposta:
[ "target2", "target1" ]
Agora há dois TargetServers disponíveis para uso por proxies de API implantados no ambiente de teste. Para balancear a carga do tráfego nesses TargetServers, configure a conexão HTTP no endpoint de destino de um proxy de API para usar os TargetServers.
Há um limite de 500 TargetServers por ambiente, conforme documentado no tópico Limites.
Como configurar um TargetEndpoint para balancear a carga em TargetServers nomeados
Agora que há dois TargetServers disponíveis, é possível modificar a configuração de conexão HTTP TargetEndpoint para fazer referência a esses dois TargetServers por nome:
<TargetEndpoint name="default"> <HTTPTargetConnection> <LoadBalancer> <Server name="target1" /> <Server name="target2" /> </LoadBalancer> <Path>/test</Path> </HTTPTargetConnection> </TargetEndpoint>
A configuração acima é a mais básica de balanceamento de carga possível. O balanceador de carga aceita três algoritmos de balanceamento de carga: round-robin, ponderado e dinâmico. Round-robin é o algoritmo padrão. Como nenhum algoritmo é especificado na configuração acima, as solicitações de saída do proxy de API para os servidores de back-end serão alternadas, uma por uma, entre a target1 e a 2.
O elemento <Path>
forma o caminho base do URI de TargetEndpoint para todos os servidores de destino. Ele só é usada quando <LoadBalancer>
é usado. Caso contrário,
será ignorado. No exemplo acima, uma solicitação que chega a "target1" será http://target1/test
e assim por outros servidores de destino.
Como definir opções do balanceador de carga
É possível ajustar a disponibilidade usando opções de balanceamento de carga e failover no nível do balanceador de carga e do TargetServer. Esta seção descreve essas opções.
Algoritmo
Define o algoritmo usado por <LoadBalancer>
. Os algoritmos disponíveis são RoundRobin
, Weighted
e LeastConnections
, cada um deles documentado abaixo.
Round robin
O algoritmo padrão, round-robin, encaminha uma solicitação para cada TargetServer na ordem em que os servidores estão listados na conexão HTTP do endpoint de destino. Por exemplo:
<TargetEndpoint name="default"> <HTTPTargetConnection> <LoadBalancer> <Algorithm>RoundRobin</Algorithm> <Server name="target1" /> <Server name="target2" /> </LoadBalancer> <Path>/test</Path> </HTTPTargetConnection> </TargetEndpoint>
Ponderado
O algoritmo de balanceamento de carga ponderado permite configurar cargas de tráfego proporcionais para
os TargetServers. O LoadBalancer ponderado distribui a solicitação para os TargetServers em proporção direta ao peso de cada TargetServer. Portanto, o algoritmo ponderado requer que você defina
um atributo weight
para cada TargetServer. Por exemplo:
<TargetEndpoint name="default"> <HTTPTargetConnection> <LoadBalancer> <Algorithm>Weighted</Algorithm> <Server name="target1"> <Weight>1</Weight> </Server> <Server name="target2"> <Weight>2</Weight> </Server> </LoadBalancer> <Path>/test</Path> </HTTPTargetConnection> </TargetEndpoint>
Neste exemplo, duas solicitações serão roteadas para target2 para cada solicitação encaminhada para target1.
Escalonamento dinâmico
LoadBalancers configurados para usar o algoritmo de escalonamento dinâmico roteiam solicitações de saída para o TargetServer com menos conexões HTTP abertas. Por exemplo:
<TargetEndpoint name="default"> <HTTPTargetConnection> <LoadBalancer> <Algorithm>LeastConnections</Algorithm> <Server name="target1" /> <Server name="target2" /> </LoadBalancer> </HTTPTargetConnection> <Path>/test</Path> </TargetEndpoint>
Máximo de falhas
O número máximo de solicitações com falha do proxy de API para o TargetServer que fazem com que a solicitação seja redirecionada para outro TargetServer.
Uma falha na resposta significa que a Apigee não recebe nenhuma resposta de um servidor de destino. Quando isso acontece, o contador de falhas é incrementado em um.
No entanto, quando a Apigee recebe uma resposta de um destino,
mesmo que a resposta seja um erro HTTP (como 500
), isso conta como uma resposta do
servidor de destino e o contador de falhas é redefinido. Para ajudar a garantir que respostas HTTP inválidas (como 500
) também incremente o contador de falhas para tirar um servidor não íntegro da rotação do balanceamento de carga o mais rápido possível, adicione o elemento <ServerUnhealthyResponse>
com elementos filhos <ResponseCode>
à configuração do balanceador de carga. O Edge também contará as respostas com esses códigos como falhas.
No exemplo a seguir, target1
será removido da rotação após cinco solicitações com falha, incluindo algumas respostas 5XX
do servidor de destino.
<TargetEndpoint name="default"> <HTTPTargetConnection> <LoadBalancer> <Algorithm>RoundRobin</Algorithm> <Server name="target1" /> <Server name="target2" /> <MaxFailures>5</MaxFailures> <ServerUnhealthyResponse> <ResponseCode>500</ResponseCode> <ResponseCode>502</ResponseCode> <ResponseCode>503</ResponseCode> </ServerUnhealthyResponse> </LoadBalancer> <Path>/test</Path> </HTTPTargetConnection> </TargetEndpoint>
O padrão MaxFailures é 0. Isso significa que o Edge sempre tenta se conectar ao destino para cada solicitação e nunca remove o servidor de destino da rotação.
É melhor usar MaxFailures > 0 com um HealthMonitor. Se você configurar o MaxFailures > 0, o TargetServer será removido da rotação quando o destino falhar no número de vezes indicado. Quando um HealthMonitor está em vigor, a Apigee coloca automaticamente o TargetServer de volta na rotação depois que o destino está funcionando novamente, de acordo com a configuração desse HealthMonitor. Consulte Monitoramento de integridade para mais informações.
Como alternativa, se você configurar MaxFailures > 0 e não configurar um HealthMonitor, a Apigee não incluirá novamente o TargetServer na rotação automaticamente depois que a Apigee detectar uma falha. Nesse caso, é necessário reimplantar o proxy de API antes que a Apigee coloque o TargetServer novamente na rotação. Consulte Como implantar um proxy de API.
Tentar de novo
Se a nova tentativa for ativada, uma solicitação será repetida sempre que ocorrer uma falha de resposta (erro de E/S ou de tempo limite HTTP)
ou a resposta recebida corresponder a um valor definido por <ServerUnhealthyResponse>
.
Consulte Máximo de falhas acima para mais informações sobre a configuração
de <ServerUnhealthyResponse>
.
Por padrão, <RetryEnabled>
é definido como true
. Defina como false
para desativar a nova tentativa.
Por exemplo:
<RetryEnabled>false</RetryEnabled>
IsFallback
Um (e apenas um) TargetServer pode ser definido como o servidor substituto. O TargetServer substituto não será incluído nas rotinas de balanceamento de carga até que todos os outros TargetServers sejam identificados como indisponíveis pelo balanceador de carga. Quando o balanceador de carga determina que todos os TargetServers estão indisponíveis, todo o tráfego é roteado para o servidor substituto. Por exemplo:
<TargetEndpoint name="default"> <HTTPTargetConnection> <LoadBalancer> <Algorithm>RoundRobin</Algorithm> <Server name="target1" /> <Server name="target2" /> <Server name="target3"> <IsFallback>true</IsFallback> </Server> </LoadBalancer> <Path>/test</Path> </HTTPTargetConnection> </TargetEndpoint>
A configuração acima resulta em um balanceamento de carga round-robin entre os destinos 1 e 2 até que nenhum dos dois esteja disponível. Quando os destinos 1 e 2 não estão disponíveis, todo o tráfego é roteado para o destino 3.
Caminho
O caminho define um fragmento de URI que será anexado a todas as solicitações emitidas pelo TargetServer para o servidor de back-end.
Esse elemento aceita um caminho de string literal ou um modelo de mensagem. Um modelo de mensagem permite fazer substituição de strings variáveis no tempo de execução.
Por exemplo, na definição do endpoint de destino a seguir, o valor de {mypath}
é usado para o caminho:
<HTTPTargetConnection> <SSLInfo> <Enabled>true</Enabled> </SSLInfo> <LoadBalancer> <Server name="testserver"/> </LoadBalancer> <Path>{mypath}</Path> </HTTPTargetConnection>
Como configurar um servidor de destino para TLS/SSL
Se você estiver usando um TargetServer para definir o serviço de back-end e esse serviço
exigir a conexão para usar o protocolo HTTPS, será necessário ativar o TLS/SSL na
definição do TargetServer. Isso é necessário porque a tag <Host>
não permite que você
especifique o protocolo de conexão. Veja abaixo a definição de TargetServer para TLS/SSL unidirecional, em que o Edge faz solicitações HTTPS para o serviço de back-end:
<TargetServer name="target1"> <Host>mocktarget.apigee.net</Host> <Port>443</Port> <IsEnabled>true</IsEnabled> <SSLInfo> <Enabled>true</Enabled> </SSLInfo> </TargetServer>
Se o serviço de back-end exigir o recurso TLS/SSL de duas vias ou mutuo, configure o TargetServer usando as mesmas definições de configuração do TLS/SSL que o TargetEndpoints:
<TargetServer name="TargetServer 1"> <IsEnabled>true</IsEnabled> <Host>www.example.com</Host> <Port>443</Port> <SSLInfo> <Ciphers/> <ClientAuthEnabled>true</ClientAuthEnabled> <Enabled>true</Enabled> <IgnoreValidationErrors>false</IgnoreValidationErrors> <KeyAlias>keystore-alias</KeyAlias> <KeyStore>keystore-name</KeyStore> <Protocols/> <TrustStore>truststore-name</TrustStore> </SSLInfo> </TargetServer >
Para informações sobre as propriedades <SSLInfo>
, como <Ciphers>
e <ClientAuthEnabled>
, consulte as informações sobre como definir essas propriedades para um host virtual em Como configurar o acesso TLS a uma API para a nuvem privada.
Para instruções completas sobre como configurar o TLS de saída/SSL, consulte Como configurar o TLS do Edge para o back-end (nuvem e nuvem privada).
Esquema do TargetServer
Consulte o esquema do TargetServer e de outras entidades no GitHub.
Monitoramento de integridade
O monitoramento de integridade permite aprimorar as configurações de balanceamento de carga pesquisando ativamente os URLs de serviço de back-end definidos nas configurações do TargetServer. Com o monitoramento de integridade ativado, um TargetServer com falha é colocado automaticamente de volta na rotação quando o HealthMonitor determina que o TargetServer está ativo.
O monitoramento de integridade funciona com <MaxFailures>
. Sem o monitoramento de integridade ativado, <MaxFailures>
especifica o número
máximo de solicitações com falha do proxy de API para o TargetServer que faz com que a solicitação
seja redirecionada para outro TargetServer.
O TargetServer com falha é retirado da rotação até você reimplantar o proxy.
Com o monitoramento de integridade ativado, um TargetServer com falha é colocado automaticamente de volta na rotação e não são necessárias reimplantações de proxy.
O HealthMonitor atua como um cliente simples que invoca um serviço de back-end por TCP ou HTTP:
- Um cliente TCP simplesmente garante que um soquete possa ser aberto.
- Você configura o cliente HTTP para enviar uma solicitação HTTP válida ao serviço de back-end. É possível definir operações HTTP GET, PUT, POST ou DELETE. A resposta da chamada do monitor HTTP precisa corresponder às definições definidas no bloco
<SuccessResponse>
.
Sucessos e falhas
Quando você ativa o monitoramento de integridade, o Edge começa a enviar verificações de integridade para o servidor de destino. Uma verificação de integridade é uma solicitação enviada ao servidor de destino que determina se ele está íntegro ou não.
Uma verificação de integridade pode ter um destes dois resultados:
- Sucesso: o servidor de destino é considerado íntegro quando ocorre uma verificação de integridade bem-sucedida. Isso normalmente é resultado de um ou mais dos seguintes procedimentos:
- O servidor de destino aceita uma nova conexão à porta especificada, responde a uma solicitação nessa porta e, em seguida, fecha a porta dentro do período especificado. A resposta do servidor de destino contém "Connection: close"
- O servidor de destino responde a uma solicitação de verificação de integridade com um código de status HTTP 200 (OK) ou outro que você considere aceitável.
- O servidor de destino responde a uma solicitação de verificação de integridade com um corpo de mensagem que corresponde ao corpo da mensagem esperado.
Quando o Edge determina que um servidor é íntegro, ele continua ou retoma o envio de solicitações para ele.
- Falha: o servidor de destino pode falhar em uma verificação de integridade de maneiras diferentes, dependendo do tipo de verificação. Uma falha pode ser registrada quando o servidor de destino:
- Recusa uma conexão do Edge com a porta de verificação de integridade.
- Não responde a uma solicitação de verificação de integridade dentro de um período especificado.
- Retorna um código de status HTTP inesperado.
- Responde com um corpo de mensagem que não corresponde ao corpo da mensagem esperado.
Quando uma verificação de integridade é reprovada em um servidor de destino, o Edge incrementa a contagem de falhas desse servidor. Se o número de falhas desse servidor atingir ou exceder um limite predefinido (
<MaxFailures>
), o Edge interromperá o envio de solicitações para esse servidor.
Como ativar um HealthMonitor
Para criar um HealthMonitor, adicione o elemento <HealthMonitor>
à configuração HTTPConnection do TargetEndpoint para um proxy. Não é possível fazer isso na IU. Em vez disso, crie uma configuração de proxy e
faça o upload dela como um arquivo ZIP para o Edge. Uma configuração de proxy é uma descrição estruturada de todos os aspectos de um proxy de API. As configurações de proxy consistem em arquivos XML em uma estrutura de diretórios predefinida. Para mais informações, consulte a Referência de configuração do proxy da API.
Um HealthMonitor simples define um IntervalInSec
combinado com um
TCPMonitor ou um HTTPMonitor. O elemento <MaxFailures>
especifica o número
máximo de solicitações com falha do proxy de API para o TargetServer que faz com que a solicitação
seja redirecionada para outro TargetServer. Por padrão, <MaxFailures>
é 0, o que significa que o Edge não realiza ações corretivas. Ao configurar um monitor de integridade, configure
<MaxFailures>
na
tag <HTTPTargetConnection>
da tag <TargetEndpoint>
como um valor diferente de zero.
TCPMonitor
A configuração abaixo define um HealthMonitor que pesquisa cada TargetServer abrindo uma conexão na porta 80 a cada cinco segundos. A porta é opcional. Se não for especificada, a porta TCPMonitor será a TargetServer.
- Se a conexão falhar ou levar mais de 10 segundos para se conectar, a contagem de falhas aumentará em 1 para esse TargetServer.
- Se a conexão for bem-sucedida, a contagem de falhas para TargetServer será redefinida como 0.
É possível adicionar um HealthMonitor como um elemento filho do elemento HTTPTargetConnetion do TargetEndpoint, como mostrado abaixo:
<TargetEndpoint name="default"> <HTTPTargetConnection> <LoadBalancer> <Algorithm>RoundRobin</Algorithm> <Server name="target1" /> <Server name="target2" /> <MaxFailures>5</MaxFailures> </LoadBalancer> <Path>/test</Path> <HealthMonitor> <IsEnabled>true</IsEnabled> <IntervalInSec>5</IntervalInSec> <TCPMonitor> <ConnectTimeoutInSec>10</ConnectTimeoutInSec> <Port>80</Port> </TCPMonitor> </HealthMonitor> </HTTPTargetConnection> . . .
HealthMonitor com elementos de configuração TCPMonitor
A tabela a seguir descreve os elementos de configuração do TCPMonitor:
Nome | Descrição | Padrão | Obrigatória? |
---|---|---|---|
IsEnabled |
É um booleano que ativa ou desativa o HealthMonitor. | false | Não |
IntervalInSec |
O intervalo de tempo, em segundos, entre cada solicitação TCP de pesquisa. | 0 | Sim |
ConnectTimeoutInSec |
Tempo em que a conexão com a porta TCP precisa ser estabelecida para ser considerada bem-sucedida. A falha de conexão no intervalo especificado conta como uma falha, aumentando a contagem de falhas do balanceador de carga do TargetServer. | 0 | Sim |
Port |
Opcional. A porta em que a conexão TCP será estabelecida. Se não for especificada, a porta TCPMonitor será a TargetServer. | 0 | Não |
HTTPMonitor
Uma amostra do HealthMonitor que usa um HTTPMonitor enviará uma solicitação GET para o serviço de
back-end uma vez a cada cinco segundos. O exemplo abaixo adiciona um cabeçalho de autorização básica HTTP à
mensagem de solicitação. A configuração de resposta define configurações que serão comparadas com a resposta
real do serviço de back-end. No exemplo abaixo, a resposta esperada é um código de resposta
HTTP 200
e um cabeçalho HTTP personalizado ImOK
, com valor
YourOK
. Se a resposta não for correspondente, a solicitação será tratada como uma falha
pela configuração do balanceador de carga.
O HTTPMonitor é compatível com serviços de back-end configurados para usar protocolos HTTP e HTTPS unidirecionais. No entanto, ele não é compatível com:
- HTTPS bidirecional (também chamado de TLS/SSL bidirecional)
- certificados autoassinados
Observe que todas as configurações de Solicitação e Resposta em um monitor HTTP serão específicas para o serviço de back-end que precisa ser invocado.
<HealthMonitor> <IsEnabled>true</IsEnabled> <IntervalInSec>5</IntervalInSec> <HTTPMonitor> <Request> <ConnectTimeoutInSec>10</ConnectTimeoutInSec> <SocketReadTimeoutInSec>30</SocketReadTimeoutInSec> <Port>80</Port> <Verb>GET</Verb> <Path>/healthcheck</Path> <Header name="Authorization">Basic 12e98yfw87etf</Header> <IncludeHealthCheckIdHeader>true</IncludeHealthCheckIdHeader> </Request> <SuccessResponse> <ResponseCode>200</ResponseCode> <Header name="ImOK">YourOK</Header> </SuccessResponse> </HTTPMonitor> </HealthMonitor>
HealthMonitor com elementos de configuração HTTPMonitor
A tabela a seguir descreve os elementos de configuração do HTTPMonitor:
Nome | Descrição | Padrão | Obrigatória? |
---|---|---|---|
IsEnabled |
É um booleano que ativa ou desativa o HealthMonitor. | false | Não |
IntervalInSec |
O intervalo de tempo, em segundos, entre cada solicitação de pesquisa. | 0 | Sim |
Request |
Opções de configuração para a mensagem de solicitação de saída enviada pelo HealthMonitor para os TargetServers na rotação. O caminho não é compatível com variáveis. |
N/A | Sim |
ConnectTimeoutInSec |
Tempo, em segundos, em que o handshake da conexão TCP com o serviço HTTP precisa ser concluído para ser considerado bem-sucedido Falha de conexão nos intervalos especificados conta como uma falha, incrementando a contagem de falhas do LoadBalancer para o TargetServer. | 0 | Não |
SocketReadTimeoutInSec |
Tempo, em segundos, em que os dados precisam ser lidos do serviço HTTP para serem considerados bem-sucedidos. Falha ao ler o intervalo especificado conta como uma falha, incrementando a contagem de falhas do LoadBalancer para o TargetServer. | 0 | Não |
Port |
A porta em que a conexão HTTP com o serviço de back-end será estabelecida. | N/A | Não |
Verb |
O verbo HTTP usado para cada solicitação HTTP de pesquisa para o serviço de back-end. | N/A | Não |
Path |
O caminho anexado ao URL definido no TargetServer. Use o elemento path para configurar uma "solicitação de endpoint" no serviço HTTP. | N/A | Não |
| Permite
rastrear as solicitações de verificação de integridade em sistemas upstream. O
IncludeHealthCheckIdHeader usa um valor booleano e o padrão é false . Se você defini-lo como true , haverá um Header chamado X-Apigee-Healthcheck-Id
que é
injetado na solicitação de verificação de integridade. O valor do cabeçalho é
atribuído dinamicamente e assume a forma
ORG/ENV/SERVER_UUID/N, em que ORG é o
nome da organização, ENV é o nome do ambiente,
SERVER_UUID é um ID exclusivo que identifica o MP, e
N é o número de milissegundos decorridos desde 1º de janeiro de 1970.
Exemplo de cabeçalho de solicitação resultante: X-Apigee-Healthcheck-Id: orgname/envname/E8C4D2EE-3A69-428A-8616-030ABDE864E0/1586802968123
|
false | Não |
Payload |
O corpo HTTP gerado para cada solicitação HTTP de pesquisa. Esse elemento não é necessário para solicitações GET. | N/A | Não |
SuccessResponse |
Opções de correspondência para a mensagem de resposta HTTP de entrada gerada pelo serviço de back-end pesquisado. Respostas sem correspondência aumentam a contagem de falhas em 1. | N/A | Não |
ResponseCode |
É o código de resposta HTTP esperado do servidor TargetServer pesquisado. Um código diferente do especificado especifica uma falha, e a contagem é incrementada para o serviço de back-end pesquisado. É possível definir vários elementos ResponseCode. | N/A | Não |
Headers |
Uma lista de um ou mais cabeçalhos e valores HTTP que devem ser recebidos do serviço de back-end pesquisado. Todos os cabeçalhos ou valores HTTP na resposta que são diferentes daqueles especificados resultam em uma falha, e a contagem do TargetServer pesquisado é incrementada em 1. É possível definir vários elementos de cabeçalho. | N/A | Não |