Balanceamento de carga entre servidores de back-end

Você está vendo a documentação do Apigee Edge.
Acesse a documentação da Apigee X.
informações

O Apigee Edge aumenta a disponibilidade da API fornecendo suporte integrado para balanceamento de carga e failover em várias instâncias do servidor de back-end.

As configurações do TargetServer dissociam URLs concretos do endpoint das configurações do TargetEndpoint. Cada TargetServer é referenciado por nome em uma HTTPConnection TargetEndpoint. Em vez de definir um URL concreto na configuração, é possível definir um ou mais TargetServers nomeados, conforme descrito na seção TargetEndpoint.

Uma definição de TargetServer consiste em um nome, um host e uma porta, com um elemento extra para indicar se o TargetServer está ativado ou desativado.

Vídeos

Assista os vídeos a seguir para saber mais sobre roteamento de API e balanceamento de carga usando servidores de destino

Vídeo Descrição
Balanceamento de carga com servidores de destino APIs de balanceamento de carga em servidores de destino
Roteamento de API com base no ambiente usando servidores de destino Encaminhe uma API para outro servidor de destino com base no ambiente.
Roteamento de API e balanceamento de carga usando servidores de destino (borda clássica) Encaminhe uma API para um servidor de destino diferente com base no ambiente e faça o balanceamento de carga da API entre os servidores de destino na interface clássica do Edge.

Exemplo de configuração do TargetServer

O código a seguir define um servidor de destino:

<TargetServer  name="target1">
  <Host>1.mybackendservice.com</Host>
  <Port>80</Port>
  <IsEnabled>true</IsEnabled>
</TargetServer >

Elementos de configuração do TargetServer

A tabela a seguir descreve os elementos usados para criar e configurar um TargetServer:

Nome Descrição Padrão Obrigatório?
name O nome da configuração do TargetServer, que precisa ser exclusivo no ambiente. O nome do TargetServer só pode conter caracteres alfanuméricos. N/A Sim
Host

O URL do host do serviço de back-end (sem o protocolo).

N/A Sim
Port A porta em que o serviço de back-end está escutando N/A Sim
IsEnabled Um booleano que indica se a configuração TargetServer está ativada ou desativada. Isso permite que você retire TargetServers de rotação sem modificar a configuração do proxy de API. Um uso comum seria escrever um app ou script que ativa ou desativa o TargetServers automaticamente com base nos requisitos de capacidade esperados, nas programações de manutenção etc. true Sim

Como gerenciar servidores de destino usando a interface

Gerencie os servidores de destino, conforme descrito abaixo.

Borda

Para gerenciar servidores de destino usando a interface do usuário do Edge:

  1. Faça login em apigee.com/edge.
  2. Selecione Administrador > Ambientes > Servidores de destino na barra de navegação à esquerda.
  3. Selecione o ambiente pretendido, como test ou prod.
  4. Para criar um servidor de destino:
    1. Clique em + Servidor de destino.
    2. Digite um nome, um host e uma porta para o servidor de destino.

      Exemplo:

      • Nome:target1
      • Host:1.mybackendservice.com
      • Porta: 80
    3. Selecione SSL, se necessário.
    4. Selecione Ativado para ativar o servidor de destino.
    5. Clique em Adicionar.
  5. Para editar o servidor de destino:
    1. Posicione o cursor sobre o servidor de destino que você quer editar para exibir o menu de ações.
    2. Clique em .
    3. Edite os valores do servidor targer.
    4. Clique em Atualizar.
  6. Para excluir o servidor de destino:
    1. Posicione o cursor sobre o servidor de destino que você quer excluir para exibir o menu de ações.
    2. Clique em .
    3. Clique em Excluir para confirmar a operação.

Borda clássica (nuvem privada)

Para acessar o assistente "Criar proxy" usando a IU clássica do Edge:

  1. Faça login em http://ms-ip:9000, em que ms-ip é o endereço IP ou o nome DNS do nó do servidor de gerenciamento.
  2. Selecione APIs > Configuração do ambiente > Servidores de destino na barra de navegação à esquerda.
  3. Selecione o ambiente pretendido, como test ou prod.
  4. Para criar um servidor de destino:
    1. Clique em Editar.
    2. Clique em + Servidor de destino.
    3. Digite um nome, um host e uma porta para o servidor de destino.

      Exemplo:

      • Nome:target1
      • Host:1.mybackendservice.com
      • Porta: 80
    4. Selecione Ativado para ativar o servidor de destino.
    5. Clique em Salvar.
  5. Para editar o servidor de destino:
    1. Clique em Editar.
    2. Edite os valores do servidor targer.
    3. Clique em Salvar.
  6. Para excluir o servidor de destino:
    1. Clique em Editar.
    2. Clique em Excluir.

Como gerenciar servidores de destino usando a API

É possível usar a API Edge para criar, excluir, atualizar, receber e listar servidores de destino. Para mais informações, consulte TargetServers.

Use a seguinte chamada de API para criar um servidor de destino:

$ curl -H "Content-Type:text/xml" -X POST -d \
'<TargetServer name="target1">
   <Host>1.mybackendservice.com</Host>
   <Port>80</Port>
   <IsEnabled>true</IsEnabled>
 </TargetServer>' \
-u email:password https://api.enterprise.apigee.com/v1/o/{org_name}/environments/test/targetservers

Exemplo de resposta:

{
  "host" : "1.mybackendservice.com",
  "isEnabled" : true,
  "name" : "target1",
  "port" : 80
}

Depois de criar o primeiro TargetServer, use a chamada de API a seguir para criar um segundo TargetServer. Ao definir dois TargetServers, você fornece dois URLs que um TargetEndpoint pode usar para o balanceamento de carga:

$ curl -H "Content-type:text/xml" -X POST -d \
'<TargetServer  name="target2">
  <Host>2.mybackendservice.com</Host>
  <Port>80</Port>
  <IsEnabled>true</IsEnabled>
</TargetServer >' \
-u email:password https://api.enterprise.apigee.com/v1/o/{org_name}/environments/test/targetservers

Exemplo de resposta:

{
  "host" : "2.mybackendservice.com",
  "isEnabled" : true,
  "name" : "target2",
  "port" : 80
}

Use a seguinte chamada de API para recuperar uma lista de TargetServers em um ambiente:

$ curl -u email:password https://api.enterprise.apigee.com/v1/o/{org_name}/environments/test/targetservers

Exemplo de resposta:

[ "target2", "target1" ]

Agora, há dois TargetServers disponíveis para uso por proxies de API implantados no ambiente de teste. Para balancear a carga do tráfego nesses TargetServers, configure a conexão HTTP no endpoint de destino de um proxy de API para usar os TargetServers.

Há um limite de 500 TargetServers por ambiente, conforme documentado no tópico Limites.

Como configurar um TargetEndpoint para balancear a carga em TargetServers nomeados

Agora que há dois TargetServers disponíveis, é possível modificar a configuração de conexão HTTP TargetEndpoint para fazer referência a esses dois TargetServers por nome:

<TargetEndpoint name="default">
  <HTTPTargetConnection>
    <LoadBalancer>
      <Server name="target1" />
      <Server name="target2" />
    </LoadBalancer>
    <Path>/test</Path>
  </HTTPTargetConnection>
</TargetEndpoint>

A configuração acima é a mais básica possível de balanceamento de carga. O balanceador de carga aceita três algoritmos de balanceamento de carga: round-robin, ponderado e dinâmico. Round-robin é o algoritmo padrão. Como nenhum algoritmo é especificado na configuração acima, as solicitações de saída do proxy de API para os servidores de back-end serão alternadas, uma por um, entre target1 e target 2.

O elemento <Path> forma o caminho base do URI do TargetEndpoint para todos os servidores de destino. Ele só é usada quando <LoadBalancer> é usado. Caso contrário, será ignorado. No exemplo acima, uma solicitação que chega a "target1" será http://target1/test e, portanto, para outros servidores de destino.

Como definir opções do balanceador de carga

É possível ajustar a disponibilidade usando opções de balanceamento de carga e failover no nível do balanceador de carga e do TargetServer. Esta seção descreve essas opções.

Algoritmo

Define o algoritmo usado por <LoadBalancer>. Os algoritmos disponíveis são RoundRobin, Weighted e LeastConnections, cada um deles documentado abaixo.

Round robin

O algoritmo padrão, round-robin, encaminha uma solicitação para cada TargetServer na ordem em que os servidores estão listados na conexão HTTP do endpoint de destino. Exemplo:

<TargetEndpoint name="default">
  <HTTPTargetConnection>
      <LoadBalancer>
        <Algorithm>RoundRobin</Algorithm>
        <Server name="target1" />
        <Server name="target2" />
      </LoadBalancer>
      <Path>/test</Path>
  </HTTPTargetConnection>
</TargetEndpoint>

Ponderado

O algoritmo de balanceamento de carga ponderado permite configurar cargas de tráfego proporcionais para os TargetServers. O LoadBalancer ponderado distribui a solicitação para os TargetServers em proporção direta com o peso de cada TargetServer. Portanto, o algoritmo ponderado requer que você defina um atributo weight para cada TargetServer. Exemplo:

<TargetEndpoint name="default">
  <HTTPTargetConnection>
    <LoadBalancer>
      <Algorithm>Weighted</Algorithm>
      <Server name="target1">
        <Weight>1</Weight>
      </Server>
      <Server name="target2">
        <Weight>2</Weight>
      </Server>
    </LoadBalancer>
    <Path>/test</Path>
  </HTTPTargetConnection>
</TargetEndpoint>

Neste exemplo, duas solicitações serão roteadas para target2 para cada solicitação encaminhada para target1.

Escalonamento dinâmico

LoadBalancers configurados para usar o algoritmo de escalonamento dinâmico roteiam solicitações de saída para o TargetServer com menos conexões HTTP abertas. Exemplo:

<TargetEndpoint name="default">
  <HTTPTargetConnection>
      <LoadBalancer>
        <Algorithm>LeastConnections</Algorithm>
        <Server name="target1" />
        <Server name="target2" />
      </LoadBalancer>
  </HTTPTargetConnection>
  <Path>/test</Path>
</TargetEndpoint>

Máximo de falhas

O número máximo de solicitações com falha do proxy de API para o TargetServer que fazem com que a solicitação seja redirecionada para outro TargetServer.

Uma falha de resposta significa que a Apigee não recebe nenhuma resposta de um servidor de destino. Quando isso acontece, o contador de falhas é incrementado em um.

No entanto, quando a Apigee recebe uma resposta de um destino, mesmo que a resposta seja um erro HTTP (como 500), isso conta como uma resposta do servidor de destino e o contador de falhas é redefinido. Para garantir que respostas HTTP inadequadas (como 500) também incrementem o contador de falhas para tirar um servidor não íntegro da rotação de balanceamento de carga o mais rápido possível, adicione o elemento <ServerUnhealthyResponse> com elementos filhos <ResponseCode> à configuração do balanceador de carga. O Edge também contará as respostas com esses códigos como falhas.

No exemplo a seguir, o target1 será removido da rotação após cinco solicitações com falha, incluindo algumas respostas 5XX do servidor de destino.

<TargetEndpoint name="default">
  <HTTPTargetConnection>
      <LoadBalancer>
        <Algorithm>RoundRobin</Algorithm>
        <Server name="target1" />
        <Server name="target2" />
        <MaxFailures>5</MaxFailures>
        <ServerUnhealthyResponse>
            <ResponseCode>500</ResponseCode>
            <ResponseCode>502</ResponseCode>
            <ResponseCode>503</ResponseCode>
        </ServerUnhealthyResponse>
      </LoadBalancer>
      <Path>/test</Path>
  </HTTPTargetConnection>
</TargetEndpoint>

O padrão MaxFailures é 0. Isso significa que o Edge sempre tenta se conectar ao destino para cada solicitação e nunca remove o servidor de destino da rotação.

É melhor usar MaxFailures > 0 com um HealthMonitor. Se você configurar MaxFailures > 0, o TargetServer será removido da rotação quando o destino falhar no número de vezes indicado. Quando um HealthMonitor está em vigor, a Apigee coloca o TargetServer de novo em rotação automaticamente depois que o destino volta a funcionar, de acordo com a configuração desse HealthMonitor. Consulte Monitoramento de integridade para mais informações.

Como alternativa, se você configurar MaxFailures > 0 e não configurar um HealthMonitor, a Apigee não incluirá novamente o TargetServer na rotação automaticamente depois que a Apigee detectar uma falha. Nesse caso, é necessário reimplantar o proxy de API antes que a Apigee coloque o TargetServer novamente na rotação. Consulte Como implantar um proxy de API.

Tentar de novo

Se a nova tentativa for ativada, uma solicitação será repetida sempre que ocorrer uma falha de resposta (erro de E/S ou de tempo limite HTTP) ou a resposta recebida corresponder a um valor definido por <ServerUnhealthyResponse>. Consulte Máximo de falhas acima para mais informações sobre a configuração de <ServerUnhealthyResponse>.

Por padrão, <RetryEnabled> é definido como true. Defina como false para desativar a nova tentativa. Exemplo:

<RetryEnabled>false</RetryEnabled>

IsFallback

Um (e apenas um) TargetServer pode ser definido como o servidor substituto. O TargetServer substituto não será incluído nas rotinas de balanceamento de carga até que todos os outros TargetServers sejam identificados como indisponíveis pelo balanceador de carga. Quando o balanceador de carga determina que todos os TargetServers estão indisponíveis, todo o tráfego é roteado para o servidor substituto. Exemplo:

<TargetEndpoint name="default">
  <HTTPTargetConnection>
      <LoadBalancer>
        <Algorithm>RoundRobin</Algorithm>
        <Server name="target1" />
        <Server name="target2" />
        <Server name="target3">
          <IsFallback>true</IsFallback>
        </Server>
      </LoadBalancer>
      <Path>/test</Path>
  </HTTPTargetConnection>
</TargetEndpoint>

A configuração acima resulta em um balanceamento de carga round-robin entre os destinos 1 e 2 até que nenhum dos dois esteja disponível. Quando os destinos 1 e 2 não estão disponíveis, todo o tráfego é roteado para o destino 3.

Caminho

O caminho define um fragmento de URI que será anexado a todas as solicitações emitidas pelo TargetServer para o servidor de back-end.

Esse elemento aceita um caminho de string literal ou um modelo de mensagem. Um modelo de mensagem permite fazer substituição de strings variáveis no tempo de execução. Por exemplo, na definição do endpoint de destino a seguir, o valor de {mypath} é usado para o caminho:

<HTTPTargetConnection>
    <SSLInfo>
      <Enabled>true</Enabled>
    </SSLInfo>
    <LoadBalancer>
      <Server name="testserver"/>
    </LoadBalancer>
    <Path>{mypath}</Path>
</HTTPTargetConnection>

Como configurar um servidor de destino para TLS/SSL

Se você estiver usando um TargetServer para definir o serviço de back-end e esse serviço exigir a conexão para usar o protocolo HTTPS, será necessário ativar o TLS/SSL na definição do TargetServer. Isso é necessário porque a tag <Host> não permite que você especifique o protocolo de conexão. Veja abaixo a definição do TargetServer para TLS/SSL unidirecional em que o Edge faz solicitações HTTPS para o serviço de back-end:

<TargetServer name="target1">
  <Host>mocktarget.apigee.net</Host>
  <Port>443</Port>
  <IsEnabled>true</IsEnabled>
  <SSLInfo>
      <Enabled>true</Enabled>
  </SSLInfo> 
</TargetServer>

Se o serviço de back-end exigir o recurso TLS/SSL de duas vias ou mutuo, configure o TargetServer usando as mesmas definições de configuração do TLS/SSL que o TargetEndpoints:

<TargetServer  name="TargetServer 1">
    <IsEnabled>true</IsEnabled>
    <Host>www.example.com</Host>
    <Port>443</Port>
    <SSLInfo>
        <Ciphers/>
        <ClientAuthEnabled>true</ClientAuthEnabled>
        <Enabled>true</Enabled>
        <IgnoreValidationErrors>false</IgnoreValidationErrors>
        <KeyAlias>keystore-alias</KeyAlias>
        <KeyStore>keystore-name</KeyStore>
        <Protocols/>
        <TrustStore>truststore-name</TrustStore>
    </SSLInfo>
</TargetServer >

Para informações sobre as propriedades <SSLInfo>, como <Ciphers> e <ClientAuthEnabled>, consulte as informações sobre como definir essas propriedades para um host virtual em Como configurar o acesso TLS a uma API para a nuvem privada.

Para instruções completas sobre como configurar o TLS/SSL de saída, consulte Como configurar o TLS do Edge para o back-end (Cloud e nuvem privada).

Esquema TargetServer

Consulte o esquema do TargetServer e de outras entidades no GitHub.

Monitoramento de integridade

O monitoramento de integridade permite aprimorar as configurações de balanceamento de carga pesquisando ativamente os URLs de serviço de back-end definidos nas configurações do TargetServer. Com o monitoramento de integridade ativado, um TargetServer com falha é colocado automaticamente de volta na rotação quando o HealthMonitor determina que o TargetServer está ativo.

O monitoramento de integridade funciona com <MaxFailures>. Sem o monitoramento de integridade ativado, <MaxFailures> especifica o número máximo de solicitações com falha do proxy de API para o TargetServer que faz com que a solicitação seja redirecionada para outro TargetServer. O TargetServer com falha é retirado da rotação até você reimplantar o proxy.

Com o monitoramento de integridade ativado, um TargetServer com falha é colocado automaticamente de volta na rotação e não são necessárias reimplantações de proxy.

O HealthMonitor atua como um cliente simples que invoca um serviço de back-end por TCP ou HTTP:

  • Um cliente TCP simplesmente garante que um soquete possa ser aberto.
  • Você configura o cliente HTTP para enviar uma solicitação HTTP válida ao serviço de back-end. É possível definir operações HTTP GET, PUT, POST ou DELETE. A resposta da chamada do monitor HTTP precisa corresponder às definições definidas no bloco <SuccessResponse>.

Sucessos e falhas

Quando você ativa o monitoramento de integridade, o Edge começa a enviar verificações de integridade para o servidor de destino. Uma verificação de integridade é uma solicitação enviada ao servidor de destino que determina se ele está íntegro ou não.

Uma verificação de integridade pode ter um destes dois resultados:

  • Sucesso:o servidor de destino é considerado íntegro quando ocorre uma verificação de integridade. Isso normalmente é resultado de um ou mais dos seguintes procedimentos:
    • O servidor de destino aceita uma nova conexão com a porta especificada, responde a uma solicitação nessa porta e a fecha dentro do período especificado. A resposta do servidor de destino contém "Connection: close"
    • O servidor de destino responde a uma solicitação de verificação de integridade com um código 200 (OK) ou outro código de status HTTP que você determine como aceitável.
    • O servidor de destino responde a uma solicitação de verificação de integridade com um corpo de mensagem que corresponda ao esperado.

    Quando o Edge determina que um servidor está íntegro, ele continua ou retoma o envio de solicitações a ele.

  • Falha:a verificação de integridade pode falhar no servidor de destino de maneiras diferentes, dependendo do tipo de verificação. Uma falha pode ser registrada quando o servidor de destino:
    • Recusa uma conexão do Edge com a porta de verificação de integridade.
    • Não responde a uma solicitação de verificação de integridade dentro de um período especificado.
    • Retorna um código de status HTTP inesperado.
    • Responde com um corpo de mensagem que não corresponde ao corpo da mensagem esperado.

    Quando um servidor de destino falha em uma verificação de integridade, o Edge aumenta a contagem de falhas desse servidor. Se o número de falhas desse servidor atingir ou exceder um limite predefinido (<MaxFailures>), o Edge deixará de enviar solicitações para esse servidor.

Como ativar um HealthMonitor

Para criar um HealthMonitor, adicione o elemento <HealthMonitor> à configuração HTTPConnection do TargetEndpoint para um proxy. Não é possível fazer isso na IU. Em vez disso, crie uma configuração de proxy e faça upload dela como um arquivo ZIP para o Edge. Uma configuração de proxy é uma descrição estruturada de todos os aspectos de um proxy de API. As configurações de proxy consistem em arquivos XML em uma estrutura de diretórios predefinida. Para mais informações, consulte a Referência de configuração do proxy da API.

Um HealthMonitor simples define um IntervalInSec combinado com um TCPMonitor ou um HTTPMonitor. O elemento <MaxFailures> especifica o número máximo de solicitações com falha do proxy de API para o TargetServer que faz com que a solicitação seja redirecionada para outro TargetServer. Por padrão, <MaxFailures> é 0, o que significa que o Edge não realiza ações corretivas. Ao configurar um monitor de integridade, configure <MaxFailures> na tag <HTTPTargetConnection> da tag <TargetEndpoint> como um valor diferente de zero.

TCPMonitor

A configuração abaixo define um HealthMonitor que pesquisa cada TargetServer abrindo uma conexão na porta 80 a cada cinco segundos. A porta é opcional. Se não for especificada, a porta TCPMonitor será a TargetServer.

  • Se a conexão falhar ou levar mais de 10 segundos para se conectar, a contagem de falhas aumentará em 1 para esse TargetServer.
  • Se a conexão for bem-sucedida, a contagem de falhas para TargetServer será redefinida como 0.

É possível adicionar um HealthMonitor como um elemento filho do elemento HTTPTargetConnetion do TargetEndpoint, como mostrado abaixo:

<TargetEndpoint name="default">
  <HTTPTargetConnection>
      <LoadBalancer>
        <Algorithm>RoundRobin</Algorithm>
        <Server name="target1" />
        <Server name="target2" />
        <MaxFailures>5</MaxFailures>
      </LoadBalancer>
      <Path>/test</Path>
      <HealthMonitor>
        <IsEnabled>true</IsEnabled>
        <IntervalInSec>5</IntervalInSec>
        <TCPMonitor>
            <ConnectTimeoutInSec>10</ConnectTimeoutInSec>
            <Port>80</Port>
        </TCPMonitor>
      </HealthMonitor>
  </HTTPTargetConnection>
. . .

HealthMonitor com elementos de configuração TCPMonitor

A tabela a seguir descreve os elementos de configuração do TCPMonitor:

Nome Descrição Padrão Obrigatória?
IsEnabled É um booleano que ativa ou desativa o HealthMonitor. false Não
IntervalInSec O intervalo de tempo, em segundos, entre cada solicitação TCP de pesquisa. 0 Sim
ConnectTimeoutInSec Tempo em que a conexão com a porta TCP precisa ser estabelecida para ser considerada bem-sucedida. A falha de conexão no intervalo especificado conta como uma falha, aumentando a contagem de falhas do balanceador de carga do TargetServer. 0 Sim
Port Opcional. A porta em que a conexão TCP será estabelecida. Se não for especificada, a porta TCPMonitor será a TargetServer. 0 Não

HTTPMonitor

Uma amostra do HealthMonitor que usa um HTTPMonitor enviará uma solicitação GET para o serviço de back-end uma vez a cada cinco segundos. O exemplo abaixo adiciona um cabeçalho de autorização básica HTTP à mensagem de solicitação. A configuração de resposta define configurações que serão comparadas com a resposta real do serviço de back-end. No exemplo abaixo, a resposta esperada é um código de resposta HTTP 200 e um cabeçalho HTTP personalizado ImOK, com valor YourOK. Se a resposta não for correspondente, a solicitação será tratada como uma falha pela configuração do balanceador de carga.

O HTTPMonitor é compatível com serviços de back-end configurados para usar protocolos HTTP e HTTPS unidirecionais. No entanto, ele não é compatível com:

  • HTTPS bidirecional (também chamado de TLS/SSL bidirecional)
  • certificados autoassinados

Observe que todas as configurações de Solicitação e Resposta em um monitor HTTP serão específicas para o serviço de back-end que precisa ser invocado.

    <HealthMonitor>
      <IsEnabled>true</IsEnabled>
      <IntervalInSec>5</IntervalInSec>
      <HTTPMonitor>
        <Request>
          <IsSSL>true</IsSSL>
          <ConnectTimeoutInSec>10</ConnectTimeoutInSec>
          <SocketReadTimeoutInSec>30</SocketReadTimeoutInSec>
          <Port>80</Port>
          <Verb>GET</Verb>
          <Path>/healthcheck</Path>
          <Header name="Authorization">Basic 12e98yfw87etf</Header>
          <IncludeHealthCheckIdHeader>true</IncludeHealthCheckIdHeader>
        </Request>
        <SuccessResponse>
          <ResponseCode>200</ResponseCode>
          <Header name="ImOK">YourOK</Header>
        </SuccessResponse>
      </HTTPMonitor>
    </HealthMonitor>
    

HealthMonitor com elementos de configuração HTTPMonitor

A tabela a seguir descreve os elementos de configuração do HTTPMonitor:

Nome Descrição Padrão Obrigatória?
IsEnabled É um booleano que ativa ou desativa o HealthMonitor. false Não
IntervalInSec O intervalo de tempo, em segundos, entre cada solicitação de pesquisa. 0 Sim
Request

Opções de configuração para a mensagem de solicitação de saída enviada pelo HealthMonitor para os TargetServers na rotação.

O caminho não é compatível com variáveis.

N/A Sim
IsSSL Especifica se é necessário usar HTTPS (HTTP seguro) para monitorar conexões.

Possíveis valores:
  • true: HTTPs são usados.
  • false: o HTTP é usado.
  • Não especificado: usa a configuração do servidor de destino.
false Não
ConnectTimeoutInSec Tempo, em segundos, em que o handshake da conexão TCP com o serviço HTTP precisa ser concluído para ser considerado bem-sucedido Falha de conexão nos intervalos especificados conta como uma falha, incrementando a contagem de falhas do LoadBalancer para o TargetServer. 0 Não
SocketReadTimeoutInSec Tempo, em segundos, em que os dados precisam ser lidos do serviço HTTP para serem considerados bem-sucedidos. Falha ao ler o intervalo especificado conta como uma falha, incrementando a contagem de falhas do LoadBalancer para o TargetServer. 0 Não
Port A porta em que a conexão HTTP com o serviço de back-end será estabelecida. N/A Não
Verb O verbo HTTP usado para cada solicitação HTTP de pesquisa para o serviço de back-end. N/A Não
Path O caminho anexado ao URL definido no TargetServer. Use o elemento path para configurar uma "solicitação de endpoint" no serviço HTTP. N/A Não

IncludeHealthCheckIdHeader

Permite rastrear as solicitações de verificação de integridade em sistemas upstream. O IncludeHealthCheckIdHeader usa um valor booleano e o padrão é false. Se você defini-lo como true, haverá um Header chamado X-Apigee-Healthcheck-Id que é injetado na solicitação de verificação de integridade. O valor do cabeçalho é atribuído dinamicamente e assume a forma ORG/ENV/SERVER_UUID/N, em que ORG é o nome da organização, ENV é o nome do ambiente, SERVER_UUID é um ID exclusivo que identifica o MP, e N é o número de milissegundos decorridos desde 1º de janeiro de 1970.

Exemplo de cabeçalho de solicitação resultante:

X-Apigee-Healthcheck-Id: orgname/envname/E8C4D2EE-3A69-428A-8616-030ABDE864E0/1586802968123
false Não
Payload O corpo HTTP gerado para cada solicitação HTTP de pesquisa. Esse elemento não é necessário para solicitações GET. N/A Não
SuccessResponse Opções de correspondência para a mensagem de resposta HTTP de entrada gerada pelo serviço de back-end pesquisado. Respostas sem correspondência aumentam a contagem de falhas em 1. N/A Não
ResponseCode É o código de resposta HTTP esperado do servidor TargetServer pesquisado. Um código diferente do especificado especifica uma falha, e a contagem é incrementada para o serviço de back-end pesquisado. É possível definir vários elementos ResponseCode. N/A Não
Headers Uma lista de um ou mais cabeçalhos e valores HTTP que devem ser recebidos do serviço de back-end pesquisado. Todos os cabeçalhos ou valores HTTP na resposta que são diferentes daqueles especificados resultam em uma falha, e a contagem do TargetServer pesquisado é incrementada em 1. É possível definir vários elementos de cabeçalho. N/A Não