fix(hydra): use same liveness URL as ory's helm #63
Loading…
x
Reference in New Issue
Block a user
No description provided.
Delete Branch "fix/hydra_liveness_probe_url"
Deleting a branch is permanent. Although the deleted branch may continue to exist for a short time before it actually gets removed, it CANNOT be undone in most cases. Continue?
Le fetch du .well-known/openid-configuration peut peut-être impliquer un accès à la BDD. Dans le doute, on peut utiliser /health/alive comme le helm de chez Ory.
J'ai un petit doute sur l'usage du
alive
?Si j'en crois le code, il va toujours répondre
200
à partir du moment où le service est démarré (cf. https://github.com/ory/x/blob/master/healthx/handler.go#L129-L133). Ça ne donne pas d'information sur le fait que le service est "prêt" à être utilisé (au sens Kubernetesready
).Il faudrait peut être vérifier également dans la chart Helm si il n'y a pas également une vérification sur le endpoint
health/ready
? (cf. https://github.com/ory/x/blob/master/healthx/handler.go#L165-L190) ?Le endpoint "/health/ready" me semble également plus approprié.
Attention aux logs quand même :
https://github.com/ory/hydra/issues/1839
https://www.ory.sh/docs/hydra/reference/api#tag/metadata/operation/isReady
Ce qui est fait dans le helm d'ory :
Je pense qu'il est nécessaire de vérifier
/health/ready
. Dans le doute, je pense qu'il vaut mieux faire comme ory et laisser le livenessProbe avec/health/alive
et ajouter les 2 autres sondes vers/health/ready
Par rapport aux logs générés par les appels à ces 2 endpoints : il est vrai qu'hydra spam 4 lignes toutes les 10s par pod.
Mais d'un autre coté, ça montre que c'est vivant. Encore de l'autre coté, est-ce que ce n'est pas à kubernetes de gérer ça et finalement on pourrait se passer de ces logs même en cas de failure d'hydra ?
Dans le doute, j'ai poussé un commit pour ajouter une variable d'environnement qui désactive par défaut ces logs.