La supervision (monitoring) correspond au processus de collecte, d’analyse et d’utilisation des informations des équipements physiques et logiciels qui composent le SI, afin de suivre les progrès d’un programme vers la réalisation de ses objectifs, de détecter les éventuels dysfonctionnements et de garantir son fonctionnement optimal à tout moment. Ce suivi porte sur l’observation de paramètres spécifiques et peut fournir bien des données supplémentaires. Mais il est généralement considéré indépendamment du contexte plus large du système.
La supervision consiste à surveiller un système à l’aide d’indicateurs connus à l’avance.
C’est une approche réactive : on définit ce qu’on veut surveiller, puis on vérifie que tout reste dans des valeurs normales.
Cela repose typiquement sur :
- des métriques (CPU, mémoire, température…),
- des alertes (seuils dépassés),
- des dashboards (Grafana, Zabbix…).
## Observabilité
L’observabilité désigne quant à elle la capacité de comprendre l’état interne d’un système en analysant les données observables dont font partie les artefacts numérisés, tels que les journaux, les traces, les appels API, le temps d’attente, les téléchargements et les transferts de fichiers, qui sont générés lorsqu’une partie prenante prend une mesure quelconque. L’observabilité aide les équipes à analyser ce qui se passe afin de pouvoir détecter et résoudre les causes sous-jacentes des problèmes.
Si l’on devait résumer : la surveillance permet de connaître la situation d’un système, tandis que l’observabilité aide à déterminer plus précisément ce qui se passe et ce qu’il convient de faire.
La journalisation désigne la pratique consistant à enregistrer les événements qui se produisent dans un système, tels que les erreurs, les avertissements et les messages informatifs.
Chaque entrée de journal (log) contient des informations sur un événement survenu à un moment précis, ce qui aide au suivi du système et au débogage.
- Stocker les logs dans un système de stockage persistant (ex. Elasticsearch) afin de pouvoir les consulter et les analyser sur le long terme.
- Utiliser des outils de visualisation comme Kibana pour interroger, filtrer et visualiser les données de log.
### Métriques (mesures quantitatives)
Les métriques sont des représentations numériques de données qui décrivent le comportement de composants ou de services au fil du temps.
Elles permettent d’obtenir une vision sur les performances et l’état de santé d’un système.
Les métriques sont généralement agrégées dans le temps, afin d’identifier des **tendances** ou des anomalies.
Elles permettent de comprendre des indicateurs usuels de performance d’un système, tels que :
- les temps de réponse,
- les taux d’erreur,
- l’utilisation des ressources (CPU, mémoire, réseau, etc.).
La plupart des bibliothèques de programmation intègrent des mécanismes pour collecter et exposer des métriques.
Dans certains environnements, des bibliothèques dédiées aux métriques peuvent envoyer les données vers des endpoints prévus pour la supervision.
### Traçage (chemin d'une requête)
Le traçage consiste à capturer le parcours d’une requête à travers les différents composants d’un système.
Il permet de comprendre comment les services interagissent entre eux lors de l’exécution d’une même requête.
Chaque trace est associée à un identifiant global (trace ID) transmis à travers l’ensemble des services impliqués.
Des outils de traçage distribué comme Jaeger ou Zipkin permettent de visualiser le chemin parcouru par la requête, afin d’identifier facilement les goulots d’étranglement ou les points de défaillance.
OpenTelemetry fournit une approche standardisée pour implémenter le traçage dans différents langages de programmation.
Le traçage permet de mettre en évidence des problèmes de performance à divers niveaux de l’architecture des services.