
Un environnement de laboratoire complet pour expérimenter l’observabilité, les tests de charge et l’analyse de métriques assistée par une IA locale (Ollama).
Afin d’améliorer mes compétences et d’apprendre les bonnes pratiques en DevOps et SRE, j’ai décidé d’explorer de nouveaux outils et technologies.
La meilleure façon d’apprendre étant de construire des projets concrets, j’ai créé cet environnement de laboratoire.
Le projet expose deux endpoints :
/health — permet de vérifier que l’application fonctionne et expose des métriques pour Prometheus/compute — permet d’exécuter des calculs intensifs et expose également des métriques pour PrometheusL’objectif est de générer de la charge via un script Python et d’observer les métriques en temps réel avec Prometheus et Grafana.
L’ensemble du projet est conteneurisé et orchestré avec Docker Compose.
Il est composé des services suivants :
/health — endpoint de vérification/compute — endpoint de calcul intensif