IA & Assistants : usages concrets pour DevOps, SRE & IT
IA & Assistants

Introduction
L'IA générative et les LLM sont partout, mais tout n'est pas utile ni pertinent pour des équipes DevOps, SRE ou d'infra. Cette rubrique se concentre sur les cas d'usage concrets qui améliorent réellement le quotidien : accélérer la lecture et l'écriture de code (scripts, pipelines, IaC, runbooks), enrichir l'observabilité et la gestion d'incidents avec des explications et corrélations, mettre en place des assistants internes (ChatOps, RAG sur la doc) qui respectent les contraintes de confidentialité, et déployer des modèles IA (classiques ou LLM) sur son infra (Kubernetes, VMs, bare-metal).
Les fiches de cette rubrique décrivent les outils open source et patterns d'architecture adaptés à ces usages, avec le même format que le reste du référentiel : Overview, Informations essentielles, TL;DR, Avantages et limites, Ressources.
Le rôle de l'IA et des assistants
Les assistants IA et les LLM permettent d'automatiser ou d'accélérer des tâches répétitives, de mieux exploiter la documentation et les logs, et de déployer des modèles en interne pour garder le contrôle des données. Pour les équipes techniques, les bénéfices concrets concernent la productivité sur le code, la réduction du temps de recherche d'information, et la possibilité d'avoir un premier niveau de support ou de diagnostic assisté par l'IA.
Cette rubrique ne couvre pas l'IA générique mais uniquement les usages pertinents pour DevOps, SRE et IT : assistants de code, ChatOps, observabilité augmentée, serving de modèles et bases vectorielles pour la recherche sémantique et le RAG.
Les grandes familles de la rubrique
Cette rubrique couvre les briques et outils open source utiles pour intégrer l'IA dans les pratiques DevOps, SRE et IT.
Assistants pour développeurs
Outils qui aident à écrire, refactorer et comprendre du code : IDE, terminal, revue de code, génération de tests, documentation. OpenCode, Continue.dev, Tabby, Open WebUI permettent d'utiliser des modèles locaux ou distants pour accélérer le développement et les tâches d'ops (scripts, IaC, runbooks).
ChatOps & assistants d'équipe
Bots et assistants intégrés à Slack, Mattermost ou Teams, qui répondent aux questions à partir de la documentation interne, des runbooks et de l'historique d'incidents. Objectif : réduire le temps de recherche d'information et faciliter l'onboarding ou la rotation d'astreinte.
Observabilité & SRE augmentés par l'IA
L'IA peut aider à regrouper des alertes liées à la même cause, proposer une explication de premier niveau (RCA), proposer des pistes de debug ou des requêtes utiles, et permettre une recherche sémantique dans les logs, traces et métriques. Les fiches couvrent des briques open source intégrables au stack existant (Prometheus, Loki, Jaeger).
Infra & serving de modèles
Outils pour déployer et exposer des modèles ML ou LLM : serving sur Kubernetes (KServe, Seldon Core), packaging en microservices (BentoML), serving haute performance de LLM (vLLM, TGI). C'est la couche infra IA qui intéresse les équipes plateforme et SRE.
Bases vectorielles & recherche sémantique
Les bases vectorielles sont au cœur des assistants internes et des approches RAG (Retrieval Augmented Generation). Elles permettent de stocker des embeddings de la documentation ou des logs, puis de retrouver l'information pertinente à partir d'une question en langage naturel. Qdrant, Milvus, Weaviate, pgvector sont des options open source détaillées dans les fiches.
Repères de choix
Usage personnel vs équipe
Les assistants de code (Continue, Tabby, OpenCode) peuvent être utilisés en local ou déployés pour toute l'équipe. Pour le ChatOps et les assistants documentaires, un déploiement centralisé (bot + RAG + LLM) est nécessaire ; le choix des sources indexées et des droits d'accès est alors crucial.
Cloud vs on-premises
De nombreux outils supportent des modèles cloud (OpenAI, Anthropic, etc.) et des modèles locaux ou self-hosted (Ollama, vLLM, TGI). Pour les contextes sensibles, les fiches indiquent les options permettant de tout garder en interne.
Complexité opérationnelle
Une base vectorielle dédiée (Qdrant, Milvus) offre plus de performances à grande échelle mais ajoute une brique à opérer ; pgvector permet de rester dans PostgreSQL. De même, un serving de modèles (vLLM, KServe) demande une infrastructure et des compétences adaptées ; les fiches décrivent les avantages et limites de chaque option.
Conclusion
Cette rubrique détaille les outils et patterns d'architecture IA utiles aux équipes DevOps, SRE et IT. Chaque sous-rubrique explore les solutions open source disponibles, leurs caractéristiques, avantages et limites. L'objectif est d'aider à choisir les briques les plus adaptées à son contexte (développement, production, cloud, on-premises) et à comprendre les compromis entre simplicité, fonctionnalités et complexité opérationnelle.
Que vous cherchiez un assistant de code, un bot ChatOps sur votre documentation interne, ou une plateforme pour servir des modèles IA, les fiches détaillées ci-dessous vous guideront dans votre exploration et votre sélection.
🗃️ Assistants pour développeurs
6 éléments
🗃️ Bases vectorielles & recherche sémantique
4 éléments
🗃️ Infra & Serving de modèles
5 éléments
🗃️ Observabilité & SRE augmentés
2 éléments