Aller au contenu principal

Seldon Core

Overview

Seldon Core est une plateforme de déploiement de modèles ML sur Kubernetes. Elle permet de décrire des graphes de modèles (préprocess, modèle, postprocess), de gérer le routage de trafic et de monitorer les performances.

Seldon Core est adapté aux organisations qui ont déjà une culture MLOps et veulent industrialiser le déploiement de nombreux modèles sur Kubernetes. Très riche pour les architectures de modèles complexes, avec bon support des pratiques MLOps avancées et forte intégration Kubernetes.


Informations essentielles

PropriétéValeur
Site officielhttps://www.seldon.io/solutions/seldon-core
Repositoryhttps://github.com/SeldonIO/seldon-core
LicenceBusiness Source License 1.1 (BSL, source disponible)
TypeServing et orchestration de modèles ML
DéploiementKubernetes
Usage principalDéploiement et gestion de modèles en production
Public cibleÉquipes MLOps, plateformes

TL;DR

Seldon Core est adapté aux organisations qui ont déjà une culture MLOps et veulent industrialiser le déploiement de nombreux modèles sur Kubernetes.

Points clés à retenir :

  • Très riche pour les architectures de modèles complexes
  • Bon support des pratiques MLOps avancées
  • Forte intégration Kubernetes
  • Courbe d'apprentissage plus élevée que des solutions de serving simples
  • Peut être surdimensionné si tu n'as que quelques modèles peu critiques

Cas d'usage typiques

  • Exposer plusieurs modèles (ou versions) derrière une même API
  • Mettre en place du canary ou de l'A/B testing de modèles
  • Centraliser le monitoring de performance des modèles (latence, erreurs, dérive)

Avantages

  • Très riche pour les architectures de modèles complexes
  • Bon support des pratiques MLOps avancées
  • Forte intégration Kubernetes

Limites

  • Courbe d'apprentissage plus élevée que des solutions de serving simples
  • Peut être surdimensionné si tu n'as que quelques modèles peu critiques

Ressources