Aller au contenu principal

BentoML

Overview

BentoML permet de packager des modèles de machine learning ou de LLM en microservices prêts à être déployés en containers (Docker, Kubernetes), sur des plateformes serverless ou sur VM.

Il fournit une structure standard pour définir des endpoints, charger des modèles et gérer la configuration d'inférence. Cadre clair pour packager et déployer des modèles, avec intégration aisée dans des pipelines CI/CD existants ; idéal pour des stacks mixtes data science et DevOps.


Informations essentielles

PropriétéValeur
Site officielhttps://www.bentoml.com
Repositoryhttps://github.com/bentoml/BentoML
LicenceApache-2.0
TypePackaging et serving de modèles
DéploiementDocker, Kubernetes, serverless, VM
Usage principalExposer des modèles sous forme d'API
Public cibleMLOps, plateformes, SRE

TL;DR

Si tu veux transformer des notebooks ou scripts ML en services d'inférence robustes, BentoML est une option très pratique.

Points clés à retenir :

  • Cadre clair pour packager et déployer des modèles
  • Intégration aisée avec des pipelines CI/CD existants
  • Idéal pour des stacks mixtes data science / DevOps
  • Nécessite une bonne discipline d'industrialisation côté data science

Cas d'usage typiques

  • Passer d'un POC Jupyter à une API déployable (Docker/K8s)
  • Standardiser le packaging des modèles dans une équipe de data scientists
  • Combiner plusieurs modèles ou étapes dans un même service (pré/post-process)

Avantages

  • Cadre clair pour packager et déployer des modèles
  • Intégration aisée avec des pipelines CI/CD existants
  • Idéal pour des stacks mixtes data science / DevOps

Limites

  • Nécessite une bonne discipline d'industrialisation côté data science
  • Ajoute une couche supplémentaire par rapport à un serving brut dans l'application

Ressources