Distribuzione di un servizio di inferenza serverless con Amazon SageMaker Pipelines

Blog

Guida passo passo alle distribuzioni di modelli serverless con SageMaker.

La distribuzione di alcuni dei tuoi modelli ML in architetture serverless ti consente di creare servizi di inferenza scalabili, eliminare il sovraccarico operativo e passare più rapidamente alla produzione. Ho pubblicato esempi qui e qui che mostrano come puoi adottare tale architettura nei tuoi progetti.



In questo post, faremo un ulteriore passo avanti e automatizzeremo la distribuzione di tale servizio di inferenza serverless utilizzando Amazon SageMaker Pipelines.

Con SageMaker Pipelines, puoi accelerare la consegna di progetti ML end-to-end. Combina l'orchestrazione del flusso di lavoro ML, il registro dei modelli e CI/CD in un unico ombrello in modo da poter mettere rapidamente in produzione i tuoi modelli.



come vedere i tweet privati

Foto di SpaceX su Unsplash



Creeremo un progetto basato sul modello MLOps per la creazione di modelli, la formazione e l'implementazione forniti da SageMaker. Il progetto addestra un modello XGBoost di esempio sull'Abalone Dataset e lo distribuisce in un SageMaker Endpoint. Manterremo il lato build del modello e training del progetto e aggiorneremo la distribuzione del modello in modo che possa essere serverless.

Visita La creazione, l'automazione, la gestione e la scalabilità dei flussi di lavoro ML utilizzando Amazon SageMaker Pipelines e l'introduzione di Amazon SageMaker Pipelines potrebbe essere un buon inizio se questa funzionalità di SageMaker ti sembra nuova.

#mlops #sagemaker #aws #machine-learning #serverless

versodatascience.com

Distribuzione di un servizio di inferenza serverless con Amazon SageMaker Pipelines

Distribuzione di un servizio di inferenza serverless con Amazon SageMaker Pipelines, AWS Lambda, Amazon API Gateway e CDK. Guida passo passo alle distribuzioni di modelli serverless con SageMaker.