Beispiele und Quickstarts¶
Unter diesem Thema finden Sie mehrere Beispiele und Quickstarts für häufige Anwendungsfälle für Modellprotokollierung und Modellinferenz in Snowflake ML. Sie können diese Beispiele als Ausgangspunkt für Ihren eigenen Anwendungsfall verwenden.
Quickstart für Anfänger¶
Erste Schritte mit Snowflake ML: Trainieren Sie ein xgboost-Regressionsmodell, protokollieren Sie es in der Modell-Registry und führen Sie Inferenzen in einem Warehouse durch.
xgboost-Modell, CPU-Inferenz in Snowpark Container Services¶
Dieser Code veranschaulicht die wichtigsten Schritte bei der Bereitstellung eines XGBoost-Modells in Snowpark Container Services (SPCS) und der anschließenden Verwendung des bereitgestellten Modells für die Inferenz.
Protokollieren einer Pipeline mit benutzerdefinierter Vorverarbeitung und Modelltraining¶
Dieses Beispiel veranschaulicht, wie das geht:
Feature-Engineering durchführen
Trainieren Sie eine Pipeline mit benutzerdefinierten Vorverarbeitungsschritten und einem xgboost-Prognosemodell
Hyperparameter-Optimierung durchführen
Protokollieren Sie die optimale Pipeline
Führen Sie die Inferenz in einem Warehouse oder in Snowpark Container Services (SPCS) aus
Umfassendes Open-Source-Einbettungsmodell, GPU-Inferenz¶
In diesem Beispiel werden Snowflake Notebooks auf Container Runtime verwendet, um ein umfangreiches Einbettungsmodell aus der Hugging Face sentence_transformer
-Bibliothek zu trainieren und Vorhersagen in großem Maßstab mit GPUs auf Snowpark Container Services (SPCS) auszuführen.
Komplette Pipeline mit verteiltem PyTorch-Empfehlungsmodell, GPU-Inferenz¶
Dieses Beispiel zeigt, wie Sie ein verteiltes Pytorch-Empfehlungsmodell mit GPUs erstellen und das Modell für GPU-Inferenz auf Snowpark Container Services (SPCS) einsetzen.
Ein vorhandenes, extern trainiertes Modell (z. B. AWS Sagemaker/Azure ML/GCP Vertex AI) nach Snowflake übertragen¶
Diese Beispiele zeigen, wie Sie Ihr bestehendes Modell in AWS Sagemaker, Azure ML oder GCP Vertex AI in Snowflake übertragen können (siehe Blogbeitrag für weitere Details).
AWS und Azure ML Quickstart
GCP Vertex AI Quickstart
Ein MLFlow PyFunc-Modell zu Snowflake bereitstellen¶
Dieses Beispiel zeigt, wie Sie ein MLFlow PyFunc-Modell in der Snowflake Model Registry protokollieren und eine Inferenz durchführen.
Protokollieren eines partitionierten Prognosemodells für Training und Inferenz¶
Dieses Beispiel zeigt, wie Sie ein Prognosemodell protokollieren, um partitioniertes Training und Inferenz in Snowflake durchzuführen.
Protokollieren vieler Modelle als Sammlung, um partitionierte Interferenz in großem Maßstab durchzuführen¶
Dieses Beispiel zeigt, wie Sie Tausende von Modellen als benutzerdefiniertes partitioniertes Modell protokollieren können, um verteilte, partitionierte Inferenz durchzuführen.