Beispiele und Quickstarts

Unter diesem Thema finden Sie mehrere Beispiele und Quickstarts für häufige Anwendungsfälle für Modellprotokollierung und Modellinferenz in Snowflake ML. Sie können diese Beispiele als Ausgangspunkt für Ihren eigenen Anwendungsfall verwenden.

Quickstart für Anfänger

Erste Schritte mit Snowflake ML: Trainieren Sie ein xgboost-Regressionsmodell, protokollieren Sie es in der Modell-Registry und führen Sie Inferenzen in einem Warehouse durch.

Quickstart

xgboost-Modell, CPU-Inferenz in Snowpark Container Services

Dieser Code veranschaulicht die wichtigsten Schritte bei der Bereitstellung eines XGBoost-Modells in Snowpark Container Services (SPCS) und der anschließenden Verwendung des bereitgestellten Modells für die Inferenz.

Beispiel

Protokollieren einer Pipeline mit benutzerdefinierter Vorverarbeitung und Modelltraining

Dieses Beispiel veranschaulicht, wie das geht:

  • Feature-Engineering durchführen

  • Trainieren Sie eine Pipeline mit benutzerdefinierten Vorverarbeitungsschritten und einem xgboost-Prognosemodell

  • Hyperparameter-Optimierung durchführen

  • Protokollieren Sie die optimale Pipeline

  • Führen Sie die Inferenz in einem Warehouse oder in Snowpark Container Services (SPCS) aus

Beispiel-Notebook

Umfassendes Open-Source-Einbettungsmodell, GPU-Inferenz

In diesem Beispiel werden Snowflake Notebooks auf Container Runtime verwendet, um ein umfangreiches Einbettungsmodell aus der Hugging Face sentence_transformer-Bibliothek zu trainieren und Vorhersagen in großem Maßstab mit GPUs auf Snowpark Container Services (SPCS) auszuführen.

Quickstart

Komplette Pipeline mit verteiltem PyTorch-Empfehlungsmodell, GPU-Inferenz

Dieses Beispiel zeigt, wie Sie ein verteiltes Pytorch-Empfehlungsmodell mit GPUs erstellen und das Modell für GPU-Inferenz auf Snowpark Container Services (SPCS) einsetzen.

Quickstart

Ein vorhandenes, extern trainiertes Modell (z. B. AWS Sagemaker/Azure ML/GCP Vertex AI) nach Snowflake übertragen

Diese Beispiele zeigen, wie Sie Ihr bestehendes Modell in AWS Sagemaker, Azure ML oder GCP Vertex AI in Snowflake übertragen können (siehe Blogbeitrag für weitere Details).

Ein MLFlow PyFunc-Modell zu Snowflake bereitstellen

Dieses Beispiel zeigt, wie Sie ein MLFlow PyFunc-Modell in der Snowflake Model Registry protokollieren und eine Inferenz durchführen.

Beispiel

Protokollieren eines partitionierten Prognosemodells für Training und Inferenz

Dieses Beispiel zeigt, wie Sie ein Prognosemodell protokollieren, um partitioniertes Training und Inferenz in Snowflake durchzuführen.

Quickstart

Protokollieren vieler Modelle als Sammlung, um partitionierte Interferenz in großem Maßstab durchzuführen

Dieses Beispiel zeigt, wie Sie Tausende von Modellen als benutzerdefiniertes partitioniertes Modell protokollieren können, um verteilte, partitionierte Inferenz durchzuführen.

Quickstart

OSZAR »