Passer au contenu principal
Google Cloud
Documentation Domaines technologiques
  • IA et ML
  • Développement d'applications
  • Hébergement d'applications
  • Calcul
  • Analyses de données et pipelines
  • Bases de données
  • Solutions distribuées, hybrides et multicloud
  • IA générative
  • Solutions par secteur d'activité
  • Mise en réseau
  • Observabilité et surveillance
  • Sécurité
  • Storage
Outils de produits croisés
  • Gestion des accès et des ressources
  • Gestion des coûts et de l'utilisation
  • Google Cloud SDK, langages, frameworks et outils
  • Infrastructure as Code
  • Migration
Sites connexes
  • Accueil Google Cloud
  • Essai sans frais et niveau gratuit
  • Architecture Center
  • Blog
  • Contacter le service commercial
  • Google Cloud Developer Center
  • Google Developer Center
  • Google Cloud Marketplace
  • Documentation de Google Cloud Marketplace
  • Google Cloud Skills Boost
  • Google Cloud Solution Center
  • Assistance Google Cloud
  • Chaîne YouTube Google Cloud Tech
  • English
  • Deutsch
  • Español
  • Español – América Latina
  • Français
  • Indonesia
  • Italiano
  • Português
  • Português – Brasil
  • 中文 – 简体
  • 中文 – 繁體
  • 日本語
  • 한국어
Console Connexion
  • Vertex AI
Guides Référence Exemples Assistance Ressources
Nous contacter Commencer l'essai gratuit
Google Cloud
  • Documentation
    • Guides
    • Référence
    • Exemples
    • Assistance
    • Ressources
  • Domaines technologiques
    • Plus
  • Outils de produits croisés
    • Plus
  • Sites connexes
    • Plus
  • Console
  • Nous contacter
  • Commencer l'essai gratuit
  • Découvrir
  • Aperçu
  • Présentation de Vertex AI
  • MLOps sur Vertex AI
  • Interfaces pour Vertex AI
  • Guides du débutant pour Vertex AI
    • Entraîner un modèle AutoML
    • Entraîner un modèle personnalisé
    • Obtenir des inférences à partir d'un modèle personnalisé
    • Entraîner un modèle à l'aide de Vertex AI et du SDK Python
      • Présentation
      • Conditions préalables
      • Créer un notebook
      • Créer un ensemble de données
      • Créer un script d'entraînement
      • Entraîner un modèle
      • Faire une inférence
  • Frameworks de ML intégrés
    • PyTorch
    • TensorFlow
  • Vertex AI pour les utilisateurs de BigQuery
  • Glossaire
  • Premiers pas
  • Configurer un projet et un environnement de développement
  • installer le SDK Vertex AI pour Python ;
  • Choisir une méthode d'entraînement
  • Suivez un tutoriel
    • Présentation des tutoriels
    • Tutoriels AutoML
      • Données d'images Hello
        • Aperçu
        • Configurer votre projet et votre environnement
        • Créer un ensemble de données et importer des images
        • Entraîner un modèle de classification d'images AutoML
        • Évaluer et analyser les performances du modèle
        • Déployer un modèle sur un point de terminaison et effectuer une inférence
        • Nettoyer votre projet
      • Données tabulaires Hello
        • Aperçu
        • Configurer votre projet et votre environnement
        • Créer un ensemble de données et entraîner un modèle de classification AutoML
        • Déployer un modèle et demander une inférence
        • Nettoyer votre projet
    • Tutoriels sur l'entraînement personnalisé
      • Entraîner un modèle tabulaire personnalisé
      • Entraîner un modèle de classification d'images TensorFlow Keras
        • Aperçu
        • Configurer votre projet et votre environnement
        • Entraîner un modèle de classification d'images personnalisé
        • Diffuser des prédictions à partir d'un modèle de classification d'images personnalisé
        • Nettoyer votre projet
      • Ajuster un modèle de classification d'images avec des données personnalisées
    • Tutoriels sur les notebooks d'entraînement personnalisé
  • Utiliser l'IA générative et les LLM
  • À propos de l'IA générative
  • Utiliser les outils de développement Vertex AI
  • Présentation des outils de développement
  • Utiliser le SDK Vertex AI
    • Aperçu
    • Présentation du SDK Vertex AI pour Python
    • Classes du SDK Vertex AI pour Python
      • Présentation des classes du SDK Vertex AI
      • Classes de données
      • Classes d'entraînement
      • Classes de modèles
      • Classes de prédiction
      • Classes de suivi
  • Utiliser Vertex AI dans des notebooks
    • Choisir une solution de notebook
    • Colab Enterprise
      • Guide de démarrage rapide : créer un notebook à l'aide de la console
      • Se connecter à un environnement d'exécution
      • Gérer les environnements d'exécution et les modèles d'environnement d'exécution
        • Créer un modèle d'environnement d'exécution
        • Créer un environnement d'exécution
    • Vertex AI Workbench
      • Présentation
      • Tutoriels sur les notebooks
      • Premiers pas
        • Créer une instance à l'aide de la console
        • Planifier une exécution de notebook
      • Configurer une instance
        • Créer une instance
        • Créer une version spécifique d'une instance
        • Créer une instance avec accès aux identifiants utilisateur
        • Créer une instance avec l'informatique confidentielle
        • Ajouter un environnement Conda
        • Arrêt en cas d'inactivité
        • Créer une instance à l'aide d'un conteneur personnalisé
        • Créer une instance exploitant Dataproc
        • Créer une instance avec des identifiants tiers
        • Gérer les caractéristiques via les métadonnées
        • Utiliser les réservations
      • Associer à des données
        • Interroger les données dans BigQuery à partir de JupyterLab
        • Accéder aux fichiers et buckets Cloud Storage dans JupyterLab
      • Explorer et visualiser des données
        • Explorer et visualiser les données dans BigQuery
      • Entretenir
        • Gérer votre environnement Conda
        • Sauvegarde et restauration
          • Enregistrer un notebook sur GitHub
          • Utiliser un instantané
          • Utiliser Cloud Storage
        • Arrêter une instance
        • Mettre à niveau l'environnement d'une instance
        • Accéder à JupyterLab à l'aide de SSH
        • Migrer des données vers une nouvelle instance
        • Modifier le type de machine et configurer les GPU
        • Provisionner des ressources à l'aide de Terraform
      • Surveiller
        • Surveiller l'état
      • Contrôler les accès
        • Contrôle d'accès
        • Gérer l'accès à une instance
        • Gérer l'accès à l'interface JupyterLab d'une instance
        • Utiliser les clés de chiffrement gérées par le client
        • Utiliser une instance dans un périmètre de service
      • Résoudre les problèmes liés à Vertex AI Workbench
      • Notes de version de Vertex AI Workbench
      • Notebooks gérés
        • Présentation des notebooks gérés
        • Premiers pas
          • Créer une instance de notebooks gérés à l'aide de Cloud Console
          • Planifier l'exécution d'un notebook géré
        • Configurer une instance de notebooks gérés
          • Créer une instance avec un conteneur personnalisé
          • Exécuter une instance de notebooks gérés sur un cluster Dataproc
          • Utiliser Dataproc sans serveur Spark avec des notebooks gérés
          • Arrêt en cas d'inactivité
          • Versions de notebooks gérés
        • Associer à des données
          • Interroger les données dans BigQuery à partir de JupyterLab
          • Accéder aux fichiers et buckets Cloud Storage dans JupyterLab
        • Explorer et visualiser des données
          • Aperçu
          • Explorer et visualiser les données dans BigQuery
        • Développer un modèle
          • Développement de modèles dans une instance de notebooks gérés
        • Déployer
          • Exécuter des fichiers notebook avec l'exécuteur
          • Exécuter des exécutions de notebook avec des paramètres
        • Entretenir
          • Migrer vers une instance Vertex AI Workbench
          • Enregistrer un notebook sur GitHub
          • Modifier le type de machine et configurer les GPU d'une instance de notebooks gérés
          • Mettre à niveau l'environnement d'une instance de notebooks gérés
          • Migrer des données vers une nouvelle instance de notebooks gérés par l'utilisateur
        • Surveiller
          • Journaux d'audit
        • Contrôler les accès
          • Contrôle d'accès
          • Gérer l'accès à une instance
          • Gérer l'accès à l'interface JupyterLab d'une instance
          • Utiliser les clés de chiffrement gérées par le client
          • Configurer un réseau
          • Utiliser une instance de notebook gérée dans un périmètre de service
        • Résoudre les problèmes liés aux notebooks gérés
      • Notebooks gérés par l'utilisateur
        • Présentation des notebooks gérés par l'utilisateur
        • Premiers pas
          • Créer une instance de notebooks gérés par l'utilisateur à l'aide de Cloud Console
        • Configurer une instance de notebooks gérés par l'utilisateur
          • Créer une version spécifique d'une instance
          • Installer des dépendances
          • Choisir une image de machine virtuelle
          • Créer une instance avec un conteneur personnalisé
        • Explorer les données
          • Data science avec R sur Google Cloud : tutoriel d'analyse de données exploratoire
        • Surveiller
          • Surveiller l'état
          • Journaux d'audit
        • Contrôler les accès
          • Contrôle d'accès
          • Gérer l'accès à une instance
          • Gérer l'accès à l'interface JupyterLab d'une instance
          • Clés de chiffrement gérées par le client
          • Utiliser une instance de notebooks gérés par l'utilisateur dans un périmètre de service
          • Utiliser une machine virtuelle protégée avec des notebooks gérés par l'utilisateur
          • Tutoriel : Créer une instance de notebook dans un réseau VPC
        • Entretenir
          • Migrer vers une instance Vertex AI Workbench
          • Enregistrer un notebook sur GitHub
          • Sauvegarder vos données à l'aide d'un instantané
          • Arrêter une instance de notebooks gérés par l'utilisateur
          • Modifier le type de machine et configurer les GPU d'une instance de notebooks gérés par l'utilisateur
          • Mettre à niveau l'environnement d'une instance de notebooks gérés par l'utilisateur
          • Migrer des données vers une nouvelle instance de notebooks gérés par l'utilisateur
          • Enregistrer une ancienne instance avec l'API Notebooks
          • Accéder à JupyterLab à l'aide de SSH
        • Résoudre les problèmes liés aux notebooks gérés par l'utilisateur
  • Compatibilité de Terraform avec Vertex AI
  • Développement de modèles d'IA prédictive
  • Aperçu
  • Développement de modèles AutoML
    • Présentation de l'entraînement AutoML
    • Données d'image
      • Classification
        • Préparer les données
        • Créer un ensemble de données
        • Entraîner le modèle
        • Évaluer le modèle
        • Obtenir des prédictions
        • Interpréter les résultats
      • Détection d'objets
        • Préparer les données
        • Créer un ensemble de données
        • Entraîner le modèle
        • Évaluer le modèle
        • Obtenir des prédictions
        • Interpréter les résultats
      • Encoder des données d'image en Base64
      • Exporter un modèle AutoML Edge
    • Données tabulaires
      • Aperçu
      • Présentation des données tabulaires
      • Workflows tabulaires
        • Aperçu
        • Ingénierie des caractéristiques
        • AutoML de bout en bout
          • Aperçu
          • Entraîner un modèle
          • Obtenir des inférences en ligne
          • Obtenir des inférences par lot
        • TabNet
          • Aperçu
          • Entraîner un modèle
          • Obtenir des inférences en ligne
          • Obtenir des inférences par lot
        • Wide & Deep
          • Aperçu
          • Entraîner un modèle
          • Obtenir des inférences en ligne
          • Obtenir des inférences par lot
        • Prévision
          • Aperçu
          • Entraîner un modèle
          • Obtenir des inférences en ligne
          • Obtenir des inférences par lot
        • Tarifs
        • Service Accounts
        • Gérer les quotas
      • Effectuer des classifications et des régressions avec AutoML
        • Aperçu
        • Guide de démarrage rapide : Classification AutoML (console Cloud)
        • Préparer les données d'entraînement
        • Créer un ensemble de données
        • Entraîner un modèle
        • Évaluer le modèle
        • Afficher l'architecture du modèle
        • Obtenir des inférences en ligne
        • Obtenir des inférences par lot
        • Exporter le modèle
      • Effectuer des prévisions avec AutoML
        • Aperçu
        • Préparer les données d'entraînement
        • Créer un ensemble de données
        • Entraîner un modèle
        • Évaluer le modèle
        • Obtenir des inférences
        • Prévisions hiérarchiques
      • Effectuer des prévisions avec ARIMA+
      • Effectuer des prévisions avec Prophet
      • Effectuer un rapprochement d'entités
      • Attributions de caractéristiques pour la classification et la régression
      • Attributions de caractéristiques pour la prévision
      • Types de données et transformations pour les données tabulaires AutoML
      • Paramètres d'entraînement pour les prévisions
      • Fractionnement des données pour les données tabulaires
      • Bonnes pratiques pour la création de données tabulaires d'entraînement
      • Effectuer des prévisions avec Timeseries Insights
    • Entraîner un modèle AutoML Edge
      • Utiliser la console
      • Utiliser l'API
    • AutoML Text
      • Migrer de AutoML Text vers Gemini
      • Gemini pour les utilisateurs AutoML Text
  • Vertex AI Training
    • Présentation de l'entraînement personnalisé dans Vertex AI
    • Charger et préparer des données
      • Présentation de la préparation des données
      • Utiliser Cloud Storage comme système de fichiers installé
      • Installer un partage NFS pour l'entraînement personnalisé
      • Utiliser des ensembles de données gérés
    • Préparer l'application d'entraînement
      • Comprendre le service d'entraînement personnalisé
      • Préparer le code d'entraînement
      • Utiliser des conteneurs prédéfinis
        • Créer une application d'entraînement Python pour un conteneur prédéfini
        • Conteneurs préconfigurés pour l'entraînement personnalisé
      • Utiliser des conteneurs personnalisés
        • Conteneurs personnalisés pour l'entraînement
        • Créer un conteneur personnalisé
        • Conteneuriser et exécuter du code d'entraînement en local
      • Utiliser des images et conteneurs Deep Learning VM
    • Définir un entraînement sur une ressource persistante
      • Aperçu
      • Créer une ressource persistante
      • Exécuter des jobs d'entraînement sur une ressource persistante
      • Obtenir des informations sur des ressources persistantes
      • Redémarrer une ressource persistante
      • Supprimer une ressource persistante
    • Configurer le job d'entraînement
      • Choisir une méthode d'entraînement personnalisé
      • Configurer les paramètres du conteneur pour l'entraînement
      • Configurer des ressources de calcul pour l'entraînement
      • Utiliser les réservations avec l'entraînement
      • Utiliser des VM Spot pour l'entraînement
    • Envoyer une tâche d'entraînement
      • Créer des tâches personnalisées
      • Réglages d'hyperparamètres
        • Présentation des réglages d'hyperparamètres
        • Utiliser les réglages d'hyperparamètres
      • Créer des pipelines d'entraînement
      • Planifier des jobs en fonction de la disponibilité des ressources
      • Utiliser l'entraînement distribué
      • Entraîner avec des VM Cloud TPU
      • Utiliser une adresse IP privée pour l'entraînement personnalisé
      • Utiliser l'interface Private Service Connect pour l'entraînement (recommandé)
    • Lancer une recherche Neural Architecture Search
      • Aperçu
      • Configurer l'environnement
      • Tutoriels de niveau débutant
      • Bonnes pratiques et workflow
      • Conception des tâches de proxy
      • Optimiser la vitesse d'entraînement pour PyTorch
      • Utiliser des conteneurs d'entraînement et des espaces de recherche prédéfinis
    • Surveiller et déboguer
      • Surveiller et déboguer l'entraînement à l'aide d'une interface système interactive
      • Profiler les performances d'entraînement de modèle
    • Définir une optimisation à l'aide de Vertex AI Vizier
      • Présentation de Vertex AI Vizier
      • Créer des études Vertex AI Vizier
      • Tutoriels sur les notebooks Vertex AI Vizier
    • Obtenir des inférences
    • Tutoriel : Créer un pipeline pour l'entraînement continu
    • Créer des contraintes personnalisées liées aux règles d'administration
  • Ray sur Vertex AI
    • Présentation de Ray sur Vertex AI
    • Configurer Ray sur Vertex AI
    • Créer un cluster Ray sur Vertex AI
    • Surveiller des clusters Ray sur Vertex AI
    • Ajuster la capacité d'un cluster Ray sur Vertex AI
    • Développer une application Ray sur Vertex AI
    • Exécuter Spark sur un cluster Ray sur Vertex AI
    • Utiliser Ray sur Vertex AI avec BigQuery
    • Déployer un modèle et obtenir des inférences
    • Supprimer un cluster Ray
    • Tutoriels sur les notebooks Ray sur Vertex AI
  • Développement de modèles d'IA générative
  • Aperçu
  • Créer et gérer des ensembles de données
  • Aperçu
  • Divisions de données pour les modèles AutoML
  • Créer un ensemble d'annotations
  • Supprimer un ensemble d'annotations
  • Ajouter des libellés (console)
  • Exporter des métadonnées et des annotations à partir d'un ensemble de données
  • Gérer les versions d'un ensemble de données
  • Utiliser Data Catalog pour rechercher des ressources de modèles et d'ensembles de données
  • Obtenir des inférences
  • Aperçu
  • Configurer des modèles pour l'inférence
    • Exporter des artefacts de modèle pour l'inférence
    • Conteneurs préconfigurés pour l'inférence
    • Exigences concernant l'utilisation de conteneurs personnalisés pour l'inférence
    • Utiliser un conteneur personnalisé pour l'inférence
    • Utiliser des routes personnalisées arbitraires
    • Utiliser l'environnement d'exécution TensorFlow optimisé
    • Diffuser des inférences avec NVIDIA Triton
    • Routines d'inférence personnalisées
  • Obtenir des inférences en ligne
    • Créer un point de terminaison
      • Choisir un type de point de terminaison
      • Créer un point de terminaison public
      • Utiliser des points de terminaison publics dédiés (recommandé)
      • Utiliser des points de terminaison privés dédiés basés sur Private Service Connect (recommandé)
      • Utiliser des points de terminaison d'accès aux services privés
    • Déployer un modèle sur un point de terminaison
      • Présentation du déploiement de modèles
      • Ressources de calcul pour l'inférence
      • Déployer un modèle à l'aide de la console Google Cloud
      • Déployer un modèle à l'aide de la gcloud CLI ou de l'API Vertex AI
      • Utiliser l'autoscaling pour l'inférence
      • Utiliser un déploiement continu pour remplacer un modèle déployé
      • Déployer un modèle et supprimer le point de terminaison
      • Utiliser des Cloud TPU pour l'inférence en ligne
      • Utiliser des réservations avec l'inférence en ligne
      • Utiliser des VM à démarrage flexible avec l'inférence
      • Utiliser des VM Spot avec l'inférence
    • Obtenir une inférence en ligne
    • Afficher les métriques d'inférence en ligne
      • Afficher les métriques des points de terminaison
      • Afficher les métriques DCGM
    • Partager des ressources entre plusieurs déploiements
    • Utiliser la journalisation des inférences en ligne
  • Obtenir des inférences par lot
    • Obtenir des inférences par lot à partir d'un modèle personnalisé
    • Utiliser des réservations avec l'inférence par lot
    • Obtenir des prédictions par lot à partir d'un modèle Model Garden auto-déployé
  • Diffuser des modèles d'IA générative
    • Déployer des modèles d'IA générative
    • Diffuser des modèles ouverts Gemma à l'aide de Cloud TPU avec Saxml
    • Diffuser des modèles ouverts Llama 3 à l'aide de Cloud TPU multi-hôtes avec Saxml
    • Diffuser un modèle DeepSeek-V3 à l'aide du déploiement de GPU multi-hôtes
  • Règles d'administration personnalisées
  • Tutoriels sur les notebooks d'inférence Vertex AI
  • Effectuer des recherches vectorielles de similarité
  • Présentation de Vector Search
  • Essayer
  • Premiers pas
    • Guide de démarrage rapide de Vector Search
    • Avant de commencer
    • Tutoriels sur les notebooks
  • À propos de la recherche hybride
  • Créer et gérer un index
    • Format et structure des données d'entrée
    • Créer et gérer votre index
    • Index optimisés pour le stockage
    • Paramètres de configuration des index
    • Mettre à jour et recompiler un index
    • Filtrer les correspondances vectorielles
    • Importer des données d'index depuis BigQuery
    • Embeddings avec métadonnées
  • Déployer et interroger un index
    • Private Service Connect (recommandé)
      • Configurer Vector Search avec Private Service Connect
      • Requête
      • Authentification par jeton Web JSON
    • Point de terminaison public
      • Déployer
      • Requête
    • Accès aux services privés
      • Configurer une connexion d'appairage de réseaux VPC
      • Déployer
      • Requête
      • Authentification par jeton Web JSON
  • Surveiller un index déployé
  • Utiliser des règles d'administration personnalisées
  • Obtenir de l'aide
  • MLOps (Machine Learning Operations)
  • Gérer les fonctionnalités
    • Gestion des caractéristiques dans Vertex AI
    • Vertex AI Feature Store
      • À propos de Vertex AI Feature Store
      • Configurer les caractéristiques
        • Préparer la source de données
        • Créer un groupe de caractéristiques
        • Créer une caractéristique
      • Configurer la livraison en ligne
        • Types de diffusion en ligne
        • Créer une instance de boutique en ligne
        • Créer une instance de vue de caractéristiques
      • Contrôler les accès
        • Contrôler l'accès aux ressources
      • Synchroniser le magasin en ligne
        • Démarrer une synchronisation des données
        • Répertorier les opérations de synchronisation
        • Mettre à jour les caractéristiques d'une vue de caractéristiques
      • Livrer des caractéristiques
        • Livrer des caractéristiques à partir de la boutique en ligne
        • Diffuser des valeurs de caractéristiques historiques
      • Surveiller
        • Fonctionnalités de surveillance
      • Gérer les ressources de caractéristiques
        • Répertorier les groupes de caractéristiques
        • Répertorier des fonctionnalités
        • Mettre à jour un groupe de caractéristiques
        • Mettre à jour une caractéristique
        • Supprimer un groupe de caractéristiques
        • Supprimer une caractéristique
      • Gérer les ressources de magasin en ligne
        • Répertorier des magasins en ligne
        • Répertorier des vues de caractéristiques
        • Mettre à jour une boutique en ligne
        • Mettre à jour une vue de caractéristiques
        • Supprimer une boutique en ligne
        • Supprimer une vue des caractéristiques
      • Métadonnées de caractéristiques
        • Mettre à jour les étiquettes
      • Rechercher des ressources
        • Rechercher des ressources
        • Rechercher des métadonnées de ressources dans Data Catalog
      • Gérer les embeddings
        • Rechercher à l'aide d'embeddings
      • Tutoriels sur les notebooks
        • Notebooks de tutoriel Vertex AI Feature Store
    • Vertex AI Feature Store (ancien)
      • À propos de Vertex AI Feature Store (ancien)
      • Modèle de données et ressources
      • Exigences liées aux données sources
      • Configuration
      • Bonnes pratiques
      • Utiliser Vertex AI Feature Store (ancien)
        • Gérer les magasins de caractéristiques
        • Gérer les types d'entités
        • Gérer et trouver des caractéristiques
        • Importation par lots
        • Importation en flux continu
        • Livraison en ligne
        • Récupérer les données d'entraînement
        • Exporter les valeurs des caractéristiques
        • Supprimer des valeurs de caractéristiques
        • Monitoring
        • Contrôler l'accès aux ressources
  • Gérer des modèles
    • Présentation de Vertex AI Model Registry
    • Gérer les versions dans Model Registry
    • Importer des modèles dans Model Registry
    • Copier des modèles dans Model Registry
    • Supprimer un modèle
    • Intégration à BigQuery ML
    • Utiliser des alias de modèle
    • Utiliser des libellés de modèle
    • Utiliser Data Catalog pour rechercher des ressources de modèles et d'ensembles de données
  • Évaluer des modèles
    • Évaluation de modèles dans Vertex AI
    • Évaluer des modèles dans Vertex AI
    • Évaluation du modèle pour l'impartialité
      • Présentation de l'évaluation de modèle pour l'impartialité
      • Métriques de biais de données pour Vertex AI
      • Métriques de biais de modèle pour Vertex AI
    • Tutoriels sur les notebooks d'évaluation des modèles
  • Orchestrer des workflows de ML à l'aide de pipelines
    • Présentation
    • Interfaces
    • Configurer votre projet
    • Construire un pipeline
    • Exécuter un pipeline
    • Utiliser des modèles de pipeline
      • Créer, importer et utiliser un modèle de pipeline
      • Utiliser un modèle prédéfini à partir de la galerie de modèles
    • Configurer votre pipeline
      • Configurer la mise en cache d'exécution
      • Configurer une règle d'échec
      • Configurer le nombre de tentatives pour une tâche de pipeline
      • Spécifier les types de machine pour une étape de pipeline
      • Demander des ressources machine Google Cloud avec Vertex AI Pipelines
      • Configurer une interface Private Service Connect (recommandé)
      • Configurer les secrets avec Secret Manager
      • Configurer une exécution de pipeline sur une ressource persistante
    • Planifier et déclencher des exécutions de pipeline
      • Planifier l'exécution d'un pipeline avec l'API Scheduler
      • Déclencher une exécution de pipeline avec Pub/Sub
    • Annuler ou supprimer des exécutions de pipeline
      • Annuler les exécutions de pipeline
      • Supprimer les exécutions de pipeline
    • Réexécuter un pipeline
    • Surveiller l'exécution d'un pipeline
      • Afficher les métriques du pipeline
      • Afficher les journaux des tâches du pipeline
      • Acheminer les journaux vers un récepteur Cloud Pub/Sub
      • Configurer les notifications par e-mail