Passer au contenu principal
Documentation
Domaines technologiques
close
IA et ML
Développement d'applications
Hébergement d'applications
Calcul
Analyses de données et pipelines
Bases de données
Solutions distribuées, hybrides et multicloud
IA générative
Solutions par secteur d'activité
Mise en réseau
Observabilité et surveillance
Sécurité
Storage
Outils de produits croisés
close
Gestion des accès et des ressources
Gestion des coûts et de l'utilisation
Google Cloud SDK, langages, frameworks et outils
Infrastructure as Code
Migration
Sites connexes
close
Accueil Google Cloud
Essai sans frais et niveau gratuit
Architecture Center
Blog
Contacter le service commercial
Google Cloud Developer Center
Google Developer Center
Google Cloud Marketplace
Documentation de Google Cloud Marketplace
Google Cloud Skills Boost
Google Cloud Solution Center
Assistance Google Cloud
Chaîne YouTube Google Cloud Tech
English
Deutsch
Español
Español – América Latina
Français
Indonesia
Italiano
Português
Português – Brasil
中文 – 简体
中文 – 繁體
日本語
한국어
Console
Connexion
Vertex AI
Guides
Référence
Exemples
Assistance
Ressources
Nous contacter
Commencer l'essai gratuit
Documentation
Guides
Référence
Exemples
Assistance
Ressources
Domaines technologiques
Plus
Outils de produits croisés
Plus
Sites connexes
Plus
Console
Nous contacter
Commencer l'essai gratuit
Découvrir
Aperçu
Présentation de Vertex AI
MLOps sur Vertex AI
Interfaces pour Vertex AI
Guides du débutant pour Vertex AI
Entraîner un modèle AutoML
Entraîner un modèle personnalisé
Obtenir des inférences à partir d'un modèle personnalisé
Entraîner un modèle à l'aide de Vertex AI et du SDK Python
Présentation
Conditions préalables
Créer un notebook
Créer un ensemble de données
Créer un script d'entraînement
Entraîner un modèle
Faire une inférence
Frameworks de ML intégrés
PyTorch
TensorFlow
Vertex AI pour les utilisateurs de BigQuery
Glossaire
Premiers pas
Configurer un projet et un environnement de développement
installer le SDK Vertex AI pour Python ;
Choisir une méthode d'entraînement
Suivez un tutoriel
Présentation des tutoriels
Tutoriels AutoML
Données d'images Hello
Aperçu
Configurer votre projet et votre environnement
Créer un ensemble de données et importer des images
Entraîner un modèle de classification d'images AutoML
Évaluer et analyser les performances du modèle
Déployer un modèle sur un point de terminaison et effectuer une inférence
Nettoyer votre projet
Données tabulaires Hello
Aperçu
Configurer votre projet et votre environnement
Créer un ensemble de données et entraîner un modèle de classification AutoML
Déployer un modèle et demander une inférence
Nettoyer votre projet
Tutoriels sur l'entraînement personnalisé
Entraîner un modèle tabulaire personnalisé
Entraîner un modèle de classification d'images TensorFlow Keras
Aperçu
Configurer votre projet et votre environnement
Entraîner un modèle de classification d'images personnalisé
Diffuser des prédictions à partir d'un modèle de classification d'images personnalisé
Nettoyer votre projet
Ajuster un modèle de classification d'images avec des données personnalisées
Tutoriels sur les notebooks d'entraînement personnalisé
Utiliser l'IA générative et les LLM
À propos de l'IA générative
Utiliser les outils de développement Vertex AI
Présentation des outils de développement
Utiliser le SDK Vertex AI
Aperçu
Présentation du SDK Vertex AI pour Python
Classes du SDK Vertex AI pour Python
Présentation des classes du SDK Vertex AI
Classes de données
Classes d'entraînement
Classes de modèles
Classes de prédiction
Classes de suivi
Utiliser Vertex AI dans des notebooks
Choisir une solution de notebook
Colab Enterprise
Guide de démarrage rapide : créer un notebook à l'aide de la console
Se connecter à un environnement d'exécution
Gérer les environnements d'exécution et les modèles d'environnement d'exécution
Créer un modèle d'environnement d'exécution
Créer un environnement d'exécution
Vertex AI Workbench
Présentation
Tutoriels sur les notebooks
Premiers pas
Créer une instance à l'aide de la console
Planifier une exécution de notebook
Configurer une instance
Créer une instance
Créer une version spécifique d'une instance
Créer une instance avec accès aux identifiants utilisateur
Créer une instance avec l'informatique confidentielle
Ajouter un environnement Conda
Arrêt en cas d'inactivité
Créer une instance à l'aide d'un conteneur personnalisé
Créer une instance exploitant Dataproc
Créer une instance avec des identifiants tiers
Gérer les caractéristiques via les métadonnées
Utiliser les réservations
Associer à des données
Interroger les données dans BigQuery à partir de JupyterLab
Accéder aux fichiers et buckets Cloud Storage dans JupyterLab
Explorer et visualiser des données
Explorer et visualiser les données dans BigQuery
Entretenir
Gérer votre environnement Conda
Sauvegarde et restauration
Enregistrer un notebook sur GitHub
Utiliser un instantané
Utiliser Cloud Storage
Arrêter une instance
Mettre à niveau l'environnement d'une instance
Accéder à JupyterLab à l'aide de SSH
Migrer des données vers une nouvelle instance
Modifier le type de machine et configurer les GPU
Provisionner des ressources à l'aide de Terraform
Surveiller
Surveiller l'état
Contrôler les accès
Contrôle d'accès
Gérer l'accès à une instance
Gérer l'accès à l'interface JupyterLab d'une instance
Utiliser les clés de chiffrement gérées par le client
Utiliser une instance dans un périmètre de service
Résoudre les problèmes liés à Vertex AI Workbench
Notes de version de Vertex AI Workbench
Notebooks gérés
Présentation des notebooks gérés
Premiers pas
Créer une instance de notebooks gérés à l'aide de Cloud Console
Planifier l'exécution d'un notebook géré
Configurer une instance de notebooks gérés
Créer une instance avec un conteneur personnalisé
Exécuter une instance de notebooks gérés sur un cluster Dataproc
Utiliser Dataproc sans serveur Spark avec des notebooks gérés
Arrêt en cas d'inactivité
Versions de notebooks gérés
Associer à des données
Interroger les données dans BigQuery à partir de JupyterLab
Accéder aux fichiers et buckets Cloud Storage dans JupyterLab
Explorer et visualiser des données
Aperçu
Explorer et visualiser les données dans BigQuery
Développer un modèle
Développement de modèles dans une instance de notebooks gérés
Déployer
Exécuter des fichiers notebook avec l'exécuteur
Exécuter des exécutions de notebook avec des paramètres
Entretenir
Migrer vers une instance Vertex AI Workbench
Enregistrer un notebook sur GitHub
Modifier le type de machine et configurer les GPU d'une instance de notebooks gérés
Mettre à niveau l'environnement d'une instance de notebooks gérés
Migrer des données vers une nouvelle instance de notebooks gérés par l'utilisateur
Surveiller
Journaux d'audit
Contrôler les accès
Contrôle d'accès
Gérer l'accès à une instance
Gérer l'accès à l'interface JupyterLab d'une instance
Utiliser les clés de chiffrement gérées par le client
Configurer un réseau
Utiliser une instance de notebook gérée dans un périmètre de service
Résoudre les problèmes liés aux notebooks gérés
Notebooks gérés par l'utilisateur
Présentation des notebooks gérés par l'utilisateur
Premiers pas
Créer une instance de notebooks gérés par l'utilisateur à l'aide de Cloud Console
Configurer une instance de notebooks gérés par l'utilisateur
Créer une version spécifique d'une instance
Installer des dépendances
Choisir une image de machine virtuelle
Créer une instance avec un conteneur personnalisé
Explorer les données
Data science avec R sur Google Cloud : tutoriel d'analyse de données exploratoire
Surveiller
Surveiller l'état
Journaux d'audit
Contrôler les accès
Contrôle d'accès
Gérer l'accès à une instance
Gérer l'accès à l'interface JupyterLab d'une instance
Clés de chiffrement gérées par le client
Utiliser une instance de notebooks gérés par l'utilisateur dans un périmètre de service
Utiliser une machine virtuelle protégée avec des notebooks gérés par l'utilisateur
Tutoriel : Créer une instance de notebook dans un réseau VPC
Entretenir
Migrer vers une instance Vertex AI Workbench
Enregistrer un notebook sur GitHub
Sauvegarder vos données à l'aide d'un instantané
Arrêter une instance de notebooks gérés par l'utilisateur
Modifier le type de machine et configurer les GPU d'une instance de notebooks gérés par l'utilisateur
Mettre à niveau l'environnement d'une instance de notebooks gérés par l'utilisateur
Migrer des données vers une nouvelle instance de notebooks gérés par l'utilisateur
Enregistrer une ancienne instance avec l'API Notebooks
Accéder à JupyterLab à l'aide de SSH
Résoudre les problèmes liés aux notebooks gérés par l'utilisateur
Compatibilité de Terraform avec Vertex AI
Développement de modèles d'IA prédictive
Aperçu
Développement de modèles AutoML
Présentation de l'entraînement AutoML
Données d'image
Classification
Préparer les données
Créer un ensemble de données
Entraîner le modèle
Évaluer le modèle
Obtenir des prédictions
Interpréter les résultats
Détection d'objets
Préparer les données
Créer un ensemble de données
Entraîner le modèle
Évaluer le modèle
Obtenir des prédictions
Interpréter les résultats
Encoder des données d'image en Base64
Exporter un modèle AutoML Edge
Données tabulaires
Aperçu
Présentation des données tabulaires
Workflows tabulaires
Aperçu
Ingénierie des caractéristiques
AutoML de bout en bout
Aperçu
Entraîner un modèle
Obtenir des inférences en ligne
Obtenir des inférences par lot
TabNet
Aperçu
Entraîner un modèle
Obtenir des inférences en ligne
Obtenir des inférences par lot
Wide & Deep
Aperçu
Entraîner un modèle
Obtenir des inférences en ligne
Obtenir des inférences par lot
Prévision
Aperçu
Entraîner un modèle
Obtenir des inférences en ligne
Obtenir des inférences par lot
Tarifs
Service Accounts
Gérer les quotas
Effectuer des classifications et des régressions avec AutoML
Aperçu
Guide de démarrage rapide : Classification AutoML (console Cloud)
Préparer les données d'entraînement
Créer un ensemble de données
Entraîner un modèle
Évaluer le modèle
Afficher l'architecture du modèle
Obtenir des inférences en ligne
Obtenir des inférences par lot
Exporter le modèle
Effectuer des prévisions avec AutoML
Aperçu
Préparer les données d'entraînement
Créer un ensemble de données
Entraîner un modèle
Évaluer le modèle
Obtenir des inférences
Prévisions hiérarchiques
Effectuer des prévisions avec ARIMA+
Effectuer des prévisions avec Prophet
Effectuer un rapprochement d'entités
Attributions de caractéristiques pour la classification et la régression
Attributions de caractéristiques pour la prévision
Types de données et transformations pour les données tabulaires AutoML
Paramètres d'entraînement pour les prévisions
Fractionnement des données pour les données tabulaires
Bonnes pratiques pour la création de données tabulaires d'entraînement
Effectuer des prévisions avec Timeseries Insights
Entraîner un modèle AutoML Edge
Utiliser la console
Utiliser l'API
AutoML Text
Migrer de AutoML Text vers Gemini
Gemini pour les utilisateurs AutoML Text
Vertex AI Training
Présentation de l'entraînement personnalisé dans Vertex AI
Charger et préparer des données
Présentation de la préparation des données
Utiliser Cloud Storage comme système de fichiers installé
Installer un partage NFS pour l'entraînement personnalisé
Utiliser des ensembles de données gérés
Préparer l'application d'entraînement
Comprendre le service d'entraînement personnalisé
Préparer le code d'entraînement
Utiliser des conteneurs prédéfinis
Créer une application d'entraînement Python pour un conteneur prédéfini
Conteneurs préconfigurés pour l'entraînement personnalisé
Utiliser des conteneurs personnalisés
Conteneurs personnalisés pour l'entraînement
Créer un conteneur personnalisé
Conteneuriser et exécuter du code d'entraînement en local
Utiliser des images et conteneurs Deep Learning VM
Définir un entraînement sur une ressource persistante
Aperçu
Créer une ressource persistante
Exécuter des jobs d'entraînement sur une ressource persistante
Obtenir des informations sur des ressources persistantes
Redémarrer une ressource persistante
Supprimer une ressource persistante
Configurer le job d'entraînement
Choisir une méthode d'entraînement personnalisé
Configurer les paramètres du conteneur pour l'entraînement
Configurer des ressources de calcul pour l'entraînement
Utiliser les réservations avec l'entraînement
Utiliser des VM Spot pour l'entraînement
Envoyer une tâche d'entraînement
Créer des tâches personnalisées
Réglages d'hyperparamètres
Présentation des réglages d'hyperparamètres
Utiliser les réglages d'hyperparamètres
Créer des pipelines d'entraînement
Planifier des jobs en fonction de la disponibilité des ressources
Utiliser l'entraînement distribué
Entraîner avec des VM Cloud TPU
Utiliser une adresse IP privée pour l'entraînement personnalisé
Utiliser l'interface Private Service Connect pour l'entraînement (recommandé)
Lancer une recherche Neural Architecture Search
Aperçu
Configurer l'environnement
Tutoriels de niveau débutant
Bonnes pratiques et workflow
Conception des tâches de proxy
Optimiser la vitesse d'entraînement pour PyTorch
Utiliser des conteneurs d'entraînement et des espaces de recherche prédéfinis
Surveiller et déboguer
Surveiller et déboguer l'entraînement à l'aide d'une interface système interactive
Profiler les performances d'entraînement de modèle
Définir une optimisation à l'aide de Vertex AI Vizier
Présentation de Vertex AI Vizier
Créer des études Vertex AI Vizier
Tutoriels sur les notebooks Vertex AI Vizier
Obtenir des inférences
Tutoriel : Créer un pipeline pour l'entraînement continu
Créer des contraintes personnalisées liées aux règles d'administration
Ray sur Vertex AI
Présentation de Ray sur Vertex AI
Configurer Ray sur Vertex AI
Créer un cluster Ray sur Vertex AI
Surveiller des clusters Ray sur Vertex AI
Ajuster la capacité d'un cluster Ray sur Vertex AI
Développer une application Ray sur Vertex AI
Exécuter Spark sur un cluster Ray sur Vertex AI
Utiliser Ray sur Vertex AI avec BigQuery
Déployer un modèle et obtenir des inférences
Supprimer un cluster Ray
Tutoriels sur les notebooks Ray sur Vertex AI
Développement de modèles d'IA générative
Aperçu
Créer et gérer des ensembles de données
Aperçu
Divisions de données pour les modèles AutoML
Créer un ensemble d'annotations
Supprimer un ensemble d'annotations
Ajouter des libellés (console)
Exporter des métadonnées et des annotations à partir d'un ensemble de données
Gérer les versions d'un ensemble de données
Utiliser Data Catalog pour rechercher des ressources de modèles et d'ensembles de données
Obtenir des inférences
Aperçu
Configurer des modèles pour l'inférence
Exporter des artefacts de modèle pour l'inférence
Conteneurs préconfigurés pour l'inférence
Exigences concernant l'utilisation de conteneurs personnalisés pour l'inférence
Utiliser un conteneur personnalisé pour l'inférence
Utiliser des routes personnalisées arbitraires
Utiliser l'environnement d'exécution TensorFlow optimisé
Diffuser des inférences avec NVIDIA Triton
Routines d'inférence personnalisées
Obtenir des inférences en ligne
Créer un point de terminaison
Choisir un type de point de terminaison
Créer un point de terminaison public
Utiliser des points de terminaison publics dédiés (recommandé)
Utiliser des points de terminaison privés dédiés basés sur Private Service Connect (recommandé)
Utiliser des points de terminaison d'accès aux services privés
Déployer un modèle sur un point de terminaison
Présentation du déploiement de modèles
Ressources de calcul pour l'inférence
Déployer un modèle à l'aide de la console Google Cloud
Déployer un modèle à l'aide de la gcloud CLI ou de l'API Vertex AI
Utiliser l'autoscaling pour l'inférence
Utiliser un déploiement continu pour remplacer un modèle déployé
Déployer un modèle et supprimer le point de terminaison
Utiliser des Cloud TPU pour l'inférence en ligne
Utiliser des réservations avec l'inférence en ligne
Utiliser des VM à démarrage flexible avec l'inférence
Utiliser des VM Spot avec l'inférence
Obtenir une inférence en ligne
Afficher les métriques d'inférence en ligne
Afficher les métriques des points de terminaison
Afficher les métriques DCGM
Partager des ressources entre plusieurs déploiements
Utiliser la journalisation des inférences en ligne
Obtenir des inférences par lot
Obtenir des inférences par lot à partir d'un modèle personnalisé
Utiliser des réservations avec l'inférence par lot
Obtenir des prédictions par lot à partir d'un modèle Model Garden auto-déployé
Diffuser des modèles d'IA générative
Déployer des modèles d'IA générative
Diffuser des modèles ouverts Gemma à l'aide de Cloud TPU avec Saxml
Diffuser des modèles ouverts Llama 3 à l'aide de Cloud TPU multi-hôtes avec Saxml
Diffuser un modèle DeepSeek-V3 à l'aide du déploiement de GPU multi-hôtes
Règles d'administration personnalisées
Tutoriels sur les notebooks d'inférence Vertex AI
Effectuer des recherches vectorielles de similarité
Présentation de Vector Search
Essayer
Premiers pas
Guide de démarrage rapide de Vector Search
Avant de commencer
Tutoriels sur les notebooks
À propos de la recherche hybride
Créer et gérer un index
Format et structure des données d'entrée
Créer et gérer votre index
Index optimisés pour le stockage
Paramètres de configuration des index
Mettre à jour et recompiler un index
Filtrer les correspondances vectorielles
Importer des données d'index depuis BigQuery
Embeddings avec métadonnées
Déployer et interroger un index
Private Service Connect (recommandé)
Configurer Vector Search avec Private Service Connect
Requête
Authentification par jeton Web JSON
Point de terminaison public
Déployer
Requête
Accès aux services privés
Configurer une connexion d'appairage de réseaux VPC
Déployer
Requête
Authentification par jeton Web JSON
Surveiller un index déployé
Utiliser des règles d'administration personnalisées
Obtenir de l'aide
MLOps (Machine Learning Operations)
Gérer les fonctionnalités
Gestion des caractéristiques dans Vertex AI
Vertex AI Feature Store
À propos de Vertex AI Feature Store
Configurer les caractéristiques
Préparer la source de données
Créer un groupe de caractéristiques
Créer une caractéristique
Configurer la livraison en ligne
Types de diffusion en ligne
Créer une instance de boutique en ligne
Créer une instance de vue de caractéristiques
Contrôler les accès
Contrôler l'accès aux ressources
Synchroniser le magasin en ligne
Démarrer une synchronisation des données
Répertorier les opérations de synchronisation
Mettre à jour les caractéristiques d'une vue de caractéristiques
Livrer des caractéristiques
Livrer des caractéristiques à partir de la boutique en ligne
Diffuser des valeurs de caractéristiques historiques
Surveiller
Fonctionnalités de surveillance
Gérer les ressources de caractéristiques
Répertorier les groupes de caractéristiques
Répertorier des fonctionnalités
Mettre à jour un groupe de caractéristiques
Mettre à jour une caractéristique
Supprimer un groupe de caractéristiques
Supprimer une caractéristique
Gérer les ressources de magasin en ligne
Répertorier des magasins en ligne
Répertorier des vues de caractéristiques
Mettre à jour une boutique en ligne
Mettre à jour une vue de caractéristiques
Supprimer une boutique en ligne
Supprimer une vue des caractéristiques
Métadonnées de caractéristiques
Mettre à jour les étiquettes
Rechercher des ressources
Rechercher des ressources
Rechercher des métadonnées de ressources dans Data Catalog
Gérer les embeddings
Rechercher à l'aide d'embeddings
Tutoriels sur les notebooks
Notebooks de tutoriel Vertex AI Feature Store
Vertex AI Feature Store (ancien)
À propos de Vertex AI Feature Store (ancien)
Modèle de données et ressources
Exigences liées aux données sources
Configuration
Bonnes pratiques
Utiliser Vertex AI Feature Store (ancien)
Gérer les magasins de caractéristiques
Gérer les types d'entités
Gérer et trouver des caractéristiques
Importation par lots
Importation en flux continu
Livraison en ligne
Récupérer les données d'entraînement
Exporter les valeurs des caractéristiques
Supprimer des valeurs de caractéristiques
Monitoring
Contrôler l'accès aux ressources
Gérer des modèles
Présentation de Vertex AI Model Registry
Gérer les versions dans Model Registry
Importer des modèles dans Model Registry
Copier des modèles dans Model Registry
Supprimer un modèle
Intégration à BigQuery ML
Utiliser des alias de modèle
Utiliser des libellés de modèle
Utiliser Data Catalog pour rechercher des ressources de modèles et d'ensembles de données
Évaluer des modèles
Évaluation de modèles dans Vertex AI
Évaluer des modèles dans Vertex AI
Évaluation du modèle pour l'impartialité
Présentation de l'évaluation de modèle pour l'impartialité
Métriques de biais de données pour Vertex AI
Métriques de biais de modèle pour Vertex AI
Tutoriels sur les notebooks d'évaluation des modèles
Orchestrer des workflows de ML à l'aide de pipelines
Présentation
Interfaces
Configurer votre projet
Construire un pipeline
Exécuter un pipeline
Utiliser des modèles de pipeline
Créer, importer et utiliser un modèle de pipeline
Utiliser un modèle prédéfini à partir de la galerie de modèles
Configurer votre pipeline
Configurer la mise en cache d'exécution
Configurer une règle d'échec
Configurer le nombre de tentatives pour une tâche de pipeline
Spécifier les types de machine pour une étape de pipeline
Demander des ressources machine Google Cloud avec Vertex AI Pipelines
Configurer une interface Private Service Connect (recommandé)
Configurer les secrets avec Secret Manager
Configurer une exécution de pipeline sur une ressource persistante
Planifier et déclencher des exécutions de pipeline
Planifier l'exécution d'un pipeline avec l'API Scheduler
Déclencher une exécution de pipeline avec Pub/Sub
Annuler ou supprimer des exécutions de pipeline
Annuler les exécutions de pipeline
Supprimer les exécutions de pipeline
Réexécuter un pipeline
Surveiller l'exécution d'un pipeline
Afficher les métriques du pipeline
Afficher les journaux des tâches du pipeline
Acheminer les journaux vers un récepteur Cloud Pub/Sub
Configurer les notifications par e-mail