Langsung ke konten utama
Dokumentasi
Area teknologi
close
AI dan ML
Pengembangan aplikasi
Hosting aplikasi
Compute
Analisis data dan pipeline
Database
Terdistribusi, hybrid, dan multicloud
AI Generatif
Solusi industri
Jaringan profesional
Kemampuan observasi dan pemantauan
Keamanan
Storage
Alat lintas produk
close
Pengelolaan akses dan resource
Pengelolaan biaya dan penggunaan
Google Cloud SDK, bahasa, framework, dan alat
Infrastruktur sebagai kode
Migrasi
Situs terkait
close
Beranda Google Cloud
Uji Coba Gratis dan Paket Gratis
Architecture Center
Blog
Hubungi Bagian Penjualan
Pusat Developer Google Cloud
Pusat Developer Google
Google Cloud Marketplace
Dokumentasi Google Cloud Marketplace
Google Cloud Skills Boost
Google Cloud Solution Center
Dukungan Google Cloud
Channel YouTube Google Cloud Tech
/
English
Deutsch
Español
Español – América Latina
Français
Indonesia
Italiano
Português
Português – Brasil
中文 – 简体
中文 – 繁體
日本語
한국어
Konsol
Masuk
Vertex AI
Panduan
Referensi
Contoh
Dukungan
Referensi
Hubungi Kami
Mulai gratis
Dokumentasi
Panduan
Referensi
Contoh
Dukungan
Referensi
Area teknologi
Lainnya
Alat lintas produk
Lainnya
Situs terkait
Lainnya
Konsol
Hubungi Kami
Mulai gratis
Discover
Ringkasan
Pengantar Vertex AI
MLOps di Vertex AI
Antarmuka untuk Vertex AI
Panduan pemula Vertex AI
Melatih model AutoML
Melatih model khusus
Mendapatkan inferensi dari model kustom
Melatih model menggunakan Vertex AI dan Python SDK
Pengantar
Prasyarat
Membuat notebook
Membuat set data
Membuat skrip pelatihan
Melatih model
Membuat inferensi
Framework ML terintegrasi
PyTorch
TensorFlow
Vertex AI untuk pengguna BigQuery
Glosarium
Mulai
Menyiapkan project dan lingkungan pengembangan
Menginstal Vertex AI SDK untuk Python
Memilih metode pelatihan
Mencoba tutorial
Ringkasan tutorial
Tutorial AutoML
Data gambar Hello
Ringkasan
Menyiapkan project dan lingkungan
Membuat set data dan mengimpor gambar
Melatih model klasifikasi gambar AutoML
Mengevaluasi dan menganalisis performa model
Men-deploy model ke endpoint dan membuat inferensi
Membersihkan project
Data tabular Hello
Ringkasan
Menyiapkan project dan lingkungan
Membuat set data dan melatih model klasifikasi AutoML
Men-deploy model dan meminta inferensi
Membersihkan project
Tutorial pelatihan kustom
Melatih model tabulasi khusus
Melatih model klasifikasi gambar TensorFlow Keras
Ringkasan
Menyiapkan project dan lingkungan
Melatih model klasifikasi gambar kustom
Menyajikan prediksi dari model klasifikasi gambar kustom.
Membersihkan project
Meningkatkan kualitas model klasifikasi gambar dengan data kustom
Tutorial notebook pelatihan kustom
Menggunakan AI Generatif dan LLM
Tentang AI generatif
Menggunakan alat pengembangan Vertex AI
Ringkasan alat pengembangan
Menggunakan Vertex AI SDK
Ringkasan
Pengantar Vertex AI SDK untuk Python
Vertex AI SDK untuk kelas Python
Ringkasan kelas Vertex AI SDK
Class data
Melatih class
Kelas model
Kelas prediksi
Melacak class
Menggunakan Vertex AI di notebook
Memilih solusi notebook
Colab Enterprise
Panduan memulai:Membuat notebook menggunakan konsol
Menghubungkan ke runtime
Mengelola runtime dan template runtime
Membuat template runtime
Membuat runtime
Vertex AI Workbench
Pengantar
Tutorial notebook
Mulai
Membuat instance menggunakan Konsol
Menjadwalkan operasi notebook
Menyiapkan instance
Membuat instance
Membuat versi instance tertentu
Membuat instance dengan akses kredensial pengguna
Membuat instance dengan Confidential Computing
Menambahkan lingkungan conda
Penonaktifan saat tidak ada aktivitas
Membuat instance menggunakan container kustom
Membuat instance yang mendukung Dataproc
Membuat instance dengan kredensial pihak ketiga
Mengelola fitur melalui metadata
Menggunakan reservasi
Menghubungkan ke data
Membuat kueri data di BigQuery dari dalam JupyterLab
Mengakses bucket dan file Cloud Storage di JupyterLab
Menjelajahi dan memvisualisasikan data
Menjelajahi dan memvisualisasikan data di BigQuery
Mempertahankan
Mengelola lingkungan conda Anda
Pencadangan dan pemulihan
Menyimpan notebook ke GitHub
Menggunakan snapshot
Gunakan Cloud Storage
Menonaktifkan instance
Mengupgrade lingkungan instance
Mengakses JupyterLab menggunakan SSH
Memigrasi data ke instance baru
Mengubah jenis mesin dan mengonfigurasi GPU
Menyediakan resource menggunakan Terraform
Monitor
Memantau status kondisi
Mengontrol akses
Kontrol akses
Mengelola akses ke instance
Mengelola akses ke antarmuka JupyterLab instance
Menggunakan kunci enkripsi yang dikelola pelanggan
Menggunakan instance dalam perimeter layanan
Memecahkan masalah Vertex AI Workbench
Catatan rilis Vertex AI Workbench
Notebook terkelola
Pengantar notebook terkelola
Mulai
Membuat instance notebook terkelola menggunakan Konsol Cloud
Menjadwalkan operasi notebook terkelola
Menyiapkan instance notebook terkelola
Membuat instance dengan container kustom
Menjalankan instance notebook terkelola di dalam cluster Dataproc
Menggunakan Dataproc Serverless Spark dengan notebook terkelola
Penonaktifan saat tidak ada aktivitas
Versi notebook terkelola
Menghubungkan ke data
Membuat kueri data di BigQuery dari dalam JupyterLab
Mengakses bucket dan file Cloud Storage di JupyterLab
Menjelajahi dan memvisualisasikan data
Ringkasan
Menjelajahi dan memvisualisasikan data di BigQuery
Mengembangkan model
Pengembangan model di instance notebook terkelola
Deploy
Menjalankan file notebook dengan eksekutor
Menjalankan eksekusi notebook dengan parameter
Mempertahankan
Bermigrasi ke instance Vertex AI Workbench
Menyimpan notebook ke GitHub
Mengubah jenis mesin dan mengonfigurasi GPU instance notebook terkelola
Mengupgrade lingkungan instance notebook terkelola
Memigrasikan data ke instance notebook terkelola yang baru
Monitor
Logging audit
Mengontrol akses
Kontrol akses
Mengelola akses ke instance
Mengelola akses ke antarmuka JupyterLab instance
Menggunakan kunci enkripsi yang dikelola pelanggan
Menyiapkan jaringan
Menggunakan instance notebook terkelola dalam perimeter layanan
Memecahkan masalah notebook terkelola
Notebook yang dikelola pengguna
Pengantar notebook yang dikelola pengguna
Mulai
Membuat instance notebook yang dikelola pengguna menggunakan Konsol Cloud
Menyiapkan instance notebook yang dikelola pengguna
Membuat versi instance tertentu
Memasang dependensi
Memilih image virtual machine
Membuat instance dengan container kustom
Jelajahi data
Data science dengan R di Google Cloud: Tutorial analisis data eksploratif
Monitor
Memantau status kondisi
Logging audit
Mengontrol akses
Kontrol akses
Mengelola akses ke instance
Mengelola akses ke antarmuka JupyterLab instance
Kunci enkripsi yang dikelola pelanggan
Gunakan instance notebook yang dikelola pengguna dalam perimeter layanan
Menggunakan virtual machine berpelindung dengan notebook yang dikelola pengguna
Tutorial: Membuat instance notebook di jaringan VPC
Mempertahankan
Bermigrasi ke instance Vertex AI Workbench
Menyimpan notebook ke GitHub
Mencadangkan data menggunakan snapshot
Menonaktifkan instance notebook yang dikelola pengguna
Mengubah jenis mesin dan konfigurasi GPU dari instance notebook yang dikelola pengguna
Mengupgrade lingkungan instance notebook yang dikelola pengguna
Memigrasikan data ke instance notebook baru yang dikelola pengguna
Mendaftarkan instance lama dengan Notebooks API
Mengakses JupyterLab menggunakan SSH
Memecahkan masalah notebook yang dikelola pengguna
Dukungan Terraform untuk Vertex AI
Pengembangan model AI prediktif
Ringkasan
Pengembangan model AutoML
Ringkasan pelatihan AutoML
Data gambar
Klasifikasi
Menyiapkan data
Buat set data
Latih model
Evaluasi model
Dapatkan prediksi
Menafsirkan Hasil
Deteksi objek
Menyiapkan data
Buat set data
Latih model
Evaluasi model
Dapatkan prediksi
Menafsirkan Hasil
Mengenkode data gambar menggunakan Base64
Mengekspor model AutoML Edge
Data tabulasi
Ringkasan
Pengantar data tabulasi
Alur Kerja Tabulasi
Ringkasan
Rekayasa fitur
AutoML Menyeluruh
Ringkasan
Melatih model
Mendapatkan inferensi online
Mendapatkan inferensi batch
TabNet
Ringkasan
Melatih model
Mendapatkan inferensi online
Mendapatkan inferensi batch
Wide & Deep
Ringkasan
Melatih model
Mendapatkan inferensi online
Mendapatkan inferensi batch
Perkiraan
Ringkasan
Melatih model
Mendapatkan inferensi online
Mendapatkan inferensi batch
Harga
Akun layanan
Mengelola kuota
Melakukan klasifikasi dan regresi dengan AutoML
Ringkasan
Panduan memulai: Klasifikasi AutoML (Konsol Cloud)
Menyiapkan data pelatihan
Membuat set data
Melatih model
Evaluasi model
Melihat arsitektur model
Mendapatkan inferensi online
Mendapatkan inferensi batch
Ekspor model
Membuat perkiraan dengan AutoML
Ringkasan
Menyiapkan data pelatihan
Membuat set data
Melatih model
Evaluasi model
Mendapatkan inferensi
Perkiraan hierarkis
Melakukan perkiraan dengan ARIMA+
Melakukan perkiraan dengan Prophet
Melakukan rekonsiliasi entity
Menampilkan atribusi untuk klasifikasi dan regresi
Atribusi fitur untuk perkiraan
Jenis data dan transformasi untuk data AutoML tabulasi
Parameter pelatihan untuk perkiraan
Pemisahan data untuk data tabulasi
Praktik terbaik untuk membuat data pelatihan tabulasi
Perkiraan dengan Insight Deret Waktu
Melatih model AutoML Edge
Menggunakan Console
Menggunakan API
AutoML Text
Bermigrasi dari teks AutoML ke Gemini
Gemini untuk pengguna teks AutoML
Vertex AI Training
Ringkasan pelatihan kustom di Vertex AI
Memuat dan menyiapkan data
Ringkasan persiapan data
Menggunakan Cloud Storage sebagai sistem file yang terpasang
Memasang berbagi secara NFS untuk pelatihan kustom
Menggunakan set data terkelola
Menyiapkan aplikasi pelatihan
Memahami layanan pelatihan kustom
Menyiapkan kode pelatihan
Menggunakan container bawaan
Membuat aplikasi pelatihan Python untuk container bawaan
Container bawaan untuk pelatihan khusus
Menggunakan container kustom
Container kustom untuk pelatihan
Membuat container kustom
Menyimpan data dalam container dan menjalankan kode pelatihan secara lokal
Menggunakan Deep Learning VM Image dan Container
Melatih resource yang persisten
Ringkasan
Membuat resource persisten
Menjalankan tugas pelatihan pada resource persisten
Mendapatkan informasi resource persisten
Mulai ulang resource persisten
Menghapus resource persisten
Mengonfigurasi tugas pelatihan
Memilih metode pelatihan khusus
Mengonfigurasi setelan container untuk pelatihan
Mengonfigurasi resource komputasi untuk pelatihan
Menggunakan reservasi dengan pelatihan
Menggunakan Spot VM dengan pelatihan
Mengirim tugas pelatihan
Membuat tugas kustom
Penyesuaian hyperparameter
Ringkasan penyesuaian hyperparameter
Menggunakan penyesuaian hyperparameter
Membuat pipeline pelatihan
Menjadwalkan tugas berdasarkan ketersediaan resource
Menggunakan pelatihan yang terdistribusi
Pelatihan dengan VM Cloud TPU
Menggunakan IP pribadi untuk pelatihan kustom
Menggunakan antarmuka Private Service Connect untuk pelatihan (direkomendasikan)
Melakukan Penelusuran Arsitektur Neural
Ringkasan
Lingkungan penyiapan
Tutorial tingkat pemula
Praktik terbaik dan alur kerja
Desain tugas proxy
Mengoptimalkan kecepatan pelatihan untuk PyTorch
Menggunakan container pelatihan bawaan dan ruang penelusuran
Memantau dan men-debug
Memantau dan men-debug pelatihan menggunakan shell interaktif
Membuat profil performa pelatihan model
Mengoptimalkan penggunaan Vertex AI Vizier
Ringkasan Vertex AI Vizier
Membuat studi Vertex AI Vizier
Tutorial notebook Vertex AI Vizier
Mendapatkan inferensi
Tutorial: Membangun pipeline untuk pelatihan berkelanjutan
Membuat batasan kebijakan organisasi kustom
Ray di Vertex AI
Ringkasan Ray di Vertex AI
Melakukan penyiapan untuk Ray di Vertex AI
Membuat cluster Ray di Vertex AI
Memantau cluster Ray di Vertex AI
Menskalakan cluster Ray di Vertex AI
Mengembangkan aplikasi Ray di Vertex AI
Menjalankan cluster Spark on Ray di Vertex AI
Menggunakan Ray di Vertex AI dengan BigQuery
Men-deploy model dan mendapatkan inferensi
Menghapus cluster Ray
Tutorial notebook Ray on Vertex AI
Pengembangan model AI generatif
Ringkasan
Membuat dan mengelola set data
Ringkasan
Pembagian data untuk model AutoML
Membuat kumpulan anotasi
Menghapus kumpulan anotasi
Menambahkan label (konsol)
Mengekspor metadata dan anotasi dari set data
Mengelola versi set data
Menggunakan Data Catalog untuk menelusuri resource model dan set data
Mendapatkan inferensi
Ringkasan
Mengonfigurasi model untuk inferensi
Mengekspor artefak model untuk inferensi
Container bawaan untuk inferensi
Persyaratan container kustom untuk inferensi
Menggunakan container kustom untuk inferensi
Menggunakan rute kustom arbitrer
Menggunakan runtime TensorFlow yang dioptimalkan
Menayangkan inferensi dengan NVIDIA Triton
Rutinitas inferensi kustom
Mendapatkan inferensi online
Buat endpoint
Memilih jenis endpoint
Membuat endpoint publik
Menggunakan endpoint publik khusus (direkomendasikan)
Menggunakan endpoint pribadi khusus berdasarkan Private Service Connect (direkomendasikan)
Menggunakan endpoint akses layanan pribadi
Men-deploy model ke endpoint
Ringkasan deployment model
Resource komputasi untuk inferensi
Men-deploy model menggunakan Konsol Google Cloud
Men-deploy model menggunakan gcloud CLI atau Vertex AI API
Menggunakan penskalaan otomatis untuk inferensi
Menggunakan deployment bertahap untuk mengganti model yang di-deploy
Membatalkan deployment model dan menghapus endpoint
Menggunakan Cloud TPU untuk inferensi online
Menggunakan reservasi dengan inferensi online
Menggunakan VM mulai fleksibel dengan inferensi
Menggunakan Spot VM dengan inferensi
Mendapatkan inferensi online
Melihat metrik inferensi online
Melihat metrik endpoint
Melihat metrik DCGM
Membagikan resource di seluruh deployment
Menggunakan logging inferensi online
Mendapatkan inferensi batch
Mendapatkan inferensi batch dari model kustom
Menggunakan reservasi dengan inferensi batch
Mendapatkan prediksi batch dari model Model Garden yang di-deploy sendiri
Menyajikan model AI generatif
Men-deploy model AI generatif
Menyajikan model terbuka Gemma menggunakan TPU Cloud dengan Saxml
Menyajikan model terbuka Llama 3 menggunakan Cloud TPU multi-host dengan Saxml
Menyajikan model DeepSeek-V3 menggunakan deployment GPU multi-host
Kebijakan organisasi kustom
Tutorial notebook inferensi Vertex AI
Melakukan penelusuran kemiripan vektor
Ringkasan Vector Search
Coba
Mulai
Panduan memulai Vector Search
Sebelum Anda memulai
Tutorial notebook
Tentang penelusuran campuran
Membuat dan mengelola indeks
Struktur dan format data input
Membuat dan mengelola indeks Anda
Indeks yang dioptimalkan untuk penyimpanan
Parameter konfigurasi indeks
Memperbarui dan membangun ulang indeks
Memfilter kecocokan vektor
Mengimpor data indeks dari BigQuery
Penyematan dengan metadata
Men-deploy dan membuat kueri indeks
Private Service Connect (direkomendasikan)
Menyiapkan Vector Search dengan Private Service Connect
Kueri
Autentikasi Token Web JSON
Endpoint publik
Deploy
Kueri
Private services access
Menyiapkan koneksi peering jaringan VPC
Deploy
Kueri
Autentikasi Token Web JSON
Memantau indeks yang di-deploy
Menggunakan kebijakan organisasi kustom
Mendapatkan dukungan
Operasi machine learning (MLOps)
Mengelola fitur
Pengelolaan fitur di Vertex AI
Vertex AI Feature Store
Tentang Vertex AI Feature Store
Menyiapkan fitur
Menyiapkan sumber data
Membuat grup fitur
Membuat fitur
Menyiapkan penyaluran online
Jenis penyaluran online
Membuat instance toko online
Membuat instance tampilan fitur
Mengontrol akses
Mengontrol akses ke resource
Menyinkronkan toko online
Memulai sinkronisasi data
Membuat daftar operasi sinkronisasi
Memperbarui fitur dalam tampilan fitur
Menayangkan fitur
Menyajikan fitur dari toko online
Menyajikan nilai fitur historis
Monitor
Fitur pemantauan
Mengelola resource fitur
Membuat daftar grup fitur
Mencantumkan fitur
Memperbarui grup fitur
Memperbarui fitur
Menghapus grup fitur
Menghapus fitur
Mengelola resource toko online
Membuat daftar toko online
Melihat daftar tampilan fitur
Memperbarui toko online
Memperbarui tampilan fitur
Menghapus toko online
Menghapus tampilan fitur
Metadata fitur
Perbarui label
Telusuri referensi
Telusuri referensi
Menelusuri metadata resource di Data Catalog
Mengelola embedding
Melakukan penelusuran menggunakan embedding
Tutorial notebook
Notebook tutorial Vertex AI Feature Store
Vertex AI Feature Store (Lama)
Tentang Vertex AI Feature Store (Lama)
Model data dan resource
Persyaratan data sumber
Penyiapan
Praktik terbaik
Menggunakan Vertex AI Feature Store (Lama)
Mengelola featurestore
Mengelola jenis entity
Mengelola dan menemukan fitur
Impor batch
Impor streaming
Penyaluran online
Mengambil data pelatihan
Mengekspor nilai fitur
Menghapus nilai fitur
Pemantauan
Mengontrol akses ke resource
Mengelola model
Pengantar Vertex AI Model Registry
Pembuatan versi di Model Registry
Mengimpor model ke Model Registry
Menyalin model di Model Registry
Menghapus model
Terintegrasi dengan BigQuery ML
Menggunakan alias model
Menggunakan label model
Menggunakan Data Catalog untuk menelusuri resource model dan set data
Mengevaluasi model
Evaluasi model di Vertex AI
Melakukan evaluasi model di Vertex AI
Evaluasi model untuk keadilan
Pengantar evaluasi model demi keadilan
Metrik bias data untuk Vertex AI
Metrik bias model untuk Vertex AI
Tutorial notebook evaluasi model
Mengatur alur kerja ML menggunakan pipeline
Pengantar
Antarmuka
Mengonfigurasi project Anda
Membangun pipeline
Menjalankan pipeline
Menggunakan template pipeline
Membuat, mengupload, dan menggunakan template pipeline
Menggunakan template yang sudah tersedia di Galeri Template
Mengonfigurasi pipeline Anda
Mengonfigurasi caching eksekusi
Mengonfigurasi kebijakan kegagalan
Mengonfigurasi percobaan ulang untuk tugas pipeline
Menentukan jenis mesin untuk langkah pipeline
Meminta resource mesin Google Cloud dengan Vertex AI Pipelines
Mengonfigurasi antarmuka Private Service Connect (direkomendasikan)
Mengonfigurasi secret dengan Secret Manager
Mengonfigurasi eksekusi pipeline pada resource persisten
Menjadwalkan dan memicu operasi pipeline
Menjadwalkan proses pipeline dengan scheduler API
Memicu proses pipeline dengan Pub/Sub
Membatalkan atau menghapus eksekusi pipeline
Membatalkan operasi pipeline
Menghapus operasi pipeline
Menjalankan ulang pipeline
Memantau eksekusi pipeline
Melihat metrik pipeline
Melihat log tugas pipeline
Merutekan log ke sink Cloud Pub/Sub
Mengonfigurasi notifikasi email
Memvisualisasikan hasil
Memvisualisasikan dan menganalisis hasil pipeline
Melacak silsilah artefak pipeline
Menghasilkan output HTML dan Markdown
Pelabelan resource oleh Vertex AI Pipelines
Memahami biaya operasi pipeline
Bermigrasi dari Kubeflow Pipelines ke Vertex AI Pipelines
Menggunakan batasan kustom
Google Cloud Pipeline Components
Panduan memulai
Pengantar Komponen Pipeline Google Cloud
Daftar Komponen Pipeline Google Cloud
Menggunakan Komponen Pipeline Google Cloud
Membangun komponen pipeline Anda sendiri
Tutorial Vertex AI Pipelines
Notebook tutorial
Melacak dan menganalisis metadata ML Anda
Pengantar Vertex ML Metadata
Model data dan resource
Mengonfigurasi penyimpanan metadata project Anda
Menggunakan Vertex ML Metadata
Melacak Vertex ML Metadata
Menganalisis Vertex ML Metadata
Mengelola Vertex ML Metadata
Skema sistem
Membuat dan menggunakan skema kustom
Menggunakan batasan kustom dengan penyimpanan metadata
Tutorial notebook Vertex ML Metadata
Memahami perilaku model
Pengantar Explainable AI
Mengonfigurasi penjelasan berbasis contoh untuk pelatihan kustom
Mengonfigurasi penjelasan berbasis fitur untuk pelatihan kustom
Mengonfigurasi penjelasan
Mengonfigurasi setelan visualisasi
Meningkatkan penjelasan
Mengonfigurasi penjelasan berbasis fitur untuk klasifikasi gambar AutoML
Mengonfigurasi setelan visualisasi
Meningkatkan penjelasan
Menggunakan TensorFlow untuk penjelasan
Mendapatkan penjelasan
Keterbatasan Explainable AI
Tutorial notebook Explainable AI
Memantau kualitas model
Pengantar Pemantauan Model
Pemantauan Model v2
Menyiapkan pemantauan model
Menjalankan tugas pemantauan
Mengelola monitor model
Pemantauan Model v1
Memberikan skema untuk Pemantauan Model
Memantau diferensiasi performa dan penyimpangan fitur
Memantau skew dan penyimpangan atribusi fitur
Pemantauan Model untuk prediksi batch
Melacak Experiments
Pengantar Vertex AI Experiments
Menyiapkan Vertex AI Experiments
Membuat eksperimen
Membuat dan mengelola operasi eksperimen
Data log
Mencatat data secara otomatis ke operasi eksperimen
Mencatat data secara manual ke operasi eksperimen
Mencatat model ke operasi eksperimen
Melacak eksekusi dan artefak
Menambahkan operasi pipeline ke eksperimen
Menjalankan tugas pelatihan dengan pelacakan eksperimen
Membandingkan dan menganalisis operasi
Menggunakan Vertex AI TensorBoard
Pengantar Vertex AI TensorBoard
Menyiapkan Vertex AI TensorBoard
Mengonfigurasi skrip pelatihan
Menggunakan Vertex AI TensorBoard dengan pelatihan kustom
Menggunakan Vertex AI TensorBoard dengan Vertex AI Pipelines
Mencatat data TensorBoard ke dalam log secara manual
Mengupload log yang sudah ada
Melihat Vertex AI TensorBoard
Tutorial notebook
Mulai Menggunakan Vertex AI Experiments
Membandingkan operasi pipeline
Pelatihan model
Membandingkan model
Pencatatan otomatis
Logging otomatis pelatihan kustom
Melacak parameter dan metrik untuk pelatihan kustom
Menghapus eksperimen Vertex AI TensorBoard yang sudah tidak berlaku
Pelatihan kustom Vertex AI TensorBoard dengan container kustom
Pelatihan kustom Vertex AI TensorBoard dengan container bawaan