Langsung ke konten utama
Google Cloud
Dokumentasi Area teknologi
  • AI dan ML
  • Pengembangan aplikasi
  • Hosting aplikasi
  • Compute
  • Analisis data dan pipeline
  • Database
  • Terdistribusi, hybrid, dan multicloud
  • AI Generatif
  • Solusi industri
  • Jaringan profesional
  • Kemampuan observasi dan pemantauan
  • Keamanan
  • Storage
Alat lintas produk
  • Pengelolaan akses dan resource
  • Pengelolaan biaya dan penggunaan
  • Google Cloud SDK, bahasa, framework, dan alat
  • Infrastruktur sebagai kode
  • Migrasi
Situs terkait
  • Beranda Google Cloud
  • Uji Coba Gratis dan Paket Gratis
  • Architecture Center
  • Blog
  • Hubungi Bagian Penjualan
  • Pusat Developer Google Cloud
  • Pusat Developer Google
  • Google Cloud Marketplace
  • Dokumentasi Google Cloud Marketplace
  • Google Cloud Skills Boost
  • Google Cloud Solution Center
  • Dukungan Google Cloud
  • Channel YouTube Google Cloud Tech
/
  • English
  • Deutsch
  • Español
  • Español – América Latina
  • Français
  • Indonesia
  • Italiano
  • Português
  • Português – Brasil
  • 中文 – 简体
  • 中文 – 繁體
  • 日本語
  • 한국어
Konsol Masuk
  • Vertex AI
Panduan Referensi Contoh Dukungan Referensi
Hubungi Kami Mulai gratis
Google Cloud
  • Dokumentasi
    • Panduan
    • Referensi
    • Contoh
    • Dukungan
    • Referensi
  • Area teknologi
    • Lainnya
  • Alat lintas produk
    • Lainnya
  • Situs terkait
    • Lainnya
  • Konsol
  • Hubungi Kami
  • Mulai gratis
  • Discover
  • Ringkasan
  • Pengantar Vertex AI
  • MLOps di Vertex AI
  • Antarmuka untuk Vertex AI
  • Panduan pemula Vertex AI
    • Melatih model AutoML
    • Melatih model khusus
    • Mendapatkan inferensi dari model kustom
    • Melatih model menggunakan Vertex AI dan Python SDK
      • Pengantar
      • Prasyarat
      • Membuat notebook
      • Membuat set data
      • Membuat skrip pelatihan
      • Melatih model
      • Membuat inferensi
  • Framework ML terintegrasi
    • PyTorch
    • TensorFlow
  • Vertex AI untuk pengguna BigQuery
  • Glosarium
  • Mulai
  • Menyiapkan project dan lingkungan pengembangan
  • Menginstal Vertex AI SDK untuk Python
  • Memilih metode pelatihan
  • Mencoba tutorial
    • Ringkasan tutorial
    • Tutorial AutoML
      • Data gambar Hello
        • Ringkasan
        • Menyiapkan project dan lingkungan
        • Membuat set data dan mengimpor gambar
        • Melatih model klasifikasi gambar AutoML
        • Mengevaluasi dan menganalisis performa model
        • Men-deploy model ke endpoint dan membuat inferensi
        • Membersihkan project
      • Data tabular Hello
        • Ringkasan
        • Menyiapkan project dan lingkungan
        • Membuat set data dan melatih model klasifikasi AutoML
        • Men-deploy model dan meminta inferensi
        • Membersihkan project
    • Tutorial pelatihan kustom
      • Melatih model tabulasi khusus
      • Melatih model klasifikasi gambar TensorFlow Keras
        • Ringkasan
        • Menyiapkan project dan lingkungan
        • Melatih model klasifikasi gambar kustom
        • Menyajikan prediksi dari model klasifikasi gambar kustom.
        • Membersihkan project
      • Meningkatkan kualitas model klasifikasi gambar dengan data kustom
    • Tutorial notebook pelatihan kustom
  • Menggunakan AI Generatif dan LLM
  • Tentang AI generatif
  • Menggunakan alat pengembangan Vertex AI
  • Ringkasan alat pengembangan
  • Menggunakan Vertex AI SDK
    • Ringkasan
    • Pengantar Vertex AI SDK untuk Python
    • Vertex AI SDK untuk kelas Python
      • Ringkasan kelas Vertex AI SDK
      • Class data
      • Melatih class
      • Kelas model
      • Kelas prediksi
      • Melacak class
  • Menggunakan Vertex AI di notebook
    • Memilih solusi notebook
    • Colab Enterprise
      • Panduan memulai:Membuat notebook menggunakan konsol
      • Menghubungkan ke runtime
      • Mengelola runtime dan template runtime
        • Membuat template runtime
        • Membuat runtime
    • Vertex AI Workbench
      • Pengantar
      • Tutorial notebook
      • Mulai
        • Membuat instance menggunakan Konsol
        • Menjadwalkan operasi notebook
      • Menyiapkan instance
        • Membuat instance
        • Membuat versi instance tertentu
        • Membuat instance dengan akses kredensial pengguna
        • Membuat instance dengan Confidential Computing
        • Menambahkan lingkungan conda
        • Penonaktifan saat tidak ada aktivitas
        • Membuat instance menggunakan container kustom
        • Membuat instance yang mendukung Dataproc
        • Membuat instance dengan kredensial pihak ketiga
        • Mengelola fitur melalui metadata
        • Menggunakan reservasi
      • Menghubungkan ke data
        • Membuat kueri data di BigQuery dari dalam JupyterLab
        • Mengakses bucket dan file Cloud Storage di JupyterLab
      • Menjelajahi dan memvisualisasikan data
        • Menjelajahi dan memvisualisasikan data di BigQuery
      • Mempertahankan
        • Mengelola lingkungan conda Anda
        • Pencadangan dan pemulihan
          • Menyimpan notebook ke GitHub
          • Menggunakan snapshot
          • Gunakan Cloud Storage
        • Menonaktifkan instance
        • Mengupgrade lingkungan instance
        • Mengakses JupyterLab menggunakan SSH
        • Memigrasi data ke instance baru
        • Mengubah jenis mesin dan mengonfigurasi GPU
        • Menyediakan resource menggunakan Terraform
      • Monitor
        • Memantau status kondisi
      • Mengontrol akses
        • Kontrol akses
        • Mengelola akses ke instance
        • Mengelola akses ke antarmuka JupyterLab instance
        • Menggunakan kunci enkripsi yang dikelola pelanggan
        • Menggunakan instance dalam perimeter layanan
      • Memecahkan masalah Vertex AI Workbench
      • Catatan rilis Vertex AI Workbench
      • Notebook terkelola
        • Pengantar notebook terkelola
        • Mulai
          • Membuat instance notebook terkelola menggunakan Konsol Cloud
          • Menjadwalkan operasi notebook terkelola
        • Menyiapkan instance notebook terkelola
          • Membuat instance dengan container kustom
          • Menjalankan instance notebook terkelola di dalam cluster Dataproc
          • Menggunakan Dataproc Serverless Spark dengan notebook terkelola
          • Penonaktifan saat tidak ada aktivitas
          • Versi notebook terkelola
        • Menghubungkan ke data
          • Membuat kueri data di BigQuery dari dalam JupyterLab
          • Mengakses bucket dan file Cloud Storage di JupyterLab
        • Menjelajahi dan memvisualisasikan data
          • Ringkasan
          • Menjelajahi dan memvisualisasikan data di BigQuery
        • Mengembangkan model
          • Pengembangan model di instance notebook terkelola
        • Deploy
          • Menjalankan file notebook dengan eksekutor
          • Menjalankan eksekusi notebook dengan parameter
        • Mempertahankan
          • Bermigrasi ke instance Vertex AI Workbench
          • Menyimpan notebook ke GitHub
          • Mengubah jenis mesin dan mengonfigurasi GPU instance notebook terkelola
          • Mengupgrade lingkungan instance notebook terkelola
          • Memigrasikan data ke instance notebook terkelola yang baru
        • Monitor
          • Logging audit
        • Mengontrol akses
          • Kontrol akses
          • Mengelola akses ke instance
          • Mengelola akses ke antarmuka JupyterLab instance
          • Menggunakan kunci enkripsi yang dikelola pelanggan
          • Menyiapkan jaringan
          • Menggunakan instance notebook terkelola dalam perimeter layanan
        • Memecahkan masalah notebook terkelola
      • Notebook yang dikelola pengguna
        • Pengantar notebook yang dikelola pengguna
        • Mulai
          • Membuat instance notebook yang dikelola pengguna menggunakan Konsol Cloud
        • Menyiapkan instance notebook yang dikelola pengguna
          • Membuat versi instance tertentu
          • Memasang dependensi
          • Memilih image virtual machine
          • Membuat instance dengan container kustom
        • Jelajahi data
          • Data science dengan R di Google Cloud: Tutorial analisis data eksploratif
        • Monitor
          • Memantau status kondisi
          • Logging audit
        • Mengontrol akses
          • Kontrol akses
          • Mengelola akses ke instance
          • Mengelola akses ke antarmuka JupyterLab instance
          • Kunci enkripsi yang dikelola pelanggan
          • Gunakan instance notebook yang dikelola pengguna dalam perimeter layanan
          • Menggunakan virtual machine berpelindung dengan notebook yang dikelola pengguna
          • Tutorial: Membuat instance notebook di jaringan VPC
        • Mempertahankan
          • Bermigrasi ke instance Vertex AI Workbench
          • Menyimpan notebook ke GitHub
          • Mencadangkan data menggunakan snapshot
          • Menonaktifkan instance notebook yang dikelola pengguna
          • Mengubah jenis mesin dan konfigurasi GPU dari instance notebook yang dikelola pengguna
          • Mengupgrade lingkungan instance notebook yang dikelola pengguna
          • Memigrasikan data ke instance notebook baru yang dikelola pengguna
          • Mendaftarkan instance lama dengan Notebooks API
          • Mengakses JupyterLab menggunakan SSH
        • Memecahkan masalah notebook yang dikelola pengguna
  • Dukungan Terraform untuk Vertex AI
  • Pengembangan model AI prediktif
  • Ringkasan
  • Pengembangan model AutoML
    • Ringkasan pelatihan AutoML
    • Data gambar
      • Klasifikasi
        • Menyiapkan data
        • Buat set data
        • Latih model
        • Evaluasi model
        • Dapatkan prediksi
        • Menafsirkan Hasil
      • Deteksi objek
        • Menyiapkan data
        • Buat set data
        • Latih model
        • Evaluasi model
        • Dapatkan prediksi
        • Menafsirkan Hasil
      • Mengenkode data gambar menggunakan Base64
      • Mengekspor model AutoML Edge
    • Data tabulasi
      • Ringkasan
      • Pengantar data tabulasi
      • Alur Kerja Tabulasi
        • Ringkasan
        • Rekayasa fitur
        • AutoML Menyeluruh
          • Ringkasan
          • Melatih model
          • Mendapatkan inferensi online
          • Mendapatkan inferensi batch
        • TabNet
          • Ringkasan
          • Melatih model
          • Mendapatkan inferensi online
          • Mendapatkan inferensi batch
        • Wide & Deep
          • Ringkasan
          • Melatih model
          • Mendapatkan inferensi online
          • Mendapatkan inferensi batch
        • Perkiraan
          • Ringkasan
          • Melatih model
          • Mendapatkan inferensi online
          • Mendapatkan inferensi batch
        • Harga
        • Akun layanan
        • Mengelola kuota
      • Melakukan klasifikasi dan regresi dengan AutoML
        • Ringkasan
        • Panduan memulai: Klasifikasi AutoML (Konsol Cloud)
        • Menyiapkan data pelatihan
        • Membuat set data
        • Melatih model
        • Evaluasi model
        • Melihat arsitektur model
        • Mendapatkan inferensi online
        • Mendapatkan inferensi batch
        • Ekspor model
      • Membuat perkiraan dengan AutoML
        • Ringkasan
        • Menyiapkan data pelatihan
        • Membuat set data
        • Melatih model
        • Evaluasi model
        • Mendapatkan inferensi
        • Perkiraan hierarkis
      • Melakukan perkiraan dengan ARIMA+
      • Melakukan perkiraan dengan Prophet
      • Melakukan rekonsiliasi entity
      • Menampilkan atribusi untuk klasifikasi dan regresi
      • Atribusi fitur untuk perkiraan
      • Jenis data dan transformasi untuk data AutoML tabulasi
      • Parameter pelatihan untuk perkiraan
      • Pemisahan data untuk data tabulasi
      • Praktik terbaik untuk membuat data pelatihan tabulasi
      • Perkiraan dengan Insight Deret Waktu
    • Melatih model AutoML Edge
      • Menggunakan Console
      • Menggunakan API
    • AutoML Text
      • Bermigrasi dari teks AutoML ke Gemini
      • Gemini untuk pengguna teks AutoML
  • Vertex AI Training
    • Ringkasan pelatihan kustom di Vertex AI
    • Memuat dan menyiapkan data
      • Ringkasan persiapan data
      • Menggunakan Cloud Storage sebagai sistem file yang terpasang
      • Memasang berbagi secara NFS untuk pelatihan kustom
      • Menggunakan set data terkelola
    • Menyiapkan aplikasi pelatihan
      • Memahami layanan pelatihan kustom
      • Menyiapkan kode pelatihan
      • Menggunakan container bawaan
        • Membuat aplikasi pelatihan Python untuk container bawaan
        • Container bawaan untuk pelatihan khusus
      • Menggunakan container kustom
        • Container kustom untuk pelatihan
        • Membuat container kustom
        • Menyimpan data dalam container dan menjalankan kode pelatihan secara lokal
      • Menggunakan Deep Learning VM Image dan Container
    • Melatih resource yang persisten
      • Ringkasan
      • Membuat resource persisten
      • Menjalankan tugas pelatihan pada resource persisten
      • Mendapatkan informasi resource persisten
      • Mulai ulang resource persisten
      • Menghapus resource persisten
    • Mengonfigurasi tugas pelatihan
      • Memilih metode pelatihan khusus
      • Mengonfigurasi setelan container untuk pelatihan
      • Mengonfigurasi resource komputasi untuk pelatihan
      • Menggunakan reservasi dengan pelatihan
      • Menggunakan Spot VM dengan pelatihan
    • Mengirim tugas pelatihan
      • Membuat tugas kustom
      • Penyesuaian hyperparameter
        • Ringkasan penyesuaian hyperparameter
        • Menggunakan penyesuaian hyperparameter
      • Membuat pipeline pelatihan
      • Menjadwalkan tugas berdasarkan ketersediaan resource
      • Menggunakan pelatihan yang terdistribusi
      • Pelatihan dengan VM Cloud TPU
      • Menggunakan IP pribadi untuk pelatihan kustom
      • Menggunakan antarmuka Private Service Connect untuk pelatihan (direkomendasikan)
    • Melakukan Penelusuran Arsitektur Neural
      • Ringkasan
      • Lingkungan penyiapan
      • Tutorial tingkat pemula
      • Praktik terbaik dan alur kerja
      • Desain tugas proxy
      • Mengoptimalkan kecepatan pelatihan untuk PyTorch
      • Menggunakan container pelatihan bawaan dan ruang penelusuran
    • Memantau dan men-debug
      • Memantau dan men-debug pelatihan menggunakan shell interaktif
      • Membuat profil performa pelatihan model
    • Mengoptimalkan penggunaan Vertex AI Vizier
      • Ringkasan Vertex AI Vizier
      • Membuat studi Vertex AI Vizier
      • Tutorial notebook Vertex AI Vizier
    • Mendapatkan inferensi
    • Tutorial: Membangun pipeline untuk pelatihan berkelanjutan
    • Membuat batasan kebijakan organisasi kustom
  • Ray di Vertex AI
    • Ringkasan Ray di Vertex AI
    • Melakukan penyiapan untuk Ray di Vertex AI
    • Membuat cluster Ray di Vertex AI
    • Memantau cluster Ray di Vertex AI
    • Menskalakan cluster Ray di Vertex AI
    • Mengembangkan aplikasi Ray di Vertex AI
    • Menjalankan cluster Spark on Ray di Vertex AI
    • Menggunakan Ray di Vertex AI dengan BigQuery
    • Men-deploy model dan mendapatkan inferensi
    • Menghapus cluster Ray
    • Tutorial notebook Ray on Vertex AI
  • Pengembangan model AI generatif
  • Ringkasan
  • Membuat dan mengelola set data
  • Ringkasan
  • Pembagian data untuk model AutoML
  • Membuat kumpulan anotasi
  • Menghapus kumpulan anotasi
  • Menambahkan label (konsol)
  • Mengekspor metadata dan anotasi dari set data
  • Mengelola versi set data
  • Menggunakan Data Catalog untuk menelusuri resource model dan set data
  • Mendapatkan inferensi
  • Ringkasan
  • Mengonfigurasi model untuk inferensi
    • Mengekspor artefak model untuk inferensi
    • Container bawaan untuk inferensi
    • Persyaratan container kustom untuk inferensi
    • Menggunakan container kustom untuk inferensi
    • Menggunakan rute kustom arbitrer
    • Menggunakan runtime TensorFlow yang dioptimalkan
    • Menayangkan inferensi dengan NVIDIA Triton
    • Rutinitas inferensi kustom
  • Mendapatkan inferensi online
    • Buat endpoint
      • Memilih jenis endpoint
      • Membuat endpoint publik
      • Menggunakan endpoint publik khusus (direkomendasikan)
      • Menggunakan endpoint pribadi khusus berdasarkan Private Service Connect (direkomendasikan)
      • Menggunakan endpoint akses layanan pribadi
    • Men-deploy model ke endpoint
      • Ringkasan deployment model
      • Resource komputasi untuk inferensi
      • Men-deploy model menggunakan Konsol Google Cloud
      • Men-deploy model menggunakan gcloud CLI atau Vertex AI API
      • Menggunakan penskalaan otomatis untuk inferensi
      • Menggunakan deployment bertahap untuk mengganti model yang di-deploy
      • Membatalkan deployment model dan menghapus endpoint
      • Menggunakan Cloud TPU untuk inferensi online
      • Menggunakan reservasi dengan inferensi online
      • Menggunakan VM mulai fleksibel dengan inferensi
      • Menggunakan Spot VM dengan inferensi
    • Mendapatkan inferensi online
    • Melihat metrik inferensi online
      • Melihat metrik endpoint
      • Melihat metrik DCGM
    • Membagikan resource di seluruh deployment
    • Menggunakan logging inferensi online
  • Mendapatkan inferensi batch
    • Mendapatkan inferensi batch dari model kustom
    • Menggunakan reservasi dengan inferensi batch
    • Mendapatkan prediksi batch dari model Model Garden yang di-deploy sendiri
  • Menyajikan model AI generatif
    • Men-deploy model AI generatif
    • Menyajikan model terbuka Gemma menggunakan TPU Cloud dengan Saxml
    • Menyajikan model terbuka Llama 3 menggunakan Cloud TPU multi-host dengan Saxml
    • Menyajikan model DeepSeek-V3 menggunakan deployment GPU multi-host
  • Kebijakan organisasi kustom
  • Tutorial notebook inferensi Vertex AI
  • Melakukan penelusuran kemiripan vektor
  • Ringkasan Vector Search
  • Coba
  • Mulai
    • Panduan memulai Vector Search
    • Sebelum Anda memulai
    • Tutorial notebook
  • Tentang penelusuran campuran
  • Membuat dan mengelola indeks
    • Struktur dan format data input
    • Membuat dan mengelola indeks Anda
    • Indeks yang dioptimalkan untuk penyimpanan
    • Parameter konfigurasi indeks
    • Memperbarui dan membangun ulang indeks
    • Memfilter kecocokan vektor
    • Mengimpor data indeks dari BigQuery
    • Penyematan dengan metadata
  • Men-deploy dan membuat kueri indeks
    • Private Service Connect (direkomendasikan)
      • Menyiapkan Vector Search dengan Private Service Connect
      • Kueri
      • Autentikasi Token Web JSON
    • Endpoint publik
      • Deploy
      • Kueri
    • Private services access
      • Menyiapkan koneksi peering jaringan VPC
      • Deploy
      • Kueri
      • Autentikasi Token Web JSON
  • Memantau indeks yang di-deploy
  • Menggunakan kebijakan organisasi kustom
  • Mendapatkan dukungan
  • Operasi machine learning (MLOps)
  • Mengelola fitur
    • Pengelolaan fitur di Vertex AI
    • Vertex AI Feature Store
      • Tentang Vertex AI Feature Store
      • Menyiapkan fitur
        • Menyiapkan sumber data
        • Membuat grup fitur
        • Membuat fitur
      • Menyiapkan penyaluran online
        • Jenis penyaluran online
        • Membuat instance toko online
        • Membuat instance tampilan fitur
      • Mengontrol akses
        • Mengontrol akses ke resource
      • Menyinkronkan toko online
        • Memulai sinkronisasi data
        • Membuat daftar operasi sinkronisasi
        • Memperbarui fitur dalam tampilan fitur
      • Menayangkan fitur
        • Menyajikan fitur dari toko online
        • Menyajikan nilai fitur historis
      • Monitor
        • Fitur pemantauan
      • Mengelola resource fitur
        • Membuat daftar grup fitur
        • Mencantumkan fitur
        • Memperbarui grup fitur
        • Memperbarui fitur
        • Menghapus grup fitur
        • Menghapus fitur
      • Mengelola resource toko online
        • Membuat daftar toko online
        • Melihat daftar tampilan fitur
        • Memperbarui toko online
        • Memperbarui tampilan fitur
        • Menghapus toko online
        • Menghapus tampilan fitur
      • Metadata fitur
        • Perbarui label
      • Telusuri referensi
        • Telusuri referensi
        • Menelusuri metadata resource di Data Catalog
      • Mengelola embedding
        • Melakukan penelusuran menggunakan embedding
      • Tutorial notebook
        • Notebook tutorial Vertex AI Feature Store
    • Vertex AI Feature Store (Lama)
      • Tentang Vertex AI Feature Store (Lama)
      • Model data dan resource
      • Persyaratan data sumber
      • Penyiapan
      • Praktik terbaik
      • Menggunakan Vertex AI Feature Store (Lama)
        • Mengelola featurestore
        • Mengelola jenis entity
        • Mengelola dan menemukan fitur
        • Impor batch
        • Impor streaming
        • Penyaluran online
        • Mengambil data pelatihan
        • Mengekspor nilai fitur
        • Menghapus nilai fitur
        • Pemantauan
        • Mengontrol akses ke resource
  • Mengelola model
    • Pengantar Vertex AI Model Registry
    • Pembuatan versi di Model Registry
    • Mengimpor model ke Model Registry
    • Menyalin model di Model Registry
    • Menghapus model
    • Terintegrasi dengan BigQuery ML
    • Menggunakan alias model
    • Menggunakan label model
    • Menggunakan Data Catalog untuk menelusuri resource model dan set data
  • Mengevaluasi model
    • Evaluasi model di Vertex AI
    • Melakukan evaluasi model di Vertex AI
    • Evaluasi model untuk keadilan
      • Pengantar evaluasi model demi keadilan
      • Metrik bias data untuk Vertex AI
      • Metrik bias model untuk Vertex AI
    • Tutorial notebook evaluasi model
  • Mengatur alur kerja ML menggunakan pipeline
    • Pengantar
    • Antarmuka
    • Mengonfigurasi project Anda
    • Membangun pipeline
    • Menjalankan pipeline
    • Menggunakan template pipeline
      • Membuat, mengupload, dan menggunakan template pipeline
      • Menggunakan template yang sudah tersedia di Galeri Template
    • Mengonfigurasi pipeline Anda
      • Mengonfigurasi caching eksekusi
      • Mengonfigurasi kebijakan kegagalan
      • Mengonfigurasi percobaan ulang untuk tugas pipeline
      • Menentukan jenis mesin untuk langkah pipeline
      • Meminta resource mesin Google Cloud dengan Vertex AI Pipelines
      • Mengonfigurasi antarmuka Private Service Connect (direkomendasikan)
      • Mengonfigurasi secret dengan Secret Manager
      • Mengonfigurasi eksekusi pipeline pada resource persisten
    • Menjadwalkan dan memicu operasi pipeline
      • Menjadwalkan proses pipeline dengan scheduler API
      • Memicu proses pipeline dengan Pub/Sub
    • Membatalkan atau menghapus eksekusi pipeline
      • Membatalkan operasi pipeline
      • Menghapus operasi pipeline
    • Menjalankan ulang pipeline
    • Memantau eksekusi pipeline
      • Melihat metrik pipeline
      • Melihat log tugas pipeline
      • Merutekan log ke sink Cloud Pub/Sub
      • Mengonfigurasi notifikasi email
    • Memvisualisasikan hasil
      • Memvisualisasikan dan menganalisis hasil pipeline
      • Melacak silsilah artefak pipeline
      • Menghasilkan output HTML dan Markdown
    • Pelabelan resource oleh Vertex AI Pipelines
    • Memahami biaya operasi pipeline
    • Bermigrasi dari Kubeflow Pipelines ke Vertex AI Pipelines
    • Menggunakan batasan kustom
    • Google Cloud Pipeline Components
      • Panduan memulai
      • Pengantar Komponen Pipeline Google Cloud
      • Daftar Komponen Pipeline Google Cloud
      • Menggunakan Komponen Pipeline Google Cloud
      • Membangun komponen pipeline Anda sendiri
    • Tutorial Vertex AI Pipelines
      • Notebook tutorial
  • Melacak dan menganalisis metadata ML Anda
    • Pengantar Vertex ML Metadata
    • Model data dan resource
    • Mengonfigurasi penyimpanan metadata project Anda
    • Menggunakan Vertex ML Metadata
      • Melacak Vertex ML Metadata
      • Menganalisis Vertex ML Metadata
      • Mengelola Vertex ML Metadata
      • Skema sistem
      • Membuat dan menggunakan skema kustom
      • Menggunakan batasan kustom dengan penyimpanan metadata
    • Tutorial notebook Vertex ML Metadata
  • Memahami perilaku model
    • Pengantar Explainable AI
    • Mengonfigurasi penjelasan berbasis contoh untuk pelatihan kustom
    • Mengonfigurasi penjelasan berbasis fitur untuk pelatihan kustom
      • Mengonfigurasi penjelasan
      • Mengonfigurasi setelan visualisasi
      • Meningkatkan penjelasan
    • Mengonfigurasi penjelasan berbasis fitur untuk klasifikasi gambar AutoML
      • Mengonfigurasi setelan visualisasi
      • Meningkatkan penjelasan
    • Menggunakan TensorFlow untuk penjelasan
    • Mendapatkan penjelasan
    • Keterbatasan Explainable AI
    • Tutorial notebook Explainable AI
  • Memantau kualitas model
    • Pengantar Pemantauan Model
    • Pemantauan Model v2
      • Menyiapkan pemantauan model
      • Menjalankan tugas pemantauan
      • Mengelola monitor model
    • Pemantauan Model v1
      • Memberikan skema untuk Pemantauan Model
      • Memantau diferensiasi performa dan penyimpangan fitur
      • Memantau skew dan penyimpangan atribusi fitur
      • Pemantauan Model untuk prediksi batch
  • Melacak Experiments
    • Pengantar Vertex AI Experiments
    • Menyiapkan Vertex AI Experiments
    • Membuat eksperimen
    • Membuat dan mengelola operasi eksperimen
    • Data log
      • Mencatat data secara otomatis ke operasi eksperimen
      • Mencatat data secara manual ke operasi eksperimen
    • Mencatat model ke operasi eksperimen
    • Melacak eksekusi dan artefak
    • Menambahkan operasi pipeline ke eksperimen
    • Menjalankan tugas pelatihan dengan pelacakan eksperimen
    • Membandingkan dan menganalisis operasi
    • Menggunakan Vertex AI TensorBoard
      • Pengantar Vertex AI TensorBoard
      • Menyiapkan Vertex AI TensorBoard
      • Mengonfigurasi skrip pelatihan
      • Menggunakan Vertex AI TensorBoard dengan pelatihan kustom
      • Menggunakan Vertex AI TensorBoard dengan Vertex AI Pipelines
      • Mencatat data TensorBoard ke dalam log secara manual
      • Mengupload log yang sudah ada
      • Melihat Vertex AI TensorBoard
    • Tutorial notebook
      • Mulai Menggunakan Vertex AI Experiments
      • Membandingkan operasi pipeline
      • Pelatihan model
      • Membandingkan model
      • Pencatatan otomatis
      • Logging otomatis pelatihan kustom
      • Melacak parameter dan metrik untuk pelatihan kustom
      • Menghapus eksperimen Vertex AI TensorBoard yang sudah tidak berlaku
      • Pelatihan kustom Vertex AI TensorBoard dengan container kustom
      • Pelatihan kustom Vertex AI TensorBoard dengan container bawaan