Cookbook AI Cloud Run

Halaman ini menyediakan daftar pilihan resource untuk membantu Anda membangun dan men-deploy solusi AI di Cloud Run.

Cloud Run adalah platform aplikasi terkelola sepenuhnya untuk menjalankan kode, fungsi, atau container di atas infrastruktur Google yang sangat skalabel. Anda dapat menggunakan Cloud Run untuk menjalankan berbagai solusi AI, seperti endpoint inferensi AI, API model generatif, seluruh pipeline Retrieval-Augmented Generation (RAG), dan banyak lagi.

Gunakan kategori dan link di bawah untuk membuka panduan resmi, mulai cepat, dan konten komunitas yang berharga. Untuk dokumentasi dan rekomendasi Cloud Run, lihat Menjelajahi solusi AI di Cloud Run.

Catatan tentang sumber daya komunitas

Konten yang diberi label "Komunitas" adalah resource pilihan dari komunitas developer, dan tidak dikembangkan atau dikelola oleh Google. Perhatikan peringatan berikut saat menggunakan sumber ini:

  • Audit keamanan: Selalu tinjau kode dengan cermat, terutama cara kode menangani informasi pribadi, input pengguna, dan akses jaringan.
  • Penghentian penggunaan dan update: Kode komunitas mungkin menjadi tidak berlaku atau berhenti berfungsi dengan fitur Cloud Run baru atau versi AI tanpa peringatan. Periksa tanggal update terakhirnya dan apakah masih dipertahankan secara aktif.
  • Efisiensi biaya: Meskipun penyiapan ini sering kali bertujuan untuk biaya rendah, penyiapan ini mungkin tidak mengikuti praktik terbaik Google untuk menghemat uang dalam project aktif. Pantau penagihan Anda dengan cermat.
  • Kepatuhan terhadap lisensi: Pastikan Anda memahami dan mengikuti lisensi open source untuk setiap kode atau library komunitas yang Anda tambahkan ke aplikasi Anda.
  • Uji sebelum men-deploy: Verifikasi semua setelan penting, dan coba solusi komunitas di lingkungan pengujian sebelum menggunakannya untuk project aktif.

Memfilter menurut kategori atau kata kunci

Gunakan filter atau kotak penelusuran untuk menemukan konten berdasarkan kategori atau kata kunci.


Filter menurut:
Kategori Judul dan deskripsi Tanggal dipublikasikan
Blog
Gemma 3

Praktik langsung Gemma 3 di Google Cloud

Postingan blog ini mengumumkan dua codelab yang menunjukkan kepada developer cara men-deploy Gemma 3 di Google Cloud menggunakan Cloud Run untuk pendekatan serverless atau Google Kubernetes Engine (GKE) untuk pendekatan platform.

2025-11-17
Blog
Alat

Otomatisasi alur kerja AI yang mudah: Men-deploy n8n di Cloud Run

Postingan blog ini menjelaskan cara men-deploy agen menggunakan alat otomatisasi alur kerja n8n di Cloud Run untuk membuat alur kerja yang didukung AI dan berintegrasi dengan alat seperti Google Workspace.

2025-11-07
Blog
Ekstensi
Gemini

Mengotomatiskan deployment aplikasi dan analisis keamanan dengan ekstensi Gemini CLI baru

Postingan blog ini mengumumkan ekstensi Cloud Run di Gemini CLI untuk menyederhanakan deployment aplikasi dengan satu perintah /deploy.

2025-09-10
Blog
Ekstensi
Gemini

Dari localhost hingga peluncuran: Sederhanakan deployment aplikasi AI dengan Cloud Run dan Docker Compose

Postingan blog ini mengumumkan kolaborasi antara Google Cloud dan Docker yang menyederhanakan deployment aplikasi AI yang kompleks dengan memungkinkan developer menggunakan perintah gcloud run compose up untuk men-deploy file compose.yaml mereka langsung ke Cloud Run.

2025-07-10
Blog
MCP

Membangun dan Men-deploy Server MCP Jarak Jauh ke Google Cloud Run dalam Waktu Kurang dari 10 Menit

Postingan blog ini memberikan panduan langkah demi langkah untuk membangun dan men-deploy server Model Context Protocol (MCP) jarak jauh yang aman di Google Cloud Run dalam waktu kurang dari 10 menit menggunakan FastMCP, lalu mengujinya dari klien lokal.

2025-06-07
Agen
AI Studio
Blog
MCP

Deployment AI yang mudah: Deploy aplikasi Anda ke Cloud Run dari AI Studio atau agen AI yang kompatibel dengan MCP

Postingan blog ini memperkenalkan cara menyederhanakan deployment AI dengan deployment sekali klik dari AI Studio ke Cloud Run, deployment langsung model Gemma 3, dan server MCP untuk deployment berbasis agen.

2025-05-20
Agen
Blog
Kasus penggunaan

Penggabungan 50% lebih cepat dan bug 50% lebih sedikit: Cara CodeRabbit membangun agen peninjauan kode AI dengan Google Cloud Run

Artikel ini menunjukkan cara CodeRabbit, alat peninjauan kode AI, menggunakan Cloud Run untuk membangun platform yang skalabel dan aman untuk mengeksekusi kode yang tidak tepercaya, yang pada akhirnya memangkas waktu peninjauan kode dan bug hingga setengahnya.

2025-04-22
Blog
Vertex AI

Buat aplikasi AI generatif yang dapat dibagikan dalam waktu kurang dari 60 detik dengan Vertex AI dan Cloud Run

Artikel ini memperkenalkan fitur di Vertex AI yang memungkinkan deployment aplikasi web sekali klik di Cloud Run. Gunakan perintah AI generatif untuk menyederhanakan proses mengubah konsep AI generatif menjadi prototipe yang dapat dibagikan.

2025-02-20
Blog
Deployment

Cara men-deploy AI serverless dengan Gemma 3 di Cloud Run

Postingan blog ini mengumumkan Gemma 3, serangkaian model AI terbuka yang ringan, dan menjelaskan cara men-deploy-nya di Cloud Run untuk aplikasi AI serverless yang skalabel dan hemat biaya.

2025-03-12
Blog
GPU
Inferensi
RAG
Vertex AI

Membuka Inference-as-a-Service dengan Cloud Run dan Vertex AI

Postingan blog ini menjelaskan cara developer dapat mempercepat pengembangan aplikasi AI generatif dengan menerapkan model Inference-as-a-Service di Cloud Run. Hal ini memungkinkan hosting dan penskalaan LLM dengan dukungan GPU serta mengintegrasikannya dengan Retrieval-Augmented Generation (RAG) untuk respons khusus konteks.

2025-02-20
Arsitektur
RAG
Vertex AI

Infrastruktur RAG untuk AI generatif menggunakan Vertex AI dan Penelusuran Vektor

Dokumen ini menyajikan arsitektur referensi untuk membangun aplikasi AI generatif dengan Retrieval-Augmented Generation (RAG) di Google Cloud, yang memanfaatkan Penelusuran Vektor untuk pencocokan kemiripan skala besar dan Vertex AI untuk mengelola embedding dan model.

2025-03-07
Agen
Antigravitasi
Video

Berhenti membuat kode, mulai merancang arsitektur: Google Antigravity + Cloud Run

Video ini memperkenalkan IDE agentik Google, Antigravity. Gunakan untuk membangun dan men-deploy aplikasi full stack ke Cloud Run dari awal. Tonton video ini untuk menulis lembar spesifikasi untuk AI, memaksanya menggunakan Node.js modern (tanpa langkah-langkah build!), dan melihatnya secara mandiri men-debug ketidakcocokan port selama deployment yang menyentuh file konfigurasi.

2025-12-08
Agen
GPU
Ollama
Video

Agen AI ini berjalan di Cloud Run + GPU NVIDIA

Video ini menunjukkan cara membangun aplikasi agen AI nyata di GPU NVIDIA serverless. Tonton demo agen kesehatan pintar yang menggunakan model open source seperti Gemma dengan Ollama di Cloud Run, dan LangGraph untuk membangun alur kerja multi-agen (RAG + alat).

2025-11-13
MCP
Video

Mendukung agen AI Anda dengan alat MCP di Google Cloud Run

Video ini memperkenalkan MCP (Model Context Protocol) dan cara mempermudah pekerjaan developer agen AI. Dapatkan panduan untuk membangun server MCP menggunakan FastMCP, dan men-deploy agen ADK di Cloud Run. Lihat cara kode menangani autentikasi layanan ke layanan menggunakan token OIDC bawaan Cloud Run.

2025-11-06
Model Armor
Keamanan
Video

Kami mencoba mengeksploitasi AI kami (dan Model Armor menghentikannya)

Video ini menunjukkan contoh penggunaan Model Armor Google untuk memblokir ancaman dengan panggilan API.

30-10-2025
Tolok ukur
Vertex AI
Video

Jangan menebak: Cara mengukur tolok ukur perintah AI Anda

Video ini menunjukkan cara menggunakan Vertex AI untuk membangun aplikasi AI generatif yang andal menggunakan alat Google Cloud. Developer akan mempelajari cara menggunakan alat Google Cloud untuk pembuatan prototipe yang cepat, mendapatkan angka pasti dengan tolok ukur berbasis data, dan terakhir, membangun pipeline CI/CD otomatis untuk kontrol kualitas yang sebenarnya, sekaligus menghindari kesalahan umum.

2025-10-23
ADK
Multi-agen
Video

Cara membangun aplikasi multiagen dengan ADK dan Gemini

Video ini menunjukkan cara membuat aplikasi menggunakan ADK (Agent Development Toolkit) Google yang membantu Anda menyempurnakan dan berkolaborasi dalam konten. Pelajari cara kerja multi-agen stateful yang lebih baik daripada agen tunggal.

2025-10-16
Gemini
Video

Membangun aplikasi AI yang menonton video menggunakan Gemini

Video ini menunjukkan cara membuat aplikasi yang menonton dan memahami video YouTube menggunakan Gemini 2.5 Pro. Gunakan perintah pintar untuk menyesuaikan output aplikasi Anda untuk postingan blog, ringkasan, kuis, dan lainnya. Video ini membahas cara mengintegrasikan Gemini untuk membuat konten teks dan gambar header dari input video, membahas pertimbangan biaya, dan menjelaskan cara menangani video yang lebih panjang dengan permintaan batch.

2025-10-06
GenAI
Video

Mari kita bangun aplikasi GenAI di Cloud Run

Video ini akan menjelaskan arsitektur dan kode, menggunakan AI untuk membantu setiap langkah.

2025-07-17
Agen
Firebase
Video

Membangun agen AI dengan Cloud Run dan Firebase Genkit

Video ini menunjukkan cara membangun agen AI dengan Cloud Run dan Firebase Genkit, yaitu pembangun agen AI serverless.

2025-07-10
AI Studio
Firebase
Gemini
LLM
Video

Cloud AI: hanya API

Video ini memberikan demo tentang cara membangun aplikasi dukungan teknis dengan cepat menggunakan AI Studio, Cloud Functions, dan Firebase Hosting. Pelajari cara memanfaatkan Model Bahasa Besar (LLM) dan lihat contoh praktis mengintegrasikan AI ke dalam aplikasi web tradisional.

2025-06-19
ADK
Agen
Framework
LangGraph
Vertex AI
Video

Membangun agen AI di Google Cloud

Video ini menunjukkan cara membangun dan men-deploy agen AI menggunakan Cloud Run dan Vertex AI. Pelajari konsep utama seperti panggilan alat, agnostisisme model, dan penggunaan framework seperti LangGraph dan Agent Development Kit (ADK).

2025-05-21
Model AI
GPU
Ollama
Video

Cara menghosting DeepSeek dengan GPU Cloud Run dalam 3 langkah

Video ini menunjukkan cara menyederhanakan hosting model AI DeepSeek dengan GPU Cloud Run. Pelajari cara men-deploy dan mengelola Model Bahasa Besar (LLM) di Google Cloud dengan tiga perintah. Tonton dan temukan kemampuan Cloud Run dan alat command line Ollama, yang memungkinkan developer mengoperasikan aplikasi AI dengan cepat menggunakan alokasi dan penskalaan resource sesuai permintaan.

2025-04-24
Panggilan fungsi
Gemini
Video

Cara menggunakan panggilan fungsi Gemini dengan Cloud Run

Video ini membahas kecanggihan panggilan fungsi Gemini dan mempelajari cara mengintegrasikan API eksternal ke dalam aplikasi AI Anda. Buat aplikasi cuaca yang memanfaatkan pemahaman bahasa alami Gemini untuk memproses permintaan pengguna dan mengambil data cuaca dari API eksternal, sehingga memberikan contoh praktis panggilan fungsi dalam tindakan.

2025-01-23
Pembuatan gambar
Vertex AI
Video

Text-to-image dengan Vertex AI Google Cloud di Cloud Run

Video ini menunjukkan cara membuat aplikasi pembuatan gambar menggunakan Vertex AI di Google Cloud. Dengan model pembuatan gambar Vertex AI, developer dapat membuat visual yang memukau tanpa memerlukan infrastruktur atau pengelolaan model yang rumit.

2025-01-16
GPU
Ollama
Video

Ollama dan Cloud Run dengan GPU

Video ini menjelaskan cara menggunakan Ollama untuk men-deploy model bahasa besar dengan mudah di Cloud Run dengan GPU untuk deployment model AI yang skalabel dan efisien di cloud.

2024-12-02
Perlindungan data
Keamanan
Video

Melindungi data sensitif di aplikasi AI

Video ini menunjukkan cara mengamankan data sensitif dalam aplikasi AI. Pelajari konsep utama, praktik terbaik, dan alat untuk melindungi data di sepanjang siklus proses AI.

2024-11-21
LangChain
RAG
Video

RAG dengan LangChain di Google Cloud

Video ini menunjukkan cara meningkatkan akurasi aplikasi AI Anda menggunakan Retrieval-Augmented Generation (RAG). Bangun aplikasi web yang memanfaatkan kecanggihan RAG dengan LangChain, sebuah teknik yang membuat respons AI lebih akurat dan presisi.

2024-11-07
Jendela dialog besar
Penyesuaian model
RAG
Video

RAG vs. Penyesuaian model vs. Jendela perintah besar

Video ini membahas tiga metode utama untuk mengintegrasikan data Anda ke dalam aplikasi AI: perintah dengan jendela konteks panjang, Retrieval Augmented Generation (RAG), dan penyesuaian model. Pelajari kelebihan, keterbatasan, dan kasus penggunaan ideal untuk setiap pendekatan guna membuat keputusan yang tepat untuk project AI Anda dalam episode Serverless Expeditions ini.

2024-11-14
Rekayasa perintah
Video

Rekayasa perintah untuk developer

Video ini menunjukkan cara menggunakan rekayasa perintah untuk meningkatkan kualitas respons AI. Tonton video ini untuk mempelajari cara mendapatkan respons yang lebih akurat dan relevan dari AI generatif dengan teknik prompting chain of thought, few-shot, dan multi-shot.

2024-10-31
Model AI
GPU
LLM
Video

Men-deploy LLM yang Didukung GPU di Cloud Run

Video ini menunjukkan cara men-deploy model bahasa besar (LLM) Anda sendiri yang didukung GPU di Cloud Run. Video ini menjelaskan cara mengambil model open source seperti Gemma dan men-deploy-nya sebagai layanan tanpa server yang skalabel dengan akselerasi GPU

2024-10-06
GPU
LLM
Ollama
Video

Menggunakan GPU di Cloud Run

Video ini menunjukkan demonstrasi deployment Gemma 2 Google, model bahasa besar open source, melalui Ollama di Cloud Run.

2024-10-03
Gemini
LLM
Video

Membangun aplikasi chat AI di Google Cloud

Video ini menunjukkan cara membuat aplikasi chat model bahasa besar (LLM) di Gemini.

2024-08-29
Multimodal
Vertex AI
Video

AI Multimodal

Video ini menunjukkan demo penggunaan Vertex AI untuk membangun aplikasi multimodal yang memproses video, audio, dan teks untuk membuat output.

2024-08-15
Model AI
Vertex AI
Video

Menggunakan AI Generatif Serverless | Google Vertex AI

Video ini menunjukkan cara membangun dan men-deploy aplikasi AI generatif yang sangat cepat menggunakan Vertex AI Studio, Cloud Run, dan model AI generatif.

2024-02-22
Codelab
Alat

Men-deploy dan Menjalankan n8n di Google Cloud Run

Codelab ini menunjukkan cara men-deploy instance alat otomatisasi alur kerja n8n yang siap produksi di Cloud Run, lengkap dengan database Cloud SQL untuk persistensi dan Secret Manager untuk data sensitif.

2025-11-20
Codelab
GPU
LLM

Cara menjalankan inferensi LLM di GPU Cloud Run dengan vLLM dan OpenAI Python SDK

Codelab ini menunjukkan cara men-deploy model yang telah di-tune untuk mengikuti perintah Gemma 2 2b Google di Cloud Run dengan GPU, menggunakan vLLM sebagai mesin inferensi dan OpenAI Python SDK untuk melakukan penyelesaian kalimat.

2025-11-13
ADK
Agen
Codelab

Men-deploy, Mengelola, dan Memantau Agen ADK di Cloud Run

Codelab ini memandu Anda men-deploy, mengelola, dan memantau agen canggih yang dibangun dengan Agent Development Kit (ADK) di Cloud Run.

12-11-2025
Codelab
Gemini CLI
MCP

Cara men-deploy server MCP yang aman di Cloud Run

Codelab ini akan memandu Anda men-deploy server Model Context Protocol (MCP) yang aman di Cloud Run dan menghubungkannya dari Gemini CLI.

2025-10-28
ADK
Agen
Codelab
MCP

Membangun dan men-deploy agen ADK yang menggunakan server MCP di Cloud Run

Codelab ini memandu Anda dalam membangun dan men-deploy agen AI yang menggunakan alat dengan Agent Development Kit (ADK). Agen terhubung ke server MCP jarak jauh untuk alatnya, dan di-deploy sebagai container di Cloud Run.

2025-10-27
Model AI
Tugas Cloud Run
Codelab
Penyesuaian model

Cara menyesuaikan LLM menggunakan Tugas Cloud Run

Codelab ini memberikan panduan langkah demi langkah tentang cara menggunakan Tugas Cloud Run dengan GPU untuk menyempurnakan model Gemma 3 pada set data Text2Emoji, lalu menayangkan model yang dihasilkan di layanan Cloud Run dengan vLLM.

2025-10-21
Inferensi batch
Tugas Cloud Run
Codelab

Cara menjalankan inferensi batch di tugas Cloud Run

Codelab ini menunjukkan cara menggunakan tugas Cloud Run yang didukung GPU untuk menjalankan inferensi batch pada model Llama 3.2-1b dan menulis hasilnya langsung ke bucket Cloud Storage.

2025-10-21
ADK
Agen
Codelab
GPU
LLM
MCP

Lab 3:Prototype ke Produksi - Men-deploy Agen ADK ke Cloud Run dengan GPU

Codelab ini menunjukkan cara men-deploy agen Agent Development Kit (ADK) yang siap produksi dengan backend Gemma yang dipercepat GPU di Cloud Run. Codelab ini mencakup pengujian deployment, integrasi, dan performa.

2025-10-03
Agen
Codelab

Cara men-deploy aplikasi frontend Gradio yang memanggil agen ADK backend, yang keduanya berjalan di Cloud Run

Codelab ini menunjukkan cara men-deploy aplikasi dua tingkat di Cloud Run, yang terdiri dari frontend Gradio dan backend agen ADK, dengan fokus pada penerapan komunikasi layanan-ke-layanan yang aman dan terautentikasi.

2025-09-29
Codelab
Gemini

Cara men-deploy aplikasi chatbot FastAPI ke Cloud Run menggunakan Gemini

Codelab ini menunjukkan cara men-deploy aplikasi chatbot FastAPI ke Cloud Run.

2025-04-02
Cloud Run Functions
Codelab
LLM

Cara menghosting LLM di sidecar untuk fungsi Cloud Run

Codelab ini menunjukkan cara menghosting model gemma3:4b di sidecar untuk fungsi Cloud Run.

2025-03-27
Komunitas
Keamanan

Memanggil layanan Cloud Run Anda secara aman dari mana saja

Artikel ini memberikan contoh kode Python yang mendapatkan token identitas untuk memanggil layanan Cloud Run yang diautentikasi secara aman dari lingkungan mana pun. Contoh ini menggunakan kredensial default aplikasi (ADC) untuk mengautentikasi panggilan.

2025-10-15
Model AI
Komunitas
RAG

Serverless AI: EmbeddingGemma dengan Cloud Run

Artikel ini memberikan panduan langkah demi langkah tentang cara membuat container dan men-deploy model EmbeddingGemma ke Cloud Run dengan GPU, lalu menggunakannya untuk membangun aplikasi RAG.

2025-09-24
Komunitas
Keamanan

Rantai Kepercayaan untuk AI: Mengamankan Arsitektur MCP Toolbox di Cloud Run

Artikel ini menguraikan aplikasi pemesanan hotel sederhana yang dibangun di Google Cloud. Aplikasi ini menunjukkan model keamanan zero-trust yang tangguh menggunakan identitas layanan, dan menunjukkan cara membuat rantai kepercayaan yang aman dari pengguna akhir hingga database.

03-09-2025
Model AI
Komunitas
Containerisasi
Docker
Ollama
RAG

AI Serverless: Qwen3 Embeddings dengan Cloud Run

Artikel ini memberikan tutorial tentang cara men-deploy model Sematan Qwen3 ke Cloud Run dengan GPU. Artikel ini juga membahas containerisasi dengan Docker dan Ollama, serta memberikan contoh cara menggunakannya dalam aplikasi RAG.

2025-08-20
Arsitektur
Komunitas
LLM

Masih Mengemas Model AI dalam Container? Lakukan Ini Sebagai Gantinya di Cloud Run

Artikel ini menganjurkan arsitektur yang lebih efisien dan skalabel untuk menayangkan model bahasa besar (LLM) di Cloud Run dengan memisahkan file model dari container aplikasi, dan sebagai gantinya menggunakan Cloud Storage FUSE.

2025-08-11
Model AI
Komunitas

Membangun Generator Podcast yang Didukung AI dengan Gemini dan Cloud Run

Artikel ini menjelaskan secara mendetail cara membuat generator podcast serverless yang didukung AI yang menggunakan Gemini untuk meringkas konten dan Cloud Run. Contoh ini mengatur pipeline otomatis untuk membuat dan mengirimkan ringkasan audio harian dari feed RSS.

2025-08-11
Komunitas
MCP

Mengaktifkan server MCP Anda dengan Google Cloud Run

Artikel ini menjelaskan tujuan Model Context Protocol (MCP) dan memberikan tutorial tentang cara membangun dan men-deploy server MCP di Cloud Run untuk mengekspos resource sebagai alat untuk aplikasi AI.

2025-07-09
Komunitas
Model ML
Monitoring

Men-deploy & Memantau Model ML dengan Cloud Run — Ringan, Dapat Diskala, dan Hemat Biaya

Artikel ini menjelaskan cara men-deploy, memantau, dan menskalakan model machine learning secara otomatis di Cloud Run, dengan memanfaatkan stack pemantauan ringan dengan layanan Google Cloud untuk melacak performa dan mengontrol biaya.

2025-05-29
Model AI
AI Studio
Komunitas
LLM

Men-deploy Gemma Langsung dari AI Studio ke Cloud Run

Artikel ini memberikan tutorial langkah demi langkah tentang cara mengambil model Gemma dari AI Studio, menyesuaikan kodenya untuk produksi, dan men-deploy-nya sebagai aplikasi web yang di-container-kan di Cloud Run.

2025-05-29
ADK
Agen
Komunitas
MCP

Triad Arsitektur Agen: ADK, MCP, dan Cloud Run

Artikel ini menunjukkan cara membangun arsitektur berbasis agen AI dengan menyiapkan alur kerja Agent Development Kit (ADK) yang berkomunikasi dengan server Model Context Protocol (MCP) yang dihosting di Cloud Run untuk mengelola pemesanan penerbangan.

2025-05-27
A2A
Agen
Komunitas
Framework
Kasus penggunaan

Mempelajari Protokol Agent2Agent (A2A) dengan Kasus Penggunaan Concierge Pembelian di Cloud Run

Artikel ini menjelaskan protokol Agent2Agent (A2A) dan menunjukkan penggunaannya dengan aplikasi concierge pembelian. Aplikasi Cloud Run berisi beberapa agen AI, yang dibuat dengan framework yang berbeda, dan berkolaborasi untuk memenuhi pesanan pengguna.

2025-05-15
Model AI
Otomatisasi
CI/CD
Komunitas
GitHub

Mengotomatiskan Deployment Model ML dengan GitHub Actions dan Cloud Run

Artikel ini memberikan panduan komprehensif tentang cara membuat pipeline CI/CD dengan GitHub Actions untuk mengotomatiskan build dan deployment model machine learning sebagai layanan yang di-container di Cloud Run.

2025-05-08
Komunitas
LLM
Keamanan

Membangun Solusi AI Berdaulat dengan Google Cloud - Cloud Run

Artikel ini memberikan panduan langkah demi langkah tentang cara membangun dan men-deploy solusi AI berdaulat di Google Cloud dengan menggunakan Sovereign Controls dari Partners. Contoh ini menjalankan model Gemma di Cloud Run, sehingga memastikan residensi data dan kepatuhan terhadap peraturan Eropa.

2025-04-03
Komunitas
LLM

Dari Zero hingga Deepseek di Cloud Run selama perjalanan pagi saya

Artikel ini menunjukkan cara men-deploy model Deepseek R1 dengan cepat di Cloud Run dengan GPU menggunakan Ollama selama perjalanan pagi. Artikel ini membahas topik lanjutan seperti menyematkan model dalam container, pengujian A/B dengan pembagian traffic, dan menambahkan UI web dengan container sidecar.

2025-02-11
Komunitas
LLM
Ollama

Cara menjalankan LLM terbuka (apa pun) dengan Ollama di Google Cloud Run [Langkah demi langkah]

Artikel ini menunjukkan cara menghosting LLM terbuka apa pun, seperti Gemma 2, di Google Cloud Run menggunakan Ollama. Artikel ini juga menyertakan petunjuk untuk membuat bucket Cloud Storage untuk persistensi model dan menguji deployment.

2025-01-20
Komunitas
Model ML

Deployment model Machine Learning Serverless dengan GPU menggunakan Google Cloud: Cloud Run

Artikel ini memberikan panduan langkah demi langkah untuk men-deploy model machine learning (ML) dengan dukungan GPU di Cloud Run. Artikel ini mencakup semuanya mulai dari penyiapan project dan containerisasi hingga deployment otomatis dengan Cloud Build dan pengujian dengan curl dan JavaScript.

2025-01-17