Halaman ini menyediakan daftar pilihan resource untuk membantu Anda membangun dan men-deploy solusi AI di Cloud Run.
Cloud Run adalah platform aplikasi terkelola sepenuhnya untuk menjalankan kode, fungsi, atau container di atas infrastruktur Google yang sangat skalabel. Anda dapat menggunakan Cloud Run untuk menjalankan berbagai solusi AI, seperti endpoint inferensi AI, API model generatif, seluruh pipeline Retrieval-Augmented Generation (RAG), dan banyak lagi.
Gunakan kategori dan link di bawah untuk membuka panduan resmi, mulai cepat, dan konten komunitas yang berharga. Untuk dokumentasi dan rekomendasi Cloud Run, lihat Menjelajahi solusi AI di Cloud Run.
Catatan tentang sumber daya komunitas
Konten yang diberi label "Komunitas" adalah resource pilihan dari komunitas developer, dan tidak dikembangkan atau dikelola oleh Google. Perhatikan peringatan berikut saat menggunakan sumber ini:
- Audit keamanan: Selalu tinjau kode dengan cermat, terutama cara kode menangani informasi pribadi, input pengguna, dan akses jaringan.
- Penghentian penggunaan dan update: Kode komunitas mungkin menjadi tidak berlaku atau berhenti berfungsi dengan fitur Cloud Run baru atau versi AI tanpa peringatan. Periksa tanggal update terakhirnya dan apakah masih dipertahankan secara aktif.
- Efisiensi biaya: Meskipun penyiapan ini sering kali bertujuan untuk biaya rendah, penyiapan ini mungkin tidak mengikuti praktik terbaik Google untuk menghemat uang dalam project aktif. Pantau penagihan Anda dengan cermat.
- Kepatuhan terhadap lisensi: Pastikan Anda memahami dan mengikuti lisensi open source untuk setiap kode atau library komunitas yang Anda tambahkan ke aplikasi Anda.
- Uji sebelum men-deploy: Verifikasi semua setelan penting, dan coba solusi komunitas di lingkungan pengujian sebelum menggunakannya untuk project aktif.
Memfilter menurut kategori atau kata kunci
Gunakan filter atau kotak penelusuran untuk menemukan konten berdasarkan kategori atau kata kunci.
| Kategori | Judul dan deskripsi | Tanggal dipublikasikan |
|---|---|---|
|
Blog
Gemma 3
|
Praktik langsung Gemma 3 di Google Cloud Postingan blog ini mengumumkan dua codelab yang menunjukkan kepada developer cara men-deploy Gemma 3 di Google Cloud menggunakan Cloud Run untuk pendekatan serverless atau Google Kubernetes Engine (GKE) untuk pendekatan platform. |
2025-11-17 |
|
Blog
Alat
|
Otomatisasi alur kerja AI yang mudah: Men-deploy n8n di Cloud Run Postingan blog ini menjelaskan cara men-deploy agen menggunakan alat otomatisasi alur kerja n8n di Cloud Run untuk membuat alur kerja yang didukung AI dan berintegrasi dengan alat seperti Google Workspace. |
2025-11-07 |
|
Blog
Ekstensi
Gemini
|
Mengotomatiskan deployment aplikasi dan analisis keamanan dengan ekstensi Gemini CLI baru Postingan blog ini mengumumkan ekstensi Cloud Run di Gemini CLI untuk menyederhanakan deployment aplikasi dengan satu perintah /deploy. |
2025-09-10 |
|
Blog
Ekstensi
Gemini
|
Postingan blog ini mengumumkan kolaborasi antara Google Cloud dan Docker yang menyederhanakan deployment aplikasi AI yang kompleks dengan memungkinkan developer menggunakan perintah gcloud run compose up untuk men-deploy file compose.yaml mereka langsung ke Cloud Run. |
2025-07-10 |
|
Blog
MCP
|
Membangun dan Men-deploy Server MCP Jarak Jauh ke Google Cloud Run dalam Waktu Kurang dari 10 Menit Postingan blog ini memberikan panduan langkah demi langkah untuk membangun dan men-deploy server Model Context Protocol (MCP) jarak jauh yang aman di Google Cloud Run dalam waktu kurang dari 10 menit menggunakan FastMCP, lalu mengujinya dari klien lokal. |
2025-06-07 |
|
Agen
AI Studio
Blog
MCP
|
Postingan blog ini memperkenalkan cara menyederhanakan deployment AI dengan deployment sekali klik dari AI Studio ke Cloud Run, deployment langsung model Gemma 3, dan server MCP untuk deployment berbasis agen. |
2025-05-20 |
|
Agen
Blog
Kasus penggunaan
|
Artikel ini menunjukkan cara CodeRabbit, alat peninjauan kode AI, menggunakan Cloud Run untuk membangun platform yang skalabel dan aman untuk mengeksekusi kode yang tidak tepercaya, yang pada akhirnya memangkas waktu peninjauan kode dan bug hingga setengahnya. |
2025-04-22 |
|
Blog
Vertex AI
|
Artikel ini memperkenalkan fitur di Vertex AI yang memungkinkan deployment aplikasi web sekali klik di Cloud Run. Gunakan perintah AI generatif untuk menyederhanakan proses mengubah konsep AI generatif menjadi prototipe yang dapat dibagikan. |
2025-02-20 |
|
Blog
Deployment
|
Cara men-deploy AI serverless dengan Gemma 3 di Cloud Run Postingan blog ini mengumumkan Gemma 3, serangkaian model AI terbuka yang ringan, dan menjelaskan cara men-deploy-nya di Cloud Run untuk aplikasi AI serverless yang skalabel dan hemat biaya. |
2025-03-12 |
|
Blog
GPU
Inferensi
RAG
Vertex AI
|
Membuka Inference-as-a-Service dengan Cloud Run dan Vertex AI Postingan blog ini menjelaskan cara developer dapat mempercepat pengembangan aplikasi AI generatif dengan menerapkan model Inference-as-a-Service di Cloud Run. Hal ini memungkinkan hosting dan penskalaan LLM dengan dukungan GPU serta mengintegrasikannya dengan Retrieval-Augmented Generation (RAG) untuk respons khusus konteks. |
2025-02-20 |
|
Arsitektur
RAG
Vertex AI
|
Infrastruktur RAG untuk AI generatif menggunakan Vertex AI dan Penelusuran Vektor Dokumen ini menyajikan arsitektur referensi untuk membangun aplikasi AI generatif dengan Retrieval-Augmented Generation (RAG) di Google Cloud, yang memanfaatkan Penelusuran Vektor untuk pencocokan kemiripan skala besar dan Vertex AI untuk mengelola embedding dan model. |
2025-03-07 |
|
Agen
Antigravitasi
Video
|
Berhenti membuat kode, mulai merancang arsitektur: Google Antigravity + Cloud Run Video ini memperkenalkan IDE agentik Google, Antigravity. Gunakan untuk membangun dan men-deploy aplikasi full stack ke Cloud Run dari awal. Tonton video ini untuk menulis lembar spesifikasi untuk AI, memaksanya menggunakan Node.js modern (tanpa langkah-langkah build!), dan melihatnya secara mandiri men-debug ketidakcocokan port selama deployment yang menyentuh file konfigurasi. |
2025-12-08 |
|
Agen
GPU
Ollama
Video
|
Agen AI ini berjalan di Cloud Run + GPU NVIDIA Video ini menunjukkan cara membangun aplikasi agen AI nyata di GPU NVIDIA serverless. Tonton demo agen kesehatan pintar yang menggunakan model open source seperti Gemma dengan Ollama di Cloud Run, dan LangGraph untuk membangun alur kerja multi-agen (RAG + alat). |
2025-11-13 |
|
MCP
Video
|
Mendukung agen AI Anda dengan alat MCP di Google Cloud Run Video ini memperkenalkan MCP (Model Context Protocol) dan cara mempermudah pekerjaan developer agen AI. Dapatkan panduan untuk membangun server MCP menggunakan FastMCP, dan men-deploy agen ADK di Cloud Run. Lihat cara kode menangani autentikasi layanan ke layanan menggunakan token OIDC bawaan Cloud Run. |
2025-11-06 |
|
Model Armor
Keamanan
Video
|
Kami mencoba mengeksploitasi AI kami (dan Model Armor menghentikannya) Video ini menunjukkan contoh penggunaan Model Armor Google untuk memblokir ancaman dengan panggilan API. |
30-10-2025 |
|
Tolok ukur
Vertex AI
Video
|
Jangan menebak: Cara mengukur tolok ukur perintah AI Anda Video ini menunjukkan cara menggunakan Vertex AI untuk membangun aplikasi AI generatif yang andal menggunakan alat Google Cloud. Developer akan mempelajari cara menggunakan alat Google Cloud untuk pembuatan prototipe yang cepat, mendapatkan angka pasti dengan tolok ukur berbasis data, dan terakhir, membangun pipeline CI/CD otomatis untuk kontrol kualitas yang sebenarnya, sekaligus menghindari kesalahan umum. |
2025-10-23 |
|
ADK
Multi-agen
Video
|
Cara membangun aplikasi multiagen dengan ADK dan Gemini Video ini menunjukkan cara membuat aplikasi menggunakan ADK (Agent Development Toolkit) Google yang membantu Anda menyempurnakan dan berkolaborasi dalam konten. Pelajari cara kerja multi-agen stateful yang lebih baik daripada agen tunggal. |
2025-10-16 |
|
Gemini
Video
|
Membangun aplikasi AI yang menonton video menggunakan Gemini Video ini menunjukkan cara membuat aplikasi yang menonton dan memahami video YouTube menggunakan Gemini 2.5 Pro. Gunakan perintah pintar untuk menyesuaikan output aplikasi Anda untuk postingan blog, ringkasan, kuis, dan lainnya. Video ini membahas cara mengintegrasikan Gemini untuk membuat konten teks dan gambar header dari input video, membahas pertimbangan biaya, dan menjelaskan cara menangani video yang lebih panjang dengan permintaan batch. |
2025-10-06 |
|
GenAI
Video
|
Mari kita bangun aplikasi GenAI di Cloud Run Video ini akan menjelaskan arsitektur dan kode, menggunakan AI untuk membantu setiap langkah. |
2025-07-17 |
|
Agen
Firebase
Video
|
Membangun agen AI dengan Cloud Run dan Firebase Genkit Video ini menunjukkan cara membangun agen AI dengan Cloud Run dan Firebase Genkit, yaitu pembangun agen AI serverless. |
2025-07-10 |
|
AI Studio
Firebase
Gemini
LLM
Video
|
Video ini memberikan demo tentang cara membangun aplikasi dukungan teknis dengan cepat menggunakan AI Studio, Cloud Functions, dan Firebase Hosting. Pelajari cara memanfaatkan Model Bahasa Besar (LLM) dan lihat contoh praktis mengintegrasikan AI ke dalam aplikasi web tradisional. |
2025-06-19 |
|
ADK
Agen
Framework
LangGraph
Vertex AI
Video
|
Membangun agen AI di Google Cloud Video ini menunjukkan cara membangun dan men-deploy agen AI menggunakan Cloud Run dan Vertex AI. Pelajari konsep utama seperti panggilan alat, agnostisisme model, dan penggunaan framework seperti LangGraph dan Agent Development Kit (ADK). |
2025-05-21 |
|
Model AI
GPU
Ollama
Video
|
Cara menghosting DeepSeek dengan GPU Cloud Run dalam 3 langkah Video ini menunjukkan cara menyederhanakan hosting model AI DeepSeek dengan GPU Cloud Run. Pelajari cara men-deploy dan mengelola Model Bahasa Besar (LLM) di Google Cloud dengan tiga perintah. Tonton dan temukan kemampuan Cloud Run dan alat command line Ollama, yang memungkinkan developer mengoperasikan aplikasi AI dengan cepat menggunakan alokasi dan penskalaan resource sesuai permintaan. |
2025-04-24 |
|
Panggilan fungsi
Gemini
Video
|
Cara menggunakan panggilan fungsi Gemini dengan Cloud Run Video ini membahas kecanggihan panggilan fungsi Gemini dan mempelajari cara mengintegrasikan API eksternal ke dalam aplikasi AI Anda. Buat aplikasi cuaca yang memanfaatkan pemahaman bahasa alami Gemini untuk memproses permintaan pengguna dan mengambil data cuaca dari API eksternal, sehingga memberikan contoh praktis panggilan fungsi dalam tindakan. |
2025-01-23 |
|
Pembuatan gambar
Vertex AI
Video
|
Text-to-image dengan Vertex AI Google Cloud di Cloud Run Video ini menunjukkan cara membuat aplikasi pembuatan gambar menggunakan Vertex AI di Google Cloud. Dengan model pembuatan gambar Vertex AI, developer dapat membuat visual yang memukau tanpa memerlukan infrastruktur atau pengelolaan model yang rumit. |
2025-01-16 |
|
GPU
Ollama
Video
|
Ollama dan Cloud Run dengan GPU Video ini menjelaskan cara menggunakan Ollama untuk men-deploy model bahasa besar dengan mudah di Cloud Run dengan GPU untuk deployment model AI yang skalabel dan efisien di cloud. |
2024-12-02 |
|
Perlindungan data
Keamanan
Video
|
Melindungi data sensitif di aplikasi AI Video ini menunjukkan cara mengamankan data sensitif dalam aplikasi AI. Pelajari konsep utama, praktik terbaik, dan alat untuk melindungi data di sepanjang siklus proses AI. |
2024-11-21 |
|
LangChain
RAG
Video
|
RAG dengan LangChain di Google Cloud Video ini menunjukkan cara meningkatkan akurasi aplikasi AI Anda menggunakan Retrieval-Augmented Generation (RAG). Bangun aplikasi web yang memanfaatkan kecanggihan RAG dengan LangChain, sebuah teknik yang membuat respons AI lebih akurat dan presisi. |
2024-11-07 |
|
Jendela dialog besar
Penyesuaian model
RAG
Video
|
RAG vs. Penyesuaian model vs. Jendela perintah besar Video ini membahas tiga metode utama untuk mengintegrasikan data Anda ke dalam aplikasi AI: perintah dengan jendela konteks panjang, Retrieval Augmented Generation (RAG), dan penyesuaian model. Pelajari kelebihan, keterbatasan, dan kasus penggunaan ideal untuk setiap pendekatan guna membuat keputusan yang tepat untuk project AI Anda dalam episode Serverless Expeditions ini. |
2024-11-14 |
|
Rekayasa perintah
Video
|
Rekayasa perintah untuk developer Video ini menunjukkan cara menggunakan rekayasa perintah untuk meningkatkan kualitas respons AI. Tonton video ini untuk mempelajari cara mendapatkan respons yang lebih akurat dan relevan dari AI generatif dengan teknik prompting chain of thought, few-shot, dan multi-shot. |
2024-10-31 |
|
Model AI
GPU
LLM
Video
|
Men-deploy LLM yang Didukung GPU di Cloud Run Video ini menunjukkan cara men-deploy model bahasa besar (LLM) Anda sendiri yang didukung GPU di Cloud Run. Video ini menjelaskan cara mengambil model open source seperti Gemma dan men-deploy-nya sebagai layanan tanpa server yang skalabel dengan akselerasi GPU |
2024-10-06 |
|
GPU
LLM
Ollama
Video
|
Video ini menunjukkan demonstrasi deployment Gemma 2 Google, model bahasa besar open source, melalui Ollama di Cloud Run. |
2024-10-03 |
|
Gemini
LLM
Video
|
Membangun aplikasi chat AI di Google Cloud Video ini menunjukkan cara membuat aplikasi chat model bahasa besar (LLM) di Gemini. |
2024-08-29 |
|
Multimodal
Vertex AI
Video
|
Video ini menunjukkan demo penggunaan Vertex AI untuk membangun aplikasi multimodal yang memproses video, audio, dan teks untuk membuat output. |
2024-08-15 |
|
Model AI
Vertex AI
Video
|
Menggunakan AI Generatif Serverless | Google Vertex AI Video ini menunjukkan cara membangun dan men-deploy aplikasi AI generatif yang sangat cepat menggunakan Vertex AI Studio, Cloud Run, dan model AI generatif. |
2024-02-22 |
|
Codelab
Alat
|
Men-deploy dan Menjalankan n8n di Google Cloud Run Codelab ini menunjukkan cara men-deploy instance alat otomatisasi alur kerja n8n yang siap produksi di Cloud Run, lengkap dengan database Cloud SQL untuk persistensi dan Secret Manager untuk data sensitif. |
2025-11-20 |
|
Codelab
GPU
LLM
|
Cara menjalankan inferensi LLM di GPU Cloud Run dengan vLLM dan OpenAI Python SDK Codelab ini menunjukkan cara men-deploy model yang telah di-tune untuk mengikuti perintah Gemma 2 2b Google di Cloud Run dengan GPU, menggunakan vLLM sebagai mesin inferensi dan OpenAI Python SDK untuk melakukan penyelesaian kalimat. |
2025-11-13 |
|
ADK
Agen
Codelab
|
Men-deploy, Mengelola, dan Memantau Agen ADK di Cloud Run Codelab ini memandu Anda men-deploy, mengelola, dan memantau agen canggih yang dibangun dengan Agent Development Kit (ADK) di Cloud Run. |
12-11-2025 |
|
Codelab
Gemini CLI
MCP
|
Cara men-deploy server MCP yang aman di Cloud Run Codelab ini akan memandu Anda men-deploy server Model Context Protocol (MCP) yang aman di Cloud Run dan menghubungkannya dari Gemini CLI. |
2025-10-28 |
|
ADK
Agen
Codelab
MCP
|
Membangun dan men-deploy agen ADK yang menggunakan server MCP di Cloud Run Codelab ini memandu Anda dalam membangun dan men-deploy agen AI yang menggunakan alat dengan Agent Development Kit (ADK). Agen terhubung ke server MCP jarak jauh untuk alatnya, dan di-deploy sebagai container di Cloud Run. |
2025-10-27 |
|
Model AI
Tugas Cloud Run
Codelab
Penyesuaian model
|
Cara menyesuaikan LLM menggunakan Tugas Cloud Run Codelab ini memberikan panduan langkah demi langkah tentang cara menggunakan Tugas Cloud Run dengan GPU untuk menyempurnakan model Gemma 3 pada set data Text2Emoji, lalu menayangkan model yang dihasilkan di layanan Cloud Run dengan vLLM. |
2025-10-21 |
|
Inferensi batch
Tugas Cloud Run
Codelab
|
Cara menjalankan inferensi batch di tugas Cloud Run Codelab ini menunjukkan cara menggunakan tugas Cloud Run yang didukung GPU untuk menjalankan inferensi batch pada model Llama 3.2-1b dan menulis hasilnya langsung ke bucket Cloud Storage. |
2025-10-21 |
|
ADK
Agen
Codelab
GPU
LLM
MCP
|
Lab 3:Prototype ke Produksi - Men-deploy Agen ADK ke Cloud Run dengan GPU Codelab ini menunjukkan cara men-deploy agen Agent Development Kit (ADK) yang siap produksi dengan backend Gemma yang dipercepat GPU di Cloud Run. Codelab ini mencakup pengujian deployment, integrasi, dan performa. |
2025-10-03 |
|
Agen
Codelab
|
Codelab ini menunjukkan cara men-deploy aplikasi dua tingkat di Cloud Run, yang terdiri dari frontend Gradio dan backend agen ADK, dengan fokus pada penerapan komunikasi layanan-ke-layanan yang aman dan terautentikasi. |
2025-09-29 |
|
Codelab
Gemini
|
Cara men-deploy aplikasi chatbot FastAPI ke Cloud Run menggunakan Gemini Codelab ini menunjukkan cara men-deploy aplikasi chatbot FastAPI ke Cloud Run. |
2025-04-02 |
|
Cloud Run Functions
Codelab
LLM
|
Cara menghosting LLM di sidecar untuk fungsi Cloud Run Codelab ini menunjukkan cara menghosting model gemma3:4b di sidecar untuk fungsi Cloud Run. |
2025-03-27 |
|
Komunitas
Keamanan
|
Memanggil layanan Cloud Run Anda secara aman dari mana saja Artikel ini memberikan contoh kode Python yang mendapatkan token identitas untuk memanggil layanan Cloud Run yang diautentikasi secara aman dari lingkungan mana pun. Contoh ini menggunakan kredensial default aplikasi (ADC) untuk mengautentikasi panggilan. |
2025-10-15 |
|
Model AI
Komunitas
RAG
|
Serverless AI: EmbeddingGemma dengan Cloud Run Artikel ini memberikan panduan langkah demi langkah tentang cara membuat container dan men-deploy model EmbeddingGemma ke Cloud Run dengan GPU, lalu menggunakannya untuk membangun aplikasi RAG. |
2025-09-24 |
|
Komunitas
Keamanan
|
Rantai Kepercayaan untuk AI: Mengamankan Arsitektur MCP Toolbox di Cloud Run Artikel ini menguraikan aplikasi pemesanan hotel sederhana yang dibangun di Google Cloud. Aplikasi ini menunjukkan model keamanan zero-trust yang tangguh menggunakan identitas layanan, dan menunjukkan cara membuat rantai kepercayaan yang aman dari pengguna akhir hingga database. |
03-09-2025 |
|
Model AI
Komunitas
Containerisasi
Docker
Ollama
RAG
|
AI Serverless: Qwen3 Embeddings dengan Cloud Run Artikel ini memberikan tutorial tentang cara men-deploy model Sematan Qwen3 ke Cloud Run dengan GPU. Artikel ini juga membahas containerisasi dengan Docker dan Ollama, serta memberikan contoh cara menggunakannya dalam aplikasi RAG. |
2025-08-20 |
|
Arsitektur
Komunitas
LLM
|
Masih Mengemas Model AI dalam Container? Lakukan Ini Sebagai Gantinya di Cloud Run Artikel ini menganjurkan arsitektur yang lebih efisien dan skalabel untuk menayangkan model bahasa besar (LLM) di Cloud Run dengan memisahkan file model dari container aplikasi, dan sebagai gantinya menggunakan Cloud Storage FUSE. |
2025-08-11 |
|
Model AI
Komunitas
|
Membangun Generator Podcast yang Didukung AI dengan Gemini dan Cloud Run Artikel ini menjelaskan secara mendetail cara membuat generator podcast serverless yang didukung AI yang menggunakan Gemini untuk meringkas konten dan Cloud Run. Contoh ini mengatur pipeline otomatis untuk membuat dan mengirimkan ringkasan audio harian dari feed RSS. |
2025-08-11 |
|
Komunitas
MCP
|
Mengaktifkan server MCP Anda dengan Google Cloud Run Artikel ini menjelaskan tujuan Model Context Protocol (MCP) dan memberikan tutorial tentang cara membangun dan men-deploy server MCP di Cloud Run untuk mengekspos resource sebagai alat untuk aplikasi AI. |
2025-07-09 |
|
Komunitas
Model ML
Monitoring
|
Men-deploy & Memantau Model ML dengan Cloud Run — Ringan, Dapat Diskala, dan Hemat Biaya Artikel ini menjelaskan cara men-deploy, memantau, dan menskalakan model machine learning secara otomatis di Cloud Run, dengan memanfaatkan stack pemantauan ringan dengan layanan Google Cloud untuk melacak performa dan mengontrol biaya. |
2025-05-29 |
|
Model AI
AI Studio
Komunitas
LLM
|
Men-deploy Gemma Langsung dari AI Studio ke Cloud Run Artikel ini memberikan tutorial langkah demi langkah tentang cara mengambil model Gemma dari AI Studio, menyesuaikan kodenya untuk produksi, dan men-deploy-nya sebagai aplikasi web yang di-container-kan di Cloud Run. |
2025-05-29 |
|
ADK
Agen
Komunitas
MCP
|
Triad Arsitektur Agen: ADK, MCP, dan Cloud Run Artikel ini menunjukkan cara membangun arsitektur berbasis agen AI dengan menyiapkan alur kerja Agent Development Kit (ADK) yang berkomunikasi dengan server Model Context Protocol (MCP) yang dihosting di Cloud Run untuk mengelola pemesanan penerbangan. |
2025-05-27 |
|
A2A
Agen
Komunitas
Framework
Kasus penggunaan
|
Mempelajari Protokol Agent2Agent (A2A) dengan Kasus Penggunaan Concierge Pembelian di Cloud Run Artikel ini menjelaskan protokol Agent2Agent (A2A) dan menunjukkan penggunaannya dengan aplikasi concierge pembelian. Aplikasi Cloud Run berisi beberapa agen AI, yang dibuat dengan framework yang berbeda, dan berkolaborasi untuk memenuhi pesanan pengguna. |
2025-05-15 |
|
Model AI
Otomatisasi
CI/CD
Komunitas
GitHub
|
Mengotomatiskan Deployment Model ML dengan GitHub Actions dan Cloud Run Artikel ini memberikan panduan komprehensif tentang cara membuat pipeline CI/CD dengan GitHub Actions untuk mengotomatiskan build dan deployment model machine learning sebagai layanan yang di-container di Cloud Run. |
2025-05-08 |
|
Komunitas
LLM
Keamanan
|
Membangun Solusi AI Berdaulat dengan Google Cloud - Cloud Run Artikel ini memberikan panduan langkah demi langkah tentang cara membangun dan men-deploy solusi AI berdaulat di Google Cloud dengan menggunakan Sovereign Controls dari Partners. Contoh ini menjalankan model Gemma di Cloud Run, sehingga memastikan residensi data dan kepatuhan terhadap peraturan Eropa. |
2025-04-03 |
|
Komunitas
LLM
|
Dari Zero hingga Deepseek di Cloud Run selama perjalanan pagi saya Artikel ini menunjukkan cara men-deploy model Deepseek R1 dengan cepat di Cloud Run dengan GPU menggunakan Ollama selama perjalanan pagi. Artikel ini membahas topik lanjutan seperti menyematkan model dalam container, pengujian A/B dengan pembagian traffic, dan menambahkan UI web dengan container sidecar. |
2025-02-11 |
|
Komunitas
LLM
Ollama
|
Cara menjalankan LLM terbuka (apa pun) dengan Ollama di Google Cloud Run [Langkah demi langkah] Artikel ini menunjukkan cara menghosting LLM terbuka apa pun, seperti Gemma 2, di Google Cloud Run menggunakan Ollama. Artikel ini juga menyertakan petunjuk untuk membuat bucket Cloud Storage untuk persistensi model dan menguji deployment. |
2025-01-20 |
|
Komunitas
Model ML
|
Deployment model Machine Learning Serverless dengan GPU menggunakan Google Cloud: Cloud Run Artikel ini memberikan panduan langkah demi langkah untuk men-deploy model machine learning (ML) dengan dukungan GPU di Cloud Run. Artikel ini mencakup semuanya mulai dari penyiapan project dan containerisasi hingga deployment otomatis dengan Cloud Build dan pengujian dengan curl dan JavaScript. |
2025-01-17 |