Menjalankan inferensi LLM di Cloud Run dengan TGI Hugging Face
Tetap teratur dengan koleksi
Simpan dan kategorikan konten berdasarkan preferensi Anda.
Contoh berikut menunjukkan cara menjalankan layanan backend yang menjalankan toolkit Inferensi Pembuatan Teks (TGI) Hugging Face menggunakan Llama 3. Hugging Face TGI adalah Model Bahasa Besar (LLM) terbuka, dan dapat di-deploy serta disajikan di layanan Cloud Run dengan GPU yang diaktifkan.
[[["Mudah dipahami","easyToUnderstand","thumb-up"],["Memecahkan masalah saya","solvedMyProblem","thumb-up"],["Lainnya","otherUp","thumb-up"]],[["Sulit dipahami","hardToUnderstand","thumb-down"],["Informasi atau kode contoh salah","incorrectInformationOrSampleCode","thumb-down"],["Informasi/contoh yang saya butuhkan tidak ada","missingTheInformationSamplesINeed","thumb-down"],["Masalah terjemahan","translationIssue","thumb-down"],["Lainnya","otherDown","thumb-down"]],["Terakhir diperbarui pada 2025-12-04 UTC."],[],[]]