教師ありファインチューニングは、ラベル付きテキストデータが利用可能な変換タスクがある場合に適しています。これは、大規模モデルが元々トレーニングされた一般的なデータとは変換が大きく異なるドメイン固有のアプリケーションに特に効果的です。
教師ありファインチューニングでは、ラベル付きデータセットを使用してモデルの動作を調整します。このプロセスではモデルの重みを調整して、予測と実際のラベルの差を最小限に抑えます。
サポートされているモデル
次の Translation LLM モデルは、教師ありチューニングをサポートしています。
translation-llm-002
(パブリック プレビュー版。テキストのみをサポート)
制限事項
- 入力トークンと出力トークンの最大数:
- サービング: 1,000(約 4,000 文字)
- 検証データセットのサイズ: 1024 個のサンプル
- トレーニング データセット ファイルサイズ: JSONL の場合、最大 1 GB
- トレーニング サンプルの長さ: 1,000(約 4,000 文字)
- アダプタサイズ:
Translation LLM V2
: サポートされている値は 4 のみです。他の値(1 や 8)を使用すると、失敗します。
教師ありファインチューニングを使用するユースケース
一般的な事前トレーニング済み変換モデルは、変換するテキストが、モデルが学習した一般的なテキスト構造に基づいている場合に適しています。一般的な変換から逸脱するニッチな、またはドメイン固有の情報をモデルに学習させるときは、そのモデルのチューニングを検討してください。たとえば、モデルのチューニングを使用して、モデルに次のことを学習させられます。
- 専門用語やスタイルを含む業界ドメインの特定のコンテンツ
- 出力を生成するための特定の構造や形式
- 場合に応じて出力を簡潔または詳細にするなどの、特定の動作
- 入力のタイプに合わせてカスタマイズされた特定の出力
チューニング ジョブのリージョンを構成する
変換済みデータセットやチューニング済みモデルなどのユーザーデータは、チューニング ジョブのリージョンに保存されます。サポートされているリージョンは us-central1
だけです。
Vertex AI SDK を使用する場合は、初期化時にリージョンを指定できます。例:
import vertexai vertexai.init(project='myproject', location='us-central1')
tuningJobs.create
メソッドで POST リクエストを送信して教師ありファインチューニング ジョブを作成する場合は、URL を使用してチューニング ジョブが実行されるリージョンを指定します。たとえば、次の URL で、TUNING_JOB_REGION
の両方のインスタンスを、ジョブが実行されるリージョンに置き換えてリージョンを指定します。https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs
Google Cloud コンソールを使用している場合は、[モデルの詳細] ページの [リージョン] プルダウン フィールドでリージョン名を選択できます。これは、ベースモデルとチューニング済みモデル名を選択するページと同じです。
割り当て
同時チューニング ジョブの数に割り当てが適用されます。どのプロジェクトにも、少なくとも 1 つのチューニング ジョブを実行するためのデフォルトの割り当てがあります。これはグローバル割り当てであり、利用可能なすべてのリージョンとサポートされているモデルで共有されます。複数のジョブを同時に実行する場合は、Global concurrent tuning jobs
の追加の割り当てをリクエストする必要があります。
料金
translation-llm-002
の教師ありファインチューニングはプレビュー版です。チューニングがプレビュー版の場合、モデルのチューニングや推論への使用に料金は発生しません。
トレーニング トークンの数は、トレーニング データセット内のトークンの合計数にエポック数を掛けて計算されます。
次のステップ
- 教師ありファインチューニング データセットを準備する。