Composant Solr facultatif de Managed Service pour Apache Spark

Vous pouvez installer des composants supplémentaires comme Solr lorsque vous créez un cluster Managed Service pour Apache Spark à l'aide de la fonctionnalité Composants facultatifs. Cette page décrit le composant Solr.

Le composant Apache Solr est une plate-forme Open Source de recherche d'entreprise. Le serveur Solr et l'interface utilisateur Web sont disponibles sur le port 8983 du ou des nœuds maîtres du cluster.

Fichiers Solr persistants : par défaut, Solr écrit et lit les fichiers journaux d'index et de transactions dans HDFS. Pour conserver les fichiers Solr, utilisez un chemin d'accès Cloud Storage en tant que répertoire d'accueil Solr en définissant la propriété de cluster dataproc:solr.gcs.path lorsque vous installez le composant.

Installer le composant

Installez le composant lorsque vous créez un cluster Managed Service pour Apache Spark. Des composants peuvent être ajoutés aux clusters créés avec Managed Service pour Apache Spark version 1.3 et ultérieure.

Consultez la section Versions Managed Service pour Apache Spark compatibles pour obtenir la version de composant incluse dans chaque version d'image Managed Service pour Apache Spark.

Commande gcloud

Pour créer un cluster Managed Service pour Apache Spark incluant le composant Solr, utilisez la commande gcloud dataproc clusters create cluster-name avec l'option --optional-components. L'exemple de commande ci-dessous utilise l'option facultative properties pour définir un chemin d'accès Cloud Storage en tant que répertoire de base Solr.

gcloud dataproc clusters create cluster-name \
    --region=region \
    --optional-components=SOLR \
    --enable-component-gateway \
    ... other flags
Ajoutez la --properties="dataproc:solr.gcs.path=gs://bucket-name/" propriété de cluster à la gcloud dataproc clusters create commande pour définir un bucket Cloud Storage où les documents Solr seront stockés (répertoire d'accueil Solr).

API REST

Le composant Solr peut être spécifié via l'API Managed Service pour Apache Spark à l'aide de SoftwareConfig.Component dans le cadre d'une requête clusters.create.

Console

  1. Activez le composant et la passerelle des composants.