Exécuter une instance de notebooks gérés sur un cluster Dataproc

Cette page explique comment exécuter le fichier notebook d'une instance de notebooks gérés sur un cluster Dataproc.

Avant de commencer

  1. Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
  2. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Roles required to select or create a project

    • Select a project: Selecting a project doesn't require a specific IAM role—you can select any project that you've been granted a role on.
    • Create a project: To create a project, you need the Project Creator (roles/resourcemanager.projectCreator), which contains the resourcemanager.projects.create permission. Learn how to grant roles.

    Go to project selector

  3. Verify that billing is enabled for your Google Cloud project.

  4. Enable the Notebooks and Dataproc APIs.

    Roles required to enable APIs

    To enable APIs, you need the Service Usage Admin IAM role (roles/serviceusage.serviceUsageAdmin), which contains the serviceusage.services.enable permission. Learn how to grant roles.

    Enable the APIs

  5. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Roles required to select or create a project

    • Select a project: Selecting a project doesn't require a specific IAM role—you can select any project that you've been granted a role on.
    • Create a project: To create a project, you need the Project Creator (roles/resourcemanager.projectCreator), which contains the resourcemanager.projects.create permission. Learn how to grant roles.

    Go to project selector

  6. Verify that billing is enabled for your Google Cloud project.

  7. Enable the Notebooks and Dataproc APIs.

    Roles required to enable APIs

    To enable APIs, you need the Service Usage Admin IAM role (roles/serviceusage.serviceUsageAdmin), which contains the serviceusage.services.enable permission. Learn how to grant roles.

    Enable the APIs

  8. Rôles requis

    Pour vous assurer que le compte de service dispose des autorisations nécessaires pour exécuter un fichier notebook sur un cluster Serverless pour Apache Spark, demandez à votre administrateur d'accorder au compte de service les rôles IAM suivants :

    Pour en savoir plus sur l'attribution de rôles, consultez Gérer l'accès aux projets, aux dossiers et aux organisations.

    Ces rôles prédéfinis contiennent les autorisations requises pour exécuter un fichier notebook sur un cluster Serverless pour Apache Spark. Pour connaître les autorisations exactes requises, développez la section Autorisations requises :

    Autorisations requises

    Les autorisations suivantes sont requises pour exécuter un fichier notebook sur un cluster Serverless pour Apache Spark :

    • dataproc.agents.create
    • dataproc.agents.delete
    • dataproc.agents.get
    • dataproc.agents.update
    • dataproc.tasks.lease
    • dataproc.tasks.listInvalidatedLeases
    • dataproc.tasks.reportStatus
    • dataproc.clusters.use

    Votre administrateur peut également attribuer au compte de service ces autorisations avec des rôles personnalisés ou d'autres rôles prédéfinis.

    Créer un cluster Dataproc

    Pour exécuter le fichier notebook d'une instance de notebooks gérés dans un cluster Dataproc, votre cluster doit répondre aux critères suivants :

    • La passerelle des composants du cluster doit être activée.

    • Le cluster doit comporter le composant Jupyter.

    • Le cluster doit se trouver dans la même région que votre instance de notebooks gérés.

    Pour créer votre cluster Dataproc, saisissez la commande suivante dans Cloud Shell ou dans un autre environnement dans lequel Google Cloud CLI est installé.

    gcloud dataproc clusters create CLUSTER_NAME\
        --region=REGION \
        --enable-component-gateway \
        --optional-components=JUPYTER

    Remplacez les éléments suivants :

    • REGION : Google Cloud emplacement de votre instance de notebooks gérés

    • CLUSTER_NAME : nom de votre nouveau cluster.

    Après quelques minutes, votre cluster Dataproc devient disponible. Apprenez-en plus sur la création de clusters Dataproc.

    Ouvrir JupyterLab

    1. Dans la console Google Cloud , accédez à la page Notebooks gérés.

      Accéder à la page "Notebooks gérés"

    2. À côté du nom de votre instance de notebooks gérés, cliquez sur Ouvrir JupyterLab.

    Exécuter un fichier notebook dans votre cluster Dataproc

    Vous pouvez exécuter un fichier notebook dans votre cluster Dataproc à partir de n'importe quelle instance de notebooks gérés dans le même projet et la même région.

    Exécuter un nouveau fichier notebook

    1. Dans l'interface JupyterLab de votre instance de notebooks gérés, sélectionnez Fichier > Nouveau > Notebook.

    2. Les noyaux disponibles pour votre cluster Dataproc s'affichent dans le menu Sélectionner le noyau. Sélectionnez le noyau que vous souhaitez utiliser, puis cliquez sur Sélectionner.

      Le nouveau fichier notebook s'ouvre.

    3. Ajoutez du code à votre nouveau fichier notebook, puis exécutez le code.

    Pour modifier le noyau que vous souhaitez utiliser après avoir créé le fichier notebook, consultez la section suivante.

    Exécuter un fichier notebook existant

    1. Dans l'interface JupyterLab de votre instance de notebooks gérés, cliquez sur le bouton  Explorateur de fichiers, accédez au fichier notebook que vous souhaitez exécuter, puis ouvrez-le.

    2. Pour ouvrir la boîte de dialogue Sélectionner le noyau, cliquez sur le nom du noyau de votre fichier notebook, par exemple Python (Local).

    3. Pour sélectionner un noyau à partir de votre cluster Dataproc, sélectionnez un nom de noyau incluant le nom de votre cluster à la fin. Par exemple, un noyau PySpark sur un cluster Dataproc nommé mycluster est nommé PySpark on mycluster.

    4. Cliquez sur Select (Sélectionner) pour fermer la boîte de dialogue.

      Vous pouvez maintenant exécuter le code de votre fichier notebook sur le cluster Dataproc.

    Étape suivante