Kurzanleitung: Überprüfung abschließen
Jeder Prozessor erstellt eine „HITL-Aufgabe“, die einem Pool von menschlichen Labelern (dem „Labeler-Pool“) zugewiesen wird. Diese überprüfen die vom Prozessor verarbeiteten Dokumente. Nach der Verarbeitung werden diese Dokumente in der Aufgabe für die HITL-Überprüfung durch den zugewiesenen Labeler-Pool in die Warteschlange gestellt.
Hinweise
Führen Sie die Schritte in der Kurzanleitung: Manuelle Überprüfung konfigurieren aus, bevor Sie fortfahren.Labelersteller hinzufügen
- Nach der Konfiguration der manuellen Überprüfung sollten Sie eine E-Mail erhalten, die in etwa so aussieht:
From: AI Platform <noreply-aiplatform@google.com>\
Subject: Added to AI Platform SpecialistPool Test Labeler Group
Hello AI Platform Customer,
You are added as a manager to specialist pool
cloudml_data_specialists_us_central1_785484070008756xxxx.
To view details, visit Manager console
https://datacompute.google.com/cm/
Sincerely,
The Google Cloud AI Team
Klicken Sie auf den Link in der E-Mail oder kopieren Sie ihn und fügen Sie ihn in Ihren Browser ein, um zur Verwaltungsseite zu gelangen:
Die vom neu erstellten Prozessor erstellte Aufgabe hat denselben Namen wie der Prozessor (z. B. „Rechnungen der Abteilung A“) und wird auf dem Tab „Aufgaben“ aufgeführt.
Klicken Sie auf den Tab „Labeler“.
Klicken Sie auf „Labeler hinzufügen“ und fügen Sie mindestens einen Labeler (E-Mail-Adresse) hinzu. Ein Administrator kann ein Labeler sein. Sie können sich also selbst hinzufügen.
Bei einem neu erstellten Labeler-Pool muss die Aufgabe dem einzelnen Labeler explizit auf dem Tab „Zuweisungen“ zugewiesen werden. Das Hinzufügen des Labeler-Pools weist die Aufgabe also nicht automatisch diesen neuen Labelern zu. Wenn im Labelerstellerpool bereits Labelersteller bereitgestellt wurden, wird der Pool automatisch der Aufgabe zugewiesen.
Erstes Dokument zur Überprüfung posten
Senden Sie ein Dokument zur Extraktion über den erstellten Prozessor. Anleitungen Sowohl Online- (synchron) als auch Batch- (asynchron) Aufrufe unterstützen derzeit das Routing zur manuellen Überprüfung für unterstützte Prozessoren.
Zu Testzwecken können Sie entweder eine bekanntermaßen schlechte Extraktion verwenden, um die manuelle Überprüfung auszulösen, weil der Konfidenzwert unter dem Schwellenwert liegt, oder den Schwellenwert auf 100 % festlegen. Dokumente dürfen in der Regel maximal 5 Seiten und 20 MB umfassen. Sehen Sie sich jedoch die spezifischen Prozessorlimits an.
Es gibt eine API, mit der jedes Dokument verfolgt werden kann, das zur manuellen Überprüfung weitergeleitet wird. Als Teil der Antwort von Prozessoren gibt es einen
humanReviewOperation-String, der die Vorgangs-ID (Jobname) des Dokuments in der manuellen Überprüfung ist. Dieser Vorgang mit langer Ausführungszeit (auch als LRO bezeichnet) kann nach dem Status abgefragt werden.Mit der Methode
projects.locations.operations.getkönnen Sie den Status eines Dokuments abfragen, das zur manuellen Überprüfung weitergeleitet wurde.Sie können erzwingen, dass ein Dokument manuell überprüft wird, indem Sie die Methode
reviewDocumentverwenden. Beachten Sie, dass diese Methode pro Prozessor unterschiedlich ist:Wenn Sie die
reviewDocument-Methode verwenden, muss das Kästchen Manuelle Überprüfung AKTIVIERT angeklickt sein. Die Konfigurationseinstellungen werden durch die Verwendung dieser API nicht überschrieben.In diesem Leitfaden erfahren Sie, wie Sie diese Methode verwenden.
Dokument ansehen
Wenn das Dokument den Prozess der manuellen Überprüfung auslöst, aber keine Labelersteller im Pool vorhanden sind, erhält der Manager eine E-Mail.
> Hello AI Platform Customer, > > There is a running task for Project with Job ID 404298342016955xxxx,\ > Labeling Task ID cloudml_data_us_central1_prod_11b273b4dabdxxxx,\ > Display name \ > datalabeling-job-8005676103232389120-for-hitl-340697311810578xxxx,\ > replication count 1\ > Please see attachment for instruction.\ > Please add labelers and have them finish the task at Labeler console \ > [https://datacompute.google.com/w/cloudml_data_specialists_us_central1_7854840700087566336](https://datacompute.google.com/w/cloudml_data_specialists_us_central1_7854840700087566336){: target="external" class="external" track-type="quickstart" track-name="externalLink" track-metadata-position="body" }.\ > To view details, visit Manager console \ > [https://datacompute.google.com/cm/cloudml_data_specialists_us_central1_7854840700087566336/tasks](https://datacompute.google.com/cm/cloudml_data_specialists_us_central1_7854840700087566336/tasks){: target="external" class="external" track-type="quickstart" track-name="externalLink" track-metadata-position="body" }. > > Sincerely,\ The Google Cloud AI Team
Über diese Links kann der Labeling Manager Labeling-Aufgaben zuweisen.
Wenn die Labeler nicht in der Labeling Group registriert und neu hinzugefügt wurden, muss der Labeling Manager eine ähnliche E-Mail mit einer Anleitung an die hinzugefügten Labeler senden.
Schritte für Labelersteller
Verfahren für Labeler
E‑Mail-Adresse des Labelerstellers
Wenn ein Labeler in Schritt 2e bereits für eine Labeling-Gruppe registriert ist, wird er automatisch zugewiesen und erhält eine E-Mail wie diese:

Über den Link in dieser E-Mail kann der ausgewählte Labeler Labeling-Aufgaben für das Dokument ausführen.
Aktionen für Labels:
Wenn ein Labeler auf den Link klickt, um die Labels zu erstellen, wird die unten gezeigte Benutzeroberfläche für die interaktive KI-Überprüfung durch Menschen angezeigt. Die gelb markierten Zeilen geben an, welche Zeilen die Validierung nicht bestehen (d. h. unter dem konfigurierten Konfidenzwert liegen) und überprüft werden müssen.

Überprüfung: Wenn Sie den Mauszeiger auf ein erkanntes Textfeld bewegen, wird der erkannte Text und (in kleinerer Schrift darunter) der Name des Felds (Schema) angezeigt. Die Zeile wird auch im linken Bereich hervorgehoben.
Der Nutzer kann mit den Lupensymbolen oben links in der Symbolleiste das Bild vergrößern oder verkleinern.

Feld ändern
Sie können das Feld bearbeiten, indem Sie mit der linken Maustaste darauf klicken:
Sie können den Wert oder das Label im linken Bereich ändern. Klicken Sie dann auf Anwenden.
ODER Sie klicken auf eines der Eckensymbole zum Anpassen der Größe auf dem Dokumentbild, um die Größe des Begrenzungsrahmens um den Dokumenttext zu ändern:
Wenn Sie anderen Text auswählen, ändert sich der Text im Feld „Wert“ im linken Bereich. Sie können diesen Text dann bei Bedarf weiter bearbeiten. Klicken Sie dann auf Anwenden.
Sehen Sie sich alle Seiten an. Verwenden Sie dazu die Seitensteuerung oben rechts.
Wenn Sie alle erforderlichen Labeländerungen vorgenommen haben, klicken Sie unten links auf SENDEN. Die JSON-Datei mit den Ergebnissen wird im Ordner „Speicherort für Ergebnisse“ gespeichert.
Wenn das Dokument nicht zufriedenstellend gekennzeichnet werden kann, klicken Sie unten links auf ABLEHNEN und wählen Sie einen Grund für die Ablehnung des Dokuments aus: – Wählen Sie einen Grund aus und klicken Sie dann auf Dokument ablehnen.
Labeler können auch oben rechts auf die folgenden Symbole klicken:
- Analysen: Hier sehen Sie, wie viele Dokumente sie überprüft haben (Antworten) und wie viel Zeit sie insgesamt dafür benötigt haben.
- Benachrichtigungen: Hier werden alle Benachrichtigungen angezeigt, die der Nutzer erhalten hat.
- Dreipunkt-Menü: Hier können Sie das Dokument überspringen, Antworten suchen oder Feedback geben (falls aktiviert).
- Titelleiste ein-/ausblenden (diagonale Pfeile): Hiermit wird die Titelleiste von DataCompute ausgeblendet (oder eingeblendet), um mehr Platz zu schaffen.
Labeling Manager
Dokument aus Cloud Storage überprüfen
Wenn Sie das Dokument prüfen möchten, haben Sie zwei Möglichkeiten:
Methode 1:
- Cloud Storage am zuvor konfigurierten Speicherort suchen
- Dokumente abrufen und herunterladen
Methode 2:
- URI zum Abrufen des Dokuments aus der Vorhersageantwort merken
- URI zum Abrufen des überprüften Dokuments aufrufen
Nächste Schritte
- Labeling-Aufgaben verwalten – dazu verwenden Sie die Labeling Manager Console.
- Hier finden Sie eine Liste und Beschreibungen der derzeit verfügbaren Prozessoren.