Google Distributed Cloud-Cluster vertikal skalieren

Wie bei jedem Kubernetes-Cluster gibt es auch bei der Skalierbarkeit von Distributed Cloud-Clustern viele miteinander verknüpfte Dimensionen. In diesem Dokument werden die wichtigsten Dimensionen beschrieben, die Sie anpassen können, um Ihre Cluster zu skalieren, ohne Ihre Arbeitslasten zu unterbrechen.

Limits

Google Distributed Cloud ist ein komplexes System mit vielen Integrationsmöglichkeiten. Es gibt viele Dimensionen, die sich auf die Cluster-Skalierbarkeit auswirken. Die Anzahl der Knoten ist beispielsweise nur einer von vielen Bereichen, für die Google Distributed Cloud eine Skalierung vornehmen kann. Weitere Dimensionen sind die Gesamtzahl der Pods und Dienste. Viele dieser Dimensionen, z. B. die Anzahl der Pods pro Knoten und die Anzahl der Knoten pro Cluster, hängen voneinander ab. Weitere Informationen zu den Dimensionen, die sich auf die Skalierbarkeit auswirken, finden Sie im Abschnitt „Scalability Special Interest Group (SIG)“ des Kubernetes-Community-Repositorys auf GitHub unter Kubernetes Scalability thresholds.

Die Skalierbarkeitslimits gelten auch für die Hardware und Knotenkonfiguration, auf der Ihr Cluster ausgeführt wird. Die in diesem Dokument beschriebenen Limits werden in einer Umgebung geprüft, die sich von Ihrer unterscheidet. Daher können Sie die genauen Zahlen möglicherweise nicht reproduzieren, wenn die zugrunde liegende Umgebung den begrenzenden Faktor darstellt.

Weitere Informationen zu den Limits, die für Ihre Google Distributed Cloud-Cluster gelten, finden Sie unter Kontingente und Limits.

Skalierung vorbereiten

Berücksichtigen Sie bei der Vorbereitung der Skalierung Ihrer Google Distributed Cloud-Cluster die Anforderungen und Einschränkungen, die in den folgenden Abschnitten beschrieben werden.

CPU- und Arbeits-Speicheranforderungen für den Knoten der Steuerungsebene

In der folgenden Tabelle ist die empfohlene CPU- und Arbeitsspeicherkonfiguration für Steuerungsebenenknoten für Cluster mit Produktionsarbeitslasten aufgeführt:

Anzahl der Clusterknoten Empfohlene CPUs für die Steuerungsebene Empfohlener Arbeitsspeicher für die Steuerungsebene
1-50 8 Kerne 32 GiB
51–100 16 Kerne 64 GiB

Anzahl der Pods und Dienste

Die Anzahl der Pods und Dienste, die Sie in Ihren Clustern haben können, wird durch die folgenden Einstellungen gesteuert:

Pod-CIDR und maximale Knotenzahl

Die Gesamtzahl der für Pods in Ihrem Cluster reservierten IP-Adressen ist einer der einschränkenden Faktoren für das Hochskalieren Ihres Clusters. Diese Einstellung bestimmt in Verbindung mit der Einstellung für die maximale Anzahl von Pods pro Knoten die maximale Anzahl von Knoten, die Sie in Ihrem Cluster haben können, bevor die IP-Adressen für Ihre Pods ausgehen.

Beachten Sie dabei Folgendes:

  • Die Gesamtzahl der für Pods in Ihrem Cluster reservierten IP-Adressen wird so angegeben:clusterNetwork.pods.cidrBlocks , wodurch ein Bereich von IP-Adressen verwendet wird, der inCIDR-Notation angegeben ist.“ Der voreingestellte Wert 192.168.0.0/16 gibt beispielsweise einen Bereich von 65.536 IP-Adressen von 192.168.0.0 bis 192.168.255.255 an.

  • Die maximale Anzahl von Pods, die auf einem einzelnen Knoten ausgeführt werden können, wird mit nodeConfig.podDensity.maxPodsPerNode angegeben.

  • Basierend auf der Einstellung für die maximale Anzahl von Pods pro Knoten stellt Google Distributed Cloud dem Knoten etwa doppelt so viele IP-Adressen zur Verfügung. Die zusätzlichen IP-Adressen tragen dazu bei, dass die Pod-IPs nicht versehentlich innerhalb kurzer Zeit wiederverwendet werden.

  • Wenn Sie die Gesamtzahl der Pod-IP-Adressen durch die Anzahl der auf jedem Knoten bereitgestellten Pod-IP-Adressen dividieren, erhalten Sie die Gesamtzahl der Knoten, die Sie in Ihrem Cluster haben können.

Wenn Ihr Pod-CIDR beispielsweise 192.168.0.0/17 ist, haben Sie insgesamt 32.768 IP-Adressen (2(32–17) = 215 = 32.768). Wenn Sie die maximale Anzahl von Pods pro Knoten auf 250 festlegen, stellt Google Distributed Cloud einen Bereich von etwa 500 IP-Adressen bereit, was ungefähr einem /23-CIDR-Block entspricht (2(32-23) = 29 = 512). Die maximale Anzahl von Knoten in diesem Fall beträgt also 64 (215 Adressen/Cluster geteilt durch 29 Adressen/Knoten = 2(15–9) Knoten/Cluster = 26 = 64 Knoten/Cluster).

Sowohl clusterNetwork.pods.cidrBlocks als auch nodeConfig.podDensity.maxPodsPerNode sind unveränderlich. Planen Sie daher das zukünftige Wachstum Ihres Clusters sorgfältig, um zu vermeiden, dass Ihnen die Knotenkapazitäten ausgeht. Die empfohlenen Höchstwerte für Pods pro Cluster, Pods pro Knoten und Knoten pro Cluster basierend auf Tests finden Sie unter Limits.

Dienst-CIDR

Ihr Service-CIDR kann aktualisiert werden, um weitere Dienste hinzuzufügen, wenn Sie Ihren Cluster skalieren. Sie können den CIDR-Bereich des Dienstes jedoch nicht verkleinern. Weitere Informationen finden Sie unter Service-Netzwerkbereich erhöhen.

Für System-Daemons reservierte Ressourcen

Standardmäßig reserviert Google Distributed Cloud automatisch Ressourcen auf einem Knoten für System-Daemons wie sshd oder udev. CPU- und Arbeitsspeicherressourcen werden auf einem Knoten für System-Daemons reserviert, damit diese Daemons die benötigten Ressourcen haben. Ohne diese Funktion können Pods möglicherweise die meisten Ressourcen auf einem Knoten belegen, sodass System-Daemons ihre Aufgaben nicht mehr ausführen können.

Google Distributed Cloud reserviert auf jedem Knoten 80 Millicores (80 mCPU) und 280 Mebibytes (280 MiB) Arbeitsspeicher für System-Daemons. Die CPU-Einheit mCPU steht für ein Tausendstel eines Kerns. Daher werden auf jedem Knoten 80/1000 oder 8 % eines Kerns für System-Daemons reserviert. Die Menge der reservierten Ressourcen ist gering und hat keine wesentlichen Auswirkungen auf die Pod-Leistung. Das Kubelet auf einem Knoten kann jedoch Pods entfernen, wenn ihre CPU- oder Arbeitsspeichernutzung die ihnen zugewiesenen Mengen überschreitet.

Netzwerk mit MetalLB

Sie können die Anzahl der MetalLB-Lautsprecher erhöhen, um die folgenden Aspekte zu berücksichtigen:

  • Bandbreite: Die gesamte Clusterbandbreite für Load-Balancing-Dienste hängt von der Anzahl der Lautsprecher und der Bandbreite jedes Lautsprecherknotens ab. Bei erhöhtem Netzwerkverkehr sind mehr Lautsprecher erforderlich.

  • Fehlertoleranz: Mehr Lautsprecher verringern die Auswirkungen eines einzelnen Lautsprecherausfalls.

MetalLB erfordert Layer 2-Verbindungen zwischen den Load-Balancing-Knoten. In diesem Fall sind Sie möglicherweise durch die Anzahl der Knoten mit Layer-2-Verbindung beschränkt, auf denen Sie MetalLB-Lautsprecher platzieren können.

Planen Sie sorgfältig, wie viele MetalLB-Lautsprecher Sie in Ihrem Cluster haben möchten, und ermitteln Sie, wie viele Layer-2-Knoten Sie benötigen. Weitere Informationen finden Sie unter MetalLB-Skalierbarkeitsprobleme.

Wenn Sie den gebündelten Load-Balancing-Modus verwenden, müssen sich die Knoten der Steuerungsebene im selben Layer-2-Netzwerk befinden. Beim manuellen Load-Balancing gibt es diese Einschränkung nicht. Weitere Informationen finden Sie unter Manueller Load-Balancer-Modus.

Viele Knoten, Pods und Dienste ausführen

Sie können Ihren Cluster hochskalieren, indem Sie Knoten, Pods und Dienste hinzufügen. In den folgenden Abschnitten werden einige zusätzliche Einstellungen und Konfigurationen behandelt, die Sie berücksichtigen sollten, wenn Sie die Anzahl der Knoten, Pods und Dienste in Ihrem Cluster erhöhen. Informationen zu den Limits für diese Dimensionen und dazu, wie sie zusammenhängen, finden Sie unter Limits.

Cluster ohne kube-proxy erstellen

Wenn Sie einen leistungsstarken Cluster erstellen möchten, der auf eine große Anzahl von Diensten und Endpunkten skaliert werden kann, empfehlen wir, den Cluster ohne kube-proxy zu erstellen. Ohne kube-proxy verwendet der Cluster GKE Dataplane V2 im kube-proxy-Ersatzmodus. In diesem Modus wird der Ressourcenverbrauch vermieden, der zum Verwalten einer großen Reihe von iptables-Regeln erforderlich ist.

Sie können die Verwendung von kube-proxy für einen vorhandenen Cluster nicht deaktivieren. Diese Konfiguration muss beim Erstellen des Clusters eingerichtet werden. Eine Anleitung und weitere Informationen finden Sie unter Cluster ohne kube-proxy erstellen.

CoreDNS-Konfiguration

In diesem Abschnitt werden Aspekte von CoreDNS beschrieben, die sich auf die Skalierbarkeit Ihrer Cluster auswirken.

Pod-DNS

Standardmäßig fügen Google Distributed Cloud-Cluster Pods mit einem resolv.conf ein, das so aussieht:

nameserver KUBEDNS_CLUSTER_IP
search <NAMESPACE>.svc.cluster.local svc.cluster.local cluster.local c.PROJECT_ID.internal google.internal
options ndots:5

Die Option ndots:5 bedeutet, dass Hostnamen mit weniger als fünf Punkten nicht als voll qualifizierter Domainname (Fully Qualified Domain Name, FQDN) betrachtet werden. Der DNS-Server hängt alle angegebenen Suchdomains an, bevor er den ursprünglich angeforderten Hostnamen sucht, der bei der Auflösung von google.com die Suchvorgänge so anordnet:

  1. google.com.NAMESPACE.svc.cluster.local
  2. google.com.svc.cluster.local
  3. google.com.cluster.local
  4. google.com.c.PROJECT_ID.internal
  5. google.com.google.internal
  6. google.com

Jeder der Suchvorgänge wird für IPv4 (A-Eintrag) und IPv6 (AAAA-Eintrag) durchgeführt, was 12 DNS-Anfragen pro Abfrage ohne FQDN zur Folge hat und den DNS-Traffic erheblich erhöht. Um dieses Problem zu beheben, empfehlen wir, den Hostnamen, der nachgeschlagen werden soll, als FQDN zu deklarieren, indem Sie einen nachgestellten Punkt (google.com.) hinzufügen. Diese Deklaration muss auf der Ebene der Anwendungsarbeitslast erfolgen. Weitere Informationen finden Sie auf der Manpage zu resolv.conf.

IPv6

Wenn im Cluster kein IPv6 verwendet wird, können Sie die DNS-Anfragen halbieren, indem Sie den AAAA-Eintrags-Suche beim vorgelagerten DNS-Server entfernen. Wenn Sie Hilfe beim Deaktivieren von AAAA-Suchvorgänge benötigen, wenden Sie sich an den Cloud Customer Care.

Dedizierter Knotenpool

Da DNS-Abfragen im Lebenszyklus von Anwendungen von entscheidender Bedeutung sind, empfehlen wir, dedizierte Knoten für die coredns-Bereitstellung zu verwenden. Dieses Deployment fällt in eine andere Fehlerdomain als normale Anwendungen. Wenn Sie Hilfe bei der Einrichtung dedizierter Knoten für die coredns-Bereitstellung benötigen, wenden Sie sich an den Cloud Customer Care.

Probleme mit der Skalierbarkeit von MetalLB

MetalLB wird im Aktiv-Passiv-Modus ausgeführt. Das bedeutet, dass zu jeder Zeit nur ein einzelner MetalLB-Speaker für eine bestimmte LoadBalancer-VIP vorhanden ist.

Failover

Vor Google Distributed Cloud-Version 1.28.0 konnte das Failover von MetalLB in großem Maßstab lange dauern und ein Zuverlässigkeitsrisiko für den Cluster darstellen.

Verbindungseinschränkungen

Wenn es einen bestimmten LoadBalancer-VIP gibt, z. B. einen Ingress-Dienst, der fast oder mehr als 30.000 gleichzeitige Verbindungen erwartet, ist es wahrscheinlich, dass der Speaker-Knoten, der den VIP verarbeitet, die verfügbaren Ports ausschöpft. Aufgrund einer Architektureinschränkung gibt es keine Lösung für dieses Problem von MetalLB. Erwägen Sie den Wechsel zum gebündelten Load-Balancing mit BGP, bevor Sie den Cluster erstellen, oder verwenden Sie eine andere Ingress-Klasse. Weitere Informationen finden Sie unter Ingress-Konfiguration.

Load-Balancer-Lautsprecher

Standardmäßig verwendet Google Distributed Cloud denselben Load-Balancer-Knotenpool für die Steuerungs- und die Datenebene. Wenn Sie keinen Load-Balancer-Knotenpool (loadBalancer.nodePoolSpec) angeben, wird der Knotenpool der Steuerungsebene (controlPlane.nodePoolSpec) verwendet.

Wenn Sie die Anzahl der Lautsprecher erhöhen möchten, wenn Sie den Knotenpool der Steuerungsebene für das Load-Balancing verwenden, müssen Sie die Anzahl der Maschinen der Steuerungsebene erhöhen. Für Produktionsbereitstellungen empfehlen wir, drei Knoten der Steuerungsebene für Hochverfügbarkeit zu verwenden. Die Anzahl der Knoten der Steuerungsebene über drei hinaus zu erhöhen, um zusätzliche Lautsprecher unterzubringen, ist möglicherweise keine gute Nutzung Ihrer Ressourcen.

Ingress-Konfiguration

Wenn Sie mit etwa 30.000 gleichzeitigen Verbindungen zu einem einzelnen LoadBalancer-Service-VIP rechnen, kann MetalLB dies möglicherweise nicht unterstützen.

Sie können die VIP über andere Mechanismen wie F5 BIG-IP verfügbar machen. Alternativ können Sie einen neuen Cluster mit dem gebündelten Load-Balancing mit BGP erstellen. was nicht dieselbe Einschränkung hat.

Cloud Logging- und Cloud Monitoring-Komponenten optimieren

In großen Clustern reichen die Standardressourcenkonfigurationen für die Cloud Logging- und Cloud Monitoring-Komponenten je nach Anwendungsprofilen und Traffic-Muster möglicherweise nicht aus. Eine Anleitung zum Anpassen der Ressourcenanforderungen und ‑limits für die Observability-Komponenten finden Sie unter Stackdriver-Komponentenressourcen konfigurieren.

Insbesondere können Kube-State-Messwerte in Clustern mit einer großen Anzahl von Diensten und Endpunkten eine übermäßige Arbeits-Speichernutzung sowohl auf kube-state-metrics selbst als auch auf gke-metrics-agent auf demselben Knoten führen. Die Ressourcennutzung von metrics-server kann auch in Bezug auf Knoten, Pods und Dienste skaliert werden. Wenn Sie Ressourcenprobleme bei diesen Komponenten haben, wenden Sie sich an Cloud Customer Care.

Betriebssystem mit „sysctl“ konfigurieren

Wir empfehlen, die Betriebssystemkonfiguration für Ihre Knoten so zu optimieren, dass sie am besten zu Ihrem Anwendungsfall für die Arbeitslast passen. Die Parameter fs.inotify.max_user_watches und fs.inotify.max_user_instances, mit denen die Anzahl der inotify-Ressourcen gesteuert wird, müssen oft angepasst werden. Wenn Sie beispielsweise Fehlermeldungen wie die folgenden sehen, sollten Sie prüfen, ob diese Parameter angepasst werden müssen:

The configured user limit (128) on the number of inotify instances has been reached
ENOSPC: System limit for number of file watchers reached...

Die Optimierung variiert in der Regel je nach Arbeitslasttyp und Hardwarekonfiguration. Wenden Sie sich an Ihren Betriebssystemanbieter, um sich über die spezifischen Best Practices für das Betriebssystem zu informieren.

Best Practices

In diesem Abschnitt werden Best Practices für die Herauf-Skalierung Ihres Clusters beschrieben.

Skalierung jeweils nur für eine Dimension auf einmal

Um Probleme zu minimieren und Änderungen einfacher rückgängig zu machen, sollten Sie jeweils nur eine Dimension anpassen. Das gleichzeitige Hochskalieren mehrerer Dimensionen kann auch in kleineren Clustern Probleme verursachen. Beispielsweise ist der Versuch, die Anzahl der pro Knoten geplanten Pods auf 110 und die Anzahl der Knoten im Cluster auf 250 zu erhöhen, wahrscheinlich nicht erfolgreich, da die Anzahl der Pods, die Anzahl der Pods pro Knoten und die Anzahl der Knoten zu sehr erweitert wird.

Cluster schrittweise skalieren

Das Hochskalieren eines Clusters kann ressourcenintensiv sein. Um das Risiko zu verringern, dass Clusteroperationen fehlschlagen oder Clusterarbeitslasten unterbrochen werden, empfehlen wir, nicht zu versuchen, große Cluster mit vielen Knoten in einem einzigen Vorgang zu erstellen.

Hybrid- oder eigenständige Cluster ohne Worker-Knoten erstellen

Wenn Sie einen großen Hybrid- oder eigenständigen Cluster mit mehr als 50 Worker-Knoten erstellen, ist es besser, zuerst einen HA-Cluster (Hochverfügbarkeitscluster) mit Steuerungsebenenknoten zu erstellen und dann schrittweise zu skalieren. Beim Erstellen des Clusters wird ein Bootstrap-Cluster verwendet, der nicht hochverfügbar und daher weniger zuverlässig ist. Nachdem der Hybrid- oder eigenständige HA-Cluster erstellt wurde, können Sie ihn zur Hoch-Skalierung auf mehr Knoten verwenden.

Anzahl der Worker-Knoten in Batches erhöhen

Wenn Sie einen Cluster auf mehr Worker-Knoten erweitern, ist es besser, dies schrittweise zu tun. Wir empfehlen, jeweils nicht mehr als 20 Knoten hinzuzufügen. Dies gilt insbesondere für Cluster, auf denen kritische Arbeitslasten ausgeführt werden.

Parallele Image-abrufe aktivieren

Standardmäßig ruft kubelet Images seriell ab, eines nach dem anderen. Wenn die Upstream-Verbindung zu Ihrem Image-Registry-Server nicht funktioniert, kann ein fehlerhafter Image-Abruf die gesamte Warteschlange für einen bestimmten Knotenpool blockieren.

Um dieses Problem zu beheben, empfehlen wir, serializeImagePulls in der benutzerdefinierten Kubelet-Konfiguration auf false zu setzen. Eine Anleitung und weitere Informationen finden Sie unter Kubelet-Image-Pull-Einstellungen konfigurieren. Wenn Sie parallele Image-Abrufe aktivieren, kann es zu Spitzen beim Verbrauch von Netzwerkbandbreite oder Festplatten-I/O kommen.

Ressourcenanfragen und ‑limits für Anwendungen optimieren

In dicht gepackten Umgebungen werden Anwendungsarbeitslasten möglicherweise entfernt. Kubernetes verwendet den beschriebenen Mechanismus, um Pods bei so einer Löschung zu ranken.

Eine gute Vorgehensweise zum Festlegen Ihrer Containerressourcen besteht darin, die gleiche Menge an Arbeitsspeicher für Anfragen und Limits sowie ein größeres oder unbegrenztes CPU-Limit zu verwenden. Weitere Informationen finden Sie im Cloud Architecture Center unter Cloudbasierte Kubernetes-Anwendungen vorbereiten.

Speicherpartner verwenden

Für umfangreiche Bereitstellungen empfehlen wir die Verwendung eines der GDC Ready-Speicherpartner. Es ist wichtig, dass Sie die folgenden Informationen mit dem jeweiligen Speicherpartner bestätigen:

  • Die Speicherbereitstellungen folgen Best Practices für Speicheraspekte wie Hochverfügbarkeit, Prioritätseinstellung, Knotenaffinitäten sowie Ressourcenanforderungen und ‑limits.
  • Die Speicherversion wird mit der jeweiligen Google Distributed Cloud-Version angegeben.
  • Der Speicheranbieter kann die gewünschte hohe Skalierung unterstützen, die Sie bereitstellen möchten.

Cluster für Hochverfügbarkeit konfigurieren

Es ist wichtig, Ihre Bereitstellung mit großen Maßstab zu prüfen und dafür zu sorgen, dass die kritischen Komponenten nach Möglichkeit für HA konfiguriert sind. Google Distributed Cloud unterstützt HA-Bereitstellungsoptionen für alle Clustertypen. Weitere Informationen finden Sie unter Bereitstellungsmodell auswählen. Beispiele für Clusterkonfigurationsdateien von HA-Bereitstellungen finden Sie unter Beispiele für Clusterkonfigurationen.

Es ist auch wichtig, andere Komponenten zu prüfen, darunter:

  • Speicheranbieter
  • Cluster-Webhooks

Ressourcennutzung überwachen

In diesem Abschnitt finden Sie einige grundlegende Empfehlungen für die Überwachung von Clustern mit großem Maßstab.

Auslastungsmesswerte genau beobachten

Es ist wichtig, die Auslastung sowohl der Knoten als auch der einzelnen Systemkomponenten zu überwachen und dafür zu sorgen, dass sie einen ausreichenden Puffer haben. Informationen dazu, welche Standard-Monitoringfunktionen standardmäßig verfügbar sind, finden Sie unter Vordefinierte Dashboards verwenden.

Bandbreitenverbrauch überwachen

Überwachen Sie den Bandbreitenverbrauch genau, um sicherzustellen, dass das Netzwerk nicht ausgelastet ist, was zu Leistungseinbußen Ihres Clusters führt.

Etcd-Leistung verbessern

Die Festplattengeschwindigkeit ist entscheidend für die Leistung und Stabilität von etcd. Ein langsames Laufwerk erhöht die Latenz von etcd-Anfragen, was zu Problemen mit der Clusterstabilität führen kann. Zur Verbesserung der Clusterleistung speichert Google Distributed Cloud Event-Objekte in einer separaten, dedizierten etcd-Instanz. Die Standard-etcd-Instanz verwendet /var/lib/etcd als Datenverzeichnis und Port 2379 für Clientanfragen. Die etcd-events-Instanz verwendet /var/lib/etcd-events als Datenverzeichnis und Port 2382 für Clientanfragen.

Wir empfehlen, für Ihre etcd-Speicher eine Solid-State-Festplatte (SSD) zu verwenden. Für eine optimale Leistung sollten Sie separate Laufwerke für /var/lib/etcd und /var/lib/etcd-events bereitstellen. Durch die Verwendung dedizierter Laufwerke wird sichergestellt, dass sich die beiden etcd-Instanzen die Laufwerk-E/A nicht teilen.

Die etcd-Dokumentation enthält zusätzliche Hardwareempfehlungen, um für eine optimale etcd-Leistung beim Ausführen Ihrer Cluster in der Produktion zu sorgen.

Prüfen Sie die etcd- und Laufwerksleistung mit den folgenden etcd-E/A-Latenzmesswerten im Metrics Explorer:

  • etcd_disk_backend_commit_duration_seconds: Die Dauer sollte für das 99. Perzentil (p99) weniger als 25 Millisekunden betragen.
  • etcd_disk_wal_fsync_duration_seconds: Die Dauer sollte für das 99. Perzentil (p99) weniger als 10 Millisekunden betragen.

Weitere Informationen zur etcd-Leistung finden Sie unter Was bedeutet die etcd-Warnung "Anwenden von Einträgen zu lang"? und Was bedeutet die etcd-Warnung "Heartbeat konnte nicht rechtzeitig gesendet werden"?

Wenn Sie weitere Unterstützung benötigen, wenden Sie sich an den Cloud Customer Care. Weitere Informationen zu Supportressourcen finden Sie unter Support. Dazu gehören:

  • Anforderungen für das Eröffnen eines Supportfalls.
  • Tools zur Fehlerbehebung, z. B. Ihre Umgebungskonfiguration, Logs und Messwerte.
  • Unterstützte Komponenten.

Nächste Schritte