Daten aus Analytics exportieren

Sie sehen die Dokumentation zu Apigee Edge.
Zur Apigee X-Dokumentation
weitere Informationen

Berechtigungen für zugewiesene Dienst-Agents einrichten

Führen Sie als Vorbereitung auf die oben beschriebenen Änderungen die folgenden Schritte aus, um Berechtigungen für zugewiesene Dienst-Agents einzurichten.

  1. Geben Sie den folgenden Befehl ein, um den Namen Ihres Google Cloud-Dienst-Agents zu ermitteln:
    curl -X GET \
      "https://api.enterprise.apigee.com/v1/organizations/ORG" \
      -u email:password \
      | jq -r '.properties.property[] | select(.name=="serviceAgent.analytics") | .value'

    waren ORG Ihre Organisation. Dadurch werden Name und Wert des Dienst-Agents wie unten dargestellt zurückgegeben:

    "property" : [
      {
       "name" : "serviceAgent.analytics",
       "value" : "service-9q1ibk@gcp-sa-apigee-uap.iam.gserviceaccount.com"
       },
  2. Öffnen Sie in der Google Cloud Console das IAM-Dashboard.
  3. Wählen Sie Ihr Google Cloud-Projekt aus.
  4. Klicken Sie oben im Bereich IAM auf Hinzufügen.
  5. Geben Sie im Feld Neue Hauptkonten den Dienst-Agent value ein, der in Schritt 1 zurückgegeben wurde. Die in Schritt 1 gezeigte value ist beispielsweise service-9q1ibk@gcp-sa-apigee-uap.iam.gserviceaccount.com.
  6. Klicken Sie auf die Schaltfläche +Weitere Rolle hinzufügen und fügen Sie die folgenden Rollen hinzu:
    • BigQuery-Nutzer
    • Storage-Administrator
  7. Klicken Sie auf Speichern.

Apigee Analytics-Daten

Apigee Analytics erfasst und analysiert ein breites Spektrum an Daten, die über Ihre APIs übertragen werden, und bietet Visualisierungstools, einschließlich interaktiver Dashboards, benutzerdefinierter Berichte und anderer Tools, die Trends in der API-Proxy-Leistung identifizieren. Jetzt können Sie auf diese umfangreichen Inhalte zugreifen, indem Sie Analysedaten aus Apigee Analytics in Ihr eigenes Daten-Repository exportieren, z. B. in Google Cloud Storage oder Google BigQuery. Anschließend können Sie die leistungsstarken Funktionen für Abfragen und maschinelles Lernen von Google BigQuery und TensorFlow nutzen, um Ihre eigenen Datenanalysen durchzuführen. Sie können die exportierten Analysedaten auch mit anderen Daten wie Weblogs kombinieren, um neue Einblicke in Ihre Nutzer, APIs und Anwendungen zu erhalten.

Datenformat exportieren

Exportieren Sie Analysedaten in eines der folgenden Formate:

  • Kommagetrennte Werte (CSV)

    Das Standardtrennzeichen ist ein Komma (,). Zu den unterstützten Trennzeichen gehören das Komma (), der senkrechte Strich (|) und das Tabulatorzeichen (\t). Konfigurieren Sie den Wert mit dem Attribut csvDelimiter. Eine Beschreibung hierzu finden Sie unter Referenz zu Anfragattribut exportieren.

  • JSON (durch Zeilenumbruch getrennt)

    Ermöglicht das Verwenden eines Zeilenvoschubs als Trennzeichen.

Die exportierten Daten enthalten alle in Edge integrierten Analysemetriken und -dimensionen sowie alle benutzerdefinierten Analysedaten, die Sie hinzufügen. Eine Beschreibung der exportierten Daten finden Sie in der Referenz zu Analysemesswerten, -dimensionen und -filtern.

Sie können Analysedaten in die folgenden Daten-Repositories exportieren:

Übersicht über den Export

In den folgenden Schritten wird der Prozess für das Exportieren der Analysedaten zusammengefasst:

  1. Konfigurieren Sie Ihr Daten-Repository (Cloud Storage oder BigQuery) für den Datenexport. Sie müssen sicherstellen, dass Ihr Daten-Repository richtig konfiguriert wurde und dass das Dienstkonto, das zum Schreiben von Daten in das Daten-Repository verwendet wird, über die richtigen Berechtigungen verfügt.

  2. Erstellen Sie einen Datenspeicher, der die Eigenschaften des Daten-Repositorys (Cloud Storage oder BigQuery) definiert, in das Sie Ihre Daten exportieren, einschließlich der Anmeldedaten, die für den Zugriff auf das Daten-Repository verwendet werden.

    Wenn Sie einen Datenspeicher erstellen, laden Sie die Anmeldedaten für das Daten-Repository in den Edge-Anmeldedaten-Vault hoch, um sie sicher zu speichern. Der Datenexportmechanismus verwendet diese Anmeldedaten dann, um Daten in Ihr Daten-Repository zu schreiben.

  3. Initiieren Sie den Datenexport mit der API für den Datenexport. Der Datenexport wird asynchron im Hintergrund ausgeführt.

  4. Mit der API für den Datenexport können Sie feststellen, wann der Export abgeschlossen ist.

  5. Wenn der Export abgeschlossen ist, greifen Sie auf die exportierten Daten in Ihrem Daten-Repository zu.

Diese Schritte werden in den folgenden Abschnitten näher erläutert.

Daten-Repository konfigurieren

Der Exportmechanismus für Analysedaten schreibt Daten in Cloud Storage oder BigQuery. Damit dieser Schreibvorgang ausgeführt wird, müssen Sie:

  • Erstellen Sie ein Google Cloud Platform-Dienstkonto.
  • Legen Sie die Rolle des Dienstkontos so fest, dass es auf Cloud Storage oder BigQuery zugreifen kann.

Dienstkonto für Cloud Storage oder BigQuery erstellen

Ein Dienstkonto ist ein Google-Konto, das zu Ihrer Anwendung und nicht zu einem bestimmten Nutzer gehört. Ihre Anwendung greift dann über das Dienstkonto auf einen Dienst zu.

Ein Dienstkonto hat einen Dienstkontoschlüssel, der durch einen JSON-String dargestellt wird. Wenn Sie den Edge-Datenspeicher erstellen, der die Verbindung zu Ihrem Daten-Repository definiert, übergeben Sie diesen Schlüssel. Der Datenexportmechanismus verwendet dann den Schlüssel, um auf Ihr Daten-Repository zuzugreifen.

Das mit dem Schlüssel verknüpfte Dienstkonto muss ein Google Cloud Platform-Projektinhaber sein und Schreibzugriff auf den Google Cloud Storage-Bucket haben. Informationen zum Erstellen eines Dienstschlüssels und zum Herunterladen der erforderlichen Nutzlast finden Sie in der Google Cloud Platform-Dokumentation unter Dienstkontoschlüssel erstellen und verwalten.

Wenn Sie beispielsweise Ihren Schlüssel zum ersten Mal herunterladen, wird er als JSON-Objekt formatiert:

{ 
  "type": "service_account", 
  "project_id": "myProject", 
  "private_key_id": "12312312", 
  "private_key": "-----BEGIN PRIVATE KEY-----\n...", 
  "client_email": "client_email@developer.gserviceaccount.com", 
  "client_id": "879876769876", 
  "auth_uri": "https://accounts.google.com/organizations/oauth2/auth", 
  "token_uri": "https://oauth2.googleapis.com/token", 
  "auth_provider_x509_cert_url": "https://www.googleapis.com/oauth2", 
  "client_x509_cert_url": "https://www.googleapis.com" 
}

Google Cloud Storage konfigurieren

Bevor Sie Daten nach Google Cloud Storage exportieren können:

  • Achten Sie darauf, dass die BigQuery und Cloud Resource Manager APIs in Ihrem Google Cloud Platform-Projekt aktiviert sind. Eine Anleitung finden Sie unter APIs aktivieren. Apigee verwendet die BigQuery API, um die BigQuery-Exportfunktionen beim Exportieren nach Cloud Storage zu nutzen, und die Cloud Resource Manager API, um vor jedem Export die Berechtigung zu prüfen.
  • Achten Sie darauf, dass das Dienstkonto den folgenden Rollen zugewiesen ist:

    • BigQuery-Jobnutzer
    • Storage-Objekt-Ersteller
    • Storage Admin (nur für das Testen des Datenspeichers erforderlich, wie unter Testen einer Datenspeicherkonfiguration beschrieben). Wenn diese Rolle zu breit angelegt ist, können Sie stattdessen die Berechtigung storage.buckets.get zu einer vorhandenen Rolle hinzufügen.)

    Wenn Sie eine vorhandene Rolle ändern oder eine benutzerdefinierte Rolle erstellen möchten, fügen Sie der Rolle die folgenden Berechtigungen hinzu:

    • bigquery.jobs.create
    • storage.objects.create
    • storage.buckets.get (nur für das Testen des Datenspeichers erforderlich, wie unter Datenspeicherkonfiguration testen beschrieben)

Google BigQuery konfigurieren

Bevor Sie Daten nach Google BigQuery exportieren können:

  • Achten Sie darauf, dass die BigQuery und Cloud Resource Manager APIs in Ihrem Google Cloud Platform-Projekt aktiviert sind. Eine Anleitung finden Sie unter APIs aktivieren. Apigee verwendet die Cloud Resource Manager API, um vor jedem Export die Berechtigung zu prüfen.
  • Achten Sie darauf, dass die BigQuery API in Ihrem Google Cloud Platform-Projekt aktiviert ist. Anweisungen finden Sie unter Aktivieren und Deaktivieren von APIs.
  • Achten Sie darauf, dass das Dienstkonto den folgenden Rollen zugewiesen ist:

    • BigQuery-Jobnutzer
    • BigQuery-Dateneditor

    Wenn Sie eine vorhandene Rolle ändern oder eine benutzerdefinierte Rolle erstellen möchten, fügen Sie der Rolle die folgenden Berechtigungen hinzu:

    • bigquery.datasets.create
    • bigquery.datasets.get
    • bigquery.jobs.create
    • bigquery.tables.create
    • bigquery.tables.get
    • bigquery.tables.updateData

Datenspeicher erstellen

Der Datenspeicher definiert die Verbindung zu Ihrem Exportdaten-Repository (Cloud Storage, BigQuery), einschließlich der Anmeldedaten für den Zugriff auf das Daten-Repository.

Informationen zum Edge Vault für Anmeldedaten

Edge verwendet Vault für Anmeldedaten, um die für den Zugriff auf Ihr Exportdaten-Repository verwendeten Anmeldeinformationen sicher zu speichern. Damit ein Dienst auf die Anmeldeinformationen im Edge Vault für Anmeldeinformationen zugreifen kann, müssen Sie einen Konsument für Anmeldeinformationen definieren.

Beim Erstellen eines Datenspeichers mithilfe der Edge-Benutzeroberfläche, wie unten beschrieben, erstellt Edge automatisch den Consumer, der für den Zugriff auf die Anmeldeinformationen verwendet wird.

Datenspeicherkonfiguration testen

Wenn Sie den Datenspeicher erstellen, testet oder validiert Edge nicht, ob Ihre Anmeldedaten und die Daten-Repository-Konfiguration gültig sind. Das bedeutet, dass Sie den Datenspeicher erstellen können und erst beim ersten Datenexport Fehler erkennen.

Testen Sie alternativ die Konfiguration des Datenspeichers, bevor Sie sie erstellen. Das Testen ist nützlich, da die Ausführung eines umfangreichen Datenexportvorgangs lange dauern kann. Sie können Probleme mit Ihren Einstellungen schnell beheben, indem Sie Ihre Anmeldedaten und die Konfiguration des Datenspeichers testen, bevor Sie große Datenmengen herunterladen.

Wenn der Test erfolgreich ist, erstellen Sie den Datenspeicher. Wenn der Test fehlschlägt, beheben Sie die Fehler und testen Sie die Konfiguration noch einmal. Sie erstellen den Datenspeicher erst, wenn die Tests erfolgreich waren.

So aktivierst du die Testfunktion:

Datenspeicher erstellen

So erstellen Sie einen Datenspeicher in der UI:

  1. Melden Sie sich unter https://apigee.com/edge als Organisationsadministrator an und wählen Sie Ihre Organisation aus.

    HINWEIS: Sie müssen ein Edge-Organisationsadministrator sein, um einen Datenspeicher erstellen zu können.

  2. Wählen Sie in der linken Navigationsleiste Admin > Analytics Datastores (Verwaltung > Analytics-Datenspeicher) aus. Die Seite Analytics Datastores wird angezeigt.

  3. Wählen Sie die Schaltfläche + Datastore hinzufügen aus. Sie werden aufgefordert, den Datenspeichertyp auszuwählen:

  4. Wählen Sie einen Zieltyp für die Exportdaten aus:

    • Google Cloud Storage
    • Google BigQuery

    Die Konfigurationsseite wird angezeigt:

  5. Geben Sie den Namen des Datenspeichers ein.

  6. Wählen Sie einen Berechtigungsnachweis aus, der für den Zugriff auf das Daten-Repository verwendet wird. Eine Drop-down-Liste mit verfügbaren Anmeldedaten wird angezeigt.

    Die Anmeldedaten sind spezifisch für einen Daten-Repository-Typ. Weitere Informationen finden Sie unter Dienstkonto für Cloud Storage oder BigQuery erstellen.

    • Wenn Sie die Anmeldedaten bereits hochgeladen haben, wählen Sie die Anmeldedaten aus der Drop-down-Liste aus. Achten Sie darauf, dass Sie Anmeldedaten auswählen, die für den Daten-Repository-Typ geeignet sind.

    • Wenn Sie dem Datenspeicher neue Anmeldedaten hinzufügen, wählen Sie Neue hinzufügen aus. Geben Sie im Dialogfeld Folgendes ein:

      1. Der Name der Anmeldedaten
      2. Der Inhalt der Anmeldedaten ist der für Ihr Daten-Repository spezifische JSON-Dienstkontoschlüssel, wie unter Dienstkonto für Cloud Storage oder BigQuery erstellen definiert.
      3. Wählen Sie Erstellen aus.
  7. Geben Sie die für den Daten-Repository-Typ spezifischen Eigenschaften ein:

    • Für Google Cloud Storage:
      Property Beschreibung erforderlich?
      Projekt-ID Google Cloud Platform-Projekt-ID.

      Informationen zum Erstellen eines Google Cloud Platform-Projekts finden Sie unter Erstellen und Verwalten von Projekten in der Dokumentation zu Google Cloud Platform.

      Ja
      Bucket-Name Name des Buckets in Cloud Storage, in den Sie Analysedaten exportieren möchten. Der Bucket muss vorhanden sein, bevor Sie einen Datenexport ausführen.

      Informationen zum Erstellen eines Cloud Storage-Buckets finden Sie in der Dokumentation zu Google Cloud unter Storage-Buckets erstellen.

      Ja
      Pfad Verzeichnis, in dem die Analysedaten im Cloud Storage-Bucket gespeichert werden sollen. Ja
    • Für BigQuery:
      Property Beschreibung erforderlich?
      Projekt-ID Google Cloud Platform-Projekt-ID.

      Informationen zum Erstellen eines Google Cloud Platform-Projekts finden Sie unter Erstellen und Verwalten von Projekten in der Dokumentation zu Google Cloud Platform.

      Ja
      Dataset-Name Name des BigQuery-Datasets, in das Sie Analysedaten exportieren möchten. Das Dataset muss erstellt werden, bevor Sie den Datenexport anfordern.

      Informationen zum Erstellen eines BigQuery-Datasets finden Sie unter Erstellen und Verwenden von Datasets in der Dokumentation zur Google Cloud Platform.

      Ja
      Tabellenpräfix Das Präfix für die Namen der Tabellen, die für die Analysedaten im BigQuery-Dataset erstellt wurden. Ja
  8. Wählen Sie Verbindung testen aus, um sicherzustellen, dass die Anmeldedaten für den Zugriff auf das Daten-Repository verwendet werden können.

    Wenn der Test erfolgreich ist, speichern Sie Ihren Datenspeicher.

    Wenn der Test fehlschlägt, beheben Sie alle Probleme und wiederholen Sie den Test. Bewegen Sie die Maus über die Fehlermeldung in der Benutzeroberfläche, um zusätzliche Informationen in einer Kurzinfo anzuzeigen.

  9. Wenn der Verbindungstest bestanden wurde, speichern Sie den Datenspeicher.

Datenspeicher ändern

So ändern Sie einen Datenspeicher:

  1. Melden Sie sich unter https://apigee.com/edge als Organisationsadministrator an und wählen Sie Ihre Organisation aus.

  2. Wählen Sie in der linken Navigationsleiste Admin > Analytics Datastores (Verwaltung > Analytics-Datenspeicher) aus. Die Seite Analytics Datastores wird angezeigt.

  3. Bewegen Sie den Mauszeiger über die Spalte Geändert des zu ändernden Berichts. Ein Symbol zum Bearbeiten und Löschen wird angezeigt.

  4. Bearbeiten oder löschen Sie den Datenspeicher.

  5. Wenn Sie den Datenspeicher bearbeitet haben, wählen Sie Verbindung testen aus, um sicherzustellen, dass die Anmeldedaten für den Zugriff auf den Datenspeicher verwendet werden können.

    Wenn der Test erfolgreich ist, können Sie die Beispieldaten in Ihrem Daten-Repository anzeigen.

    Wenn der Test fehlschlägt, beheben Sie alle Probleme und wiederholen Sie den Test.

  6. Wenn der Verbindungstest bestanden wurde, aktualisieren Sie den Datenspeicher.

Analysedaten exportieren

Senden Sie zum Exportieren von Analysedaten eine POST-Anfrage an die /analytics/exports API. Übergeben Sie im Anfragetext die folgenden Informationen:

  • Name und Beschreibung der Exportanfrage
  • Zeitraum der exportierten Daten (Wert kann nur einen Tag umfassen)
  • Format der exportierten Daten
  • Name des Datenspeichers
  • Ist die Monetarisierung für die Organisation aktiviert?

Beispiele für Exportanfragen finden Sie unten. Eine vollständige Beschreibung der Anfragetext-Attribute finden Sie unter Referenz zu Anfrageattribut exportieren.

Die Antwort vom POST hat folgendes Format:

{
    "self": "/organizations/myorg/environments/test/analytics/exports/a7c2f0dd-1b53-4917-9c42-a211b60ce35b",
    "created": "2017-09-28T12:39:35Z",
    "state": "enqueued"
}

Beachten Sie, dass das Attribut state in der Antwort auf enqueued gesetzt ist. Die POST-Anfrage funktioniert asynchron. Dies bedeutet, dass sie im Hintergrund ausgeführt wird, nachdem die Anfrage eine Antwort zurückgegeben hat. Zulässige Werte für state sind: enqueued, running, completed, failed.

Verwenden Sie die im Attribut self zurückgegebene URL, um den Status der Datenexportanfrage anzuzeigen, wie unter Status einer Analyseexportanfrage ansehen beschrieben. Wenn die Anfrage abgeschlossen ist, wird der Wert des Attributs state in der Antwort auf completed gesetzt. Anschließend können Sie in Ihrem Daten-Repository auf die Analysedaten zugreifen.

Beispiel 1: Daten in Cloud Storage exportieren

Die folgende Anfrage exportiert einen vollständigen Satz Rohdaten der letzten 24 Stunden aus der test-Umgebung in der myorg-Organisation. Der Inhalt wird im JSON-Format nach Cloud Storage exportiert:

curl -X POST -H "Content-Type:application/json" \
"https://api.enterprise.apigee.com/v1/organizations/myorg/environments/test/analytics/exports" \
  -d \
  '{
    "name": "Export raw results to Cloud Storage",
    "description": "Export raw results to Cloud Storage for last 24 hours",
    "dateRange": {
      "start": "2018-06-08", 
      "end": "2018-06-09"
    },
    "outputFormat": "json",
    "datastoreName": "My Cloud Storage data repository"
  }' \
  -u orgAdminEmail:password

Verwenden Sie den im Attribut self angegebenen URI, um den Jobstatus zu überwachen, wie unter Status einer Analyseexportanfrage ansehen beschrieben.

Beispiel 2: Daten in BigQuery exportieren

Mit der folgenden Anfrage wird eine durch Kommas getrennte CSV-Datei nach BigQuery exportiert:

curl -X POST -H "Content-Type:application/json"  \
  "https://api.enterprise.apigee.com/v1/organizations/myorg/environments/test/analytics/exports" \
  -d \
  '{
    "name": "Export query results to BigQuery",
    "description": "One-time export to BigQuery",
    "dateRange": {
      "start": "2018-06-08", 
      "end": "2018-06-09"
    },
    "outputFormat": "csv",
    "csvDelimiter": ",", 
    "datastoreName": "My BigQuery data repository"
  }' \
  -u orgAdminEmail:password

Hinweis: Die exportierte CSV-Datei erstellt eine BigQuery-Tabelle mit dem folgenden Präfix:

<PREFIX>_<EXPORT_DATE>_api_<UUID>_from_<FROM_DATE>_to_<TO_DATE>

Verwenden Sie den in der Eigenschaft self angegebenen URI, um den Jobstatus zu überwachen, wie unter Status einer Analyseexportanforderung anzeigen beschrieben.

Beispiel 3: Monetarisierungsdaten exportieren

Wenn die Monetarisierung für eine Umgebung innerhalb der Organisation aktiviert ist, können Sie zwei Arten von Datenexporten ausführen:

  • Standarddatenexport, wie in den vorherigen beiden Beispielen gezeigt.
  • Export von Monetarisierungsdaten, um Daten speziell zur Monetarisierung zu exportieren.

Für einen Export der Monetarisierungsdaten geben Sie "dataset":"mint" in der Nutzlast der Anfrage an. Die Organisation und die Umgebung müssen die Monetarisierung unterstützen, um diese Option festzulegen. Andernfalls lassen Sie das Attribut dataset in der Nutzlast weg:

  '{
    "name": "Export raw results to Cloud Storage",
    "description": "Export raw results to Cloud Storage for last 24 hours",
    "dateRange": {
      "start": "2018-06-08", 
      "end": "2018-06-09"
    },
    "outputFormat": "json",
    "datastoreName": "My Cloud Storage data repository",
    "dataset":"mint"
  }'

Export-API-Kontingente

Edge erzwingt ein Kontingent für Aufrufe an die /analytics/exports API, um die übermäßige Nutzung teurer API-Aufrufe für den Datenexport zu verhindern:

  • Für Organisationen und Umgebungen, für die die Monetarisierung nicht aktiviert ist, gilt das folgende Kontingent:

    • 70 Aufrufe pro Monat und Organisation/Umgebung

    Wenn Sie beispielsweise in Ihrer Organisation die beiden Umgebungen prod und test haben, können Sie für jede Umgebung 70 API-Aufrufe pro Monat ausführen.

  • Für Organisationen und Umgebungen mit aktivierter Monetarisierung gilt das folgende Kontingent:

    • 70 Aufrufe pro Monat für jede Organisation und Umgebung für Standarddaten
    • 70 Aufrufe für jede Organisation und Umgebung für Monetarisierungsdaten.

    Wenn Sie beispielsweise die Monetarisierung für Ihre Organisation prod aktivieren, können Sie 70 API-Aufrufe für Standarddaten und 70 weitere API-Aufrufe für Monetarisierungsdaten ausführen.

Wenn Sie das Aufrufkontingent überschreiten, gibt die API den HTTP-Fehler 429 zurück.

Status aller Analyseexportanfragen anzeigen

Um den Status aller Analyseexportanfragen anzeigen zu lassen, senden Sie eine GET-Anfrage an /analytics/exports.

Die folgende Anfrage gibt beispielsweise den Status aller Analyseexportanfragen für die Umgebung test in der Organisation myorg zurück:

curl -X GET \
  "https://api.enterprise.apigee.com/v1/organizations/myorg/environments/test/analytics/exports" \
  -u email:password

Im Folgenden finden Sie eine Beispielantwort, in der zwei Exportanfragen aufgeführt sind, eine (erstellte und) in die Warteschlange gestellte und eine abgeschlossene Anfrage:

[
  {
    "self":
"/v1/organizations/myorg/environments/test/analytics/exports/e8b8db22-fe03-4364-aaf2-6d4f110444ba",
    "name": "Export results To Cloud Storage",
    "description": "One-time export to Google Cloud Storage",
    "userId": "my@email.com",
    "datastoreName": "My Cloud Storage data store",
    "executionTime": "36 seconds",
    "created": "2018-09-28T12:39:35Z",
    "updated": "2018-09-28T12:39:42Z",
    "state": "enqueued"
  },
  {
    "self":
"/v1/organizations/myorg/environments/test/analytics/exports/9870987089fe03-4364-aaf2-6d4f110444ba"
    "name": "Export raw results to BigQuery",
    "description": "One-time export to BigQuery",
    ... 
  }
]

Status einer Analyseexportanforderung ansehen

Um den Status einer bestimmten Analyseexportanfrage anzuzeigen, senden Sie eine GET-Anfrage an /analytics/exports/{exportId}, wobei {exportId} die ID ist, die der Analyseexportanfrage zugeordnet ist.

Die folgende Anfrage gibt beispielsweise den Status der Analyseexportanfrage mit der ID 4d6d94ad-a33b-4572-8dba-8677c9c4bd98 zurück.

curl -X GET \
"https://api.enterprise.apigee.com/v1/organizations/myorg/environments/test/analytics/exports/4d6d94ad-a33b-4572-8dba-8677c9c4bd98" \
-u email:password

Im Folgenden finden Sie ein Beispiel für die Antwort:

{
  "self":
"/v1/organizations/myorg/environments/test/analytics/exports/4d6d94ad-a33b-4572-8dba-8677c9c4bd98",
  "name": "Export results To Cloud Storage",
  "description": "One-time export to Google Cloud Storage",
  "userId": "my@email.com",
  "datastoreName": "My Cloud Storage data store",
  "executionTime": "36 seconds",
  "created": "2018-09-28T12:39:35Z",
  "updated": "2018-09-28T12:39:42Z",
  "state": "enqueued"
}

Wenn der Analyseexport keine Analysedaten zurückgibt, wird executionTime auf „0 Sekunden“ gesetzt.

Attributreferenz der Anforderung exportieren

In der folgenden Tabelle werden die Attribute beschrieben, die Sie im Anfragetext im JSON-Format übergeben können, wenn Sie Analysedaten exportieren.

Attribut Beschreibung erforderlich?
description Beschreibung der Exportanfrage. Nein
name Name der Exportanfrage. Ja
dateRange

Geben Sie das start- und das end-Datum der zu exportierenden Daten im Format yyyy-mm-dd an. Beispiel:

"dateRange": {
    "start": "2018-07-29",
    "end": "2018-07-30"
}

Der Wert dateRange kann nur einen Tag umfassen. Der Zeitraum beginnt um 00:00:00 Uhr UTC am start-Datum und endet um 00:00:00 Uhr UTC am end-Datum.

HINWEIS:Damit alle Daten des Vortages erfasst werden, müssen Sie den Beginn der Exportanfrage möglicherweise verschieben (z. B. 00:05:00 Uhr UTC).

Ja
outputFormat Geben Sie entweder json oder csv an. Ja
csvDelimiter

Trennzeichen in der CSV-Ausgabedatei, wenn outputFormat auf csv gesetzt ist. Die Standardeinstellung ist das Zeichen , (Komma). Zu den unterstützten Trennzeichen gehören das Komma (), der senkrechte Strich (|) und das Tabulatorzeichen (\t).

Nein
datastoreName Der Name des Datenspeichers, der die Definition Ihres Datenspeichers enthält. Ja

Beispiel:

{
    "name": "Export raw results to Cloud Storage",
    "description": "Export raw results to Cloud Storage for last 24 hours",
    "dateRange": {
      "start": "2018-06-08", 
      "end": "2018-06-09"
    },
    "outputFormat": "json",
    "datastoreName": "My Cloud Storage data repository"
  }