Von Aerospike zu Bigtable migrieren


In dieser Anleitung wird beschrieben, wie Sie Daten von Aerospike zu Bigtable migrieren. In dieser Anleitung werden die Unterschiede zwischen Aerospike und Bigtable erläutert und wie Sie Ihre Arbeitslast für die Ausführung in Bigtable transformieren. Es richtet sich an Datenbankexperten, die in Google Cloud nach einem Datenbankdienst suchen, der Aerospike ähnelt. In dieser Anleitung wird davon ausgegangen, dass Sie mit Datenbankschemas, Datentypen, den Grundlagen von NoSQL und mit relationalen Datenbanksystemen vertraut sind. Es werden vordefinierte Aufgaben ausgeführt, um eine Beispielmigration vorzunehmen. Nachdem Sie die Anleitung abgeschlossen haben, können Sie den bereitgestellten Code und die Schritte an Ihre Umgebung anpassen.

Bigtable ist ein vollständig verwalteter NoSQL-Datenbankdienst für Petabyte bei umfangreichen analytischen und operativen Arbeitslasten. Sie können es als Speicher-Engine für Ihren Dienst mit niedriger Latenz und im Petabyte-Bereich mit höherer Verfügbarkeit und Langlebigkeit verwenden. Sie können Daten in Bigtable mit Datenanalysediensten von Google Cloud wie Dataproc und BigQuery analysieren.

Bigtable eignet sich ideal für Werbetechnologien (Anzeigentechnologie), Finanztechnologie (Fintech) und die Dienste des Internets der Dinge (IoT), die mit NoSQL-Datenbanken wie Aero Spike oder Cassandra implementiert werden. Wenn Sie nach NoSQL-Dienst suchen, verwenden Sie Bigtable.

Architektur

Das folgende Referenzarchitekturdiagramm zeigt gängige Komponenten, die Sie zur Migration von Daten von Aerospike zu Bigtable verwenden können.

Komponenten des Datenübertragungsprozesses von Aerospike zu Bigtable.

Im vorherigen Diagramm werden die Daten mithilfe von zwei verschiedenen Methoden von einer lokalen Umgebung mit Aerospike zu Bigtable in Google Cloud migriert. Bei der ersten Methode werden die Daten mithilfe der Batchverarbeitung migriert. Zuerst werden die Aerospike-Sicherungsdaten in einen Cloud Storage-Bucket verschoben. Wenn die Sicherungsdaten in Cloud Storage ankommen, werden Cloud Functions ausgelöst, um mit ETL einen Batch-Extraktion, Transformieren und Laden zu starten. Der Dataflow-Job konvertiert die Sicherungsdaten in ein mit Bigtable kompatibles Format und importiert die Daten in die Bigtable-Instanz.

Die zweite Methode migriert die Daten mithilfe der Streamverarbeitung. Bei dieser Methode stellen Sie eine Verbindung mit Aerospike über eine Nachrichtenwarteschlange wie Kafaka mithilfe von Aerospike Connect her und übertragen Nachrichten in Echtzeit an Pub/Sub in Google Cloud. Wenn die Nachricht in einem Pub/Sub-Thema ankommt, wird sie vom Dataflow-Streamingjob in Echtzeit verarbeitet, um die Daten zu konvertieren und in die Bigtable-Instanz zu importieren.

Mit der Batchverarbeitung können Sie große Datenmengen effizient migrieren. Die Migration und Aktualisierung des Dienstes für neue Datenbanken sind jedoch in der Regel sehr aufwendig. Wenn Sie die Ausfallzeiten während der Umstellung minimieren möchten, können Sie die Streamingverarbeitung verwenden, um Daten nach der ersten Batchverarbeitung nach und nach zu migrieren und die Konsistenz der Sicherungsdaten bis zum Abschluss der ordnungsgemäßen Umstellung zu gewährleisten. In diesem Dokument können Sie mithilfe von Batchverarbeitung und Beispielanwendungen eine Migration von Aerospike durchführen, einschließlich des Umstellungsvorgangs.

Aerospike und Bigtable im Vergleich

Bevor Sie mit der Datenmigration beginnen, ist es wichtig, dass Sie die Unterschiede zwischen den Datenmodellen von Aerospike und Bigtable verstehen.

Das Bigtable-Datenmodell ist eine verteilte, mehrdimensionale, sortierte Schlüssel/Wert-Paarzuordnung mit Zeilen und Spaltenfamilien. Im Gegensatz dazu ist das Aerospike-Datenmodell eine zeilenorientierte Datenbank, wobei jeder Datensatz eindeutig durch einen Schlüssel identifiziert wird. Der Unterschied zwischen den Modellen besteht darin, wie die Attribute einer Entität gruppiert werden. Bigtable gruppiert ähnliche Attribute in einer Spaltenfamilie, während Aerospike Attribute in einem Satz gruppiert. Die Aerospike unterstützt im Vergleich zu Bigtable mehr Datentypen. Aerospike unterstützt beispielsweise Ganzzahlen, Strings, Listen und Karten. Bigtable behandelt alle Daten für die meisten Anwendungen als unverarbeitete Bytestrings.

Ein Schema in Aerospike ist flexibel, und dynamische Werte in denselben Klassen können unterschiedliche Typen haben. Anwendungen, die entweder Aerospike oder Bigtable verwenden, haben eine ähnliche Flexibilität und Verantwortung für die Datenverwaltung: Anwendungen verarbeiten Datentypen und Integritätseinschränkungen, statt sich auf die Datenbank-Engine zu verlassen.

Bookshelf-Migration

Die Bookshelf App ist eine Webanwendung, in der Nutzer Informationen zu Büchern speichern und eine Liste aller derzeit in der Datenbank gespeicherten Bücher abrufen können. Die Anwendung verwendet eine Buch-ID (ID), um nach Buchinformationen zu suchen. Die Anwendung oder die Datenbank generiert diese IDs automatisch. Wenn ein Nutzer das Bild eines Buchs auswählt, lädt das Back-End der Anwendung die Details zu dem Buch aus der Datenbank.

In dieser Anleitung migrieren Sie Daten aus der Bookshelf-Anwendung mit Aerospike zu Bigtable. Nach der Migration können Sie von Bigtable aus auf die Bücher zugreifen.

Das folgende Diagramm zeigt, wie die Daten von Aerospike zu Bigtable migriert werden:

Schritte zur Datenmigration

Im vorherigen Diagramm werden Daten so migriert:

  1. Sie sichern Daten über Bücher aus der aktuellen Aerospike-Datenbank und übertragen die Daten in einen Cloud Storage-Bucket.
  2. Wenn Sie die Sicherungsdaten in den Bucket hochladen, wird automatisch der Dataflow-Job as2bt über Cloud Storage-Aktualisierungsbenachrichtigungen mithilfe von Cloud Functions-Funktion ausgelöst.
  3. Nachdem die Datenmigration durch den Dataflow-Job as2bt abgeschlossen wurde, ändern Sie das Datenbank-Back-End von Aerospike zu Bigtable, damit die Bookshelf-Anwendung Buchdaten aus dem Bigtable-Cluster lädt.

Ziele

  • Bereitstellung einer Anleitungsumgebung für die Migration von Aerospike zu Bigtable
  • Beispiel-App-Sicherungs-Dataset von Aerospike in Cloud Storage erstellen
  • Mit Dataflow das Datenschema übertragen und zu Bigtable migrieren
  • Ändern Sie die Konfiguration der Beispielanwendung, um Bigtable als Back-End zu verwenden.
  • Prüfen Sie mit Bigtable, ob die Bookshelf-Anwendung ordnungsgemäß ausgeführt wird.

Kosten

In diesem Dokument verwenden Sie die folgenden kostenpflichtigen Komponenten von Google Cloud:

Mit dem Preisrechner können Sie eine Kostenschätzung für Ihre voraussichtliche Nutzung vornehmen. Neuen Google Cloud-Nutzern steht möglicherweise eine kostenlose Testversion zur Verfügung.

Die Kosten für Bigtable richten sich nach der Anzahl der Knotenstunden, der Menge der gespeicherten Daten und der verwendeten Netzwerkbandbreite. Sie können die Kosten des Bigtable-Clusters und anderer Ressourcen mit dem Preisrechner schätzen. Bei der Einrichtung des Beispiel-Preisrechners werden drei Bigtable-Knoten anstelle eines einzelnen Knotens verwendet. Die geschätzten Gesamtkosten im vorherigen Beispiel sind höher als die tatsächlichen Gesamtkosten dieser Anleitung.

Nach Abschluss der in diesem Dokument beschriebenen Aufgaben können Sie weitere Kosten vermeiden, indem Sie die erstellten Ressourcen löschen. Weitere Informationen finden Sie unter Bereinigen.

Hinweise

  1. Wählen Sie in der Google Cloud Console auf der Seite der Projektauswahl ein Google Cloud-Projekt aus oder erstellen Sie eines.

    Zur Projektauswahl

  2. Die Abrechnung für das Google Cloud-Projekt muss aktiviert sein.

  3. Cloud Resource Manager API aktivieren.

    Aktivieren Sie die API

    Terraform verwendet die Cloud Resource Manager API, um die APIs zu aktivieren, die für diese Anleitung erforderlich sind.

  4. Aktivieren Sie Cloud Shell in der Google Cloud Console.

    Cloud Shell aktivieren

Umgebung vorbereiten

Führen Sie die folgenden Tools direkt in Cloud Shell aus, um die Umgebung für die Migration von Aerospike zu Bigtable vorzubereiten:

  • Google Cloud CLI
  • gsutil-Befehlszeilentool
  • Das Bigtable-Befehlszeilentool, cbt
  • Terraform
  • Apache Maven

Diese Tools sind bereits in Cloud Shell verfügbar, sodass Sie diese Tools nicht noch einmal installieren müssen.

Projekt konfigurieren

  1. Prüfen Sie in Cloud Shell die Projekt-ID, die von Cloud Shell automatisch konfiguriert wird. Die Eingabeaufforderung wird aktualisiert, um Ihr aktuell aktives Projekt zu übernehmen und im folgenden Format dargestellt zu werden: USERNAME@cloudshell:~ (PROJECT_ID)$

    Wenn die Projekt-ID nicht richtig konfiguriert ist, können Sie sie manuell konfigurieren:

    gcloud config set project <var>PROJECT_ID</var>
    

    Ersetzen Sie PROJECT_ID durch Ihre Google Cloud-Projekt-ID.

  2. Konfigurieren Sie us-east1 als die Region und us-east1-b als die Zone:

    gcloud config set compute/region us-east1
    gcloud config set compute/zone us-east1-b
    

    Weitere Informationen zu Regionen und Zonen finden Sie unter Geografie und Regionen.

Anleitungsumgebung bereitstellen

  1. Klonen Sie in Cloud Shell das Code-Repository:

     git clone https://github.com/fakeskimo/as2bt.git/
    
  2. Initialisieren Sie in Cloud Shell das Terraform-Arbeitsverzeichnis:

    cd "$HOME"/as2bt/bookshelf/terraform
    terraform init
    
  3. Konfigurieren Sie Terraform-Umgebungsvariablen für die Bereitstellung:

    export TF_VAR_gce_vm_zone="$(gcloud config get-value compute/zone)"
    export TF_VAR_gcs_bucket_location="$(gcloud config get-value compute/region)"
    
  4. Prüfen Sie den Terraform-Ausführungsplan:

    terraform plan
    

    Die Ausgabe sieht etwa so aus:

    Terraform will perform the following actions:
    # google_bigtable_instance.bookshelf_bigtable will be created
    + resource "google_bigtable_instance" "bookshelf_bigtable" {
      + display_name  = (known after apply)
      + id            = (known after apply)
      + instance_type = "DEVELOPMENT"
      + name          = "bookshelf-bigtable"
      + project       = (known after apply)
      + cluster {
          + cluster_id   = "bookshelf-bigtable-cluster"
          + storage_type = "SSD"
          + zone         = "us-east1-b"
        }
    }
    
  5. (Optional) Zeichnen Sie Diagramme, um zu visualisieren, welche Ressourcen mit Abhängigkeiten von Terraform bereitgestellt werden:

    terraform graph | dot -Tsvg > graph.svg
    
  6. Stellen Sie die Anleitungsumgebung bereit:

    terraform apply
    

Anleitungsumgebung und Bookshelf-Anwendung prüfen

Nachdem Sie die Umgebung bereitgestellt haben und bevor Sie den Job zur Datenmigration gestartet haben, müssen Sie prüfen, ob alle Ressourcen bereitgestellt und konfiguriert wurden. In diesem Abschnitt wird erläutert, wie Sie den Bereitstellungsprozess überprüfen und welche Komponenten in der Umgebung konfiguriert werden.

Anleitungsumgebung prüfen

  1. Prüfen Sie in Cloud Shell die Compute Engine-Instanz bookshelf-aerospike:

    gcloud compute instances list
    

    Die Ausgabe zeigt, dass die Instanz in der Zone us-east1-b bereitgestellt ist:

    NAME                 ZONE        MACHINE_TYPE   PREEMPTIBLE  INTERNAL_IP  EXTERNAL_IP  STATUS
    bookshelf-aerospike  us-east1-b  n1-standard-2               10.142.0.4   34.74.72.3   RUNNING
    
  2. Prüfen Sie die Bigtable-Instanz bookshelf-bigtable:

    gcloud bigtable instances list
    

    Die Ausgabe sieht etwa so aus:

    NAME                DISPLAY_NAME        STATE
    bookshelf-bigtable  bookshelf-bigtable  READY
    

    Diese Bigtable-Instanz wird als Migrationsziel für spätere Schritte verwendet.

  3. Überprüfen Sie, ob sich der Cloud Storage-Bucket bookshelf im Dataflow-Pipelinejob befindet:

    gsutil ls -b gs://bookshelf-*
    

    Da Cloud Storage-Bucket-Namen global eindeutig sein müssen, wird der Name des Buckets mit einem zufälligen Suffix erstellt. Die Ausgabe sieht etwa so aus:

    gs://bookshelf-616f60d65a3abe62/
    

Buch zur Bookshelf-Anwendung hinzufügen

  1. Rufen Sie in Cloud Shell die externe IP-Adresse der Instanz bookshelf-aerospike ab:

    gcloud compute instances list --filter="name:bookshelf-aerospike" \
        --format="value(networkInterfaces[0].accessConfigs.natIP)"
    

    Notieren Sie sich die IP-Adresse. Sie benötigen sie im nächsten Schritt.

  2. Rufen Sie in einem Webbrowser http://IP_ADDRESS:8080 auf zum Öffnen der Bookshelf-Anwendung.

    Ersetzen Sie IP_ADDRESS durch die externe IP-Adresse, die Sie im vorherigen Schritt kopiert haben.

  3. Klicken Sie auf Buch hinzufügen, um ein neues Buch zu erstellen.

  4. Füllen Sie im Fenster Buch hinzufügen die folgenden Felder aus und klicken Sie dann auf Speichern:

    • Geben Sie im Feld Titel Aerospike-example ein.
    • Geben Sie im Feld Autor Aerospike-example ein.
    • Geben Sie in das Feld Veröffentlichungsdatum das heutige Datum ein.
    • Geben Sie im Feld Beschreibung den Text Aerospike-example ein.

    Mit diesem Buch wird überprüft, ob die Bookshelf-Anwendung Aerospike als Buchspeicher verwendet.

  5. Notieren Sie sich in der URL der Bookshelf-Anwendung die Buch-ID. Wenn die URL beispielsweise 34.74.80.160:8080/books/10000 lautet, lautet die Buch-ID 10000.

    Buch-ID in URL.

  6. Stellen Sie in Cloud Shell eine SSH-Verbindung zur Instanz bookshelf-aerospike her:

    gcloud compute ssh bookshelf-aerospike
    
  7. Prüfen Sie in der bookshelf-aerospike-Instanzsitzung, ob mit der zuvor notierten Buch-ID ein neues Buch erstellt wurde:

    aql -c 'select * from bookshelf.books where id = "BOOK_ID"'
    

    Die Ausgabe sieht etwa so aus:

    +----------------------+----------------------+---------------+----------------------+----------+---------+
    | title                | author               | publishedDate | description          | imageUrl | id      |
    +----------------------+----------------------+---------------+----------------------+----------+---------+
    | " Aerospike-example" | " Aerospike-example" | "2000-01-01"  | " Aerospike-example" | ""       | "10000" |
    +----------------------+----------------------+---------------+----------------------+----------+---------+
    1 row in set (0.001 secs)
    

    Wenn Ihre Buch-ID nicht aufgeführt ist, wiederholen Sie die Schritte zum Hinzufügen eines neuen Buches.

Sicherungsdaten aus Aerospike in Cloud Storage übertragen

  1. Erstellen Sie in Cloud Shell aus der Instanzsitzung bookshelf-aerospike eine Aerospike-Sicherungsdatei:

    aql -c "select * from bookshelf.books" --timeout=-1 --outputmode=json \`
        | tail -n +2 | jq -c '.[0] | .[]' \
        | gsutil cp - $(gsutil ls -b gs://bookshelf-*)bookshelf-backup.json
    

    Mit diesem Befehl werden die Daten verarbeitet und eine Sicherungsdatei erstellt durch den folgenden Prozess:

    • Wählt Buchinformationen aus Aerospike aus und gibt sie im JSON-prettyprint-Format aus.
    • Die ersten beiden Überschriften werden aus der Ausgabe entfernt und die Daten werden in das Format "Durch Zeilenumbruch getrenntes JSON" konvertiert (ndjson) mithilfe von jq, einem Befehlszeilen-JSON-Prozessor.
    • Mit dem gsutil-Befehlszeilentool werden die Daten in den Cloud Storage-Bucket hochgeladen.
  2. Prüfen Sie, ob die Aerospike-Sicherungsdatei hochgeladen wurde und im Cloud Storage-Bucket vorhanden ist:

    gsutil ls gs://bookshelf-*/bookshelf-*\
        gs://bookshelf-616f60d65a3abe62/bookshelf-backup.json
    
  3. (Optional) Prüfen Sie den Inhalt der Sicherungsdatei aus dem Cloud Storage-Bucket:

    gsutil cat -r 0-1024 gs://bookshelf-*/bookshelf-backup.json | head -n 2
    

    Die Ausgabe sieht etwa so aus:

    {"title":"book_2507","author":"write_2507","publishedDate":"1970-01-01","imageUrl":"https://storage.googleapis.com/aerospike2bt-bookshelf/The_Home_Edit-2019-06-24-044906.jpg","description":"test_2507","createdBy":"write_2507","createdById":"2507_anonymous","id":"2507"}
    {"title":"book_3867","author":"write_3867","publishedDate":"1970-01-01","imageUrl":"https://storage.googleapis.com/aerospike2bt-bookshelf/The_Home_Edit-2019-06-24-044906.jpg","description":"test_3867","createdBy":"write_3867","createdById":"3867_anonymous","id":"3867"}
    
  4. Beenden Sie die SSH-Sitzung und kehren Sie zu Cloud Shell zurück:

    exit
    

Sicherungsdaten mit Dataflow zu Bigtable migrieren

Sie können jetzt die Sicherungsdaten von Cloud Storage in eine Bigtable-Instanz migrieren. In diesem Abschnitt wird erläutert, wie Sie mit Dataflow-Pipelines Daten migrieren, die mit einem Bigtable-Schema kompatibel sind.

Dataflow-Migrationsjob konfigurieren

  1. Wechseln Sie in Cloud Shell zum Verzeichnis dataflow im Beispiel-Code-Repository:

    cd "$HOME"/as2bt/dataflow/
    
  2. Konfigurieren Sie Umgebungsvariablen für einen Dataflow-Job:

    export BOOKSHELF_BACKUP_FILE="$(gsutil ls
    gs://bookshelf*/bookshelf-backup.json)"
    export BOOKSHELF_DATAFLOW_ZONE="$(gcloud config get-value compute/zone)"
    
  3. Überprüfen Sie, ob die Umgebungsvariablen richtig konfiguriert sind:

    env | grep BOOKSHELF
    

    Wenn die Umgebungsvariablen richtig konfiguriert sind, sieht die Ausgabe in etwa so aus:

    BOOKSHELF_BACKUP_FILE=gs://bookshelf-616f60d65a3abe62/bookshelf-backup.json
    BOOKSHELF_DATAFLOW_ZONE=us-east1-b
    

Führen Sie den Dataflow-Job aus:

  1. Migrieren Sie in Cloud Shell Daten aus Cloud Storage in die Bigtable-Instanz:

    ./run_oncloud_json.sh
    
  2. Rufen Sie in der Google Cloud Console die Seite Jobs auf, um den Migrationsjob für die Sicherungsdaten zu überwachen.

    ZU JOBS

    Warten Sie, bis der Job erfolgreich abgeschlossen ist. Wenn der Job erfolgreich abgeschlossen wurde, sieht die Ausgabe in Cloud Shell in etwa so aus:

    Dataflow SDK version: 2.13.0
    Submitted job: 2019-12-16_23_24_06-2124083021829446026
    [INFO] ------------------------------------------------------------------------
    [INFO] BUILD SUCCESS
    [INFO] ------------------------------------------------------------------------
    [INFO] Total time:  08:20 min
    [INFO] Finished at: 2019-12-17T16:28:08+09:00
    [INFO] ------------------------------------------------------------------------
    

Ergebnisse des Migrationsjobs prüfen

  • Überprüfen Sie in Cloud Shell, ob die Sicherungsdaten korrekt in Bigtable übertragen wurden:

    cbt -instance bookshelf-bigtable lookup books 00001
    

    Die Ausgabe sieht etwa so aus:

      ----------------------------------------
    00001
      info:author                              @ 2019/12/17-16:26:04.434000
        "Aerospike-example"
      info:description                         @ 2019/12/17-16:26:04.434000
        "Aerospike-example"
      info:id                                  @ 2019/12/17-16:26:04.434000
        "00001"
      info:imageUrl                            @ 2019/12/17-16:26:04.434000
        ""
      info:publishedDate                       @ 2019/12/17-16:26:04.434000
        "2019-10-01"
      info:title                               @ 2019/12/17-16:26:04.434000
        "Aerospike-example"
    

Bookshelf-Datenbank von Aerospike zu Bigtable ändern

Nachdem Sie Daten von Aerospike zu Bigtable migriert haben, können Sie die Konfiguration der Bookshelf-Anwendung so ändern, dass sie Bigtable als Speicher verwendet. Wenn Sie diese Konfiguration einrichten, werden neue Bücher in den Bigtable-Instanzen gespeichert.

Konfiguration der Bookshelf-Anwendung ändern

  1. Stellen Sie in Cloud Shell eine SSH-Verbindung zur Anwendung bookshelf-aerospike her:

    gcloud compute ssh bookshelf-aerospike
    
  2. Prüfen Sie, ob die aktuelle DATA_BACKEND-Konfiguration aerospike ist:

    grep DATA_BACKEND /opt/app/bookshelf/config.py
    

    Die Ausgabe sieht so aus:

    DATA_BACKEND = 'aerospike'
    
  3. Ändern Sie die DATA_BACKEND-Konfiguration von aerospike in bigtable:

    sudo sed -i "s/DATA_BACKEND =.*/DATA_BACKEND = 'bigtable'/g" /opt/app/bookshelf/config.py
    
  4. Prüfen Sie, ob die DATA_BACKEND-Konfiguration in bigtable geändert wurde:

    grep DATA_BACKEND /opt/app/bookshelf/config.py
    

    Die Ausgabe sieht so aus:

    DATA_BACKEND = 'bigtable'
    
  5. Starten Sie die Bookshelf-Anwendung neu, die die neue Back-End-Konfiguration bigtable verwendet:

    sudo supervisorctl restart bookshelf
    
  6. Überprüfen Sie, ob die Bookshelf-Anwendung neu gestartet wurde und korrekt ausgeführt wird:

    sudo supervisorctl status bookshelf
    

    Die Ausgabe sieht etwa so aus:

    bookshelf  RUNNING   pid 18318, uptime 0:01:00
    

Überprüfen, ob die Bookshelf-Anwendung das Bigtable-Back-End verwendet

  1. Rufen Sie in einem Browser http://IP_ADDRESS:8080 auf.
  2. Fügen Sie ein neues Buch mit dem Namen Bigtable-example hinzu.

  3. Kopieren Sie die Buch-ID aus der Adressleiste des Browsers, um zu überprüfen, ob das Buch Bigtable-example in einer Bigtable-Instanz der Bookshelf-Anwendung erstellt wurde.

  4. Schauen Sie in Cloud Shell die Bigtable-example-Buchdaten in einer Bigtable-Instanz nach:

    cbt -instance bookshelf-bigtable lookup books 7406950188
    

    Die Ausgabe sieht etwa so aus:

    ----------------------------------------
    7406950188
      info:author                              @ 2019/12/17-17:28:25.592000
        "Bigtable-example"
      info:description                         @ 2019/12/17-17:28:25.592000
        "Bigtable-example"
      info:id                                  @ 2019/12/17-17:28:25.592000
        "7406950188"
      info:image_url                           @ 2019/12/17-17:28:25.592000
        ""
      info:published_date                      @ 2019/12/17-17:28:25.592000
        "2019-10-01"
      info:title                               @ 2019/12/17-17:28:25.592000
        "Bigtable-example"
    

Sie haben eine Datenmigration von Aerospike zu Bigtable durchgeführt und die Bookshelf-Konfiguration so geändert, dass eine Verbindung mit einem Bigtable-Back-End hergestellt wurde.

Bereinigen

Am einfachsten können Sie weitere Kosten vermeiden, wenn Sie das Google Cloud-Projekt löschen, das Sie für die Anleitung erstellt haben. Alternativ haben Sie die Möglichkeit, die einzelnen Ressourcen zu löschen.

Projekt löschen

  1. Wechseln Sie in der Google Cloud Console zur Seite Ressourcen verwalten.

    Zur Seite „Ressourcen verwalten“

  2. Wählen Sie in der Projektliste das Projekt aus, das Sie löschen möchten, und klicken Sie dann auf Löschen.
  3. Geben Sie im Dialogfeld die Projekt-ID ein und klicken Sie auf Shut down (Beenden), um das Projekt zu löschen.

Nächste Schritte