BigQuery-Preise
BigQuery ist eine serverlose Datenanalyseplattform. Zur Nutzung von BigQuery müssen Sie keine einzelnen Instanzen oder virtuellen Maschinen bereitstellen. Stattdessen weist BigQuery Rechenressourcen automatisch nach Bedarf zu. Sie können die Computing-Kapazität auch vorzeitig in Form von Slots reservieren, die virtuelle CPUs darstellen. Die Preisstruktur von BigQuery spiegelt dieses Design wider.
BigQuery-Preise
BigQuery-Preise haben zwei Hauptkomponenten:
Computing-Preise bezeichnet die Kosten für die Verarbeitung von Abfragen, einschließlich SQL-Abfragen, benutzerdefinierten Funktionen, Skripts und bestimmten DML- und DDL-Anweisungen (Data Manipulation Language, Datenbearbeitungssprache).
Speicherpreise bezeichnet die Kosten für das Speichern von Daten, die Sie in BigQuery laden.
Bei BigQuery fallen Kosten für andere Vorgänge an, darunter die Nutzung von BigQuery Omni, BigQuery ML, BI Engine sowie Lesevorgängen und Schreibvorgänge.
Darüber hinaus bietet BigQuery kostenlose Vorgänge und eine kostenlose Nutzungsstufe.
Mit jedem Projekt, das Sie erstellen, ist ein Rechnungskonto verknüpft. Alle Kosten, die für BigQuery-Jobs im Rahmen dieses Projekts entstehen, werden vom verknüpften Rechnungskonto abgebucht. Speichergebühren für BigQuery werden ebenfalls dem verknüpften Konto in Rechnung gestellt. Auf der Seite mit den Cloud-Abrechnungsberichten in der Google Cloud Console können Sie sich die BigQuery-Kosten und -Trends ansehen.
Compute-Preismodelle
BigQuery bietet für die Ausführung von Abfragen zwischen zwei Preismodellen für das Computing:
On-Demand-Preise (pro TiB). Bei diesem Preismodell wird Ihnen die Anzahl der Byte in Rechnung gestellt, die von jeder Abfrage verarbeitet werden. Das erste TiB an verarbeiteten Abfragedaten pro Monat ist kostenlos.
Kapazitätspreise (pro Slot-Stunde). Bei diesem Preismodell wird Ihnen die zum Ausführen von Abfragen verwendete Rechenkapazität in Rechnung gestellt, die im Zeitverlauf in Slots (virtuelle CPUs) gemessen wird. Dieses Modell nutzt BigQuery-Versionen. Sie können BigQuery-Autoscaling verwenden oder Slotzusicherungen erwerben. Dabei handelt es sich um dedizierte Kapazität, die für Ihre Arbeitslasten immer zu einem niedrigeren Preis verfügbar ist.
Weitere Informationen zu den passenden Preisen für Ihre Arbeitslasten finden Sie unter Arbeitslastverwaltung mit Reservierungen.
On-Demand-Computing-Preise
Standardmäßig werden Abfragen nach dem On-Demand-Preismodell (pro TiB) abgerechnet, bei dem Sie für die von Ihren Abfragen gescannten Daten bezahlen.
Mit der On-Demand-Abrechnung können Sie im Allgemeinen auf bis zu 2.000 gleichzeitige Slots zugreifen, die von allen Abfragen in einem Projekt gemeinsam genutzt werden. In BigQuery wird das Limit regelmäßig überschritten, um kleinere Abfragen zu beschleunigen. Darüber hinaus haben Sie möglicherweise weniger Slots, wenn an einem bestimmten Standort ein hohes Konfliktpotenzial für On-Demand-Kapazität besteht.
Für On-Demand-Abfragen (pro TiB) gilt:
Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die Preise, die unter Cloud Platform SKUs für Ihre Währung angegeben sind.
Preisinformationen
Beachten Sie Folgendes zu On-Demand-Abfragegebühren (pro TiB):
- BigQuery verwendet eine spaltenbasierte Datenstruktur. Es werden Ihnen die Kosten entsprechend den verarbeiteten Gesamtdaten in den ausgewählten Spalten in Rechnung gestellt, wobei die Gesamtdaten pro Spalte anhand der darin enthaltenen Datentypen berechnet werden. Weitere Informationen zur Berechnung der Datengröße finden Sie unter Abfragekosten schätzen.
- Abfragen für freigegebene Daten werden Ihnen in Rechnung gestellt. Dem Dateninhaber wird der Zugriff auf seine Daten nicht in Rechnung gestellt.
- Abfragen, die einen Fehler oder Ergebnisse aus dem Cache zurückgeben, werden Ihnen nicht in Rechnung gestellt. Für prozedurale Sprachjobs wird dies auf der Ebene einzelner Anweisungen berücksichtigt.
- Die Kosten werden auf das nächste MB aufgerundet. Dabei gilt ein Minimum von 10 MB verarbeiteter Daten pro Tabelle, auf die die Abfrage verweist, und ein Minimum von 10 MB verarbeiteter Daten pro Abfrage.
- Wird eine laufende Abfrage abgebrochen, können trotzdem Kosten entstehen. Unter Umständen können diese auch die volle Höhe einer abgeschlossenen Abfrage erreichen.
- Beim Ausführen einer Abfrage erfolgt die Abrechnung entsprechend den Daten, die in den ausgewählten Spalten verarbeitet werden. Dies gilt auch, wenn Sie ein explizites
LIMIT
für die Ergebnisse festlegen. - Durch Partitionierung und Clustering Ihrer Tabellen können Sie die durch Abfragen verarbeitete Datenmenge reduzieren. Verwenden Sie Partitionierung und Clustering wann immer möglich.
- On-Demand-Preise (pro TiB) werden auf der Seite Google Cloud SKUs als Analysepreise bezeichnet.
- Wenn Sie eine Abfrage für eine geclusterte Tabelle ausführen und die Abfrage einen Filter für die geclusterten Spalten enthält, verwendet BigQuery den Filterausdruck, um die von der Abfrage gescannten Blöcke zu bereinigen. Dadurch kann die Anzahl der gescannten Byte sinken.
Mit den Kostenkontrollmechanismen von BigQuery lassen sich Ihre Abfragekosten auf einen bestimmten Betrag begrenzen. Sie können Folgendes festlegen:
- benutzerdefinierte Kostenkontrollen auf Nutzer- und Projektebene
- Die maximal berechneten Byte pro Abfrage
Ausführliche Beispiele zur Berechnung der Anzahl der verarbeiteten Byte finden Sie unter Berechnung der Abfragegröße.
Preise für das Kapazitäts-Computing
BigQuery bietet ein kapazitätsbasiertes Preismodell für Analysen für Kunden, die für Abfragen vorhersehbare Kosten bevorzugen, statt den On-Demand-Preis pro TiB verarbeiteter Daten zu bezahlen.
Verwenden Sie BigQuery-Reservierungen, um Kapazitätspreise zu aktivieren.
BigQuery-Versionen
Die BigQuery-Versionen bieten „Pay as you go“-Preise (mit Autoscaling) und optionale Zusicherungen für 1 Jahr und 3 Jahre. Bei Versionen verbrauchen Sie die Verarbeitungskapazität für Abfragen, die in Slots gemessen wird, anstatt die verarbeiteten Byte in Rechnung zu stellen.
Slotkapazität für BigQuery-Versionen:
- ist in 3 Versionen verfügbar: Standard, Enterprise und Enterprise Plus.
- für Abfragekosten, einschließlich BigQuery ML, DML und DDL-Anweisungen.
- gilt nicht für Speicherkosten oder BI Engine-Kosten.
- gilt nicht für Streaming-Insert-Anweisungen und die Verwendung der BigQuery Storage API.
- das BigQuery-Autoscaling nutzen können.
- wird pro Sekunde mit mindestens einer Minute abgerechnet
Optionale Slotzusicherungen für BigQuery-Versionen:
- für einen Zeitraum von einem oder drei Jahren verfügbar.
- sind in Enterprise und Enterprise Plus verfügbar.
- sind regionale Kapazitäten. Zusicherungen in einer oder mehreren Regionen können nicht in einer anderen Region oder einem multiregionalen Standort verwendet oder verschoben werden.
- organisationsweit gemeinsam genutzt werden können. Slot-Zusicherungen müssen nicht für jedes Projekt erworben werden.
- werden mit einem Minimum von 100 Slots und in Schritten von 100 Slots angeboten.
- werden automatisch verlängert, wenn sie nicht nach Ablauf der Laufzeit gekündigt werden.
Standardversion
Die folgende Tabelle zeigt die Kosten für Slots in der Standardversion.
Enterprise-Version
Die folgende Tabelle zeigt die Kosten für Slots in der Enterprise-Version.
Enterprise Plus-Version
Die folgende Tabelle zeigt die Kosten für Slots in der Enterprise Plus-Version.
Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die Preise, die unter Cloud Platform SKUs für Ihre Währung angegeben sind.
Speicherpreise
Speicherpreise sind die Kosten für das Speichern von Daten, die Sie in BigQuery laden. Sie zahlen für aktiven Speicherplatz und langfristigen Speicherplatz.
Aktiver Speicher umfasst alle Tabellen- oder Tabellenpartitionen, die in den letzten 90 Tagen geändert wurden.
Langfristiger Speicher umfasst alle Tabellen- oder Tabellenpartitionen, die 90 Tage lang nicht geändert wurden. Der Preis für die Speicherung für diese Tabelle sinkt automatisch um ca. 50 %. Aktiver und langfristiger Speicher unterscheiden sich nicht in Leistung, Langlebigkeit und Verfügbarkeit.
Die ersten 10 GiB Speicher pro Monat sind kostenlos.
Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die Preise, die unter Cloud Platform SKUs für Ihre Währung angegeben sind.
Informationen zu den Voraussetzungen finden Sie in der Dokumentation zum physischen Speicher.
Preisinformationen
Die Speicherpreise basieren auf der Datenmenge, die in Ihren Tabellen gespeichert ist. Die Datengröße wird anhand der Datentypen in den einzelnen Spalten berechnet. Eine ausführliche Erläuterung dazu finden Sie unter Berechnung der Datengröße.
Die Preise für die Speicherung werden pro MiB und Sekunde anteilig berechnet. Wenn Sie beispielsweise aktiven logischen Speicher in us-central1 verwenden:
- Für 512 MiB für einen halben Monat zahlen Sie 0, 00575 $
- Für 100 GiB für einen halben Monat zahlen Sie 1, 15 $
- Für 1 TiB für einen vollen Monat zahlen Sie 23, 552 $
Die Speichernutzung wird in Gibibyte-Monaten (GiB-Monate) berechnet, wobei 1 GiB 230 Byte (1.024 MiB) entspricht. Ebenso ist 1 Tebibyte (TiB) 240 Byte (1.024 GiB). Der Wert für die endgültige Nutzung ist das Produkt aus der Datengröße in Gibibyte und der Speichernutzungszeit in Monaten.
Wenn die Daten in einer Tabelle nicht innerhalb von 90 aufeinanderfolgenden Tagen geändert oder gelöscht werden, werden sie zum Preis für die langfristige Speicherung in Rechnung gestellt. Es kommt zu keiner Beeinträchtigung der Leistung, Langlebigkeit, Verfügbarkeit oder anderer Funktionen, wenn eine Tabelle in die Langzeitspeicherung übergeht.
Die Kosten für jede Partition einer partitionierten Tabelle werden bei der Langzeitspeicherung separat berechnet. Wenn eine Partition in den letzten 90 Tagen nicht geändert wurde, werden die Daten in dieser Partition als Langzeitspeicherung betrachtet und zum Rabattpreis in Rechnung gestellt.
Wird die Tabelle bearbeitet, gilt wieder der reguläre Speicherpreis, und der 90-Tage-Timer wird auf null zurückgesetzt. Durch jeden Vorgang, bei dem die Daten in einer Tabelle geändert werden, wird der Timer zurückgesetzt. Beispiele:
Vorgang | Details |
---|---|
Daten in eine Tabelle laden | Jeder Lade- oder Abfragejob, bei dem Daten an eine Zieltabelle angefügt werden oder eine Zieltabelle überschrieben wird. |
Daten in eine Tabelle kopieren | Jeder Kopierjob, bei dem Daten an eine Zieltabelle angefügt werden oder eine Zieltabelle überschrieben wird. |
Abfrageergebnisse in eine Tabelle schreiben | Jeder Abfragejob, bei dem Daten an eine Zieltabelle angefügt werden oder eine Zieltabelle überschrieben wird. |
Datenbearbeitungssprache (Data Manipulation Language, DML) verwenden | Einsatz einer DML-Anweisung, um Tabellendaten zu bearbeiten. |
Datendefinitionssprache (DDL) verwenden | CREATE OR REPLACE TABLE -Anweisung verwenden, um eine Tabelle zu ersetzen |
Daten in eine Tabelle streamen | Aufnahme von Daten mithilfe des API-Aufrufs tabledata.insertAll . |
Bei allen anderen Vorgängen wird der Timer nicht zurückgesetzt. Dazu gehören:
- Eine Tabelle abfragen
- Eine Ansicht erstellen, mit der eine Tabelle abgefragt wird
- Daten aus einer Tabelle exportieren
- Eine Tabelle (in eine andere Zieltabelle) kopieren.
- Eine Tabellenressource patchen oder aktualisieren
Für Tabellen, die den 90-Tage-Schwellenwert während eines Abrechnungszeitraums erreichen, wird der Preis entsprechend anteilig berechnet.
Die Kosten für die Langzeitspeicherung gelten nur für den BigQuery-Speicher und nicht für Daten in externen Datenquellen wie Bigtable, Cloud Storage und Google Drive.
Berechnung der Datengröße
Beim Laden von Daten in BigQuery oder beim Abfragen von Daten werden die Kosten anhand der Datengröße berechnet. Dazu wird die Größe des Datentyps der jeweiligen Spalte herangezogen.
Die Größe der gespeicherten Daten und die Größe der Daten, die durch Ihre Abfragen verarbeitet werden, wird in Gibibyte (GiB) berechnet, wobei 1 GiB 230 Byte (1.024 MiB) entspricht. Ebenso ist 1 Tebibyte (TiB) 240 Byte (1.024 GiB).
Weitere Informationen finden Sie unter Datentypgrößen.
Data Transfer Service – Preise
Die Gebühren für den BigQuery Data Transfer Service werden monatlich anteilig in Rechnung gestellt und so berechnet:
Datenquelle | Monatliche Gebühr (anteilig) | Notes |
---|---|---|
Campaign Manager | Kostenlos. Es gelten die Kontingente und Limits von BigQuery. |
1 |
Cloud Storage | Kostenlos. Es gelten die Kontingente und Limits von BigQuery. |
1 |
Amazon S3 | Kostenlos. Es gelten die Kontingente und Limits von BigQuery. |
1,2,3 |
Google Ads | Kostenlos. Es gelten die Kontingente und Limits von BigQuery. |
1 |
Google Ad Manager | Kostenlos. Es gelten die Kontingente und Limits von BigQuery. |
1 |
Google Merchant Center | Kostenlos. Es gelten die Kontingente und Limits von BigQuery. |
1 |
Google Play | 25 $ pro eindeutigem Paketnamen in der Tabelle |
1 |
Search Ads 360 | Kostenlos. Es gelten die Kontingente und Limits von BigQuery. |
1 |
YouTube-Kanal | Kostenlos. Es gelten die Kontingente und Limits von BigQuery. |
1 |
YouTube-Rechteinhaber | Kostenlos. Es gelten die Kontingente und Limits von BigQuery. |
1 |
Data Warehouse | Monatliche Gebühr (anteilig) | Notes |
Teradata | Kostenlos. Es gelten die Kontingente und Limits von BigQuery. |
1, 2, 3, 4 |
Amazon Redshift | Kostenlos. Es gelten die Kontingente und Limits von BigQuery. |
1, 2, 3 |
Drittanbieter-Connectors | Es fallen Kosten an | Weitere Informationen findest du unter 5. |
Hinweise zu den Übertragungskosten
Alle Übertragungen
1. Nach der Übertragung von Daten in BigQuery werden die standardmäßigen Speicher- und Abfragen von BigQuery ausgeführt.
Migrationen von anderen Plattformen
2. Das Extrahieren, das Hochladen in einen Cloud Storage-Bucket und das Laden von Daten in BigQuery ist kostenlos.
3. Kosten können außerhalb von Google Cloud über den BigQuery Data Transfer Service anfallen, z. B. Gebühren für die Datenübertragung von AWS oder Azure.
Teradata-Migrationen
4. Die Daten werden nach dem Hochladen in BigQuery nicht automatisch aus Ihrem Cloud Storage-Bucket gelöscht. Daher sollten Sie sie selbst herauslöschen, um weitere Speicherkosten zu vermeiden. Weitere Informationen finden Sie unter Cloud Storage – Preise.
Drittanbieter-Connectors
5. Für Connectors von Drittanbietern fallen Kosten an. Das Preismodell variiert je nach Partner und Connector. Weitere Preisinformationen finden Sie im Abschnitt zu den einzelnen Connectors, wenn Sie sich im Marketplace registrieren.
Eindeutige IDs berechnen
Jede Übertragung, die Sie erstellen, generiert einen oder mehrere Durchläufe pro Tag. Bei jedem Durchlauf werden alle vorkommenden eindeutigen IDs und das jeweilige Datum gespeichert, an dem der Durchlauf abgeschlossen wurde. IDs werden nur an dem Tag gezählt, an dem die Übertragung abgeschlossen wird. Wenn beispielsweise ein Übertragungsdurchlauf am 14. Juli beginnt, aber erst am 15. Juli abgeschlossen wird, werden die eindeutigen IDs am 15. Juli gezählt.
Kommt eine eindeutige ID an einem bestimmten Tag in mehr als einem Übertragungsdurchlauf vor, wird sie nur einmal gezählt. Bei unterschiedlichen Übertragungen werden dieselben eindeutigen IDs separat gezählt. Kommt eine eindeutige ID in den Durchläufen zweier unterschiedlicher Übertragungen vor, wird die ID zweimal gezählt.
Berechnung von Backfill-Gebühren
Wenn Sie einen Backfill planen, wird für jeden Tag ein Übertragungsdurchlauf geplant. Die Gebühren dafür werden Ihnen wie unter Eindeutige IDs berechnen beschrieben in Rechnung gestellt.
BigQuery-Gebühren beenden
Deaktivieren oder löschen Sie die Übertragung, um die Gebührenberechnung zu stoppen.
Preisbeispiele für BigQuery Data Transfer Service
Beispiel 1: Sie haben 1 Übertragung mit 3 Durchläufen, die am selben Tag abgeschlossen werden. Bei den Durchläufen werden folgende eindeutige IDs aufgezeichnet:
- 1. Durchlauf: A, B und C
- 2. Durchlauf: A
- 3. Durchlauf: C und D
Da alle Durchläufe am selben Tag abgeschlossen wurden, werden Ihnen Kosten basierend auf 4 eindeutigen IDs (A, B, C, D) in Rechnung gestellt. ID A und ID C wurden in zwei verschiedenen Durchläufen aufgezeichnet, die am selben Tag abgeschlossen wurden. Die IDs A und C werden nur einmal gezählt. Wenn diese 3 Übertragungsdurchläufe einen Monat lang jeden Tag abgeschlossen werden, werden Ihre monatlichen Gebühren anhand von 4 eindeutigen IDs berechnet. Wenn die Anzahl der abgeschlossenen Übertragungsdurchläufe geringer ist als die Anzahl der Tage im Monat, werden die Kosten anteilig in Rechnung gestellt.
Beispiel 2: Sie haben mehrere Übertragungen mit Durchläufen, die am selben Tag abgeschlossen werden.
- Übertragung 1 wird ausgeführt und zeichnet die folgenden eindeutigen IDs auf: A, B und C
- 2. Übertragung: A
- 3. Übertragung: C und D
Da die eindeutigen IDs in Durchläufen für verschiedene Übertragungen gezählt werden, werden Ihnen 6 eindeutige IDs in Rechnung gestellt: A, B und C aus dem Durchlauf von Übertragung 1, A aus dem Durchlauf von Übertragung 2 sowie C und D aus dem Durchlauf von Übertragung 3. Wenn die Anzahl der abgeschlossenen Übertragungsdurchläufe geringer ist als die Anzahl der Tage im Monat, werden die Kosten anteilig in Rechnung gestellt.
BigQuery Omni-Preise
BigQuery Omni bietet abhängig von Ihren Arbeitslasten und Anforderungen die folgenden Preismodelle an.
Preise für On-Demand-Computing
Ähnlich wie beim On-Demand-Analysemodell von BigQuery werden auch BigQuery Omni-Abfragen standardmäßig nach dem On-Demand-Preismodell (pro TiB) abgerechnet, bei dem Sie für die von Ihren Abfragen gescannten Daten bezahlen.
Bei On-Demand-Preisen haben Sie in der Regel Zugriff auf einen großen Pool gleichzeitiger Slots, der von allen Abfragen in einem Projekt gemeinsam genutzt wird. In regelmäßigen Abständen sprengt BigQuery Omni vorübergehend dieses Limit, um kleinere Abfragen zu beschleunigen. Außerdem sind möglicherweise weniger Slots verfügbar, wenn es an einem bestimmten Standort viele Konflikte bei der On-Demand-Kapazität gibt.
Die Preise für On-Demand-Abfragen (pro TiB) für BigQuery Omni sehen so aus:
Region | Preis pro TiB |
---|---|
AWS North Virginia (aws-us-east-1) | 7,82 $ |
Azure North Virginia (azure-eastus2) | $9,13 |
AWS Seoul (aws-ap-northeast-2) | 10,00 $ |
AWS Oregon (aws-us-west-2) | 7,82 $ |
AWS Irland (aws-eu-west-1) | 8,60 $ |
AWS Sydney (aws-ap-southeast-2) | $10,55 |
AWS Frankfurt (aws-eu-central-1) | $10,16 |
Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die Preise, die unter Cloud Platform SKUs für Ihre Währung angegeben sind.
Preisangaben
Die Details und Einschränkungen ähneln den Preisen für die BigQuery-Analyse. Beachten Sie Folgendes zu On-Demand-Abfragegebühren (pro TiB):
- BigQuery verwendet eine spaltenbasierte Datenstruktur. Es werden Ihnen die Kosten entsprechend der verarbeiteten Gesamtdaten in den ausgewählten Spalten in Rechnung gestellt, wobei die Gesamtdaten pro Spalte anhand der Datentypen in der Spalte berechnet werden. Weitere Informationen zur Berechnung der Datengröße finden Sie unter Berechnung der Datengröße.
- Abfragen, die einen Fehler oder Ergebnisse aus dem Cache abrufen, werden Ihnen nicht in Rechnung gestellt. Für Jobs in der Prozedursprache wird dies auf Ebene einzelner Anweisungen berücksichtigt.
- Die Gebühren werden auf das nächste MB aufgerundet. Dabei gilt ein Minimum von 10 MB verarbeiteter Daten pro Tabelle, auf die die Abfrage verweist, und ein Minimum von 10 MB verarbeiteter Daten pro Abfrage.
- Wenn Sie einen laufenden Abfragejob abbrechen, können Gebühren bis zu den vollen Kosten anfallen.
- Wenn Sie eine Abfrage ausführen, werden Ihnen die Kosten entsprechend den Daten in Rechnung gestellt, die in den ausgewählten Spalten verarbeitet werden, auch wenn Sie ein explizites LIMIT für die Ergebnisse festgelegt haben.
- Durch Partitionierung und Clustering Ihrer Tabellen können Sie die durch Abfragen verarbeitete Datenmenge reduzieren. Verwenden Sie nach Möglichkeit Partitionierung und Clustering.
- On-Demand-Preise (pro TiB) werden auf der Seite Google Cloud SKUs als Analysepreise bezeichnet.
- Wenn Sie eine Abfrage für eine geclusterte Tabelle ausführen und die Abfrage einen Filter für die geclusterten Spalten enthält, verwendet BigQuery den Filterausdruck, um die von der Abfrage gescannten Blöcke zu bereinigen. Dadurch kann die Anzahl der gescannten Byte reduziert werden.
BigQuery bietet Mechanismen zur Kostenkontrolle, mit denen Sie Ihre Abfragekosten begrenzen können. Sie können Folgendes festlegen:
- Benutzerdefinierte Kostenkontrollen auf Nutzer- und Projektebene
- Die maximal berechneten Byte pro Abfrage
BigQuery Omni mit verschiedenen Versionen
BigQuery Omni-Regionen unterstützen BigQuery-Versionen. Derzeit wird nur die Enterprise Edition in Omni-Regionen unterstützt.
Die folgende Tabelle zeigt die Kosten für Slots in Omni-Regionen
AWS North Virginia (aws-us-east-1)
Zusicherungsmodell | Kosten pro Stunde | Anzahl der Slots |
---|---|---|
PAYG (keine Verpflichtung) | 7,50 $ (Abrechnung pro Sekunde mit einem Minimum von 1 Minute) | 100 |
Commit für 1 Jahr | 6 $ (1 Jahr in Rechnung gestellt) | 100 |
Commit für 3 Jahre | 4,50 $ (in Rechnung gestellt für 3 Jahre) | 100 |
Azure North Virginia (azure-eastus2)
Zusicherungsmodell | Kosten pro Stunde | Anzahl der Slots |
---|---|---|
PAYG (keine Verpflichtung) | 8,80 $ (Abrechnung pro Sekunde mit einem Minimum von 1 Minute) | 100 |
Commit für 1 Jahr | 7 $ (1 Jahr in Rechnung gestellt) | 100 |
Commit für 3 Jahre | 5,30 $ (in Rechnung gestellt für 3 Jahre) | 100 |
AWS Seoul (aws-ap-northeast-2)
Zusicherungsmodell | Kosten pro Stunde | Anzahl der Slots |
---|---|---|
PAYG (keine Verpflichtung) | 9,60 $ (Abrechnung pro Sekunde mit einem Minimum von 1 Minute) | 100 |
Commit für 1 Jahr | 7,70 € (1 Jahr in Rechnung gestellt) | 100 |
Commit für 3 Jahre | 5,80 $ (in Rechnung gestellt für 3 Jahre) | 100 |
AWS Oregon (aws-us-west-2)
Zusicherungsmodell | Kosten pro Stunde | Anzahl der Slots |
---|---|---|
PAYG (keine Verpflichtung) | 7,50 $ (Abrechnung pro Sekunde mit einem Minimum von 1 Minute) | 100 |
Commit für 1 Jahr | 6,00 € (1 Jahr in Rechnung gestellt) | 100 |
Commit für 3 Jahre | 4,50 $ (in Rechnung gestellt für 3 Jahre) | 100 |
AWS Irland (aws-eu-west-1)
Zusicherungsmodell | Kosten pro Stunde | Anzahl der Slots |
---|---|---|
PAYG (keine Verpflichtung) | 8,25 $ (Abrechnung pro Sekunde mit einem Minimum von 1 Minute) | 100 |
Commit für 1 Jahr | 6,60 € (1 Jahr in Rechnung gestellt) | 100 |
Commit für 3 Jahre | 4,95 $ (in Rechnung gestellt für 3 Jahre) | 100 |
AWS Sydney (aws-ap-southeast-2)
Zusicherungsmodell | Kosten pro Stunde | Anzahl der Slots |
---|---|---|
PAYG (keine Verpflichtung) | 10,13 $ (Abrechnung pro Sekunde mit einem Minimum von 1 Minute) | 100 |
Commit für 1 Jahr | 8,10 $ (1 Jahr in Rechnung gestellt) | 100 |
Commit für 3 Jahre | 6,08 $ (in Rechnung gestellt für 3 Jahre) | 100 |
AWS Frankfurt (aws-eu-central-1)
Zusicherungsmodell | Kosten pro Stunde | Anzahl der Slots |
---|---|---|
PAYG (keine Verpflichtung) | 9,75 $ (Abrechnung pro Sekunde mit einem Minimum von 1 Minute) | 100 |
Commit für 1 Jahr | 7,80 $ (1 Jahr in Rechnung gestellt) | 100 |
Commit für 3 Jahre | 5,85 $ (in Rechnung gestellt für 3 Jahre) | 100 |
Cloudübergreifende Omni-Channel-Datenübertragung
Wenn Sie die cloudübergreifenden Funktionen von Omni (cloudübergreifende Übertragung, Tabelle als Auswahl erstellen, cloudübergreifende Joins und materialisierte Ansichten in der Cloud) nutzen, bei denen Daten von AWS oder Azure zu Google Cloud verschoben werden, fallen zusätzliche Gebühren für die Datenübertragung an.
Insbesondere für cloudübergreifende materialisierte Ansichten, „Tabelle als Auswahl erstellen“ und cloudübergreifende Joins fallen während der Vorabversion keine Gebühren an. Ab dem 29. Februar 2024 sind diese Dienste allgemein verfügbar und die Datenübertragung wird Ihnen in Rechnung gestellt. Für die Datenübertragung werden nur dann Gebühren berechnet, wenn Sie einen der oben aufgeführten Dienste von einer AWS- oder Azure-Region zu einer Google Cloud BigQuery-Region nutzen. Ihnen wird ein Preis pro GiB auf Grundlage der von AWS oder Azure zu Google Cloud übertragenen Datenmenge in Rechnung gestellt.
Link zur SKU-Tabelle: SKUs für die CCMV-Abrechnung
Artikelnummer | Abrechnungsmodell | Anzeige | Preis |
---|---|---|---|
Cloudübergreifende Datenübertragung von AWS North Virginia (aws-us-east-1) zu Google Cloud Nordamerika | nutzungsbasiert | GiB übertragen | 0,09 € |
Cloudübergreifende Datenübertragung von Azure North Virginia (azure-eastus2) zu Google Cloud Nordamerika | nutzungsbasiert | GiB übertragen | 0,0875 $ |
Cloudübergreifende Datenübertragung von AWS Seoul (aws-ap-northeast-2) zu Google Cloud Asia | nutzungsbasiert | GiB übertragen | 0,126 $ |
Cloudübergreifende Datenübertragung von AWS Oregon (aws-us-west-2) zu Google Cloud Nordamerika | nutzungsbasiert | GiB übertragen | 0,09 € |
Cloudübergreifende Datenübertragung von AWS Ireland (aws-eu-west-1) zu Google Cloud Europe | nutzungsbasiert | GiB übertragen | 0,09 € |
Cloudübergreifende Datenübertragung von AWS Sydney (aws-ap-southeast-2) zu Google Cloud Ozeanien | nutzungsbasiert | GiB übertragen | 0,114 $ |
Cloudübergreifende Datenübertragung von AWS Frankfurt (aws-eu-central-1) zu Google Cloud Europe | nutzungsbasiert | GiB übertragen | 0,09 € |
Omni-verwalteter Speicher
Wenn Sie die Omni-Funktion für cloudübergreifende materialisierte Ansichten nutzen, wird Ihnen außerdem das Erstellen lokaler materialisierter Ansichten in BigQuery Managed Storage auf AWS in Rechnung gestellt. Ihnen wird pro GiB für den physischen Speicher, der für die lokale materialisierte Ansicht verwendet wird, berechnet.
Vorgang | Preise |
---|---|
Aktiver physischer Speicher (aws-us-east-1) | 0,05 $ pro GiB und Monat |
Langfristiger physischer Speicher (aws-us-east-1) | 0,025 $ pro GiB und Monat |
Aktiver physischer Speicher (azure-eastus2) | 0,05 $ pro GiB und Monat |
Langfristiger physischer Speicher (azure-eastus2) | 0,025 $ pro GiB und Monat |
Aktiver physischer Speicher (aws-ap-northeast-2) | 0,052 $ pro GiB und Monat |
Langfristiger physischer Speicher (aws-ap-northeast-2) | 0,026 $ pro GiB und Monat |
Aktiver physischer Speicher (aws-us-west-2) | 0,04 $ pro GiB und Monat |
Langfristiger physischer Speicher (aws-us-west-2) | 0,02 $ pro GiB und Monat |
Aktiver physischer Speicher (aws-eu-west-1) | 0,044 $ pro GiB und Monat |
Physischer Langzeitspeicher (aws-eu-west-1) | 0,022 $ pro GiB und Monat |
Aktiver physischer Speicher (aws-ap-southeast-2) | 0,052 $ pro GiB und Monat |
Langfristiger physischer Speicher (aws-ap-southeast-2) | 0,026 $ pro GiB und Monat |
Aktiver physischer Speicher (aws-eu-central-1) | 0,052 $ pro GiB und Monat |
Physischer Langzeitspeicher (aws-eu-central-1) | 0,026 $ pro GiB und Monat |
Preise für die Datenaufnahme
BigQuery bietet zwei Modi für die Datenaufnahme:
Laden im Batch: Quelldateien laden in eine oder mehrere BigQuery-Tabellen in einem einzigen Batchvorgang
Streaming. Streamen Sie Daten einzeln oder in kleinen Batches mit der BigQuery Storage Write API oder der Legacy Streaming API.
Weitere Informationen dazu, welcher Modus ausgewählt wird, finden Sie unter Einführung in das Laden von Daten.
Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die Preise, die unter Cloud Platform SKUs für Ihre Währung angegeben sind.
Preisinformationen
Standardmäßig werden Ihnen keine Gebühren für das Laden von Daten aus dem Cloud-Speicher oder für lokale Dateien in BigQuery in Rechnung gestellt. Für Ladejobs wird standardmäßig ein gemeinsam genutzter Pool von Slots verwendet. BigQuery gibt keine Garantien für die verfügbaren Kapazitäten dieses gemeinsamen Pools oder den angezeigten Durchsatz. Alternativ können Sie dedizierte Slots erwerben, um Ladejobs auszuführen. Für dedizierte Slots werden kapazitätsbasierte Preise berechnet. Wenn Load-Jobs einer Reservierung zugewiesen werden, verlieren sie den Zugriff auf den kostenlosen Pool. Weitere Informationen finden Sie unter Zuweisungen.
Sobald die Daten in BigQuery geladen sind, gelten die entsprechenden Speicherpreise von BigQuery. Wenn Sie Daten aus Cloud Storage laden, wird Ihnen das Speichern der Daten in Cloud Storage in Rechnung gestellt. Weitere Informationen finden Sie auf der Preisseite für Cloud Storage unter Datenspeicher.
Preise für die Datenextraktion
BigQuery bietet die folgenden Modi der Datenextraktion:
Batch-Export. Mit einem Extrahierungsjob können Sie Tabellendaten nach Cloud Storage exportieren. Für das Exportieren von Daten aus einer BigQuery-Tabelle mit einem Extrahierjob fallen keine Verarbeitungsgebühren an.
Abfrageergebnisse exportieren Verwenden Sie die Anweisung
EXPORT DATA
, um Abfrageergebnisse nach Cloud Storage oder Bigtable zu exportieren. Die Verarbeitung der Abfrageanweisung wird nach dem On-Demand- oder kapazitätsbasierten Modell in Rechnung gestellt.Streaming-Lesevorgänge. Verwenden Sie die Storage Read API, um Lesevorgänge mit hohem Durchsatz von Tabellendaten durchzuführen. Ihnen wird die gelesene Datenmenge in Rechnung gestellt.
Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die Preise, die unter Cloud Platform SKUs für Ihre Währung angegeben sind.
Preise für die Datenübertragung im Batch-Export
Wenn Sie Daten im Batch aus BigQuery in einen Cloud Storage-Bucket in einer anderen Region exportieren, fallen Gebühren an:
Fall | Beispiel | Rate |
---|---|---|
Innerhalb desselben Speicherorts exportieren | Von us-east1 nach us-east1 | Kostenlos |
Export aus einem multiregionalen BigQuery-Standort in den USA | Vom multiregionalen Standort „USA“ nach „us-central1 (Iowa)“ | Kostenlos |
Export aus einem multiregionalen BigQuery-Standort in den USA | Vom multiregionalen Standort „USA“ in jede Region (außer us-central1 (Iowa)) | Siehe folgende Tabelle |
Export aus BigQuery (multiregional) in der EU | Vom multiregionalen EU-Standort nach europe-west4 (Niederlande) | Kostenlos |
Export aus BigQuery (multiregional) in der EU | Vom multiregionalen EU-Standort in jede Region (außer europe-west4 (Niederlande)) | Siehe folgende Tabelle |
Standortübergreifend exportieren | Von us-east1 nach us-central1 | Siehe folgende Tabelle |
Speicherort der Quelle | Zielort | |||||||
---|---|---|---|---|---|---|---|---|
Nördliches Amerika | Europa | Asien | Indonesien | Ozeanien | Naher Osten | Lateinamerika | Afrika | |
Nördliches Amerika | 0,02 $ pro GiB | 0,05 $ pro GiB | 0,08 $ pro GiB | 0,10 $ pro GiB | 0,10 $ pro GiB | 0,11 $ pro GiB | 0,14 $ pro GiB | 0,11 $ pro GiB |
Europa | 0,05 $ pro GiB | 0,02 $ pro GiB | 0,08 $ pro GiB | 0,10 $ pro GiB | 0,10 $ pro GiB | 0,11 $ pro GiB | 0,14 $ pro GiB | 0,11 $ pro GiB |
Asien | 0,08 $ pro GiB | 0,08 $ pro GiB | 0,08 $ pro GiB | 0,10 $ pro GiB | 0,10 $ pro GiB | 0,11 $ pro GiB | 0,14 $ pro GiB | 0,11 $ pro GiB |
Indonesien | 0,10 $ pro GiB | 0,10 $ pro GiB | 0,10 $ pro GiB | 0,08 $ pro GiB | 0,08 $ pro GiB | 0,11 $ pro GiB | 0,14 $ pro GiB | 0,14 $ pro GiB |
Ozeanien | 0,10 $ pro GiB | 0,10 $ pro GiB | 0,10 $ pro GiB | 0,08 $ pro GiB | 0,08 $ pro GiB | 0,11 $ pro GiB | 0,14 $ pro GiB | 0,14 $ pro GiB |
Naher Osten | 0,11 $ pro GiB | 0,11 $ pro GiB | 0,11 $ pro GiB | 0,11 $ pro GiB | 0,11 $ pro GiB | 0,08 $ pro GiB | 0,14 $ pro GiB | 0,11 $ pro GiB |
Lateinamerika | 0,14 $ pro GiB | 0,14 $ pro GiB | 0,14 $ pro GiB | 0,14 $ pro GiB | 0,14 $ pro GiB | 0,14 $ pro GiB | 0,14 $ pro GiB | 0,14 $ pro GiB |
Afrika | 0,11 $ pro GiB | 0,11 $ pro GiB | 0,11 $ pro GiB | 0,14 $ pro GiB | 0,14 $ pro GiB | 0,11 $ pro GiB | 0,14 $ pro GiB | 0,11 $ pro GiB |
Storage Read API-Datenübertragung innerhalb von Google Cloud
Fall | Beispiele | Rate |
---|---|---|
Auf im Cache gespeicherte Abfrageergebnisse aus temporären Tabellen zugreifen |
|
Kostenlos |
Datenlesevorgänge am selben Standort |
|
Kostenlos |
Daten werden aus einer BigQuery-Multi-Region an einen anderen BigQuery-Standort gelesen und beide Standorte befinden sich auf demselben Kontinent. |
|
Kostenlos |
Daten werden zwischen zwei Standorten auf demselben Kontinent gelesen (sofern keines der oben genannten kostenlosen Szenarien zutrifft). |
|
0,01 $/GiB* |
Daten werden zwischen verschiedenen Kontinenten innerhalb der Google Cloud verschoben, von denen keiner Australien ist. |
|
0,08 $ pro GiB |
Daten werden zwischen verschiedenen Kontinenten innerhalb der Google Cloud verschoben, von denen einer Australien ist. |
|
0,15 $ pro GiB |
Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die Preise, die unter Cloud Platform SKUs für Ihre Währung angegeben sind.
Allgemeine Netzwerknutzung der Storage Read API
Monatliche Nutzung |
Datenübertragung an Ziele auf der ganzen Welt (außer Asien und Australien) (pro GiB) |
Datenübertragung an Ziele in Asien (außer China, aber einschließlich Hongkong) (pro GiB) |
Datenübertragung an Ziele in China (außer Hongkong) (pro GiB) |
Datenübertragung an Ziele in Australien (pro GiB) |
Datenübertragung eingehen |
---|---|---|---|---|---|
0–1 TiB | 0,12 $ | 0,12 $ | 0,19 $ | 0,19 $ | Kostenlos |
1–10 TiB | 0,11 $ | 0,11 $ | 0,18 $ | 0,18 $ | Kostenlos |
10+ TiB | 0,08 $ | 0,08 $ | 0,15 $ | 0,15 $ | Kostenlos |
Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die Preise, die unter Cloud Platform SKUs für Ihre Währung angegeben sind.
Preisangaben zur Storage Read API
Für die Storage Read API gilt ein On-Demand-Preismodell. Bei On-Demand-Preisen berechnet BigQuery die Anzahl der verarbeiteten Byte (auch als gelesene Byte bezeichnet). Die On-Demand-Preise basieren ausschließlich auf der Nutzung mit einem kostenlosen Byte-Lesekontingent von 300 TiB pro Monat für jedes Rechnungskonto. Byte, die beim Lesen aus temporären Tabellen gescannt werden, sind kostenlos und werden nicht auf das kostenlose Kontingent von 300 TiB angerechnet. Diese kostenlosen 300 TiB gelesenen Byte befinden sich in der Komponente „Bytelesen“ und gelten nicht für die zugehörige ausgehende Datenübertragung.
Beachten Sie außerdem folgende Hinweise zu den Storage Read API-Gebühren:
- Ihnen wird die gesamte gelesene Datenmenge in Rechnung gestellt. Sowohl die insgesamt pro Spalte gelesenen Daten als auch die Datengröße werden anhand des Datentyps in der Spalte berechnet. Eine ausführliche Erläuterung dazu finden Sie unter Berechnung der Datengröße.
- Ihnen werden alle während einer Lesesitzung gelesenen Daten in Rechnung gestellt, auch wenn ein
ReadRows
-Aufruf fehlschlägt. - Wenn Sie einen
ReadRows
-Aufruf abbrechen, bevor das Ende des Streams erreicht ist, werden Ihnen alle Daten in Rechnung gestellt, die bis dahin gelesen wurden. Das betrifft auch Daten, die vor dem Abbruch desReadRows
-Aufrufs gelesen, aber nicht an Sie zurückgegeben wurden. - Sie sollten wann immer möglich partitionierte und geclusterte Tabellen verwenden.
Sie können die gelesene Datenmenge reduzieren, indem Sie Partitionen mit einer
WHERE
-Klausel bereinigen. Weitere Informationen finden Sie unter Partitionierte Tabellen abfragen. - Bei Verwendung von Interconnect gelten die Cloud Interconnect-Preise anstelle der allgemeinen Netzwerknutzungspreise für die BigQuery Storage Read API.
Preise für die Datenreplikation
BigQuery bietet zwei Modi zum Replizieren (Kopieren) von Daten zwischen Regionen:
Regionenübergreifende Kopie: Einmalige oder geplante Kopie von Tabellendaten zwischen Regionen oder Mehrfachregionen, siehe Datasets kopieren oder Tabellen kopieren.
Regionenübergreifende Replikation. Laufende, inkrementelle Replikation eines Datasets zwischen zwei oder mehr verschiedenen Regionen oder Multiregionen, siehe Regionenübergreifende Dataset-Replikation.
Speicher für replizierte Daten
Replizierte Daten, die in der Zielregion oder am multiregionalen Standort gespeichert sind, werden gemäß den BigQuery-Speicherpreisen berechnet.
Preise für die Datenübertragung bei der Datenreplikation
Die Datenübertragung wird Ihnen für das replizierte Datenvolumen in Rechnung gestellt. Die Anwendungsfälle und die Aufschlüsselung der Datenübertragungsgebühren sind folgendermaßen angegeben:
Fall | Beispiel | Rate |
---|---|---|
Am selben Standort replizieren | Von us-east1 nach us-east1 | Kostenlos |
Aus BigQuery (multiregional) in den USA replizieren | Vom multiregionalen Standort „USA“ nach „us-central1 (Iowa)“ | Kostenlos |
Aus BigQuery (multiregional) in den USA replizieren | Vom multiregionalen Standort „USA“ in jede Region (außer us-central1 (Iowa)) | Siehe folgende Tabelle |
Von BigQuery mit mehreren Regionen in der EU replizieren | Vom multiregionalen EU-Standort nach europe-west4 (Niederlande) | Kostenlos |
Von BigQuery mit mehreren Regionen in der EU replizieren | Vom multiregionalen EU-Standort in jede Region (außer europe-west4 (Niederlande)) | Siehe folgende Tabelle |
Standortübergreifend replizieren | Von us-east1 nach us-central1 | Siehe folgende Tabelle |
Speicherort der Quelle | Zielort | |||||||
---|---|---|---|---|---|---|---|---|
Nördliches Amerika | Europa | Asien | Indonesien | Ozeanien | Naher Osten | Lateinamerika | Afrika | |
Nördliches Amerika | 0,02 $ pro GiB | 0,05 $ pro GiB | 0,08 $ pro GiB | 0,10 $ pro GiB | 0,10 $ pro GiB | 0,11 $ pro GiB | 0,14 $ pro GiB | 0,11 $ pro GiB |
Europa | 0,05 $ pro GiB | 0,02 $ pro GiB | 0,08 $ pro GiB | 0,10 $ pro GiB | 0,10 $ pro GiB | 0,11 $ pro GiB | 0,14 $ pro GiB | 0,11 $ pro GiB |
Asien | 0,08 $ pro GiB | 0,08 $ pro GiB | 0,08 $ pro GiB | 0,10 $ pro GiB | 0,10 $ pro GiB | 0,11 $ pro GiB | 0,14 $ pro GiB | 0,11 $ pro GiB |
Indonesien | 0,10 $ pro GiB | 0,10 $ pro GiB | 0,10 $ pro GiB | 0,08 $ pro GiB | 0,08 $ pro GiB | 0,11 $ pro GiB | 0,14 $ pro GiB | 0,14 $ pro GiB |
Ozeanien | 0,10 $ pro GiB | 0,10 $ pro GiB | 0,10 $ pro GiB | 0,08 $ pro GiB | 0,08 $ pro GiB | 0,11 $ pro GiB | 0,14 $ pro GiB | 0,14 $ pro GiB |
Naher Osten | 0,11 $ pro GiB | 0,11 $ pro GiB | 0,11 $ pro GiB | 0,11 $ pro GiB | 0,11 $ pro GiB | 0,08 $ pro GiB | 0,14 $ pro GiB | 0,11 $ pro GiB |
Lateinamerika | 0,14 $ pro GiB | 0,14 $ pro GiB | 0,14 $ pro GiB | 0,14 $ pro GiB | 0,14 $ pro GiB | 0,14 $ pro GiB | 0,14 $ pro GiB | 0,14 $ pro GiB |
Afrika | 0,11 $ pro GiB | 0,11 $ pro GiB | 0,11 $ pro GiB | 0,14 $ pro GiB | 0,14 $ pro GiB | 0,11 $ pro GiB | 0,14 $ pro GiB | 0,11 $ pro GiB |
Externe Dienstleistungen
BigQuery kann externe Dienste nutzen, um Datenanalyse-Workflows zu vereinfachen. Für einige dieser Dienste außerhalb von BigQuery werden Ihnen weiterhin BigQuery-SKUs in Rechnung gestellt:
BigQuery Studio-Notebooks
BigQuery Studio Notebooks basieren auf einer Standard-Notebook-Laufzeit, die die Colab Enterprise-Laufzeit verwendet, um die Ausführung von Notebook-Code zu ermöglichen. Die Nutzung dieser Dienste wird als „Pay as you go“-Slots und als SSD-Nutzung in GB/s abgerechnet. Ab dem 20. April fallen für BigQuery-Notebooks Gebühren an.
Die Standard-Notebook-Laufzeit ist eine von Google bereitgestellte virtuelle Maschine (VM), die den Code in Ihrem Notebook ausführen kann (IPYNB-Datei). So können BigQuery-Kunden ein Python-Script ausführen. Nach der Inaktivität werden keine Kosten in Rechnung gestellt.
*Die Pay as you go-Slots werden für die Version abgerechnet, die auf Projektebene verwendet wird.
Das Standard-Notebook weist im Hintergrund PD und SSD zu, um Nutzern zu helfen, neue Data-Science-Pakete zu installieren und ihre Arbeit über den ausgeführten Python-Code hinaus zu verwalten. Sobald der nichtflüchtige Speicher und das SSD freigegeben sind, fallen keine Kosten an.
Preisangaben für BigQuery Studio-Notebooks:
- Die Standardlaufzeitkonfiguration kann sich ändern, um die Nutzerfreundlichkeit zu verbessern. Weitere Informationen
- Colab Enterprise-Laufzeiten werden standardmäßig nach 180 Minuten Inaktivität heruntergefahren. Auf dieser Seite wird das Feature zum Herunterfahren bei Inaktivität beschrieben und wie Sie die Standardeinstellungen für das Herunterfahren bei Inaktivität ändern oder dieses Feature beim Erstellen einer Laufzeitvorlage deaktivieren.
BigQuery ML – Preise
BigQuery ML-Modelle können in zwei Kategorien unterteilt werden: eingebundene Modelle und externe Modelle. Integrierte BigQuery ML-Modelle werden in BigQuery trainiert, z. B. lineare Regressions-, logistische Regressions-, Mittel-, Matrixfaktorisierungs-, PCA- und Zeitachsenmodelle (z. B. ARIMA_PLUS). Externe BigQuery ML-Modelle werden mithilfe anderer Google Cloud-Dienste wie DNN, Boosted Tree und Random Forest (mit Vertex AI trainiert) und AutoML-Modellen (die auf dem Vertex AI Tables-Back-End trainiert) trainiert. Die Preise für das BigQuery ML-Modelltraining richten sich nach dem Modelltyp sowie nach Ihrem Nutzungsmuster: Editionen oder On-Demand. Die Vorhersage- und Bewertungsfunktionen werden in BigQuery ML für alle Modelltypen entsprechend den unten angegebenen Preisen ausgeführt.
Preise für die BigQuery ML-Versionen
BigQuery ML ist in den Enterprise- und Enterprise Plus-Versionen für Kunden verfügbar, die ein auf Rechenkapazität (Anzahl der Slots) basierendes Preismodell gegenüber dem On-Demand-Modell (Anzahl der verarbeiteten Byte) bevorzugen. Mit Enterprise- oder Enterprise Plus-Reservierungen können Sie alle Funktionen von BigQuery ML nutzen. Die BigQuery ML-Nutzung ist in der Nutzung von BigQuery-Versionen enthalten.
Reservierungen zum Erstellen eingebundener Modelle
BigQuery hat drei Jobtypen für Reservierungszuweisungen: QUERY
, PIPELINE
und ML_EXTERNAL
. Zuweisungen vom Typ QUERY
, die für Analyseabfragen verwendet werden, werden auch zum Ausführen von CREATE MODEL
-Abfragen für integrierte BigQuery ML-Modelle verwendet. Integrierte Modellschulungen und analytische Abfragen teilen sich den gleichen Ressourcenpool in den zugewiesenen Reservierungen und verhalten sich in Bezug auf die Berechtigung und die Verwendung von freien Slots aus anderen Reservierungen gleich.
Reservierungen zum Erstellen externer Modelle
Da externe Modelle außerhalb von BigQuery trainiert werden, sind diese Arbeitslasten nicht auf Abruf verfügbar. Damit andere Workloads nicht betroffen sind, können für diese externen Jobs nur Reservierungen mit ML_EXTERNAL
-Jobtypzuweisung verwendet werden. Unter Arbeitslastverwaltung mit Reservierungen wird beschrieben, wie Reservierungen für externe Modelltrainingsjobs erstellt werden. Die Slotnutzung pro Job wird berechnet, um die Preisparität zwischen BigQuery-Slots und externen Google Cloud-Diensten aufrechtzuerhalten.
On-Demand-Preise für BigQuery ML
Die Abrechnung der BigQuery ML-Nutzung nach On-Demand-Preisen hängt von der Art des jeweiligen Vorgangs ab, also Modelltyp, -erstellung, -bewertung, -prüfung oder ‑vorhersage.
Die On-Demand-Preise für BigQuery ML sehen so aus:
1 Die CREATE MODEL
-Anweisung stoppt bei iterativen Modellen nach 50 Iterationen. Dies gilt sowohl für On-Demand-Preise als auch für Versionspreise.
2 Wenn bei Zeitachsenmodellen zur automatischen Hyperparameteroptimierung auto.arima aktiviert ist, werden in der Trainingsphase mehrere Kandidatenmodelle angepasst und bewertet. In diesem Fall wird die Anzahl der von der eingegebenen SELECT
-Anweisung verarbeiteten Byte mit der Anzahl der Kandidatenmodelle multipliziert, die durch die Trainingsoption AUTO_ARIMA_MAX_ORDER für ARIMA_PLUS
oder die Trainingsoption AUTO_ARIMA_MAX_ORDER für ARIMA_PLUS_XREG
gesteuert werden kann. Dies gilt sowohl für On-Demand-Preise als auch für Versionspreise.
Die folgenden Hinweise gelten für die Erstellung von Zeitachsenmodellen:
Bei Prognosen für einzelne Zeitachsen mit aktiviertem Autoarima ist die Anzahl der möglichen Modelle (6, 12, 20, 30, 42) bei aktiviertem
AUTO_ARIMA_MAX_ORDER
(1, 2, 3, 4, 5) beträgt, wenn das nicht saisonale d gleich 1 ist. Andernfalls beträgt die Anzahl der Kandidatenmodelle (3, 6, 10, 15, 21).Bei Prognosen für mehrere Zeitreihen mit
TIME_SERIES_ID_COL
werden (6, 12, 20, 30, 42) mögliche Modelle berechnet, wennAUTO_ARIMA_MAX_ORDER
gleich (1, 2, 3, 4, 5) ist.Hinweis: Diese Modellauswahl gilt nur für die Modellerstellung. Für die Bewertung, Prüfung und Vorhersage von Modellen wird nur das ausgewählte Modell zu regulären Abfragen verwendet.
3 Weitere Informationen finden Sie unter „BigQuery ML-Remote-Modellinferenz“.
BigQuery ML für Training und Inferenz von Remote-Modellen
Mit BigQuery ML können Kunden ein Remote-Modell erstellen, das auf ein Vertex AI-Basismodell, einen Vertex AI-Endpunkt für Onlinevorhersagen oder eine Cloud AI API wie die Cloud AI Vision API ausgerichtet ist.
Die Preise für die Inferenz von Remote-Modellen in BigQuery ML bestehen aus folgenden Teilen:
- Die von BigQuery verarbeiteten Byte werden nach Standardpreisen wie On-Demand- oder Versionspreisen abgerechnet.
- Außerdem fallen für den Remote-Endpunkt folgende Kosten an:
Remote-Modelltypen Inferenzfunktionen Preise Vertex AI LLM ML.GENERATE_TEXT
ML.GENERATE_EMBEDDINGhttps://cloud.google.com/vertex-ai/pricing#generative_ai_models Cloud AI NLP ML.UNDERSTAND_TEXT https://cloud.google.com/natural-language/pricing Cloud AI Übersetzer ML.TRANSLATE https://cloud.google.com/translate/pricing Cloud AI Vision ML.ANNOTATE_IMAGE https://cloud.google.com/vision/pricing Vertex AI-Endpunkte ML.PREDICT https://cloud.google.com/vertex-ai/pricing
Die Preise für Remote-Endpunktmodelle werden separat von den oben genannten Diensten abgerechnet. Sie können das Abrechnungslabel billing_service = 'bigquery_ml' und das Abrechnungslabel bigquery_job_id verwenden, um die genauen Gebühren zu filtern.
Überwachte LLM-Abstimmungskosten
Wenn Sie die überwachte Feinabstimmung mit Remote-Modellen über Vertex AI LLMs verwenden, werden die Kosten folgendermaßen berechnet:
- Die verarbeiteten Byte aus der Trainingsdatentabelle, die in der
AS SELECT
-Klausel angegeben ist. Diese Gebühren werden Ihrem Projekt von BigQuery in Rechnung gestellt. - Die GPU- oder TPU-Nutzung zur Feinabstimmung des LLM. Diese Gebühren werden von Vertex AI Ihrem Projekt in Rechnung gestellt. Weitere Informationen finden Sie unter Vertex AI-Preise.
BigQuery ML – Probelauf
Da eine erste Einschätzung wegen der zugrunde liegenden Algorithmen einiger Modelltypen und aufgrund von Abweichungen bei der Abrechnung sehr kompliziert ist, werden die verarbeiteten Datenmengen bei diesen Modelltypen erst nach Abschluss des Trainings berechnet.
BigQuery ML – Preisbeispiel
Die Kosten für BigQuery ML werden in Ihrer Abrechnung nicht gesondert aufgeführt. Wenn Sie BigQuery-Versionen haben, sind die Kosten für BigQuery ML bei aktuellen Modellen enthalten.
Wenn Sie On-Demand-Preise verwenden, sind die Kosten für BigQuery ML in den Kosten für die BigQuery-Analyse (Abfragen) enthalten.
Für BigQuery ML-Jobs, die Prüfungs-, Bewertungs- und Vorhersagevorgänge ausführen, fallen die gleichen Kosten an wie bei On-Demand-Abfragen. Da für CREATE MODEL
-Abfragen andere Gebühren gelten, müssen Sie Kosten für CREATE MODEL
-Jobs mithilfe des Audit-Logs von Cloud Logging unabhängig voneinander berechnen. Anhand der Audit-Logs können Sie ermitteln, welche Byte vom BigQuery ML-Dienst für jeden BigQuery ML-Job vom Typ CREATE MODEL
berechnet werden. Anschließend multiplizieren Sie die berechneten Byte mit den entsprechenden Kosten für CREATE MODEL
-Abfragen an Ihrem regionalen oder multiregionalen Standort.
Die Kosten für einen Abfragejob am Standort US
mit einer BigQuery ML-CREATE MODEL
-Anweisung können Sie beispielsweise so berechnen:
Öffnen Sie in der Google Cloud Console die Seite Cloud Logging.
Prüfen Sie, ob als Produkt BigQuery festgelegt ist.
Klicken Sie auf den Drop-down-Pfeil neben dem Feld „Nach Label oder Textsuche filtern“ und wählen Sie In erweiterten Filter umwandeln aus. Hierdurch wird dem Filter der folgende Text hinzugefügt:
resource.type="bigquery_resource"
Fügen Sie in der zweiten Zeile unter der Zeile
resource.type
den folgenden Text hinzu:protoPayload.serviceData.jobCompletedEvent.job.jobConfiguration.query.statementType="CREATE_MODEL"
Wählen Sie in der Drop-down-Liste rechts neben der Schaltfläche Filter senden einen geeigneten Zeitraum aus. Wenn Sie beispielsweise Letzte 24 Stunden auswählen, werden Ihnen die BigQuery ML-
CREATE MODEL
-Jobs angezeigt, die in den letzten 24 Stunden abgeschlossen wurden.Klicken Sie auf Filter senden, um die Jobs aus dem gewählten Zeitraum aufzurufen.
Klicken Sie auf Ansichtsoptionen, sobald die Daten zu sehen sind, und wählen Sie Benutzerdefinierte Felder ändern aus.
Geben Sie im Dialogfeld Benutzerdefinierte Felder hinzufügen Folgendes ein:
protoPayload.serviceData.jobCompletedEvent.job.jobStatistics.totalBilledBytes
Klicken Sie auf Speichern, um die Ergebnisse zu aktualisieren.
Multiplizieren Sie die in Rechnung gestellten Byte mit dem On-Demand-Preis für BigQuery ML, um die Kosten für den BigQuery ML-
CREATE MODEL
-Job zu berechnen. In diesem Beispiel wurden vomCREATE MODEL
-Job 100.873.011.200 Byte verarbeitet. Zur Berechnung der Kosten dieses Jobs am multiregionalen StandortUS
müssen Sie die abgerechneten Byte durch die Anzahl der Byte pro TiB teilen und mit den Kosten für die Modellerstellung multiplizieren:100873011200/1099511627776 x $312.5 = $28.669
BI Engine-Preise
BI Engine speichert BigQuery-Daten im Arbeitsspeicher, um SQL-Abfragen zu beschleunigen. Die Menge der gespeicherten Daten wird durch die von Ihnen erworbene Kapazität begrenzt. Wenn Sie BI Engine-Kapazität erwerben möchten, erstellen Sie eine BI Engine-Reservierung in dem Projekt, in dem Abfragen ausgeführt werden.
Wenn BI Engine eine Abfrage beschleunigt, ist die Abfragephase zum Lesen von Tabellendaten kostenlos. Die nachfolgenden Phasen hängen von den verwendeten BigQuery-Preisen ab:
Bei On-Demand-Preisen werden Phasen, die BI Engine verwenden, mit 0 gescannten Byte berechnet. Für nachfolgende Phasen fallen keine zusätzlichen On-Demand-Gebühren an.
Bei Versionspreisen werden in der ersten Phase keine BigQuery-Reservierungsslots verbraucht. Nachfolgende Phasen verwenden Slots aus der BigQuery-Reservierung.
Für BI Engine gelten folgende Preise:
Zusicherungspaket für Versionen
Wenn Sie Computing-Preise für die BigQuery-Kapazität mit Zusicherungen für BigQuery-Versionen verwenden, haben Sie Anspruch auf eine begrenzte Menge an BI Engine-Kapazitäten im Rahmen des Preises der Versionen, ohne Aufpreis, wie in der folgenden Tabelle dargestellt. Wenn Sie BI Engine-Kapazität ohne zusätzliche Kosten erhalten möchten, folgen Sie der Anleitung zum Reservieren von Kapazität in einem Projekt, das zur selben Organisation wie Ihre Versionsreservierung gehört. Um sicherzustellen, dass die BI Engine-Reservierung eines bestimmten Projekts von dieser gebündelten Kapazität abgezogen wird, sollten dem Projekt einige Slots zugewiesen sein. Die BI Engine-Reservierung in einem On-Demand-Analyseprojekt wird nicht auf die freie Kapazität angerechnet. Freie Kapazitäten werden in Ihren Abrechnungsberichten als normale Kosten aufgeführt, aber als „ausgabenbasierter Rabatt“ rabattiert.
Anzahl der gekauften Slots | Kostenlose, zusätzliche BI Engine-Kapazität (GiB) |
---|---|
100 | 5 |
500 | 25 |
1.000 | 50 |
1.500 | 75 |
2000 | 100 (maximal pro Organisation) |
Kostenlose Vorgänge
Die folgenden BigQuery-Vorgänge sind an jedem Standort kostenlos. Für diese Vorgänge gelten Kontingente und Limits.
Vorgang | Details |
---|---|
Daten laden | Kostenlos über den gemeinsam genutzten Slot-Pool Kunden können sich für Versionen mit Preisgarantie entscheiden. Nachdem die Daten in BigQuery geladen wurden, wird Ihnen der Speicherplatz in Rechnung gestellt. Weitere Informationen finden Sie unter Preise für die Datenaufnahmeversionen. |
Daten kopieren | Das Kopieren einer Tabelle wird Ihnen nicht in Rechnung gestellt, aber es fallen Kosten für die Datenaufnahmeversionen oder für das Speichern der neuen Tabelle und der kopierten Tabelle an. Weitere Informationen finden Sie unter Vorhandene Tabelle kopieren. |
Daten exportieren | Für den gemeinsam genutzten Slot-Pool, fallen keine Daten an, aber für das Speichern der Daten in Cloud Storage. Kunden können sich für Versionen mit Preisgarantie entscheiden. Wenn Sie die SQL-Anweisung EXPORT DATA verwenden, wird Ihnen die Abfrageverarbeitung in Rechnung gestellt. Weitere Informationen finden Sie unter Daten exportieren. |
Vorgänge löschen | Für das Löschen von Datasets oder Tabellen, einzelnen Tabellenpartitionen und Ansichten oder benutzerdefinierten Funktionen fallen keine Kosten an. |
Metadatenvorgänge | Die Aufrufe „list“, „get“, „patch“, „update“ und „delete“ werden Ihnen nicht in Rechnung gestellt. Darunter fallen beispielsweise das Auflisten von Datasets, das Aktualisieren der Access Control List eines Datasets, das Aktualisieren einer Tabellenbeschreibung oder das Auflisten benutzerdefinierter Funktionen in einem Dataset. Metadaten-Caching-Vorgänge für BigLake-Tabellen sind nicht in den kostenlosen Vorgängen enthalten. |
Kostenlose Nutzungsstufe
Im Rahmen der kostenlosen Stufe von Google Cloud bietet BigQuery einige Ressourcen bis zu einem bestimmten Limit kostenlos an. Diese kostenlosen Nutzungskontingente sind während des kostenlosen Testzeitraums und auch danach verfügbar. Wenn Sie die Nutzungslimits überschreiten und der kostenlose Testzeitraum abgelaufen ist, fallen die auf dieser Seite genannten Gebühren an. Sie können die kostenlose Stufe von BigQuery in der BigQuery-Sandbox ohne Kreditkarte testen.
Ressource | Monatliche Limits für kostenlose Nutzung | Details |
---|---|---|
Speicher | Die ersten 10 GiB pro Monat sind kostenlos. | Das kostenlose Speicherkontingent beinhaltet BigQuery ML-Modelle und in BigQuery gespeicherte Trainingsdaten. |
Abfragen (Analyse) | Das erste TiB an verarbeiteten Abfragedaten pro Monat ist kostenlos. |
Es gibt auch BigQuery-Editions-Preise für Kunden mit hohem Datenvolumen, die feste monatliche Kosten bevorzugen. |
BI Engine | Bis zu 1 GiB Kapazität für Looker Studio-Nutzer ohne Konfiguration einer BI Engine-Reservierung. | Diese Kapazität ist für Looker Studio-Nutzer verfügbar, die keine native BigQuery Studio-Integration verwenden. Diese zusätzliche Kapazität wird auf Best-Effort-Basis bereitgestellt. |
Pauschalpreise
Computing-Pauschalpreise
Wenn Sie das Preismodell „Pauschalpreis“ verwenden, erwerben Sie eine bestimmte Abfrageverarbeitungskapazität, die in BigQuery-Slots gemessen wird. Ihre Abfragen verbrauchen diese Kapazität. Ihnen werden die verarbeiteten Byte nicht in Rechnung gestellt. Wenn Ihre Kapazitätsanforderungen Ihre zugesicherte Kapazität überschreiten, stellt BigQuery Abfragen in die Warteschlange und Ihnen werden keine zusätzlichen Gebühren berechnet.
Computing-Pauschalpreise:
- Bezieht sich auf Abfragekosten, einschließlich BigQuery ML, DML- und DDL-Anweisungen.
- Gilt nicht für Speicherkosten oder BI Engine-Kosten.
- Gilt nicht für Streaming-Insert-Anweisungen und die Verwendung der BigQuery Storage API.
- Wird als regionale Ressource gekauft. Die in einer bestimmten Region oder mehreren Regionen erworbenen Slot-Zusicherungen können nicht in einer anderen Region oder Multiregion verwendet oder verschoben werden.
- Ist in sekundengenauen (Flex), monatlichen und jährlichen Zusicherungen verfügbar.
- Kann für Ihre gesamte Organisation angewandt werden. Sie müssen Slot-Zusicherungen nicht für jedes Projekt erwerben.
- Wird in 100-Slot-Schritten erworben. Das Minimum liegt bei 100 Slots.
- Wird pro Sekunde abgerechnet, bis Sie die Zusicherung kündigen. Dies kann jederzeit nach dem Enddatum einer Zusicherung erfolgen.
Zusicherungen zum monatlichen Pauschalpreis
Die folgende Tabelle zeigt die Kosten Ihrer monatlichen Slotzusicherung zu einem Pauschalpreis. Weitere Informationen finden Sie unter Monatliche Zusicherungen.
Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die Preise, die unter Cloud Platform SKUs für Ihre Währung angegeben sind.
Zusicherungen zu einem jährlichen Pauschalpreis
Die folgende Tabelle zeigt die Kosten Ihrer jährlichen Slotzusicherung zu einem Pauschalpreis. Weitere Informationen finden Sie unter Jährliche Zusicherungen.
Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die Preise, die unter Cloud Platform SKUs für Ihre Währung angegeben sind.
Flex-Slots: kurzfristige Pauschalpreiszusicherungen
Flex-Slots sind ein spezieller Zusicherungstyp:
- Die Dauer der Zusicherung beträgt nur 60 Sekunden.
- Sie können Flex-Slots jederzeit kündigen.
- Abgerechnet wird lediglich die Dauer der Bereitstellung in Sekunden.
Flex-Slots unterliegen der Kapazitätsverfügbarkeit. Wenn Sie versuchen, Flex-Slots zu kaufen, ist der Erfolg dieses Kaufs nicht garantiert. Sobald Sie den Zusicherungskauf erfolgreich abgeschlossen haben, wird die Kapazität bis zur Stornierung garantiert. Weitere Informationen finden Sie unter Flex-Slots.
Die folgende Tabelle zeigt die Kosten für Ihre Flex-Slot-Zusicherung:
Pauschalpreise für BigQuery Omni
BigQuery Omni bietet Pauschalpreise, die kalkulierbare Kosten für Abfragen liefern. Verwenden Sie BigQuery Reservations, um Pauschalpreise zu aktivieren.
Wenn Sie sich für den Pauschalpreis für BigQuery Omni anmelden, erwerben Sie eine dedizierte Abfrageverarbeitungskapazität, gemessen in Slots, auf Amazon Web Services oder Microsoft Azure. Ihre Abfragen verbrauchen diese Kapazität. Ihnen werden die verarbeiteten Byte nicht in Rechnung gestellt.
Pauschalpreise für BigQuery Omni:
- Bezieht sich auf Abfragekosten. Gilt nicht für Speicherkosten.
- Slot-Zusicherungen werden für eine einzelne Multi-Cloud-Region erworben. Die in einer Region erworbene Kapazität kann nicht in einer anderen Region genutzt werden.
- Ist in Form von monatlichen und jährlichen Zusicherungen verfügbar. Wird pro Sekunde abgerechnet, bis Sie die Zusicherung kündigen. Dies kann jederzeit nach dem Enddatum einer Zusicherung erfolgen.
- Kann für Ihre gesamte Organisation angewandt werden. Sie müssen Slot-Zusicherungen nicht für jedes Projekt erwerben.
- Wird in 100-Slot-Schritten erworben. Das Minimum liegt bei 100 Slots.
Zusicherungen zum monatlichen Pauschalpreis
Die folgende Tabelle zeigt die Kosten für Ihre monatliche Slot-Zusicherung: Weitere Informationen finden Sie unter Monatliche Zusicherungen.
Zusicherungen zu einem jährlichen Pauschalpreis
Die folgende Tabelle zeigt die Kosten für Ihre jährliche Slot-Zusicherung: Weitere Informationen finden Sie unter Jährliche Zusicherungen.
Flex-Slots: kurzfristige Zusicherungen
Flex-Slots sind ein spezieller Zusicherungstyp:
- Die Dauer der Zusicherung beträgt nur 60 Sekunden.
- Sie können Flex-Slots jederzeit kündigen.
- Abgerechnet wird lediglich die Dauer der Bereitstellung in Sekunden.
Flex-Slots in BigQuery Omni unterliegen der Kapazitätsverfügbarkeit in AWS oder Azure. Wenn Sie versuchen, Flex-Slots zu kaufen, ist der Erfolg dieses Kaufs nicht garantiert. Sobald Sie den Zusicherungskauf erfolgreich abgeschlossen haben, wird die Kapazität bis zur Stornierung garantiert. Weitere Informationen finden Sie unter Flex-Slots.
Die folgende Tabelle zeigt die Kosten für Ihre Flex-Slot-Zusicherung:
BI Engine-Zusicherungspaket mit Pauschalpreis
Wenn Sie BigQuery-Slotzusicherungen mit Pauschalpreis verwenden, haben Sie Anspruch auf eine begrenzte Menge an BI Engine-Kapazitäten im Rahmen des Pauschalpreises ohne zusätzliche Kosten, wie in der folgenden Tabelle dargestellt. Wenn Sie BI Engine-Kapazität ohne zusätzliche Kosten erhalten möchten, folgen Sie der Anleitung zum Reservieren von Kapazität in einem Projekt, das zur selben Organisation wie Ihre Pauschalpreisreservierung gehört. Um sicherzustellen, dass die BI Engine-Reservierung eines bestimmten Projekts von dieser gebündelten Kapazität abgezogen wird, sollten dem Projekt einige Slots zugewiesen sein. Eine BI Engine-Reservierung in einem On-Demand-Computing-Projekt wird nicht auf die freie Kapazität angerechnet. Freie Kapazität wird in Ihren Abrechnungsberichten als normale Kosten ausgewiesen, aber als „ausgabenbasierter Rabatt“ rabattiert.
Anzahl der gekauften Slots | Kostenlose, zusätzliche BI Engine-Kapazität (GiB) |
---|---|
100 | 5 |
500 | 25 |
1.000 | 50 |
1.500 | 75 |
2000 | 100 (maximal pro Organisation) |
Nächste Schritte
Weitere Informationen zum Analysieren von Abrechnungsdaten mithilfe von Berichten finden Sie unter Abrechnungsberichte und Kostentrends ansehen.
Informationen zum Analysieren der Abrechnungsdaten in BigQuery finden Sie unter Cloud Billing-Daten in BigQuery exportieren.
Informationen zu geschätzten Kosten finden Sie unter Speicher- und Abfragekosten schätzen.
Lesen Sie die BigQuery-Dokumentation.
Erste Schritte mit BigQuery.
Preisrechner ausprobieren
Informationen zu Anthos-Lösungen und -Anwendungsfällen.