La replica di Cloud Data Fusion consente di replicare i dati in modo continuo e in tempo reale da datastore operativi, come SQL Server e MySQL, in BigQuery.
Per utilizzare la replica, scegli uno dei seguenti modi:
- Creare una nuova istanza di Cloud Data Fusion e aggiungere l'app di replica.
- Aggiungi l'app di replica a un'istanza esistente.
Ecco alcuni vantaggi:
Identificando le incompatibilità dello schema, i problemi di connettività e le funzionalità mancanti prima di avviare la replica, vengono fornite azioni correttive.
Utilizzo dei più recenti dati operativi in tempo reale per l'analisi in BigQuery. Puoi utilizzare la replica basata su log direttamente in BigQuery da Microsoft SQL Server (utilizzando SQL Server CDC) e MySQL (utilizzando MySQL Binary Log).
Change Data Capture (CDC) fornisce una rappresentazione dei dati che sono stati modificati in un flusso, consentendo ai calcoli e all'elaborazione di concentrarsi in modo specifico sui record modificati più di recente. Questo riduce al minimo gli addebiti per i dati in uscita sui sistemi di produzione sensibili.
Scalabilità aziendale con database transazionali a volumi elevati I caricamenti iniziali di dati in BigQuery sono supportati con replica di snapshot senza tempi di inattività, per rendere il data warehouse pronto per l'utilizzo continuo di modifiche. Una volta creato lo snapshot iniziale, la replica continua delle modifiche a velocità effettiva elevata, inizia in tempo reale.
Le dashboard che ti aiutano a ottenere insight in tempo reale sulle prestazioni di replica. È utile per identificare i colli di bottiglia e monitorare gli SLA (accordi sul livello del servizio) per la consegna dei dati.
Compreso il supporto per la residenza dei dati, le chiavi di crittografia gestite dal cliente (CMEK) e i Controlli di servizio VPC. L'integrazione di Cloud Data Fusion in Google Cloud garantisce il rispetto dei massimi livelli di sicurezza e privacy aziendale, rendendo al contempo disponibili i dati più recenti nel data warehouse per l'analisi.
Prezzo consigliato
Quando la replica viene eseguita, ti vengono addebitati i costi per il cluster Dataproc e i costi di elaborazione per BigQuery. Per ottimizzare questi costi, consigliamo vivamente di utilizzare il sistema con tariffe a costo fisso di BigQuery.
Per ulteriori informazioni, consulta la pagina Prezzi di Cloud Data Fusion.
Entità di replica
Entità | Descrizione |
---|---|
Replica | La replica è una funzionalità di Cloud Data Fusion che permette di replicare i dati in modo continuo a bassa latenza dai datastore operativi ai data warehouse analitici. Crea un job di replica configurando un'origine e una destinazione con trasformazioni facoltative. |
Origine | Legge gli eventi di modifica di database, tabelle o colonne e li rende disponibili per l'ulteriore elaborazione in un job di replica. Un job di replica contiene un'origine che si basa su una soluzione di acquisizione delle modifiche per fornire le modifiche. Un database può avere più origini, ciascuna con una soluzione di acquisizione delle modifiche diversa. Un'origine è un modulo innestato creato utilizzando l'architettura di plug-in di CDAP. Se un'origine non è disponibile per soddisfare le tue esigenze, puoi crearne una implementando l'interfaccia di origine, quindi caricarla su CDAP o Cloud Data Fusion. |
Target | Scrive le modifiche ricevute da un'origine in un database di destinazione. Un job di replica contiene una destinazione. Una destinazione è un modulo innestato creato utilizzando l'architettura di plug-in di CDAP. Se un target non è disponibile per soddisfare le tue esigenze, puoi crearne uno implementando l'interfaccia di destinazione e poi caricarlo su CDAP o Cloud Data Fusion. |
Proprietà sorgente | Configura l'origine, inclusi i dettagli della connessione, i nomi delle tabelle e del database di origine, le credenziali e altre proprietà. |
Proprietà target | Configura la destinazione, inclusi i dettagli della connessione, i nomi delle tabelle e del database di destinazione, le credenziali e altre proprietà. |
Proprietà job di replica | Configura il job di replica, incluse soglie di errore, aree temporanee, notifiche e impostazioni di convalida. |
Bozza | Un job di replica salvato e parzialmente completato. Una volta completata la definizione del job di replica, è possibile avviarlo. |
Eventi | Gli eventi di modifica nell'origine devono essere replicati nella destinazione. Gli eventi includono inserimenti, aggiornamenti, eliminazioni e modifiche DDL (Data Definition Language). |
Inserisci | Aggiunta di nuovi record nell'origine. |
Aggiornamento | Esegui l'aggiornamento ai record esistenti nell'origine. |
Elimina | Rimozione dei record esistenti nell'origine. |
Modifica DDL | Un evento che contiene una modifica dello schema, ad esempio una modifica del tipo o del nome dei dati. |
Log | I log operativi di un job di replica. |
Dettagli job di replica | Una pagina dei dettagli con informazioni sul job di replica, ad esempio stato attuale, metriche operative, visualizzazione storica nel tempo, risultati della convalida e configurazione. |
Dashboard | Una pagina che elenca lo stato di tutte le attività di Change Data Capture, tra cui velocità effettiva, latenza, percentuali di errore e risultati di convalida. |
Azioni
Azioni | Descrizione |
---|---|
Esegui il deployment | Crea un nuovo job di replica seguendo un flusso di interfaccia web per specificare un'origine, una destinazione e la relativa configurazione. |
Salva | Salvataggio di un job di replica creato parzialmente per riprendere la creazione in un secondo momento. |
Elimina | Eliminazione di un job di replica esistente in corso... Puoi eliminare solo le pipeline arrestate. |
Inizio | Avvio di un job di replica in corso... Se sono presenti modifiche da elaborare, il job di replica entra nello stato "attivo", altrimenti entra nello stato "in attesa". |
Arresta | Arresto di un job di replica in corso. Il job di replica interrompe l'elaborazione delle modifiche dall'origine. |
visualizza i log | Visualizzazione dei log di un job di replica per il debug o altre analisi. |
Ricerca | Ricerca di un job di replica in base al nome, alla descrizione o ad altri metadati del job di replica. |
Valutazione | Valutazione dell'impatto della replica prima di avviarla. La valutazione di un job di replica genera un report di valutazione che segnala le incompatibilità e le funzionalità mancanti dello schema. |
Monitoraggio
Stati replicatore | Descrizione |
---|---|
Deployment eseguito | Il deployment del job di replica è stato eseguito, ma non è stato avviato. In questo stato, un job di replica non replica gli eventi. |
In fase di avvio | Il job di replica è in fase di inizializzazione e non è pronto a replicare le modifiche. |
In esecuzione | Il job di replica è stato avviato e sta replicando le modifiche. |
In fase di arresto | Il job di replica è in fase di arresto. |
Interrotto | Il job di replica è stato arrestato. |
Non riuscito | Il job di replica non è riuscito a causa di errori irreversibili. |
Stati tabella
Concetto | Descrizione |
---|---|
In fase di creazione dello snapshot | Il job di replica sta eseguendo uno snapshot dello stato attuale della tabella prima della replica delle modifiche. |
In fase di replica | Il job di replica sta replicando le modifiche dalla tabella di origine alla tabella di destinazione. |
Non riusciti | Il job di replica non riesce a replicare le modifiche dalla tabella di origine a causa di un errore. |
Metriche
Concetto | Descrizione |
---|---|
Inserti | Il numero di inserimenti applicati alla destinazione nel periodo di tempo selezionato. |
Aggiornamenti | Il numero di aggiornamenti applicati al target nel periodo di tempo selezionato. |
Operazioni di eliminazione | Il numero di eliminazioni applicate alla destinazione nel periodo di tempo selezionato. |
DDL | Il numero di modifiche DDL applicate alla destinazione nel periodo di tempo selezionato. |
Velocità effettiva | Il numero di eventi e il numero di byte replicati nella destinazione nel periodo di tempo selezionato. |
Latenza | La latenza con cui i dati vengono replicati nella destinazione nel periodo di tempo selezionato. |
Componenti
Componente | Descrizione |
---|---|
Servizio | Supervisiona l'orchestrazione end-to-end dei job di replica e fornisce funzionalità per la progettazione, il deployment, la gestione e il monitoraggio dei job di replica. Viene eseguito all'interno del progetto tenant di Cloud Data Fusion (il progetto tenant è nascosto all'utente). Il relativo stato viene visualizzato nella pagina **System Admin** (Amministratore di sistema) dell'interfaccia web di Cloud Data Fusion. |
Gestione dello stato | Il servizio gestisce lo stato di ogni job di replica in un bucket Cloud Storage nel progetto del cliente. Il bucket può essere configurato al momento della creazione del job di replica. Archivia gli offset e lo stato di replica attuali di ogni job di replica. |
Esecuzione | I cluster Dataproc forniscono l'ambiente di esecuzione dei job di replica eseguiti nel progetto. i job di replica vengono eseguiti utilizzando i worker CDAP. Le dimensioni e le caratteristiche dell'ambiente di esecuzione sono configurate con profili Compute Engine. |
Database di origine | Il tuo database operativo di produzione che si replica nel database di destinazione. Questo database può essere localizzato on-premise o su Google Cloud. La replica Cloud Data Fusion supporta i database di origine MySQL, Microsoft SQL Server e Oracle. |
Cambia soluzione di monitoraggio | Anziché eseguire su un agente eseguito sul database di origine, Cloud Data Fusion si basa su una soluzione di monitoraggio delle modifiche per leggere le modifiche nel database di origine. La soluzione può essere un componente del database di origine o una soluzione di terze parti con licenza separata. Nel secondo caso, la soluzione di monitoraggio delle modifiche viene eseguita on-premise, in co-location con il database di origine oppure su Google Cloud. Ogni origine deve essere associata a una soluzione di monitoraggio delle modifiche.
|
Database di destinazione | La località di destinazione per la replica e l'analisi. Cloud Data Fusion supporta il database di destinazione BigQuery. |
Autenticazione | I meccanismi di autenticazione variano a seconda del database di origine o del software di monitoraggio delle modifiche. Quando si utilizzano le funzionalità integrate dei database di origine, come SQL Server e MySQL, gli accessi ai database vengono utilizzati per l'autenticazione. Quando utilizzi un software di monitoraggio delle modifiche, viene utilizzato il meccanismo di autenticazione del software. |
Connettività
La tabella seguente descrive le connessioni di rete necessarie per la replica e i meccanismi di sicurezza utilizzati.
Da | A | Facoltativo | Protocollo | Rete | Sicurezza di autenticazione | Finalità |
---|---|---|---|---|---|---|
Servizio (progetto tenant) | DB di origine | Sì | Dipende dall'origine della replica. JDBC per la connessione diretta al database. | Peering + Regole firewall + VPN/Interconnessione + Router | Accesso DB | Necessaria in fase di progettazione, non di esecuzione, tempo Funzioni: elenco delle tabelle, valutazione (passaggi facoltativi; la replica può continuare senza di essi) |
Servizio (progetto tenant) | Cloud Storage | No | API Cloud | VPC-SC | IAM | Gestione dello stato: offset, stati di replica |
Dataproc (il tuo progetto) | DB di origine | No | Dipende dall'origine. JDBC per la connessione diretta al database. | Peering + Regole firewall + VPN/Interconnessione + Router | Accesso DB | Necessaria al momento dell'esecuzione, per leggere le modifiche dal database di origine da replicare al target |
Dataproc (il tuo progetto) | Cloud Storage | No | API Cloud | VPC-SC | IAM | Gestione dello stato: offset, stati di replica |
Dataproc (il tuo progetto) | BigQuery | No | API Cloud | VPC-SC | IAM | Necessario al momento dell'esecuzione per applicare le modifiche dal database di origine al target |
Passaggi successivi
- Consulta il riferimento dell'API Replication.
- Fai riferimento alle mappature dei tipi di dati per la replica.