Cargar datos de eCommerce en GCP con BigQuery
Con BigQuery, podemos consultar muchos terabytes de datos sin tener que administrar infraestructuras y sin necesitar un administrador...

En este curso aprenderás a copiar tablas de BigQuery en diferentes ubicaciones utilizando para ello el servicio de Google Cloud Composer.
La metodología y plataforma de formación que se adapta al tamaño y ritmo de tu empresa.
Para un mejor aprovechamiento de esta formación, es recomendable estar familiarizado con una variedad de servicios de Google Cloud como Cloud Storage y BIgQuery, así como tener una comprensión básica de los conceptos y términos relacionados con la infraestructura de Apache Airflow.
Resuelve tus dudas o contacta con nosotros para más información.
En OpenWebinars no vendemos formaciones.
Tenemos diferentes tipos de suscripciones, que te dará acceso completo a todas las formaciones de la plataforma y a las nuevas que vamos lanzando, siempre y cuando tu suscripción esté activa (como Spotify con la música o Netflix con las películas y series).
¿Eres una empresa? Tenemos planes especiales para ti. Consúltanos aquí.
En OpenWebinars las formaciones no tienen fecha de inicio y de final.
Cada curso tiene una fecha de publicación y desde ese día estarán 100% disponible todos los contenidos del curso para los usuarios suscritos a alguno de nuestros planes.
En esta formación avanzada vas a aprender a crear y ejecutar un flujo de trabajo de Apache Airflow en Cloud Composer, todo ello de una forma totalmente práctica. Esto resulta de gran utilidad a la hora de copiar tablas de múltiples ubicaciones, en nuestro caso EEUU y Europa, y unificarlas en un único directorio de BigQuery. Veremos también cómo las empresas hacen el proceso de ingesta de datos en Cloud.
Los requisitos para realizar este curso online comprendiendo todo lo explicado en el mismo, son tener conocimientos previos con los servicios de Google Cloud Platform, sobre todo con Cloud Storage y BIgQuery, además de tener conocimientos iniciales sobre cloud computing en general, y poseer una comprensión básica de los conceptos y términos relacionados con la infraestructura de Apache Airflow.
Para conseguir el objetivo de esta formación, el profesor irá realizando paso a paso todos los procesos necesarios, comenzando por definir un conjunto de datos de destino de BigQuery, además de definir un flujo de trabajo dentro de Cloud Composer.
Se continuará configurando las variables necesarias de Airflow, además de explicar cómo subir el DAG y las dependencias a Cloud Storage, para finalizar utilizando la interfaz de usuario de Airflow para mover los datos de una localización a otra, que en este caso serán datos ubicados tanto en EEUU como en Europa.