OpenWebinars

Copiando tablas de BigQuery en diferentes ubicaciones con Google Cloud Composer

En este curso aprenderás a copiar tablas de BigQuery en diferentes ubicaciones utilizando para ello el servicio de Google Cloud Composer.


Icono de la tecnología

La metodología y plataforma de formación que se adapta al tamaño y ritmo de tu empresa.

Cuéntanos tu caso

Curso impartido por

Avatar:Jorge López Blasco

Jorge López Blasco

Experto en Cloud Computing, Machine Learning y Big Data.

Contenido de la formación

3 Secciones · 4 Lecciones · 42 min. en total

Introducción

11 min.

Copiar tablas de Bigquery con Google Cloud Composer

29 min.

Conclusiones

2 min.

Habilidades que obtendrás

  • Leer la lista de tablas de un archivo de configuración para copiarla.
  • Exportar a Cloud Storage la lista de tablas de un conjunto de datos de BigQuery ubicado en EE.UU.
  • Copiar las tablas exportadas de depósitos de Cloud Storage ubicados en EE.UU. a otros de la UE.
  • Importar la lista de tablas al conjunto de datos de destino de BigQuery de la UE.

Requisitos mínimos

Para un mejor aprovechamiento de esta formación, es recomendable estar familiarizado con una variedad de servicios de Google Cloud como Cloud Storage y BIgQuery, así como tener una comprensión básica de los conceptos y términos relacionados con la infraestructura de Apache Airflow.

Completa tu formación con estos contenidos

Icono de la tecnología
Curso

Cargar datos de eCommerce en GCP con BigQuery

Intermedio
21 min.

Con BigQuery, podemos consultar muchos terabytes de datos sin tener que administrar infraestructuras y sin necesitar un administrador...

Avatar de profesorJorge López Blasco
Icono de la tecnología
Curso

Consultas en eCommerce con GCP BigQuery

Intermedio
39 min.

En una tabla de BigQuery, se cargó un conjunto de datos de comercio electrónico recientemente disponible que incluye...

Avatar de profesorJorge López Blasco

Preguntas frecuentes

Resuelve tus dudas o contacta con nosotros para más información.

Cuéntanos tu caso
Efectivamente, una vez superada cada formación, podrás descargarte el diploma acreditativo de cada una de ellas. Añádelas a tu CV y mejora tu perfil para las empresas. También podrás obtener un diploma de nivel superior al superar todas las formaciones de la ruta.

En OpenWebinars no vendemos formaciones.

Tenemos diferentes tipos de suscripciones, que te dará acceso completo a todas las formaciones de la plataforma y a las nuevas que vamos lanzando, siempre y cuando tu suscripción esté activa (como Spotify con la música o Netflix con las películas y series).

¿Eres una empresa? Tenemos planes especiales para ti. Consúltanos aquí.

En OpenWebinars las formaciones no tienen fecha de inicio y de final.

Cada curso tiene una fecha de publicación y desde ese día estarán 100% disponible todos los contenidos del curso para los usuarios suscritos a alguno de nuestros planes.

En esta formación avanzada vas a aprender a crear y ejecutar un flujo de trabajo de Apache Airflow en Cloud Composer, todo ello de una forma totalmente práctica. Esto resulta de gran utilidad a la hora de copiar tablas de múltiples ubicaciones, en nuestro caso EEUU y Europa, y unificarlas en un único directorio de BigQuery. Veremos también cómo las empresas hacen el proceso de ingesta de datos en Cloud.

Los requisitos para realizar este curso online comprendiendo todo lo explicado en el mismo, son tener conocimientos previos con los servicios de Google Cloud Platform, sobre todo con Cloud Storage y BIgQuery, además de tener conocimientos iniciales sobre cloud computing en general, y poseer una comprensión básica de los conceptos y términos relacionados con la infraestructura de Apache Airflow.

Para conseguir el objetivo de esta formación, el profesor irá realizando paso a paso todos los procesos necesarios, comenzando por definir un conjunto de datos de destino de BigQuery, además de definir un flujo de trabajo dentro de Cloud Composer.

Se continuará configurando las variables necesarias de Airflow, además de explicar cómo subir el DAG y las dependencias a Cloud Storage, para finalizar utilizando la interfaz de usuario de Airflow para mover los datos de una localización a otra, que en este caso serán datos ubicados tanto en EEUU como en Europa.