[{"data":1,"prerenderedAt":29},["ShallowReactive",2],{"article-data-curso-gcp-cloud-composer-01":3},{"content":4,"date":5,"image":6,"sideArticles":7},"\u003C!DOCTYPE html>\r\n\u003Chtml lang=\"es\">\r\n\r\n\u003Chead>\r\n    \u003Cmeta charset=\"UTF-8\">\r\n    \u003Cmeta name=\"viewport\" content=\"width=device-width, initial-scale=1.0\">\r\n    \u003Cmeta name=\"description\"\r\n        content=\"Aprende a desplegar Cloud Composer 2 utilizando Terraform. Configura tu entorno de orquestación y ejecuta tu primer DAG de Apache Airflow en Google Cloud Platform.\">\r\n    \u003Cmeta name=\"keywords\"\r\n        content=\"Cloud Composer, Apache Airflow, Terraform, Google Cloud, GCP, DAG, Infrastructure as Code, Airflow 3, Python\">\r\n    \u003Cmeta name=\"author\" content=\"Eduardo Martínez Agrelo\">\r\n    \u003Ctitle>Cloud Composer: Infraestructura Base | Curso Composer GCP\u003C/title>\r\n    \u003Cstyle>\r\n        body {\r\n            font-family: sans-serif;\r\n            line-height: 1.6;\r\n        }\r\n\r\n        h1,\r\n        h2,\r\n        h3 {\r\n            color: #333;\r\n        }\r\n\r\n        ul {\r\n            list-style-type: disc;\r\n            margin-left: 20px;\r\n        }\r\n\r\n        code {\r\n            background-color: #f4f4f4;\r\n            padding: 2px 5px;\r\n            border-radius: 3px;\r\n            font-family: monospace;\r\n        }\r\n    \u003C/style>\r\n\u003C/head>\r\n\r\n\u003Cbody>\r\n    \u003Ch1>Cloud Composer: Infraestructura Base (Hello Airflow)\u003C/h1>\r\n    \u003Cp>\u003Cstrong>Autor:\u003C/strong> \u003Ca href=\"https://www.youtube.com/@EduardoMartinezAgrelo\" target=\"_blank\">Eduardo Martínez\r\n            Agrelo\u003C/a>\u003C/p>\r\n\r\n    \u003Cp>Bienvenidos al punto de partida de nuestra arquitectura de datos. Antes de mover un solo byte, necesitamos un\r\n        director de orquesta. En el ecosistema de Google Cloud, ese papel lo cumple \u003Cstrong>Cloud Composer\u003C/strong>, la\r\n        versión gestionada de Apache Airflow que nos permite despreocuparnos de la administración de servidores y\r\n        centrarnos en la lógica de nuestros pipelines.\u003C/p>\r\n\r\n    \u003Ch2>¿Qué es Cloud Composer?\u003C/h2>\r\n\r\n    \u003Cp>Cloud Composer es un servicio de orquestación de flujos de trabajo totalmente gestionado, construido sobre el\r\n        motor de \u003Cstrong>Apache Airflow\u003C/strong>. Su arquitectura se apoya en Google Kubernetes Engine (GKE):\u003C/p>\r\n    \u003Cul>\r\n        \u003Cli>\u003Cstrong>Escalabilidad:\u003C/strong> Ajusta los recursos de los workers según la carga de trabajo de tus DAGs.\r\n        \u003C/li>\r\n        \u003Cli>\u003Cstrong>Integración Nativa:\u003C/strong> Conexión simplificada con BigQuery, Dataflow, Cloud Storage y Pub/Sub\r\n            mediante operadores oficiales.\u003C/li>\r\n    \u003C/ul>\r\n\r\n    \u003Ch2>Infraestructura como Código (IaC) con Terraform\u003C/h2>\r\n\r\n    \u003Cp>En este curso no utilizaremos la consola web para crear recursos. Como profesionales de datos, definiremos\r\n        nuestro entorno mediante \u003Cstrong>Terraform\u003C/strong>. Esto nos garantiza:\u003C/p>\r\n    \u003Cp>\u003Ccode>resource \"google_composer_environment\" \"my_env\"\u003C/code>\u003C/p>\r\n    \u003Cp>Utilizar IaC nos permite versionar nuestra infraestructura en GitHub, replicar entornos de desarrollo y\r\n        producción en minutos y, lo más importante, destruir todo el entorno con un solo comando para optimizar costes\r\n        cuando no estemos trabajando.\u003C/p>\r\n\r\n    \u003Ch2>Anatomía de tu primer DAG\u003C/h2>\r\n\r\n    \u003Cp>Un \u003Cstrong>DAG (Directed Acyclic Graph)\u003C/strong> es el corazón de Airflow. En este primer laboratorio,\r\n        definiremos una estructura básica utilizando el \u003Ccode>EmptyOperator\u003C/code> para marcar hitos y el\r\n        \u003Ccode>PythonOperator\u003C/code> para ejecutar lógica personalizada. Aprenderás conceptos clave como:\r\n    \u003C/p>\r\n    \u003Cul>\r\n        \u003Cli>\u003Cstrong>Schedule Interval:\u003C/strong> Definir cuándo y con qué frecuencia se ejecuta tu tubería.\u003C/li>\r\n        \u003Cli>\u003Cstrong>Dependencies:\u003C/strong> Establecer el orden de ejecución mediante el operador bitwise (>>).\u003C/li>\r\n    \u003C/ul>\r\n\r\n    \u003Ch2>Implementación práctica\u003C/h2>\r\n\r\n    \u003Cp>Durante la sesión práctica, lanzaremos nuestro plan de Terraform para levantar el clúster. Una vez que el entorno\r\n        esté \"Ready\", importaremos nuestro archivo Python al bucket de DAGs asociado. Verás cómo la interfaz web de\r\n        Airflow reconoce automáticamente el nuevo grafo y podrás disparar manualmente tu primera ejecución, verificando\r\n        en los logs que la comunicación entre Cloud Composer y la infraestructura de Google es exitosa.\u003C/p>\r\n\r\n    \u003Ch2>Conclusión: Cimientos de un Data Engineer\u003C/h2>\r\n    \u003Cp>Has superado la etapa de configuración inicial. Tienes un entorno de Cloud Composer funcional y has desplegado tu\r\n        primer DAG bajo las mejores prácticas de la industria. Ya no eres un usuario manual; ahora eres un ingeniero que\r\n        domina la infraestructura. El siguiente paso es dotar a este orquestador de datos reales mediante sensores y\r\n        generadores batch.\u003C/p>\r\n\u003C/body>\r\n\r\n\u003C/html>","April 15, 2026","https://storage.googleapis.com/mp-blog/images/curso-gcp-cloud-composer-01.jpg",[8,14,19,24],{"id":9,"title":10,"description":11,"image":12,"date":13},"curso-gcp-apache-spark-01","Spark: Infraestructura como Código con Terraform | Curso Spark, Scala y Terraform","Aprende a desplegar clústeres de Big Data profesionalmente. Domina Terraform para crear infraestructura como código (IaC) en Google Cloud y automatiza tu entorno de Dataproc para Spark.","https://storage.googleapis.com/mp-blog/images/curso-gcp-apache-spark-01.jpg","March 12, 2026",{"id":15,"title":16,"description":17,"image":18,"date":13},"curso-gcp-apache-spark-02","Spark: Ingesta (Raw to Bronze) y Formatos Columnares | Curso Spark, Scala y Terraform","Domina la ingesta de datos con Spark. Aprende a convertir JSONs pesados en formato Parquet, optimiza tu almacenamiento en un 85% y domina los esquemas estrictos con Scala.","https://storage.googleapis.com/mp-blog/images/curso-gcp-apache-spark-02.jpg",{"id":20,"title":21,"description":22,"image":23,"date":13},"curso-gcp-apache-spark-03","Spark: Limpieza y Calidad (Bronze to Silver) | Curso Spark, Scala y Terraform","Domina la limpieza de datos en Spark. Aprende a usar Scala para implementar la capa Silver (Plata) de tu arquitectura Medallón, utilizando Case Classes para mayor seguridad.","https://storage.googleapis.com/mp-blog/images/curso-gcp-apache-spark-03.jpg",{"id":25,"title":26,"description":27,"image":28,"date":13},"curso-gcp-apache-spark-04","Spark: Analítica Avanzada (Silver to Gold) | Curso Spark, Scala y Terraform","Domina el Análisis Avanzado con Spark. Aprende a calcular métricas de negocio con Window Functions y a extraer el Top 3 de canciones por país y día para tu capa Gold.","https://storage.googleapis.com/mp-blog/images/curso-gcp-apache-spark-04.jpg",1776363704185]