[{"data":1,"prerenderedAt":29},["ShallowReactive",2],{"article-data-curso-gcp-pub-sub-08":3},{"content":4,"date":5,"image":6,"sideArticles":7},"\u003C!DOCTYPE html>\r\n\u003Chtml lang=\"es\">\r\n\r\n\u003Chead>\r\n    \u003Cmeta charset=\"UTF-8\">\r\n    \u003Cmeta name=\"viewport\" content=\"width=device-width, initial-scale=1.0\">\r\n    \u003Cmeta name=\"description\"\r\n        content=\"Proyecto final del curso de Pub/Sub. Construye un pipeline de datos completo con Fan-Out, filtrado, gestión de errores (DLQ) e ingesta híbrida a BigQuery y Cloud Storage.\">\r\n    \u003Cmeta name=\"keywords\"\r\n        content=\"Pub/Sub, Pipeline, Data Engineering, Google Cloud, GCP, Terraform, Python, DLQ, BigQuery, Cloud Storage, Arquitectura Cloud\">\r\n    \u003Cmeta name=\"author\" content=\"Eduardo Martínez Agrelo\">\r\n    \u003Ctitle>Pub/Sub: Pipeline End-to-End Avanzado | Curso Pub/Sub GCP\u003C/title>\r\n    \u003Cstyle>\r\n        body {\r\n            font-family: sans-serif;\r\n            line-height: 1.6;\r\n        }\r\n\r\n        h1,\r\n        h2,\r\n        h3 {\r\n            color: #333;\r\n        }\r\n\r\n        ul {\r\n            list-style-type: disc;\r\n            margin-left: 20px;\r\n        }\r\n\r\n        code {\r\n            background-color: #f4f4f4;\r\n            padding: 2px 5px;\r\n            border-radius: 3px;\r\n            font-family: monospace;\r\n        }\r\n    \u003C/style>\r\n\u003C/head>\r\n\r\n\u003Cbody>\r\n    \u003Ch1>Pub/Sub: Pipeline End-to-End Avanzado (El Sistema Completo)\u003C/h1>\r\n\r\n    \u003Cp>\u003Cstrong>Autor:\u003C/strong> \u003Ca href=\"https://www.youtube.com/@EduardoMartinezAgrelo\" target=\"_blank\">Eduardo Martínez\r\n            Agrelo\u003C/a>\u003C/p>\r\n\r\n    \u003Cp>Has llegado a la meta. A lo largo de este curso hemos explorado piezas individuales de Google Cloud Pub/Sub, pero\r\n        en el mundo real, estas piezas trabajan juntas en un ecosistema complejo. En este laboratorio final, uniremos\r\n        todo lo aprendido para construir un \u003Cstrong>Pipeline de Telemetría Empresarial\u003C/strong> capaz de procesar,\r\n        filtrar, almacenar y gestionar errores de forma automática.\u003C/p>\r\n\r\n    \u003Ch2>La Arquitectura Híbrida\u003C/h2>\r\n\r\n    \u003Cp>Nuestro sistema final implementa un flujo de datos que satisface múltiples necesidades de negocio de forma\r\n        simultánea utilizando el patrón Fan-Out:\u003C/p>\r\n    \u003Cul>\r\n        \u003Cli>\u003Cstrong>Rama Analítica (Analítica en Tiempo Real):\u003C/strong> Todo el flujo de datos se ingesta nativamente en\r\n            BigQuery (Zero-Code) para auditoría y BI.\u003C/li>\r\n        \u003Cli>\u003Cstrong>Rama Operativa (Detección de Anomalías):\u003C/strong> Un filtro avanzado selecciona solo los mensajes\r\n            críticos (Alertas) para que un consumidor en Python los procese.\u003C/li>\r\n        \u003Cli>\u003Cstrong>Rama de Persistencia:\u003C/strong> Las alertas procesadas se guardan como archivos históricos en un\r\n            Bucket de Cloud Storage.\u003C/li>\r\n    \u003C/ul>\r\n\r\n    \u003Ch2>Resiliencia Extrema: DLQ e IAM\u003C/h2>\r\n\r\n    \u003Cp>Ninguna arquitectura profesional está completa sin una estrategia de recuperación. En este proyecto final,\r\n        reforzamos la robustez mediante la implementación de una \u003Cstrong>Dead Letter Queue (DLQ)\u003C/strong> conectada a la\r\n        suscripción de alertas. Mediante Terraform, orquestaremos no solo los recursos, sino también las políticas de\r\n        IAM necesarias para que Pub/Sub tenga la autonomía de mover mensajes fallidos a una zona de seguridad sin\r\n        intervención humana.\u003C/p>\r\n\r\n    \u003Ch2>Orquestación con Terraform\u003C/h2>\r\n\r\n    \u003Cp>El poder de este laboratorio reside en su reproducibilidad. En lugar de configurar decenas de componentes\r\n        manualmente, utilizaremos un único despliegue declarativo. Definiremos:\u003C/p>\r\n    \u003Cp>\u003Ccode>resource \"google_pubsub_subscription\" \"alerts\" { ... filter = \"...\" dead_letter_policy { ... } }\u003C/code>\u003C/p>\r\n    \u003Cp>Esta capacidad de levantar una infraestructura compleja en segundos es lo que diferencia a un Data Engineer\r\n        senior de uno junior, permitiendo que el sistema sea escalable y fácil de mantener.\u003C/p>\r\n\r\n    \u003Ch2>Implementación práctica: El Examen Final\u003C/h2>\r\n\r\n    \u003Cp>Ejecutaremos un simulador de flota IoT que envía telemetría de temperatura. Observaremos el comportamiento del\r\n        sistema ante diferentes escenarios: mensajes normales fluyendo hacia BigQuery, alertas críticas disparando\r\n        procesos de guardado en Cloud Storage y, lo más importante, simularemos fallos de código para ver cómo los\r\n        mensajes problemáticos terminan en nuestra DLQ. Verás cómo todas las piezas del puzzle encajan para formar una\r\n        solución de arquitectura en la nube coherente y profesional.\u003C/p>\r\n\r\n    \u003Ch2>Conclusión: Tu futuro como Arquitecto de Datos\u003C/h2>\r\n    \u003Cp>Felicidades. Has pasado de publicar un simple mensaje a diseñar un sistema distribuido completo. Dominar Pub/Sub\r\n        es dominar la columna vertebral de Google Cloud. Con este proyecto en tu portfolio, estás listo para enfrentar\r\n        retos reales de ingeniería de datos y arquitectura cloud. ¡Sigue construyendo!\u003C/p>\r\n\u003C/body>\r\n\r\n\u003C/html>","April 15, 2026","https://storage.googleapis.com/mp-blog/images/curso-gcp-pub-sub-08.jpg",[8,14,19,24],{"id":9,"title":10,"description":11,"image":12,"date":13},"curso-gcp-apache-spark-01","Spark: Infraestructura como Código con Terraform | Curso Spark, Scala y Terraform","Aprende a desplegar clústeres de Big Data profesionalmente. Domina Terraform para crear infraestructura como código (IaC) en Google Cloud y automatiza tu entorno de Dataproc para Spark.","https://storage.googleapis.com/mp-blog/images/curso-gcp-apache-spark-01.jpg","March 12, 2026",{"id":15,"title":16,"description":17,"image":18,"date":13},"curso-gcp-apache-spark-02","Spark: Ingesta (Raw to Bronze) y Formatos Columnares | Curso Spark, Scala y Terraform","Domina la ingesta de datos con Spark. Aprende a convertir JSONs pesados en formato Parquet, optimiza tu almacenamiento en un 85% y domina los esquemas estrictos con Scala.","https://storage.googleapis.com/mp-blog/images/curso-gcp-apache-spark-02.jpg",{"id":20,"title":21,"description":22,"image":23,"date":13},"curso-gcp-apache-spark-03","Spark: Limpieza y Calidad (Bronze to Silver) | Curso Spark, Scala y Terraform","Domina la limpieza de datos en Spark. Aprende a usar Scala para implementar la capa Silver (Plata) de tu arquitectura Medallón, utilizando Case Classes para mayor seguridad.","https://storage.googleapis.com/mp-blog/images/curso-gcp-apache-spark-03.jpg",{"id":25,"title":26,"description":27,"image":28,"date":13},"curso-gcp-apache-spark-04","Spark: Analítica Avanzada (Silver to Gold) | Curso Spark, Scala y Terraform","Domina el Análisis Avanzado con Spark. Aprende a calcular métricas de negocio con Window Functions y a extraer el Top 3 de canciones por país y día para tu capa Gold.","https://storage.googleapis.com/mp-blog/images/curso-gcp-apache-spark-04.jpg",1776363704326]