[{"data":1,"prerenderedAt":29},["ShallowReactive",2],{"article-data-curso-gcp-pub-sub-07":3},{"content":4,"date":5,"image":6,"sideArticles":7},"\u003C!DOCTYPE html>\r\n\u003Chtml lang=\"es\">\r\n\r\n\u003Chead>\r\n    \u003Cmeta charset=\"UTF-8\">\r\n    \u003Cmeta name=\"viewport\" content=\"width=device-width, initial-scale=1.0\">\r\n    \u003Cmeta name=\"description\"\r\n        content=\"Aprende a conectar Pub/Sub con BigQuery sin escribir código. Domina la ingesta nativa (Zero-Code) para analítica en tiempo real usando Terraform y Google Cloud.\">\r\n    \u003Cmeta name=\"keywords\"\r\n        content=\"Pub/Sub, BigQuery, Zero-Code, Google Cloud, GCP, Terraform, Data Warehouse, Ingesta de Datos, Analytics\">\r\n    \u003Cmeta name=\"author\" content=\"Eduardo Martínez Agrelo\">\r\n    \u003Ctitle>Pub/Sub: Integración Nativa BigQuery | Curso Pub/Sub GCP\u003C/title>\r\n    \u003Cstyle>\r\n        body {\r\n            font-family: sans-serif;\r\n            line-height: 1.6;\r\n        }\r\n\r\n        h1,\r\n        h2,\r\n        h3 {\r\n            color: #333;\r\n        }\r\n\r\n        ul {\r\n            list-style-type: disc;\r\n            margin-left: 20px;\r\n        }\r\n\r\n        code {\r\n            background-color: #f4f4f4;\r\n            padding: 2px 5px;\r\n            border-radius: 3px;\r\n            font-family: monospace;\r\n        }\r\n    \u003C/style>\r\n\u003C/head>\r\n\r\n\u003Cbody>\r\n    \u003Ch1>Pub/Sub: Integración Nativa BigQuery (El Camino del Zero-Code)\u003C/h1>\r\n\r\n    \u003Cp>\u003Cstrong>Autor:\u003C/strong> \u003Ca href=\"https://www.youtube.com/@EduardoMartinezAgrelo\" target=\"_blank\">Eduardo Martínez\r\n            Agrelo\u003C/a>\u003C/p>\r\n\r\n    \u003Cp>La mejor línea de código es la que no se escribe. En el ecosistema de Google Cloud, si tu objetivo es persistir\r\n        eventos en un Data Warehouse para su análisis, no necesitas desplegar microservicios intermedios. En este\r\n        laboratorio, exploraremos la \u003Cstrong>Suscripción a BigQuery\u003C/strong>, una funcionalidad nativa que elimina la\r\n        fricción entre la mensajería y la analítica.\u003C/p>\r\n\r\n    \u003Ch2>¿Qué es la Ingesta Zero-Code?\u003C/h2>\r\n\r\n    \u003Cp>Tradicionalmente, para mover datos de Pub/Sub a BigQuery necesitábamos un proceso intermedio (como una Cloud\r\n        Function o un Job de Dataflow) que leyera el mensaje y lo insertara en la tabla. Con la integración nativa,\r\n        Google Cloud gestiona toda esa \"fontanería\" por nosotros:\u003C/p>\r\n    \u003Cul>\r\n        \u003Cli>\u003Cstrong>Menor Coste:\u003C/strong> Al eliminar servicios intermedios, reducimos la factura de computación.\u003C/li>\r\n        \u003Cli>\u003Cstrong>Menos Mantenimiento:\u003C/strong> No hay código que actualizar, parchear ni monitorizar.\u003C/li>\r\n        \u003Cli>\u003Cstrong>Escalabilidad Automática:\u003C/strong> El motor interno de GCP se encarga de escalar para procesar\r\n            gigabytes por segundo sin configuración manual.\u003C/li>\r\n    \u003C/ul>\r\n\r\n    \u003Ch2>Mapeo de Datos y Esquemas\u003C/h2>\r\n\r\n    \u003Cp>Para que la integración funcione, Pub/Sub debe entender cómo convertir un mensaje JSON en una fila de BigQuery.\r\n        Esto se logra mediante la configuración del esquema:\u003C/p>\r\n    \u003Cul>\r\n        \u003Cli>\u003Cstrong>Uso de Esquemas:\u003C/strong> Podemos definir un esquema en el Topic para validar los datos antes de que\r\n            entren.\u003C/li>\r\n        \u003Cli>\u003Cstrong>Escritura de Metadatos:\u003C/strong> Pub/Sub puede añadir automáticamente columnas adicionales como el\r\n            ID del mensaje, el timestamp de publicación y atributos, lo cual es vital para auditorías.\u003C/li>\r\n    \u003C/ul>\r\n\r\n    \u003Ch2>Configuración con Terraform\u003C/h2>\r\n\r\n    \u003Cp>La magia ocurre en la definición de la suscripción. Usaremos el bloque \u003Ccode>bigquery_config\u003C/code> dentro de\r\n        nuestro recurso de Terraform para vincular el Topic con nuestra tabla de destino:\u003C/p>\r\n    \u003Cp>\u003Ccode>table = \"proyecto.dataset.tabla\"\u003C/code>\u003C/p>\r\n    \u003Cp>Es fundamental recordar que la Service Account de Pub/Sub necesita permisos de \u003Cstrong>Data Editor\u003C/strong> en\r\n        BigQuery para poder realizar las inserciones de forma automática.\u003C/p>\r\n\r\n    \u003Ch2>Implementación práctica\u003C/h2>\r\n\r\n    \u003Cp>En este laboratorio, crearemos un Dataset y una Tabla en BigQuery con un esquema que coincida con nuestro\r\n        simulador de sensores. Tras aplicar los cambios con Terraform, ejecutaremos nuestro productor en Python y\r\n        observaremos, directamente desde la consola de BigQuery, cómo los datos aparecen en la tabla en tiempo real\r\n        mediante simples consultas SQL. Veremos el poder de transformar eventos crudos en información estructurada al\r\n        instante.\u003C/p>\r\n\r\n    \u003Ch2>Conclusión: Simplicidad a escala empresarial\u003C/h2>\r\n    \u003Cp>Has aprendido que no siempre es necesario programar para construir pipelines potentes. Dominar las integraciones\r\n        nativas te permite centrarte en lo que realmente importa: los datos. Ahora, estamos listos para el reto final:\r\n        unificar todos los laboratorios en una arquitectura compleja y resiliente.\u003C/p>\r\n\u003C/body>\r\n\r\n\u003C/html>","April 15, 2026","https://storage.googleapis.com/mp-blog/images/curso-gcp-pub-sub-07.jpg",[8,14,19,24],{"id":9,"title":10,"description":11,"image":12,"date":13},"curso-gcp-apache-spark-01","Spark: Infraestructura como Código con Terraform | Curso Spark, Scala y Terraform","Aprende a desplegar clústeres de Big Data profesionalmente. Domina Terraform para crear infraestructura como código (IaC) en Google Cloud y automatiza tu entorno de Dataproc para Spark.","https://storage.googleapis.com/mp-blog/images/curso-gcp-apache-spark-01.jpg","March 12, 2026",{"id":15,"title":16,"description":17,"image":18,"date":13},"curso-gcp-apache-spark-02","Spark: Ingesta (Raw to Bronze) y Formatos Columnares | Curso Spark, Scala y Terraform","Domina la ingesta de datos con Spark. Aprende a convertir JSONs pesados en formato Parquet, optimiza tu almacenamiento en un 85% y domina los esquemas estrictos con Scala.","https://storage.googleapis.com/mp-blog/images/curso-gcp-apache-spark-02.jpg",{"id":20,"title":21,"description":22,"image":23,"date":13},"curso-gcp-apache-spark-03","Spark: Limpieza y Calidad (Bronze to Silver) | Curso Spark, Scala y Terraform","Domina la limpieza de datos en Spark. Aprende a usar Scala para implementar la capa Silver (Plata) de tu arquitectura Medallón, utilizando Case Classes para mayor seguridad.","https://storage.googleapis.com/mp-blog/images/curso-gcp-apache-spark-03.jpg",{"id":25,"title":26,"description":27,"image":28,"date":13},"curso-gcp-apache-spark-04","Spark: Analítica Avanzada (Silver to Gold) | Curso Spark, Scala y Terraform","Domina el Análisis Avanzado con Spark. Aprende a calcular métricas de negocio con Window Functions y a extraer el Top 3 de canciones por país y día para tu capa Gold.","https://storage.googleapis.com/mp-blog/images/curso-gcp-apache-spark-04.jpg",1776363704359]