[{"data":1,"prerenderedAt":29},["ShallowReactive",2],{"article-data-curso-gcp-google-adk-18":3},{"content":4,"date":5,"image":6,"sideArticles":7},"\u003C!DOCTYPE html>\r\n\u003Chtml lang=\"es\">\r\n\r\n\u003Chead>\r\n    \u003Cmeta charset=\"UTF-8\">\r\n    \u003Cmeta name=\"viewport\" content=\"width=device-width, initial-scale=1.0\">\r\n    \u003Cmeta name=\"description\"\r\n        content=\"Laboratorio 18: Aprende a conectar tus agentes con BigQuery usando el SDK oficial de Google Cloud. Domina la gestión de secretos y el Runtime local de agents-cli.\">\r\n    \u003Cmeta name=\"keywords\"\r\n        content=\"BigQuery, Google Cloud, agents-cli, ADC, variables de entorno, Data Analysis, Python, IA, Cloud SDK\">\r\n    \u003Cmeta name=\"author\" content=\"Eduardo Martínez Agrelo\">\r\n    \u003Ctitle>BigQuery y Gestión de Secretos | Curso Agentes IA\u003C/title>\r\n    \u003Cstyle>\r\n        body {\r\n            font-family: sans-serif;\r\n            line-height: 1.6;\r\n        }\r\n\r\n        h1,\r\n        h2,\r\n        h3 {\r\n            color: #333;\r\n        }\r\n\r\n        ul {\r\n            list-style-type: disc;\r\n            margin-left: 20px;\r\n        }\r\n\r\n        code {\r\n            background-color: #f4f4f4;\r\n            padding: 2px 5px;\r\n            border-radius: 3px;\r\n            font-family: monospace;\r\n        }\r\n    \u003C/style>\r\n\u003C/head>\r\n\r\n\u003Cbody>\r\n    \u003Ch1>Conexión con BigQuery y Gestión de Secretos (Ecosistema GCP)\u003C/h1>\r\n\r\n    \u003Cp>\u003Cstrong>Autor:\u003C/strong> \u003Ca href=\"https://www.youtube.com/@EduardoMartinezAgrelo\" target=\"_blank\">Eduardo Martínez\r\n            Agrelo\u003C/a>\u003C/p>\r\n\r\n    \u003Cp>Un agente de IA en un entorno corporativo alcanza su máximo potencial cuando es capaz de razonar sobre los datos\r\n        reales de la organización. En este laboratorio, elevaremos la complejidad técnica conectando nuestro agente con\r\n        \u003Cstrong>Google Cloud BigQuery\u003C/strong>. Aprenderemos a gestionar el acceso a servicios de datos masivos sin\r\n        comprometer la seguridad, utilizando las mejores prácticas de Google Cloud.\r\n    \u003C/p>\r\n\r\n    \u003Ch2>IA Generativa de Datos con BigQuery\u003C/h2>\r\n\r\n    \u003Cp>BigQuery es el almacén de datos analíticos de Google Cloud, capaz de procesar petabytes de información. Al\r\n        integrar su SDK oficial, permitimos que el agente actúe como un analista de datos:\u003C/p>\r\n    \u003Cul>\r\n        \u003Cli>\u003Cstrong>Consultas en Tiempo Real:\u003C/strong> El agente puede escribir y ejecutar consultas SQL dinámicas para\r\n            responder preguntas basadas en hechos.\u003C/li>\r\n        \u003Cli>\u003Cstrong>Seguridad mediante ADC:\u003C/strong> No utilizaremos archivos de llaves JSON inseguros; aprovecharemos\r\n            las \u003Cstrong>Application Default Credentials\u003C/strong> configuradas en la terminal para una autenticación\r\n            transparente.\u003C/li>\r\n    \u003C/ul>\r\n\r\n    \u003Ch2>Portabilidad mediante Variables de Entorno\u003C/h2>\r\n\r\n    \u003Cp>Para que nuestro código sea profesional y portable entre entornos (desarrollo, testing, producción), debemos\r\n        separar la configuración de la lógica de programación:\u003C/p>\r\n    \u003Cp>\u003Ccode>project_id = os.getenv(\"GCP_PROJECT_ID\")\u003C/code>\u003C/p>\r\n    \u003Cul>\r\n        \u003Cli>\u003Cstrong>Archivo .env:\u003C/strong> Utilizaremos este archivo para almacenar el ID de nuestro proyecto y otros\r\n            secretos. \u003Ccode>agents-cli\u003C/code> inyectará automáticamente estos valores en el proceso del agente al\r\n            arrancar.\u003C/li>\r\n        \u003Cli>\u003Cstrong>Código Agnóstico:\u003C/strong> Al no escribir datos específicos del proyecto en el código, aseguramos\r\n            que nuestro agente pueda desplegarse en cualquier infraestructura sin modificaciones.\u003C/li>\r\n    \u003C/ul>\r\n\r\n    \u003Ch2>El Runtime Local de agents-cli\u003C/h2>\r\n\r\n    \u003Cp>El comando \u003Ccode>agents-cli run\u003C/code> no es un simple ejecutor de Python; es un entorno de simulación de\r\n        producción:\u003C/p>\r\n    \u003Cul>\r\n        \u003Cli>\u003Cstrong>Emulación de Cloud:\u003C/strong> Levanta un servidor de API local que emula el comportamiento del Agent\r\n            Engine de Google Cloud.\u003C/li>\r\n        \u003Cli>\u003Cstrong>Gestión de Contexto:\u003C/strong> Carga las dependencias del \u003Ccode>pyproject.toml\u003C/code> y asegura que\r\n            el SDK de BigQuery tenga acceso a las credenciales del sistema, permitiendo pruebas de integración reales\r\n            desde tu máquina.\u003C/li>\r\n    \u003C/ul>\r\n\r\n    \u003Ch2>Implementación práctica\u003C/h2>\r\n\r\n    \u003Cp>En este laboratorio, añadiremos la librería oficial de BigQuery a nuestro proyecto industrial. Crearemos una\r\n        herramienta que consulte un dataset público de Google Cloud para obtener estadísticas demográficas.\r\n        Configuraremos nuestro archivo \u003Ccode>.env\u003C/code> para que el CLI gestione nuestro Proyecto ID y ejecutaremos el\r\n        agente mediante el comando \u003Ccode>run\u003C/code>. Observarás cómo el agente transforma una pregunta en lenguaje\r\n        natural en una consulta SQL real, demostrando que la IA puede ser el puente perfecto entre el usuario y la Big\r\n        Data.\u003C/p>\r\n\r\n    \u003Ch2>Conclusión: Tu agente como analista de datos\u003C/h2>\r\n    \u003Cp>Has aprendido a integrar inteligencia con infraestructura de datos a escala empresarial. Ya no solo construyes\r\n        agentes que hablan, sino sistemas que informan con precisión. Con la lógica de datos funcionando, el siguiente\r\n        paso es asegurar que esta lógica sea infalible mediante la implementación de pruebas automatizadas.\u003C/p>\r\n\u003C/body>\r\n\r\n\u003C/html>","May 12, 2026","https://storage.googleapis.com/mp-blog/images/curso-gcp-google-adk-18.jpg",[8,14,19,24],{"id":9,"title":10,"description":11,"image":12,"date":13},"curso-gcp-apache-spark-01","Spark: Infraestructura como Código con Terraform | Curso Spark, Scala y Terraform","Aprende a desplegar clústeres de Big Data profesionalmente. Domina Terraform para crear infraestructura como código (IaC) en Google Cloud y automatiza tu entorno de Dataproc para Spark.","https://storage.googleapis.com/mp-blog/images/curso-gcp-apache-spark-01.jpg","March 12, 2026",{"id":15,"title":16,"description":17,"image":18,"date":13},"curso-gcp-apache-spark-02","Spark: Ingesta (Raw to Bronze) y Formatos Columnares | Curso Spark, Scala y Terraform","Domina la ingesta de datos con Spark. Aprende a convertir JSONs pesados en formato Parquet, optimiza tu almacenamiento en un 85% y domina los esquemas estrictos con Scala.","https://storage.googleapis.com/mp-blog/images/curso-gcp-apache-spark-02.jpg",{"id":20,"title":21,"description":22,"image":23,"date":13},"curso-gcp-apache-spark-03","Spark: Limpieza y Calidad (Bronze to Silver) | Curso Spark, Scala y Terraform","Domina la limpieza de datos en Spark. Aprende a usar Scala para implementar la capa Silver (Plata) de tu arquitectura Medallón, utilizando Case Classes para mayor seguridad.","https://storage.googleapis.com/mp-blog/images/curso-gcp-apache-spark-03.jpg",{"id":25,"title":26,"description":27,"image":28,"date":13},"curso-gcp-apache-spark-04","Spark: Analítica Avanzada (Silver to Gold) | Curso Spark, Scala y Terraform","Domina el Análisis Avanzado con Spark. Aprende a calcular métricas de negocio con Window Functions y a extraer el Top 3 de canciones por país y día para tu capa Gold.","https://storage.googleapis.com/mp-blog/images/curso-gcp-apache-spark-04.jpg",1778604634342]