
Google apuesta por la IA como palanca del hipercrecimiento empresarial
14 de abril de 2025
Las Vegas se ha convertido, una vez más, en el epicentro de la innovación tecnológica, con la celebración de Google Next 2025
La edición de este año del evento más destacable de Google Cloud, deslumbró por su visión audaz y sus anuncios trascendentales, colocando a la Inteligencia Artificial (IA) no solo como una herramienta, sino como el núcleo propulsor del crecimiento para empresas y desarrolladores.
Bajo el lema de Reimaginar cómo trabajamos, desarrollamos software y creamos agentes inteligentes, Google Cloud desplegó un arsenal de novedades que prometen redefinir el futuro de la computación en la nube y la manera en que interactuamos profesionalmente con la tecnología.
El mensaje fue inequívoco. Google está invirtiendo masivamente en la IA en toda su pila tecnológica, desde la infraestructura subyacente hasta los modelos de vanguardia y las plataformas de desarrollo. Este compromiso se materializa en una inversión planificada de alrededor de 75 mil millones de dólares en 2025 destinados a servidores y centros de datos, cruciales para potenciar la computación de IA y el negocio en la nube.
La magnitud de esta apuesta se reflejó en los avances presentados, que abarcan desde la séptima generación de Unidades de Procesamiento Tensorial (TPU), Ironwood, que multiplica exponencialmente el rendimiento y la eficiencia energética, hasta la red privada global de Google para empresas, Cloud WAN, optimizada para el rendimiento de las aplicaciones y con una promesa de mejora de velocidad y reducción de costes.
Estas innovaciones en la infraestructura sientan las bases para la siguiente ola de aplicaciones impulsadas por IA, capaces de procesar datos a una velocidad y escala sin precedentes.
Sngular y Google Cloud acompaña a las empresas en su camino hacia la transformación digital, ayudándolas a implementar soluciones innovadoras como las presentadas en el Google Cloud Next 2025.
Interoperabilidad y productividad, la visión de Google para agentes inteligentes en la empresa
Uno de los pilares fundamentales de Google Next 2025 fue la presentación de un ecosistema integral para la creación, despliegue y gestión de agentes de IA. La visión de Google se centra en sistemas multi-agente como el futuro de la automatización inteligente y la productividad empresarial. Para hacer realidad esta visión, se anunciaron componentes clave que buscan fomentar un entorno robusto, abierto e interoperable.
Vertex AI, la plataforma integral de Google Cloud para la IA de producción, se consolida aún más al orquestar modelos, datos y, de forma prominente, agentes. Dentro de Vertex AI, destaca el Agent Engine, un runtime gestionado de nivel empresarial diseñado para desplegar agentes de forma segura, con gestión de memoria y herramientas de evaluación. Esto proporciona a las compañías la infraestructura necesaria para llevar sus agentes de IA desde la fase de desarrollo hasta la producción con la confianza de una plataforma robusta y escalable.
Para simplificar radicalmente la construcción de estos agentes, Google presentó el Agent Development Kit (ADK). Este nuevo framework open-source en Python está diseñado para crear agentes y sistemas multi-agente sofisticados con un control granular y flexibilidad, facilitando el debugging, versionado y testing. El ADK se integra perfectamente con Vertex AI Agent Engine para despliegues gestionados o con Cloud Run para aquellos que buscan un mayor control. La apertura del ADK, con su documentación, repositorio en GitHub y guías de inicio rápido, subraya el compromiso de Google con un ecosistema de desarrollo abierto y colaborativo.
La interoperabilidad entre agentes, un aspecto crucial para la construcción de sistemas multi-agente complejos y heterogéneos, se aborda con el lanzamiento del protocolo Agent2Agent (A2A). Este nuevo protocolo abierto busca ser el estándar que permita a agentes de IA desarrollados con diferentes herramientas o por distintos proveedores comunicarse y colaborar de forma segura y estandarizada. El A2A cuenta con el apoyo de más de 50 partners y servicios, lo que augura una amplia adopción en la industria. Basado en estándares web existentes (HTTP, JSON-RPC, SSE), el protocolo se diseñó con la seguridad como principio fundamental, siendo agnóstico a la modalidad y capaz de gestionar tareas de larga duración. Su funcionalidad incluye el descubrimiento de capacidades entre agentes (Agent Card), la gestión coordinada de tareas y la negociación de formatos de salida. Es importante destacar que el A2A es complementario al Model Context Protocol (MCP), mientras que el MCP conecta un agente a sus herramientas, el A2A conecta agentes entre sí para la colaboración. La ambición de Google es que el A2A logre una adopción generalizada, convirtiéndose en el estándar de facto para la comunicación entre agentes, similar a HTTP para la web.
Para facilitar la interacción de los empleados con la información empresarial y los agentes de IA, Google presentó Agentspace, un hub empresarial que combina la potencia de la búsqueda multimodal de Google con la capacidad de acción de los agentes. Agentspace ofrece una búsqueda unificada que conecta aplicaciones empresariales populares como Drive, SharePoint, Jira, Confluence y ServiceNow, proporcionando una búsqueda multimodal centralizada. Permite a los usuarios realizar preguntas complejas, obtener resúmenes, síntesis y recomendaciones basadas en el conocimiento de la empresa, siempre respetando los permisos de acceso. Además, Agentspace permite la interacción con agentes pre-construidos por Google (como Deep Research, Idea Generation y NotebookLM Plus) o con agentes personalizados para automatizar tareas y flujos de trabajo. Construido sobre la infraestructura segura de Google Cloud, Agentspace utiliza grafos de conocimiento para personalizar la experiencia y respeta los controles de acceso. La integración de Agentspace con el navegador Chrome facilita aún más el acceso a la información empresarial y a los agentes directamente desde la barra de búsqueda.
La estrategia de Google en torno a los agentes es multifacética y busca catalizar un ecosistema interoperable al lanzar simultáneamente un framework de desarrollo open-source (ADK) y un protocolo de comunicación abierto (A2A), junto con una plataforma de despliegue gestionado (Agent Engine) y una interfaz de usuario empresarial (Agentspace). La visión es que, a medida que más desarrolladores y empresas adopten estas herramientas y estándares, el valor del ecosistema crecerá exponencialmente. Sin embargo, este nuevo paradigma también plantea desafíos en términos de gobernanza y seguridad en entornos multi-agente distribuidos.
Gemini se integra completamente en el ciclo de desarrollo software
Gemini, la familia de modelos de IA de Google, se consolida no solo como una potencia en sí misma, sino como una capacidad transversal integrada en todo el ecosistema de Google Cloud. En Google Next 2025, se destacó su evolución como un colaborador activo en todo el ciclo de vida de la aplicación, desde el desarrollo hasta la operación.
Gemini Code Assist evoluciona más allá de la simple finalización de código, introduciendo capacidades avanzadas de agente que le permiten abordar tareas de desarrollo complejas, transformándolo de una herramienta pasiva a un colaborador activo. Sus nuevas funcionalidades incluyen la integración de herramientas (Tools), permitiendo la conexión fácil a servicios externos y API (Atlassian, Sentry, Snyk) mediante el símbolo @ en el chat. Además, su disponibilidad se amplía a Android Studio para desarrollo profesional, sumándose a los ya soportados VS Code, IDEs de JetBrains, Cloud Workstations y Cloud Shell Editor. Por otro lado, la capacidad de Gemini Code Assist para interactuar en un tablero Kanban, mostrando las tareas en las que está trabajando y permitiendo la interacción con los desarrolladores, redefine la colaboración en el desarrollo de software.
En el ámbito de la gestión de la nube, Gemini Cloud Assist simplifica las tareas operativas, asistiendo a los equipos a lo largo del ciclo de vida de la aplicación. Una nueva funcionalidad destacada es troubleshooting acelerado (Investigations), que utiliza IA para analizar de forma inteligente logs, métricas, cambios de configuración y runbooks, identificando rápidamente las causas raíz de los problemas y proponiendo soluciones. La optimización de costes es otra área clave, con Gemini Cloud Assist proporcionando análisis y recomendaciones personalizadas para optimizar el gasto en la nube, identificando ineficiencias y sugiriendo mejoras en la utilización de recursos, con integración con herramientas como Cloud Hub y FinOps Hub.
Incluso en el diseño de aplicaciones, Gemini Cloud Assist se integra con Application Design Center, permitiendo describir la infraestructura deseada en lenguaje natural para generar automáticamente diagramas de arquitectura y código Terraform. La integración contextual de la asistencia de IA en múltiples servicios de Google Cloud (Storage, Observability, Firebase, Databases, Networking, Security, IAM) ofrece ayuda relevante en el contexto de la tarea que se está realizando.
La familia de modelos Gemini también se expande con Gemini 2.5 Pro, el modelo más inteligente de Google hasta la fecha, destacando por su capacidad de razonamiento avanzado. Según el ChatbotArena leader board, Gemini 2.5 Pro se posiciona como el mejor modelo del mundo. Su capacidad para simular un cubo de Rubik con dimensiones ajustables y generar simulaciones de física complejas demuestra su salto significativo en razonamiento y la producción de código interactivo robusto. Además, se anunció Gemini 2.5 Flash, un modelo de baja latencia y coste eficiente con capacidades de razonamiento integradas. Gemini 2.5 Flash permite a los usuarios controlar cuánto razona el modelo, equilibrando el rendimiento con el presupuesto. Estos modelos están disponibles en AI Studio, Vertex AI y la aplicación Gemini.
La potencia de los modelos Gemini se extiende a la generación de medios, con Veo 2 como el modelo líder en generación de video, capaz de crear videos de muchos minutos en 4K con marcas de agua SynthID. Incorpora nuevas herramientas de edición, como presets de cámara, control del primer y último plano, y dynamic inpainting y outpainting. En cuanto a la generación de audio, Lyria se presenta como la primera capacidad de un hiperescalar para transformar prompts de texto en clips de música de 30 segundos. Estas capacidades generativas de medios están disponibles en Vertex AI.
Descubre las soluciones de Inteligencia Artificial de Sngular para optimizar procesos y crear nuevas oportunidades de negocio.
Plataformas y herramientas para un desarrollo centrado en la aplicación
Google Cloud ha presentado en el Cloud Next 25 una serie de plataformas y herramientas diseñadas para abstraer la complejidad de la infraestructura y proporcionar un entorno integrado que permita a los equipos centrarse en la construcción y operación de aplicaciones de forma cohesiva.
Firebase Studio emerge como un nuevo entorno de desarrollo (IDE) con agentes basado en la nube, una evolución de Project IDX, diseñado específicamente para acelerar la creación y el despliegue de aplicaciones full-stack modernas, especialmente aquellas que integran IA. Ofrece prototipado rápido utilizando el App Prototyping agent para generar prototipos funcionales de aplicaciones web (inicialmente Next.js) a partir de descripciones en lenguaje natural, imágenes o bocetos. El entorno completo se basa en CodeOSS con asistencia de Gemini integrada, emuladores, terminal y acceso a extensiones Open VSX. Su integración nativa con servicios de Firebase y Vertex AI facilita la construcción de experiencias completas. Firebase Studio permite importar proyectos existentes (Git), crear plantillas personalizadas y desplegar en Firebase App Hosting, Cloud Run o infraestructura propia.
Google Kubernetes Engine (GKE) refuerza su posición como plataforma fundamental para ejecutar cargas de trabajo de IA a escala, con un enfoque particular orientado a generar una inferencia más eficiente. La nueva capacidad GKE Inference Gateway optimiza drásticamente el rendimiento y el coste de servir modelos de IA en GKE, logrando reducciones significativas en consumos y latencia, y aumentando el throughput mediante balanceo de carga inteligente consciente del modelo y enrutamiento dinámico. Paralelamente, Cluster Director for GKE, simplifica la gestión de grandes clústers de VMs con aceleradores (GPU/TPU) como una única entidad, facilitando el entrenamiento e inferencia a gran escala.
Cloud Run continúa siendo una pieza clave del ecosistema serverless de Google Cloud, ideal para desplegar API y backends de contenedores, incluyendo aquellos creados con Firebase Studio o que forman parte de arquitecturas de agentes. Se pueden definir políticas específicas (Guardrails) para controlar su despliegue.
App Hub introduce una nueva forma de gestionar los recursos de Google Cloud organizándolos lógicamente en «aplicaciones» que reflejan la estructura del negocio, en lugar de gestionar recursos individuales aislados. Esto simplifica la visibilidad, el troubleshooting y la optimización de costes al proporcionar un contexto de aplicación coherente, integrándose de forma nativa con herramientas como Application Design Center y Gemini Cloud Assist.
La convergencia de estas herramientas (Firebase Studio, GKE Inference Gateway, App Hub, junto con Gemini Cloud Assist) señala un cambio fundamental en la gestión de la nube, desplazándose desde la configuración detallada de la infraestructura hacia la gestión del ciclo de vida de la aplicación como un todo. Esto permitirá a los equipos centrarse en el valor funcional de sus aplicaciones y adoptar tecnologías avanzadas con menor fricción operativa.
Situar a los desarrolladores en el centro del cambio
La Developer Keynote de Google Next 25 se centró en empoderar a los desarrolladores para construir la próxima generación de aplicaciones. En dicha keynote se destacaron tres áreas clave de innovación: la capacidad de construir agentes iinteligentes, el aumento de la productividad de los ingenieros de software con Code Assist y Cloud Assist, y el potencial de los modelos Gemini con su ventana de contexto masiva y soporte multimodal.
La presentación de la Agent Development Kit (ADK) demostró la simplicidad y el poder de construir agentes con instrucciones, herramientas y modelos. La capacidad de crear un agente que genera una propuesta profesional en PDF a partir de ideas y planos resalta el potencial del ADK para automatizar tareas complejas y ahorrar tiempo significativo a los desarrolladores.
Otro aspecto importante en que se profundizó fue en la creación de sistemas multi-agente utilizando el ADK y Vertex AI, mostrando cómo orquestar múltiples agentes especializados para un proceso de principio a fin. La demostración de depuración de un sistema multi-agente con Cloud Investigations resaltó las herramientas que Google proporciona para facilitar el desarrollo y mantenimiento de aplicaciones complejas asistidas por agentes. El lanzamiento del protocolo Agent2Agent (A2A) y su potencial para permitir la comunicación y colaboración entre agentes construidos en diferentes plataformas y por diferentes proveedores subraya el compromiso de Google con un ecosistema abierto e interoperable.
También se destacó la flexibilidad que Google ofrece a los desarrolladores, al permitirles utilizar Gemini en sus IDE preferidos, como Windsurf, y al brindar acceso a una amplia gama de modelos a través de Vertex AI Model Garden, incluyendo modelos de terceros como Llama 4. Esto enfatiza la elección y la apertura como principios fundamentales de la estrategia de Google Cloud para los desarrolladores.
El músculo invisible detrás de la revolución de la IA
Sustentando todas estas innovaciones se encuentra una infraestructura global robusta y segura, optimizada para las demandas de la IA.
El AI Hypercomputer de Google es un sistema de supercomputación diseñado para simplificar el despliegue de IA, mejorar el rendimiento y optimizar los costes. Soporta las mejores plataformas de hardware y unifica una pila de software y un modelo de consumo únicos, permitiendo a los usuarios utilizar el hardware que mejor se adapte a sus necesidades y realizar transiciones fluidas entre sistemas. Además de las TPU Ironwood, Google Cloud ha mejorado su portfolio de GPU con la disponibilidad de VM A4X y A4, impulsadas por las GPU GB200 y B200 Blackwell de NVIDIA, siendo el primer proveedor de nube en ofrecer ambas opciones. También se anunció que Google Cloud estará entre los primeros en ofrecer las GPU Vera Rubin de próxima generación de NVIDIA, que ofrecen un rendimiento de inferencia FP4 de hasta 15 exaflops por rack.
Para abordar las necesidades de almacenamiento intensivas en cargas de trabajo de IA, se presentaron nuevas innovaciones de almacenamiento. Hyperdisk Exapools ofrecen el mayor rendimiento agregado y capacidad por clúster de IA de cualquier hiperescalador. Anywhere cache mantiene los datos cerca de los aceleradores, con una mejora de hasta el 70% en la latencia de almacenamiento para reducir el tiempo de entrenamiento. Rapid Storage, la primera solución de almacenamiento de objetos zonal de Google, ofrece una latencia cinco veces menor para lecturas y escrituras aleatorias en comparación con la alternativa de nube comparable más rápida.
En el ámbito de la seguridad, Google presentó Google Unified Security, que integra la visibilidad, detección y respuesta a amenazas en una única interfaz que abarca toda la superficie de ataque. También se anunciaron agentes de seguridad IA impulsados por Gemini que automatizan tareas críticas en Google Security Operations (triaje inteligente de alertas) y Google Threat Intelligence (análisis avanzado de malware). Además, Google anunció un acuerdo definitivo para adquirir Wiz, una plataforma líder en seguridad multi-nube, con el objetivo de proporcionar mejores alternativas de ciberseguridad para empresas y gobiernos en todo el mundo.
Los clientes también impulsan la innovación con la tecnología Google Cloud
A lo largo de Google Next 2025, se presentaron numerosos ejemplos de cómo clientes de diversos sectores están utilizando la IA de Google Cloud para impulsar la innovación y transformar sus negocios. McDonald's está integrando la IA en el núcleo de sus operaciones para mejorar la experiencia del cliente y optimizar las tareas de sus equipos. Intuit está simplificando la preparación de impuestos con Document AI, parte de Vertex AI. Honeywell ha incorporado Gemini en su desarrollo de productos para optimizar la gestión del ciclo de vida de millones de productos. Deutsche Bank ha creado DB Lumina, un agente de investigación impulsado por Gemini y Vertex AI, para mejorar la productividad y el análisis de datos en una industria altamente regulada.
En el ámbito de la atención al cliente, Reddit ha introducido Reddit Answers, una nueva forma de obtener información y recomendaciones impulsada por IA y basada en conversaciones reales de los usuarios. Lowe's está revolucionando el descubrimiento de productos con Vertex AI Search. Mercado Libre ha desplegado Vertex AI Search en millones de artículos para ayudar a sus clientes a encontrar los productos que aman más rápido. Verizon está mejorando su experiencia de cliente con la Customer Engagement Suite de Google Cloud, utilizando IA para proporcionar información personalizada a sus representantes de atención.
Las capacidades creativas de la IA de Google Cloud también están siendo aprovechadas por empresas como WPP, Monks.Flow y The Brandtech Group para revolucionar el marketing y la producción de contenido. La colaboración con Adobe para integrar Imagen 3 y Veo 2 en aplicaciones como Adobe Express promete democratizar aún más el acceso a herramientas creativas de vanguardia. La experiencia inmersiva del Wizard of Oz en la Esfera de Las Vegas, enriquecida con la IA de Google y Veo 2, ejemplifica el potencial de la IA para reimaginar el entretenimiento.
En el sector de datos, Mattel está utilizando Gemini para sintetizar millones de puntos de feedback de los consumidores y obtener insights para mejorar sus productos. Spotify utiliza BigQuery para manejar su enorme escala de datos y ofrecer experiencias personalizadas a millones de usuarios. El Nevada Department of Employment, Training and Rehabilitation está utilizando agentes impulsados por BigQuery y Vertex AI para acelerar el procesamiento de reclamaciones de desempleo.
Estos ejemplos demuestran el impacto tangible de la IA de Google Cloud en diversos sectores, impulsando la eficiencia, mejorando la experiencia del cliente, fomentando la innovación y abriendo nuevas posibilidades.
Conoce los casos de éxito de Sngular en la implementación de soluciones de IA y Cloud, entre otras, para empresas líderes.
Un futuro impulsado por la Inteligencia Artificial
Google Next 2025 dejó claro que la Inteligencia Artificial es la fuerza motriz que está dando forma al futuro de la tecnología y la transformación digital.
El compromiso de Google con la inversión en infraestructura, modelos de vanguardia, plataformas de desarrollo abiertas y un ecosistema de agentes interoperable posiciona a la compañía como un líder en esta nueva era. Además, la visión de democratizar el acceso a la IA y empoderar a desarrolladores y empresas para construir soluciones innovadoras fue el hilo conductor de un evento que promete tener un impacto duradero en la forma en que interactuamos con la tecnología y construimos el futuro digital.
La cita para la próxima edición, del 22 al 24 de abril de 2026 en Las Vegas, ya genera expectación ante las nuevas innovaciones que Google Cloud seguramente presentará.
Nuestras últimas novedades
¿Te interesa saber cómo nos adaptamos constantemente a la nueva frontera digital?

Corporate news
22 de abril de 2025
Fakeeh Care Group y Sngular se alían para impulsar la Inteligencia Artificial en el sector sanitario de Arabia Saudí

Insight
8 de abril de 2025
Privacidad en peligro, ¿qué saben de ti y cómo puedes protegerte?

Tech Insight
2 de abril de 2025
🧐 ¿Qué es Mockoon y por qué deberías usarlo?

Tech Insight
26 de marzo de 2025
Las siete fases de un ciberataque: Una mirada detallada a la Cyber Kill Chain