El evento Google I/O se lleva a cabo anualmente desde el 28 de mayo de 2008.
Inicialmente conocido como «Google Developer Day», evolucionó hasta convertirse en el Google I/O. La «I» y la «O» hacen referencia a «Input/Output» (entrada/salida), un concepto fundamental en informática, y también se asocia con el lema «Innovation in the Open» (Innovación en lo Abierto).
A lo largo de los años, el Google I/O se ha consolidado como la principal conferencia de desarrolladores de Google, donde se presentan las últimas novedades en sus productos, plataformas y tecnologías, abarcando áreas como Android, Chrome, inteligencia artificial, servicios web y muchas otras.
El Google I/O 2025 fue la conferencia anual de desarrolladores organizada por Google, en la que se mostraron y explicaron sus últimas innovaciones, desde avances en inteligencia artificial como Gemini y sus modelos asociados (Pro y Ultra), hasta las novedades en plataformas como Android XR para realidad extendida y las futuras iteraciones de herramientas como Google Search con su «Modo IA», demostrando la importancia de la comunidad de desarrolladores, las nuevas APIs, herramientas; debatiéndose las tendencias tecnológicas fijadas o a fijar como pauta del futuro digital.
Presentaciones
- Google Beam: Videollamadas 3D con IA
- Gemini 2.5 Pro y Ultra: La IA de Google al máximo nivel
- Google Search con Modo IA: Una nueva forma de buscar
- Flow: Cine con IA
- Android XR: El futuro de la realidad extendida
- Gemini Live y Project Astra
- Imagen 4 y Veo 3: Generación de imágenes y videos con IA
- Jules: El agente de codificación autónomo
Google Beam: Telepresencia 3D que acorta distancias
Google Beam nos presentó una visión futurista de la comunicación interpersonal, trascendiendo la pantalla bidimensional hacia una experiencia tridimensional inmersiva.
La tecnología, basada en un complejo sistema de cámaras e inteligencia artificial, reconstruye la imagen del interlocutor con una profundidad sorprendente, creando una sensación de presencia física compartida sin necesidad de engorrosas gafas de realidad virtual.
La IA juega un papel crucial en la fusión de las múltiples perspectivas de vídeo, ofreciendo una representación dinámica que se adapta a los movimientos del usuario. La promesa de integración de traducción de voz en tiempo real subraya el potencial de Beam para derribar barreras comunicativas globales.
Con una colaboración inicial con HP, esta tecnología anticipa una transformación en la colaboración remota, la telemedicina y la interacción social digital, marcando un hito en la búsqueda de una comunicación más natural y espacialmente rica.
URL del video: https://starline.google/
Punto para reflexionar: Básicamente permitirá mejorar nuestra comunicación con la otra u otras partes tanto en lo visual como en lo auditivo. ¿Impulsará el cambio a que todos abran cámaras durante sus sesiones online? ¿Cómo irán evolucionando las empresas en lo que refiere al hardware y software que necesitará esta nueva tecnología, en cuanto a su costo y conocimiento previo? ¿Es de suponer que esta tecnología deberá abarcar a todos los dispositivos de uso cotidiano? ¿Esta nueva tecnología es inclusiva, pudiendo atender las necesidades de personas con disminución visual y auditiva?
Gemini 2.5 Pro y Ultra: La Inteligencia Artificial de Google en su punto más alto
La presentación de Gemini 2.5 Pro y Ultra marcó un salto cualitativo en las capacidades de los modelos de IA multimodal de Google.
Gemini 2.5 Pro se distingue por su avanzado razonamiento, demostrando solvencia en tareas complejas que abarcan la codificación y el análisis científico. Su capacidad para procesar extensos contextos de información, superando el millón de tokens, lo posiciona como una herramienta excepcional para la comprensión y manipulación de grandes conjuntos de datos. Las innovaciones como Deep Research y Veo 2 amplifican su potencial para generar insights y contenido de alta calidad.
Gemini 2.5 Ultra, por su parte, representa la potencia de Google en IA, ofreciendo un rendimiento superior en el procesamiento y generación de diversas modalidades de información, incluyendo texto, audio, imágenes y video, con aplicaciones que van desde la creación de código hasta la generación de gráficos, accesible a través de la API de Gemini y Google AI Studio.
URL del video: https://developers.googleblog.com/en/google-io-2025-developer-keynote-recap/
Punto para reflexionar: Actualmente cuento con el modelo “Gemini 2.5 Pro (Preview)” que básicamente indica que es una versión preliminar del modelo y puesta a disposición de cierta población, para poder realizar pruebas y recopilación de retroalimentación antes de su lanzamiento público general. La versión “Preview” no incluye todas las funcionalidades que tendrá la versión final y probablemente puede estar experimentando cierta inestabilidad mientras Google continúa afinando el modelo basándose en el uso temprano. Según lo comunicado, para junio de 2025 se espera su disponibilidad general. En cuanto al modelo “Gemini 2.5 Ultra” no está claramente definido su despliegue pero se anticipó que podría estar siguiendo un cronograma similar al de “Gemini 2.5 Pro”. Habrá que estar muy atentos.
Google Search con Modo IA: La búsqueda reinventada por la Inteligencia Artificial
El «Modo IA» en Google Search representa una redefinición fundamental de la experiencia de búsqueda en línea. Impulsado por la robustez de Gemini 2.5, transforma la tradicional lista de enlaces en una interacción más conversacional y contextualmente rica.
La IA genera resúmenes informativos y coherentes, sintetizando conocimiento de diversas fuentes para ofrecer respuestas directas a consultas complejas. La capacidad de formular preguntas de seguimiento y mantener el hilo de la conversación permite una exploración más profunda y personalizada de la información.
La integración de capacidades multimodales, como la búsqueda a través de imágenes con Google Lens, amplía la versatilidad de la herramienta. Aunque su despliegue inicial se limita a ciertos usuarios y regiones, el Modo IA anticipa una forma más intuitiva y eficiente de acceder y comprender la vasta cantidad de información disponible en la web.
URL del video: https://blog.google/technology/ai/io-2025-keynote/
Punto para reflexionar: Google ha logrado integrar (y no me imagino lo que se vendrá y se esté probando en estos momentos en sus laboratorios super confidenciales) a la IA en su motor de búsqueda transformando la clásica respuesta o devolución, si se quiere, que nos daba. En el modelo tradicional nos presentaba una lista de enlaces relevantes, mientras que ahora con la IA, logra comprender mejor la intención detrás de cada una de las consultas que hacemos y puede sintetizar la información de múltiples fuentes, generar respuestas directas y resumidas, y permitir de esa forma que podamos interactuar de manera más fluída. Sintéticamente representa una reinvención del proceso tradicional de buscar información en la web.
Flow: La Inteligencia Artificial como impulsor y facilitador en la creatividad audiovisual
Flow se presenta como una plataforma innovadora que democratiza la creación de contenido audiovisual mediante la integración de los modelos de IA Imagen 4 y Veo 3.
Esta herramienta permite a los usuarios generar clips, escenas y narrativas visuales con una barrera de entrada significativamente reducida. Ofreciendo la flexibilidad de utilizar recursos propios o generar contenido completamente nuevo con IA, Flow también incorpora funcionalidades de edición avanzadas y control de cámara virtual.
Su accesibilidad a través de los planes Google AI Pro y Ultra apunta a un amplio espectro de usuarios, desde aficionados hasta profesionales del sector.
La visión de Flow radica en empoderar a los creadores, permitiéndoles materializar sus ideas cinematográficas sin la necesidad de extensos conocimientos técnicos o costosos equipos de producción.
Este artículo de India Today, un medio de noticias de tecnología, ofrece una perspectiva informativa sobre el lanzamiento de Flow en Google I/O 2025. Describe las características de Flow, su enfoque en la creación de video cinematográfico y la colaboración de Google con Hollywood.
Punto para reflexionar: ¿Estaremos en presencia de una sub-revolución en la que no será necesario montar un gran proyecto cinematográfico o audiovisual bajo el modelo tradicional? ¿Los roles involucrados de este tipo de modelo serán reemplazados por la IA? ¿El negocio se deberá reconvertir así como lo hizo muchos años atrás cuando la primera plataforma de videos por internet reemplazó a una gran cadena de alquiler de videos?
Android XR: El futuro inmersivo de la Realidad Extendida en Android
Android XR emerge como el marco de Google para la próxima generación de experiencias de realidad extendida (XR), abarcando tanto la realidad aumentada (AR) como la realidad virtual (VR).
Esta plataforma unifica software, hardware e inteligencia artificial, con Gemini como motor para la comprensión e interacción con los entornos físico y digital. Android XR facilita transiciones fluidas entre AR y VR, permitiendo una variedad de aplicaciones, desde la productividad personal hasta la colaboración inmersiva.
El énfasis en interacciones naturales, como la voz, el seguimiento ocular y los gestos, busca una integración intuitiva de la tecnología en la vida cotidiana y/o laboral.
URL del video: https://developers.googleblog.com/en/google-io-2025-developer-keynote-recap/
Punto para reflexionar: Indudablemente estamos en presencia de un factor disruptivo para múltiples industrias, ¿Impulsará Android XR la adopción masiva de experiencias inmersivas y contextuales en el ecosistema Android? Hace un tiempo me invitaron a participar de una experiencia del tipo inmersiva usando ciertos equipos para realizar ensayos de AR y VR, y realmente fue fantástica y super aprovechable para chequear resultados obtenidos contra resultados esperados.
Gemini Live y el Proyecto Astra: La Inteligencia Artificial como asistente integral
Gemini Live y el Proyecto Astra representan la ambición de Google de crear un asistente de IA verdaderamente universal, capaz de comprender y responder al mundo en tiempo real a través de múltiples modalidades sensoriales.
El Proyecto Astra sirve como banco de pruebas para las capacidades de visión por computadora que se integrarán en Gemini Live y otras plataformas. Gemini Live incorpora la capacidad de procesar video en vivo y pantallas compartidas, permitiendo la identificación de objetos, la respuesta a preguntas sobre el entorno visual y la asistencia contextual.
Esta integración busca una interacción más fluida y natural con la IA, con aplicaciones potenciales que van desde la ayuda cotidiana hasta el soporte para personas con discapacidades visuales, con la mirada puesta en futuras implementaciones.
URL del video: https://blog.google/technology/ai/io-2025-keynote/
Punto para reflexionar: Probablemente con este punto podamos tener una respuesta a uno de los planteos que me hice en relación con Google Beam.
Imagen 4 y Veo 3: La evolución de la generación de contenido con IA
Imagen 4 y Veo 3 son los modelos de inteligencia artificial de Google para la generación de imágenes y videos de última generación.
Imagen 4 introduce mejoras significativas en la calidad, la representación textual y la eficiencia, permitiendo la creación de imágenes de alta fidelidad en diversas resoluciones. Su integración en Gemini y otras plataformas amplía su accesibilidad para la creación de contenido visual.
Veo 3, por su parte, revoluciona la generación de video al incorporar sonido nativo, sincronización labial y una simulación más precisa de la física del mundo real.
Su disponibilidad para suscriptores de Google AI Ultra y usuarios empresariales subraya su potencial para transformar la producción de contenido multimedia.
URL del video: https://blog.google/technology/ai/generative-media-models-io-2025/#imagen-4
Esta publicación oficial del blog de Google anuncia el lanzamiento de Imagen 4 y Veo 3 en Google I/O 2025. Detalla las características y capacidades clave de ambos modelos, incluyendo el realismo mejorado, el manejo de texto para Imagen 4 y la generación de audio para Veo 3. También menciona su integración en varios productos de Google.
Punto para reflexionar: Para todos aquellos interesados en esta área de conocimiento y que utilicen productos de Google, será necesario que sigan las novedades que se proponen en Imagen 4 y Veo 3 para poder comprender el alcance del punto relacionado con Flow y su implementación.
Jules: El Agente autónomo de codificación impulsado por IA
Jules se presenta como un agente de codificación autónomo diseñado para optimizar y transformar el flujo de trabajo de los desarrolladores de software.
A diferencia de las herramientas de asistencia tradicionales, Jules opera de forma independiente, analizando código, comprendiendo la intención del desarrollador y ejecutando tareas complejas como la escritura de pruebas, la implementación de nuevas funcionalidades y la corrección de errores.
Su integración con repositorios de código a través de Google Cloud permite una interacción directa con los proyectos existentes. Utilizando la potencia de Gemini 2.5 Pro, Jules demuestra la capacidad de razonar sobre problemas complejos y realizar cambios en múltiples archivos, presentando sus resultados de manera transparente a través de plataformas como GitHub, con el objetivo de liberar a los desarrolladores de tareas repetitivas y permitirles enfocarse en la innovación.
URL del video: https://blog.google/technology/google-labs/jules/
Este blog oficial de Google anuncia el lanzamiento de Jules y describe sus características principales, como la integración con GitHub, la capacidad de realizar tareas de codificación de forma autónoma y la generación de resúmenes de audio de los cambios en el código.
Este artículo de India Today resume la presentación de Jules en Google I/O 2025, destacando su capacidad para automatizar tareas de codificación y su funcionamiento como un agente autónomo.
Esta es la página oficial de Jules, con información sobre cómo funciona, sus características y cómo empezar a usarlo.
Este video de YouTube muestra una demostración práctica de Jules, mostrando cómo se puede usar para realizar tareas de codificación y cómo interactúa con el usuario.