Google Flow incorpora generación de imágenes y edición basada en bocetos

Google anunció una actualización importante de Flow, su herramienta de creación y edición de video con IA. La interfaz rediseñada coloca la generación de imágenes en primer plano, añade nuevos controles de edición y consolida funciones que antes estaban dispersas en distintos experimentos de Google Labs en un único espacio de trabajo.
La generación de imágenes llega a Flow
El cambio principal es la integración de la generación de imágenes directamente en Flow. Las mejores capacidades de los experimentos de generación de imágenes Whisk e ImageFX de Google ahora están integradas en Flow, de modo que los usuarios pueden generar, editar y animar contenido sin cambiar de herramienta. Esta consolidación importa porque los flujos de trabajo creativos pierden impulso cada vez que un usuario tiene que exportar desde una herramienta e importar en otra.
La generación de imágenes funciona con Nano Banana Pro, el modelo de imágenes más reciente de Google. Incorpora controles de nivel profesional, como profundidad de campo ajustable, iluminación y corrección de color. Son funciones que normalmente se encuentran en software de edición fotográfica dedicado, no en herramientas de generación con IA.
Edición de video basada en bocetos
Una de las incorporaciones más interesantes es la capacidad de dibujar bocetos que permite a los creadores trazar ediciones directamente sobre los fotogramas del video. En lugar de describir un cambio con texto y esperar que el modelo interprete el prompt correctamente, los usuarios pueden dibujar lo que desean sobre el propio fotograma. Es una solución práctica a una de las frustraciones persistentes de la edición basada en prompts: la precisión espacial.
Decirle a un modelo "mueve el objeto ligeramente a la izquierda" es ambiguo. Dibujar exactamente donde lo quieres no lo es. Este tipo de interfaz de manipulación directa cierra la brecha entre la flexibilidad de la generación con IA y la precisión de las herramientas de edición tradicionales.
Audio en todas las funciones
Flow ahora admite audio en todas sus funciones de creación y edición. Combinado con Veo 3.1, el último modelo de generación de video de Google, esto significa una salida de audio más rica, mayor control narrativo y mayor realismo en el video generado. La integración de audio sigue una tendencia más amplia de la industria en la que la generación nativa de audio y video se está convirtiendo en estándar en lugar de opcional.
Escala y adopción
Google compartió que, desde el lanzamiento de Flow, los usuarios han creado más de 1.500 millones de imágenes y videos para proyectos creativos que abarcan películas, videoclips musicales y campañas de productos. Esa cifra de adopción es significativa. Sugiere que Flow ha pasado de la experimentación a la producción creativa activa para una gran base de usuarios.
Flow también está disponible ahora como servicio adicional de Google para clientes de Workspace, lo que lo abre a casos de uso empresariales y de equipo más allá de creadores individuales.
La tendencia del espacio de trabajo unificado
Esta actualización refleja un patrón en las herramientas creativas con IA: la consolidación. La fase inicial de la generación con IA produjo muchas herramientas especializadas, cada una manejando una modalidad o un paso del proceso creativo. La fase actual consiste en combinar esas capacidades en espacios de trabajo unificados donde un creador puede pasar del concepto al resultado final sin salir de la herramienta.
Google está bien posicionado para esto porque controla los modelos subyacentes (Veo para video, Nano Banana para imágenes, Lyria para audio) y puede integrarlos de forma estrecha. El resultado es una herramienta donde generar una imagen, animarla en video y añadir una banda sonora son pasos del mismo flujo de trabajo en lugar de tareas separadas que requieren aplicaciones distintas.
Lo que esto señala
La incorporación de controles de nivel profesional como la profundidad de campo y la corrección de color a una herramienta de generación con IA merece atención. Sugiere que las herramientas creativas con IA están superando la fase de "generar y esperar" para entrar en una fase más controlable y lista para producción. La función de edición con bocetos empuja en la misma dirección: dar a los creadores un control preciso sobre la salida de la IA en lugar de dejar todo a la interpretación del prompt.
Para cualquiera que trabaje en producción de video, el mensaje es claro. Las herramientas están convergiendo. Generación de imágenes, generación de video, generación de audio y edición se están fusionando en plataformas únicas. La pregunta ya no es si la IA puede producir contenido creativo, sino cuánto control tienen los creadores sobre el resultado. Actualizaciones como esta avanzan de forma significativa hacia más control.


