25% de réduction : 500 crédits pour seulement 15 $
Back to blog
AI Video4 min read

Google Flow intègre la génération d'images et l'édition par dessin

Google Flow intègre la génération d'images et l'édition par dessin

Google a annoncé une mise à jour majeure de Flow, son outil de création et d'édition vidéo alimenté par l'IA. L'interface repensée place la génération d'images au premier plan, ajoute de nouvelles commandes d'édition et regroupe des fonctionnalités qui étaient auparavant dispersées entre plusieurs expériences Google Labs dans un espace de travail unique.

La génération d'images arrive dans Flow

Le changement principal est l'intégration de la génération d'images directement dans Flow. Les meilleures fonctionnalités des expériences de génération d'images Whisk et ImageFX de Google sont désormais intégrées à Flow, ce qui permet aux utilisateurs de générer, éditer et animer du contenu sans changer d'outil. Cette consolidation est importante car les flux de travail créatifs perdent en dynamisme chaque fois qu'un utilisateur doit exporter depuis un outil et importer dans un autre.

La génération d'images est alimentée par Nano Banana Pro, le dernier modèle d'image de Google. Il offre des contrôles de niveau professionnel, notamment la profondeur de champ ajustable, l'éclairage et l'étalonnage des couleurs. Ce sont des fonctionnalités que l'on trouve habituellement dans les logiciels de retouche photo dédiés, pas dans les outils de génération IA.

Édition vidéo par dessin

L'un des ajouts les plus intéressants est une fonctionnalité de dessin qui permet aux créateurs de dessiner des modifications directement sur les images vidéo. Au lieu de décrire un changement en texte en espérant que le modèle interprète correctement le prompt, les utilisateurs peuvent esquisser ce qu'ils veulent sur l'image elle-même. C'est une solution pratique à l'une des frustrations persistantes de l'édition par prompt : la précision spatiale.

Dire à un modèle "déplace l'objet légèrement vers la gauche" est ambigu. Dessiner exactement où l'on veut placer l'élément ne l'est pas. Ce type d'interface de manipulation directe comble le fossé entre la flexibilité de la génération IA et la précision des outils d'édition traditionnels.

Audio sur toutes les fonctionnalités

Flow prend désormais en charge l'audio sur l'ensemble de ses fonctionnalités de création et d'édition. Combiné à Veo 3.1, le dernier modèle de génération vidéo de Google, cela signifie une sortie audio plus riche, un meilleur contrôle narratif et un réalisme accru dans les vidéos générées. L'intégration audio suit une tendance plus large de l'industrie où la génération native audio-vidéo devient la norme plutôt qu'une option.

Échelle et adoption

Google a indiqué que depuis le lancement de Flow, les utilisateurs ont créé plus de 1,5 milliard d'images et de vidéos pour des projets créatifs couvrant films, clips musicaux et campagnes de produits. Ce chiffre d'adoption est significatif. Il suggère que Flow est passé du stade expérimental à une production créative active pour une large base d'utilisateurs.

Flow est également désormais disponible en tant que service supplémentaire Google pour les clients Workspace, ce qui l'ouvre à des cas d'usage en entreprise et en équipe au-delà des créateurs individuels.

La tendance de l'espace de travail unifié

Cette mise à jour reflète une tendance généralisée dans les outils créatifs IA : la consolidation. La première phase de la génération IA a produit de nombreux outils spécialisés, chacun gérant une modalité ou une étape du processus créatif. La phase actuelle consiste à combiner ces capacités dans des espaces de travail unifiés où un créateur peut passer du concept au résultat final sans quitter l'outil.

Google est bien positionné pour cela car il contrôle les modèles sous-jacents (Veo pour la vidéo, Nano Banana pour les images, Lyria pour l'audio) et peut les intégrer étroitement. Le résultat est un outil où générer une image, l'animer en vidéo et ajouter une bande-son sont des étapes du même flux de travail plutôt que des tâches séparées nécessitant des applications différentes.

Ce que cela signifie

L'ajout de contrôles professionnels comme la profondeur de champ et l'étalonnage des couleurs à un outil de génération IA mérite d'être souligné. Cela suggère que les outils créatifs IA dépassent la phase "générer et espérer" pour entrer dans une phase plus contrôlable et prête pour la production. La fonctionnalité d'édition par dessin va dans le même sens : donner aux créateurs un contrôle précis sur la sortie IA plutôt que de tout laisser à l'interprétation du prompt.

Pour quiconque travaille dans la production vidéo, le message est clair. Les outils convergent. Génération d'images, génération vidéo, génération audio et édition se regroupent dans des plateformes uniques. La question n'est plus de savoir si l'IA peut produire du contenu créatif, mais quel degré de contrôle les créateurs ont sur le résultat. Des mises à jour comme celle-ci font progresser significativement vers plus de contrôle.

Related Articles