Intelligence Artificielle
Google Nano Banana : Ce qu’il faut savoir
L’IA d’édition d’images de Google vient de franchir un cap. Sous le nom de code « Google Nano Banana », Google DeepMind déploie dans l’app Gemini un nouveau modèle d’édition qui promet des retouches plus naturelles, plus cohérentes et plus contrôlables. Lancée le 26 août 2025, cette mise à jour met l’accent sur la fidélité des visages et l’édition guidée en langage naturel, accessible aux utilisateurs gratuits comme payants de Gemini, avec marquage visuel et water mark invisible SynthID pour signaler les images générées.
Qu’est-ce que Google Nano Banana ?
Avant l’annonce officielle, Nano Banana s’était fait remarquer sur des plateformes de test anonymisées, où des modèles s’affrontent à l’aveugle. La communauté a noté sa capacité à conserver l’identité d’un personnage d’une image à l’autre, à suivre des instructions complexes et à rester étonnamment stable dans la scène. C’est là que l’expression « Nano Banana » s’est imposée, portée par des clins d’œil banane dans les prompts et sur les réseaux.
Depuis, Google a confirmé l’intégration du modèle dans Gemini. Dans son billet de lancement, l’entreprise décrit un « nouveau modèle d’édition » qui améliore la cohérence de l’apparence d’une personne ou d’un animal à travers des retouches successives, tout en permettant des transformations ciblées via des instructions textuelles. L’annonce souligne aussi que le modèle s’est hissé en tête des classements d’éditeurs d’images, avant son intégration officielle.
Google Nano Banana dans Gemini , qu’est-ce qui change ?
Concrètement, Google Nano Banana apporte plusieurs nouveautés clés dans l’app Gemini. D’abord, la préservation de l’identité. Changer la coiffure, l’éclairage ou l’arrière-plan n’altère plus le « look » de la personne. C’est l’un des points faibles historiques des éditeurs d’images par IA, et c’est désormais l’axe prioritaire de ce modèle.
Ensuite, l’outil mélange plusieurs photos en une seule scène cohérente. Par exemple, combiner votre portrait et celui de votre animal pour créer un nouveau cliché partagé. Il permet aussi l’édition multi-tour. On part d’une pièce vide, on « peint » les murs, puis on ajoute un canapé ou une bibliothèque au fur et à mesure, sans dégrader les parties déjà satisfaisantes. Enfin, la transposition de style applique la texture ou la palette d’une image (comme des pétales) à un objet dans une autre. Toutes ces fonctions arrivent directement dans Gemini, sans outils tiers.
Côté responsabilité, Google précise que chaque image générée ou éditée dans Gemini comporte un watermark visible et le SynthID invisible pour l’authenticité des contenus. Cette approche rejoint la tendance de l’industrie à tracer les médias synthétiques pour limiter les confusions et faciliter la vérification.
Pourquoi « Nano Banana » fait parler ?
Dans les tests communautaires, Google Nano Banana s’est distingué par son contrôle via le langage. On décrit l’intention (« remplacer le fond par une forêt », « adoucir la lumière », « ajouter un sourire ») et le modèle effectue la retouche, sans masques ni calques. Plusieurs retours insistent sur la vitesse perçue et la cohérence d’une image à l’autre.
Sur Reddit, les réactions vont dans le même sens : « Google a vraiment relevé la barre avec Nano Banana », écrit un utilisateur, saluant la précision des détails et la capacité du modèle à révéler des éléments subtils dans une photo d’origine. Ces impressions restent subjectives, mais elles illustrent l’enthousiasme suscité par la sortie.
