Uni-1 est le premier modèle de Luma à fusionner __compréhension__ et __génération d'images__ dans une même architecture autoregressive. Au lieu de partir d'un bruit aléatoire et de le débruiter, Uni-1 prédit ses pixels token après token, comme un grand modèle de langage. Résultat : un modèle qui __raisonne__ pendant qu'il dessine, gère mieux la cohérence spatiale, le respect des références et la __scène culturelle__ des prompts. Il alimente aussi les Luma Agents, plateforme agentique créative pour text, image, vidéo et audio.
Qu'est-ce que Luma Uni-1 ?
Uni-1 est un modèle multimodal de raisonnement capable de générer des pixels. Il est issu de l'approche que Luma appelle Unified Intelligence, qui consiste à fusionner compréhension et génération dans un seul réseau plutôt que de cumuler deux pipelines séparés. Concrètement, Uni-1 alimente l'expérience publique sur lumalabs.ai et est exposé via une API en accès progressif. Il sert également de base à Luma Agents, plateforme agentique créative annoncée plus tôt en 2026.
Fonctionnalités principales
Uni-1 affiche des performances de premier plan : il dépasse Nano Banana 2 et GPT Image 1.5 sur les benchmarks de raisonnement, talonne Gemini 3 Pro sur la détection d'objets et obtient la première place en préférence humaine pour Overall, Style & Editing et Reference-Based Generation. Le modèle excelle en complétion de scène basée sur le bon sens, en raisonnement spatial et en transformations plausibles. Il gère aussi très bien les images de référence : on peut le piloter en lui fournissant jusqu'à huit références pour guider style, personnage et composition. Côté culture, Uni-1 a été pensé pour générer des visuels culturellement situés, qu'il s'agisse de memes, de manga ou d'esthétiques régionales. Côté pricing API, il facture 0,50 $/M tokens texte en entrée, 1,20 $/M tokens image en entrée, 3,00 $/M tokens texte en sortie et 45,45 $/M tokens image en sortie, ce qui aboutit à environ 0,09 $ par image en 2K.
Cas d'usage
Uni-1 cible un large spectre de cas d'usage. Les designers s'en servent pour produire des visuels marketing, des illustrations d'articles ou des concepts créatifs avec un excellent niveau de finition. Les studios créatifs apprécient la cohérence des personnages d'une scène à l'autre, ce qui en fait un bon candidat pour le storyboarding et le branding. Les développeurs intègrent Uni-1 dans leurs propres applications via l'API pour générer des assets à la volée, comme des images de produit personnalisées. Les artistes l'utilisent pour explorer les possibilités de l'art génératif multimodal et tester des compositions complexes.
Avantages
Le premier bénéfice d'Uni-1 est qualitatif : son architecture autoregressive lui permet de mieux comprendre le prompt et de produire des images plus cohérentes spatialement. Le second est financier : 10 à 30 % moins cher que Nano Banana 2 à 2K, c'est significatif pour des productions à grande échelle. Le troisième est créatif : la précision sur les références et la sensibilité culturelle ouvrent des cas d'usage éditing avancés. Le quatrième est stratégique : Luma propose une alternative à l'écosystème Google et OpenAI, avec une roadmap multimodale ambitieuse via Luma Agents.
Tarifs
Le modèle est accessible gratuitement sur lumalabs.ai dans la limite des crédits Dream Machine offerts. L'API est tarifée à la consommation : environ 0,09 $ par image text-to-image 2K, 0,093 $ avec une référence, 0,11 $ avec huit références. Les abonnements Dream Machine permettent de bénéficier de crédits récurrents pour un coût mensuel, à choisir selon le volume de production.
Conclusion
Uni-1 est l'un des modèles les plus convaincants sortis en 2026. Sa combinaison de raisonnement et de génération en fait un outil rare qui change la donne pour les designers et les studios. Avec sa tarification compétitive et son intégration dans la suite Luma, il a tous les arguments pour devenir une référence.
Points forts
- Architecture autoregressive unifiée pour raisonner et générer
- 1ère place en préférence humaine sur Style & Editing et Référence
- Tarification API jusqu’à 30 % moins chère que Nano Banana Pro
- Excellente cohérence spatiale et respect des consignes
- Génération culture-aware : memes, manga, esthétiques variées
- Disponible gratuitement sur lumalabs.ai pour tester
Limites
- Accès API ouvert progressivement, via waitlist
- Modèle encore jeune : peu de retours longue durée
- Pas de fine-tuning utilisateur disponible aujourd’hui
- Crédits Dream Machine consommés rapidement en 2K
- Pas (encore) de mode vidéo direct intégré
Questions fréquentes
Qu'est-ce qui rend Uni-1 différent des autres modèles d'image ?
Uni-1 utilise une architecture autoregressive : il prédit pixel par pixel comme un LLM prédit ses tokens, ce qui lui permet de raisonner en générant et d'améliorer la cohérence spatiale et la fidélité aux références.
Comment puis-je essayer Uni-1 ?
Uni-1 est accessible gratuitement sur lumalabs.ai et progressivement via API en s'inscrivant sur la waitlist.
Quelle est la tarification API de Uni-1 ?
Les prix tournent autour de 0,09 $ par image en text-to-image 2K, 0,093 $ avec une référence et 0,11 $ avec huit références, soit 10 à 30 % de moins que Nano Banana 2.
Uni-1 fait-il aussi de la vidéo ?
Non, Uni-1 est dédié à l'image, mais il alimente Luma Agents qui orchestrent images, vidéos et audio.
Le modèle est-il bon pour les portraits et personnages ?
Oui. Uni-1 est particulièrement performant en éditing de référence et fidélité au personnage, avec des contrôles via images sources.