Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Lancement Futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Trading démo
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Luma déploie Uni-1, son premier modèle intégrant le raisonnement et la génération d'images
En Bref
Luma a dévoilé Uni-1, son premier modèle combinant raisonnement et génération d’images dans une seule architecture — un changement majeur par rapport aux racines de la startup axée sur la vidéo.
La startup de génération vidéo par IA Luma a présenté Uni-1, son premier modèle intégrant raisonnement et génération d’images dans une architecture unique, marquant une évolution stratégique par rapport à l’orientation précédente vers le contenu vidéo.
Selon l’entreprise, au cours des trois dernières années, le travail de Luma a évolué du reconstruction de scènes à la génération 3D et à la mise à l’échelle de la diffusion vidéo, mais les médias visuels seuls ont des limites sans compréhension intégrée. Uni-1 est positionné comme le premier modèle unifié de la société, conçu pour combiner capacités de raisonnement et de génération, afin de faire progresser l’intelligence multimodale générale.
Luma décrit l’intelligence générale comme la capacité à raisonner, imaginer, manipuler des symboles et simuler des environnements. Alors que les systèmes d’IA existants peuvent effectuer ces fonctions séparément, Uni-1 cherche à les combiner dans un seul cadre, modélisant le temps, l’espace et la logique ensemble pour permettre une résolution de problèmes que les pipelines segmentés traditionnels ne peuvent pas réaliser.
Le modèle est construit comme un transformeur autoregressif à décodeur seul, représentant le texte et les images dans une séquence intercalée qui sert à la fois d’entrée et de sortie. Uni-1 est capable de réaliser un raisonnement interne structuré, décomposer des instructions, résoudre des contraintes, planifier la composition et rendre des images en conséquence.
Uni-1 démontre la capacité à « penser en langage et imaginer et rendre en pixels », une capacité décrite par Luma comme « l’intelligence en pixels ». Des sorties supplémentaires, notamment la génération audio et vidéo, sont attendues dans les versions suivantes. Le modèle est conçu non seulement comme un outil, mais comme une plateforme qui transforme la façon dont les entreprises opèrent en intégrant le raisonnement directement dans les flux créatifs.
Les agents Luma étendent l’intelligence unifiée
S’appuyant sur Uni-1, Luma a récemment lancé les Agents Luma, une suite d’outils pilotés par IA conçus pour gérer la production créative de bout en bout dans le texte, l’image, la vidéo et l’audio. Les agents fonctionnent en utilisant la famille de modèles d’Intelligence Unifiée de Luma, entraînés sur un seul système de raisonnement multimodal. Luma présente ces agents comme une solution pour les agences de publicité, les équipes marketing, les studios de design et les clients d’entreprise, offrant une génération créative coordonnée à travers plusieurs modalités.
Les Agents Luma sont compatibles avec d’autres modèles d’IA, notamment Ray 3.14 de Luma, Veo 3 et Nano Banana Pro de Google, Seedream de ByteDance, et les outils de génération vocale d’ElevenLabs. Selon Amit Jain, PDG et co-fondateur de Luma, ces agents tirent parti de l’architecture intégrée d’Uni-1, qui a été entraînée sur l’audio, la vidéo, l’image, le langage et le raisonnement spatial, leur permettant de planifier, exécuter et générer du contenu dans un flux de travail coordonné et intelligent.