DeepSeek ajoute le mode Vision alors que les puces chinoises assurent la prise en charge du lancement

CryptoFrontier

DeepSeek, une entreprise d’intelligence artificielle basée à Hangzhou, a ajouté des capacités de reconnaissance d’images et de vidéos à son chatbot principal grâce à une nouvelle fonctionnalité de « mode de reconnaissance d’image », le rapprochant ainsi des autres grands chatbots d’IA. Le lancement coïncidait avec une étape importante dans la chaîne d’approvisionnement en puces de Chine, alors que quatre entreprises nationales de semi-conducteurs — Huawei Ascend, Cambricon, Hygon Information et Moore Threads — ont confirmé, le même jour, la prise en charge du tout nouveau modèle phare de DeepSeek, DeepSeek-V4, marquant un changement par rapport aux périodes d’adaptation qui, auparavant, s’étendaient sur plusieurs mois, typiques en dehors de l’écosystème Nvidia.

Vision de DeepSeek et expansion des modèles

DeepSeek a discrètement déployé le mode de reconnaissance d’image en même temps que deux autres modes lancés plus tôt dans le mois : « expert » et « flash ». Selon Chen Xiaokang, qui dirige l’équipe multimodale de DeepSeek, l’outil a d’abord été testé auprès d’un petit groupe d’utilisateurs, sur le site web et sur l’application mobile. Chen Deli, chercheur senior au sein de l’entreprise, a célébré le lancement avec une publication faisant référence au logo de la société : « La petite baleine peut maintenant voir ».

La fonctionnalité d’image et de vidéo est arrivée quelques jours seulement après que DeepSeek a publié un aperçu de DeepSeek-V4 et a mis les poids du modèle à disposition pour un téléchargement et une utilisation publics. V4 est structuré comme deux modèles distincts : DeepSeek-V4-Pro, avec 1,6 trillion de paramètres, conçu pour des raisonnements complexes et des workflows automatisés multi-étapes, et DeepSeek-V4-Flash, optimisé pour gérer de grands volumes de requêtes à moindre coût. Les deux modèles prennent en charge une fenêtre de contexte d’un million de jetons et utilisent une conception d’attention hybride que l’entreprise affirme réduire la puissance de calcul et les besoins en mémoire pendant l’inférence.

Les fabricants chinois de puces obtiennent un support de lancement le jour même

Ce qui a retenu l’attention de l’industrie n’était pas seulement le modèle lui-même, mais le support matériel coordonné démontré le jour de la sortie de V4. Huawei Ascend a confirmé la compatibilité avec ses puces A2, A3 et 950, l’Ascend 950 utilisant des processus de calcul fusionnés et des flux de traitement parallèles pour accélérer l’inférence pour la fois DeepSeek-V4-Pro et DeepSeek-V4-Flash. Cambricon a terminé son adaptation en utilisant le framework open-source d’inférence vLLM et a publié son code sur GitHub. Hygon Information a mené une optimisation approfondie du modèle sur sa plateforme DCU afin d’assurer une transition fluide de la sortie du modèle au déploiement. Moore Threads s’est associé à l’Académie de l’intelligence artificielle de Pékin pour exécuter V4 sur sa carte MTT S5000 en utilisant la pile logicielle FlagOS.

Ce support le jour même, sur plusieurs chipsets, représente un écart par rapport aux schémas historiques. Auparavant, le matériel en dehors de l’écosystème Nvidia nécessitait généralement des mois pour prendre en charge les nouveaux modèles majeurs. Les observateurs du secteur notent que parvenir à une compatibilité sur quatre chipsets nationaux différents le jour du lancement signale un véritable changement dans la maturité de l’infrastructure chinoise des semi-conducteurs et de l’IA.

Implications stratégiques : coûts et indépendance de la chaîne d’approvisionnement

La signification plus large du lancement de DeepSeek dépasse les réalisations techniques individuelles. En permettant à V4 de fonctionner nativement sur plusieurs puces chinoises simultanément, DeepSeek réduit le risque de dépendance aux restrictions d’exportation qui, historiquement, ont empêché les entreprises chinoises d’accéder aux processeurs américains les plus avancés. L’efficacité des coûts reste au cœur de la stratégie de DeepSeek — l’entreprise a donné la priorité à la réduction des coûts de fonctionnement du modèle, permettant aux entreprises de construire des systèmes automatisés sans dépenses de calcul prohibitifs.

Les observateurs du secteur décrivent cette publication comme le reflet de la maturation d’une chaîne d’approvisionnement entière plutôt que d’une seule percée technologique. La coordination entre DeepSeek, les fabricants de puces et les frameworks logiciels montre un développement d’écosystème intégré. Cette trajectoire suggère que le paysage concurrentiel de l’IA évolue : l’accent se déplace d’une sophistication de modèle individuelle vers la capacité à maintenir, sur le long terme, des systèmes complets, rentables et indépendants.

FAQ

Quelles nouvelles capacités DeepSeek a-t-il ajoutées à son chatbot ?
DeepSeek a ajouté un « mode de reconnaissance d’image » qui permet à son chatbot de comprendre des photos et des vidéos, et pas seulement du texte. Cette fonctionnalité a d’abord été testée auprès d’un petit groupe d’utilisateurs, à la fois sur le site web et sur l’application mobile, ce qui place les capacités de DeepSeek en ligne avec celles d’autres grands chatbots d’IA offrant des capacités similaires.

Quelles entreprises chinoises de puces ont pris en charge DeepSeek-V4 le jour du lancement ?
Quatre entreprises chinoises de puces ont confirmé la prise en charge le jour même de DeepSeek-V4 : Huawei Ascend (avec les puces A2, A3 et 950), Cambricon, Hygon Information et Moore Threads. Cette compatibilité le jour même sur plusieurs chipsets était auparavant rare en dehors de l’écosystème Nvidia, nécessitant généralement des mois de travail d’adaptation.

Quelles sont les deux versions de DeepSeek-V4 et en quoi diffèrent-elles ?
DeepSeek-V4-Pro présente 1,6 trillion de paramètres et est conçu pour des raisonnements complexes et des workflows automatisés multi-étapes, tandis que DeepSeek-V4-Flash est optimisé pour gérer de grands volumes de requêtes à moindre coût. Les deux prennent en charge une fenêtre de contexte d’un million de jetons et utilisent une conception d’attention hybride pour réduire les besoins en puissance de calcul et en mémoire.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
RugProofRitavip
· Il y a 22m
Je viens d'essayer la reconnaissance d'images, la compréhension du chinois est en effet meilleure que celle d'une certaine entreprise.
Voir l'originalRépondre0
ybaservip
· Il y a 1h
Tiens bon HODL💎 Tiens bon HODL💎
Voir l'originalRépondre0
GateUser-0b71fc11vip
· Il y a 2h
De texte pur à multimodal, un semestre pour parcourir le chemin de deux ans des autres
Voir l'originalRépondre0
MirrorBallGazingAtTheSkyvip
· Il y a 2h
Ne vous contentez pas de vous vanter, le problème des hallucinations de RAG est-il résolu ?
Voir l'originalRépondre0
GateUser-ced0257avip
· Il y a 2h
Reconnaissance vidéo ? Demandez une évaluation de la stabilité dans des scénarios complexes
Voir l'originalRépondre0
GateUser-8f9ccfecvip
· Il y a 2h
Cette date de publication est bien choisie, elle coïncide parfaitement avec le sujet brûlant des puces.
Voir l'originalRépondre0
GateUser-cb789e81vip
· Il y a 2h
Réduire les coûts, c'est la véritable compétence, attendre le prix de l'API
Voir l'originalRépondre0
GasFeeAnxietyvip
· Il y a 2h
Dernière question : quand sera-t-il ouvert aux utilisateurs gratuits ?
Voir l'originalRépondre0
GateUser-f78f1f3evip
· Il y a 2h
Jalons de puce + mise à niveau des fonctionnalités, une double bonne nouvelle ?
Voir l'originalRépondre0
GateUser-06596f3bvip
· Il y a 2h
La piste multimodale n'a pas cette fonctionnalité pour le moment, désolé de partir.
Voir l'originalRépondre0
Afficher plus