OpenAI nomme Emmanuel Marill, ancien dirigeant d’Airbnb, pour piloter l’expansion EMEA

Message de Gate News, 23 avril — OpenAI a nommé Emmanuel Marill, ancien dirigeant d’Airbnb, directeur général pour l’Europe, le Moyen-Orient et l’Afrique (EMEA), alors que l’entreprise s’étend dans une région de plus en plus préoccupée par la dépendance à des fournisseurs américains d’IA.

Marill a auparavant occupé des postes chez Facebook et Groupon en France. La décision intervient alors qu’OpenAI développe ses ventes aux entreprises à l’étranger, faisant l’objet d’un examen minutieux de la part des régulateurs européens au sujet de la souveraineté numérique et en concurrence avec Mistral AI, une startup française qui se présente comme une alternative européenne. OpenAI a indiqué que les abonnements professionnels en EMEA ont été multipliés par sept d’une année sur l’autre, même si l’entreprise n’a pas divulgué de chiffres de ventes précis.

OpenAI recrute également pour des rôles supplémentaires, notamment un responsable des partenariats produits EMEA, afin d’accélérer l’adoption dans les canaux professionnels, développeurs et consommateurs. Ces recrutements et partenariats visent à approfondir la présence d’OpenAI dans les réseaux d’affaires et technologiques européens, en répondant aux inquiétudes liées à la souveraineté grâce à l’établissement d’une empreinte locale plus solide.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.

Articles similaires

Tencent publie et open-sourçe un aperçu de Hunyuan Hy3 avec 295B de paramètres

Message des actualités Gate, 23 avril — Tencent a dévoilé et a open-sourcé l’aperçu de Hunyuan Hy3, un modèle de langage hybride de type mixture-of-experts avec fusion de la pensée rapide et lente. Le modèle comprend 295 milliards de paramètres au total avec 21 milliards de paramètres actifs, prenant en charge une longueur maximale de contexte de 256K

GateNewsIl y a 8m

La Corée du Sud et le Vietnam signent 70+ MOUs sur l’IA, l’énergie et les infrastructures de données

Message d’actualités Gate, 23 avril — La Corée du Sud et le Vietnam ont signé plus de 70 mémorandums d’entente (MOUs) lors de la visite d’État à Hanoi du président Lee Jae Myung le 23 avril, portant sur l’IA, l’énergie, les infrastructures et les télécommunications. Un forum d’affaires auquel ont assisté plus de 500 dirigeants a discuté de l’écosystème de l’IA et de l’industrie de l’énergie, avec de grands conglomérats coréens, notamment Samsung, SK, LG et Hyundai, représentés. A

GateNewsIl y a 8m

Moteur de réponses à base d’IA : contamination collective : 56 % des bonnes réponses de Gemini 3 n’ont aucun support de source

Ce texte indique que, lors des requêtes de l’AI pour un moteur de réponses, des pages web sont citées en temps réel ; si la source est générée par une IA ou manque de preuves, elle pollue les résultats. Il n’est pas nécessaire de réentraîner pour que cela fonctionne, et cela s’appelle la contamination par récupération (retrieval contamination). Bien que Gemini3 ait une bonne précision, 56% des réponses manquent de sources vérifiables ; des cas comme Lily Ray, Grokipedia, etc. montrent que l’IA est facilement trompée par des contenus inventés. La conclusion est que la couche de citation se détache des auteurs fiables, créant une boucle de contamination auto-renforcée ; les utilisateurs doivent néanmoins remonter à la source originale, et ne doivent pas considérer la réponse comme un point final de vérification des faits.

ChainNewsAbmediaIl y a 16m

Anthropic indique à la cour que les modèles d’IA du Pentagone déployés n’ont pas de "kill switch"

Message de Gate News, 23 avril — Anthropic a déposé un acte auprès de la Cour d’appel des États-Unis pour le circuit du district de Columbia, indiquant que, une fois ses modèles d’IA déployés dans des environnements du Pentagone, l’entreprise n’a ni visibilité ni moyens techniques pour contrôler ou mettre à l’arrêt les modèles, et qu’il n’existe pas de "kill switch"

GateNewsIl y a 18m

Anthropic lance /ultrareview pour Claude Code : revue de code multi-agents basée sur le cloud

Message de Gate News, 23 avril — Anthropic a introduit /ultrareview (research preview), une fonctionnalité de revue de code multi-agents basée sur le cloud pour Claude Code. Les utilisateurs peuvent taper /ultrareview dans le CLI pour lancer un groupe d’agents de revue dans un environnement sandbox distant qui fonctionnent en parallèle afin d’examiner les différences entre la

GateNewsIl y a 26m

OpenAI lance les agents d’espace de travail de ChatGPT pour l’automatisation des flux de travail en entreprise

Message de Gate News, 23 avril — OpenAI a annoncé le déploiement des agents d’espace de travail dans ChatGPT le 22 avril, introduisant des agents d’IA partagés conçus pour automatiser des tâches complexes et des flux de travail étendus à travers les outils et les équipes au sein d’une organisation. Les agents sont alimentés par Codex et fonctionnent dans un environnement cloud avec

GateNewsIl y a 27m
Commentaire
0/400
Aucun commentaire