Message de Gate News, 23 avril — TikTok a annoncé une vaste opération de répression visant les contenus générés par IA qui portent atteinte aux droits des utilisateurs, indiquant qu’il a supprimé plus de 538 000 vidéos et sanctionné plus de 4 000 comptes à ce jour. La plateforme donnera la priorité à l’application contre les deepfakes IA, le clonage de voix, l’usurpation d’identité et l’utilisation commerciale non autorisée de l’image de célébrités.
Selon le rapport de gouvernance de TikTok pour 2026, la plateforme a supprimé 360 000 vidéos impliquant de l’usurpation d’identité basée sur l’IA et du « trend-jacking », a traité 85 000 contenus comprenant des ressemblances faciales et des clonages de voix générés par IA sans autorisation, et a nettoyé plus de 30 000 éléments de contenu trompeurs de type « arnaque amoureuse à l’IA » visant des utilisateurs d’âge moyen et des personnes âgées, avec 1 300 comptes associés sanctionnés. La plateforme a reconnu des défis persistants dans l’industrie, notamment la difficulté d’identifier des contenus générés par IA et les limites des capacités de reconnaissance vocale.
Le 9 avril, WeChat a annoncé des mises à jour de ses normes de fonctionnement de la plateforme publique, interdisant aux comptes d’utiliser l’IA, des scripts ou des outils automatisés pour remplacer des créateurs humains dans la production et la distribution de contenu. Les violations entraîneront des restrictions de trafic, la suppression de contenu ou la suspension du compte. Le 27 mars, WeChat avait formalisé ces règles, couvrant les contenus générés par IA, la publication automatisée via des scripts et la promotion de méthodes de création automatisée non humaines.
Red Fruit Short Drama a rapporté le 6 avril qu’il avait supprimé 1 718 séries animées non conformes au T1 2026. Suite à une hausse de l’utilisation non autorisée de contenus IA, la plateforme a mené des examens complets de 15 000 œuvres, a supprimé 670 productions non conformes et a mis en évidence quatre catégories de violations typiques. La plateforme a souligné son engagement à protéger les contenus originaux et à empêcher l’utilisation non autorisée de matériaux générés par IA.
Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'
avertissement.
Articles similaires
Un ancien ingénieur de Codex d’OpenAI lance Blackstar et lève $12M en financement d’amorçage, mené par Abstract
Message de Gate News, 23 avril — Daniel Edrisian, ancien ingénieur de l’équipe Codex d’OpenAI, a annoncé le lancement de Blackstar Computers, une entreprise de matériel d’IA qui a finalisé un tour de financement d’amorçage de $12 millions. Abstract a mené le tour, avec la participation de SV Angel, Naval Ravikant, Chapter
GateNewsMaintenant
Les banques taïwanaises s’associent pour créer une IA locale ! Les grands modèles de langage du secteur financier seront déployés d’ici la fin de l’année au plus vite
Seize institutions financières dirigées par China Trust Financial Holding ont annoncé le lancement du projet « FinLLM, grand modèle de langage financier ». La première version du modèle bancaire devrait être publiée en août, puis des agents IA fondés sur FinLLM seront lancés au T1 2026. L’entraînement a commencé en mai, avec un budget d’environ 40 à 70 millions de yuans. En raison des exigences réglementaires et des besoins de localisation, l’entraînement s’appuie principalement sur des données locales : renforcer l’IA souveraine, construire une infrastructure commune et s’étendre à la finance inclusive. Le plan a été intégré au programme national de développement de l’IA et bénéficie du soutien de plusieurs ministères.
ChainNewsAbmediaIl y a 31m
PDG de Google : dépenses d’investissement en 2026 à 185 milliards, accélération des investissements à l’ère des agents IA
Le PDG de Google, Sundar Pichai, a annoncé lors de la conférence Google Cloud Next qui s’est tenue le 22 avril à Las Vegas que Google prévoit d’investir entre 175 et 185 milliards de dollars en dépenses d’investissement en 2026, afin de construire l’infrastructure nécessaire aux agents d’intelligence artificielle (IA) autonomes, soit une augmentation par rapport aux 31 milliards de dollars de 2022.
MarketWhisperIl y a 1h
Google Jules ouvre une nouvelle liste de candidats pour la prochaine version et se repositionne comme une plateforme de développement de produits de bout en bout
Selon l’annonce officielle du 23 avril du groupe Google Jules, la position produit de Jules est passée d’un agent d’encodage asynchrone à une « plateforme de développement de produits agentiques de bout en bout ». La nouvelle version peut lire l’intégralité du contexte produit, décider de façon autonome de la prochaine direction de construction et soumettre une PR. L’équipe officielle annonce en parallèle l’ouverture de la liste des candidats pour la nouvelle version.
MarketWhisperIl y a 1h
Google Jules se renomme en plateforme de développement de produits agentique de bout en bout et ouvre une liste d’attente pour une nouvelle version
Message de Gate News, 23 avril — L’équipe Jules de Google a annoncé l’ouverture d’une liste d’attente pour une nouvelle version du produit, repositionnant Jules d’un agent de codage asynchrone vers une plateforme de développement de produits agentique de bout en bout. D’après la description officielle, la plateforme améliorée lit le contexte complet du produit,
GateNewsIl y a 1h
Perplexity révèle sa méthode de post-formation pour des agents de recherche web ; le modèle basé sur Qwen3.5 surpasse GPT-5.4 en précision et en coût
Perplexity utilise la SFT suivie par le RL avec des modèles Qwen3.5, en s’appuyant sur un ensemble de données QA multi-étapes et des contrôles par grille d’évaluation pour améliorer la précision et l’efficacité de la recherche, en atteignant des performances FRAMES de niveau supérieur.
Résumé : le flux de travail de post-formation de Perplexity pour les agents de recherche web combine un apprentissage supervisé par fine-tuning (SFT) afin de garantir le respect des instructions et la cohérence linguistique avec un apprentissage par renforcement en ligne (RL) via l’algorithme GRPO. La phase RL exploite un jeu de données propriétaire vérifiable de questions-réponses multi-étapes et des données conversationnelles basées sur des grilles d’évaluation pour empêcher la dérive de la SFT, avec un filtrage des récompenses et des pénalités d’efficacité au sein des groupes. L’évaluation montre que Qwen3.5-397B-SFT-RL atteint les meilleures performances FRAMES, avec 57,3 % d’exactitude avec un seul appel d’outil et 73,9 % avec quatre appels, à 0,02 $ par requête, surpassant GPT-5.4 et Claude Sonnet 4.6 sur ces métriques. La tarification est basée sur l’API et exclut la mise en cache.
GateNewsIl y a 2h