Gate News-Meldung, 23. April — TikTok kündigte eine umfassende Durchsetzung gegen KI-generierte Inhalte an, die die Rechte der Nutzer verletzen, und gab bekannt, dass es bislang über 538.000 Videos entfernt und mehr als 4.000 Konten sanktioniert hat. Die Plattform wird die Durchsetzung vorrangig gegen KI-Deepfakes, Voice-Cloning, Identitätsvortäuschung und nicht autorisierte kommerzielle Nutzungen von Ähnlichkeiten von Prominenten priorisieren.
Laut dem Governance-Bericht von TikTok für 2026 hat die Plattform 360.000 Videos entfernt, die KI-basierte Identitätsvortäuschung und Trend-Jacking beinhalteten, 85.000 Inhalte verarbeitet, die nicht autorisierte KI-generierte Gesichtsdarstellungen und Voice-Cloning enthielten, und über 30.000 Stück irreführenden „KI-Romanze-Betrug“-Inhalts bereinigt, der sich an Nutzer mittleren Alters und ältere Nutzer richtete, wobei 1.300 zugehörige Konten sanktioniert wurden. Die Plattform räumte bestehende Herausforderungen der Branche ein, darunter die Schwierigkeit, KI-generierte Inhalte zu identifizieren, und die Grenzen der Erkennungsfähigkeiten für die Stimme.
Am 9. April kündigte WeChat Updates zu seinen Betriebsstandards für die öffentliche Plattform an und verbot Konten, KI, Skripte oder automatisierte Tools zu verwenden, um menschliche Creator in der Content-Produktion und -Distribution zu ersetzen. Verstöße führen zu Verkehrsbeschränkungen, Löschen von Inhalten oder einer Sperrung des Kontos. Am 27. März hatte WeChat diese Regeln formell festgelegt, die KI-generierten Content, automatisiertes Posten über Skripte und die Bewerbung nicht-menschlicher automatisierter Erstellungs-Methoden abdeckten.
Red Fruit Short Drama berichtete am 6. April, dass es in Q1 2026 1.718 nicht konforme animierte Serien entfernt hat. Nach einem Anstieg der Nutzung nicht autorisierten KI-Materials führte die Plattform umfassende Prüfungen von 15.000 Werken durch, entfernte 670 nicht konforme Produktionen und deckte vier Kategorien typischer Verstöße auf. Die Plattform betonte ihr Engagement, Originalinhalte zu schützen und die nicht autorisierte Nutzung von KI-generierten Materialien zu verhindern.
Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to
Disclaimer.
Verwandte Artikel
Ehemaliger OpenAI-Codex-Ingenieur startet Blackstar und wirft $12M in Seed-Finanzierung auf, angeführt von Abstract
Gate-News-Meldung, 23. April — Daniel Edrisian, ein ehemaliger Ingenieur aus dem Codex-Team von OpenAI, hat die Einführung von Blackstar Computers angekündigt, einem KI-Hardwareunternehmen, das eine $12 Millionen Seed-Finanzierungsrunde abgeschlossen hat. Abstract leitete die Runde, mit Beteiligung von SV Angel, Naval Ravikant, Chapter
GateNewsGerade eben
Taiwanesische Banken arbeiten gemeinsam daran, eine einheimische KI zu entwickeln! Große Finanz-Modelle für maschinelles Lernen werden voraussichtlich bis Ende des Jahres online gehen
CITIC Financial Holding, angeführt von 16 Finanzinstitutionen, kündigt die Einführung des Projekts „FinLLM, ein Finanz-Großsprachenmodell“ an. Die erste Version des Bankmodells soll im August veröffentlicht werden, und im Q1 2026 sollen auf FinLLM basierende KI-Agenten eingeführt werden. Das Training startet im Mai, mit einem Budget von etwa 40 bis 70 Millionen Yuan. Aufgrund von regulatorischen Anforderungen und lokalisierungsbezogenen Bedürfnissen steht das Training mit lokalen Daten im Mittelpunkt, um die souveräne KI zu stärken, gemeinsame Basistools-Infrastrukturen aufzubauen und auch auf die Förderung inklusiver Finanzdienstleistungen auszuweiten. Das Projekt ist bereits in den nationalen Plan zur Entwicklung von KI aufgenommen und erhält Unterstützung durch mehrere Ministerien.
ChainNewsAbmedia31M her
Google-CEO: 2026 belaufen sich die Investitionen auf 1850 Milliarden, die Investitionen in das Zeitalter der KI-Agenten werden aufgestockt
Der CEO von Google, Sundar Pichai, gab am 22. April auf der Google Cloud Next-Konferenz in Las Vegas bekannt, dass Google im Jahr 2026 175 bis 185 Milliarden US-Dollar an Investitionsausgaben (CapEx) für den Aufbau der Infrastruktur bereitstellen will, die für autonome KI-Agenten (AI Agent) erforderlich ist, was gegenüber 2022 (31 Milliarden US-Dollar) eine Steigerung darstellt.
MarketWhisper1Std her
Google Jules veröffentlicht eine neue überarbeitete Kandidatenliste für die offene Version und positioniert sich neu als End-to-End-Produktentwicklungsplattform
Laut der offiziellen Ankündigung des Google-Jules-Teams vom 23. April wurde die Produktpositionierung von Jules von einem „asynchronen Coding-Agent“ auf eine „End-to-End-agentische Produktentwicklungsplattform“ aktualisiert. Die neue Version kann den vollständigen Produktkontext lesen, trifft eigenständig Entscheidungen über die nächste Konstruktionsrichtung und reicht PRs ein. Offiziell wurde außerdem die Freigabe einer neuen Kandidatenliste für die neue Version bekanntgegeben.
MarketWhisper1Std her
Google Jules wird als End-to-End-agentic Produktentwicklungsplattform umpositioniert und eröffnet Warteliste für neue Version
Gate News Meldung, 23. April — Das Team von Googles Jules gab die Eröffnung einer Warteliste für eine neue Version des Produkts bekannt und positioniert Jules von einem asynchronen Coding-Agenten zu einer End-to-End-agentic Produktentwicklungsplattform neu. Laut der offiziellen Beschreibung liest die aufgerüstete Plattform den gesamten Produktkontext, bestimmt, was als Nächstes gebaut werden sollte, schlägt Lösungen vor und reicht Pull Requests ein.
GateNews1Std her
Perplexity offenbart Methode zum Post-Training von Web-Search-Agenten; auf Qwen3.5 basierendes Modell übertrifft GPT-5.4 bei Genauigkeit und Kosten
Perplexity verwendet SFT, gefolgt von RL mit Qwen3.5-Modellen, wobei es einen Multi-Hop-QA-Datensatz und Rubrik-Checks nutzt, um die Suchgenauigkeit und -effizienz zu steigern und eine erstklassige FRAMES-Performance zu erreichen.
Zusammenfassung: Der Post-Training-Workflow von Perplexity für Web-Search-Agenten kombiniert Supervised Fine-Tuning (SFT), um regelkonformes Befolgen von Anweisungen und sprachliche Konsistenz durchzusetzen, mit Online Reinforcement Learning (RL) über den GRPO-Algorithmus. Die RL-Phase nutzt einen proprietären Multi-Hop-verifizierbaren QA-Datensatz sowie rubrikbasierte Konversationsdaten, um ein Abdriften von SFT zu verhindern, mit Reward-Gating und Effizienz-Strafen innerhalb von Gruppen. Die Evaluierung zeigt, dass Qwen3.5-397B-SFT-RL eine Spitzenleistung bei FRAMES erzielt: 57,3% Genauigkeit mit einem einzelnen Tool-Call und 73,9% mit vier Calls bei $0.02 pro Query, und damit GPT-5.4 sowie Claude Sonnet 4.6 in diesen Kennzahlen übertrifft. Die Preisgestaltung erfolgt API-basiert und schließt Caching aus.
GateNews2Std her