Anthropic widerspricht dem von OpenAI unterstützten Gesetz zur KI-Haftung in Illinois

Gate News-Meldung, 15. April — Anthropic widersetzt sich dem Gesetzentwurf des Bundesstaats Illinois SB 3444, der von OpenAI unterstützt wird. Der Gesetzentwurf würde KI-Labore vor Haftung für groß angelegte Schäden schützen, die durch die missbräuchliche Verwendung ihrer Modelle verursacht werden, sofern sie eigene Sicherheitsrahmenwerke entwerfen und veröffentlichen. Quellen, die mit den Vorgängen vertraut sind, sagten, Anthropic habe den Staats senator Bill Cunningham und andere Gesetzgeber aufgefordert, den Gesetzentwurf zu ändern oder fallen zu lassen.

Das Büro von Gouverneur JB Pritzker erklärte, er unterstütze nicht, Big Tech einen vollständigen Haftungsschutz vor der Verantwortung zu geben. OpenAI sagte, die Maßnahme würde das Risiko verringern und einen harmonisierten Ansatz für staatliche KI-Vorschriften unterstützen. Kritiker, darunter Thomas Woodside vom Secure AI Project, argumentierten, der Gesetzentwurf könne die bestehende Haftung nach allgemeinem Recht nahezu vollständig eliminieren.

Anthropic hatte letzte Woche einen separaten Gesetzentwurf aus Illinois unterstützt, der öffentliche Sicherheitspläne und Überprüfungen durch Dritte für Entwickler von Frontier-KI verlangen würde.

Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.

Verwandte Artikel

Ehemaliger OpenAI-Codex-Ingenieur startet Blackstar und wirft $12M in Seed-Finanzierung auf, angeführt von Abstract

Gate-News-Meldung, 23. April — Daniel Edrisian, ein ehemaliger Ingenieur aus dem Codex-Team von OpenAI, hat die Einführung von Blackstar Computers angekündigt, einem KI-Hardwareunternehmen, das eine $12 Millionen Seed-Finanzierungsrunde abgeschlossen hat. Abstract leitete die Runde, mit Beteiligung von SV Angel, Naval Ravikant, Chapter

GateNews7M her

Taiwanesische Banken arbeiten gemeinsam daran, eine einheimische KI zu entwickeln! Große Finanz-Modelle für maschinelles Lernen werden voraussichtlich bis Ende des Jahres online gehen

CITIC Financial Holding, angeführt von 16 Finanzinstitutionen, kündigt die Einführung des Projekts „FinLLM, ein Finanz-Großsprachenmodell“ an. Die erste Version des Bankmodells soll im August veröffentlicht werden, und im Q1 2026 sollen auf FinLLM basierende KI-Agenten eingeführt werden. Das Training startet im Mai, mit einem Budget von etwa 40 bis 70 Millionen Yuan. Aufgrund von regulatorischen Anforderungen und lokalisierungsbezogenen Bedürfnissen steht das Training mit lokalen Daten im Mittelpunkt, um die souveräne KI zu stärken, gemeinsame Basistools-Infrastrukturen aufzubauen und auch auf die Förderung inklusiver Finanzdienstleistungen auszuweiten. Das Projekt ist bereits in den nationalen Plan zur Entwicklung von KI aufgenommen und erhält Unterstützung durch mehrere Ministerien.

ChainNewsAbmedia39M her

Google-CEO: 2026 belaufen sich die Investitionen auf 1850 Milliarden, die Investitionen in das Zeitalter der KI-Agenten werden aufgestockt

Der CEO von Google, Sundar Pichai, gab am 22. April auf der Google Cloud Next-Konferenz in Las Vegas bekannt, dass Google im Jahr 2026 175 bis 185 Milliarden US-Dollar an Investitionsausgaben (CapEx) für den Aufbau der Infrastruktur bereitstellen will, die für autonome KI-Agenten (AI Agent) erforderlich ist, was gegenüber 2022 (31 Milliarden US-Dollar) eine Steigerung darstellt.

MarketWhisper1Std her

Google Jules veröffentlicht eine neue überarbeitete Kandidatenliste für die offene Version und positioniert sich neu als End-to-End-Produktentwicklungsplattform

Laut der offiziellen Ankündigung des Google-Jules-Teams vom 23. April wurde die Produktpositionierung von Jules von einem „asynchronen Coding-Agent“ auf eine „End-to-End-agentische Produktentwicklungsplattform“ aktualisiert. Die neue Version kann den vollständigen Produktkontext lesen, trifft eigenständig Entscheidungen über die nächste Konstruktionsrichtung und reicht PRs ein. Offiziell wurde außerdem die Freigabe einer neuen Kandidatenliste für die neue Version bekanntgegeben.

MarketWhisper1Std her

Google Jules wird als End-to-End-agentic Produktentwicklungsplattform umpositioniert und eröffnet Warteliste für neue Version

Gate News Meldung, 23. April — Das Team von Googles Jules gab die Eröffnung einer Warteliste für eine neue Version des Produkts bekannt und positioniert Jules von einem asynchronen Coding-Agenten zu einer End-to-End-agentic Produktentwicklungsplattform neu. Laut der offiziellen Beschreibung liest die aufgerüstete Plattform den gesamten Produktkontext, bestimmt, was als Nächstes gebaut werden sollte, schlägt Lösungen vor und reicht Pull Requests ein.

GateNews2Std her

Perplexity offenbart Methode zum Post-Training von Web-Search-Agenten; auf Qwen3.5 basierendes Modell übertrifft GPT-5.4 bei Genauigkeit und Kosten

Perplexity verwendet SFT, gefolgt von RL mit Qwen3.5-Modellen, wobei es einen Multi-Hop-QA-Datensatz und Rubrik-Checks nutzt, um die Suchgenauigkeit und -effizienz zu steigern und eine erstklassige FRAMES-Performance zu erreichen. Zusammenfassung: Der Post-Training-Workflow von Perplexity für Web-Search-Agenten kombiniert Supervised Fine-Tuning (SFT), um regelkonformes Befolgen von Anweisungen und sprachliche Konsistenz durchzusetzen, mit Online Reinforcement Learning (RL) über den GRPO-Algorithmus. Die RL-Phase nutzt einen proprietären Multi-Hop-verifizierbaren QA-Datensatz sowie rubrikbasierte Konversationsdaten, um ein Abdriften von SFT zu verhindern, mit Reward-Gating und Effizienz-Strafen innerhalb von Gruppen. Die Evaluierung zeigt, dass Qwen3.5-397B-SFT-RL eine Spitzenleistung bei FRAMES erzielt: 57,3% Genauigkeit mit einem einzelnen Tool-Call und 73,9% mit vier Calls bei $0.02 pro Query, und damit GPT-5.4 sowie Claude Sonnet 4.6 in diesen Kennzahlen übertrifft. Die Preisgestaltung erfolgt API-basiert und schließt Caching aus.

GateNews2Std her
Kommentieren
0/400
Keine Kommentare