Odaily星球日报讯 Anthropic a retiré une promesse de sécurité essentielle de sa politique d’expansion responsable, ne s’engageant plus à suspendre la formation si les mesures d’atténuation des risques ne sont pas entièrement en place. Jared Kaplan, directeur scientifique d’Anthropic, a déclaré à TIME qu’avec le développement rapide de l’IA, il n’a pas de sens de faire une promesse unilatérale de suspension de la formation si les concurrents continuent à avancer.
OpenAI a également modifié sa déclaration de mission, en supprimant le mot « safely » dans le document IRS de 2024, qui décrivait auparavant la construction d’une IA générale « benefiting humanity safely », et la remplaçant par « ensuring that general AI benefits all humanity ».
Edward Geist, chercheur principal à la RAND Corporation, a indiqué que la différence essentielle entre l’IA avancée imaginée par les premiers défenseurs de la sécurité de l’IA et les modèles de langage actuels est fondamentale, et que le changement de terminologie reflète également la volonté des entreprises d’envoyer un signal aux investisseurs et aux décideurs politiques qu’elles ne reculeront pas dans la compétition économique par souci de sécurité.
Anthropic a récemment levé 30 milliards de dollars, avec une valorisation d’environ 380 milliards de dollars ; OpenAI poursuit une levée de fonds pouvant atteindre 100 milliards de dollars, soutenue par Amazon, Microsoft et Nvidia. Par ailleurs, Anthropic a rencontré une divergence publique avec le secrétaire à la Défense américain Pete Hegseth, en refusant d’accorder un accès complet à Claude au Pentagone, ce qui met en péril ses contrats de défense. (Decrypt)
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Anthropic et OpenAI ajustent leurs règles de sécurité dans le contexte de l'accélération de la compétition en IA
Odaily星球日报讯 Anthropic a retiré une promesse de sécurité essentielle de sa politique d’expansion responsable, ne s’engageant plus à suspendre la formation si les mesures d’atténuation des risques ne sont pas entièrement en place. Jared Kaplan, directeur scientifique d’Anthropic, a déclaré à TIME qu’avec le développement rapide de l’IA, il n’a pas de sens de faire une promesse unilatérale de suspension de la formation si les concurrents continuent à avancer.
OpenAI a également modifié sa déclaration de mission, en supprimant le mot « safely » dans le document IRS de 2024, qui décrivait auparavant la construction d’une IA générale « benefiting humanity safely », et la remplaçant par « ensuring that general AI benefits all humanity ».
Edward Geist, chercheur principal à la RAND Corporation, a indiqué que la différence essentielle entre l’IA avancée imaginée par les premiers défenseurs de la sécurité de l’IA et les modèles de langage actuels est fondamentale, et que le changement de terminologie reflète également la volonté des entreprises d’envoyer un signal aux investisseurs et aux décideurs politiques qu’elles ne reculeront pas dans la compétition économique par souci de sécurité.
Anthropic a récemment levé 30 milliards de dollars, avec une valorisation d’environ 380 milliards de dollars ; OpenAI poursuit une levée de fonds pouvant atteindre 100 milliards de dollars, soutenue par Amazon, Microsoft et Nvidia. Par ailleurs, Anthropic a rencontré une divergence publique avec le secrétaire à la Défense américain Pete Hegseth, en refusant d’accorder un accès complet à Claude au Pentagone, ce qui met en péril ses contrats de défense. (Decrypt)