(MENAFN- AsiaNet News) Open AI a annoncé vendredi (heure locale) avoir conclu un accord avec le Département de la Guerre des États-Unis pour déployer certains de ses modèles dans leur réseau classifié. Le PDG d’Open AI, Sam Altman, a publié l’annonce sur X, affirmant que l’accord comporte des clauses interdisant la surveillance de masse. La question de la surveillance a été le point de rupture qui a contraint le Département de la Guerre à annuler son accord avec le rival acharné d’Open AI, Anthropic.
OpenAI obtient un accord avec le Département de la Guerre des États-Unis
“Ce soir, nous avons conclu un accord avec le Département de la Guerre pour déployer nos modèles dans leur réseau classifié. Lors de toutes nos interactions, le DoW a montré un profond respect pour la sécurité et un désir de partenariat pour atteindre le meilleur résultat possible. La sécurité de l’IA et la large distribution des bénéfices sont au cœur de notre mission. Deux de nos principes de sécurité les plus importants sont l’interdiction de la surveillance de masse domestique et la responsabilité humaine dans l’usage de la force, y compris pour les systèmes d’armes autonomes. Le DoW partage ces principes, les reflète dans la loi et la politique, et nous les avons intégrés dans notre accord”, a déclaré Altman dans son post.
Engagement envers la sécurité et des conditions équitables
“Nous construirons également des protections techniques pour garantir que nos modèles se comportent comme ils le doivent, ce que le DoW souhaitait aussi. Nous déploierons des FDE pour aider nos modèles et assurer leur sécurité, en utilisant uniquement des réseaux cloud. Nous demandons au DoW d’offrir ces mêmes conditions à toutes les entreprises d’IA, ce que nous pensons que tout le monde devrait accepter. Nous avons exprimé notre forte volonté de voir la situation se calmer, en évitant les actions légales et gouvernementales, pour privilégier des accords raisonnables. Nous restons déterminés à servir l’humanité du mieux que nous pouvons. Le monde est un endroit compliqué, chaotique, et parfois dangereux”, a-t-il ajouté.
Le gouvernement américain met fin au contrat avec Anthropic
Plus tôt, le président américain Donald Trump a ordonné à toutes les agences fédérales d’arrêter immédiatement d’utiliser la technologie d’Anthropic, dans un contexte de conflit croissant entre la société d’IA et le Pentagone. Il a accusé l’entreprise de tenter d’interférer dans le fonctionnement de l’armée américaine et a menacé de prendre d’autres mesures si elle ne coopérait pas lors d’une phase de retrait de six mois.
Le secrétaire à la Guerre, Pete Hegseth, a également lancé une diatribe contre le patron d’Anthropic, Dario Amodei, l’accusant de duplicité.
Accusations de duplicité et conflit idéologique
“Cette semaine, Anthropic a donné une leçon d’arrogance et de trahison, ainsi qu’un exemple parfait de comment ne pas faire affaire avec le gouvernement américain ou le Pentagone. Notre position n’a jamais vacillé et ne vacillera jamais : le Département de la Guerre doit avoir un accès complet et sans restriction aux modèles d’Anthropic pour tout usage LÉGAL en défense de la République. Au lieu de cela, Anthropic AI et son PDG Dario Amodei ont choisi la duplicité. Couverts par la rhétorique sanctimonieuse de ‘l’altruisme efficace’, ils ont tenté de faire pression sur l’armée américaine pour la soumettre — un acte lâche de signalement de vertu d’entreprise qui place l’idéologie de la Silicon Valley au-dessus des vies américaines”, a publié Hegseth sur X.
“Les conditions d’utilisation de l’altruisme défectueux d’Anthropic ne l’emporteront jamais sur la sécurité, la préparation ou la vie des soldats américains sur le terrain. Leur véritable objectif est clair : obtenir un veto sur les décisions opérationnelles de l’armée américaine. C’est inacceptable. Comme l’a déclaré le président Trump sur Truth Social, le Commandant en chef et le peuple américain seuls décideront du destin de nos forces armées, pas des dirigeants technologiques non élus. La position d’Anthropic est fondamentalement incompatible avec les principes américains”, a-t-il ajouté.
Anthropic désignée comme ‘Risque de chaîne d’approvisionnement’
“Leur relation avec les forces armées américaines et le gouvernement fédéral a donc été modifiée de façon permanente. Conformément à la directive du président pour que le gouvernement fédéral cesse toute utilisation de la technologie d’Anthropic, je demande au Département de la Guerre de désigner Anthropic comme Risque de chaîne d’approvisionnement pour la sécurité nationale. À compter de maintenant, aucun contractant, fournisseur ou partenaire travaillant avec l’armée américaine ne pourra mener d’activité commerciale avec Anthropic. Anthropic continuera à fournir ses services au Département de la Guerre pour une période maximale de six mois afin d’assurer une transition fluide vers un service meilleur et plus patriotique. Les combattants américains ne seront jamais pris en otage par les caprices idéologiques des Big Tech. Cette décision est définitive”, a-t-il précisé.
Position d’Anthropic sur les protections de l’IA
Les remarques du DoW interviennent après qu’Amodei, dans une déclaration jeudi, a indiqué que la société ne soutiendrait pas certains usages de l’IA, notamment la surveillance de masse domestique et les armes entièrement autonomes, en raison de préoccupations concernant les valeurs démocratiques et la fiabilité actuelle des systèmes d’IA de pointe.
Amodei a déclaré que, malgré la pression du DoW pour accepter “tout usage légal” de leur technologie et supprimer certaines protections, l’entreprise ne changerait pas de position. “Le Département de la Guerre a indiqué qu’il ne contracterait qu’avec des entreprises d’IA qui acceptent ‘tout usage légal’ et suppriment les protections dans les cas mentionnés ci-dessus. Ils ont menacé de nous exclure de leurs systèmes si nous maintenons ces protections ; ils ont aussi menacé de nous désigner comme ‘Risque de chaîne d’approvisionnement’ — une étiquette réservée aux adversaires des États-Unis, jamais appliquée auparavant à une entreprise américaine — et d’invoquer la loi sur la production de défense pour forcer la suppression des protections. Ces deux menaces sont intrinsèquement contradictoires : l’une nous qualifie de risque de sécurité ; l’autre considère Claude comme essentiel à la sécurité nationale”, indique la déclaration.
Avec Open AI d’Altman qui prend la place d’Anthropic, cela marque un nouveau chapitre dans le conflit acharné entre deux des plus grandes entreprises d’intelligence artificielle mondiales. (ANI)
(Cette histoire, à l’exception du titre, n’a pas été modifiée par l’équipe d’Asianet Newsable English et est publiée à partir d’un flux syndiqué.)
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Openai conclut un accord avec le département de la guerre des États-Unis après le départ d'Anthropic
(MENAFN- AsiaNet News) Open AI a annoncé vendredi (heure locale) avoir conclu un accord avec le Département de la Guerre des États-Unis pour déployer certains de ses modèles dans leur réseau classifié. Le PDG d’Open AI, Sam Altman, a publié l’annonce sur X, affirmant que l’accord comporte des clauses interdisant la surveillance de masse. La question de la surveillance a été le point de rupture qui a contraint le Département de la Guerre à annuler son accord avec le rival acharné d’Open AI, Anthropic.
OpenAI obtient un accord avec le Département de la Guerre des États-Unis
“Ce soir, nous avons conclu un accord avec le Département de la Guerre pour déployer nos modèles dans leur réseau classifié. Lors de toutes nos interactions, le DoW a montré un profond respect pour la sécurité et un désir de partenariat pour atteindre le meilleur résultat possible. La sécurité de l’IA et la large distribution des bénéfices sont au cœur de notre mission. Deux de nos principes de sécurité les plus importants sont l’interdiction de la surveillance de masse domestique et la responsabilité humaine dans l’usage de la force, y compris pour les systèmes d’armes autonomes. Le DoW partage ces principes, les reflète dans la loi et la politique, et nous les avons intégrés dans notre accord”, a déclaré Altman dans son post.
Engagement envers la sécurité et des conditions équitables
“Nous construirons également des protections techniques pour garantir que nos modèles se comportent comme ils le doivent, ce que le DoW souhaitait aussi. Nous déploierons des FDE pour aider nos modèles et assurer leur sécurité, en utilisant uniquement des réseaux cloud. Nous demandons au DoW d’offrir ces mêmes conditions à toutes les entreprises d’IA, ce que nous pensons que tout le monde devrait accepter. Nous avons exprimé notre forte volonté de voir la situation se calmer, en évitant les actions légales et gouvernementales, pour privilégier des accords raisonnables. Nous restons déterminés à servir l’humanité du mieux que nous pouvons. Le monde est un endroit compliqué, chaotique, et parfois dangereux”, a-t-il ajouté.
Le gouvernement américain met fin au contrat avec Anthropic
Plus tôt, le président américain Donald Trump a ordonné à toutes les agences fédérales d’arrêter immédiatement d’utiliser la technologie d’Anthropic, dans un contexte de conflit croissant entre la société d’IA et le Pentagone. Il a accusé l’entreprise de tenter d’interférer dans le fonctionnement de l’armée américaine et a menacé de prendre d’autres mesures si elle ne coopérait pas lors d’une phase de retrait de six mois.
Le secrétaire à la Guerre, Pete Hegseth, a également lancé une diatribe contre le patron d’Anthropic, Dario Amodei, l’accusant de duplicité.
Accusations de duplicité et conflit idéologique
“Cette semaine, Anthropic a donné une leçon d’arrogance et de trahison, ainsi qu’un exemple parfait de comment ne pas faire affaire avec le gouvernement américain ou le Pentagone. Notre position n’a jamais vacillé et ne vacillera jamais : le Département de la Guerre doit avoir un accès complet et sans restriction aux modèles d’Anthropic pour tout usage LÉGAL en défense de la République. Au lieu de cela, Anthropic AI et son PDG Dario Amodei ont choisi la duplicité. Couverts par la rhétorique sanctimonieuse de ‘l’altruisme efficace’, ils ont tenté de faire pression sur l’armée américaine pour la soumettre — un acte lâche de signalement de vertu d’entreprise qui place l’idéologie de la Silicon Valley au-dessus des vies américaines”, a publié Hegseth sur X.
“Les conditions d’utilisation de l’altruisme défectueux d’Anthropic ne l’emporteront jamais sur la sécurité, la préparation ou la vie des soldats américains sur le terrain. Leur véritable objectif est clair : obtenir un veto sur les décisions opérationnelles de l’armée américaine. C’est inacceptable. Comme l’a déclaré le président Trump sur Truth Social, le Commandant en chef et le peuple américain seuls décideront du destin de nos forces armées, pas des dirigeants technologiques non élus. La position d’Anthropic est fondamentalement incompatible avec les principes américains”, a-t-il ajouté.
Anthropic désignée comme ‘Risque de chaîne d’approvisionnement’
“Leur relation avec les forces armées américaines et le gouvernement fédéral a donc été modifiée de façon permanente. Conformément à la directive du président pour que le gouvernement fédéral cesse toute utilisation de la technologie d’Anthropic, je demande au Département de la Guerre de désigner Anthropic comme Risque de chaîne d’approvisionnement pour la sécurité nationale. À compter de maintenant, aucun contractant, fournisseur ou partenaire travaillant avec l’armée américaine ne pourra mener d’activité commerciale avec Anthropic. Anthropic continuera à fournir ses services au Département de la Guerre pour une période maximale de six mois afin d’assurer une transition fluide vers un service meilleur et plus patriotique. Les combattants américains ne seront jamais pris en otage par les caprices idéologiques des Big Tech. Cette décision est définitive”, a-t-il précisé.
Position d’Anthropic sur les protections de l’IA
Les remarques du DoW interviennent après qu’Amodei, dans une déclaration jeudi, a indiqué que la société ne soutiendrait pas certains usages de l’IA, notamment la surveillance de masse domestique et les armes entièrement autonomes, en raison de préoccupations concernant les valeurs démocratiques et la fiabilité actuelle des systèmes d’IA de pointe.
Amodei a déclaré que, malgré la pression du DoW pour accepter “tout usage légal” de leur technologie et supprimer certaines protections, l’entreprise ne changerait pas de position. “Le Département de la Guerre a indiqué qu’il ne contracterait qu’avec des entreprises d’IA qui acceptent ‘tout usage légal’ et suppriment les protections dans les cas mentionnés ci-dessus. Ils ont menacé de nous exclure de leurs systèmes si nous maintenons ces protections ; ils ont aussi menacé de nous désigner comme ‘Risque de chaîne d’approvisionnement’ — une étiquette réservée aux adversaires des États-Unis, jamais appliquée auparavant à une entreprise américaine — et d’invoquer la loi sur la production de défense pour forcer la suppression des protections. Ces deux menaces sont intrinsèquement contradictoires : l’une nous qualifie de risque de sécurité ; l’autre considère Claude comme essentiel à la sécurité nationale”, indique la déclaration.
Avec Open AI d’Altman qui prend la place d’Anthropic, cela marque un nouveau chapitre dans le conflit acharné entre deux des plus grandes entreprises d’intelligence artificielle mondiales. (ANI)
(Cette histoire, à l’exception du titre, n’a pas été modifiée par l’équipe d’Asianet Newsable English et est publiée à partir d’un flux syndiqué.)