Mars Finance News, le 28 février, la société d’intelligence artificielle Anthropic a publié un communiqué déclarant : « Nous avons formulé deux demandes d’exception pour l’utilisation légale du modèle d’intelligence artificielle Claude : une interdiction de la surveillance nationale à grande échelle de la population américaine et une interdiction des systèmes d’armes entièrement autonomes. Jusqu’à présent, nous n’avons pas reçu de communication directe du Département de la Défense ou de la Maison-Blanche concernant l’avancement des négociations. La clause d’exception repose sur deux considérations : premièrement, à ce stade, les modèles d’IA de pointe n’ont pas encore la fiabilité nécessaire pour être appliqués aux armes entièrement autonomes, et de telles applications mettront en danger la sécurité des officiers et des civils américains ; Deuxièmement, la surveillance domestique à grande échelle constitue une violation des droits humains fondamentaux. » « La désignation par le Département de la Défense d’Anthropic comme risque de la chaîne d’approvisionnement est sans précédent. Nous sommes profondément attristés par cela. Anthropic soutient les combattants militaires américains depuis juin 2024 et reste engagé à poursuivre ce service. Nous pensons que cette décision est juridiquement intenable et qu’elle créera un précédent dangereux pour toute entreprise américaine négociant avec le gouvernement. Aucune dissuasion ni sanction imposée par le Département de la Défense ne changera notre position sur la surveillance intérieure à grande échelle et les armes entièrement autonomes. Nous contesterons toute détermination des risques liés à la chaîne d’approvisionnement par des moyens juridiques. »
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Anthropic : Pas encore reçu de communication directe du Département de la Défense ou de la Maison Blanche concernant l'avancement des négociations
Mars Finance News, le 28 février, la société d’intelligence artificielle Anthropic a publié un communiqué déclarant : « Nous avons formulé deux demandes d’exception pour l’utilisation légale du modèle d’intelligence artificielle Claude : une interdiction de la surveillance nationale à grande échelle de la population américaine et une interdiction des systèmes d’armes entièrement autonomes. Jusqu’à présent, nous n’avons pas reçu de communication directe du Département de la Défense ou de la Maison-Blanche concernant l’avancement des négociations. La clause d’exception repose sur deux considérations : premièrement, à ce stade, les modèles d’IA de pointe n’ont pas encore la fiabilité nécessaire pour être appliqués aux armes entièrement autonomes, et de telles applications mettront en danger la sécurité des officiers et des civils américains ; Deuxièmement, la surveillance domestique à grande échelle constitue une violation des droits humains fondamentaux. » « La désignation par le Département de la Défense d’Anthropic comme risque de la chaîne d’approvisionnement est sans précédent. Nous sommes profondément attristés par cela. Anthropic soutient les combattants militaires américains depuis juin 2024 et reste engagé à poursuivre ce service. Nous pensons que cette décision est juridiquement intenable et qu’elle créera un précédent dangereux pour toute entreprise américaine négociant avec le gouvernement. Aucune dissuasion ni sanction imposée par le Département de la Défense ne changera notre position sur la surveillance intérieure à grande échelle et les armes entièrement autonomes. Nous contesterons toute détermination des risques liés à la chaîne d’approvisionnement par des moyens juridiques. »