La Californie renforce les règles des contrats d’IA alors que le bras de fer avec l’administration Trump s’intensifie

Decrypt

En bref

  • La Californie ordonne des garanties plus solides pour les entreprises d’IA qui cherchent à obtenir des contrats avec l’État.
  • Cette décision intervient alors que l’administration Trump pousse des normes nationales en matière d’IA.
  • Les responsables de l’État mettront au point des règles d’approvisionnement traitant notamment des questions de biais, de mauvaise utilisation et de risques pour les droits civils.

Le conflit entre Washington et les États au sujet de la politique en matière d’intelligence artificielle s’est intensifié lundi après que le gouverneur de Californie, Gavin Newsom, a signé un décret exigeant des garanties plus solides de la part des entreprises d’IA cherchant à obtenir des contrats avec l’État. Selon l’ordre, les entreprises vendant des systèmes d’IA aux agences californiennes devront démontrer des politiques qui empêchent la mauvaise utilisation et protègent la vie privée, la sécurité et les droits civils. « La Californie a toujours été le berceau de l’innovation. Mais nous comprenons aussi la contrepartie : entre de mauvaises mains, l’innovation peut être détournée de façon à mettre des personnes en danger », a déclaré Newsom dans un communiqué. « La Californie est en tête en matière d’IA, et nous allons utiliser tous les outils dont nous disposons pour nous assurer que les entreprises protègent les droits des personnes, plutôt que de les exploiter ou de les mettre en danger. Pendant que d’autres à Washington conçoivent des politiques et créent des contrats dans l’ombre de la mauvaise utilisation, nous sommes concentrés sur le faire de la bonne manière. » Le décret de Newsom charge l’Agence des opérations gouvernementales de l’État d’élaborer des normes d’approvisionnement pour les fournisseurs d’IA qui traitent des questions notamment de génération de contenu illégal, de biais du modèle, ainsi que de risques pour les droits civils et la liberté d’expression. Le décret ordonne également au Département de la technologie de Californie d’élaborer des recommandations sur le filigranage des images générées par IA et des vidéos manipulées.

 Le décret place la Californie en conflit avec l’effort de l’administration du Donald Trump visant à établir des normes nationales en matière d’IA et à limiter la réglementation au niveau des États. Plus tôt ce mois-ci, l’administration Trump a publié un cadre de politique nationale en matière d’intelligence artificielle appelant le Congrès à établir des normes fédérales et à réduire ce que les responsables décrivent comme un patchwork de réglementations étatiques sur l’IA. Kevin Frazier, chercheur associé au Cato Institute, a déclaré que le différend reflète un équilibre constitutionnel de longue date entre l’autorité des États et celle du gouvernement fédéral. « Chaque percée technologique — de la machine à vapeur à la superintelligence — soulève des questions clés sur la façon d’allouer l’autorité réglementaire entre les États et le gouvernement fédéral », a déclaré Frazier à Decrypt. « La Constitution apporte une réponse claire : le gouvernement fédéral doit mener sur les questions de sécurité économique et nationale, ainsi que sur celles qui exigent une réponse uniforme ; les États peuvent exercer leurs pouvoirs de police traditionnels à l’intérieur de leurs frontières. »

Frazier a qualifié le décret exécutif de Newsom de « exemple parfait du fédéralisme en action » et a déclaré que les entreprises qui rejettent les exigences de la Californie peuvent choisir de ne pas vendre à l’État. « Pendant ce temps, le Congrès est toujours en position de fixer les conditions du rythme et de la direction des ambitions d’IA du pays », a-t-il déclaré. Quinn Anex-Reis, analyste principal des politiques au Center for Democracy and Technology, a déclaré que la taille et le pouvoir d’achat de la Californie signifient qu’elle pourrait influencer la manière dont les entreprises conçoivent et testent les systèmes d’IA si elles veulent vendre à l’État. « Les marchés publics sont très précieux pour les entreprises », a déclaré Anex-Reis à Decrypt. « C’est une énorme part des activités des développeurs technologiques en général, et une voie d’activité en pleine croissance pour les développeurs d’IA en particulier. » Il a dit que les règles d’approvisionnement font partie des moyens les plus efficaces pour que les gouvernements puissent façonner la façon dont les systèmes d’IA sont développés et évalués. « Le processus d’approvisionnement est vraiment un endroit important pour prêter attention », a déclaré Anex-Reis. « Parce que c’est vraiment l’endroit le plus important où l’État peut chercher à définir des protections et des attentes sur la façon dont les fournisseurs développent leurs outils. » Newsom est apparu comme une figure démocrate nationale et candidat potentiel à la présidentielle de 2028. Un sondage récent Politico–UC Berkeley Citrin Center l’a trouvé en tête de l’ancienne vice-présidente Kamala Harris de 14 points parmi les électeurs probables de la primaire démocrate en Californie. L’affrontement sur les politiques en matière de réglementation de l’IA le met en conflit direct avec l’administration Trump alors que les débats s’intensifient sur la question de savoir qui devrait fixer les règles régissant la technologie. L’été dernier, l’administration Trump a ordonné aux agences fédérales d’éviter les contrats avec ce qu’elle a appelé des modèles d’« IA woke » et de se procurer des systèmes qui démontrent une neutralité idéologique.

Malgré cela, Anex-Reis a déclaré que la question relative à la réglementation de l’IA est plus vaste que la politique. « En réalité, cela ne devrait pas être un sujet politique », a déclaré Anex-Reis. « Il s’agit vraiment de s’assurer que l’argent des contribuables n’est pas gaspillé et que les outils que notre gouvernement achète fonctionnent. »

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire