Passer au contenu

Projet

Élaboration de règles possibles en matière d'IA pour les États-Unis

Notre équipe chargée de la politique américaine conseille les responsables politiques du Congrès et des États sur la manière de garantir que les systèmes d'IA sont sûrs et bénéfiques.

Nos principales propositions

En avril 2023, nous avons publié "Policymaking in the Pause", un résumé de nos recommandations concernant les politiques de gouvernance de l'IA à un stade précoce. Ces propositions ont fait l'objet d'un débat avec le président du FLI, Max Tegmark, lors du Senate AI Insight Forum on Innovation. Elles ont été reprises dans plusieurs propositions du Congrès.

Nos recommandations pour mettre en place une infrastructure fiable de gouvernance de l'IA et une supervision de la prolifération de systèmes d'IA puissants sont les suivantes :

  • Exiger des développeurs d'IA qu'ils s'enregistrent auprès du gouvernement fédéral, s'ils développent des calculs puissants à grande échelle ou s'ils effectuent de nombreuses formations concernant des systèmes d'IA avancés à usage général.
  • Exiger que les personnes chargées du déploiement des systèmes d'IA avancés à usage général obtiennent des licences, avant de les diffuser. Chaque licence serait basée sur une évaluation indépendante des risques et des capacités du système, le développeur d'IA devant prouver que son modèle est sécurisé.
  • Établir une autorité spécialisée au sein du gouvernement fédéral pour superviser le développement et l'utilisation de systèmes d'IA à usage général et pour coopérer avec les agences existantes, afin de superviser des systèmes d'IA restreints dans leurs domaines spécifiques.
  • Faire porter la responsabilité aux développeurs de systèmes des dommages causés par leurs systèmes d'IA avancés à usage général. Les décideurs politiques devraient préciser que la ‘Section 230 of the Communications Decency Act’ ne s'applique pas aux contenus générés par les systèmes d'IA, même si un tiers a initié la création de ces contenus. L'article 230 est celui sur lequel les entreprises de médias sociaux s'appuient pour éviter d'être tenues responsables des contenus publiés par les utilisateurs.
  • Augmenter le financement fédéral de la recherche technique sur la sécurité de l'IA et des contre-mesures visant à identifier et à minimiser les dommages résultant d'une mauvaise utilisation, d'une utilisation malveillante ou d'un comportement imprévu des systèmes d'IA avancés.

Autres recommandations pour les États-Unis

Notre équipe politique donne des recommandations concrètes pour susciter l'intérêt croissant des décideurs politiques américains sur la manière de gérer les risques émergents de l'IA dans tous les domaines. Nous nous appuyons à la fois sur une expertise interne approfondie et sur un vaste réseau d'experts.

Par exemple, nous avons fourni un retour d'information important sur le Cadre de gestion des risques de l'IA (AI RMF), tel qu'il a été développé par le National Institute of Standards and Technology (NIST). Le RMF est un catalogue de bonnes pratiques volontaires visant à produire des systèmes d'intelligence artificielle plus dignes de confiance. Notre retour d'information a permis d'être sûr que le RMF tienne compte des risques extrêmes et inacceptables, de la loyauté des systèmes d'IA et de la gestion des risques des systèmes d'IA à usage général.

Nous avons également publié des recommandations sur l'intégration de l'IA dans les domaines critiques de la santé, de l'éducation et du travail. Nous avons aussi rédigé des recommandations politiques américaines spécifiques pour lutter contre les risques de cybersécurité associés à l'IA.

Documents essentiels

Consulter tous les documents relatifs à la politique
Notre travail

Autres projets dans ce domaine

Nous travaillons sur une série de projets dans quelques domaines clés. Consultez certains de nos autres projets dans ce domaine :

Lutter contre les "deepfakes

2024 se transforme rapidement en l'année du "Fake" (faux). Dans le cadre d'une coalition croissante d'organisations concernées, le FLI appelle les législateurs à prendre des mesures significatives pour perturber la chaîne d'approvisionnement des "deepfakes" générés par l'IA.

Sommets sur la sécurité de l'IA

Les gouvernements coopèrent de plus en plus pour assurer la sécurité de l'IA. Le FLI soutient et encourage ces efforts.
Notre travail

S'inscrire au bulletin d'informations du Future of Life Institute

Rejoignez les plus de 40 000 personnes qui reçoivent des mises à jour périodiques sur notre travail et nos domaines d'intervention
cloudmagnifiercroixarrow-up linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram