Projet
Élaboration de règles possibles en matière d'IA pour les États-Unis
Nos principales propositions
En avril 2023, nous avons publié "Policymaking in the Pause", un résumé de nos recommandations concernant les politiques de gouvernance de l'IA à un stade précoce. Ces propositions ont fait l'objet d'un débat avec le président du FLI, Max Tegmark, lors du Senate AI Insight Forum on Innovation. Elles ont été reprises dans plusieurs propositions du Congrès.
Nos recommandations pour mettre en place une infrastructure fiable de gouvernance de l'IA et une supervision de la prolifération de systèmes d'IA puissants sont les suivantes :
- Exiger des développeurs d'IA qu'ils s'enregistrent auprès du gouvernement fédéral, s'ils développent des calculs puissants à grande échelle ou s'ils effectuent de nombreuses formations concernant des systèmes d'IA avancés à usage général.
- Exiger que les personnes chargées du déploiement des systèmes d'IA avancés à usage général obtiennent des licences, avant de les diffuser. Chaque licence serait basée sur une évaluation indépendante des risques et des capacités du système, le développeur d'IA devant prouver que son modèle est sécurisé.
- Établir une autorité spécialisée au sein du gouvernement fédéral pour superviser le développement et l'utilisation de systèmes d'IA à usage général et pour coopérer avec les agences existantes, afin de superviser des systèmes d'IA restreints dans leurs domaines spécifiques.
- Faire porter la responsabilité aux développeurs de systèmes des dommages causés par leurs systèmes d'IA avancés à usage général. Les décideurs politiques devraient préciser que la ‘Section 230 of the Communications Decency Act’ ne s'applique pas aux contenus générés par les systèmes d'IA, même si un tiers a initié la création de ces contenus. L'article 230 est celui sur lequel les entreprises de médias sociaux s'appuient pour éviter d'être tenues responsables des contenus publiés par les utilisateurs.
- Augmenter le financement fédéral de la recherche technique sur la sécurité de l'IA et des contre-mesures visant à identifier et à minimiser les dommages résultant d'une mauvaise utilisation, d'une utilisation malveillante ou d'un comportement imprévu des systèmes d'IA avancés.
Autres recommandations pour les États-Unis
Notre équipe politique donne des recommandations concrètes pour susciter l'intérêt croissant des décideurs politiques américains sur la manière de gérer les risques émergents de l'IA dans tous les domaines. Nous nous appuyons à la fois sur une expertise interne approfondie et sur un vaste réseau d'experts.
Par exemple, nous avons fourni un retour d'information important sur le Cadre de gestion des risques de l'IA (AI RMF), tel qu'il a été développé par le National Institute of Standards and Technology (NIST). Le RMF est un catalogue de bonnes pratiques volontaires visant à produire des systèmes d'intelligence artificielle plus dignes de confiance. Notre retour d'information a permis d'être sûr que le RMF tienne compte des risques extrêmes et inacceptables, de la loyauté des systèmes d'IA et de la gestion des risques des systèmes d'IA à usage général.
Nous avons également publié des recommandations sur l'intégration de l'IA dans les domaines critiques de la santé, de l'éducation et du travail. Nous avons aussi rédigé des recommandations politiques américaines spécifiques pour lutter contre les risques de cybersécurité associés à l'IA.