Passer au contenu
projet

Convergence de l'IA : risques à la croisée de l'IA et des menaces nucléaires, biologiques et cybernétiques

Le caractère à double tranchant des systèmes d'IA peut amplifier celui d'autres technologies - c'est ce que l'on appelle la convergence de l'IA. Nous fournissons une expertise politique aux décideurs américains dans trois domaines essentiels de convergence : biologique, nucléaire et cybernétique.
Une image issue de notre court métrage Artificial Escalation sur les dangers de l'intégration de l'IA dans le commandement et le contrôle des armes nucléaires.

Le caractère à double emploi des systèmes d'IA peut amplifier celui d'autres technologies, notamment les technologies biologiques, chimiques, nucléaires et cybernétiques. Ce phénomène est connu sous le nom de convergence de l'IA. Un à un, les leaders d'opinion se sont traditionnellement concentrés sur l'analyse des risques et des avantages des différentes technologies, en partant du principe que l'interaction entre les différents domaines de menace était limitée. Toutefois, l'intelligence artificielle a la capacité spécifique de s'intégrer à d'autres technologies et d'en amplifier les risques. Cela exige une réévaluation de l'approche politique classique, ainsi que la création d'une typologie des risques de convergence. D'une manière générale, celles-ci pourraient résulter d'un des deux concepts suivants : la convergence par la technologie ou la convergence par l'environnement de sécurité.

Le Future of Life Institute, ayant une dizaine d'années d'expérience en matière d'octroi de subventions et de formation sur les problèmes des technologies émergentes, a essayé de fournir aux décideurs politiques des États-Unis une expertise politique sur la convergence de l'IA. Dans tous les cas, notre travail a pour objectif de résumer les principales menaces liées à ces interactions et de fournir des recommandations politiques concises pour minimiser ces menaces. Nos travaux dans ce domaine se concentrent actuellement sur trois domaines clés de la convergence de l'IA :

Armes biologiques et chimiques

L'IA pourrait réduire à néant les progrès faits au cours des cinquante dernières années pour interdire les armes chimiques et élaborer des normes strictes empêchant leur utilisation. De récentes découvertes ont montré que les systèmes d'intelligence artificielle pouvaient générer des milliers de nouvelles armes chimiques. La plupart de ces nouveaux composés chimiques, ainsi que leurs principaux précurseurs, ne figuraient sur aucune liste de surveillance gouvernementale en raison de leur nouveauté. En ce qui concerne les armes biologiques, la recherche de pointe en matière de biosécurité, telle que la recherche sur le gain de fonction, peut être considérée comme une recherche préoccupante à double tranchant, c'est-à-dire que même si cette recherche a des avantages potentiels importants, elle engendre également des risques significatifs.

Ces progrès rapides s'accompagnent d'avancées encore plus rapides au niveau des outils d'IA utilisés avec la biotechnologie. Par exemple, les systèmes d'IA avancés ont permis de créer plusieurs nouvelles pratiques, telles que l'identification des facteurs de virulence assistée par l'IA et la conception in silico de nouveaux agents pathogènes. Des systèmes d'IA plus généraux, tels que les grands modèles de langage, ont également permis à un nombre beaucoup plus important d'individus d'accéder à des informations potentiellement dangereuses concernant l'acquisition et l'armement d'agents pathogènes dangereux. Cela réduit donc la nécessité d'avoir des compétences en biologie pour mener à bien ces actes malveillants.

Armes chimiques et biologiques et intelligence artificielle : Analyse des problèmes et recommandations pour la politique américaine

février 2024

Cybersécurité

Les systèmes d'IA peuvent permettre aux acteurs malveillants de développer plus facilement des logiciels néfastes plus virulents et plus dévastateurs. Les systèmes d'IA peuvent également aider les cyberattaquants à automatiser les attaques sur les cyberespaces, en augmentant l'efficacité, la créativité et l'impact des cyberattaques par le biais de nouveaux "zero-day exploits" (c'est-à-dire des vulnérabilités non identifiées auparavant), en ciblant les infrastructures essentielles et en améliorant des techniques, telles que le phishing et le ransomware. Comme les systèmes d'IA puissants sont de plus en plus habilités à développer l'ensemble des tâches et sous-tâches nécessaires à la réalisation de leurs objectifs, le piratage informatique autonome devrait également faire son apparition à court terme.

Cybersécurité et IA : analyse des problèmes et recommandations politiques américaines

octobre 2023

Armes nucléaires

Les progrès de l'IA peuvent avoir des effets déstabilisants sur la dissuasion nucléaire, en augmentant la probabilité d'utilisation d'armes nucléaires et en menaçant la sécurité internationale. Les systèmes d'IA avancés pourraient accroître les risques nucléaires grâce à une intégration plus poussée dans les procédures de commandement et de contrôle des armes nucléaires. Ils réduiraient alors la valeur de dissuasion des stocks nucléaires grâce à l'augmentation de l'intelligence, de la surveillance et de la reconnaissance (ISR), ils rendraient les arsenaux nucléaires vulnérables aux cyberattaques et à la manipulation et ils conduiraient à une escalade nucléaire du fait de la désinformation générée par l'IA.

Projet associé

L'escalade artificielle

Ce film de science-fiction montre un monde, où l'intelligence artificielle (IA) est intégrée aux systèmes de commandement, de contrôle et de communication des armes nucléaires ("NC3"), avec des résultats terrifiants.

Intelligence artificielle et armes nucléaires : analyse des problèmes et recommandations politiques américaines

novembre 2023

Pour tout renseignement complémentaire concernant notre travail dans ce domaine, les invitations et les possibilités de collaboration, veuillez nous contacter à l'adresse policy@futureoflife.org.

Nos contenus

Contenus associés

Si vous avez aimé cet article, vous pourriez aussi aimer :
Nos contenus
Notre travail

Autres projets dans ce domaine

Nous travaillons sur une série de projets dans quelques domaines clés. Consultez certains de nos autres projets dans ce domaine :

Lutter contre les "deepfakes

2024 se transforme rapidement en l'année du "Fake" (faux). Dans le cadre d'une coalition croissante d'organisations concernées, le FLI appelle les législateurs à prendre des mesures significatives pour perturber la chaîne d'approvisionnement des "deepfakes" générés par l'IA.

Sommets sur la sécurité de l'IA

Les gouvernements coopèrent de plus en plus pour assurer la sécurité de l'IA. Le FLI soutient et encourage ces efforts.
Notre travail

S'inscrire au bulletin d'informations du Future of Life Institute

Rejoignez les plus de 40 000 personnes qui reçoivent des mises à jour périodiques sur notre travail et nos domaines d'intervention
cloudmagnifiercroixarrow-up linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram