Passer au contenu
Le
bulletin d'informations sur les armes autonomes
Restez informé sur le secteur des armes autonomes grâce à un bulletin d'informations mensuel abordant les efforts politiques, la technologie des systèmes d'armes, et plus encore.

Inscrivez-vous à notre bulletin d'informations

Projet

L'escalade artificielle

Notre film de science-fiction montre un monde, où l'intelligence artificielle (IA) est intégrée aux systèmes de commandement, de contrôle et de communication des armes nucléaires ("NC3"), avec des résultats terrifiants. Lorsqu'une catastrophe survient, les commandants militaires américains, chinois et taïwanais découvrent rapidement qu'avec leur nouveau système d'exploitation, tout s'est accéléré. Ils ont peu de temps pour comprendre ce qui se passe, et encore moins pour éviter que la situation ne dégénère en catastrophe majeure.

Voir sur ce thème Op-Ed in the Bulletin of the Atomic Scientists.

Quel est le danger de l'IA dans les systèmes NC3 ?

La sécurité de notre monde est déjà menacée par une guerre nucléaire accidentelle ou intentionnelle. L'intégration de l'IA dans les fonctions critiques des systèmes NC3 pourrait déstabiliser davantage cette dynamique délicate, ce qui aurait des conséquences désastreuses.

Voici quelques raisons qui sont données dans le film :

  1. La nature de l'IA. L'IA peut être imprévisible, peu fiable et vulnérable aux cyberattaques - ce qui n'est pas idéal pour les systèmes qui contrôlent les armes les plus dangereuses au monde. En l'absence de véritables scénarios de guerre nucléaire, ces systèmes s'entraîneraient principalement sur la base de simulations, ce qui signifie qu'ils pourraient réagir de manière imprévisible à des événements inattendus. Les escalades nucléaires ne se dérouleront probablement pas comme prévu, et les systèmes d'IA peuvent souvent réagir (ou échouer) autrement que les humains.
  2. La perte de contrôle à une vitesse vertigineuse. L'IA peut accélérer la vitesse de la guerre, ce qui laisse moins de temps pour la compréhension, la communication et la prise de décision en toute connaissance de cause. S'ils n'ont qu'un court instant pour réfléchir, les commandants seront plus susceptibles de se fier aux indications ou aux analyses des ordinateurs, et seront moins enclins à les remettre en question ou à les rejeter.
  3. Instabilité géopolitique. Un monde de courses aux armements et de tensions nucléaires privilégie souvent la rapidité à la sécurité, le conflit à la diplomatie, l'action à la compréhension. Une nouvelle technologie pourrait alors être adoptée, avant même d'avoir été véritablement testée.

Le moment est venu pour les pays de fixer des limites à l'interdiction de l'utilisation de l'IA dans les systèmes NC3, d'élaborer des mesures fiables de réduction et de définir des politiques de stabilisation, afin de garantir que les humains gardent toujours le contrôle de la stabilité nucléaire.

Scénario

Dans l'escalade artificielle, les États-Unis et la Chine intègrent rapidement l'IA dans leurs systèmes de commandement, de contrôle et de communication. En savoir plus sur ce monde fictif (mais tout à fait plausible).
Lire le scénario

Introduction à la politique générale

Pour en savoir plus sur les risques de l'IA dans les systèmes NC3 et les solutions politiques possibles, consultez notre introduction à la politique générale :
Lire l'introduction à la politique générale

Que pouvez-vous faire à ce sujet ?

Quelle est la gravité de la situation ?

Outre les explosions, les retombées radioactives et les impulsions électromagnétiques, une guerre nucléaire pourrait provoquer une fumée noire qui bloquerait la lumière du soleil dans tout l'hémisphère nord, ce qui anéantirait l'agriculture pendant plusieurs années. C'est ce qu'on appelle l'hiver nucléaire, qui pourrait tuer deux habitants de la planète sur trois. Regardez la vidéo ci-dessous pour voir à quoi cela ressemblerait.

Autres ressources

Si vous souhaitez en savoir plus sur ces scénarios, nous vous recommandons les documents suivants :

Xia L, Robock A, Scherrer K, et al. Insécurité alimentaire et famine mondiales dues à la réduction de la production agricole, de la pêche et de l'élevage en raison du dérèglement climatique provoqué par les fumées lors de la guerre nucléaire. Aliments naturels. Août 2022

Boulanin V, Saalman L, Topychkanow P, Su F, Carlsson MP. Artificial Intelligence, Strategic Stability and Nuclear Risk. Stockholm International Peace Research Institute. 2020.

Hruby J, Miller MN. Évaluer et gérer les avantages et les risques de l'intelligence artificielle dans les systèmes d'armes nucléaires. Initiative sur la menace nucléaire. 2021.

Wehsener A, Walker L, Beck R, Philips L, Leader A. Forecasting the AI and Nuclear Landscape. Institut pour la sécurité et la technologie. Septembre 2022

Bajema N & Gower J. A Handbook for Nuclear Decision-making and Risk Reduction in an Era of Technological Complexity. Conseil des risques stratégiques. Décembre 2022

Notre travail

Autres projets dans ce domaine

Nous travaillons sur une série de projets dans quelques domaines clés. Consultez certains de nos autres projets dans ce domaine :

Lutter contre les "deepfakes

2024 se transforme rapidement en l'année du "Fake" (faux). Dans le cadre d'une coalition croissante d'organisations concernées, le FLI appelle les législateurs à prendre des mesures significatives pour perturber la chaîne d'approvisionnement des "deepfakes" générés par l'IA.

Concours créatif sur la superintelligence

Le concours du meilleur matériel de formation créatif sur la superintelligence, les risques associés, ainsi que sur les répercussions de cette technologie dans notre monde. 5 prix de 10 000 $ chacun.
Notre travail

S'inscrire au bulletin d'informations du Future of Life Institute

Rejoignez les plus de 40 000 personnes qui reçoivent des mises à jour périodiques sur notre travail et nos domaines d'intervention
cloudmagnifiercroixarrow-up linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram