Cet article vous est offert
Pour lire gratuitement cet article réservé aux abonnés, connectez-vous
Vous n'êtes pas inscrit sur Le Monde ?

Stephen Hawking et Elon Musk réclament l’interdiction des « robots tueurs »

Plus d’un millier de personnes, parmi lesquelles de nombreux chercheurs en intelligence artificielle, ont signé un appel pour faire interdire les armes autonomes.

Par 

Publié le 27 juillet 2015 à 20h33, modifié le 14 mars 2018 à 12h06

Temps de Lecture 3 min.

C’est une nouvelle charge portée contre les dangers potentiels de l’intelligence artificielle (IA). Dans une lettre ouverte publiée lundi 27 juillet, plus d’un millier de personnalités, dont une majorité de chercheurs en IA et en robotique, ont réclamé l’interdiction des armes autonomes, capables « de sélectionner et de combattre des cibles sans intervention humaine ».

Parmi les signataires, on retrouve Elon Musk, le célèbre PDG du constructeur de voitures électriques Tesla et de SpaceX, et l’astrophysicien britannique Stephen Hawking, qui avaient déjà fait part publiquement de leurs inquiétudes concernant l’IA. Mais aussi le cofondateur d’Apple Steve Wozniak, le linguiste américain Noam Chomsky ou encore Demis Hassabis, le fondateur de DeepMind, une entreprise consacrée à l’intelligence artificielle rachetée par Google.

« Une course à l’armement »

Publiée à l’occasion de l’IJCAI, une conférence internationale sur l’intelligence artificielle, qui se tient du 25 au 31 juillet à Buenos Aires, la lettre dénonce un danger imminent :

« L’intelligence artificielle a atteint un point où le déploiement de tels systèmes sera – matériellement, si pas légalement – faisable d’ici quelques années, et non décennies, et les enjeux sont importants : les armes autonomes ont été décrites comme la troisième révolution dans les techniques de guerre, après la poudre à canon et les armes nucléaires. »

Leur crainte : que les Etats se lancent dans « une course à l’armement », justifiée par le fait que « remplacer des hommes par des machines permet de limiter le nombre de victimes du côté de celui qui les possède ». Pour eux, « la question clé de l’humanité, aujourd’hui, est de savoir s’il faut démarrer une course à l’armement doté d’IA ou l’empêcher de commencer ».

Selon les signataires, une telle escalade serait « inévitable » si une puissance militaire se lançait dans ce domaine et, « contrairement aux armes nucléaires, [ces armes] ne nécessitent aucun matériel de base coûteux ou difficile à obtenir ». Par conséquent, préviennent-ils, « ce ne sera qu’une question de temps avant qu’elles n’apparaissent sur le marché noir et dans les mains de terroristes, de dictateurs souhaitant contrôler davantage leur population et de seigneurs de guerre souhaitant perpétrer un nettoyage ethnique ».

Cette lettre a été publiée par le Future of Life Institute (FLI), un organisme américain à but non lucratif qui se focalise, peut-on lire sur son site, sur « les risques potentiels du développement d’une intelligence artificielle de niveau humain » et qui « travaille à atténuer les risques existentiels auxquels doit faire face l’humanité ». Il avait récemment fait parler de lui en annoncant au début du mois le financement de 37 projets visant à prévenir les risques liés à l’intelligence artificielle, grâce à un don d’Elon Musk.

L’IA pourrait en pâtir

Mais ce texte ne se veut pas une charge contre l’intelligence artificielle. Les chercheurs qui l’ont signé redoutent au contraire qu’une telle application de l’IA ne « ternisse » ce champ de recherche et ne crée un « rejet majeur du grand public contre l’IA qui couperait court à tous ses bénéfices sociétaux futurs ».

La question de l’interdiction des « armes létales autonomes » a fait l’objet d’une réunion de l’ONU en avril. Le rapporteur spécial de l’ONU Christof Heyns plaide depuis plus de deux ans pour un moratoire sur le développement de ces systèmes, en attendant la définition d’un cadre juridique adapté. L’ONG Human Rights Watch a quant à elle dénoncé, dans un rapport publié en avril, « l’absence de responsabilité légale » s’appliquant aux actes de ces « robots tueurs ».

Le tout dans un contexte où l’interdiction de ces armes ne semble pas acquise pour tout le monde : en octobre dernier, la ministre de la défense norvégienne Ine Eriksen Søreide s’y était opposée. « Il serait inopportun d’interdire le développement des robots tueurs. Il est aujourd’hui difficile de savoir ce que recouvre cette notion. Il n’y a actuellement aucune technologie qui puisse vraiment recevoir ce qualificatif », avait-elle argué.

L’espace des contributions est réservé aux abonnés.
Abonnez-vous pour accéder à cet espace d’échange et contribuer à la discussion.
S’abonner

Voir les contributions

Réutiliser ce contenu

Lecture du Monde en cours sur un autre appareil.

Vous pouvez lire Le Monde sur un seul appareil à la fois

Ce message s’affichera sur l’autre appareil.

  • Parce qu’une autre personne (ou vous) est en train de lire Le Monde avec ce compte sur un autre appareil.

    Vous ne pouvez lire Le Monde que sur un seul appareil à la fois (ordinateur, téléphone ou tablette).

  • Comment ne plus voir ce message ?

    En cliquant sur «  » et en vous assurant que vous êtes la seule personne à consulter Le Monde avec ce compte.

  • Que se passera-t-il si vous continuez à lire ici ?

    Ce message s’affichera sur l’autre appareil. Ce dernier restera connecté avec ce compte.

  • Y a-t-il d’autres limites ?

    Non. Vous pouvez vous connecter avec votre compte sur autant d’appareils que vous le souhaitez, mais en les utilisant à des moments différents.

  • Vous ignorez qui est l’autre personne ?

    Nous vous conseillons de modifier votre mot de passe.

Lecture restreinte

Votre abonnement n’autorise pas la lecture de cet article

Pour plus d’informations, merci de contacter notre service commercial.