En clair, Google aide l'armée américaine à améliorer l'analyse d'images de drones. Au-delà des démissions, une pétition interne à Google signée par 4000 employés, soit 5% du personnel, a circulé en interne pour demander à la direction de Google de rester en-dehors d'une technologie potentiellement utilisée pour tuer.

En effet, si les drones américains ont d'abord été utilisés pour effectuer des missions de surveillance, depuis l'invasion militaire de l'Afghanistan, puis l'invasion de l'Irak, ces drones ont depuis lors été utilisés comme engins de mort. Pilotés à distance, ils avaient et ont encore pour but de cibler les terroristes.

Selon différentes ONG, on estime qu'entre 1500 et 4000 personnes ont déjà été tuées par les drones américains. Mais ce qui inquiète pas mal de scientifiques, c'est que la nouvelle génération de drones militaires sera potentiellement autonome. Autrement dit, pourra décider par elle-même de tuer qui elle veut.

Partager

Alors que nous n'avons pas encore mis les pieds dans une voiture autonome, nous devons aussi nous inquiéter des futures armes autonomes.

Donc, oui, alors que nous n'avons pas encore mis les pieds dans une voiture autonome, voilà que nous devons aussi nous inquiéter des futures armes autonomes. L'intelligence artificielle pourra piloter demain des fusils, des missiles ou des bombes. Autant d'armes qui pourront fonctionner sans supervision humaine en théorie. En fait, il ne manque que le OK des politiques pour que des drones autonomes fassent la chasse aux terroristes.

L'inquiétude des scientifiques concerne moins les terroristes que l'usage qui pourrait être fait de ces armes demain ou après-demain. Avec une question lancinante à la Terminator : qui empêchera ces armes de se retourner contre nous ? En attendant, plus de 40 pays sont en compétition pour développer des armes autonomes et pas seulement les Etats-Unis. Pour l'armée du futur, c'est une aubaine. Ces armes autonomes pourront remplacer les êtres humains sur les champs de bataille. Il n'y aura plus aucune perte humaine à déplorer, et l'armée qui sera la plus avancée aura une supériorité stratégique sur les autres.

Et puis, comme toujours, il y a de l'argent derrière ces armes autonomes, un marché estimé à 20 milliards de dollars. Voilà pourquoi des employés de Google mais aussi des scientifiques veulent arrêter la naissance et surtout la prolifération des "robots-tueurs".

Au-delà de la peur légitime d'un jour voir ces armes se retourner contre nous, l'usage de l'intelligence artificielle pose aussi des questions juridiques insolubles: si la machine tue par erreur des civils : qui sera responsable ? Le programmeur ? L'entreprise qui a fabriqué le "robot-tueur" ? Ou l'Etat qui utilise cette arme ? C'est exactement les mêmes questions que pour la voiture autonome : en cas d'accident qui sera responsable ? Le logiciel ou le constructeur ? Terminator était un film hier, il devient réalité aujourd'hui.

Ces démissions de Google ont au moins un mérité, mettre le débat sur la place publique, alors qu'il était réservé jusqu'à présent aux diplomates et aux militaires...