L'IA et l'éthique

L’IA consciente est un sujet qui divise. En effet, un grand nombre de personnes, parmi lesquelles des philosophes ou encore des religieux, jugent que l’intelligence est propre à l’être vivant et qu’une machine ne peut être son égal. Sur les champs de bataille, on voit déjà des robots qui savent adapter leurs déplacements sans besoin d'indication humaine.

Cela ouvre la question de l'éthique, de la conscience ou de l'objectivité des robots. Est-il possible de développer une IA toujours plus performante et plus proche de l’être humain sans toutefois franchir certaines limites éthiques ?

La roboéthique

Avant de l'appliquer à l'IA, il est nécessaire de vous donner tout d'abord la définition du mot "éthique". L'éthique est une discipline philosophique qui réfléchit sur les valeurs de l'existence, sur les conditions d'une vie heureuse, sur la notion de "bien" ou sur des questions de morale.
L'éthique peut également être définie comme une réflexion sur les comportements à adopter pour rendre le monde humainement habitable. En cela, l'éthique est une recherche d'idéal de société et de conduite de l'existence.

La roboéthique a été inventée il y a une dizaine d'années. Cette discipline mêlant à la fois science, droit et philosophie a déjà ses instituts de recherche et sa conférence internationale, qui réunit tous les ans les spécialistes en intelligence artificielle et en sciences humaines. Ceux-ci tentent d'édicter des règles qui nous permettront de vivre heureux avec les robots.
Leur référence incontournable est Isaac Asimov. Cet auteur de science-fiction américain a été le premier, dès les années 1940, à imaginer une société où humains et robots coexisteraient harmonieusement. A l'époque, on est encore loin de Terminator, mais la peur de voir les machines se rebeller contre leurs créateurs est déjà là. C'est pourquoi l'écrivain invente les trois lois de la robotique, inscrites à l'usine dans le cerveau des robots pour les empêcher de faire le moindre mal aux êtres humains.

Une machine peut-elle être intelligente ?

Cette question divise les hommes depuis longtemps, plus précisément depuis le XVIIème siècle. En effet, c’est pendant cette période appelée le siècle des Lumières que deux grands philosophes, René Descartes (1596-1650) et Thomas Hobbes (1588-1679) vont s’opposer sur de nombreux points. L’un des sujets où leurs opinions divergent est justement celui qui nous intéresse. Selon Descartes, la pensée est propre à l’Homme. Une machine est capable de reproduire certains caractères de l’être humain mais sûrement pas tous. Thomas Hobbes affirme lui que la pensée n’est qu’un calcul mathématique gigantesque, que la pensée humaine serait simplifiable en une formule.

Depuis, d’autres penseurs ont réfléchi à ce problème mais les opinions de ceux-ci restent globalement les mêmes que celles de ces deux personnages.

 

Utilisation de robots « intelligents » lors de conflits armés

L’utilisation de robots lors de guerre était autrefois considérée comme de la science-fiction. De nos jours, la présence de machines sur les champs de bataille est une banalité. Elles avaient d'abord été conçues dans le but de préserver les vies humaines de son camp. Les machines de nouvelle génération qui combattent à notre place sont diverses et variés et sont capables de combats terrestres mais aussi de combats aériens. Elles peuvent être commandées à distance (drones) ou être autonomes (tourelles automatiques repérant ses cibles grâce à des capteurs infrarouges). Ces machines ont démontré leur efficacité lors des dernières guerres notamment en Afghanistan et au Pakistan. Les combattants djihadistes de ce pays ont alors soulevé un problème. En effet, ces derniers jugent l’utilisation de drones tels que les MQ-1 Predator ou les MQ-9 Reaperpar l’armée américaine comme étant déloyal. Ces drones ont causé la mort d’une grande partie de leurs leadeurs et, plus généralement, d’un grand nombre des leurs. On estime par exemple que les seuls drones MQ-1 Predator ont causé 1 459 morts et 2 319 victimes au Pakistan.

File:MQ-1 Predator unmanned aircraft.jpgMQ-1 Predator

Le problème posé par les talibans est donc le suivant : peut-on déléguer des tâches telles que les guerres à des robots ?

Même si l’idée d’armée entièrement constituée de robots totalement indépendants reste encore de la science-fiction, les robots jouent aujourd’hui un rôle majeur dans les guerres. Par rapport aux êtres humains, ils ont des avantages et des inconvénients qui sont à prendre en compte.

Dans un premier temps, les robots obéissent tout le temps aux ordres, puisque pour le moment, ils ne sont pas capables de se faire eux-mêmes leur propre avis. Les robots sont également plus résistants qu’un humain puisqu’ils peuvent être renforcés par un blindage fait d’un métal plus ou moins résistant. Enfin, les robots n’éprouvent, pour le moment, aucun sentiment (colère, peur, vengeance) qui pourrait altérer leur jugement lors de certaines situations. Enfin, il est impossible de détourner un robot de son objectif car il est incorruptible.

En revanche, les robots ont également de nombreux défauts. Tout d’abord, il n’existe aucune fraternité entre les robots contrairement aux soldats humains. Ensuite, si un robot indépendant est confronté à une situation pour laquelle il n’est pas programmé, sa réaction devient totalement imprévisible (tir sur ses alliés, sur des civils). Des choix qui peuvent paraitre évidents pour un humain ne le sont pas forcément pour un robot. Enfin, en cas de court-circuit dans ses systèmes, un robot lourdement armé pourrait faire un véritable carnage en détruisant tout autour de lui. Pour finir, si des robots sont dirigés à distance par des humains, il est possible de pirater le système de transmission des ordres humains-robots. On pourrait alors avoir des milliers de machines de guerre sous le contrôle de groupes très dangereux.

 

Les problèmes que pourraient causer ces robots

1)   Le problème de la responsabilité

En temps normal, si une machine telle qu’une voiture cause un accident, l’entreprise l’ayant fabriquée n’est responsable que si cet accident est dû à un défaut de fabrication.

En 2012, les voitures robots sans chauffeur ont été autorisées sur les routes du Nevada aux Etats-Unis. Elles ont parcouru des centaines de milliers de kilomètres sans un seul accident et peut-être sont-elles plus sûres que les chauffeurs humains. Mais un jour ou l’autre, l’une d’elles finira sûrement par renverser un piéton, et là, les ennuis commenceront car dans cette situation, qui est le véritable responsable ?

  • le constructeur puisque c’est lui qui a fabriqué cette machine.
  • le propriétaire puisqu’il n’a pas bien « éduqué » son robot qui est pourtant capable d’apprendre et donc de savoir ce qui est bien ou pas
  • le robot puisqu’étant conscient, il devient responsable de ses actes. Cette troisième option signifierait qu’il devient l’égal de l’être vivant
Il s’agit d’un vrai casse-tête auquel la justice n’a pas encore la réponse. Après avoir été enfermés durant des années dans les labos et les usines, les robots commencent maintenant à se mêler aux humains, ce qui soulèvera certainement d’autres problèmes dans ce genre. Heureusement, des chercheurs réfléchissent déjà à des solutions.
 
 
2) Le problème du statut du robot

Si les travaux sur l’IA aboutissaient et permettaient la création d’androïdes intellectuellement proches de l’Homme, ayant la capacité d’apprendre de nouvelles choses par eux-mêmes et de ressentir des émotions, les robots pourraient être considérés comme des êtres vivants à part entière. Ce détail changerait alors beaucoup de choses et de nouveaux problèmes liés à l’éthique apparaitront :

A-t-on le droit d’exploiter des robots semblables en tous points à l’être humain ?

Même si les robots devenaient assez intelligents pour effectuer des travaux que l’homme ne veut plus faire, rien ne prouve qu’il ait la même efficacité et qualité de travail car si le robot rencontre un  problème auquel il n’a jamais été confronté avant, et qu’il n’y a plus d’être humain pour le surveiller,  il risquerait d’avoir une réaction totalement imprévisible et dangereuse qui ne sera pas forcement la plus appropriée et qui risquerait de causer des dégâts plus ou moins importants. Car l’Homme, s’il est confronté à un problème, est capable d’improviser et de choisir inconsciemment une option sensée. Donc rien ne dit qu’une IA très performante serait une bonne chose pour l’humanité. 

 

Ajouter un commentaire

Vous utilisez un logiciel de type AdBlock, qui bloque le service de captchas publicitaires utilisé sur ce site. Pour pouvoir envoyer votre message, désactivez Adblock.

Créer un site gratuit avec e-monsite - Signaler un contenu illicite sur ce site

×