Les dangers potentiels

Jusqu'à maintenant, nous nous sommes surtout demandé s'il était possible de construire des intelligences artificielles. Nous devons également nous demander si c'est souhaitable. Si les effets de l'IA sont plus susceptibles d'être néfastes que bénéfiques, ceux qui travaillent dans ce domaine auraient la responsabilité morale de réorienter leurs recherches. Nombre de nouvelles technologies ont eu des effets de bord inattendus. Ainsi, la fission nucléaire a abouti à Tchernobyl à la menace de la destruction globale, le moteur à combustion interne a conduit à la pollution atmosphérique et au réchauffement global. En un sens, les automobiles sont des robots qui ont conquis le monde en se rendant indispensables.

Vers une intelligence artificielle forte ?

Les scientifiques dans l'IA forte ont pour but de doter les machines d'une intelligence et d'un comportement humains. Mais si ce but se concrétisait, cela signifierait la domination des machines sur les êtres humains. En effet, les machines nous surpasseraient non seulement par leurs capacités intellectuelles, mais également par leurs capacités physiques car elles ne subissent pas nos contraintes physiques : elles ne ressentent ni la faim, ni le sommeil, et ni la fatigue.

Isaac Asimov avait édicté les trois lois de la robotique en vue de protéger les hommes des robots :

    • Première loi : un robot ne doit pas blesser un être humain ni, par son action, permettre qu’un humain soit blessé ;
    • Deuxième loi : un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres sont en contradiction avec la première loi ;
    • Troisième loi : un robot doit protéger sa propre existence aussi longtemps qu’une telle protection n’est pas en contradiction avec la première et/ou la deuxième loi.

En 1985, Asimov compléta ses trois lois d'une "loi zéro" ayant pour objectif de placer l'intérêt de l'humanité au-dessus de celle d'un individu : "Un robot ne peut nuire à l'humanité ni laisser sans assistance l'humanité en danger".

Isaac Asimov a cependant démontré dans toute son œuvre sur les robots que ces lois n’étaient pas suffisantes et que, même en les respectant, des robots trop intelligents pouvaient devenir un danger pour l’homme. D'après Jean-Gabriel Ganascia, spécialiste de l'intelligence artificielle, "les règles morales d'Asimov sont une bonne base de réflexion, mais elles sont très insuffisantes pour régler des situations dans le monde réel". En effet, les exceptions y seront encore plus nombreuses que dans le monde d'Asimov, et il est impossible de toutes les répertorier ! La plus évidente, ce sont les robots de guerre, comme les milliers de drones volants de l'armée américaine : faut-il les autoriser à appuyer sur la détente sans intervention humaine ?

Récemment, un projet d'envergure a été dédié à l'étude du cerveau : le Human Brain Project. Son objectif est de construire une machine qui mimerait le fonctionnement de notre cerveau grâce à des modèles et des simulations informatiques, donc un cerveau humain artificiel. En plus de toutes les fonctions de compréhension et de raisonnement, ce cerveau serait donc doté d’une conscience. Il pourrait par conséquent analyser ses propres réflexions et ses décisions et conclure que la décision logique n’est pas la bonne. Il pourrait également refuser d’obéir à un ordre qui irait contre sa conscience. Si la construction est intéressante d’un point de vue scientifique (modéliser une conscience sous forme mathématique n’est pas chose facile), est-elle pertinente d’un point de vue pratique ?

 

C’est sans doute l’une des barrières à ne pas franchir : ce n’est pas au robot de juger de ce qui est bon ou mauvais pour l’homme. Il doit obéir aux ordres qui lui sont donnés, si possible ne pas faire moins que ce qui lui est demandé et, en tout cas, ne pas faire plus. Et en tout état de cause, il faut que la réaction du robot à un ordre soit toujours prévisible par son utilisateur. C’est un point essentiel pour que s’installe la confiance entre l’homme et la machine. Cela signifie peut-être qu’il ne doit pas prendre d’initiatives. Là serait la limite de l’intelligence dont les chercheurs pourraient le doter.

 

Risques du développement de l’intelligence artificielle

Tous les scientifiques et les ingénieurs sont confrontés à des considérations éthiques : comment se comporter dans leurs travaux, quels projets entreprendre ou non et comment les gérer. Toutefois, l'IA semble poser de nouveaux problèmes :

-  Les gens pourraient perdre leurs emplois au profit de l’automatisation

Les robots mettront-ils au chômage toutes les confréries de travailleurs ? L'étymologie même du mot "robot" le suggère. En effet, ce terme est apparu pour la première fois en 1921, dans une pièce de théâtre de l'écrivain tchèque Karel Capek et désignait des travailleurs artificiels, du mot robota signifiant "travail".

L’économie industrielle actuelle est devenue dépendante des ordinateurs et de certains programmes d’IA en particulier. Par exemple, une grande partie de l’économie, surtout aux Etats-Unis, dépend de l’existence du crédit à la consommation. Les applications de gestion de cartes de paiement, de détection des fraudes sont maintenant des programmes d’IA. On pourrait penser qu'ils ont mis des milliers de travailleurs au chomâge, mais, en réalité, si l’on supprimait ces programmes, ces emplois n’existeraient pas parce que le travail humain ajouterait un coût inacceptable aux transactions. Jusqu’ici, l’automatisation, permise par les technologies de l’information en général et par l’IA en particulier, a créé plus d’emplois qu’elle n’en a éliminés. Ceux-ci sont d'ailleurs plus intéressants et mieux rémunérés. Maintenant que le programme d’IA est un « agent intelligent » conçu pour assister les humains, la perte d’emplois est une menace moins grave que lorsque l’IA se concentrait sur les « systèmes experts » destinés à les remplacer. Cependant, certains chercheurs pensent que c’est là le but que l’IA doit se fixer. En 2005, Nils Nilsson a posé comme défi la création d’une IA de niveau humain qui pourrait passer avec succès un test d’embauche au lieu du test de Turing : un robot qui pourrait apprendre à exécuter n’importe laquelle d’une gamme de tâches. Nous pourrions nous retrouver à l’avenir dans un monde où le taux de chômage serait élevé, mais où les chômeurs pourraient diriger des cohortes de robots.

-  Les systèmes de l’IA pourraient être utilisés à des fins indésirables.

Une des menaces potentielles est une intelligence artificielle délibérément programmée pour faire le mal, sous les ordres d'un créateur malfaisant. Un danger qui est réel, mais pas très différent de tous ceux qui accompagnent beaucoup d'autres formes de technologies avancées. Les puissants ont souvent utilisé les technologies avancées pour éliminer leurs rivaux. Comme l’écrivait le théoricien des nombres G. H. Hardy en 1940 : « Une science est dite utile si son développement tend à accentuer les inégalités existantes dans la répartition des richesses, ou promeut plus directement la destruction de la vie humaine. » Cela s’applique à toutes les sciences, y compris l’IA. Les systèmes intelligents autonomes sont maintenant courants sur les champs de bataille. Ainsi, l’armée des Etats-Unis a déployé plus de 5000 avions et 12000 véhicules terrestres autonomes en Irak en 2009. Une théorie soutient que les robots militaires ne sont pas si différentes des armes médiévales. En effet, personne n’aurait d’objection morale à ce qu’un soldat veuille porter un casque pour se protéger des attaques d’ennemis furieux brandissant des haches, et un robot télécommandé est comparable à une forme d’armure très sûre. En revanche, les armes robotisées exposent à des risques supplémentaires. Si les humains venaient à être exclus de la boucle de décision, les robots pourraient se retrouver à faire des choix  qui entraîneraient la mort de civils innocents.

-  Le succès de l’IA pourrait signifier la fin de l’espèce humaine.

Une intelligence artificielle dévoyée qui se retournerait contre ses créateurs, voilà un scénario courant dans la science-fiction (comme HAL 9000 dans 2001, L'Odyssée de l'espace). Mais cette hypothèse est assez improbable, car elle supposerait qu'une intelligence artificielle serait dotée de conscience. Or, l'agressivité, la jalousie, la préservation de soi sont toutes des propriétés qui ne seraient pas caractéristiques d'une intelligence artificielle, à moins qu'on ne les ait délibérément programmées.

Mais il existe une autre menace, moins évidente, et plus difficile à rejeter : une super intelligence artificielle qui est bien intentionnée, mais nous balaie par inadvertance, comme un chiot trop vite grandi renverse une table d'un coup de queue enthousiaste. La Fondation Lifeboat donne un exemple simple : un ordinateur programmé pour éradiquer la malaria qui accomplit sa mission en supprimant tous les mammifères. Et on entre là dans un débat qui agite bien au-delà de Lifeboat. 

 

L'avenir de l'IA

Au vue de la généralisation de l'IA dans notre vie quotidienne et de son évolution, nous pouvons imaginer que cette avancée continuera dans l'avenir. Mais ne courons-nous pas un risque en développement ainsi l'IA ?

L’avènement des machines intelligentes prédit par le mathématicien Alan Turing en 1950 est proche. Des machines bien plus intelligentes que le super-ordinateur d’IBM Deep Blue qui battit Gary Kasparov en 1997 ou que le logiciel allemand Deep Fritz qui fit match nul contre Vladimir Kramnik en 2002. Le logiciel Deep Fritz de la société ChessBase est capable de calculer plus de 3 millions de combinaisons par seconde contre une seule pour l’esprit humain. A l’issue du match, Vladimir Kramnik a déclaré « affronter des machines qui jouent de plus en plus comme des hommes ». Dans son ouvrage « The Age of Intelligent Machine », Ray Kurzweil, honoré de la National Medal of Technology par le Président des Etats-Unis et créateur du premier logiciel de reconnaissance vocale, évoque le temps où les ordinateurs surpasseront l’intelligence humaine.

Selon lui, deux phases marqueront à jamais notre civilisation. D’abord 2029, année où un ordinateur réussira le test de Turing. Si, au bout de trois heures de dialogue écrit, l’examinateur est incapable de déterminer lequel des cinq interlocuteurs est une machine, le test est réussi. « En 1999, un groupe d’experts parlait de cent ans avant qu’une intelligence artificielle puisse réussir ce test. En 2006, la date n’était plus que de cinquante ans. Et moi, je vous dis que dans moins de vingt ans, cela arrivera. » Puis 2045, le point de non-retour, quand la quantité d’intelligence artificielle sera sur la planète, un milliard de fois supérieure à la somme de l’intelligence biologique de l’humanité.

Capacité de raisonnement d'un ordinateur ?

« Nous entrerons alors dans l’ère de la Singularité, stade où il ne sera plus possible d’effectuer raisonnablement des prévisions. Ce sera l’explosion de l’intelligence artificielle qui, obéissant plus que jamais aux lois exponentielles, dépassera l’intelligence biologique et sera en mesure de procéder elle-même à ses propres améliorations. » Un scénario catastrophe pour tous ceux qui imaginent déjà le monde à la merci d'ordinateurs s’affranchissant du commandement humain.

Aujourd’hui encore, l’homme garde le pouvoir de "débrancher" la machine. Mais demain ? « C’est un faux problème, répond Kurzweil. Dès à présent, nous ne pouvons plus “débrancher”. Sans l’intelligence artificielle, il n’y aurait plus d’outils de communication à grande échelle, plus de système bancaire ni de moyens de transport de masse. Mon iPhone est cent fois plus petit que l’ordinateur que j’utilisais étudiant au MIT (Massachusetts Institute of Technology), mille fois plus puissant et un million de fois moins cher. »

Grâce aux progrès de l’informatique et aux algorithmes darwiniens, l’évolution des robots sera dix millions de fois plus rapide que celle de l’espèce humaine. La connaissance de l’ordinateur progresse en effet de façon exponentielle, doublant ses capacités tous les ans conformément à la loi de Moore. En 2040, selon Hans Moravec, les robots effectueront 100 millions de MIPS (million d’instructions par seconde) soit 100 000 milliards d’instructions par seconde et surpasseront l’intelligence humaine. Ils auront la possibilité de se reproduire, d’évoluer, de prendre des décisions et d’échapper à tout contrôle. 

Bill Joy, directeur scientifique de Sun Microsystems, inventeur du langage de programmation Java et ancien directeur de la "Commission américaine sur l'avenir de la recherche dans les technologies de l'information" souligne le risque lié à l'autoreproduction et à l'autocomplexification des machines : "Une bombe n'explose qu'une fois, un robot en revanche peut proliférer et rapidement échapper à tout contrôle".

Dans un article intitulé "Pourquoi le futur n'a pas besoin de nous", Bill Joy invite la communauté scientifique, et plus particulièrement les roboticiens, à prendre conscience de la dangerosité potentielle que leurs travaux peuvent représenter, à plus ou moins long terme, pour l'intégrité et la survie de l'humanité :

Bill

 

« A mesure que la complexité de la société et des problèmes auxquels elle doit faire face iront croissants, et à mesure que les dispositifs deviendront plus « intelligents », un nombre toujours plus grand de décisions leur seront confiées. (...) Un jour, les machines auront effectivement pris le contrôle. Les éteindre ? Il n'en sera pas question. Etant donné notre degré de dépendance, ce serait un acte suicidaire.»

Ces mises en garde ont été reçues majoritairement de manière négative du fait de l'importance accordée aux nouvelles technologies de nos jours.

Les robots actuels, même s'ils ne sont pas encore intelligents, possèdent d'extraordinaires capacités "sensorielles" et de traitement de l'information. Ils possèdent des capteurs visuels, auditifs, olfactifs, tactiles. Les chercheurs en robotique s'inspirent de la nature et reproduisent le bio-radar de la chauve-souris, l'œil de la mouche ou le poil du criquet. Les fonctions de ces robots se multiplient : robots de surveillance, robots explorateurs, robots espions, robots secouristes, robots chirurgiens, robots de compagnie, robots reporters....... Bientôt les micro-drones de surveillance, véritables petits robots, seront dotés d'ailles battantes et capables de vol stationnaire, de décollage et d'atterrissage vertical. Ils seront équipés de tous les moyens d'interception de communication et de capture d'images, de jour comme de nuit.

Ajouter un commentaire

Vous utilisez un logiciel de type AdBlock, qui bloque le service de captchas publicitaires utilisé sur ce site. Pour pouvoir envoyer votre message, désactivez Adblock.

Créer un site gratuit avec e-monsite - Signaler un contenu illicite sur ce site

×