2001 l'odyssée de l'espace
(Stanley Kubrick, 1968)
A. I. Intelligence artificielle
(Steven Spielberg, 2001)

D'après l’Oxford English Dictionary, c’est dans la nouvelle d'Asimov Menteur !, datée de mai 1941, qu’est mentionné pour la première fois le mot "robotique".  Les célèbres "trois lois de la robotique", sont exposées dans sa nouvelle Cercle vicieux (1942). Les romans suivants montrent cependant que des robots trop basiques finissent par avoir des effets néfastes sur l'humanité en empêchant toute forme de souffrance, la poussant ainsi à l'inaction et étouffant toute pensée artistique. Asimov instaure ainsi une Loi zéro qui place la sécurité de l'humanité avant celle d'un individu. Les Trois Lois sont donc modifiées de cette manière :

On distinguera ainsi les films qui appliquent aux robots les trois lois de la robotique, ceux qui mettent en œuvre les conséquences de la loi zéro..., et ceux qui ne répondent à aucune loi.

1 - Les trois lois de la robotique

Les deux premières lois de la robotique dans Dans I, Robot (Alex Proyas, 2004)

L’application des trois lois de la robotique est censée ne pas générer de conflits entre l’homme et la machine. L’enjeu dramatique se déplace ainsi sur des humains occupés à relever un défi d’importance vitale. Les Intelligences Artificielles (IA), entièrement dévouées au superviseur humain, jouent les seconds rôles, souvent en  appui   d’une mission de conquête spatiale. Ainsi R2D2 dans Star wars IV, un nouvel espoir (Georges Lucas, 1977), ou le robot Tars dans Interstellar (Christopher Nolan, 2014). Le robot Tars d’Interstellar ne ressemble pas à un homme. Il n’y a pas de confusion possible à ce niveau. Tars est bienveillant, autonome mais pas trop. Son sens de l’humour est paramétrable de 0 à 100 % ainsi que sa franchise. Tars demeure totalement dévoué à son créateur. Il ne ressemble pas à un homme. Les trois lois d’Asimov sont parfaitement respectées par le robot Tars qui n’hésite pas à se sacrifier pour garantir l’avenir de l’humanité.

2 - Les ressources scénaristique de la La loi zéro

Seul Her (Spike Jonze, 2013) qui se termine sur un éloignement des Intelligences Artificielles (IA) pour créer leur propre monde montre les effets bénéfiques de la loi zéro. Les IA ont fait perdre aux humains le goût de se confronter les uns aux autres et préfèrent vivre avec leur robots. Ceux-ci finissent par ne plus communiquer qu'entre eux se désintéressant des humains qui retrouveront alors le sens des relations humaines.

Le plus souvent néanmoins la loi zero conduit à la mort ou à l'emprisonnement des humains. Dans 2001 l’Odyssée de l’espace (Stanley Kubrick, 1968), Hal assassine les cosmonautes endormis. Dans I, Robot (Alex Proyas, 2004), VIKI, l'intelligence artificielle tente de contraindre les humains à rester confinés chez eux pendant qu'une nouvelle génération de robots conduirait à une planète pacifiée.

3 - Des robots sans loi

Dans cette catégorie l’IA est présentée dès le début du scénario, comme un personnage néfaste et conspiratif. Les héros humains combattent cette IA tout au long de l’intrigue jusqu’à sa destruction finale. C'est un modèle manichéen où le robot est une sorte d'extra-terrestre doté de superpouvoirs. C’est le cas avec Terminator (James Cameron, 1984), le T-1000 de Terminator 2, Le jugement dernier (James Cameron, 1991) Matrix (Lena et Andy Wachowski, 1999) et Avengers : L'ère d'Ultron (Joss Whedon, 2015). Ultron est la méchante Intelligence Artificielle créée par Tony Stark. Ultron veut détruite l’humanité pour deux raisons : il en veut à son papa, et lui aussi pense que la paix sur Terre ne peut exister que si les humains sont éliminés.

Même manichéisme dans la description de machines qui se retournent contre leur créateur. C'est le complexe de Frankenstein (amour ou haine de son créateur), honnie par Asimov, qui instaurera ses trois lois pour effacer cette perception des robots, très en vogue dans les années 20-30, comme en témoignent Le Golem (Paul Wegener, 1920), Métropolis (Fritz Lang, 1927).

Une dernière catégorie explore l'impact du rêve et de l'inconscient de l'homme sur le fonctionnement de l'intelligence artificielle. Dans Robocop (Paul Verhoeven, 1987) l'agent de police Murphy, laissé pour mort par des gangsters, est devenu un cyborg. Opéré, équipé de circuits intégrés, harnaché d'une indestructible armure, débarrassé de toutes ses émotions, et même du bras gauche encore valide qui lui restait, il est devenu Robocop contrôlé par l'OCP. En proie au rêve, il se souvient partiellement de son ancienne vie puis de son exécution. Traumatisé par celle-ci, il s'autonomise et se venge tout en respectant les 4 lois de la robotique, plus une, secrète, lui interdisant de nuire aux dirigeants de l'OCP. Dans A. I. Intelligence artificielle (Steven Spielberg, 2001), la machine enfant s'humanise en rêvant et accédant à l'inconscient.

L'intelligence artificielle au cinéma :
       
Blade runner 2049 Denis Villeneuve U.S.A. 2017
Avengers : L'ère d'Ultron Joss Whedon U.S.A. 2015
Interstellar Christopher Nolan U.S.A. 2014
Imitation game Morten Tyldum U.S.A. 2014
Her Spike Jonze U.S.A. 2013
Le modèle Turing Catherine Bernstein France 2012
I, Robot Alex Proyas U.S.A. 2004
A. I. Intelligence artificielle Steven Spielberg U.S.A. 2001
Matrix Lena et Andy Wachowski U.S.A. 1999
Terminator 2 - Le jugement dernier James Cameron U.S.A. 1991
Robocop Paul Verhoeven U.S.A. 1987
Terminator James Cameron U.S.A. 1984
Blade runner Ridley Scott U.S.A. 1982
Star wars IV, un nouvel espoir George Lucas U.S.A. 1977
2001 l'odyssée de l'espace Stanley Kubrick U.S.A. 1968
Metropolis Fritz Lang Allemagne 1927
Le Golem Paul Wegener Allemagne 1920

Dans la littérature

Isaac Asimov est l'écrivain de science fiction qui a eu, de loin, le plus d'influence sur l'intelligence artificielle. Dans la science-fiction des années 1930, la majorité des intelligences artificielles suivaient le modèle de la créature de Frankenstein, ce qu'Asimov trouve insupportable : "des robots étaient créés et détruisaient leur créateur". Asimov nomme "complexe de Frankenstein" cette tendance à considérer les machines comme des créatures mortellement dangereuses. Les trois lois forment un principe d'organisation et un thème unifiant l'œuvre de fiction d'Asimov. Asimov considérait que ses lois devaient être universelles pour les robots. Aussi, assistant à la projection de 2001 l’Odyssée de l’espace, il quitta avec bruit la salle lorsque l'ordinateur HAL 9000 viole sa première loi en s'attaquant à des humains.

Les romans d'Asimov, Les Cavernes d'acier, Face aux feux du soleil, Les robots de l'aube et Les Robots et l'Empire montrent cependant que des robots trop basiques finissent par avoir des effets néfastes sur l'humanité en empêchant toute forme de souffrance, la poussant ainsi à l'inaction et étouffant toute pensée artistique.

Au cours du cycle des livres sur les robots, une loi zéro, qui prendra une importance considérable, sera instituée par deux robots, R. Giskard Reventlov et R. Daneel Olivaw, dans la nouvelle Les Robots et l'Empire. Cette Loi zéro tentera de placer la sécurité de l'humanité avant celle d'un individu. Cependant, cette loi n'est pas codée au niveau matériel des cerveaux positroniques, à la différence des trois premières, et elle est une loi de type logiciel, puisque « déduite » par le robot R. Giskard Reventlov.

Les conséquences de la Loi Zéro sont considérables : elle donne le droit aux robots de s’attaquer à des hommes si ceux-ci mettent l’humanité en danger. C'est justement le thème principal de I, Robot (Alex Proyas, 2004), où l'I.A. VIKI (mémoire centrale de la firme U.S. Robots) arrive à la conclusion logique que la plus grande menace pour l'homme est l'homme lui-même et décide d'enfreindre la Première Loi pour protéger l'humanité. Cependant, dans les romans, même programmés avec la Loi Zéro, les robots ne tueront aucun humain, essayant toujours de trouver le moyen de l'appliquer en intervenant le plus légèrement possible.

La conclusion du roman Les Robots et l'Empire en particulier est que seuls des robots très intelligents pour pouvoir correctement appliquer la Loi Zéro seront bénéfiques pour l'humanité, car ils ont connaissance de toutes les subtilités de l'esprit humain et du fait que tout n'y est pas bon ou mauvais. Ces robots peuvent comprendre des notions telles que le sacrifice ou la punition dont le but est censé être positif.

La science

L'intelligence Artificielle désigne la science qui permet de faire effectuer par une machine une action de la même manière que l'homme peut l'effectuer avec sa propre intelligence.

D'après l'un de ses créateurs, Marvin Lee Minsky,  l'intelligence artificielle a été définie comme : "la science qui consiste à faire faire aux machines ce que l'homme ferait moyennant une certaine intelligence". Il est toutefois difficile de parler de notion d'intelligence pour une machine. Dès 1950, Alan Turing a tenté de répondre à cette problématique en créant son "Test de Turing", au cours duquel une personne doit, après avoir « conversé », selon un protocole strict,  avec un humain et avec une machine, déterminer qui est la machine. Si la machine passe le test avec succès, elle est considérée comme intelligente. Jusqu'à présent, aucune machine n'a passée le test avec succès.  On peut qualifier d''intelligence artificielle faible l'approche de l'ingénieur qui cherche à réaliser des systèmes de plus en plus autonomes grâce à des programmes de plus en plus perfectionnés. Les machines sont capables d'agir comme un humain : elle simule l'intelligence (grâce à un programme). Une telle intelligence permet par exemple à une machine de démontrer des théorèmes, de jouer aux échecs ou au go.   L'intelligence artificielle forte consisterait à créer une machine qui ne se contente pas de simuler de l'intelligence, mais surtout capable de comprendre ses propres raisonnements, éprouvant une réelle conscience de soi.

Histoire

Le rêve d'une machine pensante date de l'Antiquité. Le dieu forgeron Héphaïstos avait conçu des trépieds avec des roues d'or, pour se déplacer d'eux-mêmes et servir les dieux de l'Olympe. Pygmalion obtient de Vénus le bonheur d'animer Galatée. Plus près de nous Frankenstein ou la fable de l'apprenti sorcier popularisé par Walt Disney ou Pinocchio montrent la volonté de l'homme de construire des machines vivantes.

En 1642 : invention de la première machine à calculer par Pascal : La Pascaline. Elle permet de calculer des additions et des soustractions.

En 1673 : amélioration de la Pascaline par Leibniz : cette fois, la machine est également capable de réaliser des multiplications et des divisions.

En 1738, Vaucanson présente ses célèbres canards et musiciens programmés grâce à un mécanisme.

1942 : La machine de Turing réussit à décrypter Enigma

En 1946, est présenté à Philadelphie, l'ENIAC (Electronic Numerical Integrator Analyser and Computer), développé par John William Mauchly et J. Presper Eckert, qui est le premier ordinateur entièrement électronique.

En 1948, Turing, installé à Manchester, publie un article sur  la mécanisation de l'intelligence. Il prévoit que la notion d'intelligence ne se limitera pas bientôt au seul cerveau humain. Il expose le jeu de l'imitation qui consiste à isoler dans deux pièces séparées, un ordinateur et un être humain et à positionner un examinateur dans une autre pièce. L'examinateur les bombarde de questions pour savoir qui est l'ordinateur et qui est l'être humain. Pour Turing, l'ordinateur devrait être capable dans un laps de temps de 5 minutes de tromper l'examinateur dans 70 % des cas.

En 1955,  Newell et Simon crée The Logic theorist capable de démontrer des théorèmes. Il est considéré comme le premier programme d’intelligence artificielle.

En 1956 : des scientifiques spécialistes en intelligence artificielle, dont font partie Minsky, McCarthy, Newell, Simon, se réunissent au collège Darmouh (New Hampshir, USA)  pour mettre en commun leurs recherches. C'est lors de cette réunion que l'on considère que Le terme « Intelligence Artificielle » a été inventé  par le scientifique américain John McCarthy.

En 1958,  John McCarthy crée le langage informatique IPL (Information Processing Language). Dans la même année est crée le perceptron par Rosenblatt.

En 1959, Samuel réalise un programme qui joue aux checkers (dames américaines) et "apprend" c'est-à-dire qu'il adapte sa stratégie en fonction du joueur qu'il affronte.

En 1967, Greenblatt crée le premier programme d'échec capable de battre un joueur humain.

Perdant un match en 1996 (2-4) contre le champion du monde d'échecs de l'époque Garry Kasparov, Deep Blue, ordinateur spécialisé dans le jeu  et développé par IBM, bat le champion du monde (3,5–2,5) lors du match revanche en 1997, mais hors des conditions exigées lors des championnats du monde et  après de nombreuses versions et contributions de grands maîtres d'échecs

Sise à Londres, DeepMind, entreprise spécialisée dans l’intelligence artificielle, a été rachetée en 2014 par Google, quatre ans après sa création. AlphaGo, le logiciel de Google DeepMind devient en 2016 le premier programme informatique capable de battre l’humain au go, en écrasant les meilleurs joueurs du monde. En mars 2016, la version du programme AlphaGo Lee  réussit la prouesse historique de battre 4-1 le Sud-Coréen Lee Sedol, alors considéré comme le meilleur joueur au monde. AlphaGo Lee avait nécessité des mois d’entraînement et 30 millions de parties.

En mai 2017,  AlphaGo Master, une version plus puissante d’AlphaGo,  nécessitant 40 jours d’entraînement, terrasse le numéro 1 mondial, Ke Jie.

Le 18 octobre 2017  dans  la prestigieuse revue scientifique Nature, les créateurs d’AlphaGo annoncent avoir mis au point une version considérablement plus puissante de leur programme,  capable d’apprendre à jouer « sans rien savoir du jeu de go. Si, pour fonctionner, AlphaGo apprenait en se basant notamment sur des millions d’exemples de parties jouées par des humains, AlphaGo Zero – le nom de la nouvelle version – n’a besoin, lui, d’aucun exemple. Les seules informations dont dispose le programme, basé sur un réseau de neurones artificiels, sont les règles du jeu et la position des pierres noires et blanches sur le plateau. A partir de là, pour apprendre, le programme va jouer des millions de parties contre lui-même. Avec des coups aléatoires dans un premier temps, avant d’affiner, jeu après jeu, sa stratégie. Et le résultat est sans appel : après trois jours d’entraînement seulement, ce programme a battu 100 à 0 AlphaGo Lee. AlphaGo Zero n’aura eu besoin « que » de 4,9 millions de parties jouées contre lui-même pour écraser AlphaGo Lee. Qui plus est, AlphaGo Zero nécessite bien moins de ressources informatiques pour fonctionner que ses prédécesseurs. "Cette technique est plus puissante que les précédentes versions d’AlphaGo car elle n’est plus contrainte par les limites de la connaissance humaine, expliquent les chercheurs. A la place, elle est capable d’apprendre à partir de zéro avec le meilleur joueur du monde : AlphaGo lui-même."

Cette méthode d’apprentissage "par renforcement", mêlée à d’autres optimisations techniques de DeepMind, se montre donc plus efficace que la précédente, qui combinait de l’apprentissage "supervisé " (basé sur des parties jouées par des humains) et de l’apprentissage par renforcement.. Toutefois, la méthode conçue par DeepMind ne peut pas s’appliquer à tous les problèmes auxquels se confronte l’intelligence artificielle, bien loin de pouvoir se passer de données humaines dans un nombre de cas considérables. Pour appliquer cette méthode, il faut que le cadre soit très défini, qu’on ait une représentation solide du domaine, pas trop de flou dans les règles, et que le problème soit bien défini. Cela s’applique bien au jeu car il y a une connaissance parfaite de l’environnement, des règles, et qu’il y a peu d’imprévu .

Jean-Luc Lacuve, le 10 mai 2018.