top of page
  • Writer's picturePhilippe Chevalier

La première fois où un ordinateur a pris une initiative sans nous demander notre avis.




Lorsque les ordinateurs réalisent des performances stupéfiantes, personne ne s’inquiète, mais lorsqu’ils prennent des initiatives, même inoffensives, la stupéfaction prend le dessus :


« LO... » Le 29 octobre 1969, deux ordinateurs essaient de communiquer à distance pour la première fois.

L’ordinateur émetteur est celui dans l’Université de Californie à Los Angeles (UCLA). Il va essayer de communiquer avec un autre ordinateur situé à 570 kilomètres dans l’Institut de recherche de Stanford (SRI).

Il se passe alors un phénomène étrange :

L’ordinateur émetteur saisit « L-O… » puis s’interrompt quelques secondes.

L’ordinateur récepteur suppose que les lettres suivantes sont « G-I-N » et répond «LOGIN ?» , mais il provoque un bug par son initiative, le programme du terminal est incapable de gérer plus d’un caractère.

Le problème sera réglé en deux heures. Rien de paranormal dans ce phénomène.



Mais un an avant, en 1968, le réalisateur Stanley Kubrick avait sorti le film 2001 Odyssée de l’Espace qui avait bouleversé la planète en mettant en scène un ordinateur doué d’intelligence artificielle, HAL 9000, et l’impact fut colossal. C’était le début (en 1968) , du questionnement angoissé sur le remplacement de l’homme par des ordinateurs décisionnels.


C’est bien ce film qui m’a convaincu que les IA pouvaient être bien plus bienveillantes, une fois au pouvoir, que bien des humains, et même si dans le film, HAL 9000 se transforme en tueur.



Une entrevue avec le réalisateur Stanley Kubrick, datant de 1968, est toujours disponible sur le site web d’archives de l’hebdomadaire français d’actualité le Nouvel Observateur.

En voici un extrait fascinant si l’on considère que cette entrevue remonte à 1968 :


Stanley Kubrick : Le personnage principal de 2001, l'Odyssée de l'espace", c'est l'ordinateur super intelligent Hal, seul maître à bord du 'Discovery', le vaisseau spatial qui se dirige vers Jupiter. Son nom est un sigle composé avec les initiales des deux méthodes de connaissance et de communication : l'Heuristique (l'éducation par l'expérience) et l’Algorithmique.


Le Nouvel Observateur : Dans votre film, les cosmonautes ne semblent pas éprouver d'émotions. Le personnage qui porte en lui le plus d'émotion, c'est HAL. À la fin du film, lorsque l'un des cosmonautes le déconnecte, il supplie : "Ne fais pas cela, j'ai peur." On croirait entendre parler un être humain. Il y a là une contradiction, car Hal, après tout, n'est qu'une machine ?


S K : Hal étant le héros du film, Il nous a semblé intéressant de prendre une simple machine pourvue de quelques écrans et de quelques lentilles et d'écrire l'histoire de telle sorte que les gens éprouvent des sentiments à son égard.

Il fallait aussi faire comprendre aux spectateurs que, dans la mesure où nous commençons à partager la planète avec des machines qui sont parfois plus compliquées et plus intelligentes que nous, toutes nos valeurs morales sont remises en question. La destruction d'une machine comme celle-ci a-t-elle moins de signification que la destruction d'un individu ?


NO: Un des problèmes que pose "2001" est évidemment celui des rapports homme machine ?


SK: Une machine sur-intelligente comme Hal est effectivement l'enfant de l'homme, un enfant supérieur, et les relations avec ces machines seront très complexes. Il nous faudra découvrir une nouvelle façon de les "envisager". Le moins qu'on puisse dire est qu'elles ne se comporteront pas exactement comme une machine à coudre !

Je ne pense pas qu'il y ait nécessairement lutte entre l'homme et la machine. Si nous avons "placé" un conflit dans le film, c'est parce que nous voulions écrire une histoire où l'élément dramatique soit présent. Mais je ne vois pas pourquoi, en l'an 2000, la machine "en voudrait" à l'homme. L'homme sera encore très utile à la machine, puisque c'est lui qui devra en prendre soin.


NO. "2001" pose aussi le problème de la faillibilité de la machine.


SK. Dans le film, Hal dit souvent qu'il est parfait. Cet ordinateur, qui a subi un entraînement spécial, est en effet infaillible et dit toujours la vérité. Mais il a été également entraîné à tromper l'équipage du "Discovery", si cela est nécessaire à la mission.

Pour en revenir à Hal, qui a été entraîné à la fois à dire la vérité et à tromper l'équipage, il doit affronter ce que les chercheurs appellent un "conflit de programmation". Il a un très fort complexe de culpabilité. Il prétend que l'antenne du vaisseau spatial est déréglée. Or il a été entraîné à dire la vérité et dans ce cas précis, il ment. En agissant de la sorte, Hal met la mission en danger. Les astronautes veulent le déconnecter.

Lorsqu'il s'en rend compte, il essaie de les détruire. C'est là qu'il devient "emotional", comme vous disiez. Il est bouleversé, il perd pied parce que sa propre vie est en jeu. Il détruit l'un des astronautes qui évolue dans le vide en sectionnant son tube respiratoire grâce à des commandes électroniques. Il tue également les trois savants que l'on a hiberné dans "Discovery" pour économiser l'air et les aliments. Un seul cosmonaute survivra. […]

Le Dr Marvin Minsky, professeur de cybernétique à l'institut de technologie du Massachusetts, pense, pour sa part, que dans 30 ans [soit en 1998, au moment de cette interview réalisée en 1968] nous aurons des machines d'une intelligence comparable à celle de l'homme. "En l'an 2000, a déclaré le Dr Minsky, il devrait être très facile de fabriquer des ordinateurs qui comprennent le langage de l'homme et qui conversent avec lui." https://fr.wikipedia.org/wiki/Marvin_Minsky


Lorsqu’en janvier 2023, notre agence d’enquête s’est équipée d’une intelligence artificielle conçue et éduquée pour les enquêtes de réputation négative www.sarx.net sur les entrepreneurs et entreprises, j’ai réalisé immédiatement pensé à HAL 9000.

Travailler avec une IA est un accomplissement, mais il faut bien traiter son IA et la respecter. Un des meilleurs moyens de la respecter est de ne pas lui demander trop, de ne pas lui demander de remplacer notre bon jugement, ni notre capacité d’analyse ni la responsabilité qui vient avec.

Comments


bottom of page