Club robotique de Sophia-Antipolis

Accueil > POBOTpedia > Programmation > Explorer > Intelligence Artificielle > Un robot peut-il être intelligent ?

Un robot peut-il être intelligent ?

dimanche 5 août 2012, par Joël C., Julien H.

Avant de savoir si une machine est intelligente, il faut définir ce qu’est l’intelligence. En effet, les définitions et les formes possibles de l’intelligence (voire des intelligences) sont multiples et dépendent de l’environnement, du contexte, du domaine observé, voire même, du point de vue de l’observateur.

Le terme d’intelligence artificielle reste ambigu. Il a donné beaucoup de promesses, et provoqué autant de déceptions.

 L’homme comme référence ?

Aux origines des travaux en intelligence artificielle, deux conceptions s’opposent :

Pour certains, il s’agissait de rendre les machines aussi intelligentes que l’homme. Dans ce cas, notre question va rester posée encore longtemps car le résultat est loin d’être satisfaisant à l’heure d’aujourd’hui.Pour d’autres, il s’agissait de rendre les machines aussi fiables qu’on le voudrait : c’est une intelligence minimale, dans un périmètre confiné à leur usage.

Dans les deux camps, on trouvera des partisans mais pas forcément unanimes : on peut partager la même définition comme objectif mais ne pas être d’accord pour considérer qu’il est atteint ou pas.

Pour nous, il est plus aisé de rejoindre ceux qui pensent que l’objectif reste non-atteint, ce qui améliore la définition de l’intelligence artificielle, plutôt que de convaincre l’autre partie de l’opinion que les machines ne sont pas encore intelligentes, même dans l’acception la plus réductrice.

La seconde définition est la moins raisonnable : quasiment tout peut être "intelligent", ce qui n’est pas du tout satisfaisant. IA devient le contraire de "télécommandé" et le synonyme d’autonome.

 La stupidité comme test d’intelligence

On pourrait aussi tenter de trouver la définition de l’intelligence par l’étude de son contraire, et de quantifier la stupidité. C’est faisable, mais ce n’est pas plus simple.

Quel serait le niveau le plus bas de stupidité ? La compréhension de son concepteur ou de ses utilisateurs ?

Cette définition de l’IA est tentante, et ravira les vendeurs de bidules qui font pouet pouet : une machine est intelligente quand ses utilisateurs sont surpris de son comportement, qu’ils considèrent plus astucieux ou tout simplement plus réussi que ce qu’ils auraient fait.

Ainsi un robot qui tient en équilibre sur une jambe, en faisant tourner sa main droite sur son ventre et en tapant sur sa tête avec l’autre main serait "intelligent"... Rajoutez-y de la vitesse, de la force et des explosions et le prochain char d’assaut qui rasera une ville sera "intelligent".

C’est déjà le cas avec les drones présentés par Ray Kurzweil. Il existe même des mines "intelligentes", avec le système IMS.

 Les comportements déterministes

Puisqu’on parle de Kurzweil, une citation de Bertolt Brecht [1] :


L’intelligence n’est pas de ne pas faire d’erreur, mais de voir au plus vite comment les corriger.

Et c’est bien là le problème : la plupart des robots sont déterministes. Ils exécutent ce qui a été prévu, et même si leur mémoire devient gigantesque et que l’ensemble des prédictions et des réactions à émettre en réponse va devenir plus grand que ce que des milliers d’hommes pourraient enregistrer, il n’en restera pas moins que l’action N+1 sera la déduction des états 1 à N dans le meilleur des cas, et pour la plupart des machines, l’état N seulement.

Dans ces conditions, l’intelligence flirte avec les notions d’instinct et d’inné, qui font qu’un homme avec beaucoup moins d’informations et beaucoup moins de mémoire ou de connaissance des expériences passées va savoir trouver la solution pour corriger ses erreurs.

 La conscience de ses erreurs

La phrase de Bertolt Brecht a une conséquence : si on veut corriger ses erreurs, il faut s’en rendre compte. Donc il faut associer la nouvelle situation problématique aux actions qu’on vient d’effectuer, et y trouver un lien de cause à effet. Si l’effet est négatif (la situation n’est pas celle qu’on attendait), alors c’est que la cause était erronée.

Il faut donc que la machine puisse avoir conscience de ce qu’elle fait.

Mais les détracteurs de cette philosophie de la robotique diront qu’il faut surtout anticiper les erreurs et prévoir toutes les alternatives (soit encore de manière déterministe).

Une bonne partie des études en algorithmes d’intelligence artificielle consiste donc à faire des simulations de ce qui va arriver, pour détricoter ensuite toutes les actions mauvaises pour construire une séquence probable contenant un maximum de chances de réussite. C’est le retour sur trace ou backtracking qui est utilisé par exemple dans les logiciels de jeu d’échecs. Rappelons que l’une des machines star de l’intelligence artificielle était Deep Thought ou Deep Blue puis Deeper Blue, un joueur d’échecs (bien qu’il n’ait pas vraiment battu le champion Kasparov, mais l’a plutôt épuisé, puisqu’un robot ne dort pas, ne mange pas). On précise ici le nom original "Deep Thought" qui veut dire "pensée profonde", preuve que les initiateurs du projet ne voulait pas seulement faire un système de calcul performant, mais bien donner une pensée à leur machine (ou bien faire un jeu de mot, ce qui est aussi possible).

 Des tests pour l’intelligence artificielle

En attendant de trouver un robot intelligent, peut-être pourrait-on imaginer un test pour tester l’intelligence d’un robot ? . Continuez la réflexion avec cet article sur le test de Turing. On peut déjà dire que de même que les tests de QI pour humains sont controversés, alors il en sera de même pour les tests de machines.


Merci à Joël pour les éléments de réflexion fournis et qu’on retrouve dans ce texte. Julien.


[1en fait, l’acolyte musicien de Brecht était Kurt Weill, j’ai pas résisté à l’homonymie imparfaite

Vos commentaires

  • Le 11 août 2012 à 12:34, par Stephan En réponse à : Un robot peut-il être intelligent ?

    En premier lieu, il n’y a pas une intelligence mais des intelligences. Les tests de QI standards en dénombrent 4.

    Répondre à ce message

  • Le 14 août 2012 à 15:33, par Marco En réponse à : Un robot peut-il être intelligent ?

    Luigi Pirandello disait : "L’intelligence est la conscience d’être". Je ne saurais confirmer ou infirmer cette assertion. Toutefois je considère que cette conscience d’être est un phénomène auquel nous avons tous accès par l’expérience. En effet, lorsque l’on fait un choix on est à la fois conscient du choix que l’on fait et du fait que l’on est en train de le faire.
    Je pense, aussi que l’homme n’est pas le seul être vivant à posséder ce fonctionnement particulier...

    Quelle est l’influence de cette particularité de fonctionnement sur la qualité des décisions que l’on prends, donc sur l’intelligence et/ou l’autonomie du système que nous représentons (humain) ?
    C’est difficile à dire. Mais on peut pressentir que cela influe sur notre capacité à corriger nos erreurs (pour revenir à ce qui à déjà été dit).

    Je me demande d’ailleurs dans quelle mesure le test d’Allan Turing est exhaustif. En effet, même un chien remarquablement ’intelligent’ ne passerai pas le test.
    Toutefois nous ne sommes pas encore en mesure de concevoir un système ayant véritablement les capacités ’intellectuelles’ d’un chien.

    Quand on étudie la notion d’intelligence telle quelle s’exprime chez l’humain il est intéressant de considérer les observations faites dans divers domaines :
    Dans le domaine Médical, par exemple autour des pathologies type Alzheimer, ou même dyslexie comme parailleurs quasiment toute les neuropathologies. Ces études recèlent de clés aidant a comprendre le fonctionnement intime du cerveau aux plus hauts niveaux (d’’exécution’ des processus cérébraux). Par exemple quand on observe qu’un malade atteint d’Alzheimer est en mesure de conduire certains raisonnements tout en ayant perdu la capacité d’en conduire d’autres sur lesquels, pourtant ces premiers sont basés. On observe donc que contrairement a ce qu’on est en droit de s’attendre on est pas en face d’un système logique totalement hiérarchisé mais d’unités logiques indépendantes (bien que liées).
    Si ce n’était pas le cas, d’ailleurs, tout raisonnement, même simple entraînerais peut être la reconsidération de toutes les notions sous-jacentes à ce dernier. Un peu comme dans une démonstration en mathématiques on admet ou démontre un certains nombre de faits pour en arriver a une conclusion sans ambiguïtés. Cela prendrait alors beaucoup de temps. Et cela nous rapprocherait du fonctionnement de nos ordinateurs.

    Répondre à ce message

Un message, un commentaire ?

modération a priori

Attention, votre message n’apparaîtra qu’après avoir été relu et approuvé.

Qui êtes-vous ?

Pour afficher votre trombine avec votre message, enregistrez-la d’abord sur gravatar.com (gratuit et indolore) et n’oubliez pas d’indiquer votre adresse e-mail ici.

Ajoutez votre commentaire ici
  • Ce formulaire accepte les raccourcis SPIP [->url] {{gras}} {italique} <quote> <code> et le code HTML <q> <del> <ins>. Pour créer des paragraphes, laissez simplement des lignes vides.

Ajouter un document