Le Panoptique

Perspectives sur les enjeux contemporains | More Perspective on Current International Issues

L’intelligence synthétique

Publié le 1 mars, 2007 | Pas de commentaires
Par

Télécharger l'article au format PDF

La création d’un avion de combat sans pilote constitue un des grands objectifs de l’industrie militaire du prochain siècle. Néanmoins, une question demeure: est-ce que la technologie moderne permettra de remplacer un pilote humain par un ordinateur d’une manière adéquate? L’ordinateur, dans ce cas, devra passer une épreuve beaucoup plus sévère que le «test de Turing(1)»: un combat aérien réel. L’ordinateur aura-t-il un jour une intelligence similaire à l’intelligence humaine? Dans une telle éventualité, on ne pourra plus la qualifier d’intelligence artificielle.

 Pris au piège par l'intelligence artificielle (Trapped by Artificial Intelligence)
Tom Swift, Pris au piège par l’intelligence artificielle
(Trapped by Artificial Intelligence)
, 2005
Certains droits réservés.

Dans l’éventualité où les ordinateurs soient pourvus de la capacité de penser, le terme «intelligence artificielle» ne serait pas tout à fait exact. Au fait, dans le langage courant, une fleur artificielle n’est pas réellement une fleur: elle n’est qu’un modèle ou une simulation d’une fleur réelle. De même, lorsqu’un ordinateur joue aux échecs, il ne reproduit qu’un seul aspect de l’activité cérébrale humaine. Est-ce que cet ordinateur joue aussi aux cartes? Oui, mais seulement s’il est programmé pour cette tâche.Le terme «synthétique» apparaît plus juste que le terme «artificiel». Un diamant synthétique est-il artificiel? Non, puisque c’est un diamant identique aux spécimens naturels. Un procédé de synthèse vise à reproduire les caractéristiques d’un objet dans leur totalité. L’intelligence synthétique (IS) constitue une intelligence telle que nous la voyons chez l’homme, mais créée par l’homme: c’est l’intelligence d’une machine pensante capable de passer le test de Turing. Ainsi, un ordinateur qui manipule un avion n’est que l’une des manifestations de l’intelligence synthétique. En réalité, il y en existe beaucoup d’autres. L’élaboration d’une intelligence synthétique est un projet complexe, mais extrêmement prometteur.

La capacité d’apprendre occuperait sans aucun doute la première place parmi les qualités nécessaires d’un système qui possède de l’intelligence synthétique. Si le robot est programmé à parler une langue, il parlera cette seule langue. Néanmoins, s’il est programmé à apprendre des langues, il aura la capacité d’apprendre n’importe quelle langue. L’essentiel n’est pas de programmer une expertise dans un domaine particulier, mais bien une méthode d’apprentissage de connaissances. De plus, cet apprentissage doit se faire de manière autonome (sans contrôle humain), une fois le système programmé. Comme nous le savons tous, l’être humain ne naît pas avec tout le bagage de connaissances requises à sa survie, par contre, il les apprend au cours de sa vie, en réalisant des interactions avec son environnement. C’est vers le milieu des années 1980 que Rodney Brooks, un important roboticien au Massachussets Institut of Technology (MIT), a émis une hypothèse très peu orthodoxe pour cette époque: le robot doit «grandir» sur le plan intellectuel, à partir de 0, en imitant la croissance intellectuelle humaine(2).

Ceci nous mène à un autre point primordial: l’interaction du robot avec l’environnement. Le robot doit être capable d’interagir avec l’environnement afin de recevoir de l’information par l’intermédiaire de capteurs; de plus, il doit posséder la capacité d’agir sur l’environnement par le biais des actionneurs pour atteindre les objectifs établis par l’opérateur humain ou par le robot lui-même. C’est seulement ainsi que le robot pourra s’adapter à un environnement qui se modifie sans cesse. Un robot qui possède ces deux qualités (apprentissage et adaptation) a été créé tout récemment à l’Université de Cornell (États-Unis)(3). C’est un robot quadrupède programmé, pourrait-on dire, à se programmer lui-même! Une fois mis en fonction, le robot commence à prendre connaissance de son corps et il en conclut qu’il possède quatre pattes. Il élabore alors un modèle d’arrangement de ses pattes… et un deuxième… et un troisième (jusqu’à 16 modèles), après quoi il développe de manière autonome des commandes qui lui permettent d’appliquer ces modèles. Il essaie finalement d’avancer. C’est par essais et erreurs que le robot choisit le modèle optimal dans un environnement donné. Il pourrait, par exemple, changer sa manière de marcher en fonction du type de terrain. Si une patte était endommagée, le robot recommencerait le cycle d’essais et erreurs pour élaborer un modèle adéquat à sa nouvelle situation. Au cours d’une expérience, les chercheurs ont d’ailleurs enlevé un segment d’une patte au robot, qui a tout de même réussi à avancer.

Comme la vision et l’ouïe sont parmi les sources d’information les plus importantes pour l’homme, elles devraient également l’être pour le robot. Les logiciels modernes sont-ils capables de reconnaître les images et le langage parlé au même niveau que l’homme? Un bref aperçu des développements récents en donnera une idée.

Au plan du traitement des sons, Microsoft a créé un logiciel appelé «Naturally Speaking». Ce logiciel permet aux conducteurs de mettre en marche le lecteur de CD dans leur voiture ou de composer un numéro sur leur cellulaire grâce à des commandes vocales. Le logiciel compare les combinaisons des sons prononcés par l’homme avec les mots préenregistrés dans la mémoire de l’ordinateur. L’utilisateur dicte sa requête au microphone, les paroles ou les chiffres apparaissent sur un tableau pour que l’utilisateur puisse les vérifier et les corriger au besoin. Il faut toutefois mentionner un détail important: le logiciel s’adapte à la manière de parler de l’utilisateur. L’utilisation de logiciels de ce type est notamment envisagée dans les centres d’appels ou pour traduire le langage. De manière similaire, la compagnie IBM a un projet de logiciel capable de produire une transcription d’une réunion entre quatre ou cinq personnes. De plus, Google et Yahoo envisagent d’introduire un système de recherche vocale sur le Web à partir d’un cellulaire. L’utilisateur n’aura qu’à dire ce qu’il recherche et le système lui enverra un message vocal avec les résultats de la recherche(2).

Le traitement des images fait également l’objet de nombreux travaux. En effet, des chercheurs de l’Université de Malmö (Suède) ont créé un système de recherche et de reconnaissance de visages à partir des images contenues dans l’Internet. Un autre système, nommé «Polar Rose», peut reconstruire une image tridimensionnelle d’un visage à partir d’une simple photo. Par la suite, le système est capable d’identifier la personne en question sur n’importe quelle photo, indépendamment de la perspective et de la luminosité de la scène, qui peuvent faire varier de beaucoup l’aspect de la personne(3).

Un autre projet, encore plus impressionnant, est le «Mind Reader», qui a vu le jour au MIT. Ce système peut déterminer l’état émotionnel d’une personne grâce à l’analyse des expressions faciales de la personne, et ce, en temps réel. L’ordinateur obtient ainsi l’image d’un visage à partir d’une caméra vidéo et compare les changements des traits du visage actuels avec des échantillons contenus dans sa base de données: une tristesse, une joie de vivre, etc. Le logiciel pourrait aussi utiliser le système des «activités faciales», élaboré par le psychologue Jeffrey Cohn, selon qui chaque émotion se reflète au visage sous forme de combinaisons d’«unités d’activité faciale» (mouvements élémentaires mimiques). Le logiciel doit identifier les «pièces de mosaïque» pour reconstruire le «tableau»(4).

C’est le Centre for Automation Research de l’Université de Maryland (États-Unis) qui a offert un beau cadeau à tous les services de sécurité du monde: un logiciel capable de reconnaître le comportement d’une personne en analysant les images fournies par les caméras vidéo. L’ordinateur donne une signal d’alarme si le comportement observé coïncide avec l’un des types de comportement suspects préenregistrés dans le mémoire. Par exemple, un homme qui flâne ou marche d’une façon bizarre, une voiture qui s’arrête brusquement, une foule qui se rassemble. De plus, le logiciel peut déterminer si la personne observée porte un objet assez lourd (à partir de 7 kg). Essentiellement, la taille de l’objet donne une idée approximative de son poids, et ce poids influence la manière de marcher. Donc, si un individu porte une veste de bâtons de dynamite, l’ordinateur va y porter attention. L’un des objectifs actuels des chercheurs du Centre est de mettre en liaison l’ordinateur et un radar de faible puissance, ce qui permettrait de retracer des terroristes avant que ces derniers ne s’approchent de l’objet surveillé (la distance minimale de détection est actuellement de 50 m). Les chercheurs ont créé une base des données qui contient des échantillons de mouvements jugés normaux pour une variété de tailles humaines et de vitesses de déplacement. L’ordinateur peut ainsi comparer l’image reçue par les caméras vidéo avec un échantillon de la base et tirer des conclusions(5;6).

La reconnaissance des images s’applique aussi aux logiciels de bord améliorés des véhicules d’exploration martiens de la NASA, Spirit et Opportunity. Une innovation permet au véhicule de reconnaître le même objet sous différents aspects en changeant lui-même l’image de référence préprogrammée. Supposons que le robot aperçoit une montagne au loin, il compare l’image réelle avec une image préprogrammée et il «comprend» qu’il s’agit d’une montagne. Au fur et à mesure que le robot s’approche de la montagne, il «met à jour» l’image préprogrammée afin que les deux images (l’image perçue et l’image de référence) coïncident toujours(7).

Ce dernier exemple et celui du robot de Cornell mériteraient une attention toute particulière, parce qu’ils démontrent la capacité d’un robot de RAISONNER. Donc, la synthèse de l’intelligence humaine semble porter fruit…

Notes

(1) Note à propos de «test de Turing»: un humain entame une conversation en langage humain avec un autre humain et une machine, sans qu’il puisse voir ses interlocuteurs (supposons, qu’ils se communiquent par courriel). S’il ne peut pas affirmer avec sûreté qui de ces interlocuteurs est l’humain ou la machine, alors la machine a passé le test.
(2) Peter MENZEL, Faith d’ALUISIO. Robo Sapiens. Paris, Autrement, 2001, p. 65.
(3) Lee GOMEZ. “After Years of Effort…”. Dans The Wall Street Journal online, le 10 janvier 2007. [En ligne].<http:// online.wsj.com/public>. Consulté le 13 janvier 2007
(4) Cornell University. Dans Science Daily, le 17 novembre 2006. “Heal Thyself…”. [En ligne]. www.sciencedaily.com/releases>. Consulté le 21 janvier 2007.
(5) Tom SIMONITE. “Face-hunting software…”. Dans NewScientist.com news service, le 19 décembre 2006. [En ligne]. www.newscientist.com>. Consulté le 7 janvier 2007.
(6) Cristian LUPSA. “What if your laptop…”. Dans The Christian Science Monitor, le 18 décembre 2006. [En ligne]. <http://www.csmonitor.com>. Consulté le 7 janvier 2007.
(7) Frank D. ROYLANCE. “Watch & Learn”. Dans The Baltimor Sun, le 5 janvier 2007. [En ligne]. www.baltimoresun.com/news/health>. Consulté le 5 janvier 2007
(8) Karen NITKIN. “Walking like a Bomber”. Dans Technology Review, le 17 janvier 2007. [En ligne].www.technologyreview.com>. Consulté le 17 janvier 2007.
(9) BBC NEWS. “Mars rovers are taught new tricks”. [En ligne]. <http://newsvote.bbc.co.uk>. Consulté le 7 janvier 2007.

Creative Commons License
Cet article est publié sous un contrat Creative Commons.

Commentaires

Répondre