L'intelligence artificielle vise à apporter des réponses proches de celles qu'un humain donnerait s'il était doué de mémoire et de capacité de calcul extraordinaire..
Outre la force brute liée à la puissance des processeurs, cela passe par une prise en compte fine du contexte et des aspects émotionnels, pour identifier les informations qui peuvent être pertinentes pour l'individu qui reçoit l'information.
Le test de Türing : la machine derrière la porte
"L'intelligence artificielle (IA) est une machine qui est capable de donner à un observateur l'impression de l'intelligence humaine" nous dit Michele SEBAG dans une vidéo d'introduction très intéressante de Sam-Network.
Elle nous rappelle le principe du test de Türing. Le mathématicien imagine en 1950 un test d'imitation. Une personne est dans une pièce et communique avec deux autres pièces. Dans l'une se trouve une machine, dans l'autre un être humain. Notre personne pose des questions en s'adressant à X ou à Y, sans savoir lequel est l'humain. Si à la fin de sa série de questions, elle ne peut pas déterminer lequel est l'humain, alors la machine peut être considérée comme "intelligente". Le romancier Arthur C. Clarke va le premier utiliser et populariser l'expression "test de Türing". Plus de 60 ans plus tard, le défi que représente ce test fascine toujours.
Ashok GOEL est professeur en intelligence artificielle. Une partie de ses cours se passe en e-learning. Il a sans doute pensé au test de Türing lorsqu'il a ajouté Jill Watson, outil d'intelligence artificiel, à l'équipe de tuteurs chargés d'accompagner ses apprenants. Il n'a pas prévenu les étudiants qui ont donc reçu des réponses sur les forums d'un tuteur numérique et de tuteurs humains. La machine a démarré avec quelques réponses maladroites. Progressivement, elle a appris grâce aux rectifications apportées par ses collègues humains, et à la mémoire de toutes les réponses précédentes sur les forums.
A la fin du trimestre, ses réponses étaient pertinentes pour les questions de routine à plus de 97%. Watson est maintenant utilisé dans d'autres cadres, comme la formation des étudiants en troisième année de médecine, en Italie.
Comprendre l'implicite
La logique et le calcul ne suffisent pas à donner le sentiment d'intelligence. Il faut aussi être malin, prendre en compte la situation, comprendre le sens des phrases. Michele SEBAG nous explique que la logique conduirait une machine à qui on demande "vous avez l'heure ?" à répondre simplement "oui"... Mais une machine intelligente réagira en donnant l'heure... On pense à la "métis" d'Ulysse, et aux différentes formes d'intelligence mises en évidence par Howard GARDNER.
L'humanité a été impressionnée et émue par la victoire de Deep Blue en 1997 contre Kasparov. Les quatre victoires sur cinq match du robot Alphago contre Lee SEDOL ont également franchi un cap en 2016.
Néanmoins, Michele SEBAG nous indique que ce qui nous semble complexe et impressionnant, comme ces victoires, est plus facile à obtenir qu'une combinaison de tâches qui réclament la mobilisation de plusieurs formes d'intelligences. Engager une discussion informelle cohérente est sans doute beaucoup plus complexe !
Shannon : mesurer la quantité d'information
Mathématicien plutôt discret né dans le Michigan, Claude SHANNON n'a pas marqué les mémoires comme d'autres scientifiques du XXème siècle. Et pourtant, ses recherches ont laissé une empreinte dans le monde des télécoms, de l'informatique, du traitement de l'image ou encore de l'intelligence artificielle.
Claude SHANNON aurait eu 100 ans cette année, et le Musée des Arts et Métiers de Paris lui consacrera une exposition à partir de mi-décembre 2016.
Claude SHANNON utilise les probabilités pour quantifier l'information. Plus une donnée est probable, moins elle porte d'information. Si vous êtes amateur de mots croisés, et si vous savez qu'un mot se termine par "e"... vous ne savez pas grand chose. Si vous savez qu'il commence par un "y"... vous disposez d'une bonne information.
Plus on sait ce que vous allez dire, moins on est surpris... moins vous apportez de l'information. En revanche, l'inattendu, dans ce modèle, est porteur d'information.
Claude SHANNON va donc traduire l'information comme une fonction de la probabilité des informations apportées (P).
Dans son intervention pour les 100 ans de Claude SHANNON à l'institut Henri Poincaré, Jean-Louis DESSALLES nous donne quelques exemples. Un homme qui mord un chien est une action peu probable, et c'est donc une information. Une princesse victime d'un accident, c'est plus rare qu'une anonyme... Une autre illustration est la loi du "mort par kilomètre" bien connue des journalistes. Un mort à moins d'un kilomètre de chez moi, c'est une information. Si maintenant il se situe à cent kilomètres, il en faudra davantage pour que je m'arrête sur l'information.
La quantité d'information n'est pas la pertinence
La probabilité permet certes de mesurer la quantité d'information dans un cadre technique. Mais elle ne dit rien de la pertinence de cette information. La théorie de la simplicité de Jean-Louis DESSALLES tente de définir la pertinence.
Il fait remarquer que pour celui qui reçoit l'information.... ce n'est pas simplement une question de probabilité. Pour un statisticien, il est très probable que l'on trouve deux élèves d'une classe de 30 élèves nés le même jour. Et pourtant, lorsqu'on le découvre, les membres du groupe le perçoivent comme une coïncidence rare ! La pertinence a plus à voir avec la probabilité perçue d'un événement qu'avec la probabilité réelle. SHANNON dit lui-même que ce qui fait l'information, c'est la surprise.
Si j'ai un accident de circulation avec une des plus grandes stars du cinéma mondial, c'est une information suffisamment importante pour que je la raconte à tous mes amis... Mais il est peu probable que la star en parle autant autour d'elle.
La formule de Claude SHANNON ne prend pas en compte le sens et donc la sémantique des messages et elle ne parvient donc pas à rendre compte de notre intérêt plus ou moins marqué pour une information.
Enfin, Jean-Louis DESSALLES nous dit ironiquement que parfois, dans le champ pédagogique, le professeur croit transmettre des informations, mais ses élèves ne perçoivent que du bruit. Ce qui est une information pour les uns ne les pas autant pour les autres !
Compresser l'information
L'information nous est donnée selon une forme qui comporte souvent des redondances. Ces redondances sont indispensables dans un environnement où le message peut se dégrader, ou lorsque des humains communiquent entre eux, avec une attention moyenne... Rich COCHRANE nous explique la compression à partir du pictogramme de la maison, grand classique de l'iconographie informatique. Plus il est possible de comprimer un message ou une image sans perte de qualité, moins elle comporte d'information, moins elle est complexe à décrire.
La compression permet un traitement plus rapide de l'information. Elle évite aussi que nos disques durs ne soient pleins de toutes nos photos et films trop rapidement. Mais quel lien faut-il voir avec l'intelligence artificielle ?
Pertinence et compression
Jean-Louis DESSALLES nous invite à imaginer que le tirage du loto donne le résultat 1, 2, 3, 4, 5 et 6. A priori, ce résultat n'est pas plus improbable que 4, 42, 45 , 8, 23, 36. Mais intuitivement, les joueurs ont le sentiment que ces résultats ne tomberont jamais ! Cédric VILLANI indique dans la vidéo qu'un buraliste a même refusé d'enregistrer cette grille, au motif "qu'on ne joue pas pour perdre" !
Le jour où ces six chiffres tomberont à un résultat de loterie nationale, même les personnes qui n'ont jamais joué en parleront comme d'un phénomène extraordinaire, sauf les statisticiens qui tenteront d'expliquer que cette combinaison n'avait pas moins de chance de tomber qu'une autre.
En s'appuyant sur d'autres théories mathématiques, il nous définit l'inattendu comme l'écart entre la complexité causale, celle que nous donne la formule de Shannon, et la complexité de description. obtenir 1-2-3-4-5-6 à un tirage de loterie a une complexité causale forte : c'est pratiquement impossible à reproduire, mais une complexité de description faible. La rencontre d'une star à l'occasion d'un accident de circulation est le résultat de chaînes causales complexes, mais ça se raconte très vite. La complexité de description est faible.
Et l'émotion ?
La théorie de la simplicité qui propose de définir la pertinence comme l'écart entre la complexité pour produire l'événement et la complexité de description ne résout pas tout. Dans la plupart des événements de la vie, en particulier ceux qui nous intéressent, il est impossible de calculer les probabilités d'occurence d'un événement. D'autres éléments, comme l'émotion attachée à un événement sont difficilement quantifiables.
Morgane TUAL nous rappelle que les mécanismes de l'émotion sont encore mystérieux chez les êtres humains. Les machines pour leur part ne ressentent pas d'émotions. Et si elles en ressentaient, elles ne le ressentiraient pas de la même manière qu'un être humain.
En revanche, il est possible, et utile de simuler les comportements, mécanismes non verbaux, comme l'inflexion de voix, qui manifestent les émotions. Le poids qu'un humain attribue à une information ne sera pas le même selon l'émotion du locuteur, et en particulier ses marques d'intérêt pour le problème que je lui soumets...
Plus encore, en reproduisant les mécanismes de l'émotion, la machine devient capable de produire elle-même des émotions chez celle ou celui qui l'utilise...
Donner l'impression à l'utilisateur qu'il a affaire à une intelligence humaine oblige à manipuler des algorythmes complexes et des interfaces savantes.
Les mécanismes de la pensée humaines sont encore mal connues, et les machines n'utilisent pas les mêmes. Les avancées sont cependant considérables. Tous les domaines que l'on croit réservé aux humains (la créativité, l'émotion, la pensée complexe...) sont autant de défis pour les développeurs. Et nous sommes régulièrement informés des "victoires" de l'intelligence artificielle et régulièrement invités à débattre sur les questions "que reste-t-il à l'homme ?", et "quelle civilisation préparons-nous ?".
Les intelligences artificielles sont plutôt compétentes dans certains domaines. Toutefois, elles semblent incapables de comprendre le sens des choses. Les robots de conversation le démontrent bien. Pour un chercheur, la psychologie développementale pourrait nous donner des outils afin de développer des IA qui apprendraient comme des enfants.
En 2021, la France a souligné le bicentenaire de la mort de son ancien empereur Napoléon 1er. Une commémoration qui est venue avec son lot de critiques. Parce que le "bonapartisme" a des côtés très sombres. Pas étonnant qu'il n'y ait pas de lieux à la mémoire du général à Paris, particulièrement. Un historien essaie toutefois de rationaliser les critiques sur Napoléon.
Les intelligences artificielles n'ont plus rien de fictionnel. Désormais, elles font partie de nos vies quotidiennes et leur présence continuera de grandir. Ce qui nous oblige à réfléchir sur cette technologie encore très opaque aux yeux du grand public.
On saisit spontanément ce que peut être le style de Van Gogh ou de Rembrandt et on peut en reproduire les caractéristiques. À chacun son style. Mais le processus peut-être long avant de réussir à maîtriser un peu l'Art d'un maître. DeepArt propose de transformer vos images dans le style que vous voulez. Simplement. Impressionnant.
Superprof : la plateforme pour trouver les meilleurs professeurs particuliers en France (mais aussi en Belgique et en Suisse)
Chaque jour, restez informé sur l’apprentissage numérique sous toutes ses formes. Des idées et des ressources intéressantes. Profitez-en, c’est gratuit !