La vérité artificielle

Publié le par Philippe Mangion

La vérité artificielle

(Article publié dans la revue Interfaces Psy n°5)

Ce titre en forme d’oxymoron pose d’entrée la question de la pertinence même de traiter d’un tel sujet. Et la palette des argumentations positives ou négatives peut aller de « il ne peut exister de vérité artificielle » à « toute vérité est artificielle » selon que la contrainte de la réalité est plus ou moins relâchée. Un monde imaginé peut rester entièrement logique, ce que ne semble pas toujours être le cas du monde réel.

L’Intelligence Artificielle (IA) est une discipline qui tente de reproduire ou concurrencer la pensée humaine en soumettant des modèles, sous forme d’algorithmes, à la puissance de calcul des ordinateurs. Cette concurrence l’amène naturellement à imaginer ses propres appréhensions et explication du monde.

Pour construire ces modèles, l’IA doit ainsi naviguer, souvent imprudemment, entre logique mathématique et philosophie, exactitude et vérité. Il est donc d’autant plus important de toujours donner une définition claire des sujets traités.

Ainsi, dans l’expression « vérité artificielle », il faut entendre par artificiel non pas ce qui feint et qui qualifie une attitude, mais ce qui imite et qualifie un objet. Cette précision est d’autant plus nécessaire qu’un programme d’IA est un objet hybride dont le mécanisme est tel que son comportement peut souvent être qualifié d’attitude.

La vérité est un concept peu fiable mais essentiel

Personne ne sera surpris par cette assertion qui se traduit par de multiples variantes populaires ou philosophiques : la vérité est un compromis, à chacun sa vérité, etc.

A contrario, les sciences exactes et en particulier les mathématiques se basent sur des socles de vérités, lois ou axiomes qui ne sont pas remis en question dans la construction d’une théorie. Certaines approches ou méthodologies tentent cependant d’intégrer et modéliser dans le contexte exact du traitement algorithmique, la fluctuation de la vérité du monde réel qu’ils ont à décrire.

La logique floue est décrite en 1965 par un professeur d’électronique de l’université de Berkeley, Lotfi Zadeh, qui la justifie par le fait que les phénomènes de la vie courante ne peuvent que rarement se traduire par des valeurs booléennes (vrai ou faux). Les données d’entrées numériques sont ainsi préalablement quantifiées et transformées en états. Cette étape se nomme la « fuzzyfication ». Une taille est par exemple transformée en « petit », « grand » ou « moyen », valeurs auxquelles sont attachées des coefficients de pertinence.

Un homme de 1,70 pourra ainsi être considéré comme petit à 25 %, moyen à 75 % et grand à 0 %. Naturellement, dans le cas d’un raisonnement déductif, les conclusions ont d’autant plus de pertinence que le poids des conditions qui les ont permises est grand. Comme on s’en doute, cette technique de fuzzyfication sur laquelle repose la logique floue est très délicate à mettre au point pour un résultat que l’on devine aisément hasardeux. Cependant, si elle repose sur un fondement théorique contestable, il se trouve que la logique floue connut une certaine mode pour avoir été implémentée avec succès dans des applications aussi diverses que le traitement d’images, l’analyse de rentabilité ou le réglage d’un système de ventilation.

Mais on sent bien que la logique floue est une approche pragmatique reposant sur des bases théoriques faibles ou inexistantes. De plus, la « fuzzyfication » induit que l’on ait une connaissance préalable du système que l’on souhaite analyser. Cette particularité devient vite un paradoxe lorsqu’on applique la logique floue à l’apprentissage automatique : elle nécessite de connaître ce que l’on cherche à apprendre. Ainsi, on ne peut que supposer et l’on aboutit à des systèmes difficilement stabilisables. Un apprentissage automatique performant devra lui-même s’occuper de la « fuzzyfication » des données numériques, en fonction de la seule observation des phénomènes qu’elles décrivent.

Dans le même ordre d’idées, la logique modale intègre l’inexactitude et la subjectivité par addition de modificateurs, équivalents d’adverbes en grammaire. Ainsi énonce-t-on des assertions du type « il est possible qu’il pleuve », « il est nécessaire qu’il y ait des nuages ».

La logique modale a pour avantage d’avoir une base théorique, étant une extension de la logique propositionnelle. Elle plaît généralement aux chercheurs en sciences humaines car elle donne un certain relief, une certaine « humanité » à la logique classique. En plus de chercher si les propositions sont vraies ou fausses, la logique modale cherche à déterminer leur manière d’être vraies ou fausses. Elle résume et essaie de traduire nos intuitions derrière une sorte de bouclier sémantique qui permet quelques petits arrangements avec la vérité.

Les modalités utilisées peuvent être classiques (possible, impossible, nécessaire, contingent), temporelles (toujours, un jour, etc.), épistémique (connu, plausible, etc.), déontiques (permis, facultatif, etc.), ou d’autres types encore que l’on peut imaginer.

Si la sémantique de la logique modale permet d’interpréter avec plus de liberté les situations du monde réel, on sent bien en revanche toute la difficulté de la rendre productive, c'est-à-dire, de construire un ensemble de règles d’inférences pouvant être traité efficacement par un programme informatique.

Dans un cadre moins rigoureux, Lacan a tenté d’utiliser la logique modale, ou tout au moins sa terminologie, pour traiter de certains concepts en psychanalyse [1]. Il dit par exemple que la logique propositionnelle, dépendante du nécessaire, est en réalité seulement un chapitre d’une logique modale non encore écrite. En fait, la logique propositionnelle, comme la logique modale d’ailleurs, est surtout dépendante de l’exactitude. Mais la sémiotique de la logique modale aura ainsi permis à Lacan de décliner en formules mathématiques des notions qui n’avaient aucunement besoin de l’être. On peut comprendre cette fascination de l’équation, expression ultime du concept. Mais si, au-delà de sa forme (que tout le monde peut s’approprier y compris les artistes) on souhaite en conserver le sens et la mécanique, on ne peut faire l’impasse de la démonstration.

Une approche plus argumentée critique l’universalité de la logique et de l’induction. Il s’agit de l’ethnométhodologie [2] qui généralise l’idée qu’aucune vérité n’est absolue, même en ce qui concerne les sciences exactes. Elle émet que, tant que l’on n’aura pas une connaissance globale de l’univers, c’est-à-dire jamais, les inductions ne pourront être que locales. Même si l’on sait que, dans l’absolu, elles ne sont ni vraies ni fausses, un contre-exemple étant toujours possible, voire probable dans l’infini. En attendant, elles nous servent à prendre des décisions. Mais, si l’argumentation et l’analyse épistémologique des tenants de l’ethnométhodologie est très enrichissante, elle ne propose pas cependant d’alternative excitante. C’est évidemment lié à la nature même de l’approche, passive, pragmatique et prudente. Ce n’est pas une théorie mais une règle de conduite qui peut permettre aux chercheurs en IA d’éviter de s’emballer en s’engageant trop vite dans des voies sans issues. Par exemple, une de ces règles est que l’admission de propositions par un groupe fait l’objet d’un contrat véridique. Le vrai répond donc lui-même à une règle, une grammaire, au même titre que le bon langage.

Pas de science sans recherche de lois, expressions d’une vérité partagée

J’exprimerais les bonnes idées de l’ethnométhodologie d’une autre manière. La vérité est contrainte à un domaine de définition qui est l’état de la connaissance. Quand la connaissance s’élargit, le domaine de définition s’élargit. La connaissance étant continûment en expansion, toute proposition est donc remise en cause en fonction des nouveaux éléments connus la concernant. Les conditions de la proposition sont donc augmentées de nouveaux arguments restrictifs ou consolidants. Quand les arguments restrictifs sont nombreux, la proposition tombe naturellement en désuétude. En Intelligence Artificielle, on peut dire qu’une proposition est ainsi désuète quand la règle qui la représenterait dans un système expert n’est plus déclenchée.

Pour reprendre l’exemple donné par Paul Loubière dans sa thèse [2], tant que les hommes n’avaient pas franchi le cercle polaire, ils pouvaient énoncer la proposition : « le soleil se couche dans une période de 24 heures suivant son lever ». Après l’exploration des pôles, la proposition devient donc « si l’on se trouve dans une latitude comprise entre telles valeurs, le soleil se couche dans une période de 24 heures suivant son lever ». Cela n’a pas empêché la première proposition, qui dans l’absolue est fausse, d’être productive et utilisée dans un système déductif : la nuit va tomber, il faut s’éclairer, etc. Dans un domaine plus complexe, les lois de la mécanique classique sont augmentées de nouvelles conditions depuis Einstein et la relativité générale. Elles ne représentent donc plus une vérité universelle, mais elles sont plus que largement productives dans notre vie sur terre, et les propositions qu’elles énoncent ont peu de chances de tomber en désuétude avant que les hommes explorent l’espace intergalactique à vitesse proche de celle de la lumière.

Mais dans ces deux exemples, comme dans tous ceux suivant une démarche scientifique, même pragmatique et simpliste comme dans le premier, il me paraît très improbable d’affecter des coefficients de vérité ou des modalités subjectives aux propositions qui les gouvernent. La science a besoin d’une démarche où la vérité est une valeur sûre afin de pouvoir déployer son arsenal déductif et démonstratif, sa logique. Et les lois scientifiques sont l’expression de cette vérité. Leur forme même facilite la transmission, et donc l’élaboration d’une culture. Mieux vaut ne pas considérer une condition si l’on ne sait pas démontrer entièrement sa pertinence. Ce qui n’empêche pas, bien au contraire, d’élaborer des hypothèses, mais celles-ci restent en suspens, dans un état ni vrai ni faux, tant qu’elle n’ont pas été démontrées. Ce sont des conjectures. C’est la base même d’une démarche scientifique, qui ne rend les propositions productives qu’à partir du moment où elles ont été démontrées. Cette position est presque contre-nature, compte tenu du fait que notre tendance naturelle suivrait plutôt le principe suivant : une proposition est vraie et productive tant qu’il n’est pas démontré qu’elle est fausse. Nous avons du mal à fonctionner en logique ternaire, à considérer l’inconnu, le « ni vrai ni faux » en tant que tel, sans ouvrir la porte à l’irrationnel. L’exemple le plus évident est bien sûr la croyance en Dieu, ou en Quelque-Chose qui en est un équivalent laïque. La proposition « il existe un dieu ou Quelque-Chose qui est à l’origine de tout » est une conjecture, et l’énoncer comme une hypothèse à vérifier n’est pas un scandale. En revanche, la proposition « Dieu l’a voulu » est la mise en production abusive de la proposition précédente, non vérifiée. Mais même pour les rationalistes purs, les expressions « c’est comme ça », « c’est la vie » sont des raccourcis pratiques qui comblent l’angoissant déficit d’explication que laisserait l’exact proposition « la conjonction de tous les éléments quantifiables de l’univers ont fait qu’à cet instant précis … ». Le pari de Pascal est naturellement très tentant, mais comme tout ce qui traite de la connaissance, la philosophie doit privilégier en ce domaine l’agnosticisme de Montaigne. Les croyances, religieuses ou autres, les « paris » sont nécessaires pour combler les vides et parfois supporter la vie. Leur pratique et leur étude, quand elle n’est pas dogmatique, voir obscurantiste, contribuent aussi à l’émulation intellectuelle, mais elle doivent rester complètement étanches à toute démarche productive de connaissance, inductive ou déductive, à tout ce qui traite du vrai ou du faux et de leur traitement logique. Ainsi, en Intelligence Artificielle, l’introduction et la manipulation de modalités du type « il est possible que », « je crois que » paraissent peu pertinentes. Elles sont un leurre qui donne l’impression de pouvoir rapprocher et combiner langage et logique propositionnelle. Mais, sauf s’il est utilisé pour décrire un raisonnement rigoureux, donc sans modificateurs subjectifs, un langage ne peut emprunter que l’enveloppe, la forme de la logique propositionnelle, et non son fonctionnement, sa productivité. Cet emprunt est toutefois justifié car le formalisme de la logique rend ce langage plus clair, et plus claire ainsi la pensée qu’il structure.

La science ne peut se passer de la notion de vérité, de recherche de lois, marches solides dans la construction de théories. La notion d’incertitude existe, mais elle ne représente pas une distance à la loi. Elle traduit plutôt les difficultés de mesure dans ses conditions d’application ou d’observation. Elle est symbolisée par le bon vieil epsilon qui accompagne tout étudiant dans ses travaux pratiques de physique ou chimie, reflétant une température pas tout à fait à 20 °C ou une balance légèrement déréglée. Mais en aucun cas un epsilon ou un coefficient ne vient moduler la véracité de la loi. Il est dit en revanche que la loi est vérifiée « dans les conditions normales de température et de pression » qui est bien la forme d’une proposition logique.

L’exception notable où la science prend des libertés avec la vérité est la théorie quantique, née de domaines où l’observation et la mesure sont elles-mêmes impossibles. Dans la théorie quantique, l’incertitude est fondement, comme l’annonce le principe d’indétermination d’Heisenberg [3] : il est impossible de connaître à la fois la position et la vitesse d’une particule. Cela oblige d’associer une probabilité aux résultats issus de cette théorie. Au cours du XXe siècle, cela ouvrit une deuxième voie dans l’approche des sciences, où la vérité n’est plus un socle inébranlable. C’est une révolution qui fait toujours polémique parmi les scientifiques, et toutes les lois fondamentales, comme la gravitation universelle, sont une à une revisitées au regard de la théorie quantique. Einstein, qui a pourtant posé les fondations de cette nouvelle théorie (la lumière est constituée de grains, de « quantas »), ne l’accepta pas, n’adhérant pas à une vision probabiliste de la réalité (« Dieu ne joue pas aux dés »).

L’IA peut-elle quantifier l’incertitude pour s’affranchir de la vérité ?

Pour traiter de l’incertitude en Intelligence Artificielle, il faut distinguer deux domaines : celui de la déduction dans les systèmes experts, et celui de l’induction dans les systèmes d’apprentissage.

Dans les systèmes experts, il est acceptable de relâcher la contrainte de véracité absolue des conditions dans le déclenchement d’une règle d’inférence. On peut estimer que ce relâchement traduit la difficulté d’observation des clauses. La véracité de la conclusion qui en découle est alors affublée d’un coefficient calculé en fonction de ceux des conditions. Il est moins pertinent, pour les raisons expliquées plus haut, d’associer un coefficient de vérité à la règle elle-même, qui interviendrait dans le calcul. Cela se fait pourtant, mais il est difficile de prouver la pertinence de tels systèmes.

La remise en cause d’une valeur est également possible. En logique dite non monotone, une règle peut attribuer la valeur FAUX à un argument jusqu’alors considéré comme VRAI. Dans une telle configuration, le système continuera le traitement jusqu’à la stabilisation de tous les arguments, avec le risque de « bouclage » - fonctionnement sans fin – que cela peut comporter.

Mais en tout état de cause, dans un système-expert, la vérité qu’il sous-tend, avec certitude ou non, est toujours celle de l’expert ou du groupe d’experts qui l’a conçu. Il peut éventuellement contenir des éléments contradictoires, donc issus de sources multiples. Dans ce cas, son fonctionnement peut être dirigé par un système de métarègles. Par exemple, s’il y a des éléments contradictoires, l’arbitrage des métarègles peut être en faveur de l’élément qui est déclenché le plus souvent. Quand ces méthodes sont généralisées, le système est représentatif d’une vérité pondérée, une résultante des contributions de tous les auteurs. Ce qui est finalement assez peu satisfaisant.

Dans les systèmes d’apprentissage à induction, la règle est à découvrir à partir d’exemples, et non pas donnée par un expert. Parmi eux, la plupart prennent en compte l’incertitude en la faisant intervenir sous une forme statistique. En simplifiant, le coefficient de vérité d’une proposition peut être associé à la proportion des exemples dans laquelle elle est vérifiée. À mon sens, cette approche est dangereuse. À première vue plus productive que l’induction logique pure, elle contient les limites dues à la statistique, la distorsion de la vérité, mais aussi l’impossibilité d’explication ou de preuve, l’impossibilité d’analyse des contre-exemples. La statistique consiste finalement à quantifier l’incertitude pour ne pas réduire le domaine de définition. Il y a en cela une raison philosophique, le refus du « ni vrai ni faux », mais aussi une raison pratique. Une méthode statistique est beaucoup moins coûteuse en temps de traitement qu’une analyse différentielle et logique. Par exemple, dans le cas d’une analyse de questionnaire, il sera beaucoup plus rapide de conclure statistiquement « les hommes sont meilleurs en mathématiques que les femmes », plutôt que d’analyser logiquement l’ensemble de réponses pour trouver des profils plus complets et pertinents de « bons » et « mauvais » en mathématiques.

Bien sûr, les méthodes d’apprentissage statistique sont beaucoup plus élaborées et ne concluent pas bêtement que l’hôpital est dangereux car l’on y meurt plus souvent qu’ailleurs, mais il n’empêche que la statistique constitue une rupture avec la logique propositionnelle, et donc avec la vérité en tant que valeur fiable.

La problématique des systèmes d’apprentissage à induction logique est qu’il faut arriver en un temps raisonnable pour un problème donné, à répondre autre chose que « je ne sais pas ». Or, pour une problème à N entrées logique, les algorithmes actuels les plus performants dans ce domaine sont de l’ordre de exponentielle N, ce qui les rend inutilisables pour la quasi-totalité des problèmes. Pour N = 30, ce qui correspond, par exemple, à 30 questions d’une enquête sociologique, il faut environ une heure de traitement, ce qui est acceptable. En revanche, pour l’analyse d’une fraction d’ADN de 350 gènes sur une population de 1000 personnes, une vie n’y suffirait pas.

Ce problème de performance est si complexe que le Clays Mathematic Institute (Massachusetts) en a fait un des 7 problèmes du millénaire, doté de 1 million de dollars [4].

Cette classe de problème, notée P versus NP, pose qu’une solution proposée est facile à vérifier, mais trouver une solution en partant de zéro est impossible à cause d’un temps de calcul trop long. Par exemple, dans le problème donné pour la dotation, il s’agit de choisir, pour affecter les places d’un dortoir, 100 étudiants parmi 400, en évitant des paires incompatibles. Il est facile de vérifier si une liste proposée répond aux contraintes, mais les meilleurs algorithmes actuels pour composer une telle liste restent malheureusement exponentiels. Ils ne connaissent pas d’autres manières que de tester toutes les solutions possibles ou presque, selon leur niveau d’astuce. Or le nombre de listes possibles de
100 étudiants parmi 400 est supérieur au nombre d’atomes de l’univers.

La particularité de ce genre de problèmes est qu’on ne peut pas « tricher » statistiquement avec la vérité, c'est-à-dire donner des solutions plus rapidement, mais affublées d’un coefficient de vérité. Les solutions proposées étant faciles à vérifier, elles doivent être vraies à 100%. Les assertions du style « l’étude de ce génome indique que cette personne a 90 % de risque d’avoir un cancer avant 60 ans » sont ici impossibles. D’un autre côté, vu le temps du calcul exact, il ne sert à rien non plus de donner un diagnostic à 100 %, longtemps après le décès de la personne.

L’intuition humaine : induction logique ou statistique ?

Si l’on comparait le cerveau humain à un ordinateur animé d’un programme d’Intelligence Artificielle, l’intuition représenterait les résultats non attendus, vrais ou faux, d’un algorithme d’apprentissage automatique. Cet algorithme, quels principes suivrait-il : induction logique, statistique, autre ? Bien que ce thème puisse faire à lui tout seul l’objet d’un prochain article, on peut ici avancer quelques idées.

Le fait qu’il soit, dans la plupart des cas, impossible d’expliquer une intuition, ferait pencher du côté statistique : l’intuition pourrait être, comme dans un logiciel d’échec, le résultat d’un calcul de pertinence du fait avancé et de ses conséquences dans le temps. Cela paraît peu probable, car nos capacités de calcul sont assez réduites.

L’association inconsciente et attractive à des situations déjà vécues, la constatation répulsive et toute aussi inconsciente de contre-exemples forts, ces successions de micro-choix qui guident notre pensée dans la jungle de notre mémoire font, quant à eux, pencher vers une comparaison à l’induction logique.

De plus, on parle ici de l’intuition de vérité d’une hypothèse donnée, intuition qui guide une méthode de résolution plutôt qu’une véritable découverte. C’est celle qui fait la différence, devant un devoir de mathématique, entre les élèves doués qui auront une vision globale du problème, comme si une carte était étalée devant leurs yeux, et les autres qui avancent péniblement au ras du sol, essayant de grappiller quelques points au passage.

Mais il est un autre type d’intuition, de niveau plus élevé, qui est l’énoncé même d’une nouvelle hypothèse dont l’auteur est persuadé qu’elle est vraie. Il reste après à le prouver, et ce n’est pas toujours l’auteur de l’hypothèse qui y réussit. Certaines d’entre elles, qui perdurent dans le temps, sont devenues des conjectures célèbres.

Dans les deux cas, intuition de vérité ou découverte, elles ne sont jamais spontanées ou divines, tout au moins en ce qui concerne les sciences. Leurs auteurs ont toujours une connaissance approfondie du sujet, voire obsessionnelle, avant « que la lumière soit » et que tout devienne clair. Quand on essaie de décortiquer le raisonnement qui aboutit à leur découverte, le nombre d’hypothèses évaluées n’est jamais très élevé. Le raisonnement serait donc plus logique que probabiliste.

+++

Dans la pratique, les solutions imparfaites – logique floue, statistique ou autre – rendent de nombreux services, surtout dans un rôle d’aide à la décision, dans des domaines où un pourcentage d’erreur est assez toléré pour justifier des petits arrangements avec la vérité.

Mais la recherche, particulièrement en Intelligence Artificielle, ne doit pas, malgré sa complexité croissante, s’affranchir complètement de la notion de vérité comme socle de base. Le « ni vrai ni faux » doit rester visible pour mieux être réduit, comme le soleil le ferait d’une flaque d’eau. Le problème, il est vrai assez exaspérant, c’est qu’en l’état actuel des connaissances, la flaque d’eau a plutôt l’allure d’un océan, dans la vision horrifiée qu’en avaient les premiers hommes qui prirent la mer : plat, avec la garantie d’une chute dans l’infini au passage de l’horizon.

[1] Revue Multitudes : http://multitudes.samizdat.net/article.php3?id_article=664

[2] Paul Loubière. Fondements épistémologiques de l’ethnométhodologie. http://vadeker.club.fr/corpus/loubiere/these_loubiere.html

[3] http://fr.wikipedia.org/wiki/In%C3%A9galit%C3%A9_de_Heisenberg

[4] http://www.claymath.org/millennium/P_vs_NP/index.php

Publié dans Articles

Commenter cet article