A quoi pensent les machines ?
(Article paru dans la revue Interfaces Psy n°3)
L’alarme de mon téléphone portable vient de sonner. Je n’arrive pas à déterminer si je suis vraiment réveillé ou encore en train de rêver. D’autant plus que je ne ressens pas les sensations habituelles de mon appartement, de mon lit. Dans cette confusion, un réflexe professionnel me fait démarrer, dans un second niveau de pensée, sorte de processeur parallèle, une session chargée d’enregistrer et d’analyser le fonctionnement du premier niveau. La construction, un peu bancale, tiendra bien une minute ou deux. Un carillon original, que je ne reconnais pas sonne au loin. Il sera, comme cette odeur d’humidité, rapidement effacé de ma mémoire mais il est très possible que dans un futur lointain, ces quelques notes à nouveau entendues évoqueront immédiatement le lieu où je me trouve et que je n’ai toujours pas identifié. Mes pieds sont glacés, j’ai faim et un léger mal au crâne. Des dizaines de sensations intérieures se portent ainsi à ma faible attention. Je n’en retiens pas grand-chose, si ce n’est le rappel du repas d’hier soir, assez bien arrosé, en compagnie de Francis Frydman, mon associé. Je suis donc en déplacement, dans une chambre d’hôtel, à priori seul dans un grand lit. Sinon, j’aurais moins froid que ça. Il y a du progrès, mais il m’est toujours impossible de me remémorer cette ville et le contexte de ma venue. Un rêve éveillé vient perturber cette lente émergence : Francis et moi sommes en train d’étudier un appel d’offres de logiciel informatique. J’ai le cahier des charges entre les mains, sur la première page est inscrit : « Fourniture, livraison, installation d’un progiciel de pensée artificielle. Délai : trois ans. Obligation de résultats ».
L’alarme sonne à nouveau, qui cette fois-ci me réveille complètement. Mon corps se met en marche, contrôlé avec plus ou moins d’efficacité par un cerveau dont l’objectif à court terme est de le faire se mouvoir jusqu’à la salle de bains. L’image que me renvoie le miroir ne le laisse pas supposer, mais j’ai déjà développé mentalement une bonne dizaine d’idées argumentées pour la réponse à cet appel d’offres imaginaire.
Cette petite séquence pourtant si banale met en œuvre les mécanismes de mémorisation et de reconnaissance les plus complexes. Le fait même de prolonger ce rêve saugrenu est déjà caractéristique de la pensée qui ne connaît théoriquement aucune limite dans l’élaboration créative tout en s’acquittant avec efficacité des contingences de la vie quotidienne.
La pensée humaine, l’âme dans toutes ses interprétations, préoccupe les grands penseurs depuis toujours. L’informatique, depuis les années 40-50, et surtout depuis les années 80 où elle s’est démocratisée, a ouvert de nouvelles perspectives. Comme l’outil constitue le prolongement de nos membres et de leur force musculaire en décuplant leur efficacité, l’ordinateur est candidat pour devenir une extension de notre cerveau et le modèle de sa fonction : la pensée.
Les informaticiens spécialistes en intelligence artificielle, parfois de façon naïve et souvent raillés par les chercheurs en sciences humaines, posent la problématique sous une forme nouvelle qui ne peut que contribuer à l’évolution des connaissances : comment s’y prendrait-on pour programmer la pensée ? D’une certaine manière, ils renouent avec un passé où philosophie et mathématiques étaient intimement liées, jusqu’à Aristote qui inventa la logique, pilier des mathématiques, outil de description du raisonnement et base théorique de la programmation en intelligence artificielle.
La matérialité de la pensée
Pour insuffler la vie au Golem, la légende dit qu’il suffisait d’écrire sur son front le mot EMETH (vérité en hébreu). De la même manière, l’inscription METH (mort), toujours sur le front, le rendait inerte. Outre l’étrange lien entre la désignation et la fonction, qui n’est pas sans rappeler la programmation logique, le choix de l’emplacement, au plus près du cerveau, semble désigner ce dernier comme organe maître de la vie. C’est d’autant plus troublant que les Hébreux, comme les Mésopotamiens, considéraient le cœur comme siège de la vie et de l’intelligence.
À l’image de ce paradoxe, les philosophes se sont longtemps demandé si la pensée avait un support organique et, si oui, quel était-il. Après 25 siècles de théories et d’expérimentations diverses, de tortures physiques ou mentales de singes, chiens, rats, drosophiles et d’hommes aussi, les chercheurs ont finalement constitué une cartographie des fonctions de base du cerveau. Usant des méthodes les plus sommaires – au XIXè siècle, la phrénologie de Gall s’appuie sur un tâtonnement de la surface du crâne – aux plus modernes de l’imagerie cérébrale – TEP (Tomographie par émission de positons) ou IRM fonctionnelle, qui permettent d’observer en direct l’activité du cerveau – les recherches dans ce domaine ont toutes en commun, depuis cent cinquante ans, le parti pris de la localisation cérébrale des fonctions et facultés de l’esprit animal, y compris les plus élevées de l’espèce humaine.
Ainsi, rompant définitivement avec la dualité de Descartes pour lequel l’âme, unique, immatérielle et immortelle, distingue l’homme des autres animaux, l’évolution des connaissances confirme les thèses antiques grecques (Platon, Démocrite, Hippocrate) qui, même avec imperfection, attribuent une base organique, un lien matériel, à la pensée humaine.
À quel organe cet honneur a-t-il été attribué ? Si pour Homère, c’est le cœur qui détient sentiments et intelligence, pour Démocrite, pas de doute, la pensée se passe dans le cerveau. Mais le cardio-centrisme d’Aristote troubla à nouveau et pour plusieurs siècles des générations d’anatomistes. En revanche, toujours pour Démocrite, le désir, c’est l’affaire du foie ! Mais certains n’affirment-ils pas, après tout, dans un raccourci humoristique, que beaucoup d’entre nous pensent avec leur sexe ?
Étudier sans disséquer
Ces tergiversations nous incitent à penser qu’il n’est pas nécessaire de connaître la structure organique du cerveau, ni la mécanique des cellules si particulières qui le composent, les neurones, pour prétendre étudier, comprendre et reproduire ses fonctions visibles. C’est la voie des fonctionnalistes qui, au sein des sciences cognitives, considèrent avec Marvin Minsky que l’intelligence est un ensemble de processus et calculs logiques. Ainsi, une machine bien programmée serait théoriquement capable de reproduire le raisonnement. On parle donc d’intelligence artificielle.
Au vu de ces préceptes, il n’est pas étonnant que cette direction fût principalement suivie par des psychologues (Brunner, Miller, 1960 ; Fodor 1983, Garner 1985) et des mathématiciens ou informaticiens (Turing 1936).
Arguant le fait que, contrairement à la pensée, un tel système ne serait pas capable d’auto-organisation et donc d’auto-apprentissage, les connexionnistes proposèrent comme modèle un réseau de neurones formels, s’appuyant en cela sur les travaux des cybernéticiens McCulloch et Pitts (1943). Un neurone formel est une abstraction du neurone physiologique. La pensée n’est plus modélisée par une suite de déductions logiques, mais par l’interaction de ces composants simples. Il en émerge des états stables caractérisant la cognition.
Plus éloignée du thème de cet article car ne traitant pas directement d’intelligence artificielle, une théorie neuronale de la pensée fut développée par des neurobiologistes. Au premier rang de ceux-là, Gerald Edelman introduisit la notion de darwinisme neuronal, tentant ainsi de décrire l’influence de l’environnement sur l’établissement des réseaux neuronaux au cours du développement cérébral.
Dans la suite de cet article, nous privilégierons une approche cognitiviste. Les différentes approches ne sont d’ailleurs pas antagoniques mais complémentaires. Elles concernent directement ou indirectement un même sujet, le cerveau, mais avec des angles d’attaque qui ne se situent pas au même niveau. Ceci apparaît fréquemment dans ce qui touche aux sciences humaines, du fait même de la formation des auteurs et de la diversité des disciplines. Le cognitivisme se place clairement du côté de la fonction, de ce qui est produit. On peut étudier la pensée sans connaître précisément la chimie du cerveau, comme Mendel a pu établir les lois de la génétique sans connaître l’ADN. L’outil principal du cognitivisme est la logique aristotélicienne. De leur côté, les neurobiologistes avancent normalement dans la compréhension de l’anatomie et de la chimie du cerveau. Ils construisent, par le bas et avec pertinence, une biologie de la pensée. En revanche, le connexionnisme semble une approche hybride qui, par les neurones formels, tente d’imiter, forcément imparfaitement, le fonctionnement neuronal encore mal connu.
L’immersion dans le réel
À chaque instant, les sens captent des informations brutes de toutes sortes. Les plus connues sont visuelles, auditives, tactiles, gustatives, olfactives. C’est une classification grossière, car ces informations se déclinent et se combinent en une infinité de nuances.
Entre autres exemples, le toucher peut être étendu aux sens haptiques, qui intègrent les informations issues de nos muscles et articulations, et nous permettent, en plus de la texture, de la dureté, de la température, d’évaluer le poids ou l’inertie ; le système vestibulaire situé dans l’oreille interne, qui peut donc être associé à l’audition, nous donne une évaluation naturelle de la verticale gravitationnelle. C’est, en quelque sorte, notre fil à plomb.
Selon les espèces animales, les sens sont inégalement développés, sans qu’il y ait de correspondance évidente avec leur intelligence. Les insectes ou les rongeurs privilégieront les échanges chimiques (odeur, goût) via les phéromones, certains poissons, les sensations tactiles comme les mouvements de l’eau, voire les signaux électriques.
Dès ce premier niveau de capture de l’information brute, le cerveau effectue un travail de reconnaissance et si besoin de complétion de l’information. Il discerne dans ce monde réel, dans les éléments bruts captés, des caractéristiques qu’il compare à des représentations internes. De cette manière, il repère immédiatement les petites différences, nuances, par rapport à ce qu’il connaît déjà. Les processus d’apprentissage et de mémorisation fonctionnent en même temps que celui de reconnaissance.
Un chat reconnaît une souris à partir d’un bout de sa queue cachée derrière un obstacle. Une multitude d’éléments interviennent dans cette reconnaissance, y compris le contexte : notre chat reconnaît le petit bout de queue d’autant plus facilement si cela se passe dans un endroit où il a déjà repéré une souris quelque temps auparavant. Ce fonctionnement est si naturel que nous pouvons être leurrés : nous pouvons reconnaître à tort ce que nous nous attendions à voir. Si toutes les illusions ne sont pas cognitives, les animaux comme les hommes en subissent toutefois de cette catégorie. Cette complétion de l’information permet en outre la compensation de sens défectueux. Ainsi, un sourd, par une analyse en continu et non consciente du contexte, retrouvera sans trop d’erreurs le sens d’une phrase dont il n’aura compris que quelques mots, alors qu’un aveugle distinguera des sons auxquels d’autres n’auront pas besoin de faire attention.
En revanche, l’ordinateur a un gros handicap : il ne connaît pas cette confrontation de tous les instants à l’environnement. Il est étanche là où les êtres vivants sont poreux. Il a l’habitude qu’on lui mâche le travail. Dans la plupart des cas, on lui communique les caractéristiques sous une forme évoluée, généralement une base de données structurée ou des propositions claires, sans interférences, sans bruit, dans lesquelles est défini un lexique des caractéristiques à repérer. Or, dans l’absolu, on ne peut prédéterminer ce qui est interférence. C’est le mécanisme de reconnaissance et d’apprentissage lui-même qui doit juger ce qui est bruit et ce qui est essentiel. Cette prédétermination est forcément réductrice et soulève un paradoxe. Nous reconnaissons généralement ce qui nous entoure, c’est-à-dire que nous savons par exemple isoler visuellement des objets, en distinguer les caractéristiques (forme, couleur, etc.) et enfin les reconnaître en fonction de ces caractéristiques, leur coller symboliquement une étiquette. En revanche, il nous est difficile de dresser une liste exhaustive des caractéristiques qui permettent ce discernement, ni d’expliquer comment nous l’avons établie.
« Apprendre, c’est programmer »
Une réponse scientifique à ce comment constituerait une ébauche de théorie de la connaissance. Dans une vision guidée par l’objectif de construire une intelligence artificielle, on peut considérer qu’à tous les niveaux – de l’assimilation primaire de l’environnement jusqu’à l’acquisition de connaissance structurée et la manipulation d’objets abstraits qui en découle – il existe des lois universelles qui permettent de décrire un fonctionnement cognitif simplifié.
Ces lois sont du domaine de la logique aristotélicienne. La connaissance, qu’elle soit acquise par assimilation naturelle ou par l’enseignement, peut s’exprimer sous la forme de clauses, composées de prédicats. Une clause définit un prédicat de la façon suivante, ici en notation Prolog, langage de programmation de référence de l’intelligence artificielle :
<prédicat>(<argument>,...,<argument>) :- <expression booléenne>.
Cela signifie que <prédicat>(<argument>,...,<argument>) est vrai si l’expression booléenne est vérifiée. Le terme <expression booléenne> peut être une tautologie (toujours vraie), ou la conjonction d'un ou plusieurs prédicats, c'est à dire une condition constituée de prédicats qui doivent être simultanément vrais pour que l'expression booléenne soit vraie.
Exemple de clauses :
félin(tigre).
signifie que le tigre est un félin. Il n’y a pas d’expression booléenne conditionnelle car félin(tigre) est toujours vrai ; félin et un prédicat et la constante tigre est appelée un symbole.
animal(X) :- félin(X).
Cette clause utilise la variable X et signifie que si X est un félin alors X est un animal ; animal et félin sont des prédicats.
Si, lors de l’acquisition par enseignement, les clauses sont déjà constituées et transmises du maître à l’élève, les êtres vivants sont également capables de générer eux-mêmes des clauses, par induction, lors de l’acquisition naturelle.
Tout ce qu’un individu connaît peut être ainsi exprimé en un ensemble de clauses qu’il utilisera de façon déductive, pour résoudre des problèmes ou élaborer des stratégies. De ce point de vue, on peut considérer qu’apprendre, c’est constituer un ensemble de règles que l’on peut mettre à exécution. Il y a donc une analogie entre l’apprentissage, par instruction ou assimilation, et la programmation informatique. Comme l’a résumé Francis Frydman à l’occasion d’une de nos indispensables discussions dans le train : apprendre, c’est programmer.
La voie suivie par les informaticiens pour simuler ce fonctionnement est la suivante : apprendre par induction, mémoriser les clauses ainsi produites et raisonner par déduction en exécutant le programme constitué de l’ensemble de ces clauses.
Le cours magistral
La partie déduction est la plus simple à mettre en œuvre. Dans certaines applications, les clauses sont directement formulées par un humain expert, réalisant ainsi un transfert d’expertise vers le programme. L’ensemble de ces clauses forme alors un système expert, dont voici un simplissime exemple :
SI [X est le père de Y] ET [X est le père de Z] ET [Y est un homme] ALORS [Y est le frère de Z]
SI [X est le père de Z] ET [Z est le père de T] ALORS [X est le grand-père de T]
SI [Y est le frère de Z] ET [Z est le père de T] ALORS [Y est l’oncle de T]
Un ensemble de règles ainsi formées permet, lors de l’exécution du programme, soit de compléter des données initiales incomplètes, on parle alors de fonctionnement en chaînage avant, soit de vérifier un but, de répondre à une question. Dans ce fonctionnement, dit en chaînage arrière, le programme est capable de poser les questions nécessaires pour vérifier sont but. Il est également capable de donner toutes les solutions possibles dans le cas où il manipule des variables (ordre 1), comme dans notre exemple.
Beaucoup d’applications de systèmes experts ont ainsi vu le jour, simulant le raisonnement de spécialistes qui ont transféré leur connaissance dans un domaine donné. Ces systèmes ont fait leur preuve dans de nombreux secteurs, qui vont de l’attribution de crédit à la maintenance industrielle en passant par l’aide au diagnostic médical ou l’analyse biologique.
Si cette capacité de raisonnement déductif est encore très éloignée de la pensée dans son ensemble, elle n’en demeure pas moins la simulation d’une activité intellectuelle, dans ce qu’elle a de moins créatrice. Il s’agit de l’application soigneuse et rigoureuse de règles de connaissance apprises sous la forme de cours magistral.
Les travaux dirigés
Plus délicates sont les capacités d’auto-apprentissage. Comme nous l’avons dit plus haut, l’induction est la voie la plus pertinente employée par les informaticiens. L’ordinateur n’étant pas immergé dans le monde réel, on lui en donne une représentation sous une forme généralement évoluée, base de données, de mots ou d’images, plus rarement de textes en langage naturel. On le nourrit donc d’exemples de réalité avec, pour objectif, que l’induction programmée génère des concepts exprimés sous forme de clauses.
Mais il y a un problème : les exemples dont on nourrit les systèmes d’apprentissage sont généralement très ciblés, et leur structure même induit une heuristique. Dans les applications qui marchent, les exemples ne sont pas donnés au hasard, ils ont pour but de faire découvrir au système un concept connu à l’avance. Exactement comme, lors de travaux dirigés, un professeur de physique ou chimie fait réaliser à ses élèves une série d’expériences dans le but de leur faire découvrir une loi. L’objectif de l’expérimentation, dans le cas de l’instruction scolaire, est d’entraîner, sous contrôle du professeur, les processus inductifs de l’élève. On estime, à juste titre, qu’en jouant sur la curiosité et la découverte, sa créativité se développe. Ainsi, dans des conditions d’observation non dirigée de son environnement, l’élève sera capable de reproduire ces mécanismes, ce qui favorise la découverte de nouveaux concepts. De la même manière, pour l’ordinateur, cette instruction expérimentale contribue à la mise au point des mécanismes d’induction et de déduction à un niveau basique, ainsi qu’à l’optimisation des performances.
Dans notre exemple généalogique, une base d’exemples pourrait être :
Jean est le père de Paul
Jean est le père de Jacques
Paul est le frère de Jacques
Jacques est le père de Marie
Jean est le grand-père de Marie
Paul est l’oncle de Marie
Un système inductif est capable de découvrir, à partir de ces propositions, les clauses exprimées plus haut qui définissent les notions de frère, grand-père et oncle.
Mais dans cette base d’exemples, seuls les liens de parenté entre les personnages sont décrits. L’ensemble de leurs caractéristiques, physiques ou autres, n’est pas évoquée : leur métier, s’ils savent faire du vélo ou parler le japonais, etc.
Si tel était le cas, nos six propositions seraient noyées dans des centaines d’autres. Cela n’empêcherait pas un système d’apprentissage d’induire des clauses vraies, ni même d’en découvrir certaines non imaginées à l’avance, mais dans un temps tellement long qu’il serait inutilisable.
La complexité d’un tel programme, s’il est basé sur l’induction logique exacte, serait d’ordre exponentiel N, N étant la taille du lexique, c’est-à-dire le nombre de constantes symboliques utilisées dans la base d’exemples. On constate que pour effectuer ce genre de traitement dans un temps raisonnable (1 heure) sur un microordinateur performant (env. 2 GHz), la taille du lexique doit être inférieure à 30 mots.
Si cette limite est acceptable pour la compréhension de mondes réduits, elle interdit en l’état l’analogie de tels systèmes avec la pensée humaine, le cerveau étant confronté à chaque instant, comme nous l’avons vu plus haut, à des milliers d’informations. Pour se donner une idée de la difficulté, et si l’on considère que tout peut être décrit par des mots, la taille du lexique utilisé par la pensée peut être comparée au nombre de mots d’une langue évoluée.
Apprendre à oublier
L’homme ayant un nombre très grand mais limité de neurones et donc de connexions (synapses), comment fait-il pour éviter la dispersion ou l’explosion combinatoire qui mettrait à genoux le plus puissant des ordinateurs ?
Pour tenter de comprendre, on peut revenir sur le darwinisme neuronal des neurobiologistes. Selon cette théorie, nous possédons un mécanisme de sélection qui fait qu’au cours du développement cérébral, certaines connexions neuronales sont renforcées, d’autres disparaissent, selon les interactions avec le monde extérieur. Le cerveau est constamment actif, il organise sa mémoire, modifie les représentations du passé en même temps qu’il s’enrichit de nouveaux percepts. Il optimise et archive en même temps qu’il induit.
Par exemple, et contrairement à un ordinateur, il ne mémorise qu’à court terme un numéro de téléphone qui ne lui servira qu’une fois. Plus intéressant, nous pouvons oublier un code sous sa forme numérique et ne retenir que le cheminement des doigts sur le clavier de notre porte d’entrée ou du distributeur de billets, parce que sa mémorisation est ainsi plus économique. Plus inexplicable, nous retenons plus longtemps des faits insignifiants concomitants à des événements importants, comme ce que nous avons fait le 11 septembre 2001, ou le jour où l’homme a marché sur la Lune, dont nous avons d’ailleurs oublié la date, celle-ci n’étant pas devenue l’étiquette symbolique de l’événement comme c’est le cas pour le 11-septembre. Certains autres événements que nous pensions avoir oubliés ne resurgissent qu’à l’occasion d’une odeur. Parfois même, cette odeur nous rappelle quelque chose, mais nous ne savons plus quoi. Ces quelques exemples montrent la complexité des mécanismes d’optimisation de la mémoire.
En programmation, cela se traduirait par une méta-connaissance, composée d’un ensemble de clauses de niveau supérieur (ordre 2 et plus) chargées d’administrer la connaissance elle-même. On peut supposer que le fonctionnement de cette méta-connaissance s’appuie également sur les principes d’induction et de déduction. La pensée, comme le cerveau, s’organise à l’image de l’environnement dans lequel il est immergé, d’une certaine manière en harmonie avec lui. Pour mieux comprendre et simuler par un programme cette auto-optimisation, il paraît indispensable que la machine puisse atteindre des capacités sensorielles et motrices du même ordre que celles des êtres vivants. Cela constitue l’un des aspects de la recherche en robotique. Ces informations sensorielles, tant qu’elles seront transmises aux machines sous la forme d’un langage évolué, ne pourront être que partielles car nous n’avons pas la capacité de les décrire à la fois exhaustivement et de façon continue.
Intelligent n’est pas vivant
En plus de ces informations extérieures, il y a l’activité et les réactions innées de notre propre corps qui sont autant d’événements influant sur la pensée. À la base chimiques ou physiques – rythme cardiaque, échanges hormonaux ou protéiniques – ils expriment autant d’affects (douleurs, désir, peur, tristesse, jalousie, etc.) qui sont caractéristiques des êtres vivants, avec des variantes par espèce. Ces réactions sont donc plus fortement liées à un héritage génétique, bien que pouvant être également influencées par une culture transmise ou provoquées par suggestion, comme il en est de la superstition chez l’homme ou du conditionnement des animaux.
En plus de ces affects, il y a l’objectif que partagent les êtres vivants, la pérennité de leur espèce, qui se décline en autant d’instincts : chasse, survie, procréation, etc. Les moyens de ces objectifs sont multiples : domination, soumission, vie en communauté, parasitage. Aristote ajoute, dans les Éthiques une fin qu’il considère spécifique aux hommes : la recherche du bonheur ou du bien-être. Et également un moyen : la délibération. Aristote s’éloigne donc ici du caractère logique, voire exact de la connaissance, pour entrer dans ce que Pierre-Marie Morel appelle un « principe de rigueur relative » peu enclin à se soumettre aux rigueurs de la logique formelle.
On est donc ici bien loin du principe de production d’une machine ou d’un système. Pourquoi alors ne pas envisager d’inoculer les principes de mort, maladie et reproduction dans un programme d’intelligence artificielle, à la manière des jeux de rôles (RPG : role playing game) sur console ou ordinateur ? Outre le peu d’intérêt d’une telle démarche du point de vue de la science, on se heurterait à une nouvelle catégorie de problèmes, d’ordre génétique autant qu’ethnologique. Laissons donc aux films de science-fiction exprimer – souvent avec talent – les fantasmes d’espèces cybernétiques ou de vie artificielle, pour se concentrer sur l’intelligence artificielle, et principalement sur le raisonnement.
Un élément essentiel qui différencie l’homme des autres animaux est la qualité de son raisonnement, cette capacité supérieure d’abstraire la réalité et de la manipuler sous la forme d’objets mentaux. Paradoxalement, une machine dispose de plus de facilité à simuler cette fonction-là, pourtant la plus évoluée. En effet, le traitement logique d’objets symboliques, représentation d’une réalité qu’il ne connaît pas, est le fonctionnement naturel d’un programme d’ordinateur.
Théoriquement, une machine peut donc raisonner. Pratiquement, elle le fera de mieux en mieux, avec de plus en plus d’intelligence. Le progrès viendra des chercheurs en sciences cognitives qui sauront généraliser et optimiser les modèles, quelles que soient les voies théoriques utilisées : fonctionnalisme, connexionnisme ou autres.
Mais le raisonnement ne constitue qu’un aspect de la pensée humaine, son manteau recouvrant. Si tant est qu’on puisse l’isoler aussi simplement, le raisonnement représente l’expression la plus évoluée mais la plus détachée des affects. Ainsi, raisonner ne suffit pas pour penser, encore faut-il préalablement ressentir. Même si l’analyse des sensations peut être également modélisée et simulée par le principe d’induction et de déduction, il est difficile de faire mieux que le corps pour délivrer les informations élémentaires indispensables tant externes qu’internes. L’âme est chevillée au corps et l’ensemble, immergé avec harmonie dans la nature. Tant que les ordinateurs auront besoin qu’on leur décrive notre perception du monde, un programme, même s’il semble raisonner intelligemment, ne pourra être un modèle complet de la pensée humaine.
Aristote. Organon (5 volumes). Traduction et notes par J.Tricot. Librairie philosophique J. Vrin.
Edelman, G. (1992). Biologie de la conscience, Odile Jacob.
Fodor, J. (1983). The modularity of Mind, MIT Press.
McCulloch W. et Pitts W. (1943). Threshold Logic Unit.
Minsky M. (1988). The Society of Mind.
Morel, P.-M. (2003). Aristote. GF Flammarion.
Turing A. (1936). On Computable Numbers, with an application to the Entscheidungsproblem, Proc. Lond. Math. Soc. (2) 42 pp 230-265 (1936-7); correction ibid. 43, pp 544-546 (1937).