Contrepoints

Accueil > Culture > Médias > Le cerveau et l’ordinateur

Le cerveau et l’ordinateur

Une comparaison abusive

lundi 7 avril 2008

C’est bien ainsi que l’on peut présenter schématiquement la querelle inexpiable, surgie voici une quarantaine d’années dans le cadre des recherches sur l’intelligence artificielle, rebaptisée "IA" dans les publications scientifiques. Cette querelle fut d’autant plus vive, au moins dans les premiers temps, que les partisans les plus décidés de l’intelligence artificelle, les tenants de la "théorie forte" (strong AI), ne faisaient preuve ni de prudence, ni de modestie dans leurs proclamations. A les en croire, nous devrions faire définitivement notre deuil d’une prétendue spécificité humaine. Cette frontière métaphysique dont on pensait qu’elle séparait l’homme de la machine, expliquaient-ils, cédera tôt ou tard parce qu’on sait désormais que, d’un point de vue scientifique, elle n’est pas fondée. Tel était le message initial.
Aux soubassements théoriques de ces recherches [sur l’intelligence artificielle] se trouve l’idée qu’il n’y a pas de différence ontologique entre les humains ou les organismes vivants en général, et les machines (1).

Proclamations triomphales ? Citons quelques perles ou ambigüités languagières. En 1955, le neurophysiologiste Warren McCulloch, pressé de déconstruire toute idée de spécificité humaine, n’hésitait pas à affirmer :

Les hommes ne sont pas seulement analogues aux machines, ils sont machines (2).

En 1965, le futur prix Nobel d’économie, Herbert Simon, déclarait :
Les machines, d’ici vingt ans, [seront] capables de faire tout ce qu’un homme peut faire (3).

Un autre chercheur, Marvin Minsky, assurait tout de go :
La prochaine génération d’ordinateurs sera si intelligente que nous aurons bientôt de la chance s’ils consentent à nous prendre chez eux comme animaux de compagnie (4).

L’un des premiers théoriciens de l’intelligence artificielle, Christopher Langton, du Centre d’études non linéaires de Los Alamos, défendait lui aussi ce type d’hypothèses. De son côté, l’Anglais Alan Turing (1912-1954), véritable inventeur de l’ordinateur digital, assurait que ce dernier serait un jour capable de réaliser toutes les tâches de la pensée humaine. Aujourd’hui, certains roboticiens parmi les plus déterminés adhèrent encore à cette vision strictement machinique. Un Hans Moravec, par exemple, annonce l’apparition "avant quarante ans" de machines qui atteindront l’équivalence avec l’homme (5). Un autre roboticien, le Britannique Hugo de Garis, va plus loin : il annonce que l’être humain sera forcément remplacé par des machines intelligentes qu’il appelle les "artilects" (d’artificial intellect)(6).

Aux yeux de ces partisans de la "théorie forte", les vieux défenseurs de la frontière homme/machine, les avocats de l’irréductible humanité de l’homme ne sont que des idéalistes hors course, des nostalgiques de l’ontologie ou, pire, les guerriers cachés d’on ne sait quel obscurantisme religieux. Quelque fois, les arguments sont bel et bien articulés sur ce ton ! Certes, une partie des chercheurs travaillant aujourd’hui sur l’intelligence artificielle a renoncé à ce discours rigide et lui préfère la relative modestie d’une "théorie faible" (weak AI). Certains spécialistes de l’intelligence artificielle refusent même que leurs recherches soient utilisées comme "machine de guerre" contre le statut métaphysique de l’homme. Il n’empêche que c’est toujours la "théorie forte" qui imprègne l’air du temps. C’est elle qui influence jour après jour les non-spécialistes. L’opinion et les médias continuent confusément de se convaincre que plus grand-chose ne distingue la machine de l’homme. Sporadiquement, les journaux, l’audiovisuel, la littérature fantastique et le cinéma agitent cette hypothèse "sensationnelle" et échafaudent des scénarios peuplés de robots triomphants. On croit même conforme à l’utopie postmoderne d’exalter notre bonheur "de vivre dans une nature peuplée de nouveaux êtres artificiels avec lesquels nous devons être "heureux" d’établir et d’entretenir un nouveau genre de "rapports sociaux" (7). L’attachement à l’humanité de l’homme, dans ce climat général, apparaît bien comme une nostalgie.

La révolution du cognitivisme

Le courant de recherche sur l’intelligence artificielle s’inscrit en réalité dans le cadre beaucoup plus large du cognitivisme (du latin cognoscere : connaître). Un cadre ou un territoire qui n’est pas très facile à délimiter. En principe, les sciences cognitives s’intéressent aux processus mentaux permettant l’acquisition de connaissances. Elles prennent pour objet d’étude la connaissance elle-même et tout ce qui, concrètement, la rend possible : qu’il s’agisse de l’homme, de l’animal ou de la machine. Pour simplifier, disons que les sciences cognitives s’efforcent de répondre à la question suivante : qu’est-ce qui permet à quelqu’un (ou à "quelque chose") de se souvenir, de comprendre ou de connaître ?

Dans la pratique, elles forment une nébuleuse et mobilisent des disciplines aussi différentes que la psychologie, la linguistique, la neurobiologie, la logique ou l’informatique. (La liste n’est pas limitative). Ces disciplines se retrouvent, se rassemblent, se combinent et s’interpénètrent, mais selon des configurations changeantes dans l’espace et dans le temps. Ce regroupement de chercheurs est donc éminemment hétérogène, multiple, divisé en courants ou éparpillé en chapelles entre lesquelles on peine à trouver son chemin (8). Et cela d’autant plus que le cognitivisme a déjà une longue histoire. Les théoriciens du début consentent aujourd’hui à une réévaluation plus fine — et prudente — de l’analyse, avec l’apparition des courants dits "connectionnistes", puis avec le succès relatif de la notion "d’énaction", popularisée notamment par le neurobiologiste chilien Francisco Varela, et qui — entre autres analyses — met en avant les interactions d’un système avec l’environnement (9). Mais ce changement théorique n’est pas général, loin s’en faut...

Il faut savoir aussi qu’une énorme littérature cognitiviste, principalement anglo-saxonne, s’est accumulée depuis les années 1960. Or l’inclination pour le jargon, le goût pour les formulations elliptiques, la coquetterie sémantique ne sont pas absents de ces textes volumineux, thèses, colloques, travaux de laboratoire ou corpus innombrables diffusés via l’Internet. Cet écheveau de concepts et cette complexité mouvante rappellent, toutes proportions gardées, la situation qui prévalait dans les sciences humaines au cours des années 1960 et 1970. On y trouve beaucoup d’ouverture, de curiosité, de créativité, mais aussi les mêmes crispations jargonnantes et les mêmes barricadements autour d’une vulgate normative, voire intolérante.

Tout cela rend toujours difficile l’accès à ces nouveaux territoires. Le curieux venu du dehors risque fort de juger byzantines, voire incompréhensibles les querelles qui traversent le champ du cognitivisme. Ce dernier exerce donc, indéniablement, un effet d’intimidation, qui tient la plupart des intellectuels éloignés de ces débats pourtant essentiels. Un même rapprochement peut être fait avec le pouvoir d’intimidation qu’exercèrent, en leur temps, le postmodernisme, le structuralisme, la psychanalyse, ou encore, quelques décennies auparavant, le marxisme revu par Louis Althusser. Aujourd’hui comme hier, chacun redoute instinctivement de s’aventurer dans ces disciplines nouvelles où le "naïf" est vite moqué, taxé de simplisme ou soupçonné d’incompétence. On écartera facilement, au nom des grandes oeuvres fondatrices, les objections qui viennent aux lèvres. En y ajoutant un sourire compatissant... Quant à retrouver son chemin dans le dédale des groupes, sous-groupes ou chapelles, rien ne sera plus malaisé.

Quitte à faire preuve de témérité, on voudrait cependant tenter de défnir ici, aussi simplement que possible, les principaux postulats du cognitivisme. Ne serait-ce que pour mesurer les enjeux (considérables) du débat en cours.

Le premier postulat tient à la nouvelle définition du fonctionnement du cerveau, directement inspiré de la métaphore informatique. Pour les cognitivistes, une telle description exige que l’on distingue deux niveaux bien distincts : celui du cerveau entendu comme réalité matérielle, physique, relevant des neurosciences ; celui du même cerveau entendu comme un "processus" informationnel, c’est-à-dire comme une fonction que la logique informatique permet d’analyser. Ces deux "niveaux" (l’organisation matérielle et la fonction) entretiennent entre eux des relations comparables à celles qui unissent un ordinateur en tant que machine (hardware) et un ordinateur en tant que système de traitement de l’information (software). Certains théoriciens de la vie artificielle, comme Christopher Langton, insistent d’ailleurs sur le fait que c’est l’organisation qui constitue véritablement la machine et non point la matière dont elle est faite.

Pour ce que est de cette organisation, le système cognitif de l’homme est analogue, dit-on, à celui des mammifères supérieurs. Il se caractérise (deuxième postulat) par une série d’états représentationnels successifs ; le passage de l’un à l’autre étant gouverné par des processus analysables. Troisième postulat : ces états internes successifs se ramènent à des formules sémantiques, un "langage" comparable aux langages formels de la logique. Quant aux processus qui les régissent, ils sont réductibles à un petit nombre d’opérations originelles dont "l’exécution par une machine va de soi" (10). Ils sont en quelque sorte décomposables en une suite de purs réflexes n’exigeant aucune interprétation subjective. Ils sont analogues — et peut être semblables ! — à ceux qui régissent le "dossier système" d’un ordinateur.
Pour dire les choses autrement, les cognitivistes soutiennent que ce qu’on appelait jusqu’à présent la conscience est réductible à un processus, tributaire de la seule organisation cérébrale. Cette organisation est dotée par ailleurs de propriétés auto-organisatrices, comparables en tout point à celles que l’on peut observer dans un réseau d’automates. A leurs yeux, cela signifie que la pensée humaine équivaut à une forme de calcul et relève du "mécanique". Ils récusent toute idée d’intentionnalité, de sens, de finalité. Ces concepts humanistes ou idéalistes d’avant-hier désigneraient, à leurs yeux, des phénomènes cérébraux résultants de processus auto-organisés, purement physiques. Ces processus, il est désormais possible de les décomposer, et, donc, de les reproduire artificiellement.

Retenons de ces quelques indications — très succintes — que, dans une perspective cognitiviste, ce que l’on considérait jadis comme une dimension essentielle de l’humanité de l’homme est ainsi effacée. Ni esprit, ni conscience, ni âme, ni intention... Voilà l’homme désenchanté et arraché à lui-même. Il n’est plus qu’une mécanique. L’homme et la machine ne sont pas de nature différente. Globalement, Henri Atlan prend acte de cette expulsion lorsqu’il écrit :

La question de la finalité et de l’intention hante la biologie depuis à peu près trois siècle. Cette question semble avoir été liquidé aujourd’hui par la biologie physico-chimique et moléculaire qui a réussi, finalement, à éliminer les âmes du vivant (11).

Une haine résolue du religieux

En amont, la naissance du cognitivisme est liée à celle de l’informatique et, auparavant, de la cybernétique. En aval, l’influence exercée par ce type d’alayse (et de certains concepts comme l’autoreproduction) sur les pionniers de la biologie moléculaire est indéniable.

Jean-Pierre Dupuy a été, en France, un des premiers à souligner cette parenté directe entre les sciences cognitives d’aujourd’hui et la cybernétique de l’immédiat après-guerre (12). Ce qu’il dit de cette filiation nous aide à repérer ce qu’on pourrait appeler "l’idéologie cachée" du cognitivisme. Car, au départ du moins, il y avait bien une intention idéologique. Il n’est pas sûr qu’elle ait disparu. Une série de dix réunions ou conférences, tenues entre 1946 et 1953, à l’hôtel Beekman de New York, et à l’hôtel Nassau Inn de Princeton, dans le New Jersey, auront joué un rôle fondateur. Ces réunions sont entrées dans l’histoire des sciences sous l’intitulé de "Conférences Macy", du nom de la fondation philanthropique Josiah Macy Jr qui les organisait. Elles rassemblaient des mathématiciens, des logiciens, des psychologues, des anthropologues, mais aussi des économistes.

L’objectif avoué de ces participants était ambitieux : construire, da façon transdisciplinaire, une science générale du fonctionnement de l’esprit, mais une sience purement physicaliste, éloignée de tout idéalisme ; une science qui permettrait de réintégrer au sein même de la matière des entités vagues comme l’esprit. Ils jugeaient que leur programme serait achevé lorsqu’ils seraient parvenus, "à l’instar du Créateur supposé de l’Univers, [à fabriquer] un cerveau capable de manifester toutes les propriétés que l’on attribue à l’esprit (13)". Jean-Pierre Dupuy ajoute que ces chercheurs, venus de disciplines fort différentes, avaient en commun une haine résolue du religieux et un dédain pour l’ancienne métaphysique. Un peu plus tard, de 1958 à 1976, la cybernétique en tant que mouvement se diversifiera, avec l’émergence, sous l’impulsion de Heinz von Forster, de la "seconde cybernétique" qui aura principalement pour cadre le Biological Computer Laboratory de l’université de l’Illinois à Urbana-Champaign.

A la même époque que les "Conférences Mary", deux grands théoriciens, considérés aujourd’hui comme les pères fondateurs de la cybernétique, puis de l’informatique, publiaient leurs travaux respectifs : Johann von Neuman (1903-1957) et Norman Wiener (1894-1964). Le premier, dans une célèbre conférence prononcée en 1948, à Pasadena, et intilulée Théorie générale et logique des automates, posait les bases d’un rapprochement conceptuel entre la machine de traitement informationnel (ancêtre de l’ordinateur) et les êtres vivants. Il postulait qu’à travers des algorithmes de simulation de plus en plus complexes on parviendrait un jour ou l’autre à reproduire le principe de la vie naturelle ou encore d’une vie artificielle comparable. Von Neuman désignait d’ailleurs, et significativement, le système nerveux comme un "automate naturel".

Le second auteur d’un livre essentiel, publié en 1954 (14), parvenait à la même conclusion, mais en faisant intervenir la notion d’entropie (du grec entropia : retour en arrière). Cette notion d’entropie est d’ailleurs de bout en bout fondamentale. Elle désigne la tendance naturelle de tout système organisé — et de l’univers lui-même — à s’orienter vers un désordre accru. C’est ce qu’on appelle le second principe de la thermodynamique. En d’autres termes, la flèche du temps dirige irrésistiblement la matière organisée, et, partant, l’univers tout entier, vers une entropie, un désordre, un délabrement grandissants. Une tasse de café qui se renverse, une masse qui se désagrège, la décomposition d’un corps animal, l’éparpillement d’un jeu de cartes : autant de phénomènes qui correspondent à une augmentation de l’entropie.

Or, pour Wiener, il existe assez extraordinairement des "enclaves" où l’évolution tendancielle semble à l’opposé de celle de l’univers. Pour faire image, on pourrait parler de "poches de résistance". Il s’y manifeste, écrit-il, "une tendance limitée et temporaire à l’accroissement de l’organisation", c’est-à-dire à une diminution de l’entropie. Or cette capacité de résister à l’entropie, à ses yeux, est commune aux êtres vivants et à certaines machines. La vie réelle, assurément, est une forme de résistance au désordre de mort, symbolisé par la décomposition qui éparpille la matière jusqu’alors assemblée. Toute créature vivante constitue donc une de ces "enclaves". Les machines, quant à elles, par l’intermédiaire de la rétroaction, de l’émergence ou de l’auto-organisation, font exactement de même. Elles résistent à l’entropie du dehors en créant de l’ordre là où il y a du désordre (ou du chaos). Pour Wiener, cette similitude "anti-entropique" entre le vivant et les machines est si forte qu’elle rend tout simplement obsolète un concept comme celui de... vie !

Aussi, selon moi, est-il préférable d’éviter tous ces mots générateurs de problèmes, tels que vie, âme, vitalisme, etc. Mieux vaut dire simplement qu’il n’y a pas de raison pour que les machines ne puissent pas ressembler aux êtres vivants dans la mesure où elles représentent des poches d’entropie décroissante au sein d’un système où l’entropie tend à s’accroître (15).

Le sérieux imperturbable de la proposition, le ton glacial — ou pince sans rire — du constat, tout cela correspond assez bien au style de discours qui prévalent (ou prévalaient) dans les sciences cognitives.

Les théoriciens et chercheurs les plus récents ont certes enrichi et nuancé les arguments cognitivistes, mais ils sont restés globalement dans la ligne des pères fondateurs cités ci-dessus. On peut évoquer, à titre d’exemple, les travaux du physicien Danois Steen Rasmussen, ou ceux du neurobiologiste américain Gerald M. Edelman, prix Nobel de médecine, qui a tenté d’établir une théorie unifiée. En France, un Jean-Pierre Changeux, qui suscita de vives polémiques, en 1983, en publiant son livre l’Homme neuronal, s’inscrit dans le même courant de pensée en assimilant le cerveau humain à un ordinateur. Il est d’ailleurs frappant de relever qu’au début des années 1980 ce livre ne fut pas aussi isolé ni aussi novateur qu’on le crut. Il fut précédé ou accompagné, en France comme à l’étranger, par plusieurs ouvrages comparables. Tous ces textes s’inscrivaient non pas dans le cadre d’une "mode" au sens péjoratif du terme, mais d’une "tendance". Ils marquaient, avec une simultanéité troublante, l’état provisoire d’une réflexion ou d’une approche. (16)

Or, "la conséquence de cette approche est que ce que l’on peut savoir du fonctionnement des machines est transposable aux organismes vivants, et vice versa. Ainsi il devrait être possible de créer la vie dans les machines (17)".

Domestiquer des logiciels sauvages

La vie dans les machines ? La formule est sans doute prématurée. Elle nous invite toutefois à mesurer le chemin effectué aujourd’hui par la science appliquée et la technique vers ces confins, ces marges, ces frontières incroyables, où la vie et la machine paraissent se rejoindre. Sans en avoir toujours une claire conscience, nous sommes déjà environnés d’expériences limites, de machineries animées, de créations virtuelles et d’artefacts dont l’omniprésence contribue à brouiller nos repères. Ils sont si nombreux qu’on serait bien incapables d’en proposer une énumération exhaustive. Au moins peut-on en désigner quelques catégories.

On pourrait d’abord classer au chapitre des simulations informatiques les nombreuses expériences visant à reconstituer des procédures virtuelles se rapprochant de façon troublante de celles qui régissent le vivant. Depuis l’époque des premiers "réseaux d’automates", étudiés voici une vingtaine d’années, notamment par Henri Atlan, la technique a fait du chemin. On était déjà capable, depuis les expériences de Warren McCulloch et Walter Pitts (en 1943), de créer des "réseaux de neurones informatiques" ou "neurones formels" reproduisant les cellules nerveuses véritables. Grâce à une méthode mise au point par John Holland, on parvient aujourd’hui à combiner ces réseaux avec ce qu’on appelle les algorithmes génétiques, qui leur font acquérir une véritable autonomie. Ces algorithmes permettent, pour faire court, d’appliquer les principes de la sélection naturelle à des millions d’informations codées ; de sorte que soit retenue la solution la plus apte. Cela signifie que le comportement de ces réseaux de neurones virtuels devient imprévisible et non plus déterminé préalablement par un opérateur. Ils acquièrent une forme d’intelligence et de "liberté" (les guillemets s’imposent). A titre d’exemple, on cite les bancs de poissons virtuels créés par Demetri Terzopoulos et qui, sur l’écran de l’ordinateur, évoluent de façon aléatoire et autonome.

En janvier 1990, un ingénieur écologiste, Tom Ray, travaillant dans un laboratoire japonais, est allé plus loin dans cette voie en recréant un écosystème virtuel. Il a transformé en quelque sorte la mémoire d’un ordinateur en un "territoire" équivalent à un milieu vivant. Cet écosystème artificiel a été baptisé Tierra par son concepteur. Ce dernier a ensuite introduit dans cet espace informatique des programmes complexes, possédant la capacité de se dupliquer, de grandir, de se diversifier, de se combiner, etc. Or, assez extraordinairement, lesdits programmes, qui peuvent adopter des stratégies de survie ou de conquête, ont colonisé en moins d’une nuit toute la mémoire de l’ordinateur. Fort de cette expérience, Tom Ray n’hésite plus à prédire la création future de "fermes d’élevage de logiciels", expliquant que nous devrons apprendre un jour à "domestiquer certains de ces organismes sauvages".

En fait, les "créatures" de ce type apparaissent un peu partout. Des chercheurs japonais ont réussi à créer une idole virtuelle, baptisée Kyoto Date, et revêtant les traits d’une troublante jeune femme capable de chanter, danser, répondre à des interviews et, bientôt peut-être, de participer à des émissions de télévision aux côtés de "vrais" invités. On peut prévoir une multiplication de ces "êtres vivants" du troisième type sur l’Internet, où il sera difficile de les distinguer des hommes et femmes véritables.

Un pas supplémentaire est franchi avec les nouvelles générations de robots, dont les médias aiment tant célébrer, mois après mois, les exploits. Eux, en effet, ne sont plus virtuels mais concrets. Cette nouvelle robotique s’inspire directement des recherches menées dans le domaine de l’intelligence artificielle, notamment celles conduite par Rodney Brooks pour le compte du MIT. Par rapport à l’ancienne, cette nouvelle robotique renonce à l’idée de programmation ou représentation préalable qui, autrefois, gouvernait les réactions d’un robot, pour lui substituer une procédure d’adaptation permanente, grâce à la multiplication de "modules programmatiques" entre lesquels le robot peut "choisir". Les progrès de l’imagerie de synthèse et de la sensibilité des capteurs sonores aidant, certains robots deviennent capables de reconnaître et d’identifier non seulement un langage humain, mais aussi des émotions simplement lisibles sur un visage. La première expérience de ce genre a été réalisée par l’équipe de Fumio Hara, de l’université des sciences de Tokyo.

Durant l’année 2000, les Japonais se sont enthousiasmés pour Aibo, un robot-chien capable de rapporter une balle et d’obéir aux ordres de son maître. Les dirigeants de la filiale de Sony qui a mis au point ce "chien" vendu dix mille francs expliquaient que les chiens robots étaient mieux adaptés à l’environnement urbain du Japon que les "chiens naturels".

D’autres scientifiques s’inspirent des enseignements de l’entomologie pour créer des essaims d’insectes virtuels qui parviennent à établir entre eux des modes de communication débouchant sur des comportements collectifs cohérents. Plus étonnant encore, ces "insectes" se révèlent capables de mettre sur pied des stratégies de coopération leur permettant de survivre et d’assurer ainsi la pérennité de l’essaim. Or cette coopération n’avait été nullement programmée. C’est une "émergence", une "auto-organisation" du système informatique, qui se rapproche ainsi de la vie réelle (18).

Un chercheur de l’université de Californie du Sud, Michael Arbib, est parvenu quant à lui à créer une "grenouille virtuelle", baptisée Rana computatrix. Elle est munie de microcaméras perfectionnées, d’une véritable rétine artificielle et d’un pseudo-système nerveux. Grâce à ces instruments elle peut contourner des obstacles et reconnaître des "proies". D’autres chercheurs étudient "des modèles informatiques de sauterelles ou de limaces de mer, utilisant ces simulacres pour obtenir des prévisions comportementales qui sont ensuite testées avec des animaux réels placés dans des conditions particulières d’expérience". (19)

La machine "dans" l’homme

Mais cette confusion troublante entre la machine et le vivant peut aussi emprunter d’autres voies, complètement différentes. Au lieu d’être élaborées pour stimuler ou reconstituer la vie, les machines peuvent être conçues afin d’être placées, greffées, à l’intérieur même du vivant, jusqu’à faire corps avec lui. La rencontre entre la machine et le vivant ne se fait plus par imitation mais par imbrication. On désigne ici le champ immense, constitué par l’appareillage du corps humain, les prothèses, les implants de toutes sortes. De plus en plus perfectionnés, ils servent à pallier une fonction biologique défaillante ou à améliorer les performances d’un organe. Le mythe, cette fois, n’est plus celui du golem mais du cyborg, version moderne de l’homme-machine dont le corps a incorporé des "extensions" électroniques ou informatiques qui décuplent ses capacités physiques ou mentales (20). Il est homme et machine, en attendant de devenir machine et homme. On n’est plus devant un problème de frontière mais de proportion ou de dosage. Quelle part pour l’homme, quelle part pour la machinerie ?

Il faut savoir qu’au cours des cinq dernières décennies ces possibilités d’appareillage du corps humain ont été multipliées et complexifiées de façon spectaculaire. Cela s’est fait pas à pas. Au début des années 1940, on réalisait les premières greffes d’appareils capables de suppléer d’abord le rein, puis d’autres organes. On en vint ensuite à l’installation de stimulateurs cardiaques — les pacemakers — dont l’usage s’est rapidement répandu dans le monde. Puis arrivèrent, en 1989, les premières pompes à insuline et les stimulateurs musculaires permettant de rétablir telle ou telle fonction défaillante. On cite couramment les implants dits cochléaires (21), électrodes et circuits électroniques reliés au cerveau et permettant de guérir certaines formes de surdité profonde.
La société américaine House Ear Institute développe même des électrodes implantées directement dans le cerveau, près des noyaux cochléaires (22).

La presse scientifique se fait constamment l’écho de nouvelles innovations ou de recherches sans cesse plus prometteuses. Deux neurochirurgiens américains, Roy Bakay et Philip Kennedy, de l’université Emory, à Atlanta, ont installé dans le cortex d’un paralytique de minuscules implants électroniques qui lui permettent — dans une certaine mesure — de commander par la pensée un ordinateur en lui envoyant des signaux codifiés. Le handicapé en question, Johnny Ray, qui vit avec une électrode implantée dans le crâne, est devenu une vedette des médias aux Etats-Unis. On songe également à fabriquer un véritable œil artificiel, doté d’une caméra et d’un microprocesseur très performant qui serait relié directement au cerveau et rendrait la vue à un aveugle.

D’autres chercheurs réfléchissent carrément à la possibilité de fabriquer, au moins partiellement, un cerveau artificiel qui serait constitué de milliers de microprocesseurs capables d’avoir un "comportement émergent" et remplaçant les neurones. Projet encore inatteignable, sans doute. Il n’empêche !

La sophistication future des implants permettra un contrôle au moins partiel de certaines fonctions mentales : la vue, l’audition, le contrôle des membres, mais aussi des fonctions de l’humeur ou de l’intellect (23).

La machine colonise l’homme, le pénètre, le complète et, peut-être, à la limite, l’abolit… C’est dans ce contexte bouleversé — et bouleversant — que s’inscrivent désormais les débats sur l’homme-machine.

Il est d’autres cas où ces implants, incorporés autour ou dans le corps humain, ne remplacent pas un organe malade mais ajoutent une fonction à celle de l’organisme. Citons le cas de l’ordinateur-vêtement — le wearcomp — muni de biocapteurs ou tissé avec des fils conducteurs qui permettent de bénéficier en permanence des possibilités de mémoire, de calcul et de communication d’un ordinateur. Citons aussi les puces électroniques directement implantées sous la peau qui dotent les corps des mêmes capacités d’identification ou de stockage informatique que celles d’une carte à puce (ouvrir l’accès à un parking, payer une transaction, etc.)

Kevin Warwick, professeur à l’université de Reading (Grande-Bretagne) s’est greffé une puce sous la peau en août 1998. Il s’en servait comme d’un sésame dans un "bâtiment intelligent". (24)

Evoquons enfin, d’un mot, les progrès spectaculaires dans la fabrication de tissus, substances ou organes susceptibles de remplacer leurs équivalents organiques. A eux seuls, ils justifieraient des pages entières de description. On sait dorénavant cultiver des cellules de l’épiderme destinées à des greffes de peau. On a appris à fabriquer des implants osseux à base de corail, recolonisé ensuite par les cellules osseuses de l’organisme. On reconstitue artificiellement différentes formes d’hémoglobine pour les transfusions. On mène d’actives recherches sur la régénération artificielle des nerfs, et il n’est pas exclu qu’on soit en mesure, dans un proche avenir, de fabriquer un foie artificiel.

La complainte des Tamagotchi

Ce triomphe du machinique, cette ingéniosité dans l’hybridation entre le vivant et la machine, ces "records" d’implantation sans cesse dépassés, tout cela engendre un discours technoscientifique habité par une infatigable jubilation sportive. La chronique contemporaine (médias, enseignement, discours politique…) célèbre cette science-fiction réalisée. Elle évoque les "limites reculées", la "toute-puissance" technique, ou bien la marche vers la "santé parfaite". L’impact de ces prouesses est d’ailleurs tel que l’effet d’annonce, on l’a vu, détermine de plus en plus l’activité des laboratoires. On rivalise de vitesse pour annoncer (même prématurément) une nouvelle méthode d’appareillage ou un nouveau type d’implant électronique. On ne se préoccupe plus guère, en revanche, des significations symboliques, idéologiques ou éthiques de l’affaire. Elles sont pourtant considérables.

De nouveaux mots ont investi la langue, mettant bien en évidence que les critères de délimitation de l’humain sont aujourd’hui ébranlés. […] Des individus "cyber-assistés" sont des êtres humains fluets, peu vigoureux, promis à une courte vie, et qui ne peuvent arriver à une certaine fonctionnalité sociale qu’au prix de béquilles technologiques : systèmes de stimulation, biopuce en phase liquide, cyber-optique, circuits de bioplastique, drogues modifiées, amplificateurs d’influx nerveux, membres et organes artificiels, systèmes de mémorisation, prises d’interface neuronale, et autres dispositifs du même genre (25).

Consentir paresseusement à cet ébranlement des critères de l’humain, prendre son parti d’une confusion progressive entre l’homme et la machine, ne va pourtant pas sans conséquences. Même dans l’immédiat. Un professeur du département Science, technologie et société du MIT, Sherry Turkle, souligne que la "cyber-conscience" des enfants les conduit à "voir les systèmes informatiques comme des êtres "quasi vivants", à passer d’un concept explicatif à l’autre et à se jouer des frontières entre le vivant et l’objet". Les recherches sur l’intelligence artificielle, explique-t-elle, ont contribué à galvauder le mot "intelligence". Les enfants ont spontanément intégré cette dévalorisation du concept. Ils parlent indifféremment de "l’intelligence" de leurs jeux électroniques ou de leurs camarades, sans pouvoir faire la moindre distinction. Plus troublant encore, on assiste à la même dérive linguistique dans le domaine de l’affectif. Les enfants emploient le mot "vivant" à propos de leurs animaux virtuels ou de leurs chiens et chats véritables, sans plus marquer de différence. Pour Sherry Turkle :

Les débats traditionnels sur l’intelligence artificielle s’attachaient aux capacités techniques des machines. Les nouveaux porteront sur la vulnérabilité émotionnelle des êtres humains (26).

De la même façon, on découvre certains effets induits par la commercialisation massive d’animaux virtuels destinés aux enfants — les Tamagotchi. Ces petits êtres que l’on doit alimenter, soigner, distraire, sous peine de les voir dépérir contribuent à une déréalisation du vivant souvent désastreuse. En Allemagne, la société protectrice des animaux a protesté contre les Tamagotchi, accusés de déresponsabiliser les enfants face à un "vrai" être vivant. Il en va de même avec le jeu électronique Créatures, apparu en 1996, mettant en action des créatures numériques perfectionnées, les Norns. Ces créatures d’apparence humaine agissent dans un décor virtuel (rues, appartement, etc.) et dépendent de l’attention que leur porte l’utilisateur du jeu. Ce jeu suggère à l’enfant une certaine idée de sa toute puissance qui n’est pas sans risque puisqu’elle n’est compensée par aucune espèce de responsabilité, limites ou sanctions. "La tendance du jeu, observe un chercheur de l’Institut de génétique de Strasbourg, veut que, si une créature est atteinte d’un handicap, il faut l’euthanasier pour que ce défaut ne se perpétue pas" (27).

On s’avise enfin qu’un principe de mort hante en réalité le monde des machines. Les robots symbolisent une existence sans fragilité, sans symptômes. C’est pour cela qu’il génèrent confusément l’angoisse. C’est la thèse d’un chercheur comme Jean-Claude Beaune, pour qui l’automate prétendument "intelligent" introduit en définitive la mort dans la vie. Il offre au regard de l’homme l’image d’un corps morcelé et refroidi ; l’idée d’une présence morte au cœur même du vivant. En ce sens, il est une "machine de mort", non point parce qu’il est capable de la donner ou parce qu’il est dangereux, mais parce qu’il représente et "fait vivre" la mort dans notre quotidien (28).

Parlez-moi chinois !

En réalité, les critiques du cognitivisme ont toujours été plus nombreuses, argumentées, décisives parfois, qu’on ne l’imagine. Si elles n’ont pas véritablement triomphé, c’est sans doute parce que le contexte technoscientifique (on pourrait parler d’idéologie) ne leur était pas favorable. Certaines de ces critiques participent de l’humanisme traditionnel. Elles viennent de philosophes ou d’économistes, c’est-à-dire du dehors. C’est dans cette catégorie qu’on pourrait ranger les mises en gardes de l’économiste et philosophe Friedrich von Hayek, référence obligée des néolibéraux contemporains, mais que l’on cite moins souvent, hélas, lorsqu’il s’agit de ses critiques du scientisme. Or elles sont vigoureuses. Pour Hayek, le réductionnisme dont témoignent les sciences cognitives est une "illusion tyrannique". Il ne fait aucun doute à ses yeux que, pour cette raison, la technoscience est condamnée à échouer socialement (29).

Une critique comparable est émise par Karl Popper, chantre de la société ouverte et défenseur reconnu d’un matérialisme modéré. Popper juge lui aussi que le réductionnisme — à ce stade — se retourne contre l’idéal rationaliste dont il se réclame, et contribue à détruire toute éthique humaniste. La science cesse d’être raisonnable quand elle est dominatrice. Dans un article publié en 1991, il ironise sur ceux qui pensent pouvoir comparer le cerveau à un ordinateur. A ce dernier, dit-il, il manquera toujours ce qui est propre à la créature vivante : l’initiative (30).

Mais d’autres critiques ont, dès l’origine, été formulées à l’intérieur même de la communauté scientifique, disons par des spécialistes de la philosophie des sciences. Elles ont contraint une partie des cognitivistes à renoncer à la "théorie forte" du début. Le plus célèbre de ces critiques, John Searle, professeur à l’Institut de philosophie de Berkeley, s’est moqué de la prétendue "intelligence" d’un ordinateur (31). Pour ce faire, il a usé d’un raisonnement prenant la forme d’une boutade ontologique : le fameux argument de la "chambre chinoise", qui lui permettait de critiquer la prétendue intelligence de la "machine de Turing", métaphore de l’ordinateur que l’on gave de "données" et qui fournit des "réponses". Cet argument est devenu le pont-aux-ânes de toute réflexion critique sur l’intelligence artificielle.

Searle suppose qu’il est enfermé dans une chambre noire et qu’il peut communiquer avec l’extérieur par l’intermédiaire d’un clavier doté de caractères… chinois. Il ne connaît pas le chinois mais dispose d’instructions appropriées, c’est-à-dire d’un "guide" lui indiquant les suites d’idéogrammes à donner en réponse à telle ou telle question, également en chinois. Si les instructions sont correctement établies, il pourra "répondre" aux questions mais "sans avoir compris quoi que ce soit".

Tout ce que j’aurais fait, explique Searle, c’est manipuler des symboles qui n’ont pour moi aucune signification. Un ordinateur se trouve exactement dans la même situation que moi dans la chambre chinoise : il ne dispose que de symboles et de règles régissant leur manipulation (32).

En d’autres termes, Searle rappelle que, si le cerveau humain est bien un "mécanisme" (et donc, dans une certaine mesure une "machine"), c’est un mécanisme causal qui "a la propriété extraordinaire de produire de la conscience", alors que l’ordinateur "ne produit rien du tout, sinon l’état suivant de l’exécution du programme" (33). Quant à la question de savoir si le cerveau est "intrinsèquement un ordinateur", elle lui paraît absurde :

Rien n’est intrinsèquement un ordinateur si ce n’est un être conscient qui fait des computations. N’est un ordinateur que quelque chose auquel a été assigné une interprétation. Il est possible d’assigner une interprétation computationnelle au fonctionnement du cerveau comme à n’importe quoi d’autre (34).

Si les critiques de Searle ont ébranlé la suffisance des premiers cognitivistes, c’est sans doute grâce à leur lumineuse simplicité, accompagnée au surplus d’une pointe d’humour. Mais c’est aussi parce qu’elles n’étaient pas avancées au nom d’un idéalisme que les collègues de Searle auraient pu récuser d’emblée. Le philosophe de Berkeley se présente toujours comme un naturaliste résolu. S’il croit à l’existence de la conscience humaine, dit-il, c’est parce qu’elle semble "naturelle et réelle, au même titre que la digestion ou la photosynthèse". Tout en se démarquant de l’ancien dualisme cartésien opposant le corps et l’esprit, il semble donc refuser d’éliminer la conscience comme le font la plupart des cognitivistes.

L’ordinateur est-il ému ?

Les critiques du philosophe Hubert L. Dreyfus, collègue de John Searle à Berkeley, sont exprimées quant à elles de façon moins imagée, mais elles sont peut-être plus décisives encore (35). Dreyfus conteste en bloc les postulats fondamentaux du cognitivisme. Pour lui, il est tout simplement faux de dire que le cerveau fonctionne comme un ordinateur numérique ; faux de croire que ledit ordinateur puisse nous aider à comprendre la psyché humaine ; faux de croire qu’on puisse formaliser — ou numériser — toute connaissance ; naïf de penser qu’on puisse analyser les informations qui nous font agir comme si elles étaient des grandeurs mesurables et fixes, alors même qu’elles dépendent des situations.

C’est à partir de ce dernier point que Dreyfus rejoint la critique dite "humaniste". A la différence de l’ordinateur, dit-il, l’homme n’est pas défini une fois pour toutes. Il est en devenir perpétuel. L’homme n’est pas un état mais un projet. Sa "nature" est en mouvement permanent, tendue vers un but, transformée sans cesse par son "intérêt ultime" (ultimate concern). C’est le propre de l’homme, son humanité, que d’être capable de se construire au-delà de lui-même. Certes, il peut arriver qu’un homme rétrograde au point de se comporter aussi mécaniquement qu’un ordinateur, mais l’inverse est impossible (36). Un ordinateur ne peut aller au-delà de son programme.

Ce thème de l’intentionnalité est également présent chez un autre adversaire réputé de l’intelligence artificielle, Joseph Weizenbaum. Pointant les limites évidentes de l’ordinateur, il doute que l’analyse de son fonctionnement puisse être d’un quelconque secours pour l’homme. Quel sens peut avoir l’idée même d’intelligence artificielle devant certains problèmes ou situations — espérance, souffrance, crainte, amour — que l’homme est seul à affronter ? Les prétendues "décisions" d’un ordinateur procèdent au mieux de la raison instrumentale et ignorent toute idée de responsabilité. La question n’est donc pas de savoir si nous pouvons le programmer pour décider à notre place mais si nous devons le faire.

L’individu est dans un état de devenir permanent. La préservation de cet état, en fait de son humanité et de sa vie, dépend essentiellement de ce qu’il considère lui-même et de ce que ses semblables considèrent comme étant un être humain (37).

Dreyfus estime en réalité que la recherche scientifique n’autorise pas à faire n’importe quoi, parce que l’homme est doté de responsabilité. L’ordinateur, lui, est incapable de responsabilité et d’intentionnalité.

De l’intention au sentiment, la distance est faible. Or c’est peu de dire qu’un ordinateur est dépourvu de sentiments. On sait gré à Weizenbaum de le rappeler. Sur ce point précis, certaines critiques du cognitivisme vont plus loin que lui. Il se demandent si le sentiment, les émotions humaines ne jouent pas un rôle décisif dans la rationalité elle-même. Si tel était le cas, le concept d’intelligence artificielle devrait être réexaminé de fond en comble. C’est la thèse stimulante du neurobiologiste Antonio R. Damasio, directeur du département de neurobiologie de l’université de l’Iowa aux Etats-Unis :

Etre rationnel, ce n’est pas se couper de ses émotions. Le cerveau qui pense, qui calcule, qui décide n’est pas autre chose que celui qui rit, qui pleure, qui aime, qui éprouve du plaisir et du déplaisir. Le cœur a ses raison que la raison… est loin d’ignorer (38).

Damasio appuie son argumentation sur une extraordinaire histoire, bien connue aux Etats-Unis : celle de Phinéas P. Gage, âgé de vingt-cinq ans en 1848, chef d’équipe sur un chantier de construction de voies ferrées, dans le Vermont, près de la ville de Cavendish. A la suite de l’explosion prématurée d’une charge d’explosif, il eut le crâne traversé par une barre de ferre qui pénétra obliquement par sa joue gauche et ressortit au sommet droit de son crâne, après avoir détruit une partie de son cerveau. Or non seulement Gage ne mourut pas, mais il ne perdit pas connaissance et parvint à guérir rapidement. Aucune de ses fonctions vitales (motricité, langage, équilibre, mémoire) ne fut affectée. En revanche, son comportement social changea du tout au tout. Il devint grossier, imprévisible dans ses décisions, apparemment incapable de prendre une décision réfléchie. Damasio rapproche ce cas d’un de ses propres patients, "Elliot" (c’est un pseudonyme) qui, dans les années 1970, connut un changement d’attitude sociale comparable à la suite de l’ablation d’une tumeur, un méningiome dont la croissance avait lésé une partie des tissus cérébraux. A la suite de cette lésion, "Elliot", comme Cage un siècle et demi plus tôt, conserva ses facultés cérébrales mais devint incapable de se comporter de façon raisonnable.

Des examens plus approfondis montrèrent qu’Elliot, en réalité, ne ressentait plus d’émotions.

Il semblait envisager la vie sur un mode neutre, commente Damasio. […] Nous pourrions définir en peu de mots la malheureuse condition d’Elliot en disant qu’il était désormais en mesure de connaître, mais non de ressentir (39).

Damasio estime que tel était déjà le cas de Phinéas P. Cage. Il en déduit que l’émotion, contrairement à ce qu’on croit d’ordinaire, ne joue pas un rôle "perturbateur" vis-à-vis de la raison (le délire des passions, l’irrationalité affective, le pathos romantique, etc.) mais qu’elle en fait partie. Pour lui, elle est l’une des composantes de la rationalité humaine. Cette fonctionnalité des émotions pourrait très bien être le produit de l’évolution telle que la décrit Darwin. Elle prouverait l’incroyable complexité des mécanismes cérébraux humains, complexité devant laquelle, selon Damasio, nous devons être "émerveillés".

La perception des émotions est à la base de ce que les êtres humains appellent, depuis des millénaires, l’âme ou l’esprit (40).

Imaginerait-on un ordinateur ému ?

Une sorte d’autisme

En somme, c’est la subjectivité, entendue dans tous les sens du terme, qui fait la différence véritable. Et cette subjectivité, aucune étude neurobiologique ne peut en rendre compte. Ni pour l’animal, ni a fortiori pour l’homme. Abordant une question différente mais voisine, le philosophe américain Thomas Nagel avait rédigé un article célèbre, en 1974, pour expliquer qu’on pouvait sans doute étudier à fond le système nerveux d’une chauve-souris, mais que nul ne pourrait jamais savoir quelle sorte de sensation elle éprouvait. Son article s’appelait d’ailleurs "Quel effet cela fait d’être une chauve-souris ?" (What is it like to be a bat ?). Un ordinateur pourrait-il comprendre "quel effet cela fait d’être un humain" ? Evidemment non. Le chercheur à qui j’emprunte cette image est fondé à écrire que "les théories neurobiologiques de la conscience présentent une lacune majeure, celle de ne pas pouvoir rendre compte de l’aspect intérieur, subjectif de la "vie de l’esprit" (41).

Sur ce point, on ne s’étonnera pas que certains psychanalystes soient plus sévères encore. Dans le cadre d’un passionnant dialogue épistolaire avec un neurobiologiste, l’un d’eux n’hésite pas à parler d’autisme au sujet de cette prétendue "intelligence artificielle".

Je regardais marcher l’autre jour la machine à traitement de texte de ma secrétaire. Sans se préoccuper du sens, l’imprimante frappait à la même vitesse une ligne à gauche, puis une ligne à droite. Ainsi faisait un enfant autiste de ma connaissance qui lisait avec autant de facilité un livre à l’endroit ou à l’envers sans se préoccuper de la signification de ce qu’il lisait (42).

Sans vouloir renchérir dans la polémique, on peut se demander si le terme d’autisme ne pourrait être appliqué à certains cognitivistes eux-mêmes, qui, dans le silence de leurs laboratoires, en viennent à perdre le contact avec ce qu’il y a de plus évident dans les parages de la vraie vie. Il est possible qu’à leur insu ces chercheurs demeurent mentalement influencés par ce qu’un universitaire de Caroline du Nord, David Bolter, appelle une "technologie définissante". Par cette expression, il désigne les différentes technologies qui, tout au long de notre histoire, ont fourni des métaphores et des images que nous avons prises durablement pour des "explications" (43).

Platon usait de la métaphore du potier pour évoquer le créateur du monde, métaphore reprise par la Bible, qui parle d’un Dieu façonnant ou pétrissant sa créature ; au Moyen Age c’est la fabrication de la première horloge et l’invention de la micromécanique qui incita — pour des siècles et jusqu’à Descartes — à parler de l’univers comme mu par des mécanismes et créé par un "grand horloger", etc. Chaque invention technique produit ainsi un modèle descriptif de la réalité, un modèle provisoire, métaphorique, mais que nous confondons volontiers avec la "vérité" enfin découverte. Aujourd’hui, même s’il est lui-même le produit d’une révolution conceptuelle, l’ordinateur est sans doute devenu, à son tour, une technologie définissante. La plupart des métaphores scientifiques (programme, codage, etc.) s’inspirent dorénavant de l’informatique. Et l’on oublie volontiers qu’il ne s’agit que de métaphores.

Or ce nouveau réductionnisme n’est pas sans conséquence sur notre vision de l’homme. Peter Kempf a raison d’observer, avec une pointe d’inquiétude, que, "si l’ordinateur est devenu une "technologie définissante" pour notre compréhension de l’homme, celui-ci risque fort d’être enfermé dans ce modèle (44)". Autrement dit, lorsque nous comparons ou laissons comparer l’homme à une machine, ce n’est pas parce que cela est vrai mais parce que nous voulons qu’il en soit ainsi. Ce n’est pas un constat, c’est un choix.

Notes

1 : Hervé Kempf, La Révolution biolithique. Humains artificiels et machines animées, Paris, Albin Michel, 1998.

2 : Cité par Jean-Michel Besnier, "Les sciences cognitives ont-elles raison de l’âme ?", Esprit, mai 1990.

3 : Cité par Hubert L. Dreyfus, Intelligence artificielle. Mythes et limites, trad. fr. Paris, Flammarion, 1984.

4 : Cité par John Searle, Du cerveau au savoir, Paris, Hermann, 1985.

5 : Hans Moravec, Une vie après la vie, Odile Jacob, 1992.

6 : Le Monde, 9 novembre 2000.

7 : Giorgio Israel, le Jardin au noyer. Pour un nouveau rationalisme, Paris, le Seuil, 2000.

8 : Une des meilleures introductions, en langue française, sur la question du cognitivisme est le recueil fondé sur un colloque de juin 1987, à Cerisy-la-Salle, intitulé "Approches de la cognition". Ensemble réuni et présenté par Daniel Andler sous le titre Introduction aux sciences cognitives, Gallimard, Folio, 1992.

9 : Fransisco Varela et ses amis contestent aujourd’hui les théories qui décrivaient la réalité d’un organisme vivant en disant qu’il devait "s’adapter" à un environnement prédonné. En réalité, l’influence est réciproque. Cette réciprocité est la définition même de la vie. Voir Fransisco Varela, Evan Thompson, Eleanor Rosch, L’inscription corporelle de l’esprit. Sciences cognitives et expérience humaine, Paris, Le Seuil, 1993.

10 : Je reprends ici la formule et les explications proposées par Daniel Andler dans sa présentation du recueil Introduction aux sciences cognitives, op. cit.

11 : Henri Atlan, Tout, non, peut-être, Paris, Le Seuil, 1991.

12 : Jean-Pierre Dupuy, Aux origines des sciences cognitives, Paris, La Découverte, 1994. On peut également citer, parmi les ouvrages récents, le livre très fouillé du Français Alain Prochiantz, Machine-Esprit, Odile Jacob, 2001.

13 : Jean-Pierre Dupuy, "L’Esprit mécanisé par lui-même", Le Débat n°109, mars-avril 2000.

14 : Norbert Wiener, The Human use of human Beings. Cybernetics and Society, New York, 1954, trad. fr. Cybernétique et Société. L’usage humain des êtres humains, Paris, 10/18, 1962.

15 : Cité par Marc Jeannorod, "La complexité du vivant", in Jacques Hchlmann, Marc Jannerod, Esprit es-tu là ? Psychanalyse et neurosciences, Paris, Odile Jacob, 1991.

16 : Parmi les livres très proches, sur le fond, de celui de Jean-Pierre Changeux, on peut citer : Marc Jannerod, Le Cerveau-machine, Fayard, 1983 ; Douglas R. Hofstadter, Gödel, Escher, Bach : An Eternal Gorlden Braid, Vintage Books, 1980 ; Goeff Simons, Are Computer alive ? Evolution and New Life Forms, Brighton (Sussex), The Harvester Press.

17 : H. Kempf, La Révolution biolithique, op. cit.

18 : La plupart de ces exemples sont empruntés à H. Kempf, La Révolution biolithique, op. cit.

19 : Daniel Parrochia, "Le statut épistémologique de la "vie artificielle"", in Ordre biologique, ordre technique, Frank Tinland (dir), Champ Vallon, 1994.

20 : J’ai traité du cyborg dans la Refondation du monde, Paris, Seuil, 1999.

21 : Le terme cochléaire désigne la partie de l’oreille interne en spirale, contenant les terminaisons du nerf auditif.

22 : Laurence Plévert, "Cyborg. L’homme augmenté", Euréka, n°53, mars 2000.

23 : H. Kempf, La Révolution biolithique, op. cit.

24 : Euréka, n°53, op. cit.

25 : Dorthy Nelkin et Susan Lindee, La Mystique de l’ADN, Belin, 1998.
26 : Sherry Turkle, "Câlins électroniques pour cyberenfants", Courrier de l’UNESCO, septembre 2000.

27 : Le Monde, 10-11 novembre 1996.

28 : Jean-Claude Beaune, L’Automate et ses mobiles, Paris, Flammarion, 1980.

29 : Freidrich von Hayek, Scientisme et sciences sociales. Essai sur le mauvais usage de la raison, Paris, Plon, 1986. Voir le dossier que Catallaxia consacre à l’auteur, ainsi que sa page sur cet essai.

30 : Karl Popper, "Meccanismi contro invenzione creativa : brevi considerazioni su un problema aperto", L’automa spirituale. Menti, cervelli e computer, Roma-Bari, Laterza, 1991. Art. cité par Giorgio Israel, Le Jardin au noyer. Pour un nouveau rationalisme, op. cit. Voir par ailleurs le dossier consacré à Popper sur ce site.

31 : Voir le livre majeur de John Searle, La Redécouverte de l’esprit, Gallimard, 1992. Six autres ouvrages du philosophe sont disponibles en français, parmi lesquels il faut citer la Construction de la réalité sociale, Gallimard, 1998 ; le Mystère de la conscience, Odile Jacob, 1999.

32 : John R. Searle, "Langage, conscience, rationalité" (entretien avec Philippe de Lara), Le Débat, n°109, mars-avril 2000.

33 : Ibid.

34 : John R. Searle, "Langage, conscience, rationalité", op. cit.

35 : Hubert L. Dreyfus, Intelligence artificielle. Mythes et limites, Paris, Flammarion, 1984.

36 : Je m’appuie ici sur les analyses en tout point remarquables de P. Kempf, L’irremplaçable. Une éthique de la technique, op. cit.

37 : Joseph Weizenbaum, Puissance de l’ordinateur et raison de l’homme, Editions d’informatique, 1981.

38 : Antonio R. Damasio, l’Erreur de Descartes. La raison des émotions, Paris, Odile Jacob, 1995.

39 : Antonio R. Damasio, l’Erreur de Descartes, op. cit.

40 : Ibid.

41 : Jean-Noël Missa, "Le cerveau, l’ordinateur et les modèles de la conscience", in Ordre biologique, ordre technologique, Frank Tinland (dir.), Paris, Champ Vallon, 1994.

42 : Jacques Hochmann, "La rupture et les analogies neuropsychiques", in J. Hochmann, M. Jannerod, Esprit, où es-tu ? Psychanalyse et neurosciences, op. cit.

43 : Cité par P. Kempf, L’Irremplaçable. Une éthique de la technique, op. cit.


Article initialement publi

Un message, un commentaire ?

modération a priori

Ce forum est modéré a priori : votre contribution n’apparaîtra qu’après avoir été validée par un administrateur du site.

Qui êtes-vous ?
Se connecter
Votre message

Pour créer des paragraphes, laissez simplement des lignes vides.

Lien hypertexte

(Si votre message se réfère à un article publié sur le Web, ou à une page fournissant plus d’informations, vous pouvez indiquer ci-après le titre de la page et son adresse.)