Intervention de Joël de Rosnay à la Conférence Euroforum de la Cité des Sciences et de l'Industrie - Paris, 28 novembre 1995
L'industrie du 21ème siècle sera marquée par la convergence de la biologie et de l'informatique. L'industrie matérielle du futur est en train de naître de la fusion de quatre secteurs : les biotechnologies, la vie artificielle, l'électronique moléculaire et les nanotechnologies. Prolongement des industries chimique et microélectronique, la manipulation rationnelle de la matière, domaine transdisciplinaire, concernera la santé, l'informatique, la robotique, la communication, l'agro-alimentaire, l'industrie minière, la production et la distribution d'énergie. Il ouvrira notamment la voie à des biorobots et à des bio-ordinateurs, machines hybrides néobiologiques nécessaires au fonctionnement des industries du futur.
1- La néobiologie : vers la synthèse de la vie ?
La vie est difficile à définir. Avec humour et sous forme de boutade André Lwoff la définissait comme "l'ensemble des phénomènes qui s'opposent à la mort". On peut cependant tenter de caractériser les êtres vivants par certaines fonctions fondamentales. L'auto-conservation, qui est la capacité des organismes à se maintenir en vie par l'assimilation, la nutrition, les réactions énergétiques de fermentation et de respiration. L'auto-reproduction, leur possibilité de propager la vie. L'auto-régulation : les fonctions de coordination, de synchronisation et de contrôle des réactions d'ensemble. Il faut ajouter à ces trois propriétés la capacité des êtres vivants à évoluer.
Pourtant, des systèmes considérés à première vue comme non vivants partagent avec la vie certaines de ses propriétés. Un cristal se reproduit, identique à lui-même. Un virus informatique fait des copies de son propre programme, croît, se développe, évolue dans les réseaux et mémoires électroniques. Les séquences de programmes des algorithmes génétiques mutent, s'auto-sélectionnent, accroissent leurs populations. Bien sûr, ces derniers exemples sont le résultat d'inventions et de créations humaines. Il ne peuvent métaboliser de l'énergie et "vivent" à l'intérieur de l'ordinateur. Mais pour combien de temps ?
Une nouvelle approche de la vie consiste à la représenter comme un continuum sans frontière nette entre matière complexe et vie rudimentaire. Dans cette optique on considère des systèmes complexes emboîtés, faits de multiples éléments en interaction. La vie est une propriété "émergente" résultant de ces interactions et de leur degré de complexité. Elle n'est pas contenue dans les molécules mais émerge de l'ensemble des interactions et de la dynamique du système.
Le télescope nous a permis d'abandonner le géocentrisme grâce à la découverte des planètes et des lois universelles de la gravitation. Le microscope nous a libérés de notre anthropocentrisme par la généralisation du concept d'évolution biologique à l'ensemble du monde vivant, des bactéries à l'homme. L'ordinateur-macroscope va nous permettre de quitter notre biocentrisme en éliminant les frontières entre naturel et artificiel, entre inanimé et animé. L'ordinateur permet d'élargir considérablement le champ du "vivant" en faisant "vivre" par la simulation des systèmes complexes capables de se reproduire, de se maintenir, de s'autoréguler et d'évoluer. La vie telle que nous la connaissons se double d'une vie telle qu'elle pourrait être. Nous sommes les représentants d'une vie complexe parmi de multiples formes de vie possibles. L'ordinateur-macroscope, en rendant la complexité compréhensible et en permettant des expériences informatiques, est le catalyseur qui rend possible la synthèse de nouvelles formes de vie. Plutôt que de tenter de comprendre la vie en la décomposant en éléments toujours plus simples, l'ordinateur nous aide à construire des systèmes réels ou simulés ayant les qualités du vivant. Leur validité et les hypothèses qui leur ont donné naissance peuvent être testées au sein de leur environnement.
Dans cette approche, l'homme est en train de créer des formes de vie "artificielles" (parce qu'il en est à l'origine) mais susceptibles de se reproduire et d'évoluer pour conduire à des structures et à des fonctions très éloignées des formes originelles. Pour étudier cette nouvelle relation entre l'homme et ses créatures une discipline est née : la vie artificielle ("artificial life" ou AL). Je propose de l'appeler néobiologie. On peut la définir comme le domaine d'étude des organismes, systèmes et réseaux biomimétiques, construits par l'homme en tant qu'objets ou simulés par ordinateur.
La naissance officielle de la néobiologie date du 21 septembre 1987 à Los Alamos, haut lieu des premiers travaux sur la bombe atomique. A l'initiative de Christopher G. Langton, un des pères de cette nouvelle discipline, des chercheurs venant de secteurs très divers (biologie, chimie, physique, robotique, informatique, écologie, anthropologie) ont échangé les résultats de leurs travaux sur "la synthèse et la simulation de systèmes vivants". Tel était le titre de ce premier séminaire interdisciplinaire. Depuis, d'autres réunions se sont tenues aux États-Unis et en Europe avec un nombre accru de participants, comme à la Cité des Sciences et de l'Industrie en 1991 et à l'Université libre de Bruxelles, en 1993.
La néobiologie, domaine pluridisciplinaire, regroupe de nombreux secteurs tels que la simulation de systèmes complexes (sociétés animales ou humaines), la genèse de formes ressemblant à celles de la vie, ou la construction de robots. Je propose de l'illustrer par trois secteurs représentatifs : l'origine de la vie, l'évolution numérique et la robotique.
2- L'évolution biologique sur ordinateur
Les travaux sur l'origine de la vie font partie des recherche générales sur les processus d'auto-organisation des systèmes complexes. Une propriété retient particulièrement l'attention des chercheurs : l'autocatalyse. Des molécules capables de catalyser leur propre formation se reproduisent. Le processus d'auto-catalyse moléculaire est analogue au processus de reproduction biologique. Grâce à l'aller-retour entre simulation sur ordinateur et synthèse en laboratoire, les chercheurs étudient la génération de systèmes complexes, de cycles, de boucles et de réseaux moléculaires capables de s'auto-conserver. Au Santa Fé Institute, Stuart Kaufman et Steen Rasmunssen se sont illustrés par leur travaux dans ce domaine.
L'évolution numérique est un des secteurs parmi les plus fascinants de la néobiologie. Il consiste à laisser évoluer spontanément des populations de programmes informatiques en compétition pour la solution la mieux adaptée à un problème donné. Ce principe a été inventé en 1975 par John Holland, de l'Université du Michigan et du Santa Fe Institute. Il lui a donné le nom d'algorithmes génétiques. Cette forme de programmation connaît aujourd'hui de multiples applications dans des secteurs de recherche et d'applications industrielles très divers, allant de l'aéronautique à l'environnement et de la micro-électronique à la haute finance. L'évolution numérique repose sur des séquences de programmes (des codes, assimilables à des chaînes d'ADN) susceptibles de former des branchements et de se greffer les uns sur les autres. Comme des virus informatiques (et l'ADN), ces séquences peuvent se dupliquer, se découper, se recombiner. Il se crée une première génération de séquences testées pour leur capacité (encore faible) à résoudre le problème posé. Le programme isole les formes les plus performantes, les fait se reproduire (copies automatiques) et muter par recombinaison de séquences entre elles. Il en résulte une deuxième génération de programmes. Le même processus lui est appliqué : test, sélection, reproduction, mutation. Après des milliers de générations et à la vitesse de l'informatique, les séquences les plus performantes sont ainsi renforcées, génération après génération : les nouvelles "espèces" de programmes convergent vers la résolution du problème posé. C'est la sélection du plus apte par compétition entre populations, une évolution darwinienne au pays des bits et des codes informatiques !
La découverte de la simplicité conceptuelle et de l'efficacité des algorithmes génétiques a conduit les biologistes et les chimistes à appliquer les mêmes principes à la sélection de molécules biologiques à usage pharmaceutique. Ce nouveau domaine des biotechnologies est en plein développement : la synthèse de molécules par évolution dans un tube a essai. Plusieurs entreprises sont déjà en compétition dans le monde pour les brevets et les premiers produits commerciaux issus de ces techniques. On commence par synthétiser (automatiquement) des populations composées de centaines de milliards de molécules d'ADN ou d'ARN conçues sur le même modèle, mais légèrement différentes. On trie les molécules les plus aptes à se lier à une protéine intervenant, par exemple, dans la coagulation du sang. Une telle liaison inhibant le fonctionnement normal de cette protéine, cela peut conduire à un médicament dissolvant les caillots. Une première génération de molécules est sélectionnée. Grâce à une enzyme à polycopier l'ADN, on reproduit cette population tout en favorisant des mutations. Ce processus se poursuit des dizaines de fois, génération après génération, à la vitesse des réactions moléculaires (10 générations sont obtenues en moins de 20 jours). On isole ainsi un petit nombre de molécules ayant une très forte affinité pour la protéine et susceptibles d'être à la base de nouveaux médicaments. Avec les techniques classiques, plusieurs années auraient été nécessaires pour parvenir au même résultat. Les principes de l'évolution moléculaire en tube sont les mêmes que ceux des algorithmes génétiques des ordinateurs : très grande population d'espèces en évolution, reproduction, mutations, sélection, amplification. Des mécanismes analogues sont à la base de l'évolution biologique darwinienne qui a donné naissance à toutes les espèces vivantes sur la Terre.
L'évolution biologique apparaît ainsi comme un multiprocesseur fonctionnant en parallèle à partir de milliards d'organismes, chacun représentant un programme particulier en compétition avec d'autres pour sa survie. Ce processus évolutif extrêmement lent (des milliards d'années), et qui nécessite de tester chaque organisme pour ses capacités de survie, est considérablement accéléré dans le cadre de l'évolution technologique (une invention humaine est l'équivalent d'une mutation). Avec l'ordinateur, les cycles biologiques ou technologiques de mutation-invention / sélection-amplification sont accélérés à un degré tel que naissance, reproduction, survie, transmission, ramenés à des dizaines de millions d'instructions par seconde, se déroulent, génération après génération, en quelques minutes.
Les virus sont d'autres produits de l'évolution biologique sur ordinateur ; ces étranges parasites sont-ils vivants ?
Un virus informatique est un programme pirate écrit par un programmeur mal intentionné. Une fois introduit dans le système de commande d'un ordinateur, le virus y demeure à l'état dormant. Il peut être réveillé par un code spécial, un mot clé, une date. Dans ce cas il se reproduit, efface des programmes ou des fichiers, infecte d'autres ordinateurs, puis s'auto-détruit sans laisser de trace. Les virus viennent de partout. Via des disquettes, par la communication télématique, sur des réseaux comme Internet. Certains sont particulièrement virulents. D'autres affichent des messages d'humour. Pour se protéger, plusieurs méthodes existent. On peut tenter de les empêcher d'entrer. La technique est analogue à la stérilisation ou à la prophylaxie : cartes d'accès, codes, protection des disquettes. Sur tous les ordinateurs existent désormais des kits de diagnostics, de désinfection et des vaccins informatiques. En s'inspirant des mécanismes immunitaires des systèmes biologiques, les informaticiens d'IBM ont mis au point des moyens de défense puissants capables d'immuniser des réseaux entiers.
L'étude des programmes autoreproductifs est éclairante à bien des égards. Les relations avec la biologie vont bien au-delà du seul vocabulaire (vaccin, immunisation, infection, désinfection, épidémie, mutations, colonisation). De nombreux chercheurs estiment que les virus ont une vie propre dans le silicium des microprocesseurs et les réseaux de télécommunication. A la manière des virus biologiques qui doivent infecter des cellules dont ils détournent la machinerie biologique et le métabolisme à leur profit, les virus informatiques ont besoin de l'environnement et du métabolisme de l'ordinateur pour se reproduire. Ce sont des infoparasites. L'astrophysicien britannique Stephen Hawking estime que ces virus informatiques sont vivants. Avec eux, l'humanité a commencé à créer une vie artificielle. Un groupe de chercheur américains, dont Thomas Ray de l'Université du Delaware, un des inventeurs des virus informatiques, a lancé une population de virus atténués sur Internet pour étudier leur comportement évolutif dans un écosystème informationnel. Il faut espérer qu'ils ne produiront pas de mutants incontrôlables, capables de dévaster des continents informatiques entiers !
3- Des essaims de robots-insectes
L'approche de la robotique par la vie artificielle est pleine de promesse. La voie classique (celle de l'intelligence artificielle) consiste à modéliser la perception, à modulariser les représentations du monde, la planification et la prévision. Le robot doit effectuer ses tâches de manière séquentielle, par des chaînes de modules destinés à traiter les informations. Pour mettre en oeuvre l'intelligence artificielle il faut disposer de connaissances étendues sur ce qu'est l'intelligence naturelle. Or la capacité d'abstraction, le recours à des symboles, la contribution de l'affectif, de la hiérarchie des valeurs, influent profondément sur les comportements humains intelligents et sont difficilement transférables dans le monde des ordinateurs. C'est pourquoi depuis quelques années des groupes de chercheurs tentent de prendre un nouveau départ sur de nouvelles bases. Leur modèle n'est plus l'intelligence du cerveau humain, mais plutôt celle, rudimentaire, d'êtres vivants relativement simples capables d'interagir avec leur environnement et d'y survivre en déployant de remarquables stratégies d'adaptation et de conquête. Par exemple des mouches, des fourmis, des vers de terre, des hannetons; une population de petits organismes équipés de capteurs et d'effecteurs leurs permettant de détecter, de capter les informations essentielles à leur vie et d'accomplir des actions spécifiques. La néobiologie permet de copier ces intelligences les plus simples pour remonter "vers le haut" jusqu'à des comportements plus évolués.
Le but de l'approche néobiologique appliquée à la robotique est donc de construire des systèmes de régulation intelligents, au sein desquels de nombreux modules individuels génèrent une partie du comportement d'ensemble. C'est en suivant une telle approche que Rodney Brooks et son équipe du MIT, ont construit des minirobots ressemblants à des insectes. Ils sont capables de se déplacer dans des environnements complexes, de repérer et de suivre des organismes vivants ou de les éviter, de se redresser par leurs propres moyens au cas où ils se renverseraient en tentant de franchir un obstacle. Leur programmation est très différente de celle à laquelle on pourrait s'attendre pour des robots dotés d'intelligence artificielle. Leurs capteurs et leurs effecteurs, connectés les uns aux autres en modules et couches superposées, leur confèrent une grande souplesse d'adaptation et favorisent leur apprentissage à partir de leur environnement. Les minirobots de Brooks s'auto-programment car ils "vivent" dans le monde. Ils sont situés. Les fonctions des modules sont simples : explorer l'environnement, le manipuler, construire des cartes et des modèles, se déplacer, éviter les obstacles. Comme le fait remarquer Brooks, un système mondial de réservation de places d'avions est situé mais non corporalisé : il réagit à toutes sortes de sollicitations en temps réel mais il n'interagit avec le monde que par l'intermédiaire de messages. Un robot-peintre dans l'industrie automobile est corporalisé mais non situé. Il dispose d'extensions physiques (bras, vaporisateur) et tient compte de la pesanteur, mais il ne perçoit pas la forme et la position des objets : si l'automobile est déplacée pendant son travail le robot continue la même tâche dans le vide. Les robots-insectes du MIT sont corporalisés et situés. Ils font corps avec leur environnement. En s'informant à partir de capteurs peu fiables, ils doivent néanmoins afficher un comportement robuste et efficace dans un environnement imprédictible et au sein d'un monde en perpétuel changement. Cela ne va pas sans rappeler certains de nos comportements, notamment dans la gestion des systèmes complexes Un des objectifs de l'équipe du MIT est de construire pour l'an 2000 un robot humanoïde appelé "Cog", capable d'apprendre et d'évoluer à partir des informations présentes dans son environnement, et de s'auto-programmer par le biais de ses interactions avec les humains. Déjà, Cog présente les signes d'une intelligence primitive analogue à celle d'un bébé de quelques jours. Dans quelques années, il devrait être capable de reconnaître ses interlocuteurs et de modifier son comportement en fonction de leurs attitudes.
La néobiologie apparaît comme un domaine de pointe de la compréhension des systèmes complexes. La simulation sur ordinateur de sociétés constituées par un grand nombre d'organismes ou d'individus agissant en parallèle, les résultats tirés de la simulation du comportement d'oiseaux en vols organisés, de fourmis ou d'abeilles, sont riches d'enseignements pour une meilleure compréhension du comportement de sociétés animales ou humaines. En résolvant des milliers d'équations différentielles non linéaires simultanées, l'ordinateur rend possible ce qui semblait inaccessible à l'homme : comprendre la dynamique des systèmes complexes et en tirer des lois simples et reproductibles.
Une nouvelle vision est en train de naître : celle d'une macro-vie à laquelle la nôtre appartient sans exclusive. La néobiologie ouvre ainsi d'autres espaces de connaissance vers des formes différentes de vie, créées à l'origine par l'homme mais se développant avec leur dynamique propre. Un nouveau tissu, d'abord mécanique, puis bio-électronique se développe autour de l'homme, le liant au macro-organisme sociétal qu'il contribue à faire émerger. Une sorte de tissu conjonctif, digestif, nerveux d'un embryon planétaire gigantesque se construisant progressivement sous nos yeux. Capable de créer une vie artificielle sous des formes d'une extraordinaire variété, l'homme en la faisant vivre, au départ, à son profit, assiste désormais à des évolutions autonomes qu'il ne contrôle plus totalement. Il amorce ainsi une symbiose qui l'englobe plus largement et fait émerger un organisme d'un niveau de complexité supérieure. En association étroite avec lui naît, en même temps, par coévolution, l'homme symbiotique.
4- Le branchement informatique du cerveau : naissance de la biotique
L'homme a toujours rêvé de transmettre sa pensée par télépathie ou d'acquérir de nouveaux sens permettant de "voir" l'invisible, de détecter des forces ou des impulsions qu'il ne sait pas encore percevoir. Avec l'avènement de la biotique, ces rêves vont devenir une réalité. Le circuit qui va de la main, ou même de la voix, à l'écran de l'ordinateur est inutilement compliqué. Pour la main, des impulsions électriques originaires de certaines zones motrices du cerveau sont transmises par les nerfs aux muscles des doigts. Elles sont transformées en forces biomécaniques frappant le clavier, puis en codes informatiques standardisés, enfin en instructions d'adressage de l'écran pour former des lettres. Pour la voix, les impulsions électriques du cerveau actionnent muscles et les cordes vocales qui font vibrer l'air. Capté par un microphone, transformé en impulsions électromagnétiques transmises par un fil, les son est traduit par l'ordinateur en codes standard puis, grâce à un programme de reconnaissance de la parole, apparaît sur l'écran sous forme de lettres.
Il est évident que si l'on pouvait capter à la source, dans le cerveau, les impulsions codées et les traduire en langage compréhensible par l'ordinateur, l'interface bioélectronique ultime serait réalisable. Ce domaine fait désormais l'objet de recherches actives partout dans le monde.
Tout a commencé il y a une quinzaine d'années avec les expériences sur les pilotes de combat et les aides pour handicapés. La nécessité est la même : chez le pilote, les grandes fonctions biomécaniques et sensorielles étant déjà occupées par le pilotage, pourquoi ne pas utiliser les yeux et même la pensée pour transmettre de l'information à l'avion ? Des handicapés privés de la mobilité de leurs bras, mains ou jambes, ne peuvent entrer en relation avec le monde extérieur que par les mouvements des yeux ou directement par la pensée. Le cas de Stephen Hawking, atteint de sclérose latérale amyotrophique et communiquant par l'intermédiaire d'un ordinateur à synthèse vocale, est connu du monde entier.
Le regard est chargé de significations et la précision de la zone observée est extraordinaire. Les pilotes ont été parmi les premiers à expérimenter les "suiveurs de regard" (eye tracker). Un pinceau infrarouge invisible suit tous les mouvements de l'oeil. Si le pilote fixe pendant une durée plus longue telle partie du tableau de bord, l'ordinateur accorde à ce regard l'équivalence d'un contact sur une touche : il déclenche une action. Fondés sur ce principe, une série de périphériques d'entrée de données est sur le point d'apparaître. Des chercheurs français ont ainsi développé un système d'écriture informatique pour handicapés utilisant le regard. Il se compose d'une tablette sur laquelle est représentée une trentaine de symboles graphiques. Au centre de la tablette est disposée une caméra miniature reliée à un suiveur de regard à infrarouge. Un logiciel d'analyse d'images identifie le caractère fixé par l'oeil en mesurant la forme de la pupille et la position du reflet de la lumière sur la cornée. Des handicapés peuvent utiliser ce système pour piloter un fauteuil roulant électrique ou un appareil de synthèse vocale. Ils peuvent aussi commander la mise en route ou l'arrêt de nombreux appareils comme un téléviseur, un téléphone, ou simplement une sonnerie d'appel.
Au MIT, des chercheurs du Media Lab dirigé par Nicolas Negroponte dialoguent par le regard avec un écran muni de capteurs et affichant une image humaine capable de changer de physionomie et de faire des commentaires selon les informations reçues.
Déjà, des hommes communiquent avec le monde extérieur par l'intermédiaire des ondes de leur cerveau transmises à un ordinateur. Dans un institut de recherche sur les yeux, à San Francisco, un médecin gravement handicapé par une maladie dégénérative du cortex cérébral a accepté qu'on lui implante une électrode dans la base du crâne. Celle-ci capte les ondes émises par la zone visuelle du cerveau. Aujourd'hui, cet homme peut écrire et faire prononcer des mots à un ordinateur muni d'un système de synthèse de la parole. Pour cela, il fixe avec ses yeux un cadran divisé en carrés lumineux correspondant à une lettre ou à un mot. Par combinaison de ces carrés, il peut composer 600 mots. L'ordinateur identifie les carrés fixés par l'utilisateur en analysant l'électroencéphalogramme émis par le cortex visuel de son cerveau. Ces informations sont transmises soit à un programme de traitement de texte qui les imprime, soit à un générateur de parole synthétique.
Un des projets les plus avancés en matière d'assistance bioélectronique et biocybernétique aux handicapés est mené par le Centre Médical de l'Université de Loma Linda en Californie. Il s'agit de Biomuse, dirigé par Dave Warner en collaboration avec la société Biocontrol Systems de Palo Alto. Les expérimentateurs et utilisateurs portent autour du front un léger bandeau analogue à celui des sportifs, et renfermant une série de capteurs. Ces capteurs bioélectroniques sont mis en contact étroit avec la peau grâce à un gel qui amplifie les signaux envoyés par le cerveau. Le bandeau communique sans fil avec un boîtier relié à un ordinateur. On peut aussi capter des impulsions bioélectriques sur les bras, les poignets ou les jambes. De nombreuses fonctions sont ainsi étudiées : contrôle de l'environnement, "biofeedback" en temps réel pour se déplacer dans un environnement virtuel, ou génération de sons musicaux.
Les chercheurs de Biocontrol Systems travaillent au remplacement de la souris des ordinateurs par les yeux. Cette interface combine deux capteurs. Le premier interprète les mouvements des yeux et le second, celui des muscles oculaires. On place des pastilles sur les tempes et, avec le regard, on déplace le curseur sur l'écran. Pour cliquer, rien de plus simple : il suffit de cligner des yeux !
Les informations sensorielles et motrices traduites par des impulsions nerveuses peuvent être décodées par de nombreux types de capteurs. Un immense champ de recherche s'ouvre pour traduire l'émotion, la peur, le plaisir, la douleur, l'attention ou le relâchement de la vigilance en signaux compréhensibles par l'ordinateur. Un pas de plus est accompli avec la transmission directe d'information depuis le cerveau vers les ordinateurs. On va dans ce cas rechercher les informations encore plus en amont, pratiquement à la source.
Dans "Dédale", l'écrivain américain Larry Collins parle d'une technique permettant de lire dans le cerveau et même de l'influencer à distance, dont il a fait la base de son intrigue : le KGB utilise ce système pour modifier le comportement du Président des États-Unis. Une telle technique existe. On l'appelle la magnéto-encéphalographie (MEG). Elle permet de mesurer des champs magnétiques extrêmement faibles produits par les neurones en action. Pour enregistrer ces champs, un milliard de fois plus faibles que le champ magnétique terrestre, il faut un appareil faisant appel aux propriétés des supraconducteurs. C'est le SQUID (Superconducting Quantum Interference Device), qui a conduit à la mise au point d'un casque spécial contenant un magnétomètre placé dans de l'hélium liquide. On peut ainsi enregistrer la réaction des neurones à certains stimuli, au plus profond du cerveau. On peut par exemple présenter à un pilote d'avion équipé de ce casque et placé dans un simulateur, une rapide succession de photos d'avions ennemis et amis. Il doit appuyer sur un bouton dès qu'il reconnaît un appareil ennemi. Mais le SQUID et le magnétomètre vont plus vite que lui ! L'ordinateur qui leur est connecté "lit" la vision de l'avion ennemi dans les neurones-mêmes du pilote car son intervention se situe en amont du réflexe moteur -entre la reconnaissance cérébrale et l'action sur le bouton. Nous n'en sommes pas encore, comme l'écrit Larry Collins, à envoyer de l'information en sens inverse et à modifier le comportement. Mais c'est une éventualité qu'il ne faut pas repousser.
La voie la plus évoluée de communication bioélectronique est sans nul doute l'interprétation par l'ordinateur d'une forme rudimentaire de pensée humaine. A la fin de années 70 des chercheurs du Stanford Research Institute s'étaient entraînés à déplacer une tache lumineuse sur un écran d'ordinateur simplement en y pensant. Leur cerveau était relié à l'ordinateur par l'intermédiaire d'un analyseur d'électroencéphalogramme (EEG). Désormais plusieurs laboratoires de recherche étudient les applications de ce que l'on appelle la technologie commandée par le cerveau ou BAT (Brain Actuated Technology). Une voie activement poursuivie depuis 1991 par une entreprise japonaise, la société Fujitsu associée au Laboratoire de recherche en sciences électroniques de l'Université de Hukkaido à Sapporo. Ses chercheurs ont identifié et mesuré la "parole silencieuse" ("silent speech") produite par le cerveau entre le moment où un objet est reconnu dans l'aire visuelle et la vocalisation de son nom. Le cerveau émet en effet des signaux électriques de tensions différentes juste avant qu'une action soit accomplie. Les expériences réalisées avec un SQUID sur des centaines de volontaires et leur interprétation statistique, démontrent la présence d'un signal particulier (quand le sujet pense, par exemple, à la voyelle A) pouvant être traduit en ordres compréhensibles par l'ordinateur.
Des recherches voisines sont poursuivies dans plusieurs laboratoires internationaux et notamment à l'université de l'Illinois, dans les centres de recherche de l'armée (DARPA) ou au "New York State Department of Health" à Albany. Leur but : connecter directement la pensée humaine aux ordinateurs. Mais pour réaliser l'interface ultime il faut de nouveaux circuits ultraminiaturisés et éventuellement biocompatibles. Ces circuits moléculaires sont en train de naître.
5- Le mariage de la biologie et de l'informatique
On assiste aujourd'hui à la célébration d'une union qui promet d'être féconde : celle de la biologie et de l'informatique. Une discipline nouvelle, fondamentale et appliquée naît de cette fécondation, et plus généralement de l'hybridation et de la coévolution de méthodologies et de techniques employées en informatique, biologie et chimie supramoléculaire. En 1981 il m'a semblé opportun de créer un terme nouveau afin d'identifier et de distinguer cette nouvelle discipline déterminante pour l'avènement de l'homme symbiotique. C'est pourquoi j'ai proposé de l'appeler biotique (contraction de biologie et informatique).
La biotique est le résultat de la fusion de la biologie et de l'informatique pour la mise au point de nouveaux composants et de circuits électroniques moléculaires (biopuces, biotransistors) ainsi que pour le développement d'interfaces bioélectroniques entre l'homme, les ordinateurs et les réseaux.
Ce nouveau secteur englobe et dépasse la bionique (contraction de biologie et électronique) des années 50 et 60, née des travaux de Humberto Maturana, Walter Pitts, Warren McCulloch du MIT, qui cherchaient à copier les organes du corps grâce à l'électronique. Son champ est également plus vaste que celui de la bioinformatique ou de la biocybernétique.
La biotique regroupe deux secteurs d'applications complémentaires : celui des signaux analogiques (il s'agit dans ce cas de la bioélectronique) et celui des signaux numériques (c'est l'électronique moléculaire). La construction d'un "bio-ordinateur" fonctionnant à partir de circuits et de mémoires provenant de l'électronique moléculaire et de matériaux compatibles avec les systèmes vivants, relève de la biotique. Elle constitue désormais un nouveau secteur de recherche aux multiples applications. Son avènement a été rendu possible ces dernières années par les progrès réalisés en biologie, physique du solide, chimie organique, micro-électronique, robotique et nanotechnologies.
Les composants électroniques moléculaires se présentent actuellement comme les successeurs potentiels des semi-conducteurs. Ces composants de synthèse offrent de nombreux avantages par rapport aux semi-conducteurs classiques : assemblage tridimensionnel, matériaux de synthèse permettant d'obtenir des propriétés sur mesures, miniaturisation approchant celle des structures biologiques, possibilités d'interface avec des systèmes vivants.
La naissance de l'électronique moléculaire date de la fin des années 70. A la suite d'une série d'articles, dont celui désormais célèbre de A. Aviram et R. Ratner d'IBM, publié en 1974, un chimiste visionnaire, Forrest L. Carter, décida d'organiser un premier séminaire sur le sujet le 19 Novembre 1978 au Naval Research Laboratory à Airlie en Virginie. Etaient présents un petit groupe de pionniers venant de secteurs très divers et une poignée de français conduits par André Barraud du CEA, reconnu comme un des pères des structures supramoléculaires organisées. En mars 1981 j'ai eu l'occasion de participer au second symposium et d'y rencontrer la plupart des pères fondateurs de ce passionnant secteur de recherche. Des idées nouvelles sur la possibilité de réaliser les premiers composants moléculaires pour les bio-ordinateurs du futur y furent discutées, telles que la production de commutateurs, de mémoires, de diodes et de fils moléculaires. Le secteur de l'électronique moléculaire est aujourd'hui reconnu comme un domaine de recherche stratégique déterminant pour l'avenir de l'informatique et des interfaces entre le monde de la biologie et des ordinateurs. L'électronique moléculaire, utilisation de dispositifs moléculaires pour traiter l'information, représentera la troisième grande étape de l'évolution de l'informatique. La première a été marquée par les tubes électroniques (1940-1960) ; la seconde par les transistors (1960-2000) ; la troisième le sera par électronique moléculaire et le traitement moléculaire de l'information (2000-2050). Pour y parvenir, il faudra être capable de fabriquer des transistors aussi petits que des biomolécules.
La plupart des molécules et macromolécules biologiques sont des machines à traiter l'information. L'ADN, les protéines, sont des sortes de microprocesseurs capables de reconnaître des signaux (électrons, ions, petites molécules) et de réagir par des modifications de structure physique, de forme ou de fonctions chimiques. Les assemblages supramoléculaires, composés d'une grande quantité de molécules interconnectées, existent en abondance dans les cellules. Par exemple, les microtubules (véritables micromachines participant au transport et aux mouvements cellulaires) ou la membrane, jouant un rôle de filtre sélectif et d'organe de communication. Ces assemblages supramoléculaires sont faits d'un empaquetage extrêmement dense d'éléments de construction : jusqu'à 1.000.000.000.000.000 (un million de milliard) par mm2, alors que les techniques les plus perfectionnées de la microélectronique moderne atteignent à peine un million d'éléments par millimètre carré. Cette plongée de l'électronique moléculaire dans l'infiniment petit, jusqu'à des échelles se comptant en nanomètres (millionième de millimètre), est déterminante pour l'avenir des microcircuits à très haute densité. L'informatique atteint en effet ses limites. Pour fabriquer les transistors il est impossible de graver des traits d'une encore plus grande finesse dans la masse du silicium avec les techniques de la photolithographie optique. Même avec un rayonnement de plus en plus dur (rayons UV, rayons X, canons à électrons, canons à ions), on atteindra les limites de résolution pour la fabrication des masques au cours des 20 prochaines années. L'étape suivante, c'est l'électronique moléculaire. Grâce au génie génétique et à la chimie organique, il devient possible de fabriquer des composants dotés de propriétés spécifiques, des transistors en plastique, et même des biopuces connectables aux organismes vivants.
6- Biopuces pour bio-ordinateurs
Les circuits biotiques de l'avenir seront fabriqués à partir de techniques révolutionnaires. L'une d'entre elles, parmi les plus prometteuses, est l'auto-assemblage de structures organisées. En biologie, par exemple, on connaît déjà la capacité des virus à s'auto-assembler à partir de leurs constituants préalablement dissociés. Plutôt que l'approche traditionnelle "passive" utilisée notamment pour les microcircuits électroniques (gravure, dépôts successifs, greffage, dopage), on met en oeuvre une approche "active" par organisation spontanée des assemblages moléculaires. Il s'agit d'un changement fondamental dans la fabrication et l'ingénierie. L'usinage classique intervient du "haut vers le bas". L'information est apportée de l'extérieur (plans, robots, machines outils). On découpe, taille, enlève de la matière (comme avec des tours, perceuses, fraiseuses), ou on emboutit des pièces. Une action qui se situe dans le prolongement de la fabrication des premiers outils comme la pierre taillée, procédé par lequel l'homme éliminait des éclats de pierre pour parfaire son outil. En anglais, éclat se dit "chip", terme utilisé pour les éclats de silicium servant à faire les puces électroniques. Dans la nouvelle approche on agit du "bas vers le haut" en utilisant l'information déjà contenue dans les molécules et les macromolécules, et leurs propriétés de liaisons à différents niveaux. Les acides aminés des protéines contiennent par exemple l'information nécessaire pour former une chaîne capable de se replier en trois dimensions en donnant la forme spécifique d'une protéine.
Cette voie nanotechnologique active est celle de l'avenir pour la fabrication des microcircuits de l'électronique moléculaire et la construction des bio-ordinateurs. Pour la première fois, il deviendra possible de faire croître un circuit comme croît un cristal. Pour cela, les chercheurs devront maîtriser plusieurs étapes déterminantes. D'abord produire des commutateurs moléculaires fiables capables de passer d'un état à un autre, et pouvoir interroger ces commutateurs pour connaître l'état dans lequel ils se trouvent. Ensuite, fabriquer des mémoires moléculaires réversibles pouvant être réutilisées un grand nombre de fois et relier ces composants par des fils moléculaires pour transporter de l'information à distance. Autre étape: le montage de ces commutateurs, mémoires et fils dans des structures ou réseaux organisés en différents niveaux de communication et d'interconnexion pour effectuer des fonctions coordonnées. Enfin, il faudra être en mesure de réparer ces systèmes. Les molécules ne fonctionnant pas correctement devront être détectées, les composants remplacés. De tels systèmes d'automates moléculaires autoréparables existent en biologie, notamment pour la réparation de l'ADN. L'ordinateur va jouer un rôle fondamental dans la conception et l'assemblage de tels circuits, d'une manière analogue à celui qu'il joue déjà dans la construction automobile, aéronautique, ou dans la conception assistée de molécules à usage pharmaceutique. Il s'agit en effet d'associer les différents composants moléculaires et de les intégrer en unités fonctionnelles. Les chercheurs commencent également à bénéficier d'un extraordinaire outil : le microscope à effet tunnel (MET) inventé en 1981 par G. Binning et H. Röhrer (prix Nobel) des laboratoires IBM de Zurich. Outil d'observation à l'origine, le MET est devenu un instrument de transformation. Il permet de manipuler des atomes individuels, de modifier des structures et des fonctions chimiques.
Grâce à de telles techniques l'électronique moléculaire a considérablement progressé au cours de ces dernières années. Elle représente désormais un enjeu stratégique international auquel se consacrent les grands de la chimie et de la microélectronique aux États-Unis, en Europe et au Japon. On compte déjà à leur palmarès des fils moléculaires capables de transporter des informations à distance; des connexions entre fils moléculaires pour créer des nanocircuits; des commutateurs optiques; des transistors faits de polymères semi-conducteurs; des polymères plastiques pour écrans lumineux, des diodes moléculaires, des mémoires photochromes, des rétines artificielles. Et même la manipulation d'un bit d'information moléculaire !
Beaucoup de questions demeurent malgré les extraordinaires avancées de la biotique. Ces circuits seront-ils réparables ? Pourra-t-on briser des liaisons chimiques et les unir à nouveau ? Des machines automatiques comme les micromachines biologiques seront-elle capables d'intervenir, et à quel niveau ? La logique de ces circuits devra-t-elle être différente de la logique booléenne à partir de laquelle fonctionnent tous les ordinateurs du monde ? Ces circuits se prêteront-ils à la construction de réseaux neuronaux ou seront-ils mieux adaptés à la fabrication d'automates cellulaires à partir de molécules interconnectées ? Et surtout, quelles vont être les conditions non invasives (sans électrodes implantées, sans agression biologique des organes du corps) d'interconnexion de ces circuits, éventuellement faits de matériaux biocompatibles, avec notre cerveau ?
En attendant la réponse, les chercheurs construisent l'équivalent informatique de cerveaux biologiques. Dans le cadre des laboratoires ATR de Kyoto, une équipe du laboratoire de traitement de l'information humaine dirigée par Hugo de Glaris fabrique un cerveau en silicium composé de plus d'un milliard de neurones artificiels. Des éléments capables de se connecter les uns aux autres comme les réseaux neuronaux naturels. L'objectif des chercheurs est de parvenir à un nombre de synapses supérieur à celui du cerveau humain. A partir d'une telle densité rassemblée dans un réseau en trois dimensions, la masse critique atteinte pourrait permettre, d'ici à 2015, de faire émerger une forme d'intelligence autonome.
7- Les industries de l'invisible
L'industrie de l'information est la base d'une économie dématérialisée. Mais la transformation de la matière restera l'une des tâches fondamentales de l'industrie du futur. Mécanique, biologie, chimie, micro-électronique vont se transformer profondément par un double mouvement : la fusion de ces disciplines entre elles et le contrôle de plus en plus fin de l'organisation des atomes et des molécules pour la fabrication de matériaux et de micromachines d'une grande diversité.
L'ingénierie a connu ses plus grands succès au début du siècle grâce à l'application des lois de la physique à la transformation de la matière et à la construction de structures et de machines complexes. Gustave Eiffel ou Isambard Kingdom Brunel ont été les héros de cette époque qui a vu naître des ponts suspendus d'une grande hardiesse technique, des bateaux à vapeur géants, des tours montant vers le ciel, les locomotives et les premiers avions. Les objectifs de l'ingénierie du XXIe siècle portent sur l'infiniment petit et l'infiniment complexe. Usiner les atomes, construire des microstructures, assembler des micromachines biologiques ou mécatroniques; mettre en place les systèmes de gestion et de contrôle des systèmes complexes au sein desquels l'homme agit; enclencher des macro-régulations à l'échelle planétaire. Son domaine s'étend de la nano-ingénierie (un nanomètre est un milliardième de mètre) à la macro-ingénierie en passant, bien sûr, par la micro-ingénierie qui connaît, à la fin de ce vingtième siècle, un essor considérable avec les biotechnologies et la micro-électronique.
La biologie moléculaire a montré la voie. Le génie génétique a suivi. Les biologistes ont développé d'extraordinaires outils pour manipuler le vivant et reprogrammer les cellules. Leur panoplie est impressionnante : machines à copier (PCR), ciseaux, colles, transporteurs, perforatrices, sondes, machines moléculaires programmées, anticorps catalytiques (abzymes), ARN-enzymes (ribozymes). La biotechnologie est une forme de micro-ingénierie. Les bactéries sont des usines miniatures reprogrammées par des codes moléculaires que les ingénieurs modifient à volonté et que les bactéries savent interpréter. Le processus est analogue à celui de la programmation informatique : un même ordinateur peut effectuer des tâches différentes par simple changement de programme. Ces nouveaux outils des biotechnologies, auxquels il faut ajouter l'informatique, sont à la base de l'essor de la bio-industrie.
La micro-électronique, de son côté, en progressant vers l'infiniment petit, a presque atteint les dimensions des virus. L'objectif des informaticiens est de parvenir à des structures aux traits de l'ordre de 0,1 micron (100 nanomètres) d'épaisseur pour concentrer des dizaines de millions de transistors sur 1mm2. On parvient aujourd'hui aux limites physiques de ce type de circuits, alors que cette concentration est faible par rapport à celle qu'atteinte le compactage biologique. Les principales techniques utilisées en microélectronique reposent sur la photogravure. Or, graver signifier enlever de la matière pour fabriquer des circuits. La biologie procède en ajoutant des éléments par auto-organisation de la matière, du bas vers le haut, construisant des structures de plus en plus complexes depuis l'oeuf fécondé jusqu'à un organisme formé de milliers de milliards de cellules, ou à un arbre mesurant 100 m de hauteur. La monde de la biologie est une vitrine permanente de modèles de machines moléculaires dont peuvent s'inspirer les nano-ingénieurs.
8- L'essor des nanotechnologies
L'idée de copier la biologie pour construire des nanomachines remonte à la fin des années 50.
Dans le cadre de la Convention Nationale des Sociétés de Physique, le 29 décembre 1959 en Californie, les scientifiques rassemblés dans le grand auditorium de Caltech n'en croient pas leurs oreilles. Le futur prix Nobel de physique, Richard Feynman, vient de leur déclarer : "Que se passerait-il si nous pouvions assembler des atomes, un par un, selon notre volonté ? Un monde d'applications technologiques s'ouvrirait. Nous pourrions construire des circuits à partir de quelques atomes, des fils ayant dix atomes de diamètre et inventer des nouvelles formes d'usinage moléculaire". Feynman avait raison. Décédé en 1988 il ne put participer pleinement à l'essor des nanotechnologies, secteur industriel stratégique qui concerne aujourd'hui de nombreuses entreprises internationales investissant des centaines de millions de dollars dans cette voie prometteuse.
Un autre pionnier a joué un rôle de catalyseur dans le développement des nanotechnologies : Eric Drexler, Président du Foresight Institute. Sa première contribution fut un article remarqué, publié en septembre 1981 dans les "Proceedings of the National Academy of Science", sur l'ingénierie moléculaire. Il avait alors 26 ans. Figure controversée dans le monde des physiciens et des chimistes, Drexler a néanmoins joué un rôle considérable auprès de la communauté scientifique et des industriels pour leur faire prendre conscience de l'importance de la nano-ingénierie.
L'objectif des nanotechnologies est de fabriquer atome par atome des machines, circuits ou réseaux capables de fonctionner à l'échelle moléculaire. Ces machines peuvent à leur tour en produire d'autres, conduisant de proche en proche à des matériaux et systèmes fonctionnant à notre échelle. Ces techniques reposent sur une panoplie de nouveaux outils développés au cours des dix dernières années. Parmi eux le microscope à effet tunnel (MET) et le microscope à force atomique pour l'observation et la manipulation d'atomes individuels. On peut les considérer comme les nouveaux tours, perceuses et fraiseuse du nanomonde. Grâce au STM, Don Eigler de la société IBM a étonné le monde en 1990 en écrivant, avec 35 atomes de xénon déposés sur une surface de nickel, le sigle de son entreprise en lettres de 5 nanomètres. Si elles avaient la taille d'une des majuscules de ce texte, un cheveu humain mesurerait 50 mètres de diamètre. Autres outils : des pinces laser pour saisir et déplacer des molécules ; des lasers "photo" qui prennent des instantanés du mouvement des atomes ; des pièges à atomes pour les regrouper et les trier par petits paquets. Et, bien entendu, tout l'assortiment d'outils des biotechnologies permettant de couper, copier, coller, trier, retrouver, reprogrammer des molécules. Avec ces outils, les nano-ingénieurs ont déjà fabriqué des fils, des tubes, du velcro moléculaire, des interrupteurs, micromoteurs et engrenages ; des roulements à bille, des navettes capables de se déplacer sur un fil, des rotors, des cubes faits d'ADN, des doubles hélices, des couches minces composées de plaques superposées de l'épaisseur d'une seule molécule Tout un mécano de pièces pouvant être assemblées en structures plus complexes. Mais les ingénieurs et architectes de l'infiniment petit ont aussi défini les conditions d'auto-assemblage de ces pièces et de ces structures, voie royale des nanotechnologies. Leur objectif : faire "croître" les machines et les circuits de demain. Après tout, la vie d'un séquoia géant, immense capteur solaire, commence par le programme d'une molécule d'ADN. En plus de ce programme chimique il faut de l'énergie (celle du soleil), des matériaux de base (du gaz carbonique, de l'eau, des sels minéraux) et des machines moléculaires (les enzymes) pour construire progressivement cette immense structure déployée dans l'espace et le temps. La feuille est une photopile auto-assemblée. En tirant profit du savoir-faire accumulé dans la manipulation des atomes et des molécules par la chimie et les biotechnologies, les nano-ingénieurs espèrent produire des structures auto-assemblées aussi complexes qu'un arbre.
Chaque type de machine moléculaire utilisé par la nature va être copié, modifié, amélioré, réinventé. On commencera par fabriquer des assembleurs et des démonteurs accélérant le montage ou le démontage de molécules complexes. Puis des capteurs, des effecteurs et des nano-ordinateurs pour contrôler les fabrications. Ensuite des moteurs, chaînes de transports, trieuses automatiques, micropompes. On produira des nanorobots, machines-outils pour la fabrication de microrobots d'une taille supérieure, capables d'effectuer des tâches de réparation moléculaire, par exemple à l'intérieur du corps humain : pour déboucher, recoudre, nettoyer, détruire, signaler un danger. Ces microrobots pourront aussi agir en colonies, en essaims, comme des fourmis ou des abeilles, pour construire des macrostructures directement utilisables par l'homme. L'ordinateur et la CAO seront largement utilisés pour concevoir des modèles nouveaux et définir leurs étapes d'assemblage, comme cela se passe aujourd'hui dans l'industrie automobile ou l'aéronautique. Certaines étapes-clés sont déjà franchies. Au Xerox Parc, Ralph Merkle conçoit sur ordinateur des modèles de micromachines. Julius Rebeck du MIT a synthétisé des molécules dotées d'un pouvoir d'autoreproduction spontané. Francis Garnier, du CNRS, a développé des transistors en plastique sur feuilles souples. Jean-Marie Lehn du Collège de France, prix Nobel, pionnier de la chimie supramoléculaire, a fabriqué des fils moléculaires dans lesquels le courant peut être interrompu à volonté. Une molécule-interrupteur placée dans ces fils laisse passer un flux d'électrons quand on l'éclaire avec un rayonnement UV ; à l'inverse, elle stoppe le courant quand on l'éclaire avec de l'infrarouge. Les laboratoires travaillant dans ces domaines se multiplient dans le monde. Les États-Unis et le Japon investissent massivement dans des centres de développement et de production utilisant les nanotechnologies ou l'électronique moléculaire.
9- Le triomphe du multiple : la mise en paralléle des réseaux
Une autre grande tendance de l'industrie du futur est, à mon sens, la mise en oeuvre systématique et à tous les niveaux d'organisation de processus parallèles. Notre vision centralisée, taylorisée, linéaire et séquentielle des productions industrielles a inhibé le parallélisme opérationnel -en partie parce qu'il se prête moins facilement au contrôle rigoureux que l'organisation pyramidale et hiérarchique traditionnelle. Pourtant, la grande majorité des processus métaboliques ou de traitement d'information se réalisant dans la nature sont parallèles, comme on l'a vu avec les fourmis et les abeilles. Le même type d'organisation se rencontre dans de nombreuses sociétés animales. Les systèmes d'échanges spontanés sur lesquels se fondent l'auto-conservation et l'auto-reproduction des sociétés humaines -comme le marché ou plus généralement l'économie- sont massivement parallèles. L'avenir appartient au parallélisme et au multiple. Cela impliquera l'abandon partiel par l'homme d'une certaine forme de contrôle sur ses propres créations.
Trois exemples d'avenir pour illustrer cette évolution : les ordinateurs parallèles, la chimie combinatoire et les essaims de microrobots. Les ordinateurs parallèles vont progressivement remplacer les ordinateurs séquentiels. Sur le modèle des réseaux de neurones se construisent des multiprocesseurs interconnectés sachant reconnaître des formes, des visages, l'écriture manuscrite, la voix. Des banques de données sur ordinateurs parallèles fourniront simultanément et à la demande des films vidéo, des jeux ou des séquences d'actualité à des centaines de milliers de personnes.
L'électronique moléculaire favorisera l'avènement d'automates cellulaires fonctionnant en parallèle. John Von Neumann, inventeur de l'ordinateur moderne, avait prévu deux modes de traitement de l'information : le traitement séquentiel et l'automate cellulaire. C'est le premier qui a été favorisé à la suite des progrès de l'électronique. La fabrication des biopuces et des bio-ordinateurs va développer la seconde voie, rapprochant plus encore l'informatique de la biologie. La programmation ne sera plus rigoureusement contrôlée par l'homme mais fera une large part à l'auto-programmation par algorithmes génétiques. Comme pour l'évolution biologique, par mutations, sélection, tâtonnements successifs, ces programmes résoudront des problèmes d'une complexité telle qu'ils dépassent désormais la capacité de l'homme à les surmonter. C'est le cas des programmes comportant des millions de lignes de codes, utilisés dans des opérations en temps réel comme les communications ou l'aéronautique. Les ordinateurs parallèles de l'avenir assureront la maintenance, le fonctionnement et l'adaptation de ces programmes hypercomplexes. Aucun programmeur au monde ne connaîtra, ni ne comprendra, les voies par lesquelles la machine a trouvé les solutions pertinentes, ni ne saura comment les programmes fonctionnent. Mais le parallélisme et l'évolution artificielle garantiront la stabilité dynamique de systèmes dont pourra dépendre la vie de millions de personnes. La symbiose homme/ordinateur débouchera sur un copilotage de la complexité.
Le parallélisme va également triompher en chimie. Aujourd'hui pour produire une molécule intéressant l'industrie pharmaceutique, il faut en synthétiser dix mille, les analyser, les tester, les sélectionner. -pour finalement en retenir une seule qui sera développée et mise sur le marché à un coût élevé. Les opérations sont séquentielles, les communications entre secteurs aléatoires, et la durée des recherches, développements et mise au point, particulièrement longue, atteignant souvent une dizaine d'années. La chimie combinatoire va révolutionner ce processus. A la différence de la chimie classique, les synthèses s'effectuent en parallèle, produisant simultanément des milliards de molécules différentes. On utilise pour cela des puces chimiques fabriquées par des techniques analogues à celles des puces électroniques.
Imaginons qu'on recherche des molécules M capables de se lier fortement avec des molécules L pour inhiber une réaction biochimique et servir de médicament. On commence par fixer à la surface de puces chimiques une première génération de molécules (par exemple des peptides, association d'acides aminés, ou des fragments d'acides nucléiques ADN ou ARN). La surface ainsi peuplée ressemble à une matrice de petits carrés où chaque zone est facilement repérable. Par application successive de masques, protégeant certains groupements chimiques réactifs, on ajoute de manière sélective des blocs de construction aux molécules existantes. Toute une population, constituée de milliards de molécules M différentes regroupées par familles et par zones, va ainsi se former progressivement. Il devient maintenant possible de tester simultanément et sur l'ensemble de cette population ses capacités à former des liaisons avec les molécules L. Pour cela, on les dissout dans un liquide que l'on fait "couler" sur la surface des puces chimiques. Chacune de ces molécules-test est marquée par une "étiquette" chimique lisible par un laser. Il est donc facile de repérer la case où L s'est fixée et de multiplier la molécule M à laquelle elle s'est liée.
Le parallélisme de la chimie combinatoire conduit à un extraordinaire gain de temps : quelques jours contre des années pour trouver une molécule d'intérêt pharmaceutique! Stephen Fodor, fondateur de la société de biotechnologies Affymax et pionnier de cette technique, a fait école. Une quinzaine d'entreprises de haute technologie se sont créées pour les appliquer. Certaines grandes entreprises de la chimie et de la pharmacie devront s'adapter ou disparaître car la synthèse parallèle, économe en temps et en investissements, va rapidement occuper le terrain. Les biologistes utilisent également le parallélisme sous la forme de l'évolution moléculaire en tube à essai afin de trouver des molécules dotées de propriétés définies. Cette approche se fonde sur des principes analogues à ceux utilisés par les algorithmes génétiques décrits précédemment et sur ceux de l'évolution biologique darwinienne. Cela nécessitera, comme pour la chimie combinatoire, de profondes réorganisations dans les entreprises traditionnelles de produits chimiques et biologiques.
Les colonies de microrobots représentent également un exemple de fonctionnement parallèle. Les créatures de Rodney Brooks, qui ressemblent à des insectes, sont les ancêtres de futurs robots mobiles miniaturisés. Ces nouvelles générations vont bénéficier de la convergence de techniques issues de l'électronique moléculaire, des biotechnologies et de la biotique. Avec eux, la vie artificielle, ou néobiologie, va faire un pas considérable. Comme des fourmis accomplissant une tache simple et limitée mais communiquant les unes avec les autres, des populations de microrobots effectueront des travaux de dépollution, de collecte, d'extraction, de construction, d'assemblage, de démontage. La NASA envisage même d'envoyer des essaims de microrobots à la conquête de Mars !
En biologie et en écologie le parallélisme est de règle, pour les forces comme pour les informations. Les effets coopératifs se fondent sur des multitudes de liaisons faibles mais dont la synergie est forte. C'est le cas des liaisons hydrogène qui maintiennent en place la double hélice d'ADN ou la structure des protéines. A notre échelle, le velcro est un exemple d'effet local faible et de résultat global puissant. Ramenée à chaque brin s'accrochant à un autre, la force mise en oeuvre est infime ; mais reportée sur l'ensemble de la bande adhésive, la force résultante supporte le poids d'un homme. "L'effet velcro" peut servir d'image pour illustrer la cohésion nécessaire à la société dans son fonctionnement global : une action personnelle mise en parallèle avec des actions de même nature. Dans un mode de fonctionnement centralisé, séquentiel et taylorien, la tendance au parallélisme des opérations va se renforcer, posant des problèmes de relation avec les monopoles institutionnels de production d'énergie, de communication ou de gestion financière; chacun cherchant à maintenir son pouvoir de contrôle centralisé. La mise en parallèle de la société se manifeste déjà par le souci d'autonomie en matière de communication avec la prolifération des paraboles individuelles de réception satellite, les téléphones cellulaires personnels, les micro-ordinateurs communicants, les hyperréseaux ; en matière d'énergies renouvelables avec les panneaux solaires, les éoliennes et les systèmes décentralisés de production d'énergie. La mise en parallèle des réseaux de production et d'information de la société est un des facteurs essentiels de l'avènement de l'homme symbiotique.
Joël de Rosnay
Conseiller de la Présidence
Cité des Sciences et de l'Insdustrie – La Villette – Paris – France
Si vous utilisez ce texte, merci de citer la référence d'origine