Introduction :

 

 

Après plusieurs réunions ou le sujet du jour était présenté par une personnalité experte en la matière, nous revenons à une pratique précédemment utilisée par le groupe Emergence Paris, à savoir, la présentation d’un document, ce soir un livre, par des non experts suffisamment attirés par le sujet, pour vouloir partager leur intérêt avec le groupe.

 

Au menu de ce soir «  The Singularity is Near »  de l’américain Ray Kurtzweil, livre que m’a adressé au début de l’an dernier un ami américain.

 

Je n’avais, alors, aucune notion sur l’emploi de ce mot Singularité, au-delà de son sens commun, par les milieux scientifiques ou technologiques. L’amitié et la curiosité aidant, j’ai surmonté mon peu d’attrait pour les lectures relevant de la science fiction, et me suis attelé à celle de l’ouvrage.

Résultat : Suffisamment intéressé  pour le recommander  à Michel et à Georges et au-delà, vous proposer d’en partager et discuter les voies et perspectives qu’il ouvre.

 

Alex a bien voulu se joindre à moi pour que, bénéficiant de sa plus grande familiarité avec les sujets couverts nous puissions, à 2, essayer d’en extraire  l’essentiel.

 

Le Thème du livre concerne l’évolution du couple Homme./ Technologie ; la théorie de son auteur, Ray Kurtzweil, étant,  que dans un avenir proche, aux alentours des années 2050, l’évolution technologique permettra à  l’Homme de transcender son essence biologigue.

 

D’où le sur/titre du livre : « When Human Transcend Biology ».

 

 

Mais, avant de rentrer dans le vif du sujet, qui est  Ray Kurtzweil ? et la Singularité c’est quoi ?:

 

L’auteur :

 

Né en 1948, RK est présenté comme étant tout à la fois Ingénieur, Inventeur, Penseur, Futurologue et Entrepreneur dans la branche AI de la reconnaissance des formes.

 

Récipiendaire de différentes distinctions relevant de l’innovation technologique il est, entre autre, l’auteur de :

 

« The Age of Intelligents Machines » fin des années 80, (« Best Computer Science Book » pour l’Association des Américan Publisher) livre qui entre autre datait certains progrès technologiques des décades à venir : Ex Il a prévu avec une bonne précision quand l’ordinateur battrait l’homme aux échecs ; et prévoyait déjà une machine du niveau de l’intelligence humaine pour la 1ère moitié du 21ème siècle.

 

A la fin des années 1990 «  The Age of Spiritual Machines- When computers exceed Human Intelligence » également best seller, positionne la machine comme pouvant avoir des émotions.

 

En 2005 « The Singularity is near – When Human transcend Biology »  s’inscrit dans la continuité des 2 précédents, tout en formalisant et précisant une nouvelle étape de sa vision de l’évolution du couple Homme /Technologie ;

 

Parmi les commentaires, évidemment élogieux, de la 4ème  de couverture figurent  ceux  de Bill Gates, de Marvin Minsky professeur au MIT, et autre Bill Joy co fondateur de Sun Microsystems.

 

Cette rapide présentation suppose que soit également mentionné un autre domaine d’intérêt de ce « Génie Infatigable (Restless Genius )», comme l’a qualifié le Wall Street Journal, à savoir le domaine de la santé (dont la sienne), la question du vieillissement et plus généralement celle de  la longévité de la vie

 

C’est ainsi qu’il a également coécrit, avec Terry Grossman Médecin, spécialiste reconnu du vieillissement, « Fantastic Voyage : Live long Enough to live forever », traduit en français « Serons nous Immortels ? ».

 

Alors,  RK visionnaire génial….  ou juste vendeur  de concept à la mode?  à vous de voir.

 

La Singularité:

 

Mot absent du Harrap’s Compact, mais présent dans le Petit Larousse : 1 caractère original, étrange, insolite…2 excentricité.3 Math : Particularité survenant en un point singulier d’une courbe ou d’une surface.

Il semble, en effet, que ceux soient les Mathématiciens qui, les premiers, dans le champ scientifique, ont adopté ce mot pour parler d’une valeur qui transcende toute limitation finie, tel que Y= 1/x quand la valeur de X tend vers 0 et que la valeur de la fonction Y « explose » en des valeurs de + en + grandes ;

 

Puis le mot fut repris par les astrophysiciens qui l’ont associé au concept des  « trous noirs », point où la densité devenant infinie, les modèles actuels de la physique ne sont pas adaptés pour expliquer ce qui s’y passe.

 

Enfin on attribue à Von Neumann son utilisation, pour la première fois (en 1950), dans le champ technologique. Vernor VINGE professeur de mathématique et d’informatique à l’Université de San Diego, se l’est approprié dans les années 80, jusqu’à en faire, en 1993 le titre d’un essai : « Technological Singularity »

 

C’est ainsi que son emploi s’est développée dans les milieux technologues futuristes des 20 dernières années.

 

Selon Wikipedia, la Singularité Technologique à laquelle se réfère ce livre correspond au point hypothétique de l’évolution technologique, à partir duquel l’intelligence des machines dépasse nos capacités humaines.

Au-delà de ce point, le progrès est l’œuvre d’intelligence artificielle, laquelle induit des changements tels, que l’Homme d’avant la Singularité ne peut les appréhender ou les prédire de manière fiable ;

A  proximité de la Singularité la fiabilité des modèles prédictifs s’effondre.

 

Comme pour  le « Trou Noir », qui, dans l’espace, change dramatiquement les « patterns » de la matière et de l’énergie, la Singularité Technologique, transformera chaque aspect de la vie humaine, tous les concepts dont nous dépendons pour donner un sens à notre vie, depuis les business modèles jusqu’au cycle de la vie humaine, incluant la mort elle-même.

 

On peut voir la Singularité comme une rupture dans l’évolution de l’Homme, ou comme une explosion de « l’Intelligence Humaine ».

 

Ces quelques éléments du décor étant plantés, venons au sujet :

 

Nous vous proposons un plan en 2 parties :

 

-       1 Présentation de l’ouvrage

-       2 Singularité et Complexité

 

Après les  échanges Alex conclura

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1ère Partie : PRESENTATION DE L’OUVRAGE

 

 

Sa matière à la fois riche et ardue, pour le lecteur « moyennement éclairé », mais compensée par son coté très documenté (105 pages de notes, nombreux renvois sur le web) et ses qualités pédagogiques, font de ce livre de 650 pages, un bel ouvrage de vulgarisation, sur l’évolution des technologies.

 

L’organisation même du livre, la répétition de certaines notions, l’emploi « d’encarts explicatifs » (à la « mode MIT » selon Alex), les nombreux exemples et les dialogues en fin de chapitre entre personnages virtuels et réels présents et futurs (Molly 2004 Georges 2048…), en limitent son coté roboratif et rendent la compréhension générale accessible.

 

 

Les 9 chapitres du livre, qui font suite à un Prologue sur « Le Pouvoir des Idées », peuvent  être regroupés en 3 grands volets :

 

1er volet Une Théorie de l’Evolution Technologique: Constat / Modèle/ loi (Ch1et 2) ;

 

2ème   L’application de cette Théorie au développement de l’intelligence non biologique Ch 3 à 5

 

3ème  Les Conséquences de cette Evolution Technologique  (Chapitre 6 à 9) :

 

 

Il ne peut être question de faire un résumé, surtout exhaustif de ces 650 pages mais de sélectionner quelques idées ou exemples pour chacun de ces 3 volets, en espérant que ceux ci seront suffisants pour vous donner une vue d’ensemble de l’ouvrage, et  conduire, pourquoi pas,  certains d’entre vous, à vouloir en savoir plus.

 

 

 

1 - 1  Une Théorie de l’Evolution Technologique

 

Sous cette rubrique nous avons retenu :

a) Le développement exponentiel

b) Le Cycle de vie d’un « paradigme » technologique : La Courbe en S

c) La loi de Moore et au-delà…. La « loi des Retours Accélérés » (the Law of Accelerating Returns ) 

 

qui nous sont apparus comme les principaux constituants de base de la thèse de RK

 

 

 

a)    Le développement exponentiel de l’évolution :

 

Le rappel que l’Evolution en général, le progrès technologique en particulier, est exponentiel, constitue la pierre angulaire de toute l’approche de RK

De très nombreuses courbes illustrent ce caractère exponentiel parmi lesquelles  retenons:

 

-       Cf Le compte à rebours de la Singularité  A1

-       Cf Paradigm Shifts for 15 Lists of Key Events   A 2

 

Ce deuxième exemple se réfère à la superposition de 15 visions   de l’évolution faites par 15 personnalités ou institutions scientifiques différentes.

Elles ont été analysées par le Physicien et théoricien de la Complexité Theodore Modis, lequel a mis en évidence 26 « Clusters » d’événements qu’il appela des « Etapes  canoniques » :

 

Cf  Canonical Milestones A 3

 

Au-delà de ces exemples RK fait 2 observations  sur la croissance  exponentielle au regard de la croissance  linéaire :

 

Cf Linear vs Exponential A 4

 

La première : Au début les 2 courbes se confondent ; ce n’est qu’au bout d’un certain temps qu’elles se séparent, et ce n’est qu’après le « genou » de la courbe que l’exponentielle « s’eclate », (d’où l’importance du positionnement sur la courbe et notamment avant ou après le genou)

 

La métaphore connue du Nénuphar qui double de surface tous les jours,  et a donné lieu il y a quelques années au titre d’un livre d’A Jacquard « l’Equation du Nénuphar », en donne une perception assez convaincante.

 

La deuxième : Alors que toute  l’histoire de l’univers présente ce développement exponentiel, (dans une récente émission de télé, Y Coppens n’ observait-il pas que la longueur du tranchant d’une pierre taillée a connu une croissance exponentielle),….notre façon naturelle d’appréhender le futur se traduit par une projection  linéaire.

 

Cette occultation quasi systématique de la dimension exponentielle nous conduit a, très souvent, sous estimer la faisabilité technique de nos projections dans le futur :

 

Les exemples de ces décalages entre prévision et développement réel sont nombreux ; rappelons nous :

 

-       Le développement d’Internet par rapport à la vision que l’on pouvait en avoir dans les années 1980 ; ou encore,

-       La séquence du génome humain qui devait prendre un siècle, sinon plus, et qui a été réalisé en simplement 15 ans

 

Avec le taux de progrès du 20ème  siècle, on devrait assister au 21ème siècle  à des réalisations 1000 fois plus importantes;

Autrement dit, on devrait voir l’équivalent d’un siècle de progrès, en seulement 25 ans ; (voir également p 50)

 

Pour faire simple : Le progrès des 50 prochaines années n’aura aucune commune mesure avec celui des 50 dernières, qui d’ailleurs n’avait rien à voir avec les 50  précédentes

 

 

Dans ses modèles du futur RK a retenu un doublement tous les 10 ans du rythme des évolutions technologiques ;…. tout en sachant que certaines technologies ont un rythme  beaucoup plus rapide. Par exemple les technologies de l’information  qui connaissent un doublement tous les ans en terme  de performance /prix, vitesse capacité, bande passante,…etc

 

Pour ces technologies de l’information tout se passe, en fait, comme si il y avait un 2ème niveau de  croissance exponentielle : croissance exponentielle de l’exposant :

(Simple rappel : l’Industrie Informatique : Une poignée de projet en 1940, un CA de 1 trillion de dollars à ce jour, avec une évolution parallèle des budgets de recherche et développement)

 

Pour RK :Le Futur sera exponentiel  comme le Passé l’a été ….. sauf qu’en plus on a dépassé le genou !!

 

 

 

b)    Le Cycle de vie d’une technologique (Paradigme Shift ?,). La courbe en S :

 

Cf The Life Cycle of a Paradigm A5

 

Toute technologie évolue en 3 phases :

 

1 Croissance faible ( la première phase de la croissance exponentielle)

2 Croissance rapide ( la phase explosive de la croissance exponentielle)

3 Nivellement de la croissance , la technologie devenant mature,….. avec en parallèle le démarrage de la phase 1 d’une nouvelle technologie

 

On retrouve ces 3 étapes dans de nombreux exemples….. aussi différents que le disque, le piano, le livre (de la peau de chèvre au téléchargement)

 

Généralement quand une techno arrive à son asymptote en performance/prix, la techno suivante (next technical paradigm) a déjà commencé à fonctionner dans des niches.

Une tendance exponentielle  peut être composée d’une succession de courbes en S

Chaque courbe S prend de moins en moins de temps pour se développer et assure de plus en plus de performance

 

 

 

c)    la loi de Moore et au-delà…… La Loi des retours Accélérés / The Law of accelerating returns :

 

 

La loi de MOORE :

 

Beaucoup d’entre vous connaissent cette loi, édictée au milieu des années 1970 par le Pdg d’INTEL, Gordon Moore selon laquelle  le nombre de transistor sur un circuit imprimé doublait et doublerait tous les 2 ans, avec pour conséquence une amélioration exponentielle du performance/prix du traitement informatique.

 

Nous savons également que cette loi s’est vérifiée dans les faits et  que  nous vivons d’ailleurs tous, au quotidien, ses conséquences .

 

Même connue, il n’est peut être pas inutile de  visualiser cette évolution  du coût de la puissance informatique

 

Cf  Evolution of Computer Power Cost A6

 

 

Le prix /performance d’un ordinateur est aujourd’hui 25  fois plus bas que celui de la fin des années 60.

 

Cette évolution de la technologie des circuits imprimés à laquelle se référait Moore, se vérifie également, pour les 4 étapes technologiques précédentes, que sont, par ordre d’entrée en scène, l’électromécanique, les relais, les tubes et les transistors

 

Cf  Moore’s law:  A 7

 

En fait, tout se passe comme si, chaque fois qu’une technologie ne suit plus la courbe du rythme de progrès (ex la techno des tubes fin des années 50), une autre technologie prenait sa place ( le transistor)

 

C’est ainsi que, quand à son tour la technologie des CI aura atteint la fin de sa propre courbe en S,  la croissance exponentielle continuera par une nouvelle étape technologique,  le « calcul moléculaire en 3D», selon RK ; nous y reviendrons.

 

De là à poursuivre la courbe pour le futur, afin d’identifier quand l’ordinateur arrivera à avoir la puissance de calcul du cerveau humain, il n’y a qu’un pas que, bien sûr, RK franchit ;

 

Cf  Exponential Growth of Computing  A8

 

 En se rappelant qu’il a fallu 90 ans pour obtenir le premier Mips pour 1000 $ et qu’aujourd’hui on ajoute 1 Mips pour 1000 $ toutes les 5 heures. Merci l’exponentielle !

 

 

Cette Loi de Moore  constitue pour RK un bel exemple de ce qu’il nomme la « Loi des Retours accélérés », loi  applicable, selon lui, à l’analyse des  processus d’évolution de tous les domaines technologiques ;

De nombreux exemples d’évolution comparables sont rappelés, parmi lesquels :

 

 

ADN Coûts du séquençage (Cf A9 divisé par 2 tous les 1,9 an),

Durée du séquençage : HIV 15 ans, SARS 31 jours ;

Nanotechnologies : Nombre de Publications scientifiques : doublement tous les 2,4 ans entre 1990 et 2002 ..etc etc

 

 

La Loi des retours accélérés  repose sur un certain nombre de principes tels que :

 

Les feedbacks positifs. Les progrès réalisés à une étape de l’évolution sont utilisés pour créer la prochaine étape. A chaque étape la vitesse du progrès croit de façon au moins exponentielle. Les «  retours » d’un processus d’évolution (vitesse, efficacité, puissance, coût..) croissent aussi au moins exponentiellement.

 

 

 

 

1-2 L’Application de la Théorie de l’Evolution de RK aux 2 sujets suivants :

 

-  la machine intelligente ; 

- la superposition des 3 révolutions technologiques Génétique, Nanotechnologies et Robotiques  (GNR)

 

La machine Intelligente : Quand et comment ?

 

RK étudie, d’une part l’évolution de la  capacité de calcul de l’ordinateur, d’autre part  la réalisation progressive de logiciels  simulant l’intelligence humaine, pour en déduire la faisabilité de la machine intelligente voire «  spirituelle » (Strong AI).

 

S’agissant de la capacité de calcul (Le Matériel) (chapitre 3) :

 

Après avoir rappelé la différence entre les performances du cerveau humain et de la machine :

-       le cerveau « très lent » (100 m/s pour les connexions inter neuronales) mais dont l’organisation  massivement parallèle, en font le champion de la reconnaissance de forme, de l’acquisition de connaissance, de la faculté de création et d’expérimentation de modèles mentaux de la réalité,

 

-       la machine très rapide, (3 millions de fois plus rapide) et son impressionnante capacité  de mémorisation, de rapidité d’accès à l’information, de répétition de processus maîtrisés sans détérioration ni fatigue, et, peut être, plus important encore,   sa vitesse de partage/mise en commun de ses connaissances,

 

nous retiendrons de ce  chapitre 3  quelques indications sur les ordres de grandeur, les perspectives technologiques et leurs limites :

 

a)    Les ordres de grandeur :

Le cerveau c’est 10°11 neurones disposant chacun de 10°3 synapses.

Sa puissance de calcul est estimée à 10°16 ou 10°19 cps selon l’hypothèse plus ou moins conservatrice et 

Sa capacité mémoire de 10°13 bits.

 

L’ensemble de l’intelligence biologique représente une capacité de calcul de 10°29 cps

                                                         

En 2005 le super ordinateur le plus puissant, le Blue Gene L d’IBM était à 10°15 cps et le Pc à 10°9 cps.

 

La mise en réseau des micros et le gain en puissance en résultant font que dès 2020 on devrait pouvoir atteindre la puissance suffisante pour simuler un cerveau sur un PC à 1000 $.

Coté mémoire, c’est en 2018 que l’on devrait disposer  de 10°13 bits de mémoire pour 1000 $.

 

Retenons que, selon RK, c’est autour de 2020 que nous disposerons d’un Hardware capable d’émuler la fonctionnalité de calcul et de mémoire du cerveau humain….. et  autour de 2030, disposer d’ ordinateurs capables de passer le test de Turing, (représentant un niveau d’intelligence non distinguable de l’intelligence humaine)

Quant à 2050, avec 1000 $, on devrait pouvoir largement excéder toute la puissance de calcul de l’ensemble des cerveaux humains ;

 

b)    Avec quelles technologies ?:

 

Pour RK le calcul moléculaire en 3D constitue la prochaine (et 6ème) évolution technologique informatique majeure  après celle des circuits intégrés ;

Ce calcul moléculaire 3D suppose la maîtrise de nombreuses technologies (enabling technologies) dont en premier celle des nanotubes  cylindres fait d’un réseau hexagonal d’atomes de carbone, dont la taille est de l’ordre du nanomètre =10°-9m

Un pouce cube de circuit nanotube, une fois totalement développé disposerait d’une puissance 10 millions de fois plus puissant que le cerveau humain.

 

En 1999 la référence faite à cette  technologie du futur, dans son livre  « The age of spiritual machines »), a fait l’objet de  controverses,  que RK rappelle, tout en observant que depuis, les avancées majeures réalisées par les chercheurs,(Ex démonstration par Ibm d’un CI basé sur nanotubes avec plus de 1000 transistors) sont venues renforcer l’idée  qu’il s’agit plus du « Best Bet » ( meilleur pari)  pour la prochaine grande étape technologique,

 

Parallèlement aux nanotubes, les progrès déterminants  réalisés dans les techniques  d’auto assemblage de circuits à l’échelle nano, celles de l’émulation de l’auto réplication biologique, etc, viennent également conforter l’hypothèse de la viabilité à moyen terme du calcul moléculaire 3D

 

Nb :On sait déjà réaliser des transistors moléculaires, des cellules de mémoire atomiques, des nanocables et des méthodes d’assemblage de ces composants.

 

 

c)    Quelles limites à cette évolution exponentielle de la puissance de calcul ?                 

 

RK en examine 2 types : celles liées à l’énergie nécessaire à l’exécution de ces calculs, et celles du « Nano computing ». Aussi passionnantes soient ses observations, sur la relation  entre l’énergie d’un objet et son potentiel calculatoire (ou l’intelligence d’un rocher « How smart is a rock ? »),  ou sur  les travaux de Robert Freitas (professeur au MIT) et son « ultimate laptop », nous vous renverrons, pour en savoir plus,… à la lecture de l’ouvrage. (Il faut parfois s’accrocher !).

 

Ce soir, limitons nous au fait que, selon RK et les différentes sources auxquelles il se réfère, ces limites sont ou lointaines ou surmontables (Ex : du calcul sans consommation d’énergie) et ne sont pas de nature à remettre en cause la prévision de pouvoir disposer au plan du Matériel, vers 2030, d’une puissance de calcul non biologique de l’ordre de la capacité de l’intelligence humaine soit 10°29 cps par an,… en route vers la Singularité qu’il situe en 2045, ou  l’intelligence non biologique créée sera un milliard de fois plus puissante que toute l’intelligence humaine d’aujourd’hui,…

 

Encore faut –il que le logiciel suive !!

 

 

 

S’agissant du Logiciel de l’Intelligence Humaine (chapitre 4) :

 

Tout en soulignant, là encore,  les spécificités du cerveau « hiérarchie complexe de systèmes complexes », combinaison de digital et d’analogique, processus aléatoires chaotiques et auto organisant, produisant et utilisant des propriétés émergentes dont l’intelligence,(cf analogie avec les termitières : 1 neurone =1termite/ cerveau=termitière)),

RK pense que grâce, notamment, au « Reverse engineering/ Ingéniérie Inverse ? » il n’y a pas de barrière insurmontable pour pouvoir, à terme, comprendre l’ensemble des principes opératifs de l’intelligence humaine, et  pouvoir ensuite les dupliquer.  dans un processus itératif de modélisation/simulation

 

Des différents développements venant étayer son approche, nous retiendrons 3 points :

-       les  niveaux  de complexité ;

-       l’évolution exponentielle des techniques/ technologies d’imagerie du cerveau et de modélisation de ses fonctionnements ;

-       les différents exemples mettant en évidence l’état de l’art ;

 

1     Les différents niveaux de complexité :

 

Après avoir observé que le génome humain, ne représente, après compression, qu’un nombre de caractère inférieur à celui du logiciel Word,

RK insiste sur les différents niveaux de complexité en fonction du niveau d’agrégats auquel on s’intéresse  et le degré de complexité de la modélisation,(plus faible au  niveau plus élevé).

De la même façon que  les interactions au niveau d’une simple molécule, à l’intérieur d’un gaz sont complexes et imprédictibles, le gaz lui-même, composé de milliards de molécules, a beaucoup de propriétés prédictibles,

La même observation peut être faite quant aux niveaux de compréhension et modélisation du cerveau depuis la physique des réactions synaptiques jusqu’aux transformations de l’information par des clusters de neurone.

 

 

2  L’évolution des outils permettant la compréhension du fonctionnement du cerveau :

 

Le Monde du 28 mars 2008, dans un article sur  la prochaine loi de bioéthique, programmée pour 2009 , précise  que cette loi :

« ne pourra ignorer les prodigieuses et parfois inquiétantes perspectives ouvertes par

les progrès des neurosciences et l’exploration de plus en plus fine du cerveau humain ».

Cette phrase résume ce qui ressort des propos de RK lorsqu’il met en évidence les progrès réalisés en terme d’Imagerie et de modélisation du cerveau.

 

Cf A 10 : la résolution d’un scanning du cerveau double tous les 12 mois, et l’on observe le même type de progrès dans la vitesse de reconstruction des images du cerveau.

 

Toutefois ces technologies d’imagerie  ne seront pas suffisantes pour permettre «  le reverse engineering» de certaines parties essentielles du cerveau. Il faudra attendre les années 2020, pour que les scannings à base de Nanobots (robots de la dimension  d’une cellule du sang), soient opérationnels.

C’est également dans cette troisième décade que les obstacles de la BBB (Blood Brain Barrier) pourront être surmontés.

Pour RK, on sera  alors en mesure de procéder à un scanning de l’intérieur et par modélisations successives  arriver à développer un logiciel ayant les capacités d’intelligence tant logique qu’émotionnelles du cerveau

 

3     Plusieurs exemples d’avancées récentes sont décrits et viennent à l’appui de la pertinence des prévisions faites tant au niveau neuronal, qu’au niveau de la Région

Cf  A 11 Le Modèle de WATTS pour la Région auditive, réplique neuromorphique   d’une partie significative du processus de l’audition humaine, capable de distinguer un interlocuteur au milieu des sons et bruits de l’environnement.

Ce modèle a déjà été utilisé comme « processeur frontal » dans des systèmes de reconnaissance da la voix..

 

RK commente également, les progrès des recherches sur le cortex, région du cerveau la moins connue,  au sommet de la hiérarchie neurale, là ou se situe ce qui relève notamment ce qui relève de la perception et de  l’émotion ; et du rôle joué par les « spindle cells » présentes uniquement chez l’homme (80.000) et certains grands singes ( ExGorilles :16000) et dont l’architecture a été récemment établie.

 

De cette compréhension de plus en plus fine et précise du cerveau découlera, après modélisation, et simulations itératives,  non seulement la réalisation de machines « biologiquement inspirées » mais également la possibilité de connecter cerveau et ordinateur, …  ce qui fait déjà l’objet de tests dans certains domaines applicatifs

Ex Permettre à un singe de contrôler un robot (lui donner des ordres) à partir de sa  seule pensée (à l’exclusion de tout joystick) ;

 

 

La superposition des 3 révolutions technologiques :

 

Au-delà des références au calcul moléculaire 3D ,aux Nanotubes , aux Nanobots, d’une part,  de l’interaction entre technologies d’autre part  RK développe pourquoi et comment à ses yeux, la superposition de 3 révolutions technologiques  en Génétique, Nanotechnologie et Robotique, devrait nous conduire à la 5ème époque de l’Evolution, début de la Singularité.

 

Cf A 12 The Six Epochs of Evolution

 

-       La révolution G (intersection entre l’Information et le monde de la  Biologie ) en est aujourd’hui à ses débuts et devrait connaître son plein épanouissement au cours de 2 décades à venir,

-       La révolution N (intersection entre l’ Information et le monde de la Physique), décalée par rapport à G d’au moins une décade

-       La révolution Robotique enfin (Strong AI = Intelligence artificielle « forte »/ou Intersection entre Information et Intelligence ?),  qui pour RK représente la révolution la plus significative, l’intelligence étant le moteur le plus puissant de l’univers

 

Alex vous dira, dans sa conclusion, quelques mots  sur ce qu’il vous propose de retenir  des   prévisions de RK en la matière.

 

Pour ma part je signale à ceux qui sont intéressés par  l’allongement de l’espérance de vie, et de comment l’exploitation de la révolution G pourrait permettre de faire le pont avec les apports de la révolution N, de prendre connaissance de ce chapitre, ou mieux de lire le « Serons nous Immortels ? » co  écrit avec Terry Grossman directeur du frontier Medical Institute.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1-3    Les conséquences:

 

Les chapitres 6 à 9 exposent les conséquences de cette vision de l’évolution technologique, en termes :

d’impact sur  l’H et  sa relation à son environnement (Ch 6)

de  Périls / Risques et de Promesses/ opportunités (Ch 8);

le 9ème et dernier chapitre  permettant à RK de répondre, par avance, aux critiques que son approche ne  peut pas manquer de susciter.

 

Nous n’avons pas cité le chapitre 7, « Ich bin ein Singularitarian », dans lequel le propos de l’auteur prend une dimension plus philosophique, une sorte de début de réflexion sur la fameuse question :        Alors, c’est quand qu’on va où ?

 

Evoquons quelques uns des thèmes développés dans ces différents chapitres :

 

 

S’agissant de l’impact (ch 6) :

 

RK plante le décor des multiples transformations qu’est appelé à connaître le corps humain, le cerveau,

D’ores et déjà l’« upgrade » de nos capacités physiques et mentales est en route, par l’utilisation des biotechnologies et l’émergence de l’ ingenierie génétique. La poursuite de ce mouvement va nous conduire à ce qu’il nomme la version 2.0. de l’H au début des années 2020 ;

Au-delà des 2 prochaines décades l’utilisation des outils et techniques de la nano-ingenierie  vont transformer les capacités de nos divers organes pour, finalement, aboutir à la possibilité de les remplacer.

Les milliards de nanobots  qui voyagerons dans notre corps et notre cerveau pourront  progressivement détruire les causes pathogènes, corriger les erreurs d’ADN, éliminer les diverses toxines et plus généralement améliorer notre bien être et notre longévité

Dans notre cerveau les nanobots et autres NEMS (Nanoelectromechanical systems), interagiront avec nos neurones ; cette interconnexion entre la pensée biologique et l’intelligence non biologique va  profondément transformer et développer l’intelligence humaine

 

Dans ce contexte général, il présente un spectre assez large de modifications auxquelles, d’après lui,  nous allons être confrontés, sur la route de la Singularité :

 

Depuis une nouvelle conception de la façon dont nous nous nourrirons (séparation entre la fonction biologique d’une part, les fonctions plaisirs ou sociales d’autre part , un peu à l’image de ce que nous connaissons déjà avec la sexualité), en passant par un nouveau design du système digestif, un sang programmable (respirocytes de Freitas : Robotics red blood cells) ;le remplacement du cœur, la possibilité d’intervenir et redessiner certaines parties du cerveau etc etc, nous amenant progressivement à la possibilité  d’une re-conception  complète du corps humain ; ce qu’il appelle la version 3.0 qu’il anticipe pour  les années 2040 . Les Cyborgs arrivent !

 

L’homme va se transformer,  son environnement aussi ; RK en ébauche les  conséquence sur certaines activités tels le travail, le jeu, la guerre, l’apprentissage et la connaissance ;

 

Au delà de cette vision de notre futur (….qui  n’engage bien sûr que celui qui y croît !), ce qui nous parait intéressant dans ce document se situe aux niveaux suivants :

 

         1 les nombreux exemples tirés du «  Présent », et dont la mise en perspective nous conduit à ne pas rejeter d’emblée la vision (parfois « Too Much ») qui nous est proposée …et en tout cas nous aide à décoder l’actualité scientifique/technologique sous un autre angle ;

 

-       2 le bornage du « Futur », sur le chemin de la Singularité, par certains scénarios 2010, 2030,. ou autres « milestones », nous donnant l’opportunité de pouvoir vérifier la pertinence de l’analyse avant l’arrivée au « trou noir » de l’Humanité…ouf !

 

-       3 l’ouverture de pistes de réflexions, liées aux perspectives annoncées, notamment sur :

 

-       ° le rapprochement Homme /Machine : Qu’es ce que l’H, qu’es ce que la Machine ?L’ Extension du concept d’Etre Humain ?

 

° l’allongement de l’espérance de vie depuis une moyenne de 25 ans ( pour l’ancienne Égypte), 30 ans (en Europe du Moyen age), 48 ans  (au début du siècle) et près de 80 ans (ici et maintenant)… et les questions que cela appelle :

Vers une redéfinition de la vie et de la mort ? La mort vue comme un problème à résoudre et non comme une inéluctabilité ?

 

°l’extension du champ du virtuel et de l’intelligence non biologique  qui peut déboucher sur la possibilité   de devenir quelqu’un d’autre, ( souvenez vous le film « Dans la peau de  John Malkovitch ») ;

 

° Les mondes de la physique et de l’intelligence ; celui de l’intelligence d’origine C et de l’intelligence d’origine Si

 

°   etc       ….tout cela pour déboucher sur la transcendance de la Singularité

 

 

S’agissant des risques et périls (Ch 8)

 

Le « profond entrelacement entre les  promesses et les périls du GNR », titre du chapitre est souligné par l’auteur qui rappelle que toute technologie est susceptible de renforcer les pouvoirs tant créatifs que destructifs de la Nature humaine.

RK est clairement un optimiste : Pour lui…. le positif, le créatif, le constructif devraient dominer, pour autant que l’investissement dédié au développement de technologies défensives, spécifiques à tel ou tel risque soit augmenté.

Aux  limites du principe de précaution et aux conséquences de l’inaction qu’il engendre,  il préfère    le principe de « pro-action », qui équilibre les risques de l’action et de l’inaction ;

Au Renoncement  au sens large, de certaines technologies, (Broad Relinquishment), il se dit favorable à un Renoncement ciblé (Fine graine Relinquishment)et il met en garde contre les fondamentalismes environnementaux ou humanistes, au-delà des religieux.

 

Il commente (p413) l’exemple  des virus informatique,  les peurs « à priori »,leur  nuisance réelle jusqu’ à ce jour, le développement de défenses, tout en soulignant les limites de cet exemple, l’environnement de l’informatique (beaucoup de liberté ) n’ayant rien à voir avec celui de la génétique (beaucoup de contrôle).

 

RK termine ce chapitre par une esquisse de ce que pourrait être un programme de défense contre les dangers de la GNR (cf p421 /422) en soulignant que finalement nous n’avons pas d’autre choix que d’accepter les 2 tranchants de l’épée « Technologie ». Exploiter le tranchant positif, en renforçant nos défenses contre le tranchant négatif sur la base de nos valeurs et de leur développement, et ce, … en dépit de l’absence, au moins apparente  de consensus sur ce que devraient  être ces valeurs

 

 

S’agissant des critiques, :

 

 

Soulignons  le champ très large des 13 thèmes qu’il retient: de la critique malthusienne ( pas assez de ressource pour nourrir l’exponentialité jusqu’à l’infini, à la critique  holistique (….), en passant par celles concernant la faisabilité technique ( le logiciel, le mur de l’analogique, la complexité du processus neuronal, la thèse de Turing, le taux de panne de toute machine), ou règlementaire (la réglementation des gouvernements qui ralentira voire stoppera l’accélération de la technologie).

 

Pour ces divers sujets  RK propose ses éléments de réponse qui, à tout le moins permettent de positionner quelques ingrédients pour alimenter notre propre réflexion 

 

Pour résumer  la  pensée de l’auteur, voici les 2 citations qu’il a placé en tête de son dernier chapitre :

 

 

« The human mind likes a strange idea as little as the body likes a strange protein and resists it with a similar energy”; W.I. Beveridge

 

If a…. scientist says that something is possible he is almost certainly right, but if he says that is impossible he is very probably wrong » Arthur C Clarke

 

 

 

 

 

 

 

2ème Partie: SINGULARITE et COMPLEXITE

 

 

Les références au paradigme de la complexité en général, aux concepts et outils des  Sciences de la Complexité en particulier, sont  très présentes  tout au long de ce livre sur la Singularité.  Tant de façon implicite (ne peut –on voir la Singularité comme une Emergence, .. ?), qu’explicite 

 

Pour donner un aperçu de cette relation entre C et S, nous vous proposons d’examiner brièvement :

Quelques exemples de la façon dont RK s’adosse à la Complexité pour développer sa démonstration  (2-1), puis d’évoquer quelques réflexions plus générales sur le  prédictible/prévisible (2-2).

 

2-1 Exemples de référence à la Complexité :

 

Si l’on retient comme définition des Sciences de la Complexité,  que ce sont «les disciplines scientifiques qui étudient les systèmes complexes et s’intéressent aux interactions entre les agents composant ce système, voire entre les systèmes eux-mêmes »(cf MB Phd in Sciences of Complexity - Pr Mount Vernon University),   nous avons de quoi faire :

-       Système Complexe : l’exemple du cerveau humain dont l’analyse de son fonctionnement est centrale dans le livre, se suffirait à lui seul,

-       Interaction entre agents ou entre systèmes : se retrouvent à tout niveau depuis  la loi des retours accélérés, ou plus globalement de l’interaction entre G, N et R.

 

Les références a des concepts ou outils relevant du paradigme de la Complexité sont également multiples, qu’il s’agisse des Fractals, des Automates classe 4, des patterns,(I’m a Patternist ! se déclare RK) et plus généralement à certains travaux du Santa Fé Institute

 

Dès le début (p36 -39) RK positionne sa vision de la relation entre Evolution et Complexité :

 

Pour lui l’Evolution accroît « l’ordre », lequel « ordre » peut, ou non, accroître la complexité,  même s’il précise, qu’en général il l’accroît,… et sachant qu’il retient les définitions suivantes  de la mesure de la complexité et de l’ordre :

- la « complexité se mesure par le minimum d’information, significatives, non aléatoires mais imprédictibles, nécessaires pour caractériser un système ou un processus »

 

- l’« ordre c’est de l’information qui répond à un objectif. La mesure de l’ordre est la mesure de combien l’information répond à son objectif »

( l’objectif de l’évolution des formes de vie, c’est la survie)

 

Pour RK l’Evolution est le résultat de la meilleure réponse à l’objectif, mais pas nécessairement de la réponse la plus « compliquée ».

 

 

2-2  Prédictible/Prévisible :

 

A l’évidence les deux paradigmes  de la Complexité et de la Singularité  ne se situent pas sur le même plan ;

 

La Singularité, au sens rappelé ce soir, correspond à un point  ou  les lois  d’avant la Singularité ne peuvent expliquer les lois d’après la Singularité. En ce sens, elle constitue une forme d’Emergence?;

Ce que sera cette émergence n’est pas prédictible, mais si l’on suit l’approche que nous propose RK, la planification de la période où elle interviendra, l’est. La singularité, au moins celle annoncée par RK, est prévisible :

Après l’émergence de la Vie, celle de la Conscience, de l’intelligence humaine, voici sur la voie de l’Evolution, venu le temps de l’intelligence post humaine, et cela toujours pour RK,  dans un avenir proche, aux alentours de 2050 !

Après l’émergence liée à l’opposition du pouce aux autres doigts de la main qui a permis à l’homme de devenir ce qu’il est, voilà venu le temps de l’opposition de l’intelligence Si, à l’intelligence C pour  aller vers l’Après Homme.

C’est tout au moins ce que nous avons cru comprendre de la démonstration que propose RK.

 

 

Le paradigme de la Complexité, quant à lui, englobe  également  l’Emergence, mais, celle-ci a pour double caractéristiques d’être à la fois imprédictible et imprévisible.

 

Rappelez vous Paul Valéry : « La complexité : Une intelligible imprévisibilté essentielle ».

Les outils des sciences de la complexité permettent d’expliquer de comprendre le constat d’une émergence d’une bifurcation, mais pas de la prévoir ;

 

Dit autrement :

 

Avec les lunettes de la Complexité l’inéluctable n’est jamais certain ;

Alors qu’avec RK la Singularité qu’il envisage est inéluctable.

 

 

De la même façon qu’il y dans la pensée complexe des allers et retours (d’aucuns diraient : une boucle récursive) entre le global et le détail on peut aussi supposer que la pensée tout court, est un aller retour entre le prédictible /prévisible et l’imprédictible / imprévisible.

C’est d’ailleurs un peu ce que fait RK lorsqu’il écrit en substance, qu’il compte :

« sur les turbulences que provoquera dans un milieu chaotique le développement exponentiel des moyens de calcul, qui feront émerger les solutions là sans doute où nous ne les attendons pas ».

 

Il récupère l’émergence pour valider le  déterminisme de son approche

 

------------

Paris le 7/04/08