Overblog
Suivre ce blog Administration + Créer mon blog
17 mars 2013 7 17 /03 /mars /2013 12:42

 

Awash_river.jpg


 

L

 

a rivière Awash coule dans la vallée du grand Rift avant d’aller se jeter dans le lac salé Abbé dans le pays Afar de Djibouti dont les rives sont bordées de cristaux de sel et sur lequel on peut admirer des colonies de flamants roses.

En fin d’après midi le spectacle devient lunaire et c'est sans doute pour cela que le lac Abbé a inspiré le réalisateur de "La planète des singes".

Mais c’est dans la région de Hadar, au nord-est de l’Éthiopie au bord de la rivière Awash que le premier fragment du fossile de Lucy fût repéré par Donald Johanson le samedi 30 novembre 1974.

Yves Coppens a consacré une partie de sa vie à l’étude des restes de cette jeune Australopithecus afarensis datés de 3,4 millions d’années qui révolutionna notre vision de l’origine de l’homme en révélant déjà une marche bipède.

Depuis l’aventure de l’homme moderne, bien que faisant encore aujourd’hui l’objet de conjectures chez les anthropologues, semblait apparaître comme une série d’évolution linéaire depuis l’Homo Habilis, celui qui semble notre plus vieil ancêtre avec ses 3 millions d’années, en passant par l’Homo Erectus a qui l’on doit la découverte du feu et de la cuisson des aliments qui ont joué un si grand rôle dans le développement du cerveau.

Il émigra de son berceau africain une première fois vers l’Asie il y a 2 millions d’années puis vers l’Europe un million d’années plus tard.

Ce n’est qu’en 2005 que les deux crânes, découverts en 1967 dans la vallée de l’Omo le long du rift éthiopien, ont permis de prétendre que l’homme moderne serait apparu il y a environ 200 000 ans.

L’histoire paraissait celle de l’émergence d’une espèce bénie des Dieux qui allait se rependre sur la terre à partir de cette origine commune africaine comme l’homme de Cro-Magnon qui vivait il y a 40 000 ans en Dordogne.

Depuis la génétique moderne a permis de rechercher le plus récent ancêtre patrilinéaire commun c’est à dire l'homme de qui tous les chromosomes Y des hommes vivants descendent.

En 2011, l’équipe de généticiens des populations dirigée par Fulvio Cruciani a calculé que le plus récent ancêtre patrilinéaire commun daterait d'environ 140 000 années.

L’histoire rejoignait en quelque sorte la bible en nous faisant tous descendre d’un Adam génétique unique. Il existe aussi une Eve mitochondriale.

La chose paraissait entendue jusqu’à ce qu’on analyse l’ADN d’un certain Albert Perry, citoyen américain décédé d’origine africaine, et que l’on découvre qu’il descendait d’une lignée qu’il fallait faire remonter jusqu’à 338 000 ans pour découvrir un ancêtre commun avec notre Adam génétique.

Les recherches ont permis d’identifier qu’Albert Percy partageait le même héritage génétique que les Mbo, un peuple bantou d’Afrique centrale, vivant dans le sud-ouest du Cameroun.

Mais, il y a 338 000 ans, l’homme moderne n’existait pas !

La belle histoire de l’homme moderne, évolution ultime d’une sélection naturelle linéaire, semble bien devoir être abandonnée pour un roman plus passionnant et plus touffu fait de croisements successifs, résultats du hasard de rencontres entre des espèces proches vivant dans les mêmes niches écologiques.

Ces frasques paléontologiques auraient finalement donné Homo Sapiens triomphateur de ces infidélités multiples.

Cette hypothèse est corroborée par le fait qu’on trouve aussi dans notre patrimoine génétique des traces de l’Homme de Neandertal.

Nous voilà donc avec une aventure plus complexe où l’homme moderne aurait cohabité avec d’autres espèces d’hominidés dont la disparition reste aujourd’hui un mystère même si des chercheurs de l'Institut d'anthropologie cognitive et évolutive à l'Université d'Oxford supposent que les gros yeux du Néandertalien auraient laissé moins de place au développement des fonctions cognitives et précipitaient ainsi leur disparition.

Comme quoi il vaut mieux ne pas avoir les yeux plus grands que son cerveau…


Patrice Leterrier

17 mars 2013

Fichier PDF

Partager cet article

Repost0
5 mars 2013 2 05 /03 /mars /2013 17:45

cerveau-décision


E

n 1983 Benjamin Libet avait défrayé la chronique en révélant l’existence d’une activité cérébrale précédant la conscience d’une décision de 350 millisecondes.

Il remettait en cause la notion de libre arbitre puisque la volonté consciente, assimilée à la liberté de décider et d’agir, ne serait pas le déclencheur de l’action.

Cette étude a fait l’objet de nombreuses crtiques méthodologiques mais, en 2008, l’équipe de Chun Siong Soon mettait en évidence un retard de 7 à 10 secondes entre l’activité neuronale de préparation de l’action et la prise de décision consciente.

Les neurologues avaient alors proposé que le seul moyen pour la conscience d’interférer sur une décision prise en amont puisse être de bloquer l’action avant qu’elle ne soit exécutée.

Des travaux récents du docteur Patrick Haggard et de ses collègues de l’Institut des neurosciences cognitives de Londres contredisent cette hypothèse.

Ils viennent en effet d’observer que même lorsque nous décidons de bloquer une décision prise par les neurones au niveau pré-conscient, un autre signal cérébral est détectable quelques dizaines de millisecondes en amont.

Donc quand nous décidons de bloquer une action décidée par le cerveau, cette décision semble, elle aussi, déterminée de façon non consciente.

Mais tous ces résultats d’expériences sur le pré-conscient qui précéderait la conscience dans l’activation de nos actions ne seraient-ils pas une sorte de "mirage" parce que nous avons une conception erronée de la conscience comme un processus séquentiel dont le centre de décision unique se trouverait être la conscience que nous avons de nos "prises de décision" ?

Si vous vous êtes fiés au compte à rebours diffusé par les chaines télévision pour inaugurer le premier de l’an, vous avez en fait embrassé votre chéri(e) au moins une seconde après le passage décisif d’une année à l’autre ?

En effet le temps de recevoir le signal sur votre récepteur TNT par réseau hertzien ou sur votre box ADSL par fil téléphonique et le moment ou l’image s’affiche sur votre écran, il y a des algorithmes de décompression et de conversion digital analogique qui interviennent pour fabriquer l’image et le son que vous recevez "en direct".

Il semble bien qu’un décalage temporel soit aussi nécessaire au cerveau pour "fabriquer" l’image mentale qui monte dans l’espace neuronal de travail conscient décrit par Jean-Pierre Changeux et Stanislas Dehaene.

Ce délai inhérent à la nature physique de la conscience qui met en œuvre la diffusion de flux nerveux à travers des millions voire des milliards de synapses pourrait peut-être expliquer simplement les résultats des expériences mentionnées ci-dessus.

Si nous suivons les dernières recherches sur le fonctionnement bayésien du cerveau nous devons supposer qu’une prise de décision est une évaluation statistique de l’adéquation de celle-ci sélectionnée dans un ensemble de décisions possibles.

Il n’y a donc rien de particulièrement étonnant que la décision sélectionnée par ce type de fonctionnement statistique se trouve représentée dans le cortex avant même qu’elle ait eu le temps d’atteindre c'est-à-dire d’"activer" l’espace neuronal de travail conscient.

La conscience de nos décisions ne serait que l’ultime étape d’un processus complexe mettant en œuvre les capacités statistiques de "décider" en fonction des données pertinentes à la situation mettant en jeu des mécanismes qui dépassent largement une apparition ultime à la conscience.

Notre libre arbitre est-il une illusion ou intervient-il déjà à un niveau pré-conscient comme une sorte de "régulateur" des mécanismes de décision ?

Il pourrait être aussi une solution trouvée par l’évolution pour régler élégamment les problèmes indécidables tout en nous rendant pleinement "responsable" des décisions prises.


Patrice Leterrier

5 mars 2013

Fichier PDF

Partager cet article

Repost0
25 février 2013 1 25 /02 /février /2013 14:10

 

mirroir-1.jpg


 

L

 

a conscience de soi c'est-à-dire cette capacité à se concevoir comme une entité distincte de l’environnement et des autres est l’un des processus les plus mystérieux et les plus fascinants de l’esprit humain.

A l’occasion de la sortie de son dernier livre L’autre moi-même le neuroscientifique Antonio Damasio nous apprend que "contrairement à l’idée répandue selon laquelle la conscience est produite par le cortex cérébral en tant que structure la plus récemment apparue dans notre histoire évolutive", des structures du tronc cérébral seraient "fondatrices du protosoi" une sorte de conscience qu’"il y a un corps qui est là, et qui vit"

La conscience ne serait donc pas le privilège de l’homme et remonterait à un stade d’évolution que nous partageons sûrement avec les primates mais aussi avec beaucoup d’espèces dont les reptiles et les mammifères.

Dans ce voyage à travers le temps il poursuit en ajoutant que, plus récemment, "la musique, langage, peinture, justice, morale sont autant de productions collectives qui, depuis une échelle de temps de l’ordre de 100 000 ans, régulent la vie des groupes".

Il ajoute que "l’émergence de nouvelles cultures, celle de nouveaux systèmes de représentation ou de régulation sociale, peuvent agir en retour sur le fonctionnement de l’esprit humain et sur les structures du cerveau".

La maturation du cerveau est un processus lent qui ne se finalise guère qu’après 25 ans.

L’espérance de vie de nos ancêtres ne dépassait guère cette échéance et donc la culture de l’ancêtre devait être prépondérante puisqu’il était le seul porteur des traditions et de la sagesse.

La culture était essentiellement locale, principalement orale (si on exclut les peintures et le culte des morts), faite de rituels construits dans une vision magique de l’univers. C’est encore clairement le cas dans les sociétés primitives.

Selon le psychologue Julian Jaymes ce n’est que vers 3000 avant notre ère qu’une évolution culturelle majeure aurait favorisé l’essor de l’introspection qui a permis de "faire évoluer vers des formes de soi autobiographique plus intégrées, portant la conscience de soi à des niveaux plus avancés."

Ce soi autobiographique culturel et propre à l’homme, se nourrit de l’existence de cette forme ancestrale de conscience et inscrit l’évolution de la conscience humaine dans un cursus d’abord biologique long puis dans un temps culturel récent infiniment plus court.

Depuis à peine un demi-siècle l’environnement de l’homme s’est transformé de manière drastique.

D’un monde où les hommes ne quittaient guère leurs régions natales, ne recevaient qu’une éducation formatée à l’école obligatoire et laïque, n’échangeaient qu’avec ses proches et son voisinage et à travers le courrier postal, ne disposaient que des livres et des journaux pour ouvrir une fenêtre sur le monde, la démocratisation des transports, la révolution médiatique puis l’explosion du numérique ont fait voler en éclats tous les schémas classiques de la communication et de la transmission de la culture et de l’éducation.

Aujourd’hui l’ère de l’ordinateur personnel et peut-être celle du web ouvert se terminent.

Ils sont de plus en plus enfouis dans des appareils mobiles et nous voyons apparaître une nouvelle grammaire gestuelle commune avec des applications communicantes accessibles à tous en permanence grâce à la généralisation des smartphones et des tablettes qui rend l’usage de ces prothèses communicantes immédiat et naturel tout au moins pour les générations digitales natives.

L’univers des utilisateurs s’élargit à une communauté libérée de toute contrainte non seulement spatiale mais aussi temporelle avec généralisation de l’usage de l’asynchronisme sur les courriels, les réseaux sociaux, les tweets, les SMS.

Nous sommes à la veille d’une extension de cet univers avec l’apparition de l’internet des objets, c'est-à-dire la connexion généralisée d’objets de notre vie quotidienne et l’apparition progressive de sondes captant en temps réel les paramètres de notre corps comme une sorte d’"exosoi" complétant notre rapport à nous même et à l’environnement.

La généralisation de ces actimètres pour suivre en temps réels les paramètres de notre équilibre physique, de ces sondes pour réguler par exemple le diabète, de ces capteurs pour mesurer l’oxygène du sang et prévenir des apnées du sommeil et d’autres objets encore permettra de contrôler bientôt notre corps.

Elle pourra également compléter nos sens en les augmentant (vision de nuit déjà opérationnelle dans l’armée) ou notre comportement en régulant notre activité cérébrale (par exemple pour prévenir des crises d’épilepsie ou des crises cardiaques).

Nous vivrons bientôt sur le contrôle permanent d’objets communicants avec nous, soit à travers nos smartphones, soit même directement reliés à certaines de nos aires cérébrales.

Et ces outils, comme ceux qui truffent déjà nos automobiles et nos télévisions et qui équiperont bientôt aussi nos objets domestiques, communiqueront aussi avec des tiers pour mettre notre sécurité et notre état de santé sous contrôle.

Une sorte de délégation à l’objet qui modifiera radicalement notre rapport à nous-mêmes et à l’environnement.

Sommes-nous à la veille d’une profonde évolution de l’espèce humaine qui ne serait due ni à l’évolution darwinienne ni à la l’éducation et la culture mais à la technologie ?

De nos jours les ancêtres deviennent plus nombreux donc plus communs. Ils ne sont plus ou rarement le relai naturel de la culture et de la connaissance.

La culture n’est plus seulement rare, orale et locale.

Avec l’extension de l’imprimerie elle était devenue le privilège d’une élite dont l’apogée fut atteint au siècle des lumières.

Avec la révolution médiatique, elle devint généralisée, visuelle et sonore mais linguistiquement et politiquement contrôlée. Le mode de transmission passait par une diffusion identique pour tous les utilisateurs (one to any).

Depuis l’explosion du numérique elle échappe à tout contrôle. Elle est éclatée, distribuée (any to any), mondiale, polymorphe et fractale.

Nous assistons à un changement radical de la socialisation, à une désynchronisation du temps biologique des émotions par nature inscrit dans la durée et du temps de l’information et de la connaissance qui devient instantanée.

Nous baignons aussi dans l’émergence d’un monde virtuel peuplé d’avatars aussi réaliste voire parfois plus que la réalité.

La perspective d’une réalité augmentée est imminente non seulement grâce à l’immense mémoire collective de la toile et la multiplication des moyens de communication, non seulement avec l’apparition prochaine de prothèses cognitives mais aussi du fait de la multiplicité des objets connectés à nous d’abord via nos tablettes et nos téléphones portables mais bientôt par un couplage direct entre le cerveau et des capteurs élargissant notre champs sensoriel à des espaces aujourd’hui inaccessibles.

Ce nouveau paradigme du rapport intime entre l’homme et ses outils changera radicalement le parcours d’apprentissage des enfants, les plongeant à la fois dans un monde virtuel réaliste et dans une réalité augmentée leur permettant une nouvelle forme d’interaction avec l’environnement.

Après la révélation du protosoi faite par Antonio Damiaso, marque évolutionnisme de la construction d’une conscience, ne sommes-nous pas en train de vivre l’ère du "cybersoi" avec cette époque où les sollicitations sensorielles sont décuplées par un tsunami informationnel qui risque de s’aggraver avec l’arrivée de l’internet des objets.

Nul ne peut prédire l’effet final de ces changements considérables dans un temps infiniment court par rapport au temps évolutionniste sur ce cerveau humain dont la plasticité a fait le succès mais qui l’expose au risque de perdre sa cohérence face à cette agression technologique.

Patrice Leterrier

25 février 2013

Fichier PDF

Partager cet article

Repost0
18 février 2013 1 18 /02 /février /2013 13:56

 

souris-1.jpg


 

S

 

ur le site slate.fr, Michel Alberganti fait référence à une étude publiée de Miguel Nicolelis sur des rats "augmentés" auxquels on a connecté des capteurs de lumière infrarouge sur une zone du cerveau de l’animal "correspondant aux perceptions du toucher provenant des moustaches".

Après apprentissage, ils réagissent indifféremment à l’excitation de leurs moustaches ou à la perception de lumière infrarouge aussi invisible pour eux que pour nous.

Même si nous descendons du même ancêtre, le rat n'est pas tout à fait l'homme.

Je sais ! L'homme et la souris possèdent "99% de gènes homologues (c'est-à-dire identiques ou proches)" mais en matière de génétique il faut se méfier de statistiques trompeuses car 1% d'écart peut avoir à l'arrivée énormément d'effets.

D'ailleurs je n'ai pas vraiment peur des...chats.

Pour revenir au sujet de cet article assez décoiffant, les perspectives sont à mettre en relation avec le projet "Human Brain Project" car le couplage de capteurs sensoriels avec le cerveau sera d'autant plus facile à tester et à comprendre que les chercheurs auront réussi à créer des "modèles" du fonctionnement du cerveau.

Comme toujours le "problème" n'est pas (et il ne pourra jamais être) un problème scientifique.

La science n'a pas à se préoccuper des applications de ses découvertes et les tentatives pour bloquer ici ou là les recherches sont illusoires parce qu’il se trouvera toujours des "paradis expérimentaux" où des savants pourront étudier tous les méandres de la science et des hommes capables de faire la pire des choses avec ses applications.

On se souvient du débat sur les recherches sur le virus H5N1 mutant et la fin du moratoire décidé le mois dernier.

Les raisons invoquées pour la reprise de ces recherches étaient que "le virus continue à circuler et à évoluer dans la nature" et que poursuivre les recherches "est essentiel pour se préparer à faire face à une nouvelle pandémie".

Concernant "l’homme augmenté" ne devons-nous pas d’abord nous réjouir des perspectives de l’"homme réparé" avant de nous inquiéter de celles de l’homme augmenté ?

D’autant que c’est déjà singulièrement une réalité dans le domaine des communications, de la mémoire et bientôt aussi de la cognition.

Entre les recherches des médecins de l'université d'Indiana sur un programme d’intelligence artificielle de diagnostic médical, les applications pour tablettes annoncées par IBM dans la foulée du succès du supercalculateur Watson, une "à destination des médecins pour la lutte contre le cancer du poumon et une autre pour aider les assurances à gérer les engagements de dépenses" (business is business !), nous voyons bien que le mouvement vers des "prothèses cognitives" est en marche.

Au passage IBM a indiqué que depuis sa victoire au jeu Jeopardize, les performances de Watson avaient été améliorées de 240%.

L’assistance au raisonnement déductif va s’amplifier.

Elle va sortir du pur domaine des mathématiques (dernier exemple le plus grand nombre premier), de la physique théorique (boson de Higgs), de la cosmologie (exoplanètes) ou encore de la météorologie dont les développements sont aujourd’hui totalement dépendants des ordinateurs (pour ne citer que ces exemples).

Les découvertes de la science, les progrès des neurosciences, les perspectives incroyables des nanotechnologies, l’accélération spectaculaire des applications de la technologie ne vont pas s’arrêter.

Les dérives sont déjà là et sont inévitables.

Mais n’est-ce pas une des vertus indispensables de la politique au sens noble que de faire comprendre au grand public les enjeux, de définir et d’imposer des limites acceptables pour éviter de sombrer dans une société sans éthique et sans morale ?

Aurons-nous les hommes et les femmes capables de porter cette ambition pour nos sociétés ?


Patrice Leterrier

18 février 2013

Fichier PDF

Partager cet article

Repost0
10 février 2013 7 10 /02 /février /2013 15:49

cloud_brain.jpg

 


L

a vraie question n’est pas de savoir ce que seront les téléphones, les tablettes, les ordinateurs et les réseaux en 2050 mais bien ce que sera la place de l’homme à cet horizon.

Aujourd’hui plus personne n’effectue le moindre calcul un peu sophistiqué sans l’aide de l’ordinateur.

Jamais un homme seul n’aurait pu découvrir un nombre premier comportant 17 425 170 chiffres.

Il n’aurait pas plus pu décoder le génome humain ou encore prouver avec une règle à calcul et un crayon l’existence d’une particule ayant la "saveur" du Boson de Higgs.

Plus simplement aucun avion ne pourrait voler aujourd’hui sans l’aide des technologies dont il est littéralement truffé, la course à la puissance des superordinateurs recule sans cesse la précision des prévisions météorologiques et les exploits des concurrents du Vendée Globe Challenge auraient été totalement impossibles sans l’aide des ordinateurs.

Curiosity creuse la surface de Mars à la recherche de trace de vie, des chirurgiens opèrent le cerveau grâce à des robots qu’ils guident avec une précision incroyable, des sourds entendent, des aveugles commencent à voir avec des rétines artificielles, des paraplégiques remarchent avec des jambes cybernétiques, des amputés peuvent piloter des mains d’aciers rien qu’avec la pensée, des armes sont guidées vers leurs cibles par le simple regard d’un pilote,…

Nous baignons dans un monde technologique où la frontière entre l’outil et l’homme devient de plus en plus ténue.

Mais l’outil semble ne permettre aujourd’hui que de remplacer des fonctions motrices, visuelles, auditives ou d’augmenter nos interactions avec l’environnement et nos semblables.

N’est-il pas en train de changer de nature lorsqu’il gagne contre des hommes au jeu Jeopardize ou lorsque, comme le prévoit à court terme le grand manitou de la connaissance universelle Google, il adaptera son "comportement" à son interlocuteur de sorte que celui-ci sera naturellement guidé vers les réponses qui collent le mieux avec son profil, assassinant ainsi le délicieux plaisir de la surprise ?

D’autres fossoyeurs de notre autonomie ne songent-ils pas à choisir nos partenaires en fonction de nos supposées préférences brisant ainsi la magie du caractère intraduisible en terme de raison d’une rencontre ?

L’outil "prothésise" aujourd’hui notre communication, notre mémoire, nos capacités de calcul.

Il complétera bientôt notre conscience, nos capacités cognitives en les augmentant artificiellement de plus en plus.

L’Europe a décidé de financer à hauteur d’un milliard d’euros le projet "Human Brain project" qui ambitionne de "révolutionner non seulement les neurosciences, la médecine et les sciences sociales, mais aussi l’informatique et la robotique".  

La mesure du QI seul face à la feuille de questions risque de n’avoir probablement plus grand sens dès lors que dans la vie courante la cognition augmentée sera accessible à tous.

L’ainé sera ainsi défavorisé par rapport à son cadet qui disposera des progrès de la technologie qui n’ont que faire du rythme lent de l’évolution biologique et qui permettront d’apporter de plus en plus d’aide à nos capacités cognitives limitées par la lente évolution biologique.

Il pourrait d’ailleurs se faire que, paradoxalement, ces capacités qui se construisent principalement grâce à des facteurs culturels et éducatifs diminuent du fait de cette interaction envahissante avec une "metacognition universelle" disponible sur des prothèses de plus en plus intimement liées à nos sens.

L’homme, être de raison mais aussi de sentiment et de morale, résistera-t-il à ce déferlement ou sombrerons-nous dans une posthumanité que certains prévoient ?

La réponse dépend sans doute de la capacité de nos sociétés à remettre la liberté individuelle, l’éthique et l’humanisme, comme il a été parfaitement définit à la renaissance, au centre de sa réflexion.

Notre société ne manque pas de raison, elle manque cruellement de sagesse.


Patrice Leterrier 

10 février 2013

Fichier PDF

Partager cet article

Repost0
8 février 2013 5 08 /02 /février /2013 19:23

 

sablier


 

J

 

’étais enfermé dans le présent comme les héros, comme les ivrognes ; momentanément éclipsé, mon passé ne projetait plus devant moi cette ombre de lui-même que nous appelons notre avenir ; plaçant le but de ma vie, non plus dans la réalisation des rêves de ce passé, mais dans la félicité de la minute présente, je ne voyais pas plus loin qu’elle"(*).

La seconde des scientifiques est définie comme les 9 192 631 770 périodes de la radiation  correspondant à la transition entre les deux niveaux hyperfins de l'état fondamental de l'atome de césium 133.

Elle cadence ce temps cosmique dont nous avons une sorte d’intuition et qui rythme le déroulement de notre vie en s’échappant inexorablement.

Le temps ressenti, celui dont parle avec talent Marcel Proust, est celui dont les neurologues nous apprennent qu’il est rythmé par nos horloges internes sensibles à la dopamine dont le taux régule aussi nos émotions.

Ainsi notre horloge se met à l’unisson de nos états émotionnels en nous rendant le mauvais service de rendre les instants les plus pénibles comme étant aussi les plus longs.

Mais c’est oublier un peu vite que cette accélération de notre vigilance est une des adaptations de l’homme pour le rendre plus rapidement prêt à fuir ou à se défendre face à un danger.

Nul n’est besoin aussi de souligner combien le temps peut nous sembler interminable lors de certains discours inaugurant un départ à la retraite d’un employé modèle et combien furent trop courts ces instants magiques de bonheur fugace qui restent indélébilement gravés dans notre mémoire.

Certains se remémorent peut-être aussi ces moments interminables de silence dans un ascenseur avec un inconnu, chacun guettant le moment où l’autre prendra l’initiative de rompre le silence.

Saint Augustin disait du temps "Si personne ne me le demande, je le sais. Si je veux l’expliquer à qui me le demande, je ne le sais plus".

Le philosophe Jacques Bouveresse résume ce rapport ambigu que nous avons avec ce temps dont nous disons qu’il coule comme l’eau des rivières sous les ponts :

"L’étonnement et la perplexité nous viennent non pas quand nous considérons le temps, mais quand nous croyons être en train de le considérer lui-même alors que ce que nous considérons est en réalité ce que nous disons de lui".

Mais ce sage penseur ne tient pas compte du fait que plus nous prêtons attention au temps qui passe plus celui-ci nous paraît long de sorte que plus nous le considérons plus il prend de l’importance.

Le temps serait en quelque sorte l’eau d’une rivière qui ralentirait par le simple fait qu’on la regarde s’écouler.

Mais notre horloge interne est aussi fonction du temps de l’autre.

Des chercheurs ont démontré que celle d’un individu jeune ralentit lorsqu’il se trouve face à une personne âgée comme si n nous éprouvions le besoin de nous synchroniser pour mieux communiquer.

Et ce temps partagé n’est-il pas en train de changer avec cette intrusion massive des "temps des autres", multiples et beaucoup plus intrusifs auxquels nous soumettent ces prothèses communicantes que sont les téléphones portables, les tablettes ou même les vieux ordinateurs personnels que d’aucuns destinent au même cimetière que celui peuplé aujourd’hui par nos vieux combinés téléphoniques ou nos vieilles télévisions cathodiques ?

Nous voici donc plongés dans le cadencement d’un flot continu d’appels, de SMS, de courriels, de messages vocaux, de vidéos, de clips, de musiques imposant leurs rythmes.

Notre cerveau est depuis toujours une machine à traiter le temps qui passe et le voilà soumis à ce déferlement d’une nuée d’événements dont il est bien difficile de faire le tri.

Nicholas Carr écrit "Is there a psychological cost to this “unnatural” rhythm, this new and contagious setting for our internal clocks?"

Blaise Pascal écrivait en son temps :"Le présent n'est jamais notre fin : le passé et le présent sont nos moyens ; le seul avenir est notre fin. Ainsi nous ne vivons jamais, mais nous espérons de vivre ; et, nous disposant toujours à être heureux, il est inévitable que nous ne le soyons jamais."

Puissions-nous reprendre possession pleine et entière de ce temps présent qui nous appartient et que nous laissons s’échapper futilement.


Patrice Leterrier

8 février 2013

Fichier PDF

 


(*) Marcel Proust, A la recherche du temps perdu, A l’ombre des jeunes filles en fleurs

Partager cet article

Repost0
30 janvier 2013 3 30 /01 /janvier /2013 16:09

 

graphene_sheet1.jpg


 

L

 

a commission européenne a retenu le 28 Janvier le projet Graphène de l’université technologique Chalmers, à Göteborg en Suède, comme Future Emerging Technology doté d’un budget d’un milliard d’euros sur 10 ans.

La découverte de ce matériau est l’œuvre conjointe d’Andre Geim et de Konstantin Novoselov qui ont obtenu le prix Nobel de physique en 2010.

Le graphène est constitué d’un réseau hexagonal à 6 atomes de carbone parfaitement pur et ordonné. Il forme ainsi un grillage d’une épaisseur de la taille d’un atome de carbone.

Il est à la fois d’une résistance mécanique exceptionnelle, souple, transparent et le meilleur conducteur électrique si on exclut les supraconducteurs.

S’il existe à l’état naturel dans les cristaux de graphite, sa "fabrication" est due à la rencontre fortuite d’un ruban adhésif sur lequel nos chercheurs facétieux eurent l’idée "stupide" de coller les débris de graphite qui se trouvaient sur leur paillasse.

Ce qu'il y a souvent de commun dans les grandes découvertes c'est qu'elles n'auraient pas vu le jour sans accident mais surtout sans le regard curieux de chercheurs qui, au lieu d'ignorer l'accident qu'ils viennent de constater, en cherchent la cause : Archimède, Isaac Newton, Pierre & Marie Curie, Alexander Pfleming et Albert Einstein et d’autres n'ont-ils pas été au delà d'un tel constat? 

La vie sur terre s'appuie sur le carbone. En sera-t-il de même de notre futur technologique ?

On a du mal à imaginer les limites des applications technologiques tant le temps entre une découverte fondamentale et la généralisation de son utilisation mondiale devient de plus en plus court.

Il n'y a qu'à voir l'explosion des téléphones portables et d'Internet et maintenant celle des smartphones et bientôt des tablettes appelées à supplanter presque totalement les ordinateurs personnels.

Rien de tel n’aurait été possible sans une baisse drastique des coûts mais aussi sans les progrès de la recherche notamment dans le domaine des transmissions de signaux.

Rappelons qu’Ethernet a été inventé en 1973 par Robert Metcalfe, que le premier téléphone GSM date de 1983 et que le Wifi n’existe que depuis 1999.

Sans les progrès théoriques sur la transmission de signaux sur de vulgaires fils de cuivre qui ont permis l’explosion des débits, l’usage d’Internet n’aurait guère dépasser les limites du minitel.

On s'extasiera sans doute sur les nouveautés présentées au prochain Cebit début Mars à Hanovre.

Pourtant il ne s'agira pour l'essentiel que de raffinements de technologies maîtrisées.

Peut-être dans un coin sombre et peu passant de cette manifestation passera inaperçue une application appelée à révolutionner notre environnement.

Certains se souviennent peut-être que la décision d'IBM de confier en 1980 à Bill Lowe le développement de ce qui allait devenir le PC, qui domine encore le marché, était assortie de la condition de ne pas "déranger" les gens sérieux qui travaillaient sur les logiciels systèmes des gros ordinateurs de la firme aussi appelés Mainframe.

On connait la suite et l'accord avec une minuscule firme appelée Microsoft pour développer le système d'exploitation du PC que Bill Gates bâtit à partir de l'achat pour 50 000 $ du Quick and Dirty Operating System à la petite firme Seattle Computer Products.

Ce système deviendra le MS-DOS puis Windows dont on connait l'histoire et qui a fait la fortune de son créateur.

Parfaite illustration de la difficulté des géants établis sur un marché de rester des firmes innovantes même quand elles dépensent des fortunes dans la recherche et collectionnent les prix Nobel comme IBM.

Depuis cet incroyable rendez-vous manqué avec l'histoire, Big Blue a rebondi, mais malgré de spectaculaires démonstrations comme celle faite par l'IBM Watson au jeu Jeopardize, elle n'apparait pas comme une firme aussi innovante que l'Apple du temps de Steve Jobs.

La plupart des géants de l’Internet n’existaient pas il y a moins de vingt ans. Ils doivent tous leurs immenses succès à des innovations technologiques dont ils ne sont pas à l’origine mais dont ils ont su sentir avant les autres les applications possibles.

Si le graphène révolutionne, comme on peut le prévoir, la conception même de l’interaction de l’homme avec son environnement en autorisant un saut quantique en matière de miniaturisation, il est aussi probable qu’une bonne partie des firmes qui domineront le nouveau marché créé par les technologies s’appuyant sur le graphène n’existent pas encore. 


Patrice Leterrier

30 janvier 2013

Fichier PDF

Partager cet article

Repost0
27 janvier 2013 7 27 /01 /janvier /2013 14:08

collegien-copie-1.jpg


S

ur son blog Michel Alberganti commente une étude réalisée par Pia Rosander, une thésarde de l’université de Lund en Suède, analysant la corrélation entre cinq grands traits de caractère (Big Five) et la réussite scolaire de jeunes élèves âgés de 16 ans.

Les critères retenus (ouvert, consciencieux, extraverti, agréable et inquiet) suscitent des critiques portant sur leur complétude, une certaine redondance et leurs caractères subjectifs.

Par exemple on peut soupçonner une forte corrélation entre ouverture et extraversion.

On peut aussi constater qu’il s’agit d’une photographie à un stade déterminé du cursus scolaire.

Ceci étant et pour autant que des résultats sur un panel de 200 élèves soient significatifs d'une tendance générale, les résultats contrastés révélés par cette étude sont assez inquiétants.

Ils mettent en lumière que la réussite dans le système scolaire suédois serait plus le fait de personnalités consciencieuses et inquiètes que d’élèves ouverts et curieux.

La compétitivité de nos pays du vieux continent - et donc la survie de l’emploi et de nos conditions de vie si durement obtenues par nos prédécesseurs - dépend énormément pour ne pas dire uniquement de la capacité de notre système éducatif à promouvoir ceux qui ont des réelles capacités d'innovation et un goût certain de la prise de risque.

On a besoin d’entrepreneurs qui acceptent le changement permanent comme une chance et non comme un risque.

La survie de nos sociétés occidentales suppose l’éclosion de talents ayant une grande capacité à s’adapter en permanence à ce qu’Hubert Vedrine appelle une compétition multipolaire instable qui n’a rien à voir avec une crise qui sous-entendrait un retour à une situation antérieure.

Il est assez catastrophique de penser que le système éducatif ne favorise pas la curiosité, la créativité, une forme d'"anticonformisme", bref les traits de caractères qui paraissent les mieux corrélés avec la capacité d'innovation et le gout du risque.

Le système éducatif du 19ème siècle et du début du 20ème avait besoin de "délivrer" des citoyens dociles, consciencieux, peu friands du risque, cherchant un emploi stable avant tout pour fournir le "matériel" nécessaire pour faire tourner les "chaines standardisées" des usines toutes converties à la religion du Taylorisme.

La robotisation de l’industrie et l’utilisation des technologies de l’information et de la communication ont définitivement balayé ce paysage.

La mondialisation de l’économie et du marché du travail a redistribué les rôles en laissant sur le carreau ces milliers d’emplois qu’il est impossible, même par forte volonté politique, de conserver dans nos pays.

L’éducation est la clé de l’adaptation d’une société à son environnement socio-économique et notre société ne peut se satisfaire d’un statu quo dont le coût est exorbitant au regard des résultats obtenus.

Comment ne pas prendre notamment la vraie mesure du fait que l’environnement de communication est totalement bouleversé par l’explosion d’internet et la généralisation des smartphones et bientôt des tablettes et assistants personnels en tout genre ?

Ce nouveau paradigme de communication devient le mode "naturel" pour les nouvelles générations et le décalage avec les méthodes éducatives encore trop centrées sur l’accumulation massif de connaissance dans un mode standard et normalisé devient insupportable.

Dans le même temps, le fait qu’"un jeune de moins de dix-huit ans passe en moyenne sept heures et demie par jour devant des écrans ou smartphones, et seulement 15 à 25 minutes dans des jeux en extérieur", pose un véritable problème de la place de l’attention diffuse tellement nécessaire pour la consolidation des connaissances acquises.

On est tout de même atterré de voir que le grand débat aujourd’hui est celui de la semaine de 4 jours ½ à laquelle les enseignants - ou du moins leurs syndicats - s’opposent alors qu’ils avaient combattu avec la même énergie le passage à la semaine de 4 jours en 2008 !

Quand sortira-t-on d’un système éducatif fossilisé alors que l’enjeu est la survie même de notre civilisation ?


Patrice Leterrier 

27 janvier 2013

Fichier PDF

Partager cet article

Repost0
17 janvier 2013 4 17 /01 /janvier /2013 15:57

 

Aaron-Swartz.png


 

A

 

aron Swartz a mis fin à ses jours à l'âge de 26 ans.

Ce jeune prodige du Web, qui avait participé à l’invention des flux RSS alors qu'il n'avait que 14 ans, avait fait du libre accès sur internet son combat.

La mise en ligne de l’intégralité des 4,8 millions d'articles scientifiques du site JSTOR lui avait valu une mise en examen en 2012. Il risquait jusqu’à 35 ans de prison et un million de dollars d’amende.   

Il serait assez indécent de prendre le corps d'Aaron Swartz en otage même de la cause qu'il défendait par la révolte.

Cet hyperactif souffrait de dépression et son suicide est une affaire personnelle qui ne peut être revendiquée par personne même si son combat doit continuer pour permettre un plus libre accès aux publications scientifiques.

Les pétitions des chercheurs contre les pratiques commerciales du groupe Elsevier et d'autres mouvements d'universitaires montrent que son action n'a pas été vaine même si le chemin à parcourir sera long et semé d’embuches.

Les chercheurs sont trop souvent prisonniers d’un impossible équilibre entre recherche et course à la publication.

Les universitaires subissent une sorte de "double peine" de la part des sociétés d’éditions qui publient les articles en ne rémunérant ni les auteurs ni les relecteurs et en faisant payer l’accès.

Au-delà de ce problème de l’accès libre aux publications scientifiques, se pose un problème d’équilibre délicat avec la protection de la propriété intellectuelle.

Ce droit à l’accès à la connaissance pourrait prendre la forme d’une annexe de la déclaration universelle des droits de l'homme, comme celle que réclame Tim Berners Lee pour le droit à l’accès à internet.

Reste à définir les règles à appliquer car malgré tout, et même si leurs abus sont condamnables, les éditeurs comme Jstor, Elsevier et d’autres ont besoin de financer leur activités.

Comment accepter qu’elles ne puissent recourir qu’aux mannes des annonceurs qui auraient alors une sorte de pouvoir sur le contenu des publications ?

Dans son manifeste, Aaron Swartz écrit "la justice ne consiste pas à se soumettre à des lois injustes".

C'est clairement un appel à la désobéissance civique qui montre la limite entre la revendication et la position de hors la loi qui ne peut que tomber sous le coup de la loi dans un état de droit même quand on prend la posture de Robin des bois comme le regretté Aaron Swartz.

Les investissements en recherche constituent de plus en plus des actifs stratégiques dont dépend souvent la survie des entreprises.

Les citoyens financent les recherches publiques qui contribuent aussi à la compétitivité d’un état.

Elles conditionnent donc indirectement leurs conditions de vie.

Leurs résultats doivent-ils être rendus en libre accès, sans contrepartie au nom du droit à l’accès à la connaissance ?

Peut-on extraire la science et ces publications des conditions économiques dans lesquelles elles se développent ?

Personne de sérieux ne voudrait voir disparaître la notion de propriété intellectuelle, de la protection des innovations par les brevets même si certains pays les pillent régulièrement et sans complexe.

Pourquoi certaines publications qui débouchent sur des avancées technologiques majeures devraient-elles être en libre accès alors qu’elles peuvent conditionner la création d’emplois dans les pays industrialisés qui consacrent des sommes respectables à la recherche et qui ne peuvent concurrencer des pays où les droits des travailleurs et des enfants ne sont pas, et de loin, au même niveau ?

Il y a probablement une différence importante entre ce qui relève du domaine public, qui devrait être accessible par tout le monde et partout et ce qui relève de propriété intellectuelle (état, université, entreprise ou particulier) et qui mérite d’être protégé d’un pillage qui, s’il n’est pas "moralement équivalent à l’abordage d’un vaisseau et au meurtre de son équipage", n’en reste pas moins un acte délictueux.

wiki.partipirate.org cite le Dalaï-lama en hommage à Aaron Swartz : "Share your knowledge, that is the only way to achieve immortality"

Belle vision humaniste qui se heurte tout de même au mur de la réalité de la compétition qui fait de plus en plus de la connaissance et du savoir-faire le principal pilier de la survie des entreprises et des états dits développés.


Patrice Leterrier

17 janvier 2013

 

Fichier PDF

 

Partager cet article

Repost0
9 janvier 2013 3 09 /01 /janvier /2013 17:20

 

Curiosity_2.jpg


 

J

 

e ne souviens de ma perplexité quand des grandes personnes, qui s’appellent entre elles des adultes, soutenaient devant mes yeux incrédules de sentencieuses maximes, persuadées qu’elles semblaient être que leur taille par rapport à la mienne et que la présence de nombreuses traces du temps sur leur personne suffisaient à garantir l’infaillibilité de leurs propos.

Parmi ces nombreuses affirmations ne souffrant le moindre questionnement de notre part il y avait cette stupide formule "La curiosité est un vilain défaut".

Comment peut-on affirmer une telle absurdité dès lors que l’enfant se construit d’autant mieux qu’il sait se montrer curieux de tout en toute circonstance ? 

Il n’y avait donc pas de meilleur choix possible pour le nom du robot envoyé sur Mars par la NASA que Curiosity.

Mais curiosité n’est pas synonyme d’impatience et lorsque l’on suit les communications de l’agence américaine et les commentaires qu’elles suscitent, on est bien obligé de constater que la patience n'est décidément pas une vertu de journaliste.

Dernier exemple en date, le buzz autour d’une supposée fleur découverte sur Mars malgré le démenti prudent de la NASA.

L’histoire de cette fausse "fleur" est symptomatique de notre croyance que toute forme de vie devrait se rapprocher d’une forme existante sur la terre.

L'objectif ultime de Curiosity reste d'explorer les pentes du mont Sharp.

La mission devait durer une année martienne au moins soit pas loin de deux années.

Bien sûr, les scientifiques scrutent chaque image envoyée par le robot, chaque mesure qu’il effectue sur son lent chemin vers son but final.

Il n’a parcouru actuellement qu’un peu plus de 20% de son parcours.

Bien sûr aussi, que tout au long de son parcours des surprises sont possibles.

Mais il n'est pas exclu que finalement Curiosity ne découvre rien et que la planète rouge garde ses secrets.

Cette "découverte" pour décevante qu’elle puisse être ne serait pas sans intérêt.

Pendant qu’on cherche sur Mars, peut-être un jour sur Europe (le satellite de Jupiter pas le continent sur lequel les traces de vies sont encore réelles même si l’organisation politique de ces représentants laisse à désirer), on apprend cette étonnante nouvelle annoncée par François Fressin du Centre d'Astrophysique de l'Université de Harvard.

Selon ce respectable astrophysicien français, il n’existerait pas moins de 17 milliards de planètes de taille terrestre dans la seule voie lactée qui n’est pourtant qu’une infime partie, malgré son importance pour nous, de l'univers.

Cette nouvelle n’est en fait pas si étonnante que ça si on raisonne sans ce stupide à priori anthropomorphique qui nous pousse à nous croire unique dans l’univers.

Au sein de cette multitude immense ou ailleurs dans l’univers, il y a sûrement - non pas des petits hommes verts chers aux auteurs de science fiction ni même des ET, frappés du péché originel d'anthropomorphisme primaire - mais des formes d'organisation "biologique".

Elles ne sont pas forcément basées sur le carbone ni sur la double hélice de l'ADN.

On peut à peine imaginer le niveau de complexité ni la forme d'"intelligence" qui s'y serait développée ni d'ailleurs le paramètre espace/temps de cet "accident", parfaitement furtif comme celui sur la terre, dans l'immense silence de l'univers.

Il est largement probable qu’une découverte de ce type se fasse un jour parmi les milliards de planètes habitables.

Il est non moins évident qu’il y a peu pour ne pas dire pas du tout de chance qu’elle se situe dans un espace/temps compatible avec le moindre contact et qu’il ne s’agisse que de traces fossiles, ce qui ne diminuerait pas l’importance d’une telle découverte.

En attendons profitons sans retenu des splendides images envoyées par Curiosity qui resteront quoiqu’il arrive un témoignage de l’extraordinaire capacité technologique de l’homme.


Patrice Leterrier

9 janvier 2013

Fichier PDF

Partager cet article

Repost0