Overblog
Suivre ce blog Administration + Créer mon blog
22 janvier 2015 4 22 /01 /janvier /2015 09:20

averroes1.jpg


 

Q

 

u’est-ce qui fait que le primate que nous sommes a, depuis l’origine, besoin de faire référence à une puissance divine pour expliquer l’ordre apparent du monde ?

La philosophe Susanne K. Langer résume assez bien la première des raisons de cet état de fait en affirmant que les hommes ne peuvent pas se satisfaire du chaos et que les croyances surnaturelles résolvent le problème de ce chaos en fournissant du sens.

L’expérience intuitive nous incite, dès la prime jeunesse, à séparer l’esprit du corps.

Nous pensons posséder un corps plutôt que de réaliser, du moins intuitivement, que nous sommes un corps.

La tradition dualiste incarnée par René Descartes permet d’envisager des corps sans esprit, des animaux conçus comme des «machines» mais aussi des esprits sans corps donnant par exemple un monde rempli d’esprits, plus tardivement dans la tradition chrétienne et musulmane un Dieu omnipotent et dans toutes les religions un sens à la mort depuis des millénaires comme en témoignent les rites funéraires que nous partagions déjà avec l’homme de Neandertal.

Le psychologue américain William James souligne que le sentiment religieux, le rapport à Dieu n’est pas le même pour tous.

Dieu, du moins dans toute les religions monothéistes, est par définition inconnaissable, il est «caché», comme l’écrit Pascal.

Dès lors le mystique absolu n’aura pas la même relation à Dieu que le croyant qui y trouve un réconfort moral, des valeurs ou encore un modèle de conduite, ni que l’intégriste pour qui la croyance est la soumission inconditionnelle au dogme.

Au final le succès des religions n’est pas réductible à un insaisissable sentiment religieux mais englobe un vaste champ d’émotions et de représentations mentales qui ont probablement contribué au succès évolutif d’Homo sapiens.

L’adhésion à une pratique religieuse couvre aussi une grande diversité de motivations.

Pour certains c’est la recherche d’appartenance, d’intégration à un groupe de croyants qui apporte un soutien psychologique et social.

D’autres y trouvent un sens à la vie, une raison d’être.

Certains recherchent une véritable intimité, une impression d’être en relation personnelle avec Dieu apportant des expériences émotionnelles fortes qui provoquent un vif sentiment de plaisir et de valeur personnelle, une sorte de sublimation de la réalité.

De nos jours la conversion à l’Islam de certains jeunes en errance est souvent motivée par un rejet du christianisme, la religion des anciens pays colonisateurs, au profit d’une religion vécue comme la religion des opprimés, des laissés pour compte de notre société.

L’appartenance est moins motivée par une analyse souvent plus que sommaire des textes sacrés que par la volonté d’appartenir à un groupe qui refuse la domination d’un monde sans majuscules, comme le dit Régis Debray, un monde dominé par «matérialisme, corruption, et décomposition» comme l’affirme Pierre Hassner, un monde où les valeurs s’effacent devant la toute-puissance de l’économie, un monde où 1% de la population détiendrait 50% de la richesse.

Elle donne le sentiment rassurant d’appartenir à une élite. Elle justifie l’intolérance, et la lutte contre le mal.

Freud faisait déjà remarquer qu’on devient fanatique pour combattre une insécurité, une peur du monde extérieur, un sentiment d’impuissance que l’on refuse de s’avouer et d’assumer.

Au nom du bien, de la conformité aux idéaux islamistes, lecture plus que discutable du Coran, se trouvent légitimés et même sacralisés le terrorisme et la violence guerrière.

L’«autre», qui ne reconnaît pas LA vérité, n’est plus tolérable. La critique est vécue comme une blessure narcissique, un désaveu de la sacralisation des croyances.

La religion sombre dans le fanatisme engloutissant toutes les valeurs démocratiques, toute altérité, devenant un refuge vertigineux dont la seule issue semble être le sacrifice de sa vie.

Doit-on rappeler que c’est au nom de dieu que l’on a probablement tué le plus grand nombre d’hommes dans l’histoire de l’humanité ?


Patrice Leterrier

21 Janvier 2015

Fichier PDF

Partager cet article

Repost0
29 septembre 2014 1 29 /09 /septembre /2014 13:13

curiosite-scientifique.jpg

M

 

artin A. Schwartz écrivait "la science me fait me sentir stupide […] Je ne saurais pas quoi faire sans cette sensation".

L’aveu semble un tantinet paradoxal tant on a plutôt l’habitude d’avoir du savant une image d’un puits de science cultivant à l’extrême les immenses capacités intellectuelles dont il est doté.

En tout cas rien à voir dans cet aveu avec l’éloge que fait Erasme de la stupidité lorsqu’il écrit dans son succulent traité Eloge de la folie parlant "de fous, d’imbécilles, d’innocents, de bêtes […] Premièrement ils sont affranchis de la crainte de la mort qui certes n’est pas un des moindres maux de la vie. Le remords n’a pas prise sur eux. Les contes qu’on fait des Dieux Manès ne les inquiètent pas. Ils n’ont peur ni des revenants ni des loups garous. Ils ne sont ni victimes de la crainte ni dupes de l’espérance. Enfin ils ne sont pas rongés par les soucis qui sont le poison de la vie. La honte la crainte l’ambition l’envie l’amour sont des passions qu’ils ignorent".

L’aveu de Martin A. Schwartz n’est que le point de départ d’une curiosité jamais assouvie puisque cette stupidité alimente ce qu’il appelle "la fascination pour la compréhension du monde physique et un besoin émotionnel de découvrir de nouvelles choses".

Il conclut son exposé ainsi : "La stupidité productive implique d’être ignorant par choix. […] Plus nous sommes à l’aise avec notre stupidité, plus nous pataugerons profond dans l’inconnu et plus nous sommes susceptibles de faire de grosses découvertes."

Voilà donc réhabilitéer scientifiquement la naïveté oubliée des "pourquoi" de la petite enfance mais aussi la gêne des parents ne sachant répondre autre chose qu’un "parce que" souvent suivi d’un long silence avant d’être conclu par un hors sujet salvateur.

Mais l’ignorance, que l’auteur qualifie de stupidité pour frapper les esprits, ne se satisfait pas d’à peu près dans les réponses à y apporter lorsqu’il s’agit de science.

On connaît la célèbre formule "connaître c'est mesurer!" que l'on attribue parfois à Gaston Bachelard parfois au philosophe français Léon Brunschvicg.

Si on s'en tient au sens poétique qu’attribuait Paul Claudel à la connaissance, cela signifierait "la naissance ensemble" ce qui en donne toute la difficulté parce que, s’il n’y a peut-être pas de science sans mesure, il n’y a non plus certainement pas de science sans partage.

Alors si la référence poétique vient d’une confusion entre la racine latine "nosco" du verbe connaître et sa presque homonyme "nasco" du verbe naître, l’image rappelle aussi en parlant de naissance que la connaissance est d'abord une expérience subjective c'est à dire pétrie de la culture, de l'expérience personnelle, des normes sociales, etc.

Mais c’est aussi le grand dessein de la science que de transformer cette expérience personnelle en une "vérité universelle".

Quel autre moyen que la mesure, la définition d'une norme pour parvenir à ce but puisqu’autrement, comme l’écrivait Pascal, "Vérité en deçà des Pyrénées, erreur au delà"?

Bien sûr toute l'expérience humaine ne se réduit pas en une seule connaissance scientifique pas plus que notre prétendue rationalité ne peut s'extraire du bain émotionnel qui l'accompagne.

Mais dès lors qu'on vise à rendre une connaissance du monde universelle comment échapper à la mesure, à une mesure reconnue par tous comme réfutable mais vérifiée?

Ce passage de la stupidité à l’illumination de la connaissance, ce mystérieux moment de l’intuition scientifique, dont Einstein disait que "les mots et le langage, écrits ou parlés, ne semblent pas jouer le moindre rôle dans le mécanisme de ma pensée", ne mérite-t-il cependant pas que l’on évoque une naissance ?


Patrice Leterrier

29 Septembre 2014

Fichier PDF

Partager cet article

Repost0
31 août 2014 7 31 /08 /août /2014 14:11

Aristote.jpg

A

ristote écrivait dans l’Ethique à Nicomaque "on ne délibère jamais des choses qui ne peuvent être autrement qu’elles ne sont", légitimant ainsi la toute puissance d’une science s’imposant à tout le monde comme vérité révélée, une sorte d’aristocratie du savoir.

De nos jours, dans de nombreux domaines où les applications de la science modifient notre environnement le discours scientifique n’est plus cette vérité intangible mais est souvent construit selon une stratégie d'exposition qui n’exclut pas la dimension polémique ou dialogique. 

Dans ce contexte quel peut être le rôle de la vulgarisation scientifique ?

Selon Dominique Wolton "La vulgarisation scientifique consiste aujourd'hui à faire cohabiter quatre logiques plus ou moins concurrentes et conflictuelles : celles de la science, de la politique, des médias et du public".

Le discours vulgarisateur ne remplace pas le discours scientifique mais il le met en scène à grand renfort d’analogies, de comparaisons de métaphores, de paroxysmes, d’exagérations et d’hyperboles.

Il le dénature, le court-circuite sans pour autant le remplacer.

Dans un billet du blog SCILOGS, Hervé This s’interroge sur la capacité du public de "décider raisonnablement de l’utilisation d’organismes génétiquement modifiés".

A cet effet il tente d’expliquer, en des termes de vulgarisateur, "ce qu'est l'ADN, afin que les décisions prises collectivement le soient en connaissance de cause".

Mais est-ce vraiment nécessaire pour un débat démocratique que de comprendre le rôle de l’ADN et par conséquent le fonctionnement des OGM ?

La question politique qu’ils posent n’est-elle pas celle de savoir si nous maitrisons tous les effets des transformations génétiques que mettent en œuvre les OGM, les risques de contaminations, de la coexistence de culture OGM avec des cultures traditionnelles, les dangers monopolistiques liés à la possibilité de les breveter et l’interdiction d’utiliser les semences autres que celles fournies par le fabricant (Monsento par exemple) mais aussi bien sûr en regard les bénéfices en termes nutritionnels (le riz doré par exemple) et en terme d’environnement (diminution voire disparition de l’usage de produits chimiques), etc.

Certains objecteront que pour justifier l’innocuité ou au contraire le danger des modifications génétiques, il faut bien en décrire le mécanisme et donc en revenir à ce fameux ADN autoreproducteur dont parle Hervé This.

Mais comment éviter qu’une telle explication ne tourne selon celui qui l’a fournie à un plaidoyer pour ou contre les OGM ?

Autrement dit comment éviter que la vulgarisation scientifique ne soit un discours au service d’un à priori, en quelque sorte un argument d’autorité ?

La vulgarisation scientifique ne serait-elle "qu’un leurre destiné à masquer la rétention du savoir et à légitimer (sous couvert démocratique) le pouvoir de certains?

Sujet vaste et complexe que celui du "troisième homme" entre les scientifiques et un public dont on ne peut pas dire qu’il soit homogène dans ses attentes face à la science.

D’autant que sa tâche devient de plus en plus ardue au fur et à mesure que les concepts scientifiques s’éloignent de notre monde de perceptions naturelles.

Allez donc essayer d'expliquer l'"intrication quantique" ou la supersymétrie ou encore l'existence putative de l’énergie sombre et de la matière noire.

Belle image que le fond diffus cosmologique mais lorsqu'il faut l’expliquer c'est une autre paire de manches.

Il est vrai que ces sujets ne semblent pas devoir avoir d’applications concrètes dans notre vie de tous les jours.

Ils peuvent donc plus légitimement rester l’apanage de spécialistes avertis.

Mais je ne suis pas vraiment sûr que concernant les OGM, les énergies renouvelables, le nucléaire ou encore le réchauffement climatique les polémiques qui font rage puissent être véritablement éclairées par un discours vulgarisateur impartial.


Patrice Leterrier

30 août 2014

Fichier PDF

Partager cet article

Repost0
7 août 2014 4 07 /08 /août /2014 13:37

 

ledoute.jpg


 

S

 

i je pense (hypothèse audacieuse !), il semble à priori évident que c’est à travers le langage que l’expression de ma pensée prend forme.

Nicolas Boileau, le législateur du Parnasse, ne disait-il pas déjà au XVIIIème siècle "ce qui se conçoit bien, s’énonce clairement et les mots pour le dire arrivent aisément" ?

Pourtant Einstein, dont on peut difficilement nier la richesse et la nouveauté de sa pensée, écrivait "les mots et le langage, écrits ou parlés, ne semblent pas jouer le moindre rôle dans le mécanisme de ma pensée. Les entités psychiques qui servent d’éléments à la pensée sont certains signes ou des images plus ou moins claires, qui peuvent à “volonté” être reproduits ou combinés".

Il ajoutait "Je pense très rarement en mots. Une pensée me vient, et je peux essayer de l'exprimer en mots après coup".

Il précisait sa position en disant "le langage transforme notre instrument conventionnel de raisonnement en une dangereuse source d'erreur et de duperie".

Si on reconnait la sincérité de cette déclaration et la puissance intellectuelle de son auteur, on pourrait donc affirmer, avec une relative généralité, qu'il peut y avoir "pensée" sans langage et même que la pensée précède toujours son expression.

Les travaux de Stanislas Dehaene et collaborateurs démontrent par exemple que dans les sources de la pensée mathématique "le caractère proprement linguistique du calcul exact s'oppose au caractère non verbal de l'évaluation". Les zones cérébrales en cause sont parfaitement distinctes.

Des tests de QI non verbaux sur des aphasiques montrent sans contestation possible qu'il y a bien élaboration de pensée sans langage.

Pour autant même, si on peut s’accorder avec Albert Einstein que la pensée exprimée réduit voire déforme forcément le champ de son original, il reste que la fulgurance d'une intuition, la profondeur d'une pensée ne se partagent que parce qu'elles s'expriment même si les mots manquent souvent pour la décrire.

D’ailleurs c'est le même Einstein qui disait "Si vous ne pouvez expliquer un concept à un enfant de six ans, c'est que vous ne le comprenez pas complètement".

L’interrogation sur l’origine de la pensée renvoie inévitablement à celle sur ce mystère qui est cette conscience qu’a Homo Sapiens de lui-même et de son environnement.

Pour qu’il y ait pensée ne faut-il pas qu’il y ait conscience ?

Nous savons, confortés que nous sommes par les travaux de Stanislas Dehaene et collaborateurs, qu’un grand nombre de stimulus, bien que perçus et pouvant entrainer des comportements de notre part, reste inaccessibles à la conscience.

Nous sommes donc aussi pour une grande part des automates contrôlés par notre cerveau.

Où commence la pensée ?

Existe-t-il des "pensées" qui soient inconscientes ce qui donnerait en quelque sorte matière à ne pas distinguer l’absence de conscience des neuroscientifiques de l’"inconscient" de Freud et de Lacan ?

Ce dernier pensait d’ailleurs que l’inconscient était structuré comme un "langage".

La pensée commence-t-elle par cette "prise de conscience" décrite par Stanislas Dehaene comme un véritable tsunami au cours duquel l'activité électrique dans les aires sensorielles du cortex supérieur se répand massivement dans les régions du cortex pariétal et préfrontal considérées comme responsables de la "prise de conscience" ?

Doit-on suivre Hegel qui affirmait que "le mot donne à la pensée son existence la plus haute et la plus vraie" faute de quoi elle restait, selon ses termes, "une pensée à l'état de fermentation" ?

Mais on peut aussi partager le point de vue d’Albert Einstein et croire que la pensée ne se réduit pas au langage dans lequel elle s’exprime, qu’elle est souvent une forme d’intuition ineffable pouvant guider la recherche de nouveaux concepts, de nouvelles théories.

Elle doit cependant trouver une expression transmissible à travers un langage qu’il soit celui de notre expression verbale ou celui des mathématiciens et des physiciens qui se traduit en équations que seuls les initiés peuvent, parfois, partager.

Nul doute que le monde de la pensée est plus riche que l’expression et la mémorisation que l’on peut en faire et que l’on reconstruit en permanence en faisant appel, sous le filtre de nos émotions, à un langage pour l’exprimer.

Nul doute non plus qu’elle ne concerne qu’un tout petit sous-ensemble des multitudes de connections que notre cerveau active en permanence aussi bien en état de veille que durant notre sommeil.

La pensée consciente serait en quelque sorte une infime partie de notre activité cérébrale comme la matière n’est qu’un bien modeste contributeur par rapport à la matière noire qui constituerait l’essentiel de l’univers sans que nous puissions à ce jour pouvoir en déceler la présence autrement que par ses effets.


Patrice Leterrier

7 août 2014

Fichier PDF

Partager cet article

Repost0
18 juillet 2014 5 18 /07 /juillet /2014 16:30

big-bang-2.jpg


 

J

 

ean Paul Delahaye nous livre sur le blog de la revue pour la science SCILOGS un remarquable article sur le lien entre hasard et complexité.

Je vous laisse découvrir le raisonnement assez implacable de ce brillant mathématicien-informaticien en lisant son billet.

Il aboutit à cette conclusion, à la fois superbe et mystérieuse, "notre monde n'est pas uniforme, il est organisé un peu comme le serait le produit d'une multitude de calculs. C'est pour cela qu'il est connaissable, la simplicité (comme faible contenu en information) y est dominante, et la grande complexité structurelle y est naturellement rare."

Mais dire que le monde est organisé comme le produit d’une multitude de calculs ne pose-t-il pas assez directement la question de l’existence d’un grand ordonnateur évitant que l’univers ne soit que chaos et désordre ou tout simplement n’existe pas ?

La question n’est pas scientifique puisque le pourquoi il y a quelque chose plutôt que rien dans l’univers n’a et ne peut avoir de réponse scientifique à moins de mélanger science et religion.

La question de l’avant big-bang n’est pas plus élucidée de nos jours même si  elle est un sujet permanent de spéculations.

Par exemple la théorie des cordes, très en vogue de nos jours, prévoit que l’univers aurait suivi un chemin inverse à celui de l’après big-bang, une sorte de contraction aboutissant à un point zéro.

Elle ne fait qu’éluder la question d’une origine pour en arriver à la conclusion déjà formulée par Aristote d’un univers eternel.

Pour les physiciens, l’énigme de l’existence de l’univers revient à celle de la mystérieuse disparition de l’antimatière.

L’antimatière fut découverte par Carl David Anderson en 1932 avec la détection du positron (anti électron prévue par Paul Dirac en 1931).

Le modèle standard de la physique des particules a connu récemment une consécration majestueuse avec la découverte du boson de Higgs.

Cette particule, parfois appelée un peu pompeusement la particule de Dieu, était prévue presqu’un demi-siècle avant qu’elle accepte de vaincre sa timidité naturelle pour apparaître, certes un très court instant, dans les entrailles du LHC.

Et pourtant si solide que soit ce modèle standard avec ses particules et ses antiparticules, il ne nous donne pas la clé de l’organisation de l’univers.

C’est même le contraire puisque, selon ses prédictions, alors que notre Univers est peuplé de milliards de galaxies comportant des milliards d'étoiles, le cosmos devrait être quasi vide.

Comme l’écrit Guy Wormser, parlant de l’univers, "On sait qu'il nous cache quelque chose".

Le mystère de la victoire de la matière sur l’antimatière au moment du big-bang reste donc entier, comme la question de savoir ce que sont devenues les antiparticules.

Mais même si l’on arrivait à élucider ce mystère, il resterait celui de la cause d’une organisation de l’univers qui ne peut être le fruit d’un pur hasard.

Peut-elle se résumer à la seule lecture qu’en fait Homo sapiens suréquipé d’un cortex frontal sans équivalent (du moins à ce jour) mais qui lui joue bien des tours par ailleurs ?

Doit-on y voir la marque d’une intelligence suprême ou la simple bizarrerie d’une organisation de neurones ne voyant de l’univers que ce que ses capacités cognitives lui permettent d’imaginer ?

Au fond la question n’est-elle pas de savoir si cet ordre apparent que nous constatons n’est pas le pur fruit de l’intelligence humaine qui oscille en permanence entre la question du comment tout cela marche et celle qui torture les métaphysiciens et les philosophes du pourquoi sommes nous équipés de cette clairvoyance qui nous fait penser l’autre et l’univers en dehors de nous.

Jean Paul Sartre n’avait-il pas raison lorsqu’il disait la liberté ne consiste pas à "pouvoir ce que l’on veut mais vouloir ce que l’on peut" et dans ce sens nous invite-t-il pas à renoncer à répondre à la question de la cause d’un univers plutôt que rien ?


Patrice Leterrier

17 juillet 2014

Fichier PDF

Partager cet article

Repost0
24 juin 2014 2 24 /06 /juin /2014 21:02

 

Horloge-dali.jpg


 

E

 

n cette période d’été naissant, où le temps se met à vagabonder, comme si la chaleur lui donnait une langueur particulière, pouvons-nous prendre quelques secondes, voire dans une inconsciente libéralité, quelques minutes pour nous pencher sur ce temps qui passe.

Je ne parle pas du temps des physiciens qui se mesure en secondes comme la durée de 9 192 631 770 périodes de la radiation correspondant à la transition entre les niveaux hyperfins F=3 et F=4 de l’état fondamental 6S½ de l’atome de césium 133.

Pas plus de cette unité de temps qui rythme les processeurs de nos smartphones et qui bat un milliard de fois par seconde.

Je parle de ce temps dont certains prétendent hasardeusement qu’il s’écoule alors même qu’il n’est plus là quand il est passé et que seule notre imagination nous permet de lui donner corps lorsqu’il est à venir.

Il n’est pas nécessaire de rappeler combien la sensation de longueur ou au contraire de rapidité du temps varie considérablement selon notre état psychique et les activités qui nous occupent alors même que l’horloge, ce Dieu sinistre effrayant, impassible, dont le doigt nous menace, comme l’écrit Charles Baudelaire, poursuit imperturbablement son décompte sans fin.

Michel Siffre resté 61 jours sans aucun repère temporel au fond du gouffre de Scarrason dans les Alpes du sud, se croyait le 20 août lorsqu’il sorti en fait le 17 Septembre 1962.

Mon propos n’est pas de discourir en terme philosophique sur la vraie nature du temps, de parler de la trame du temps, d’envisager le passé, le présent et le futur, la triade bergsonienne sur laquelle nombre de candidats au baccalauréat ont eu souvent l’occasion de disserter.

Peut-être que cette douce somnolence qui suit parfois un repas bien arrosé de rosé vous a déjà envahi à la lecture de mes billevesées ?

Sinon m’accorderez-vous qu’il faut revoir aujourd’hui notre ressenti du temps qui passe à la lumière de ces incessantes sollicitations auxquelles nous soumet le monde connecté dans lequel nous sommes plongés ?

Car, aujourd’hui, nos portables, nos tablettes, nos ordinateurs rythment la rapidité avec laquelle nous vivons le temps qui passe.

Plus encore la vitesse à laquelle ils répondent à nos sollicitations influe grandement sur notre capacité à attendre les résultats.

Ainsi, si dans le silence majestueux des bibliothèques nos anciens prenaient le temps de rechercher, dans une consultation méthodique et laborieuse, des documents pour y dénicher une information rare et précieuse, nous ne supportons plus aujourd’hui qu’une question posée sur Google ne nous donne pas une foultitude de réponses instantanées.

Selon des études menées aussi bien par Google que Microsoft, un délai supérieur au temps nécessaire à cligner de l’œil, soit environ un quart de seconde suffit pour que l’utilisateur abandonne le site qu’il consulte.

Une vidéo qui met plus de deux secondes à démarrer subit le même sort.

De plus l’accélération des vitesses, comme par exemple la 4G sur les smartphones, ne fait qu’augmenter notre impatience au lieu de la réduire.

Sans compter bien sur le flot ininterrompu de messages sur Facebook, Twitter, de SMS qui dévaste en permanence notre rythme de vie.

Nous vivons dans l’univers de l’instantanéité où le temps de la réflexion n’a plus place.

Il ne fait pas de doute qu’une profonde transformation de notre ressenti du temps qui passe soit induite par la technologie.

Pourtant bien des activités humaines comme la science, l’art, la politique réclament que nous donnions du temps au temps, comme disait dans une formule un peu paradoxale un ancien président de la République, que nous ayons la patience d’attendre le murissement d’une idée, l’accomplissement d’une œuvre, le temps de la gestation d’une création, d’une découverte.

Il ne faudrait pas qu’au nom de cette vitesse souveraine, nous négligions de délicieux moments d’attente, la vertu de la patience dont on ne peut pas dire qu’elle soit particulièrement en vogue par les temps qui courent (mais où vont-ils ?).


Patrice Leterrier

24 juin 2014

Fichier PDF

Partager cet article

Repost0
16 juin 2014 1 16 /06 /juin /2014 13:28

exosquelette-2.jpg

A

 

u moment où on nous annonce avec un peu d’emphase que le test de Turing (l’impossibilité pour l’interlocuteur de distinguer un programme informatique d’un être humain) avait été réussi par un robot qui s’était fait passé pour une enfant de 13 ans maîtrisant mal la langue anglaise, au moment où pour l’ouverture du mondial on voit un enfant paralysé donner le coup d’envoi en actionnant un exosquelette à la seule force de sa pensée, Nicholas Carr publie un article sur une étude américaine remettant en cause le mythe du lien entre le "progrès" technologique et l'élévation corrélative de la "valeur cognitive" du travail.

Ce mythe ne remonte pas à hier puisque déjà Aristote comparait l’outil à l’esclave qui permettait selon lui à l’homme de libérer du temps pour des activités plus raffinées que les tâches manuelles.

La même idée est largement reprise par Marx, Keynes et Oscar Wilde au sujet de la révolution industrielle du XIXème siècle.

Certains, comme la journaliste économique du Time Magazine Annie Lowrey, n’hésite pas à voir dans cette envahissement de la technologie une libération.

La marche du progrès est en route.

Elle nous conduit vers une nouvelle complémentarité entre nos machines et nous qui ne peut se traduire que par plus de liberté et des activités de plus en plus riches pour l’homme.

Pourtant la lutte entre les machines et les travailleurs n’est pas d’hier. Déjà, en 1831, les canuts lyonnais brisaient les métiers à tisser de Jacquard qui les privaient de leur gagne-pain.

De nos jours des automates comme kayak remplacent les personnels des agences de tourismes, des robots délivrent sans la moindre intervention humaine des articles commentant des résultats sportifs, les clients scannent eux-mêmes leurs achats dans les supermarchés sans l’aide d’une caissière, depuis bien des années plus personne ne va retirer de l’argent auprès d’un guichetier à la  banque et les billets de spectacles, de voyages en avion ou en train se prennent en quelques clics sur internet.

Comme dans le même temps le niveau d’instruction générale s’est sensiblement amélioré l’équilibre devrait se déplacer vers des emplois à plus fortes valeurs ajoutées laissant les "cols blancs" à l’abri de l’envahissement de la technologie dans le monde du travail.

Quoi de plus rassurant en somme que de voir les progrès de la technologie pousser de plus en plus les travailleurs vers des tâches à plus haute valeur ajoutée ?

Mais faut-il déjà s’entendre sur la signification du mot valeur.

S’agit-il de plus de productivité et de profit pour l’entreprise ou de plus de compétence et de satisfaction pour le travailleur quand on sait que ces deux interprétations sont souvent en conflit ?

N’entend-on pas, par exemple, de nos jours de plus en plus de voix s’élever pour que le téléphone portable professionnel ne franchisse plus la porte de la vie privée comme c’est monnaie courante aujourd’hui ?

Si nous nous en tenons à des tâches plus épanouissantes parce que réclamant des compétences de plus en plus pointues, il faut cependant que cette hypothèse, comme toutes les théories les plus sophistiquées sur les conséquences du progrès technologique, affronte inévitablement le mur sans concession de la réalité.

Il est illusoire de penser que toutes ces merveilles de technologie qui prennent de plus en plus souvent des décisions à la place de l’homme soient conçues dans le but de permettre aux travailleurs d’avoir des emplois enrichissants alors même que leur rôle n’est plus souvent que de contrôler le fonctionnement sans autre apport que d’effectuer une procédure bien réglée lorsqu’un voyant s’allume signalant une anomalie.

Il est également illusoire de penser que les firmes qui mettent en œuvre ces technologies ne le fassent pas d’abord pour améliorer leur compétitivité et engranger plus de profit dont une partie sera réinvestie pour encore plus d’automatisation et moins d’employés pour réaliser les mêmes tâches.

Le cercle vertueux du progrès technologique s’il a nourri la croissance extraordinaire de la révolution industrielle, s’il a véritablement profondément modifié le monde du travail avec la révolution informatique, s’il ouvre des perspectives inédites avec l’explosion d’internet et la mondialisation de la culture, du savoir et de la création de valeur, ne semble cependant pas créer comme par magie ces emplois à forte valeur ajoutée libérateurs que nous promettent ses inconditionnels.

L’étude dérangeante des économistes américains Paul Beaudry, David Green et Ben Sand, semble démontrer au contraire que depuis le début des années 2000, le niveau de compétence des emplois aux États Unis ne cesse de baisser poussant de plus en plus de nouveaux entrants dans le monde du travail à prendre des emplois en dessous de leurs qualifications.

Outre le gaspillage que représente cette tendance, elle est à l’origine de frustrations qui ne sont certainement pas étrangères au désamour de la politique que l’on constate chez les plus jeunes ni à cette montée en puissance du populisme trouvant des causes externes à ce malaise profond.

Il est urgent de remettre l’homme et son épanouissement au centre des préoccupations économiques et politiques, de remettre les fantastiques progrès de la science et de la technologie au service de l’homme et non l’inverse.


Patrice Leterrier

16 juin 2014

Fichier PDF

Partager cet article

Repost0
1 juin 2014 7 01 /06 /juin /2014 12:18

reseaux-sociaux.jpg

N

ous laissons aujourd’hui des traces en continu de nos déplacements, de nos choix, de nos préférences, de nos achats.

30% des applications sur smartphone enregistrent nos localisations et peuvent donc nous suivre à la trace.

Nos cartes bancaires, cartes de transport comme navigo comportent aussi des données de localisation.

Les données que nous fournissons à travers les réseaux sociaux et les applications sur le web renseignent sur nos comportements, nos goûts, nos préférences, et permettent d’établir un véritable profil de notre personnalité.

Malgré la multiplicité immense des données recueillies dans les "big datas", notre empreinte numérique est aussi unique que notre empreinte digitale.

Les psychologues John, Donahue et Kentle ont développé en 1991 le concept de BFI (Big Five Inventory), une topologie des personnalités en 5 grandes caractéristiques psychologiques (ouverture à l’expérience, concienciosité, extraversion, agréabilité et névrosisme).

Cette topologie est largement utilisée pour déduire un grand nombre de nos caractéristiques sociales comme notre performance au travail ou notre capacité à prendre des décisions d’achat.

Des chercheurs du MIT ont montré que ce profil pouvait être déduit avec une assez grand fidélité de nos traces laissées sur internet.

En dehors du problème éthique que soulèvent ces possibilités de nous suivre à la trace et de nous connaître à notre insu, ne faut-il pas aussi se poser la question de savoir si cette interconnexion de plus en plus généralisée entre l’homme internautique et son environnement ne bouleverse pas aussi les schémas traditionnels de catégorisation sociale des individus.

C’est en tout cas l’opinion d’Alex Pentland, qui réanime à la sauce internet le vieux concept de Physique sociale d’Adolphe Quetelet.

Il pense que, en exploitant les Big Datas, les scientifiques vont pouvoir développer “une théorie causale de la structure sociale” et d’établir “une explication mathématique” de la société.

Pour Alex Pentland, les classes politiques et économiques sont des stéréotypes simplistes auxquels on devrait préférer des groupes de "pairs", définis par des normes communes.

La physique sociale "fonctionne en analysant les modèles de l'expérience humaine et de l'échange d'idée à travers les traces numériques que nous laissons tous derrière nous".

Cet échange incessant, favorisant la circulation des idées, structure le fonctionnement de la société.

D’après Pentland, "ce n'est pas seulement le plus brillant qui a les meilleures idées, c'est celui qui est le meilleur à récolter les idées des autres. Ce n'est pas seulement le plus déterminé qui mène le changement, c'est celui qui est le plus profondément engagé avec des gens qui partagent les mêmes idées que lui. ".

Nous devenons avant tout des "homo imitant" dont les comportements peuvent être déduits des comportements exemplaires d’autres personnes avec lesquels nous communiquons.

Faut-il voir un lien entre ce mimétisme numérique redéfinissant les échelles de valeur et l’évanescence de l’idéal humaniste hérité de la révolution qui plaçait la lutte contre les inégalités et l’intérêt général au-dessus des égoïsmes individuels ?

Thomas Piketty et Emmanuel Saez de l’Université de Californie à Berkeley montre "qu’après une longue période de réduction des inégalités de revenus, des années 1930 à la fin des années 1970, les politiques, fiscales notamment, conduites par les gouvernements ont renversé la tendance".

Est-ce cet emballement de l’enrichissement des plus riches et de l’appauvrissement dramatique des plus pauvres qui disqualifie les discours d’effort et de partage et alimente cette méfiance pour ne pas dire ce rejet de la politique incarnée par des hommes et femmes incapables de réveiller l’espoir ?

Leur plus grande responsabilité n’est-elle pas de laisser s’opérer une véritable décomposition de la vie politique laissant ainsi la place à des joueurs de flûte fustigeant l’autre, l’étranger comme la cause de tous nos malheurs ?

Pour Nicholas Carr "La politique est en désordre parce que la société est en désordre et non l’inverse".


Patrice Leterrier

1 juin 2014

Fichier PDF

Partager cet article

Repost0
20 mai 2014 2 20 /05 /mai /2014 12:54

Robot.jpg


L

a marine américaine finance un projet de développement de robots ayant des comportements moraux.

Même si le défi de définir à la fois théoriquement ce qu’est la compétence morale de l’homme et de la traduire en règles capables d’être mise en œuvre technologiquement est immense, pour autant que la morale obéisse à des règles formalisables, la tache n’est théoriquement pas impossible.

Certes pour agir moralement les robots devront atteindre un niveau de sophistication et de complexité très au delà de ce que nous connaissons aujourd’hui même dans les réalisations les plus avancés comme l’IBM Watson vainqueur au jeu jeopardize.

Il devra de plus à la fois être muni de possibilités sensorielles complexes et multiformes, de bases de données et de programmes vertigineux, d’objectifs téléologiques opérationnels visant à satisfaire une finalité morale.

Il devra également et peut-être surtout être doué de capacité d’adaptation sans commune mesure avec celles que possèdent les gentils ou méchants robots actuels pour adapter en permanence son comportement en vue de maximiser sa performance visant à satisfaire ses objectifs moraux.

Mais la question n’est théoriquement qu’une question de degré pas de type puisqu’aussi bien la morale se caractérise par un certain nombre de règles logiques et cohérentes dont les philosophes de Platon à Emmanuel Kant se sont acharnés à vouloir définir

Et tout ce qui est entièrement formalisable peut en principe être mis en œuvre dans une machine construite selon les mêmes règles générales. C’est une affaire de technologie.

Pour convertir un robot en un modèle de perfection morale kantienne il suffit de le programmer pour qu’il agisse uniquement "de telle manière que les principes qui le conduisent dans son action puissent devenir lois universelles sans contradiction."

Qu'elles soient empiriquement ou purement rationnelles, ou même postulées sur la base de la révélation surnaturelle, les règles et les règles pour construire des règles peuvent en théorie être intégrées dans des robots.

Depuis des milliers d'années, l’homme a inventé des outils et des machines de plus en plus sophistiqués avec la conviction que leur construction et leur utilisation permettrait d'améliorer nos vies.

Dans la mesure où de tels robots pourraient rendre notre vie meilleure, nous devrions dès lors les construire.

Mais dire que les robots pourraient être moraux n'est pas seulement de décrire leurs comportements, c’est aussi nous engager à certains types de comportements à leur égard.

Notre réticence actuelle pour traiter des machines comme les hommes n'est que la conséquence des différences fonctionnelles observables entre les hommes et les machines existantes de nos jours.

Si ces différences disparaissaient progressivement, notre réticence devrait s’estomper.

De nos jours nous préférons déjà des machines aux hommes pour un grand nombre d'opérations complexes avec parfois comme enjeu notre survie. Elles font voler nos avions, pilotent nos navires, dirigent nos usines automatisées, contrôlent des patients sans intervention humaine… etc.

Les machines et les outils font partie intégrante de la culture humaine et les robots moraux ne sont peut-être simplement qu’une inévitable évolution de l’emprise de la technologie sur notre devenir.

La tâche est certes immense et ce n’est probablement pas demain la veille que nous pourrons nous appuyer sur de telles machines pour guider moralement nos actions.

Mais il est probablement aussi inconséquent d’hausser les épaules à cette évocation que de se voir plonger dans une post humanité où l’homme aurait définitivement confié la marche du monde à des machines conçues par lui-même. Même si dans l’hypothèse, certes aujourd’hui peu probable, où nous parviendrions à construire une machine plus sage que l’homme lui-même, il serait logique de lui transférer le contrôle des nos actions, pour le bien et l'épanouissement humain.

Peut-être que les recherches financées par la marine américaine ne sont qu’un prétexte pour rassurer l’opinion sur la finalité des armes de plus en plus robotisées qui remplacent l’homme.

Peut-être que l’opinion est choquée des attaques aveugles et meurtrières de drones qui frappent, sans risque aucun pour ceux qui les actionnent, des populations au prétexte d’éliminer de dangereux terroristes.

Ces recherches ouvrent cependant une voix qui risque de modifier profondément notre regard sur ces machines dont nous avons la naïveté de croire que le fonctionnement est sous notre entier contrôle alors même que nous en dépendons aujourd’hui très largement sans pouvoir affirmer sérieusement que nous en contrôlons toutes les actions.


Patrice Leterrier

20 mai 2014

Fichier PDF

Partager cet article

Repost0
8 mai 2014 4 08 /05 /mai /2014 13:03

 

no_bocal.jpg


 

D

 

ans son livre "La peur de l'insignifiance nous rend fous", Carlos Strenger écrit : "Les nouveaux mécanismes de classement déterminaient la valeur de l'individu selon divers facteurs : nombre d'amis sur Facebook, nombre de résultats sur Google, place sur les listes toujours plus nombreuses des personnes les plus influentes, populaires, sexy, puissantes ou riches de telle ville, tel pays et, pour finir, de toute la planète.

Une nouvelle espèce était née :  Homo globalis - cette importante catégorie des gens dont l'identité se définit fortement par le fait qu'ils sont en prise directe sur l'infodivertissement global. Une fois marchandise, Homo globalis n'a plus été simplement le détenteur d'un portefeuille, mais est devenu le portefeuille lui-même, distribué dans le monde entier via le système d'infodivertissement."

L’homo globalis branché en permanence sur le net avec ses smartphones, ses tablettes, ses ordinateurs portables est-il devenu une sorte d’ersatz d’être humain qui se définit par le nombre d’amis qu’il a sur facebook, le nombre de tweets et de SMS qu’il envoie et qu’il recoit, sa notoriété sur google, le nombre d’articles qui parlent de lui ?

Nul doute que l’ère de la marchandisation de l’humain, ultime étape d’un néolibéralisme mondial triomphant, est en route.

Exister c’est publier, communiquer en apparence, être à la fois une victime et un acteur de cette infodivertissement global dont parle Carlos Strenger au risque d’être pris par la peur de l’insignifiance corollaire inévitable de cette assimilation du sens de l’existence aux biens matériels que l’on possède.

Pour autant, il n’y a aucune nécessité et encore moins de fatalité à réduire notre existence à cette façade du paraître.

Plutôt que d’être les spectateurs de ce théâtre de l’apparence, réincarnation moderne de la parabole de la caverne de Platon, nous avons toute liberté de devenir le créateur de notre vie en revenant à cette vieille notion d’humanisme.

Certes nous vivons dans une tension permanente entre notre héritage culturel et notre besoin de le critiquer, nos désirs et nos possibilités, notre attirance pour ce monde d’infodivertissement, d’échange et de partage et notre besoin d’introspection, de validation de nos croyances et de nos valeurs éthiques et morales.

Plus que jamais la sortie du cercle infernal d’agitation auquel nous invite le monde envahi par un déluge de sollicitations sonores et visuelles, nous nous devons d’examiner sans complaisance les principes fondamentaux de nos représentations du monde au risque de nous perdre sinon dans une quête stérile de paraître plutôt qu’être.

Dans un récent billet sur France Info, Etienne Klein pose, avec son acuité habituelle, la question du réalisme c'est-à-dire de savoir si "le monde nous est accessible et si on peut le saisir tel qu’il est en lui-même  ou bien nous est-il livré toujours accompagné d’une partie de nous-même, de ce que nous croyons savoir sur lui, de ce que nous pensons à propos de sa nature. Le réel peut-il nous apparaître autrement que déformé ou masqué, augmenté ou rétréci"

Il cite le phénoménologue Jean-Luc Marion. Selon lui, l’inventeur du courant réaliste en peinture Gustave Courbet "ne fait pas voir l’invisible mais l’invu, ce non encore vu, qui, dans les limbes, attend encore qu’une main le rende visible, le fasse passer au grand jour de la visibilité et l’introduise au concert des visibles".

N’est-il pas plus que jamais, dans ce capharnaüm qu’est le théâtre du net, nécessaire de devenir des réalistes résistants qui refusent l’apparence du visible pour rechercher la quintessence de l’invu, celui qui donne du sens à notre trajectoire, qui nous libère du carcan consumériste dans lequel on cherche à nous enfermer ?

En quelque sorte sortir de ce qu’Emmanuel Kant appelait le sommeil dogmatique, de revenir aux valeurs des Lumières occidentales qu’il définissait comme "la sortie de l’homme de sa minorité dont il est lui-même responsable".


Patrice Leterrier

8 mai 2014

Fichier PDF

Partager cet article

Repost0