Overblog
Suivre ce blog Administration + Créer mon blog
4 mai 2014 7 04 /05 /mai /2014 13:07

 

optique-fibre_9d.jpg


 

L

 

e monde d’internet et du téléphone portable est envahi de cigles dont peu de monde se préoccupe de leurs significations.

On parle de 4G, de bluetooth, de WIFI, d’ADSL, de CPL, d’Ethernet sans vraiment mettre du sens derrière ces acronymes.

Pourtant aucun de ceux-ci, qui sous-tendent des technologies de pointe, n’existaient il y a seulement moins d’un demi siècle.

Le premier d’entre eux, qui est la véritable colonne vertébrale d’internet, Ethernet fut inventé dans les années 1970 par des chercheurs du laboratoire Parc de Xerox.

On date parfois l’invention d’Ethernet au 22 mai 1972, date de la publication du memo de Robert Meltcafe, mais le brevet US4063220 concernant son invention a été déposé par Meltcafe et son équipe du Xerox Parc le 31 mars 1975 et publié plus de deux ans plus tard le 13 décembre 1977.

Il était né de la nécessité, nouvelle pour l’époque, de relier des centaines d’ordinateurs dans un même bâtiment.  

Bien qu’ayant été quelque temps en concurrence avec la technologie de l’anneau à jeton promue par IBM pour contrer DEC qui avait pris fait et cause pour Ethernet, il s’imposa finalement sans contexte comme Windows de Microsoft face à l’OS/2 d’IBM dans le monde du PC.

Malgré sa supériorité théorique, le développement de l’anneau à jeton, qui fut d’abord un succès pour les réseaux d’entreprise, se trouva vite freiné et finit par disparaître de l’arène à cause de sa relative complexité comparée à celle d’Ethernet et de la politique de royalties d’IBM qui grevât définitivement le coût de sa technologie.

Aujourd’hui Ethernet domine le marché des réseaux d’entreprise. Tous les ordinateurs et tous les décodeurs de télévision sont équipés du fameux port RJ45 (registred jack) permettant de se connecter en Ethernet sur la box du fournisseur d’accès à internet.

Les courants porteurs, utilisés depuis les années 50 pour télécommander des éclairages publics et des relais en unidirectionnel, n’apparaissent dans le monde informatique qu’au début des années 2000.

Les adaptateurs CPL (courant porteur en ligne) sont alors disponibles et utilisés massivement pour transporter les protocoles Ethernet à l’intérieur de l’habitation sur le réseau électrique de la maison.

Ils libèrent l’utilisateur de la contrainte de proximité entre la prise téléphonique, la box du fournisseur, l’ordinateur de la maison et la télévision.

Le développement des équipements proposant du WIFI a diminué un peu l’intérêt des courants porteurs, alternatives à des câblages en Ethernet des bâtiments, d’autant plus que ce mode de connexion est devenu le standard généralisé pour les smartphones, les tablettes, les ordinateurs portables et même aujourd’hui les imprimantes domestiques.

Le WIFI, technologie de transmission sans fil (wifi signifiant wireless fidelity par analogie à Hifi dans le domaine du son) est apparu en 1977 sous le nom de norme 802.11.

Il est aujourd’hui le mode presqu’universel de connections des appareils du monde du geek.

Quant au bluetooth, visible chez certains utilisateurs se promenant avec une oreillette sans fil, il permet également par exemple de transférer des photos depuis votre téléphone sur votre ordinateur.

La norme, due au suédois Ericsson en 1994, emprunte son nom au roi danois Harald Ier surnommé "Harald à la dent bleue" ou encore Harald aux dents gâtées (en anglais Harald Bluetooth) unificateur de la Norvège, du Danemark et de la Suède.

Cette norme, qui utilise les ondes radios, s’imposera vite comme l’outil privilégié des téléphones portables, des consoles de jeux et accessoires comme kits mains-libres, souris, claviers, imprimantes et autres périphériques sans fil.

La norme a évolué d’abord pour augmenter le débit et le porter avec la génération 3.0 jusqu’à 24 Mégabits/s pour se concentrer ensuite avec la version 4.0 sur l’économie d’énergie et la distance portée théoriquement à un rayon de 100 mètres.

Mais le développement de l’internet dans les foyers n’aurait jamais été possible si la généralisation de l’ADSL, apparu en 1997, n’avait permis d’atteindre des débits de 20 Mbits/s en descendant, inimaginable il y a seulement 20 ans, sur une simple paire de cuivre reliant les centraux téléphoniques de France Télécom aux domiciles des particuliers.

Le protocole ADSL est Asymétrique c'est-à-dire que le débit du fournisseur vers l’utilisateur (celui des films, télévisions et images reçues) est plus de 20 fois supérieur à celui de l’utilisateur vers le fournisseur (de l’ordre de 800 Kbits/s en pointe). 

La quatrième génération (4G) de téléphone portable, aujourd’hui disponibles chez tous les opérateurs de téléphonie portable, bat sans contexte l’ADSL en terme de débit surtout en montant (utilisateur vers fournisseur) tant que la fibre optique n’atteindra pas de manière massive les habitations des particuliers et permettant des débits de 100 Mbits/s symétrique.

On est loin du vieux réseau téléphonique commuté (RTC) qui permettait de se connecter à internet, avec le bruit de crécelle caractéristique du modem, à 128 kbit/s il y a moins d’une vingtaine d’années !


Patrice Leterrier

4 mai 2014

Fichier PDF

Partager cet article
Repost0
1 mai 2014 4 01 /05 /mai /2014 08:35

Chester-Carlson.jpg

Chester Carlson et son invention


E

n 1967, le jeune ingénieur en optique Gary K. Starkweather n’avait pas encore 30 ans. Il avait intégré le prestigieux laboratoire Webster Research Center de Xerox à Rochester. Les moyens étaient considérables et les salles machines étaient pleines de ces mainframes qui fleurissaient comme des champignons à cette époque.

Cet homme, qui allait se distinguer par son originalité, son attachement à la religion et son entêtement à poursuivre ses idées envers et contre tous, se posa cette question à priori folle à l’époque et surtout iconoclaste dans l’empire de la copie : "What if, instead of copying someone else's original, which is what a facsimile does, we used a computer to generate the original?"(1)

A cette époque les lasers étaient des instruments hors de prix mais cela ne troubla pas Gary qui était persuadé que leur coût allait drastiquement baisser dans les années à venir. 

Lorsqu’il parla à ses chefs de son idée d’utiliser un rayon laser pour imprimer directement sur un copieur xérographique, ceux-ci pensèrent avoir la confirmation que ce garçon était définitivement fou.

Pendant longtemps la production de document typographique était restée l’apanage de spécialistes manipulant des appareils complexes hors de portée de tout un chacun qui raffinaient sans en changer le principe l’invention de Jean Gutenberg redécouvrant en 1450 la typographie déjà inventée par les chinois vers le 11ème siècle.

Quant à la reproduction elle faisait appel a des procédés chimiques comme la diazographie, héritière de la technique du cyanotype, mise au point en 1861 par Alphonse Poitevin.

Le brevet, déposé le 4 avril 1939 par un certain Chester Carlson, allait radicalement changer le monde de la copie.

Ce jeune chercheur américain de 33 ans avait réussi pour la première fois une dry-copy par un procédé d’électrophotographie qui allait révolutionner le monde de la reproduction sous le nom de Xérographie (du grec xeros qui signifie sec et graphein pour écrire ou graver).

Le processus est basé sur le dépôt de poudre d’encre chargé électriquement sur un support ayant été polarisé par des rayons lumineux avant de la transférer sur papier.

Le principe général de l'électrophotographie aurait été découvert par le physicien français Jean-Jacques Trillat en 1935. Il le présenta à la société Kodak qui déclara l'invention sans avenir commercial.  

Chester Carlson essuya lui aussi un refus de Kodak. Il vendit son brevet à l'institut américain Batelle Development Corporation qui le revendit à son tour en 1947 à une petite firme l’Haloid Company qui allait, grâce à cette innovation, devenir le géant Xerox en empruntant la racine du procédé de Carlson comme nom.

A la fin des années 60, à l'échéance du brevet d'invention, Xerox vivait sur son empire du copieur dont il détenait 95% du marché et ne marquait qu’un goût très limité pour la nouveauté.

Mais, malgré la réticence de ses chefs, Gary K. Starkweather, s’entêta en dépit des menaces de lui retirer son équipe s’il continuait ses expériences folles.

Il poursuivit ses travaux en secret. Le premier prototype de son imprimante laser fut opérationnel en 1969. Il l’avait construit en bidouillant un copieur xérographique.

Gary Starkweather avait remplacé le système de capture d’image par un dispositif de 8 miroirs déviant un rayon laser pour insoler le tambour du copieur. La machine fut construite en moins de deux semaines mais le logiciel pris environ 3 mois pour être mis au point.

Lorsqu’il entendit parler de l’ouverture du centre Xerox PARC de Palo Alto à trois milles du siège de Xerok à New York, Gary alla trouver un vice President de Xerox et le menaça de quitter l’entreprise pour rejoindre IBM.

Il finit par obtenir gain de cause et rejoignit le centre en janvier 1971. Dans les dix mois qui suivirent son arrivée, il put concrétiser son projet. Il nomma sa création SLOT, un acronyme pour Scanned Laser Output Terminal. Le système de commande numérique et générateur de caractères pour l'imprimante ont été développées par Butler Lampson et Ronald Rider en 1972.

Après avoir mis au point l'imprimante EARS pour le réseau du système informatique Alto du PARC, les travaux de Gary Starkweather permirent le lancement du système Xerox 9700 qui suivit celui de l’imprimante IBM 3800 qui régnât longtemps dans les grands centres informatiques.

Mais les dirigeants de Xerox, trop frileux et jaloux de conserver leur empire, ne virent pas que le mariage de la xérographie, du laser et de l’informatique allait bouleverser définitivement le monde de l’impression personnelle.

Ils ne perçurent pas l’intérêt des imprimantes lasers pour l’informatique individuelle dont le modèle économique était basé sur le coût des toners et du papier.

Une fois de plus, Ils laissèrent le champ libre à un concurrent, Hewlett-Packard, qui introduisit avec le succès qu’on connait la première imprimante Laser individuel en 1980.

Gary finit par quitter Xerox en 1987 au bout de 24 années de bons et loyaux services pour rejoindre Apple en 1987. Dix ans plus tard il intégra Microsoft où il est toujours

Lors d’une récente interview il déclarait "The corporate immune system often rises up to kill an new idea that threatens to challenge the way business is presently being done."(2)

L’histoire de Xerox, innovateur avec l’ordinateur révolutionnaire Alto et l’imprimante laser, est un parfait exemple de ce travers génétique des géants qui dominent leur marché.


Patrice Leterrier

30 avril 2014

 

(1) Et si, au lieu de copier l'original de quelqu'un d'autre, de faire un fac-similé, nous utilisions l’ordinateur pour produire l'original?

(2) Le système immunitaire de l'entreprise se mobilise souvent pour éliminer toute idée nouvelle qui risquerait de remettre en question la façon dont elle fait actuellement ses affaires.

 

Fichier PDF

Partager cet article
Repost0
25 avril 2014 5 25 /04 /avril /2014 17:40

 

mouse.jpg


 

O

 

n pourrait croire que l’histoire de la souris informatique a commencé en décembre 1979 le jour où Larry Tesler, un brillant ingénieur du Rank Xerox Parc, a manipulé un étrange objet rectangulaire relié par un fil à l’ordinateur Xerox Alto devant un certain Steve Jobs.

Tout excité par ce qu’il voyait pour la première fois, Steve Jobs se serait écrié que Xerox pourrait "pulvériser tout le monde" avec une telle innovation.

En fait l’histoire de la souris avait commencé une décennie plus tôt.

Le 9 décembre 1968, Douglas C. Engelbart présentait, dans ce qui restera pour l’histoire "la mère de toutes les démos", le projet NLS ou oN Line System.

Il posait les fondations de ce qui allait devenir l’informatique actuelle et notamment il présentait la première souris de l’histoire de l’informatique.

Douglas C. Engelbart avait conçu le dispositif. Bill English construisit le premier prototype en bois.

Le 21 Juin1967, Engelbart avait déposé une demande de brevet sous le nom de "X-y position indicator for a display system" pour une coque en bois avec deux roues en métal qui sera publié le 17 novembre 1970.

Le Stanford Institue Research accorda plus tard une licence de ce brevet à Apple pour 40 000 $.

Douglas C. Engelbart, qui nous a quittés le 2 Juillet dernier à l’âge de 88 ans, dirigeait à l’époque un groupe de 17 chercheurs de l’ARC (Augmentation Research Center) du Stanford Research Institute.

L'ARC deviendra le premier serveur de domaine de l’histoire des réseaux.

Il fut aussi le gestionnaire des connexions de l'ARPANET, l’ancêtre d’internet.

La souris d’Englebart était un prototype et celle de Xerox un objet complexe, cher et fragile.

Lorsque Steve Jobs confia à Dean Hovey le projet de concevoir la souris d’Apple, il lui dit : "[the Xerox mouse] is a mouse that cost three hundred dollars to build and it breaks within two weeks. […] Our mouse needs to be manufacturable for less than fifteen bucks. It needs to not fail for a couple of years, and I want to be able to use it on Formica and my bluejeans"(1).

La première chose que fit Hovey ce fut d’acheter tous les déodorants corporels à boule qu’il put trouver.

Ses achats n’avaient rien à voir avec une sudation excessive liée à son entretien avec Steve Jobs.

Il voulait comprendre comment enfermer une bille dans un logement bon marché.

L’idée de génie fut d’éviter de construire un objet complexe plein de roulements comme l’était la souris de Xerox.

La bille d’Hovey tournait dans son logement avec seulement deux points de friction comme il avait pu la faire tourner avec deux doigts de sa main en recherchant une solution.

Le génie de Steve jobs et son équipe n’a pas été de copier l’objet de Xerox mais bien de partir de l’idée pour concevoir une souris légère, pratique et surtout bon marché.

Lorsqu’on lui reprochait le plus grand vol industriel de l’histoire, Steve Jobs répondait en citant Picasso "Les bons artistes copient, les grands artistes volent".

Il a aussi repris le concept de l’interface utilisateur graphique, des icônes et des fenêtres mais pour en faire l’environnement intuitif que nous manipulons encore aujourd’hui avec les doigts (sans feue la souris !) sur nos smartphones ou tablettes.

Dans l’histoire de la souris, Engelbart a été le visionnaire qui nous a fait rêver 16 ans avant la sortie du Macintosh en janvier 1984.

Les équipes de Xerox Parc ont su réaliser le premier véritable ordinateur personnel moderne jamais construit avec le concept de fenêtre, la souris pour manipuler des icônes sur un écran, une imprimante laser et la première connexion ethernet, base de l’internet d’aujourd’hui.

Mais l’ordinateur Alto de Xerox a été un fiasco commercial parce qu’il était trop lent, trop cher et surtout parce que les dirigeants de Xerox n’avaient pas compris qu’ils pourraient "pulvériser tout le monde".

Lorsque Steve Jobs, viré du projet Lisa à cause de ses colères, rejoint le projet Macintosh il veut implémenter en les adaptant les concepts qu’il a découvert chez Xerox.

Mais il voulait tout contrôler et il s’opposa à l’initiateur du projet Jef Raskin qui finit par démissionner. Jef Raskin serait à l’origine de l’unique bouton de la souris du Macintosh.

En 1996, lors de l'inauguration de la Bibliothèque François Mitterrand, Jacques Chirac avait naïvement demandé à son ministre de la Culture de l’époque, Jacques Toubon, ce qu’était... une souris. Les guignols de l’info le transformèrent en mulot.

J’ai aussi souvenir de cet opérateur, habitué à utiliser un écran muni d’un ligth pen, observant cet objet insolite et posant dubitatif sa souris sur son écran.

S’il avait fait s’esclaffer les informaticiens que nous étions, on peut aussi dire qu’il n’avait, en fait, qu’un peu d’avance puisqu’aujourd’hui c’est bien en posant nos doigts plus ou moins gras sur les écrans des tablettes et smartphones que nous les pilotons, enfin quand ils nous obéissent...


Patrice Leterrier

25 avril 2014

 

(1) [la souris Xerox] est une souris qui a coûté trois cents dollars à fabriquer et elle se casse au bout de deux semaines.[…] Notre souris doit pouvoir être fabriqué pour moins de quinze dollars.Elle doit fonctionner pendant au moins deux ans, et je dois pouvoir l'utiliser aussi bien sur du Formica que sur mes blue-jeans.

 

Fichier PDF

Partager cet article
Repost0
17 avril 2014 4 17 /04 /avril /2014 11:17

 

numeration-babylone.jpg


 

A

 

ujourd’hui tout notre univers est codé. Lorsque nous parlons du génome humain, du code de la vie, c'est en réalité de son image en binaire dont nous parlons.

Si, comme l’affirme Alfred Korzybski, la carte n'est pas le territoire, le codage n'est pas plus l'objet qu’il code.

Mais dans le monde virtuel numérique et "internautique" dans lequel nous baignons le rôle du codage devient primordial.

Alors pourquoi ce monde numérique est-il aussi binaire alors que nous comptons essentiellement en décimal (sauf pour l’heure) et les anglais, qui ne font rien comme tout le monde, dans des bases multiples ?

Pourtant il est aisé de démontrer que le codage le plus "efficace" devrait être théoriquement la base du logarithme népérien, le nombre réel e qui vaut 2,71828..., ce qui justifia les tentatives d'ordinateurs ternaires.

Elles ont été essentiellement l’œuvre les russes comme le Setun, conçu en 1958 en Union soviétique à l'Université d'État de Moscou par Nikolaï Broussentsov.

Pour éclairer par l'exemple ce qu'on entend par "meilleur" système de numération, prenons un exemple simple :

Avec 3 groupes de 10 chiffres soit au total 30 positions élémentaires, on représente des nombres de 0 à 999 en système décimal.

Avec les même 30 positions en système binaires on aura 15 groupes de 2 chiffres qui permettent de représenter des nombres de 0 à 32 767.

En ternaire, on dispose de 10 groupes de 3 chiffres soit  des nombres de 0 à 59 048.

Mais les systèmes de numération n'ont pas toujours eu comme base 10.

Elle ne s’est imposée en France qu’avec l’adoption du système métrique décimal le 7 avril 1795.

Les babyloniens utilisaient la base 60 dont il reste aujourd'hui des vestiges avec la façon dont on compte les heures et le nombre 60 et 10

Ils écrivaient les nombres en alignant les puissances de soixante, 5 dizaines et 9 unités.

Ainsi, parexemple, le nombre 4 655 s'écrivait :

nombre-bab-4.jpg
Soit en écriture décimale 1, 10 et 7, 30, 5 qui représente : 602+17*60+30+5=4 655

On remarquera aussi que les babyloniens ne codait d’abord pas le zéro.

Les scribes introduiront plus tard un séparateur 

separateur bab 1

 

 

ou

separateur-bab-2.jpg

 

 

pour distinguer clairement

nombre-2-bab.png  2

de

nombre-61-bab.jpg 61

mais il ne s’agissait pas d’un nombre, probablement introduit par les indiens et repris et diffusé par les arabes.

Revenons à la démonstration du "meilleur" système de numération.

Soit un système de numération de base unique (on ne considère donc pas les systèmes à bases multiples comme le système babylonien par exemple).

En utilisant l’écriture positionnelle, avec m chiffres il sera possible d’écrire au maximum N=bm nombres compris entre zéro (tous les chiffres sont nuls) et bm - 1  (tous les chiffres sont égaux à b-1, qui est le chiffre maximal dans le système de base b).

Le nombre total de chiffres nécessaires pour représenter n’importe quel numéro de l’ensemble N sera m*b (b chiffres (y compris 0) dans chacune des m positions).

Le système le plus économique sera donc celui qui, pour un N donné, emploiera le nombre le plus réduit d’éléments de représentation, c'est-à-dire celui qui rendra la fonction m*b minimum.

En remplaçant m par LN(N)/LN(b) (LN pour logarithme népérien), ce minimum coïncidera avec celui de b/LN(b) dont la dérivée s’annule pour LN(b)–1=0 soit LN(b)= 1 ou b=e, base des logarithmes népériens qui vaut 2,71828…

La base entière la plus proche de e est 3 et donc le système ternaire est plus avantageux que le système de base 2.

On peut aussi dire que, même si le système ternaire est plus complexe, il se base tout de même sur 3 états possibles facilement réalisable en électronique : pas de potentiel, potentiel positive, potentiel négative alors que le système binaire ne mesure que la présence ou l’absence de potentiel électrique.

Notons également que la mise en œuvre d’un système ternaire peut s’accompagner de l’implémentation d’une logique non booléenne, c'est-à-dire l’abandon du principe du tiers exclu, qui est la base de tous les circuits électroniques actuels.

La logique ternaire n’est cependant pas si antinaturelle qu’il y parait.

Déjà, dans le banquet, Platon utilisait déjà des formulations trivalentes comme favorable, défavorable, indifférent qui sont si souvent utilisées dans les sondages ou encore morale, immorale, amorale.

Mais, malgré les espoirs en matière d’évolution de la logique et de la numération ternaire, la simplicité et l’explosion de la technologie binaire, selon la loi de Moore toujours applicable, font que le monde numérique d’aujourd’hui est résolument et probablement définitivement binaire.

Puissions souhaiter que la pensée humaine ne soit pas elle aussi binaire et manichéenne…


Patrice Leterrier

13 avril 2014

Fichier PDF

Partager cet article
Repost0
13 avril 2014 7 13 /04 /avril /2014 08:19

Ferme-de-serveurs.jpg

A

ujourd’hui il parait trivial à l’internaute, tapant un mot clé sur un moteur de recherche, d’obtenir instantanément une kyrielle de réponses d’ailleurs plus ou moins pertinentes avec la question posée.

Par exemple, l’interrogation "base de données" sur Google donne 20 millions de références en moins d’1/3 de seconde.

Evidement des recherches aussi peu précises ne renseignent pas vraiment sur le sujet et il faut affiner la question pour obtenir des résultats plus significatifs.

Ainsi si on cherche plus précisément un titre comme "introduction pratique aux bases de données relationnelles" on obtient simplement 40 000 réponses.

Il a fallu de nombreuses années de recherche en informatique et en mathématique théorique et des milliards de dollars d’investissement dans de gigantesques fermes de serveurs pour que les informations innombrables contenues sur la toile puissent être accessibles avec une telle efficacité.

Les puissants algorithmes qui permettent cet exploit sont d’ailleurs précautionneusement et jalousement protégés par leurs propriétaires.

Mais serez-vous surpris, ayant fait ce type de recherche, d’être ensuite envahi de publicités portant sur le sujet que vous avez exploré ?

C’est l’effet big brother qui fait que ces grands dévoreurs d’informations que sont Google, Facebook, Apple et quelques autres entretiennent d’immenses bases de données sur nous, nos goûts, nos comportements, nos déplacements et bien d’autres choses encore à venir avec l’émergence de l’internet des objets.

Les gigantesques silos à données, accumulant des millions voire des milliards de teraoctets ne servent pas seulement à indexer et conserver les références de milliards de documents textes, voix, images, données formatées que ces dévoreuses d’information récoltent en permanence mais ils gardent, dans de gigantesques bases de données, les informations personnelles que nous leur avons confiées volontairement ou involontairement.

On est vraiment très loin des premiers ordinateurs qui ne faisaient que généraliser les capacités des tabulatrices c'est-à-dire des totalisations, des multiplications, des divisions sur les champs numériques de fichiers cartes, par définition, séquentiels.

Les enregistrements étaient à l’origine de longueur fixe, de la taille des cartes de 80 colonnes soit 80 caractères alphanumériques ce qui obligeait  à se limiter au strict nécessaire dans les fichiers.

On se souvient d’ailleurs de la grande peur du bug de l’an 2000 lié au fait que, pour économiser de la place dans les fichiers, les dates avaient été codées sur seulement 2 caractères et que forcément 2000 codé 00 se trouvait ainsi devenir une date antérieure à 1999 codé 99.

L’apparition du disque en 1956 avec l’annonce par IBM du RAMAC 305 permit de se libérer de la contrainte de lecture séquentielle qui imposait de faire défiler 99 cartes avant de lire la 100ème lorsqu’on voulait accéder seulement à celle-ci.

Elle libéra plus tard, avec l’apparition de fichier séquentiel indexé, de l’accès par la position ramenant la recherche à une lecture séquentielle d’un index pour connaître la position d’un enregistrement recherché sur le critère d’une clé unique comme par exemple un matricule.

Vinrent ensuite les premières bases de données hiérarchiques et réseaux qui visaient à éliminer la redondance de données et aussi à assurer une meilleure cohérence en évitant les duplications de champs, source d’erreurs à la saisie et encore plus à la mise à jour.

Elles permettaient aussi l’utilisation simultanée par plusieurs programmes puis avec l’avènement du télétraitement par plusieurs utilisateurs.

Mais déjà à la fin des années 60, Edgard F. Codd, dont la formation de mathématicien incitait à définir un cadre rigoureux aux concepts des bases de données, s’appliquait à trouver un formalisme unique pour définir la manière dont les données pouvaient être stockées, mises à jour et extraites des bases de données. Il fallait aussi obtenir des réponses cohérentes à des requêtes tout en permettant la mise à jour des informations.

Ainsi naquit le concept de base de données relationnelles qui domine encore aujourd’hui le marché toujours aussi dynamique des fournisseurs de gestionnaires de Bases de Données dont les plus représentatifs sont, par ordre alphabétique, IBM avec DB2, Microsoft avec SQL Server, Oracle et Sybase pour ne citer que les principaux.

Le langage SQL, désormais universellement connu, fut formalisé pour la première fois par Donald Chamberlain et Raymond Boyce dans un article paru en 1974 dans ACM : "SEQUEL: a structured english query language".

Le nom de SEQUEL ne put être retenu parce que c’était déjà une marque déposée par Hawker Siddeley Aircraft Company et le standard s’imposa sous le nom de SQL.

Raymond Boyce, prématurément disparu en 1974, laissa son nom à la postérité relationnelle pour son travail avec Ted Codd sur la normalisation des tables relationnelles avec la BCNF ou Boyce and Codd Normal Form.

Sans ces précurseurs, les incroyables progrès de la technologie et les avancées de la science informatique en matière de recherche et de stockage, les gigantesques bases de données qui font la richesse des leaders de l’internet n’auraient pas vu le jour.

Nous sommes quelques uns à avoir partagé l’enthousiasme de ces chercheurs alors que la technologie balbutiante ne nous donnait pas vraiment encore l’occasion d’exploiter les immenses possibilités que leurs travaux laissaient entrevoir.

Nous étions loin des  pétaflops, des petaoctets et des 1/3 de seconde de temps de réponse d’un google d’aujourd’hui même si nous rêvions déjà d’un mythique sub second response time, ce fameux délai qui évite à la pensée de décrocher et qui joue un si grand rôle dans le succès des appareils modernes comme le smartphone.


Patrice Leterrier

13 avril 2014

Fichier PDF

Partager cet article
Repost0
3 avril 2014 4 03 /04 /avril /2014 07:45

ibm_ramac_305.jpg

A

 

u début de l’informatique, le problème du stockage des informations était critique.

Les cartes perforées, qui ont longtemps fait la richesse d’IBM, étaient trop lentes à lire, à perforer et trop encombrantes.

Elles entravaient le développement des applications et demandaient des manipulations fastidieuses d’inter-classements et de tris.

L’idée du stockage sur supports magnétiques trainait dans l’air lorsque des chercheurs du laboratoire IBM de Poughkeepsie près de New York songèrent à adapter les bandes magnétiques utilisés dans le magnétophone pour y stocker des données. Il fallut inventer les colonnes à vide pour que les bandes supportent des arrêts brusques tout en permettant leurs défilements rapides.

Ainsi naquit le premier lecteur/enregistreur de bandes magnétiques de la firme l’IBM 726 annoncé en 1952.

Il avait été conçu pour se connecter à l’ordinateur de première génération l’IBM 701.

Il fallut convaincre les clients que ce support était fiable et qu’il pouvait avantageusement remplacer les monceaux de cartes perforées qu’il fallait stocker à l’abri de l’humidité pour les conserver (une seule bande magnétique de 25 centimètres de diamètre pouvait remplacer 35 000 cartes perforées).

Mais les bandes magnétiques, aussi fiables et performantes qu’elles fussent, ne résolvaient et pour tout dire aggravaient même le problème de la mise à disposition rapide des informations qu’elles contenaient en multipliant les capacités de stockage.

L’US Air Force voulait disposer d’un système lui permettant de suivre et de mettre à jour ses stocks, une fois les équipements vérifiés, sans avoir à attendre les fastidieux traitements par lot des données.

Elle soumit sa demande à IBM qui confia ce projet au tout nouveau directeur du laboratoire de San José qui venait d’être créé, Reynold Johnson.

Cet ancien professeur de lycée n’avait pas d’idée préconçue.

Toutes les formes possibles de support furent envisagées mais au terme de nombreux essais, le consensus se fit sur l’utilisation de disques à rotation horizontale recouverts d’oxyde de fer.

Il fallait que ces disques soient suffisamment légers pour être entrainés par des moteurs de taille acceptable et suffisamment rigides pour ne pas se voiler à grande vitesse.

La solution fut trouvée en collant ensemble deux disques en aluminium mais le projet faillit s’interrompre lorsque, lors des essais, un des disques se cassa et dans sa course folle fractura le nez d’un des chercheurs et sectionna le tendon du pouce d’un autre.(1)

L’équipe persista cependant en faisant ses essais à l’abri de sacs de sable !

Comme un seul disque ne permettait pas de stocker suffisamment d’information, Johnson et son équipe eurent l’idée de les empiler les uns sur les autres dans une sorte de jukebox, ce qui valut à l’engin des surnoms peu flatteurs comme celui de "trancheuse bidon".

C'était une forme de retour au source puisque la compagnie Computing Tabulation Recording, qui allait devenir IBM, fabriquait des trancheuses à viande.

Il fallait que la tête de lecture se déplace d’abord verticalement pour sélectionner le disque visé puis horizontalement pour atteindre la piste où se trouvait l’enregistrement recherché.

Ainsi était né le premier système à disque magnétique l’IBM RAMAC 305 qui fut annoncé en grande pompe le 4 septembre 1956.

Il comprenait 50 disques de 24 pouces (61 cm), tournant à la vitesse de 1200 tours par minute, d’une capacité totale de stockage de 5 millions de caractères en décimal codé binaire sur 7 bits (soit l’équivalent de l’annuaire téléphonique de Manhattan).

Il permettait d’accéder aux données avec un débit de 100 000 bits par seconde.

L’armoire qui abritait le système pesait pas loin d’une tonne et avait les dimensions imposantes de 1,52 m de largeur, 0,74 m de profondeur et 1,72 m de haut. La profondeur était limitée par la règle qui voulait qu’il puisse passer par une porte standard.

Dans le communiqué de presse daté du 14 Septembre 1956 Thomas Watson Jr. n’hésite pas à dire : "Today is the greatest new product day in the history of IBM and, I believe, in the history of the office equipment industry"(2).

Il n’avait pas tout à fait tort puisque le disque dur, dont les performances ont été multipliées par des facteurs astronomiques, sont aujourd’hui l’outil de stockage de données le plus employé à travers le monde depuis le plus simple décodeur de télévision jusqu’aux gigantesques superordinateurs.

Songez qu’aujourd’hui on trouve des boitiers offrant, pour moins de 70 euros, 1 To (tera octets soit un million de millions de caractères) de capacité sur des disques dix fois plus petits de 2,5 pouces (6,35 cm).

Seagate vient d’annoncer un disque au format 2,5 pouces d’une capacité de 2 To alors qu’Hitachi Global Storage Technologies lance le premier disque à l’hélium au format 3,5 pouces d’une capacité de 6 To.

A l’époque de son annonce le RAMAC 305 n’était disponible qu’en location au tarif de 3 200 $ par mois soit une valeur approximative de 160 000 $ à l’achat (l’équivalent, selon l’INSEE, d’environ 2,3 millions d’euros fin 2013).

Si ces petites merveilles de technologie sont clairement les descendants du RAMAC d’IBM, le prix du stockage a été divisé en un demi-siècle par plus de six milliards et la densité de stockage par plus de 300 millions.


Patrice Leterrier

2 avril 2014

(1) Au service d’un monde meilleur : les idées qui ont façonné une entreprise et son siècle Kevin Maney – Steve Hamm – Jeffrey M. O’Brien IBM Press

(2) Aujourd'hui, c'est le plus grand jour d’annonce d’un nouveau produit dans l'histoire d'IBM et, je crois, dans l'histoire de l'industrie informatique.

 

Fichier PDF

Partager cet article
Repost0
31 mars 2014 1 31 /03 /mars /2014 16:35

 

IBM_Keypunch_Machines_in_use.jpg


 

M

 

a jeunesse informatique fût marquée par la redoutable épreuve que représentait, pour le tout jeune ingénieur que j’étais, la traversée solitaire du parc de "perfo/vérifs" des chantiers navals de la Ciotat.

Les deux ont disparu.

D’abord le parc s’étiola comme peau de chagrin au fur et à mesure que l’usage des cartes perforées disparut du monde informatique.

Il était, à ses heures de gloire, tel un harem, rempli en été de très légèrement vêtues et aguichantes pensionnaires qui ne manquaient pas de se manifester à la présence d’un gringalet dans leur antre.

Le chant de cigale de leurs machines n’arrivait pas à couvrir les quolibets qu’elles proféraient avec cet accent inimitable de la Provence sous le regard réprobateur mais légèrement ironique de leur cheffesse qui trônait sur une estrade à l’extrémité de la pièce.

Ce fût ensuite les chantiers qui agonisèrent après de nombreux et douloureux soubresauts.

Certes la carte n’est pas le territoire, comme l’affirme Alfred Korzybski, mais le territoire des cartes fut celui de l’informatique à l’époque où les opérations d’ordonnancement de fabrication se faisaient encore sur des cartes perforées qui finirent leur longue et brillante carrière comme pense-bête baptisés "Things to do" dans les poches des IBMers.

La carte IBM brevetée en 1928 comportait 80 colonnes et mesurait exactement  7 38 sur 3 14 pouces. Ces mêmes 80 colonnes se retrouvèrent sur les premiers écrans informatiques.

Elle permettait de stocker 80 caractères alors qu’une clé USB d’aujourd’hui, à peine plus encombrante, qui ne coûte que 6 euros, permet de stocker 8 giga octets soit plus de 2,5 millions de pages de 3000 caractères.

Déjà en 1725, le tisserand lyonnais Basile Boucher avait eut l’idée d’utiliser des cartes perforées pour piloter des métiers à tisser.

Ce n’est qu’en 1801, que Joseph Marie Jacquard, reprenant l’idée de Jacques Vaucanson, mis au point son fameux métier à tisser qui symbolisa l’avancée inexorable de la technologie reléguant des ouvriers spécialisés au rang de banale force de travail.

On se souvient de la révolte des Canuts en 1831, qui fût l’une des premières manifestations ouvrières contre cette évolution.

En 1833, Charles Babbage conçoit une machine analytique qui ne sera jamais réalisée.

Elle devait implémenter mécaniquement tous les concepts de base  de l'ordinateur (unité de calcul, mémoire, registre) et prévoyait que les instructions et les données seraient introduites par des cartes perforées comme sur la machine de Jacquard.

Lorsqu’Herman Hollerith déposa en 1887 le brevet de sa machine à statistiques à cartes perforées pour le dépouillement du recensement américain, il s’inspira de la machine de Jacquard.

Confronté au problème de la réutilisation entre deux campagnes des machines qu’il avait louées au gouvernement pour le recensement, il comprit vite que son invention pourrait être largement utilisée pour des applications commerciales.

Il fonda à cet effet la Tabulating Machine Company qui devint en 1924 International Business Machine sous l’impulsion de Thomas Watson senior qui transforma la petite entreprise en ce géant international que nous connaissons.

La réussite et la fortune d’IBM doit beaucoup à la carte perforée.

Ce n’est en effet qu’en 1962 que le revenu généré par la commercialisation des ordinateurs dépassât celui de la branche des cartes perforées.

L’IBM 129, dernière machine destinée à produire des cartes perforées de la marque, fut commercialisée en novembre 1970 juste après l’annonce de la mémoire virtuelle des ordinateurs IBM 370 en juin 1970.

Le même mois Ted Codd publiait dans ACM l’article "A Relational Model of Data for Large Shared Data Banks", fondateur du concept des bases de données relationnelles aujourd’hui universellement utilisées.

C’était aussi le début de la fin de l’utilisation des cartes perforées avec la généralisation des supports magnétiques et le début du télétraitement, l’ancêtre de l’Internet omniprésent aujourd’hui.

Le métier de programmeur y perdit le volet sportif que lui donnait le transport de lourds bacs de cartes, qu’il fallait surtout veiller à ne pas renverser.


Patrice Leterrier

31 mars 2014

Fichier PDF

Partager cet article
Repost0
28 mars 2014 5 28 /03 /mars /2014 18:38

IBM 650

 

 

 

C

 

’est par ces mots que commence la réponse, datée du samedi 16 avril 1955, de Jacques Perret, professeur de philologie latine à la Sorbonne, à Christian de Waldner, alors président d'IBM France.

Ce dernier, sous la recommandation de François Girard, responsable du service "Promotion Générale Publicité" et ancien élève de Jacques Perret, l’avait sollicité pour trouver un terme concis et précis pour traduire ce que les américains, qui ne s’embarrassent pas de philologie, avait appelé Electronic Data Processing System ou en abrégé EDPS.

Jacques Perret ajoutait dans son courrier "C'est un mot correctement formé, qui se trouve même dans le Littré comme adjectif désignant Dieu qui met de l'ordre dans le monde".

Il ne se doutait probablement pas qu’à peine 60 ans plus tard, les successeurs de cet ordinateur qu’il venait de baptiser allaient dominer le monde en y faisant régner l’ordre du tout numérique.

La lettre se terminait par "Il me semble que je pencherais pour "ordinatrice électronique", car il trouvait qu’il "permettrait de séparer plus encore votre machine du vocabulaire de la théologie".

Peut-être pas si mécontents de cette filiation divine, les dirigeants d’IBM préférèrent Ordinateur et le mot eut un tel succès qu’il passa rapidement dans le domaine public.

La recherche de ce vocable avait aussi un but marketing car Il s’agissait de le différencier du terme computer, facilement traduisible en calculateur, qui était réservé aux premiers ordinateurs scientifiques comme l’IBM 701.

Les premiers ordinateurs universels, faisant disparaître la nécessité de ce distinguo, n’apparaitront chez IBM que le 7 avril 1964 avec l’annonce de la série 360 qui va connaître un succès fabuleux et dont les programmes peuvent encore fonctionner aujourd’hui sur les plus puissants ordinateurs de la marque.

Le premier "ordinateur" d’IBM fut l’IBM 650, ordinateur à tubes de première génération, qui possédait une mémoire à tambour magnétique de 2000 mots et une mémoire vive en ferrite de 60 mots qui servait de tampon entre l’ordinateur et les unités externes, essentiellement lecteur/perforateur de cartes, bandes magnétiques et une tabulatrice l’IBM 407.

IBM vendit 2 000 exemplaires de cette machine dont la carrière commença en 1953 pour se terminer en 1962, longévité exceptionnelle même à cette époque.

Nous étions loin des performances de la plus petite calculatrice de nos jours avec un temps d’opération de 2 ms pour une addition, 13 ms pour une multiplication et 17 ms pour une division !

Nous sommes carrément à des années lumières des performances incroyables du moindre smartphone, sans parler des supercalculateurs (ou superordinateurs) qui sont engagés dans une course folle aux 100 péta-flops dans laquelle les chinois sont en tête avec le Tianhe 2 qui affiche 55 péta-flops en vitesse de pointe.

Faut-il rappeler qu’un péta-flops c’est la bagatelle d'un million de milliards d‘opérations en virgule flottante par seconde ?

Pour les non initiés la virgule flottante est la forme généralement utilisée pour représenter des nombres réels dans les mémoires des ordinateurs.

Mais aujourd’hui, où la technologie nous submerge et envahit notre quotidien, tout cela semble aussi naturel et aussi banal que d’allumer une lampe électrique.

Le moindre smartphone, qui se manipule intuitivement, presque naturellement, du bout des doigts, donne accès à des milliers d’applications et enfouit le miracle de la technologie dans une banalité quotidienne.

Et puis après la volonté opiniâtre d’imposer un vocabulaire francophone avec le terme Informatique inventé par Philippe Dreyfus en 1962, l’adoption du terme bureautique créé par Louis Naugès en 1976, on peut dire qu’à partir de la vague du Personal Computer l’anglo-saxon s’est imposé comme la langue unique du monde de l’informatique et des réseaux.


Patrice Leterrier

27 mars 2014

Fichier PDF

 

Partager cet article
Repost0