+33 (0)1 69 33 05 50

Actualité et agenda de l'AFTI

Histoire de l'informatique - CFA AFTI

Une brève histoire de l’informatique

Les premières traces d’informatiques dans l’histoire de l’humanité datent de l’Antiquité. Un des premiers calculateurs date par exemple de la Grèce Antique et le premier programmeur, du milieu du 17e siècle.Eh oui, l’informatique, ce n’est pas uniquement sous la forme numérique. L’informatique c’est la science du traitement automatique de l’information. Et cette pratique ne date pas d’hier.

Informatique, le commencement

Il y a fort longtemps, dès le Néolithique, un berger s’occupant de ses moutons n’avait pas besoin de retenir le nombre de têtes de son troupeau. À chaque passage d’une bête, il mettait un caillou dans un sac. Il pouvait ainsi compter ses cailloux, et donc ses moutons.

Plus tard, l’évolution de cette technique consistait à placer ces cailloux dans un vase d’argile fraîchement moulée sur lequel on inscrivait le nombre de cailloux à l’intérieur.

Puis vint un système moins encombrant, celle des tablettes d’argile, sous Hammurabi, soit il y a plus de 4.000 ans, sur lesquelles on gravait ces nombres, se passant ainsi des cailloux. Le mot calcul vient du latin calcŭlus, qui signifie caillou, petite pierre. Les prémices de l’automatisation du calcul étaient nées.
Informatique, avant notre ère.

Un des plus vieux ordinateurs du monde que l’on ne présente plus, tant il est célèbre, se nomme le mécanisme d’Anticythère. Il est considéré comme le premier calculateur analogique et avait pour fonction de calculer des positions astronomiques. Découvert en 1901 non loin de l’île grecque d’Anticythère, la datation de ce mécanisme n’a pas pu être confirmée avec certitude, mais il est certain qu’il a été fabriqué il y a plus de 2.100 ans.

Carl Sagan affirmait dans son livre Cosmos que si l’esprit du miracle grec et en particulier la philosophie ionienne, avait continué à croître en Méditerranée et que le contenu de la bibliothèque d’Alexandrie n’avait pas été presque entièrement oublié durant des siècles, nous aurions sans conteste atteint le stade du voyage interstellaire. Malheureusement peu de temps après cette époque, la science a connu un fort recul. Et ce pendant plus de 1 500 ans !

Informatique, un espoir féminin

Il faut attendre l’année 1742 et l’esprit brillant d’Ada Lovelace pour faire une avancée dans ce domaine. Elle écrivit à seulement 27 ans, le premier programme informatique de l’histoire. En hommage à ses travaux — tombés dans l’oubli et sortis de l’ombre avec l’avènement de l’informatique — le langage de programmation Ada a été conçu entre 1977 et 1983 par le département de la Défense américaine.

Si, en un sens, nous pouvons considérer Ada comme la mère de l’informatique moderne, le père en serait indéniablement Alan Turing. Il a été le génie derrière le déchiffrement de la machine Enigma durant la Seconde Guerre mondiale.

Il est l’inventeur du test de Turing, une pensée théorique créée de son vivant, qui vise à déterminer par le biais d’une conversation sur ordinateur si la personne avec qui vous discutez est une intelligence artificielle (dont il est le précurseur), ou un être humain.

Si vous pouvez lire cet article derrière votre écran aujourd’hui, c’est grâce à ses travaux. Travaux qui ont été discrédités pour des questions de mœurs. Il fut condamné pour cette raison, puis fut gracié à titre posthume par la reine Elisabeth II en 2013.

Informatique, des inventions aux usages

Penchons-nous à présent sur quelques dates et inventions du siècle dernier.

L’ENIAC fut le premier ordinateur électronique Turing-complet reprogrammable pour un poids de 30 tonnes et une surface de 167 m². Celui-ci résolvait une opération de calcul d’une trajectoire balistique en 0,001 seconde là où un être humain avait besoin de 5 minutes. C’était en 1945, et du chemin a été parcouru depuis.

L’année 1960 signe la naissance des premiers claviers d’ordinateurs, ainsi que des premiers systèmes d’exploitation utilisant la ligne de commande.

L’ancêtre d’Internet pointe le bout de son nez peu après et se nomme l’ARPANET, premier réseau d’échanges de paquets, développé à partir de 1966 par la DARPA.

En 1974 suit la création du protocole TCP/IP, toujours utilisé de nos jours. L’ARPANET adoptera ce protocole en 1983, qui sera la base d’Internet, tel que nous le connaissons aujourd’hui.

C’est en 1977 que l’informatique commence à s’introduire dans les foyers du grand public. Il faut cependant attendre les années 90, pour une entrée en masse dans la vie quotidienne, tant des particuliers que des salariés d’entreprises, grâce à la production en masse de PC, permettant de réduire leurs coût de production de manière conséquente.

Tim Berners-Lee crée alors le protocole HTTP et le World Wide Web en 1991. C’est également cette année que vient au monde le premier noyau Linux.

Pour anecdote ou rappel, la première clef USB vit le jour en 1999. A cette date, elle était alors reliée par câble. Il a fallu attendre le début des années 2000 pour voir la commercialisation de la clé USB telle que nous la connaissons aujourd’hui.

Informatique, au temps des Millénials

Entre le commencement de ce millénaire et aujourd’hui, une explosion des sciences informatiques a déferlé sur la planète.

Le téléphone mobile est l’exemple le plus parlant de la mondialisation galopante. En 2003, un quart de la population mondiale possédait un téléphone portable. En 2011, ce nombre est monté à 50 %. Fin 2017, le nombre d’abonnements au téléphone mobile était de 7,7 milliards, soit un peu plus que le nombre d’êtres humains sur Terre à cette période !

Aujourd’hui la gravure des puces suit encore la loi de Moore, mais pour combien de temps ? IBM a réussi l’année passée à réaliser une prouesse en gravant à 5 nm. À cette échelle, les ingénieurs se heurtent à des limites physiques comme l’effet tunnel. Au-delà, la gravure au niveau de l’atome peut être envisagée, mais dans ce microcosme de la matière, les lois de la physique commencent à s’effriter…

Qu’en sera-t-il demain ? L’informatique va-t-elle stagner et ne plus évoluer ?
Que nenni. Ce serait vite oublier l’ingéniosité de l’Homme. L’ordinateur quantique en est à ses balbutiements, mais est bien une réalité.
Google a dévoilé début 2018 son processeur quantique de
72 Qubits et ne compte pas s’arrêter là. On parle déjà de processeur à 300 Qubits. Et quelles seraient les applications d’un processeur à 1 milliard de Qubits ? Place à l’imagination.