Introduction
C'est en 1962 que Philippe Dreyfus employa le mot informatique pour définir le traitement automatique de l'information. En fait ce mot peut correspondre à deux groupes de disciplines distinctes: l'ensemble des techniques mises en oeuvre pour l'emploi de l'ordinateur ( electronic data processing ) ; une science nouvelle, qui ne nécessite pas obligatoirement l'utilisation des ordinateurs, ces derniers n'en sont qu'un outil majeur ( computer science ).
On peut donc affirmer que l'informatique est une discipline carrefour, dont les ordinateurs actuels, les structures intellectuelles ( algorithmes de calcul ) et institutionnelles ( organisation comptable, organisation industrielle ) déterminent en majeure partie le contenu.
D'un point de vue plus général, il n'est plus à démontrer que l'informatique envahit progressivement, sous beaucoup de formes, notre vie quotidienne, tant est puissant son développement. L'informatique aujourd'hui, c'est à la fois les calculettes de poche et les ordinateurs portables, les consoles et jeux vidéo, mais aussi l'aventure spatiale, les robots industriels, les applications médicales telles que le scanner, les cartes à puce et bien d'autres applications. L'informatique à travers l'ordinateur modifie, et modifiera plus encore, l'organisation du travail et les rapports entre les individus.
Quelques définitions...
Le mot "informatique" : il est composé des deux mots information et électronique. L'Académie française en a donné la définition suivante en 1967 : " Science du traitement rationnel, notamment à l'aide de machines automatiques, de l'information, considérée comme le support de connaissances dans les domaines scientifique, économique et social. ".
Le mot "ordinateur" : c'est en 1955 qu'il fut proposé par un professeur de lettres qui devait traduire l'expression " electronic data processing machine " ( qui veut dire " machine électronique de traitement des données " ).C'est aussi en 1967 que l'Acadé:mie française définit l'ordinateur par " Une machine automatique qui permet d'effectuer, dans le cadre de programmes de structure pré-établis, des ensembles d'opérations arithmétiques et logiques à des fins scientifiques, administratives ou comptables. ".
Le mot "information" : d'un point de vue étymologique, il veut dire qu'un sujet, qui reçoit des données émises par un objet, traite ces dernières pour obtenir une certaine " mise en forme " de l'objet. Le sujet a pour cela cinq sens : la vue, l'ouïe, le toucher, l'odorat et le goût.
Voici les deux schémas de base de l'informatique :

Le système de communication d'après Shannon.

Le système de traitement de l'information d'après Von Neumann
Dans cette première partie, je traiterai les découvertes sur le système des connaissances ( théories, concepts nouveaux.... ), les découvertes sur le traitement et la communication de l'information ( machines diverses, inventions.... ).
L'histoire par les faits
De l'an -10000 au XIIIième siècle.
Les fondations de l'informatique : la saisie, le codage, le calcul, l'écriture, la logique, le zéro.
C'est durant la période de 10000 à 3000 avant J.C. que naquit le traitement rationnel de l'information.
L'homme changea son mode de vie en passant du stade de chasseur à celui d'agriculteur. Dans ce nouveau mode de vie, l'homme doit disposer de semences, d'outils, d'animaux de ferme. C'est pourquoi il lui est nécessaire de mettre en place un système de troc et de ce fait, l'homme doit apprendre à s'organiser, compter, écrire : c'est l'apparition du traitement de l'information.
On découvrit alors en Mésopotamie l'utilisation de de boules, de jetons d'argile et de tablettes par les Summériens qui servait dans ce système d'échange. Cette civilisation sumérienne avait élaboré un système de numération de type additif : voici quelques chiffres gravés sur des tablettes.
Mais le troc se basait plus sur les jetons et les boules. Ceux-ci étaient une sorte de monnaie et donc un premier traitement de l'information.
Les jetons et les boules sont la fonction de mémorisation de l'information, la confection des boules et jetons est la fonction d'entrée de l'information, le tri des jetons est une fonction de traitement de l'information, et enfin l'interprétation des jetons est la fonction de sortie de l'information.
C'est aussi en 3500 avant J.C. qu'apparut l'écriture, une autre fonction de mémorisation de l'information. Les supports n'étaient pas des puces ou tout autre composant mais du bois, du papier et des pierres.
En 3000 avant J.C. on utilisa en Chine le binaire à travers le principe du Ying et du Yang pour fabriquer des hexagrammes. Ils ne seront déchiffrés que quelques millénaires plus tard.
En Mésopotamie, 1300 ans plus tard, l'empereur Hammourabi introduit la notion de normes dans le traitement de l'information grâce à sa loi du talion " pour telle donnée émise par un objet, telle mise en forme de ces données sera faite ".C'est le principe de l'objectivité de l'information. Cette loi est plus connue sous la forme " oeil pour oeil, dent pour dent ". Hammourabi mit aussi en place la notion d'algorithme, qui est une notion de procédure détaillée de calcul.
Les horloges égyptiennes, qui furent les premiers systèmes de traitement de l'information, apparurent en 1550 avant J.C. sous la forme de clepsydres.
Les Chinois arrivèrent à mesurer la durée d'une année en utilisant un observatoire astronomique en 1200 avant J.C., ils sont aussi à l'origine de nombreuses inventions : le sismographe, quoiqu'un peu sommaire, en 132 avant J.C., le papier qui fut un support d'informations révolutionnaire en 105 après J.C..
Cependant au Moyen-Orient, les Arabes fabriquèrent les premiers abaques et bouliers en 500 avant J.C., et en 751 après J.C. ils ramenèrent de Chine le principe de fabrication du papier qui sera un élément fondamental du développement de la civilisation occidentale.
Le grand philosophe grec Aristote définit la logique en -330 avant J.C. Son oeuvre sera un axe principal dans la mise en place de la civilisation occidentale, sur le plan mathématique et philosophique.
Vers 820 après J.C., un mathématicien arabe apporta de nouvelles connaissances sur les algorithmes ( élimination et réduction ).
Ce n'est qu'en l'an 1000 après J.C. que la numération arabe est admise en Europe, en particulier l'existence du zéro.
Durant cette même période, les systèmes d'information horlogers se contruisent en Europe, on peut en voire un à Strasbourg, c'est l'"Horloge des Trois Rois", surtout célèbre pour son coq qui chante et s'anime.
Du XVième siècle à la fin du XIXième.
Les découvertes : le binaire, l'électricité, les logarithmes, les boucles de programmes, le téléphone, l'imprimerie et la machine à calcul.
La plus grande invention de la fin du XVième siècle est l'imprimerie découverte par Gutenberg en Allemagne en 1454, ce procédé sera un véritable catalyseur pour le développement de la civilisation occidentale.
Trente ans plus tard le Français Chuquet contruit la première table de multiplications décimales.
De 1614 à 1679, plusieurs découvertes se succèdent. Tout d'abord les logarithmes traités par l'Ecossais Neper, ainsi la multiplication et la division se ramènent à deux opérations simples qui sont l'addition et la soustraction. Puis le philosophe Anglais Bacon invente un code, le code bilitière qui permet de coder les lettres de l'alphabet à partir de combinaisons de caractères non utilisés. Cette invention introduit le code binaire qui fut découvert par le philosophe Allemand Leibnitz. Il réalise plusieurs travaux dont un sur les hexagrammes chinois et présente un rapport à l'Académie française en 1702. Ce nouveau concept se propagera ainsi dans toute l'Europe.
Le XVIIième siècle fut le temps des machines à calculer : en 1624 l'Allemand Schickard présenta sa machine mais elle fut détruite la même année. En 1642, la Pascaline du Français Pascal fut la première à réellement fonctionner, beaucoup de personnes s'appuieront sur cette découverte. Enfin Leibnitz construisit sa propre machine en 1694 ( division et multiplication ) en suivant le modèle de Pascal.
Les cartes perforées furent utilisées en 1728 par le Français Falcon et en 1800 par un autre Français, Jacquard. Ces cartes servèrent dans des machines à tisser.
En 1820, l'arithmomètre du Français Thomas connut un énorme succès, 1500 exemplaires vendus dans plusieurs pays. Quelques années plus tard, en 1833, la machine analytique de l'Anglais Babbage ne fut qu'un échec. Pourtant elle est toujours considérée comme le premier ordinateur car elle intègre beaucoup de concepts de l'ordinateur contemporain : mémoire, registre, unité de calcul.
Le code morse fut inventé en 1838 et le premier télégraphe fonctionna en 1844.
La mathématicienne Anglaise Lovelace, qui est considérée comme la première programmeuse de l'histoire informatique, instaura en 1840 l'itération d'un programme ( la boucle ). Collaboratrice de Babbage, elle appela " algorithme " le processus logique permettant l'exécution d'un programme.
Georges Boole est à l'origine en 1854 de l'algèbre binaire. Il affirma que l'on peut coder les démarches de la pensée par trois propositions : ET, OU, NON. Ses travaux seront très utiles au développement de l'électronique et des portes logiques.
En 1867, deux Américains mettaient au point la machine à écrire et neuf ans après un autre Américain Bell déposa le brevet du téléphone, trois ans plus tard 25000 postes fonctionnaient aux Etats-Unis. Toujours sur le sol américain, l'inventeur aux 2000 brevets, Edison, inventa le phonographe en 1877. En 1878, un anglais décrivit l'état radiant d'un gaz, base du phénomène de l'effet cathodique. C'est une grande ouverture vers les écrans cathodiques.
De 1884 à 1946.
Les découvertes : l'effet photoélectrique, la diode, les principes de l'automatisme, le " BUG " d'un programme, la télévision, le binaire, l'Enigma, le Mark I et plusieures théories sur l'information et le calcul.
Pour faire face aux problèmes de transfert de données concernant la démographie, l'Américain Hollerith inventa en 1884 la mécanographie qui sera utilisée en 1890 par le gouvernement des Etats-Unis pour recencer la population. Hollerith créa alors la "Tabulating Machine Company" qui donnera naissance au grand groupe IBM "International Business Machine".
Entre 1887 et 1907, les découvertes furent surtout dans le domaine physique électrique. L'effet photoélectrique, qui est produit en illuminant un circuit par des ultraviolets, est un phénomène majeur dans la progression vers les écrans de visualisation. C'est l'Allemand Hertz qui découvrit cet effet. La diode, qui permet de filtrer le courant en fonction des alternances, a été invent&eacutée; par l'Anglais Fleming. A partir de cette invention, l'Américain Lee De Forest construisit la triode, qui amplifie l'intensité du courant. C'est un pas conséquent vers la radiophonie.
En 1910, deux logiciens Anglais, Whitehead et Russel, définirent la logique symbolique, support indispensable de l'informatique et de l'intelligence artificielle. En 1914, une définition des besoins et moyens utiles au fonctionnement des automates fut conduite par l'Espagnol Torres y Quevedo.
En 1919 émergea le premier circuit bistable ( flip-flop ) composé de deux triodes. C'est un circuit de base de l'utilisation de l'algèbre booléenne. Il fut réalisé par deux Anglais Eccles et Jordan.
Notre chère télévision n'apparût qu'en 1925, elle étonna les membres de l'Institut Royal de Londres lors d'une démonstration. Bien plus tard en 1935, la firme allemande AEG mit au point le magnétophone. Son principe de fonctionnement sera adapté aux ordinateurs.
C'est le mathématicien Turing qui instaura en premier les grands concepts du fonctionnement algorithmique des futurs ordinateurs. En 1937, il publia un rapport sur une machine conceptuelle capable d'exécuter des opérations en vue de résoudre un problème.
La même année fut inventé le premier circuit binaire par l'Américain Stibitz. Il appela ce calculateur K car il le conçut dans sa cuisine. Un an plus tard en Allemagne, l'ordinateur "Verschmodell 1" fut le précurseur du fameux ENIAC.
Durant cette année 1938 nacquit le " BIT " ( BInary digiT ). L'américain Shannon étudia l'algèbre booléenne et les circuits électriques. Il se rendit vite compte qu'il existait un rapport entre les deux sujet étudiés et publia une thèse sur ce parallèle. Cela aura un effet de catalyseur sur les télécommunications.
Pour relever le défi posé par l'Enigma, qui fut une chiffreuse allemande permettant d'obtenir plus de 22 millions de combinaisons, le Royaume-Uni lança le Bletchley Park en 1940. Ici seront mis au point des calculateurs utilisant les concepts d'arithmétique binaire, d'horloge, de mémoire-tampon, de contrôle des lecteurs de bandes, de sous-programmes et bien d'autres.
En 1943, la collaboration de la firme IBM avec un professeur d'Harvard engendra la conception et la réalisation d'un gigantesque calculateur électromagnétique, le MARK I. Ce calculateur était l'assemblage de 800 kms de câblages, de 750 000 pièces, de 3000 relais, etc..., il pouvait effectuer des calculs en trois dixième de seconde.
L'histoire de l'informatique a connu aussi quelques anecdotes. En voici une : c'est en découvrant que la cause d'une panne sur un ordinateur ( le MARK I ) n'était qu'un simple insecte attiré par la chaleur des composants, la mathématicienne américaine Murray Hopper proclama en 1945 "A partir de ce jour nous appellerons BUG tout ce qui empêchera un programme de marcher.".
De 1946 à 1968.
Le triomphe du binaire, la constitution physique de l'ordinateur, le transistor, la cybernétique, l'intelligence artificielle, l'accès au traitement, les fondements structurels de la télécommunication mondiale.
L'ENIAC ( Electronic Numerical Integrator Computer )marqua à tout jamais l'année 1946 car ce fut le premier véritable ordinateur. Cette machine pèse 30 tonnes, mesure 24 mètres de long, est haute de 5.4 mètres, utilise 18000 tubes à vide. Elle réussit à traiter à son premier essai un million de cartes perforées, ce qui réjouit ses inventeurs Américains Eckert et Mauchly.
A la suite de ce travail, Von Neumman écrivit un rapport sur un ordinateur qui devait succéder àl'ENIAC : L'EDVAC ( Electronic Discret VAriable Computer ). Un conflit entre les différents inventeurs mit court à sa réalisation.
Une des découvertes les plus importantes de l'histoire humaine est le transistor. Inventé en 1947 par trois Américains de la compagnie Bell, il sera l'élément de base des microprocesseurs.
Un an après, c'est un rapport révolutionnaire sur l'asservissement qui fut publié par le mathématicien Américain Wiener. Cette oeuvre reste la base de la robotique actuelle.
Shannon rendit sa publication sur la théorie mathématique de la communication, ouvrage clef pour le développement des télécommunications.
De 1949 à 1952. Confronté á l'énorme complexité des codes binaires qui sont utilisés pour la programmation, l'Américain Mauchly conçoit un code court, ce sera le premier langage évolué. Avec son collaborateur Eckert, il invente des bandes plastiques effaçables et réécrivables à volonté.
Un autre Américain, Hopper, réalise un compilateur qui établit pour la première fois un interface entre le langage utilisé par l'informaticien et le langage binaire machine.
Le premier ordinateur en temps réel est construit à la demande de l'US Navy. Cette machine constituera un banc d'essai pour le progrès des connaissances.
En 1954 sortit la première grande série d'ordinateurs : l'IBM 650, de taille moyenne et à un prix accessible, il sera vendu à 1500 unités.
L'UNIPRINTER fut la première imprimante ligne à ligne, elle imprimait 120 caractères sur une ligne à la vitesse de 600 lignes par minute. Durant la même année 1954, l'Américain Pierce démontrait la possibilité de mettre un objet en orbite géostationnaire autour de la terre.
Huit à neuf ans après la découverte du transistor, on l'utilisa dans la conception d'une nouvelle génération d'ordinateurs ( UNIVAC ). L'efficacité du nouvel ordinateur fit un bon spectaculaire.
En 1956, après trois années de recherche, IBM commercialise le premier disque dur magnétique. Cela apporte une révolution dans le stockage des données à la fois au plan des volumes, et des possibilités d'accès indexées.
De 1968 à 1991.
Cette période est très riche en découvertes, c'est pourquoi je ne ferai qu'une analyse générale.
1968-1977 constitue la période la plus faste pour le développement de l'informatique. Elle commence avec l'arrivée du mini-ordinateur qui va secouer les conceptions que l'on croyait pourtant bien assises des centres informatiques aux immenses salles à air conditionné. Elle va se terminer en 1977 avec un autre boulversement,aux conséquences considérables, l'arrivée du micro-ordinateur banalisé ( l'Apple II ) qui va devenir rapidement un produit grand public, accessible à tous sur les étagères des grandes surfaces. Entre ces deux dates, la télématique acquerra les bases de connaissances nécessaires pour son épanouissement.
Cette apparition des micro-ordinateurs aura pu être réalisée grâce à la découverte fondamentale en 1971 du micro-processeur ( l'INTEL 4004 ). En une période très courte, cette nouvelle puce va réussir à envahir tous les domaines de la société. Si le micro-processeur doit être considéré auprès de l'ENIAC et du transistor comme l'une des trois inventions clefs de l'informatique.
Il y a lieu de retenir plus particulièrement sur cette période les inventions suivantes :
- La souris en 1978. Notion d'interactivité homme-machine.
- Le développement des différents réseaux : ARPANET, TELENET et ETHERNET.
- La définition des principes de la programmation structurée : PASCAL, LANGAGE C.
- L'arrivée de langage utilisés par l'intelligence artificielle.
- L'évolution des imprimantes : aiguille en 1971, laser en 1975.
- Le disque souple : une nouvelle forme de mémoire.
Le géant IBM domine la marché de sa puissance écrasante. Néanmois, ce géant peut désormais pressentir que son avenir s'assombrit. Il ne peut pas contenir des puissances informatiques comme la CRAY, et il ne se préoccupe pas des petits fabricants qui bricolent dans des garages on ne sait trop quoi.
Commençant avec le premier micro-ordinateur, l'Apple II, la période 1977-1990 présente une double face : d'un côté c'est une récolte prodigieuses de découvertes qui déclenche un fascinant dialogue homme-machine ; de l'autre côté c'est l'interrogation sur l'avenir face à cette convivialité d'un nouveau type qui attaque toutes les conditions de fonctionnement de la société.
Le nombre impressionnant de découvertes implique un développement incontrôlé qui ne s'effectuera pas sans dommages. La fraude informatique va se développer et les virus vont se propager.
L'histoire par les dates
Dans cette deuxième partie, j'ai réuni toutes les découvertes du monde de l'informatique. Cela peut ressembler è un grand bazard mais peut s'avérer utile pour chercher rapidement un information courte et précise sur l'histoire informatique.
Voici mes trois grandes parties :
Les découvertes principales pour le systèmes de connaissances.
- -10000 : Boules et jetons et écriture cunéiforme
- -3400 : L'écriture ( alphabets, symboles et codage )
- -3000 : Le binaire ( octogone à trigamme )
- -1700 : Le code d'Hammourabi
- -330 : La logique d'Aristote
- 1000 : Le zéro
- 1614 : Les logarithmes
- 1623 : Le binaire avec le code bilitière
- 1679 : La découverte du binaire
- 1840 : La boucle de programme
- 1847 : L'algèbre binaire
- 1856 : La vitrine de l'effet cathodique
- 1878 : L'état radiant et le faisceau d'électrons
- 1887 : L'effet photoélectrique
- 1904 : La diode
- 1907 : La triode
- 1910 : Définition de l'Algèbre Symbolique
- 1914 : Principes de l'automatisme
- 1940 : Bletchley Park
- 1945 : Le BUG
- 1946 : Le rapport sur l'EDVAC
- 1947 : L'assembleur / Bibliothèque de sous programmes / Le transistor
- 1948 : Théories de la cybernétique et de la communication
- 1949 : Langage évolué primitif / Traduction automatique
- 1951 : Compilateur A0 / Base de données / Compilation
- 1957 : Le Fortran / Premier programme d'intelligence artificielle
- 1959 : Premier langage de l'intelligence artificielle
- 1960 : Cahier des charges Cobol / Le Perceptron
- 1963 : Le premier vidéo-disque
- 1964 : Le Basic
- 1968 : La logique Si Alors / Le langage Pascal
- 1970 : Le système d'exploitation Unix
- 1971 : La reconnaissance vocale
- 1972 : Le langage C / La progamation en logique
- 1974 : L'objet structure ( frame )
- 1975 : Le basic pour ordinateur / Le langage de requête SQL
- 1976 : Les systèmes AQII et CPM
- 1977 : La naissance de Microsoft
- 1978 : Le premier logiciel tableur Visicalc / Le traitement de texte / La loi "Informatique et Liberté"
- 1979 : La normalisation Cobol ( ADA )
- 1980 : Le premier programme de base de données ( DBASE II )
- 1981 : Le premier tableur "grand public" ( LOTUS ) / Le système d'exploitation MS-DOS de Microsoft
- 1983 : Le langage Turbo-Pascal
- 1984 : Le graphisme et le traitement de texte conviviaux de Macintosh / Les jeux Nintendo
- 1985 : L'apparition de Windows pour PC / Le tableur Excel
- 1986 : Le programme de base de données 4D
- 1987 : Le système d'exploitation OS/2 / Les normes VGA et bus MCA
- 1988 : Les épidémies de virus / La législation sur la fraude informatique / La norme bus EISA
Les découvertes principales pour le systèmes de traitement.
- -1550 : Les premières horloges
- -1200 : L'observatoire astronomique
- -500 : Abaques et bouliers
- -132 : Le sismographe
- 105 : Le support papier
- 751 : Importation du papier au Moyen-Orient
- 1000 : Horloges astronomiques
1200 : La connaissance du papier par les Croisés - 1454 : L'imprimerie
- 1484 : Les tables de multiplication
- 1623 : La machine à calculer de Schickard
- 1642 : La machine à calculer de Pascal
- 1694 : La machine à calculer de Leibnitz
- 1728 : Les cartes perforées de Falcon
- 1774 : La machine à calcul de Hahn
- 1791 : Les tables de différences finies
- 1820 : L'arithmomètre
- 1867 : La machine à écrire
- 1884 : La mécanographie
- 1914 : L'automatisme
- 1919 : L'ENIGMA
- 1930 : L'analyseur différentiel
- 1937 : Le calculateur binaire "K"
- 1938 : L'ordinateur "Versuchmodell 1"
- 1943 : Le MARK I
- 1946 : Le premier ordinateur ( ENIAC )
- 1947 : Le transistor / L'EDVAC
- 1949 : La bande magnétique
- 1951 : La mémoire tampon / L'UNIVAC / Le Whirlwind
- 1953 : Le premier ordinateur "accessible" ( L'IBM 650 ) / La mémoire magnétique
- 1954 : L'imprimante ligne à ligne
- 1955 : L'ordinateur à transisitor
- 1956 : Le contrôleur entrée/sortie d'IBM / Le disque dur magnétique
- 1958 : Le circuit intégré / Le laser
- 1959 : Transisitors plat et MOS / La mémoire virtuelle de l'Atlas I
- 1964 : Les superordinateurs CDC 600 et IBM 90
- 1968 : L'ordinateur à circuits intégrés
- 1970 : La technologie MOS / La puce mémoire
- 1971 : L'imprimante à aiguille / Le microprocesseur Intel 4004
- 1973 : Le disque souple ( Floppy Disc ) / L'intégration des circuits à très grande échelle
- 1974 : La carte à puce
- 1975 : L'imprimante Laser
- 1976 : Les microprocesseurs Z 80 et 6502
- 1977 : L'Apple II / Le lecteur de cassette vidéo TRS 80
- 1978 : Le microprocesseur 8086 d'Intel
- 1979 : Le microprocesseur 98000 de Motorola
- 1981 : L'IBM PC
- 1982 : Les clone de COMPAQ / La station de travail SUN
- 1984 : Macintosh / Disque optique numérique ( CD-ROM )
- 1985 : Le "80386" d'Intel
- 1987 : Le PS/2 d'IBM
Les découvertes principales pour le systèmes de communication.
- 1792 : Le télégraphe optique
- 1826 : La photographie
- 1838 : Le télégraphe et le code morse
- 1876 : Le téléphone
- 1877 : Le phonographe
- 1896 : La naissance de la TSF
- 1925 : La télévision
- 1929 : Le synthétiseur vocal à bande perforée
- 1930 : Le décimal codé binaire DCB
- 1934 : L'analyseur et le synthétiseur d'images
- 1935 : Le magnétophone
- 1950 : La reconnaissance vocale
- 1951 : L'ordinateur à temps réel ( Whirlwind )
- 1954 : L'orbite géostationnaire
- 1958 : Le modem Dataphone
- 1960 : La communication par paquets / Les jeux sur ordinateur
- 1962 : Le satellite Telstar
- 1963 : Le crayon optique
- 1964 : Le code ASCII
- 1966 : La fibre optique / Le modem Carterphone
- 1968 : La souris
- 1969 : Le réseau Arpanet
- 1971 : Les traitements de textes Lexitron et Wang
- 1972 : Le réseau Telenet
- 1974 : La carte à mémoire
- 1980 : L'annuaire téléphonique / Le vidéo-disque
- 1981 : Le minitel
- 1983 : La norme MIDI
- 1984 : Le disque optique numérique
- 1985 : L'écran tactile
- 1986 : Le disque optique numérique interactif
- 1989 : Explosion des réseaux de communication
Conclusions
L'informatique n'est pas née d'hier, les premiers grands concepts datent de plus de 10000 ans. Cependant cette science ne s'est développée que depuis un demi siècle et le nombre de découvertes est phénomènal sur ces dernières dix années : il y a environ une découverte par jour!
La spécificité interdisciplinaire de l'informatique fait de son étude historique une source inépuisable d'enrichissements. Pour l'épistémologue informatique, Mathématiques, Physique, Economie, Guerre, Sociologie et tant d'autres constituent autant de domaines qu'il est nécessaire d'explorer. Il doit s'intéresser tout aussi bien :
au PDG d'une multinationale "hi-tech" qu'au casseur ( hacker ) isolé d'un réseau ;
à l'Europe qu'à l'Asie ;
à la théorie comme à la pratique.... A l'heure de la société de l'information, cette tâche, difficile mais passionnante est indispensable pour la compréhension du nouvel ordre mondial de la communication qui s'instaure.
La guerre a été le facteur clef de développement de l'informatique avec trois épisodes essentielles : la deuxième guerre mondiale, la guerre froide et la guerre des étoiles. ( Ce n'est pas une blague! )
Au niveau des puissances informatiques dans le monde, les Etats-Unis sont largement dominants. En effet 95 % des inventions répertoriées depuis 1946 ont été faites sur le sol américain.
Le Japon contrebalance sa très grande faiblesse au plan des brevets d'inventions par sa capacité extraordinaire à produire des brevets d'applications. C'est pour l'instant le seul grand compétiteur des USA.
La France occupe une position de grande faiblesse dans la compétition internationale informatique.
Le futur de l'informatique sera celui de la convivialité complète auditive, visuelle et tactile.
Configuration d'un ordinateur
La configuration d'un ordinateur correspond à l'organisation adoptée pour mettre ensemble et faire fonctionner les divers éléments matériels de l'ordinateur. Les configurations possibles sont fonction de l'importance et de la finalité du système mis en oeuvre. Une des plus simples et des plus habituelles configurations est celle que l'on trouve dans un bureau de travail, telle qu'illustrée ci-dessous.
Voici la définition de chaque élément représenté sur le schéma :
- Le disque dur :
- il sert à enregistrer des quantités importantes d'informations facilement accessibles par l'ordinateur ;
- La disquette :
- elle sert à sauvegarder des informations mais elle dispose que d'une capacité de stockage limitée ;
- L'écran :
- il permet de visualiser les informations communiquées par un ordinateur ;
- Le clavier :
- c'est un ensemble de touches qui permet d'introduire des informations à traiter dans un ordinateur ;
- La souris :
- c'est un dispsitif qui permet une interaction plus aisée que le clavier pour tout ce qui concerne le positionnement du curseur sur l'écran ;
- L'imprimante :
- c'est l'unité périphérique chargée d'imprimer sur papier des informations choisies ;
- Le digitaliseur :
- ( scanner ) il permet de digitaliser des documents, c'est à dire de transformer une image en une forme numérique ;
- La sortie standardisée :
- c'est une connexion qui permet de brancher un appareil auxiliaire ( imprimante, fax, etc... ) ;
- Le fax :
- il sert à envoyer une image numérique des documents par l'intermédiaire des lignes téléphoniques ;
- Le modem :
- Outil de communication avec d'autres ordinateurs éloignés en utilisant les lignes téléphoniques.
La machine à différences de Babbage.
Cette partie est destinée aux étudiants spécialisés dans la mécanique. Le cas Babbage nous démontre une fois de plus que la conception d'un mécanisme est souvent limitée.
Charles Babbage est l'un des grands ancêtres de l'informatique. Ses plans de grands calculateurs mécaniques comptent parmi les performances intellectuelles les plus brillantes du XIXième siècle. Pourtant Babbage ne réssit jamais à construire les calculateurs qu'il avait imaginés. Les historiens affirment que les plans de Babbage imposaient des tours de force mécaniques inaccessibles à la technique victorienne, mais aucun document l'époque confire cette hypothèse.
Les échecs de Babbage ont souvent été associés au mauvais caract&egrav; de ce génie créatif. Homme fier et droit, Babbage était célèbre pour ses critiques vigoureuses des institutions scientifiques. A la suite de ses échecs, Babbage se sentait victime d'une injustice ; il acquit alors une réputation d'homme susceptible et excentrique. Cependant une équipe de travail a relevé un tout autre aspect de ce génie : Babbage ´tait un inventeur méticuleux dont les inventions étaient réalisables.
Les ingénieurs ont d'abord construit une partie du mécanisme, en 1989, pour vérifier le fonctionnement de la machine. Ils ont ensuite dû réaliser des pièces compliquées pour enfin arriver à la machine à différences N°2.
Je dis un grand merci à toutes les personnes qui m'ont soutenu pour ce rapport. J'espère avoir retenu votre attention quelque temps sur cette page.
A la prochaine !!!
François Réalisé par Francois http://www-ipst.u-strasbg.fr étudiant à Strasbourg en DEUG Sciences Mention Sciences et Technologies pour l'Ingénieur