Il n'y
a aucune raison pour qu'un individu quelconque possède un ordinateur
chez lui.
En 1977 par Kenneth Olsen, cofondateur et PDG de DEC.
1.8 LES ANNÉES
1980 ET 1990
Du côté des très grands, le CRAY X-MP à 4 processors traite 713 Mflops en 1986, ce qui représente une croissance de cinq ordres de grandeurs par rapport aux 5 Kflops de l'IBM 704 en 1955.
La même année le
CM-1, radicalement différent, est annoncé. Cette «connection
machine» est constituée de 65536 processeurs organisés
en hypercube, traitant un bit chacun. Chaque processeur a 4 ko de mémoire
attachée.La
diffusion des matériels de microinformatique devient explosive en
nombre et en valeur pendant toute la décennie. La normalisation
en informatique qui vient des télécommunications était
encore balbutiante dans les années 70. Elle gagne lentement du terrain
dans les années 1980. Le mouvement s'accélère dans
les années 1990 sous les deux formes de droit ou de fait. La décennie
1990 est celle de la baisse des chiffres d'affaires et des marges, pas
toujours compensées par l'accroissement du volume des ventes.
un circuit intégré aujourd'hui banal
Les deux phénomènes de normalisation et de diffusion, sont étroitement liés. La normalisation rend les investissements moins risqués et ainsi abaisse les coûts. Cette baisse, pourvu qu'il y ait une demande, augmente la diffusion. L'allongement des séries, l'arrivée de concurrents attirés par ce marché et les délocalisations de production, 70% des cartes mères des gammes PC sont produites à Taiwan, font baisser les prix.
Ces baisses de prix sont considérables. En francs courants, un bon mini-ordinateur promis pour 0,5 MIPS, coûtait 700 000 F (de 1970) en 1970. Le CNAM avait acheté un Modular One à ce prix en 1971. Un micro-ordinateur promis pour 0,5 MIPS coûtait 50 000F en 1982, 10 000F en 1987, 5 000F en 1991. Dès 1994 on ne trouve plus de machine à moins d'une dizaine de MIPS. Un K mots de 16 bits en mémoire à tores, soit 2 Ko, était facturé 10 000F en 1970, 512 Ko étaient facturés 1200F en 1987, 16 Mo coûtaient 400F en 1997.
Il en est de même pour les équipements annexes en francs courants :
Les logiciels suivent avec
quelque retard, mais une analyse relevait pour la seule année 1993,
une baisse moyenne de 42%. Cette baisse s'est poursuivie depuis pour tous
les logiciels sauf évidemment dans les situations de monopoles.
Au milieu des années 80, les progrès architecturaux proprement dits sont lents, si l'on n'y inclut pas l'augmentation de la densité d'intégration qui relève de la seule électronique. Probablement les concepteurs sont-ils accaparés par la course à la technologie pour mettre en œuvre le plus rapidement possible de nouveaux composants compatibles avec les précédents. Ils sont surtout moins pressés par des nécessités d'économie de moyens techniques qu'ils l'étaient depuis les débuts de l'informatique. Pourquoi dépenser pour inventer une architecture nouvelle qui fera gagner 20% en performances, alors que l'an prochain on aura un gain de 50% quasiment gratuit ?
Il s'agit plus d'apprendre à faire le meilleur usage matériel et logiciel des composants disponibles que d'imaginer et de valider des idées architecturales nouvelles.
On note néanmoins quelques nouveautés qui ne sont pas encore des innovations. Elles portent essentiellement sur :
En 1989, Creative Labs produit la première carte son à 8 bits. Grâce à elle, le PC devient musical. Cette carte ISA est un progrès considérable par rapport au haut-parleur du PC, de qualité moins que médiocre. Des habitudes vont changer avec l'arrivée du 80486 et de son processeur arithmétique flottant intégré. Le premier jeu en trois dimensions avec des vues précalculées est «Alone in the dark» de la société française Infogrames en 1991.
Par ailleurs de nouvelles techniques modifient les façons de procéder :
En matière de composants, la course à la densité et à l'augmentation des performances continue, essentiellement sous deux formes :
À ce propos, il faut noter une activité qui commence sur les «ordinateurs réversibles» et les nanomachines. Les principaux producteurs de documents (et non de matériels) sur ce sujet sont Xerox et le MIT (cf. conclusion asi9999).
1.9 LES PROGRÈS THÉORIQUES DEPUIS LES ANNÉES 40 (bref survol)
Les succès des parties théoriques de l'informatique sont mesurés à la fois par l'impact qu'ils ont sur la pratique et par leurs contributions à la compréhension du calcul et de ses limites.
Les années 1950 et 1960 ont été celles du développement des langages formels et des modèles de calcul tels que la machine à nombre fini d'états et l'automate à pile. Les résultats sont d'usage courant dans la programmation et la traduction des langages. Ils n'ont pas eu débouchés en matière de machine à pile câblée.
Les travaux d'algorithmique et de structures de données ont commencé dans les années 50 et continuent d'être très actuels. Leurs principales réussites ont trait aux tris, à la recherche de données, aux manipulations des chaînes et des graphes, au calcul scientifique et à l'optimisation.
La théorie de la complexité est née dans les années 60. On a identifié l'échelonnement des problèmes et établi de nombreux théorèmes. Les travaux sur la complétude commencent pendant les années 70 avec les langages NP-complets et P-complets (P pour polynomiaux et NP pour non polynomiaux).
Dans les années 70, des relations sont établies entre la machine de Turing et la complexité des circuits. Les travaux se poursuivent. À la fin des années 70, on s'est beaucoup intéressé au modèle VLSI, cela provoqué un regain d'activité en matière d'architectures.
Au début des années 80, sont apparus les premiers modèles relatif à la hiérarchisation des mémoires et par conséquence à la complexité des entrées et sorties.
La cryptographie à clef révélée (ou clef publique) remonte à la deuxième moitié des années 70. Son usage le plus connu aujourd'hui est la sécurisation des paiements sur internet.
La recherche sur le parallélisme et les machines parallèles a vraiment commencé dans les années 70. Elle est très loin d'être terminée. Elle a abouti à des modèles nouveaux pour des problèmes anciens. On comprend mieux pourquoi certains problèmes sont plus difficiles à programmer en parallèle qu'en série. Les limites prévues de l'intégration à grande échelle vont rendre le parallélisme encore plus nécessaire et donc l'intérêt de ces travaux.
La sémantique formelle des langages de programmation est née dans les années 60. Elle a conduit à mieux connaître la construction des programmes, leur analyse statique et les règles de leurs transformations ce qui intéresse au plus haut point la compilation. Dans le même temps était engagée l'étude des vérifications formelles.
La théorie des bases de
données relationnelles, du début des années 70, a
eu un impact considérable sur l'industrie.
Ce fichier n'a pas de questionnaire
Conservatoire national des arts et métiers
Architectures des systèmes informatiques
CHAPITRE 1
Origine et évolutions des architectures
Année 2002-2003