Conservatoire national des arts et métiers
Architectures des systèmes informatiques
CHAPITRE 1
Origine et évolutions des architectures
Année 2002-2003

Suite N°9...

1.6. LES ANNÉES 60

Les techniques de fabrication et par conséquence des réalisations évoluent rapidement.

Le moteur du progrès.

Le principal est la demande de la NASA pour le programme spatial Apollo dont les crédits sont illimités. Un autre est la demande des entreprises attirées par les nouvelles capacités des machines.

Le nombre de composants passe à 106.

Les techniques qui progressent.

Ce sont les améliorations apportées au procédé Planar de 1959 et l'invention du procédé MOS complémentaire (CMOS) entre autres. Elles s'appliquent aux composants électroniques et par conséquence aux ordinateurs.

Les deux principaux fournisseurs, Texas Instruments et Fairchild perfectionnent en permanence le procédé Planar de 1959. Les circuits intégrés deviennent plus denses, plus fiables et moins coûteux. On les caractérise à cette époque par le nombre approximatif de composants par boîtier :

SSI (Small Scale Integration) de 1 à 10 transistors
MSI (Medium Scale Integration) de 10 à 100-500 transistors
LSI (Large Scale Integration) de 100-500 à 20000 transistors
VLSI (Very Large Scale Integration) de 20000 à 300000 transistors
SLSI, Super Large Scale Integration plus de quelques centaines de milliers

Ces termes ne sont plus utilisés car les circuits sont aujourd'hui tous dans la dernière catégorie (cf. les taxinomies)

Les progrès en électronique sont accélérés par une invention de juin 1963. Frank Wanlass dépose le brevet du procédé MOS complémentaire ou CMOS (Complementary metal oxyde silicium). Avec ce procédé, la consommation d'une porte au repos est de quelques nanowatts, inférieure de six ordres de grandeur à son homologue bipolaire et de trois ordres de grandeur à son homologue PMOS.

Les conséquences.

L'informatique utilise ces progrès :

Les ordinateurs sont moins volumineux, plus fiables et moins coûteux.

On est moins avare :

Dans l'unité centrale, les opérateurs de virgule flottante deviennent usuels, l'un d'eux est câblé en double précision dès 1959 dans l'IBM 709 qui contient une première possibilité d'anticipation.

Les registres généraux, huit ou seize, deviennent une réalité économique à la place de l'accumulateur unique ce qui crée une nouvelle famille de processeurs.

On met en œuvre des idées connues en attente d'application :

La microprogrammation avait été inventée en 1951. Pendant les années 1950, les ordinateurs d'un même constructeur n'étaient pas compatibles entre eux. On devait récrire les programmes quand on changeait de machine ou encore mettre en œuvre une couche d'émulation logicielle de la machine précédente sur la suivante. La diffusion de la microprogrammation devient massive car on dispose alors de trois types de mémoires à des coûts différents et acceptables : la mémoire externe magnétique, la mémoire centrale à tores, la mémoire électronique beaucoup plus rapide que la précédente même si elle est beaucoup plus chère. Cette dernière est utilisée pour loger les microinstructions. On va ainsi pouvoir :

La microprogrammation apporte cette compatibilité par l'émulation d'une même machine de principe sur des supports matériels dont les performances et les coûts sont très différents. Ceci apparaît en 1964, avec pour auteurs Amdahl, Blaauw et Brooks dans «IBM360 original papers».
 
Le jeu d'instructions ne sera plus
l'image de la structure physique du processeur.

Les mêmes motifs font diffuser les techniques connues gourmandes en registres :

Cette machine est une des plus novatrices que l'on ait connu. Elle sera longtemps reine des travaux scientifiques car elle a deux unités de calcul l'une en virgule fixe, l'autre en virgule flottante qui produit environ 200 kFLOPS.
Les années 60 sont aussi l'époque où apparaissent les multiprocesseurs, par exemple ILLIAC IV (de type SIMD) au MIT alors que le tout premier multiprocesseur avait été construit à la fin des années 1940.

Flynn publie sa taxinomie :
 

Simple instruction Simple donnée  SISD
Simple instruction  Multiple donnée SIMD
Multiple instruction Simple donnée MISD
Multiple instruction Multiple donnée MIMD

Les idées nouvelles

Deux techniques internes à l'ordinateur apparaissent, gourmandes en registres elles aussi :

Plus généralement, au lieu de n'utiliser que le nombre minimal de composants, il devient économique de mettre en œuvre des circuits tous identiques, quitte à n'utiliser qu'une partie des capacités de chacun. Cette perte brute en nombre de transistors ou de portes utilisés est plus que compensée par les économies d'échelle dans la fabrication des circuits et par la baisse du coût d'assemblage par la réduction du nombre de soudures. Ce début de standardisation des composants conduit à imaginer des structures régulières. La plus claire est le bus unique inventé chez Digital Equipment Corporation et mis en œuvre dans la série PDP dès 1962. Cette structure simplifie et normalise les échanges internes, les entrées, les sorties et l'adressage des périphériques. Elle fonde le mini-ordinateur qui disparaitra dans les années 1990.

De 1962 à 1968, Burroughs produit les B5000 et B5500 pourvus de la segmentation automatique (gestion des piles de données avec allocation automatique des tableaux grâce aux préfixes descripteurs). Ce sont les premières machines capables de gérer une mémoire virtuelle potentiellement illimitée.

Deux machines, STRETCH dans la version Harvest et B5500 dans un de ses deux modes de fonctionnement appliquent l'idée de flot de données. Le processeur est vu comme un transformateur qui reçoit un flot de caractères en entrée et produit un flot de sortie. Elles n'ont pas alors de successeurs immédiats. C'est la même idée qui est appliquée pour le décodage et l'exécution des instructions avec les dispositifs d'anticipation et le pipeline.


Les réalisations les plus importantes.

Les trois événements les plus importants en matière d'ordinateurs dans les années 1960 sont :

Autres réalisations et divers faits.
En 1962 le nombre d'ordinateurs livrés (hors URSS et satellites) est petit, l'industrie a un acteur majeur monopolistique, le reste de la production est émietté.

 
Entreprise Nombre de machines % de machines
IBM 4806
65,8
Rand Corporation
635
8,7
Burroughs
161
2,2
CDC
147
2,0
NCR
126
1,7
RCA
120
1,6
General electric
83
1,1
Honeywell
41
0,6
autres
1186
16,3
Total
7305
100

 La First National Bank of Chicago utilise, en 1962, les premiers terminaux de guichet reliés à un IBM 1410.

En 1962, Philippe Dreyfus, ingénieur chez Bull, imagine le mot informatique, contraction des mots information et automatique, pour remplacer le très lourd et mal conçu «computer science».

Burroughs annonce le B8500, candidat au titre de plus grand ordinateur du monde pouvant contenir jusqu'à 14 processeurs. Il provient de la machine militaire D825.

La même année le mathématicien canadien Kenneth Iverson conçoit «A programming language» ou APL. Ce langage interprété, extrêmement spécialisé en calcul scientifique, reste un modèle de concision. Il suscitera des passions, certains allant jusqu'à en préconiser l'emploi en gestion.

Le groupe français d'assurances Drouot réalise la première installation européenne de gestion à distance sur IBM 1410.

En septembre 1964, une liaison transatlantique est réalisée via le satellite Telstar depuis le laboratoire d'IBM France à La Gaude et IBM annonce PL/1, «Programming language number one». Il est voulu universel et doit remplacer à court terme tous les langages de programmation. Pour son promoteur, ce langage va de pair avec l'idée que la série 360 est universelle, rompant ainsi avec la notion de machine spécialisée par destination. Il sera utilisé dès l'année suivante pour écrire le système d'exploitation Multics.

PL/1 a de très grandes qualités :

Son avantage pour IBM, un défaut pour les autres, est de nécessiter une puissance de calcul considérable pour l'époque et beaucoup de mémoire à une époque où les grands ordinateurs des concurrents n'ont que 64k octets de mémoire.

Le langage Ada plus récent a au moins deux points communs avec lui. Le premier est que l'on a voulu mettre dans le langage tout ce que l'on savait. Le second est que celui qui tente de l'imposer est un organisme à caractère monopolistique (département américain de la défense pour Ada). IBM avait sous-estimé les poids de l'histoire, des investissements non amortis et des habitudes. COBOL et FORTRAN restèrent largement en usage. Dans un autre domaine le bus MCA des années 80 fut de la même veine.

Cette même année 1964, American Airlines met en place le système de réservation SABRE constitué de 1200 terminaux connectés à deux IBM 7090, le second double le premier. Le réseau de lignes téléphoniques a 20 000 km. Les multiplexeurs gèrent jusqu'à 10 lignes à grande distance. Les informations accessibles sont rassemblées dans une base de données. C'est un des premiers systèmes de Data base/Data communication (DB/DC). Le système est utilisé par du personnel non spécialisé en informatique.

Deux acteurs nouveaux.

Le premier acteur nouveau va devenir mondial :

La société Digital Equipement Corporation (DEC) a été créée par les frères Ken et Sam Olsen et Harland Anderson, tous anciens du MIT, pour réaliser des circuits logiques utilisables comme briques dans des systèmes de commande numériques. Ken Olsen avait participé à la mise au point de Whirlwind. DEC va fabriquer des machines, sous le nom de PDPn (n: numéro de série). Le PDP1 est un ordinateur pour le temps réel. Il a 4 k mots de 18 bits et est vendu 120.000 dollars d'alors, prix très raisonnable qui n'est que 5% du prix de l'IBM 7094. Grande nouveauté, il a un écran graphique de 512x512 points, qui est un tube de radar. Chaque programme est suspendu d'office toutes les 140 millisecondes. La machine peut ainsi être utilisé en mode interactif. Il sera suivi en format 18 bits par les PDP 4, 7, 9 et 15. D'autres PDP ont des mots 16 bits PDP 11, des mots de 36 bits pour le calcul scientifique PDP 3, 6 et 10, ou de 12 bits pour des applications médicales PDP 5, 8, 12 et 14. Ces machines sont programmées en autocodeur puis en langages interprétés ou compilés.

Edouard de CASTRO, ingénieur chez DEC qui avait déjà largement contribué à la machine à 12 bits a une grande idée. Reprenant l'architecture du PDP 5, il conçoit une machine toute nouvelle. D'abord elle est montée sur une chaîne et non plus assemblée sur plate-forme, ensuite, elle utilise une technologie très bon marché : des composants grand public utilisés très en deçà de leur capacité affichée et enfin, comme entrée-sortie un télétype bon marché en matière plastique, l'ASR 33. Cette machine, d'architecture très simple, eut pour nom PDP8. Elle était livrée pour 16 000 dollars avec tous ses plans et des accessoires pour la dépanner voire la modifier. Elle fonctionnait sans climatisation. On créa un club d'usagers (le DECUS pour DEC users) pour échanger les programmes qui alors étaient gratuits chez tous les constructeurs. Le manuel d'utilisation fut diffusé en livre de poche chez les marchands de journaux et nombre de jeunes scientifiques y apprirent la programmation. 50 000 exemplaires furent vendus. Certes le PDP 8 paraîtrait cher aujourd'hui mais pour la première fois un ordinateur quittait l'ambiance de forteresse climatisée des centres de calcul et les utilisateurs travaillèrent librement dans leurs laboratoires.

Le second acteur nouveau est national et le restera :

En 1966 toujours, naît en France un avatar technocratique, le Plan-calcul, conçu et mené pour assurer l'indépendance nationale en matière d'ordinateurs dans une logique d'arsenal. Il est monté après que la Compagnie des machines Bull, épuisée par l'aventure du Gamma 60 a été vendue à General Electric (États-Unis). Une équipe issue de Bull avait entre temps conçu une belle machine PALLAS sortie en 1963, dans la Société européenne pour le traitement de l'information (SETI).
La Pallas avait plusieurs particularités notables :
.une mémoire centrale asynchrone;
.une unité de virgule flottante;
.le codage ASCII paru la même année;
.la multiprogrammation;
.huit canaux d'entrée et sortie;
.plusieurs langages de programmation : Algol, Fortran, Geai (gestion et automatisation intégrée);
.la récursivité par la commande RP renvoi en procédure.
Elle n'a pas eu de successeur.

Les constituants du Plan-calcul sont :

La CII a un capital de 1 MF, réparti à raison de : 56,4% pour la CITEC, holding CGE et CSF, 33,3% pour le groupe Schneider, 10,3% pour le groupe Rivaud (Intertechnique et Kali Sainte Thérèse). Chiffre d'affaires prévu pour 1968 : 330 MF. PDG : Jacques Maillet. DGA : Jean Auricoste.

Le lecteur trouvera de plus amples développements sur les dilapidations d'argent public qui en ont résulté dans l'annexe asi0010.

La lenteur relative des périphériques d'entrée et de sortie vis-à-vis du processeur, avait déjà les palliatifs cités précédemment. Les différences qui se creusent entre les temps d'accès aux périphériques et les performances des processeurs conduisent à la multiprogrammation (multiprogramming) et au partage de temps (time sharing) pour saturer les processeurs encore chers, multiprogrammation sur IBM STRETCH (7030) en 1960, partage de temps sur les IBM 7090-7094 sous le nom de CTSS créé au MIT en 1961 par Fernando Corbato, professeur d'ingénierie et Robert Fano. Quand les performances de matériels couplés s'écartent il faut inventer des palliatifs.

Une multiprogrammation est réalisée en 1966 à l'université de Paris par Jacques Arsac sur l'ordinateur israélien Elbit.

La multiprogrammation et le partage de temps rendent nécessaire l'augmentation du nombre d'instructions de base notamment pour les changements de tâches, pour la protection de la mémoire et pour la gestion des priorités. La microprogrammation enfin réalisée rend cet accroissement peu coûteux, ce qui n'aurait pas été le cas si le séquenceur était resté câblé.

De plus, la plupart des périphériques étaient propres à une machine en particulier. IBM décide que dans la série 360, annoncée le 7 avril 1964, les périphériques seront interchangeables. Le numéro 360, signifie 360° d'ouverture car ces ordinateurs couvrent tous les besoins de l'entreprise : 20, 30, 40, 50, 60, 62, 70, puis 65, 85, 91 et 92.

Le 360/30 faisait 33 000 additions par seconde, le 360/91, 2 500 000. La famille offrait en tout 19 combinaisons de débits de calcul et de capacité de mémoire et avait quelque 44 périphériques compatibles. Les circuits des 360 étaient «en couche mince», technique créée par IBM par laquelle on plaçait des circuits minuscules sur des modules de céramique de 1 cm2.

Une autre façon de voir la série 360 est de raisonner en termes d'architecture fondée sur un jeu d'instructions. Elle a été le fondement de la série IBM 360 dont les machines étaient toutes identiques pour l'utilisateur, sauf les performances. Le 360/85 est contient un cache. Le plus élevé dans la gamme, 360/91 fut le seul où toutes les ressources visibles par le programmeur via le jeu d'instructions étaient câblées.

Caractéristiques des premiers IBM 360
caractéristiques\modèles
30
40
50
60
Performance relative
1
3,5
10
21
Temps de cycle (ns)
1000
625
500
250
Mémoire maximum (ko)
64
256
256
512

La mémoire virtuelle :

Un autre développement majeur de cette décennie est la mémoire virtuelle qui combine des techniques obligatoires ou optionnelles :

Le cache complète un étagement régulier des temps de réponse des différents supports de mémoire à raison inverse de leur capacité : registre, cache, mémoire, disque et bande magnétique.

En 1969, le superviseur CICS est disponible. Il demande 256 Ko de mémoire.

Une nouveauté non architecturale mérite l'attention, le code ASCII est publié comme première norme informatique en 1963, l'année suivante paraît l'Avis V24.

Le calcul analogique.

Le calcul analogique disparaît dans les années 1960. Cette notion était très ancienne même si elle n'avait été bien expliquée qu'à une époque récente. Les calculateurs analogiques travaillaient sur des grandeurs continues. Ils étaient spécialisés ou universels. Un plan, une maquette sont des modèles analogiques d'une réalité. On isole certaines propriétés grandeurs ou proportions d'une réalité pour les étudier.

Le calcul analogique relève de la théorie des modèles car il ne s'agit pas plus de la réalité que «la carte n'est le territoire». Une machine analogique est un système physique dont certains paramètres commandables et mesurables sont reliés entre eux par des relations connues. Il opère sur des grandeurs continues. Spécialisé ou universel, il a eu un rôle important. L'astrolabe du Moyen âge était une machine analogique, comme l'extraordinaire machine grecque d'Antikythéra ou encore la machine à calculer les marées à Dakar du CNAM. Il en était de même pour la règle ou l'hélice à calcul, les cuves rhéographiques, les souffleries aéronautiques, les bassins d'essais des carènes et très récemment la maquette construite pour étudier l'influence d'aménagements maritimes sur la topographie de la baie du Mont Saint Michel.

Le calculateur analogique n'était pas a priori spécialisé. Il était constitué au début du siècle par des roues et des disques et des billes, plus tard par des intégrateurs et des potentiomètres. Leurs combinaisons simulaient la résolution d'équations différentielles. La société SEA, qui produisit les premiers ordinateurs en France était aussi spécialisée en calcul analogique. Les derniers travaux d'importance avaient abouti aux calculateurs à courants porteurs produits au début des années 1960 par la CSF sous le nom d'ANALAC.

Ce sont les progrès considérables de l'électronique numérique qui ont donné l'avantage au calcul numérique. Même des souffleries aéronautiques ont été remplacées par des ordinateurs vectoriels de grande puissance appelés souffleries numériques par les avionneurs.

Les avantages des calculateurs analogiques étaient :

Leurs défauts, par rapport aux systèmes numériques, étaient : On a utilisé un temps des machines hybrides où un ordinateur déléguait certains traitements à un système analogique par l'intermédiaire d'actionneurs, de convertisseurs analogiques/numériques et de codeurs numériques/analogiques.

Cette voie peut surgir à nouveau à la faveur de couplages avec des dispositifs optiques quasi instantanés, pour des calculs d'hologrammes par exemple.

Signalons en dernier lieu une curiosité. La machine MU5, Manchester university 5, est définie en 1969, achevée en 1974. Elle est le seul représentant entre 1952 et aujourd'hui de la catégorie des machines asynchrones ou machines sans horloge centrale déjà citées.

En 1968, 30 000 ordinateurs sont en fonctionnement dans le monde mais ils restent difficiles d'emploi et leur fiabilité augmente lentement.

Les inventions architecturales de la décennie sont :


Questionnaire

Conservatoire national des arts et métiers
Architectures des systèmes informatiques
CHAPITRE 1
Origine et évolutions des architectures
Année 2002-2003