Conservatoire national des arts et métiers
Architectures des systèmes informatiques
CHAPITRE 6
Mémoires de masse
Année 2002-2003

Suite N°3...

6.3.4 Les temps d'accès aux disques

La performance d'un système informatique dépend, entre autres, de celle du sous système de stockage qui peut être caractérisé par le temps d'accès et par le taux de transfert de données.
Le temps d'accès en lecture est la somme des temps des processus successifs suivants :

Les données sont alors transférées à la volée, en lecture du disque vers le contrôleur du disque.Le taux de transfert est le nombre d'octets transférés par seconde. On nomme parfois fréquence de façon fautive le nombre de bits par seconde.

Plus le taux de transfert d'un disque est élevé, plus petit est le temps de transfert. Plus petit est le temps de transfert global, plus rapide peut être le système. C'est particulièrement vrai pour les systèmes d'exploitation mono-tâches. Les tableaux de comparaison entre taux de transfert supposent en général que les autres conditions sont réalisées : la tête est en position, un cylindre entier est lisible, etc. La taille des blocs ou nombre d'octets par secteur influence aussi le taux de transfert. Cependant, un formatage en secteurs longs n'est pas compatible avec tous les systèmes d'exploitation et n'est pas justifié pour toutes les applications. Plus la taille des fichiers fréquemment lus ou écrits sur le disque est petite, plus la taille de secteur devrait être réduite (exemple : fichiers systèmes d'Unix). Plus la taille des fichiers est importante, plus la taille de secteur devrait être grande (pour des images,des vidéos). L'utilisateur peut fractionner son disque physique de grande taille en disques logiques qu'il spécialisera pour de telles données.

Comme une mémoire tampon ou antémémoire ou cache est toujours montée dans les lecteurs, les taux de transfert relevés par les outils de test sont souvent les taux de transfert entre le cache du disque et l'adaptateur. Le taux de transfert de la surface du disque vers le cache est beaucoup plus faible.

6.3.5 Les caches de disques

Pour améliorer les performances, on a installé à des caches. Ils ressemblent fortement aux caches des processeurs. Ici, le mot ligne est remplacé par le mot segment. Un segment contient des secteurs successifs comme la ligne contient des mots successifs. Le cache masque ici les délais mécaniques.
Deux fonctionnements typiques en lecture :

En écriture on utilise deux techniques : Si le cache ne peut pas être vidé en cas de d'arrêt pour perte d'alimentation, un onduleur est indispensable.Un bon cache peut faire économiser 90% des temps d'attente. Les temps d'accès moyen apparents sont réduits à moins de 1 ms.

NOTES complémentaires :

  1. les alinéas précédents concernent les caches inclus et gérés par le contrôleur du disque; de nombreux systèmes d'exploitation (Windows NT, NetWare, Unix et OS/2 par exemple) gèrent un deuxième étage de caches en mémoire centrale;
  2. les systèmes d'exploitation ou des programmes additionnels peuvent créer et gérer des disques virtuels en mémoire centrale, leurs performances sont largement plus grandes que celles des disques physiques.
6.3.6 Les capacités courantes et les records en 1994 !pour que le lecteur apprécie lui-même les évolutions depuis huit ans.

1997 : Western Digital met sur le marché le «Enterprise WDE9100 Ultra SCSI» de 9.1 Go. Il a 9 cm (3,5 pouces) de large et 2,5 cm d'épaisseur. Il consomme 20% moins de courant électrique que les disques de 4,2 cm (1,6 pouce) d'épaisseur. Sa vitesse de transfert des données est de 160 Mo/s, son temps moyen d'accès aux données est de 8 ms ou moins et sa vitesse de rotation est de 7 200 t/min. Le lecteur a une mémoire tampon de 512 Ko qu'on peut augmenter à 1 Mo.

Quelques semaines plus tard, IBM reprend la tête avec le Deskstar 16GP à têtes magnétorésistives qui stocke 16,8 Go.

On trouvera plus loin la technique de mise en grappe des disques connue sous le nom de RAID.

6.3.7 Trois disques en 2003

Au début de 2003, Western Digital propose deux disques WD1200BB et WD1200JB et IBM-Hitachi propose un disque Deskstar 120GXP. Tous les trois sont comparables. Voici un tableau récapitulatif des grandes caractéristiques de ces disques :
 
Caractéristique IBM 120GXP WD 1200BB WD 1200JB
Vitesse de rotation 7200 t/mn 7200 t/mn 7200 t/mn
Interface ATA-100 ATA-100 ATA-100
Capacité théorique 120 Go 120 Go 120 Go
Nombre de plateaux 3 3 3
Capacité par plateau 40 Go 40 Go 40 Go
Taille du cache 2 Mo 2 Mo 8 Mo
Débit théorique (hors cache) 74 Mo/s 75,25 Mo/s 75,25 Mo
Temps de latence moyen 4,2 ms 4,2 ms 4,2 ms
Temps d'accès moyen 8,5 ms 8,9 ms 8,9 ms
Temps d'accès piste à piste 1,2 ms 2,0 ms 2,0 ms
Taux d'erreur 10-13 <10-14 <10-14
Nombre de cycles marche-arrêt 40 000 50 000 50 000
Choc à l'arrêt accepté 250 g, 2 ms 200 g, 2 ms 200 g, 2 ms

Les autres fabricants comme Maxtor et Seagate proposent eux aussi des disques tournant à 4200 t/mn.

6.4 LES DISQUES OPTIQUES

6.4.1 Généalogie simplifiée

6.4.2 Caractéristiques générales par rapport aux supports magnétiques

Une très grande densité d'information, couramment de 20 à 50 Mbits/cm², soit un ordre de grandeur au dessus de la densité des supports magnétiques.
Une plus grande pérennité du contenu. On l'estime supérieure à plusieurs dizaines d'années.
Une grande robustesse, par l'insensibilité à l'ambiance radio électrique, comme au fait qu'il n'y a pas de risque d'atterrissage intempestif de tête sur le support.
Une meilleure fiabilité, estimée à 10-12 au lieu de 10-9.
En corollaire de la densité, un coût du bit conservé plus faible.
En conséquence, ils ont d'autres marchés comme le stockage de la voix et des images fixes ou animées, dont les volumes unitaires sans compression sont des ordres suivants :

  8 Ko par seconde de parole,
130 Ko par seconde de son stéréophonique,
 60 Ko par page A4 numérisée,
700 Ko par image couleur fixe,
  4 Mo par seconde de télévision couleur.

L'annexe asi021 contient un développement sur les disques à lecture optique.

6.5 LES PÉRIPHÉRIQUES PC CARD, anciennement PCMCIA, à ne pas confondre avec les «Smartcards».

L'association «Personal computer memory card international association» groupe des fabricants d'électronique comme AMD, Intel, Motorola, AT&T, Microelectronics et des éditeurs de logiciels.

Autant il est relativement simple d'ajouter un périphérique dans un micro ordinateur de bureau qui dispose de positions d'extension sur le bus, autant le volume minimal des ordinateurs portables ne laisse pas cette possibilité. Les normes PCMCIA de 1989 à 1992, PC Card depuis 1995 régissent des périphériques de la taille d'une carte de payement enfichables sur un connecteur spécial unique.

PCMCIA Type III novembre 1992
Longueur en mm
86
86
86
Largeur en mm
54
54
54
Épaisseur en mm
3,3
5,0
10,5
Connecteurs (nombre)
68
68
68
Bus adresses
26
26
26
Bus données
8 ou 16
8 ou 16
8 ou 16
Alimentation Volts
5
3,3
5
Utilisations
mémoire
modem, réseau
disque

Les cartes des types ultérieurs sont utilisables sur les connecteurs antérieurs. Comme pour tous les périphériques, le BIOS doit contenir les tâches nécessaires à leur gestion. Les PC Cartes répertoriées par le BIOS sont gérées correctement. Si elles n'y figurent pas, un programme pilote doit être chargé. Les portables récents sont souvent livrés avec quelques dizaines de ces programmes. La question est simple pour les périphériques normalisés comme les cartes Ethernet (en général au format d'Intel), les modems compatibles Hayes, les disques, les mémoires flash et l'entrée vidéo.

On trouvera ailleurs l'évolution de la normalisation et la bibliographie.

6.6 QUELQUES PERSPECTIVES SUR LES DISQUES

Il ne s'agit que de quelques évolutions possibles. Nous avons vu plus haut des éléments de substitution technique :

D'autres évolutions ou changements portent sur la représentation de l'information et le traitement des signaux physiques dans le domaine magnétique.Beaucoup de bons esprits pensent que dans les années à venir les fabricants de disques utiliseront des techniques numériques complexes. On en attend une augmentation de la densité d'enregistrement. Ces modifications porteront sur le seul sous système du disque sans influence sur le reste de la machine.

Le premier fait technique est la mise en service de la méthode de détection par maximum de vraisemblance sur réponse partielle PRML pour «partial response maximum likelihood» par Cirrus logic, IBM et Adaptec. Elle a été inaugurée pour la première fois dans les communications à très grande distance de la sonde interplanétaire Viking. Très succinctement, il s'agit d'améliorer la détection par seuil par la prise en compte de valeurs voisines de la valeur lue. La décision est prise au vu de la différence de valeur entre le bit examiné et ses deux voisins et non plus sur la seule comparaison de la valeur lue à un seuil prédéfini.

Exemple
Considérons deux suites de valeurs lues, tensions aux bornes du lecteur :

Le seuillage classique à 50 extrait les valeurs :1 1 1 1 1
0 0 0 0 0

La méthode PRML considère qu'il s'agit de deux suites. Dans la première, deux positions hautes 70,65 et 62, 65 encadrent une position basse 51. Dans la seconde, deux positions hautes 40,40 et 40,45 encadrent une position basse 28. Ces deux suites seront interprêtées en ?101?.
Les valeurs du premier et du dernier bit notés ici ? seront déterminées par la connaissance des deux bits voisins.

On ajoute à la méthode PRML un filtrage du bruit par la prise en compte du brouillage réciproque des bits voisins. Une évolution par amélioration des algorithmes est nommée EPRML (extended PRML).

Le second fait technique est l'amélioration de l'alignement de la tête sur la piste par détection et asszervissement sur des cales.

Au total, le processus de conversion des bits en marques magnétiques et réciproquement peut faire intervenir quatre algorithmes hiérarchisés :

Notons que les contrôleurs plus anciens utilisaient deux détecteurs. L'un vérifiait si le signal est supérieur à un niveau prédéfini, l'autre cherchait le 0 logique par estimation de la dérivée du signal. Cette technique n'autorisait pas des transitions proches en raison du temps nécessaire pour évaluer la dérivée via les échantillons successifs du signal. La technique PRML est plus rapide.En résumé :

La technique analogique :

La technique numérique :


Questionnaire

Conservatoire national des arts et métiers
Architectures des systèmes informatiques
CHAPITRE 6
Mémoires de masse
Année 2002-2003