Plan détaillé du cours

Chapitre 1 : Introduction : généralités  et  objectifs   

1.1. Motivation  pour  le  parallélisme   
1.2. Définitions   
     1.2.1. Parallélisme   
     1.2.2. Traitement  parallèle   
1.3. Concepts  de  base   
    1.3.1. Temps  d’exécution   
    1.3.2.  Coût   
    1.3.3.  Travail   
    1.3.4. Notion  d’accélération   
    1.3.5. Notion  d’efficacité   
     - Efficacité/Accélération   
    1.3.6. Puissance  de  calcul   
    - Exemples  des machines  parallèles   
1.4. Les  ordinateurs  parallèles   
    1.4.1. Les  machines  vectorielles  multi-processeurs   
    1.4.2. Les  multi-processeurs  à  mémoires  distribuées   
    1.4.3. Les  machines  synchrones    

Chapitre 2 :  Architecture  parallèle   

2.1. Types  d’architectures  parallèles   
    2.1.1. Les  machines  à  mémoire  partagée   
    2.1.2. Les  machines  à  mémoire  distribuée   
2.2. Classification  de  Flynn   
    2.2.1. Les  machines  SISD   
    2.2.2. Les  machines  SIMD   
    2.2.3. Les  machines  MISD   
    2.2.4. Les  machines  MIMD   
2.3. Classification  de  REINA   

Chapitre 3  :  Programmation parallèle   

3.1. Sources  de  parallélisme   
    3.1.1. Parallélisme  de  contrôle   
    3.1.2. Parallélisme  de  données   
    3.1.3. Pipelining   
3.2. Notions  de  base   
    3.2.1. Dépendance   
    3.2.2. Graphe de dépendance   
    3.2.3. Synchronisation 
    3.2.4. Communication    
3.3. Programmer  un  système  parallèle   
3.4. Limitation  du  parallélisme   

Modifié le: lundi 27 avril 2020, 17:30