Les meilleurs cours et tutoriels pour apprendre et se perfectionner en calcul scientifique et de haute performance
Les meilleurs cours et tutoriels pour apprendre et se perfectionner en calcul scientifique et de haute performance
Cette page présente une sélection des meilleurs tutoriels et cours de formation gratuits pour apprendre les environnements decalcul scientifique et de haute performance (HPC), de niveau débutant à expert. Vous y trouverez tous les cours et tutoriels de formation pour apprendre les technologies propres au calcul scientifique et de haute performance. Ces technologies vont du simple parallélisme sur une machine à l'exécution d'un programme sur un superordinateur complet.
Page lue fois.
Nombre d´auteurs : 21, nombre de traducteurs : 6, nombre d´articles : 24, dernière mise à jour : 21 juin 2021
Sommaire
menu
Débuter
-
Premiers pas avec Python pour la science : le calcul scientifique avec Python
par Fernando Perez, Emmanuelle Gouillart, Gaël Varoquaux, Valentin Haenel, Raphaël SebanLes besoins d'un scientifique sont bien définis et Python est un langage de programmation adapté pour ceux-ci. -
Apprendre NumPy - La bibliothèque de calcul numérique de Python
par Gabor Laszlo Hajba, Laurent RosenfeldCe tutoriel est le premier d'une série de tutoriels présentant NumPy, la bibliothèque de calcul numérique de Python. -
L'objectif de cours est de faire un tour d'ensemble des techniques matérielles et logicielles mises en oeuvre au sein des architectures des processeurs à haute performance, afin d'en tirer le meilleur parti lors de l'écriture de programmes faisant un usage intensif du processeur et de la mémoire. -
Ce cours vous donne la possibilité d'apprendre la parallélisation multitâche pour machines à mémoire partagée avec OpenMP. OpenMP amène aujourd'hui une interface standard de haut niveau pour une programmation parallèle de type SPMD (Single Program Multiple Data) sur machine à mémoire partagée. Basée sur les techniques du multithreading, on peut considérer OpenMP comme l'un des grands standards au service du calcul scientifique. -
Ces diapositives présentent la programmation parallèle pour le calcul scientifique avec les outils phare dans le domaine : MPI pour l'échange de messages entre machines et OpenMP pour la mémoire partagée (multic?ur).
menu
Architecture des machines parallèles
-
L'objectif de cours est de faire un tour d'ensemble des techniques matérielles et logicielles mises en oeuvre au sein des architectures des processeurs à haute performance, afin d'en tirer le meilleur parti lors de l'écriture de programmes faisant un usage intensif du processeur et de la mémoire. -
Cette vue d'ensemble présente les méthodes utilisées pour le calcul parallèle d'images de synthèse, plus particulièrement sur les processeurs graphiques. -
Ce cours vous permettra de comprendre les architectures parallèles et leur programmation pour le calcul scientifique. Il abordera tant les machines à mémoire partagée que le passage de messages. -
Ce tutoriel vous donnera l'envie de comprendre le concept de grille de calcul, d'identifier les défis associés et d'entrevoir les perspectives scientifiques des grilles informatiques. -
Ces diapositives présentent une introduction au métacalcul et au calcul global.
menu
Programmation parallèle à mémoire partagée (OpenMP)
-
Ces diapositives présentent la programmation parallèle pour le calcul scientifique avec les outils phare dans le domaine : MPI pour l'échange de messages entre machines et OpenMP pour la mémoire partagée (multic?ur). -
Ce cours vous donne la possibilité d'apprendre la parallélisation multitâche pour machines à mémoire partagée avec OpenMP. OpenMP amène aujourd'hui une interface standard de haut niveau pour une programmation parallèle de type SPMD (Single Program Multiple Data) sur machine à mémoire partagée. Basée sur les techniques du multithreading, on peut considérer OpenMP comme l'un des grands standards au service du calcul scientifique. -
Ce cours vous permettra de comprendre les architectures parallèles et leur programmation pour le calcul scientifique. Il abordera tant les machines à mémoire partagée que le passage de messages. -
OpenMP : parallélisation multitâche pour machines à mémoire partagée
par Jalel Chergui, Pierre-François LavalléeCe cours présente la parallélisation multitâche pour machines à mémoire partagée avec OpenMP. Un programme OpenMP est une alternance de régions séquentielles (traditionnelles) et de régions parallèles (annotées avec OpenMP), ce qui permet d'en accélérer l'exécution si les régions parallèles représentent suffisamment d'efforts. Vous apprendrez à utiliser cette API dans vos prorgammes.
menu
Programmation parallèle par échange de messages (MPI)
-
Ces diapositives présentent la programmation parallèle pour le calcul scientifique avec les outils phare dans le domaine : MPI pour l'échange de messages entre machines et OpenMP pour la mémoire partagée (multic?ur). -