FLASH INFORMATIQUE FI

Numéro spécial HPC


Les origines des forces de friction à portée des super-ordinateurs




Guillaume ANCIAUX


Les forces de frictions ont des origines microscopiques encore bien mal comprises.Des recherches, menées à l’EPFL grâce à des super-calculateurs, utilisent des modèles couplant échelle atomique et macroscopique pour apporter de nouveaux éléments de compréhension des lois coulombienne de friction. Les avancées ainsi que les difficultés de la discipline sont ici présentées.

L’humanité s’est intéressée à la tribologie depuis fort longtemps (des historiens montrent l’utilisation de roues à partir de 3500 av. J.-C.). L’état actuel de nos connaissances apporte une bonne compréhension des dispositifs mécaniques construits par l’homme à l’échelle macroscopique. Toutefois, la mécanique du contact traditionnelle décrit les phénomènes tribologiques par des lois empiriques ou semi-empiriques par exemple à l’aide de la très célèbre loi de Coulomb. Prenons le cas présenté sur la figure 1. Un objet qui glisse sur un support fixe ne continuera son mouvement qu’à la condition qu’une force lui soit appliquée. Si cette dernière s’équilibre avec les forces de friction alors le mouvement se fait à vitesse constante. Selon le modèle coulombien le rapport µ=F/N est constant. Autrement dit, la force nécessaire pour faire bouger l’objet est proportionnelle à la force qui l’appuie contre le support.

JPEG - 21.2 ko
fig. 1
un agrandissement de la zone de contact montre la complexité microscopique d’un tel mouvement

En réalité, la loi coulombienne n’est pas exacte. Le coefficient de friction dépend de nombreux paramètres comme la température, la vitesse de glissement, la rugosité des surfaces, la présence d’un troisième corps (liquide ou gazeux) jouant un rôle lubrificateur, et bien d’autres. Finalement, que ce soit à l’échelle macroscopique ou nanoscopique, les problèmes tribologiques sont particulièrement difficiles à expliquer. La raison principale tient, comme beaucoup de problèmes en mécanique des matériaux, du fait que les différents mécanismes interagissent à des échelles de temps et d’espace séparées, mais qui contribuent significativement au phénomène global. Sur la figure 1, un agrandissement de la zone de contact révèle la complexité des surfaces des solides en contact : la surface de contact réelle n’est pas celle que l’observateur de l’échelle macroscopique pourrait constater.
C’est donc tout naturellement que de récents efforts de recherche se sont orientés vers le calcul des forces de contact à partir des micro- et nano-aspérités. Bien sûr, les déformations élastiques qui peuvent agir à de très grandes distances de la zone de contact doivent être prises en compte. Cette séparation d’échelle constitue un défi important qui a été un frein, jusqu’à présent, à la simulation numérique des phénomènes de frottement et d’usure aux très petites échelles. Aujourd’hui, avec les expérimentations qui explorent la nano-tribologie et avec la croissance de la puissance des calculateurs, l’exploration par la simulation des phénomènes tribologiques devient de plus en plus nécessaire et pertinente.
Particulièrement, au Laboratoire de Simulation en Mécanique des Solides, des efforts importants sont portés sur l’influence de la rugosité des surfaces en contact sur le coefficient de frottement. Des études pionnières utilisaient la mécanique des milieux continus comme modèle ainsi qu’une discrétisation par éléments finis pour simuler deux corps, avec des surfaces rugueuses, mises en contact par l’application d’une pression. Il a alors été soupçonné qu’aux échelles les plus petites, la nature discrète de la matière pourrait modifier sensiblement les prédictions auparavant obtenues. C’est là que la dynamique moléculaire, qui modélise explicitement chaque atome d’un corps, a fait son entrée. On a alors pu montrer que les forces de contact calculées par la mécanique des milieux continus étaient globalement sous-évaluées, car la représentation de l’organisation atomique ne peut être correctement prise en compte dans une matière assimilée comme continue.
Même si la dynamique moléculaire est une approche bien établie pour la simulation des matériaux à l’échelle atomique, elle possède un talon d’Achille particulièrement vulnérable. Le principal problème réside dans la manipulation informatique des atomes nécessaires pour créer des simulations de taille conséquente sur des temps suffisamment longs. Pour donner un ordre d’idée de la difficulté du problème, considérons 1 µm3 de silicium solide. Ce dernier contient approximativement 1011 atomes. Si l’on souhaite stocker 3 champs de données tridimensionnelles (position, vitesse et force sont un minimum) dans des flottants double précision alors un simple calcul permet d’obtenir le chiffre vertigineux de 6,5 Térabytes pour une photo instantanée de l’état de la matière. Il est légitime de se demander comment stocker et visualiser autant de données. Des techniques de parallélisation peuvent aider à réaliser des simulations avec un nombre d’atomes toujours plus important, mais le coût de calcul lié à la résolution spatiale ainsi que les temps simulés (de l’ordre de la nano-seconde pour quelques millions de pas de temps) est et sera pour encore longtemps la plus grande limitation de la dynamique moléculaire. Jusqu’à très récemment les simulations de mécanique du contact effectuées considéraient soit des cas 2D, soit de très petits échantillons 3D. Dès lors, le lecteur attentif argumentera qu’il était inabordable de considérer les champs lointains de déformation élastique et leur influence sur la mécanique du contact.
Parallèlement, des méthodes hybrides dites de couplage multi-échelles ont émergé pour palier aux problématiques liées aux très grands nombres d’atomes à manipuler. L’idée, assez simple finalement, est de considérer la mécanique des milieux continus lorsqu’elle est suffisamment précise, et la dynamique moléculaire lorsque les déformations locales ne peuvent plus être considérées comme uniformes sur de larges distances. Concrètement, dans la zone très proche des points de contact il faut une représentation atomique, mais plus loin, les déformations deviennent uniformes et un maillage d’éléments finis fournit une très bonne approximation des champs élastiques. Clairement, l’objectif principal est de réduire significativement le nombre d’inconnues à résoudre et ainsi diminuer les temps de calcul et la masse de données à stocker pour effectuer les analyses post-traitement.
La figure 2 montre un domaine utilisé au LSMS pour simuler le contact glissant par un couplage de deux échelles. La partie atomique contient un million d’atomes et le maillage contient 40 000 noeuds. Le couplage est réalisé dans une zone de recouvrement, où les atomes et les éléments finis coexistent et sont collés ensemble par le jeu d’opérateurs mathématiques. L’indenteur va appuyer sur le substrat qui va se déformer du fait du contact glissant. Ce dernier est étendu grâce à un maillage et peut ainsi prendre en compte le champ élastique longue portée. De nombreux développements de modèles et de logiciels ont permis qu’une telle approche soit parallélisée et utilisée efficacement sur les différents moyens de calcul de l’EPFL.

JPEG - 4.6 ko
fig. 2
Modèle couplé pour la simulation du contact entre deux objets constitués d’atomes de cuivre

Toutefois, ces approches ne sont pas parfaites. Une difficulté importante réside dans la technique de parallélisation massive de cette approche. Classiquement une décomposition de domaine est utilisée pour décomposer le calcul global en sous-tâches afin que les processeurs puissent travailler le plus efficacement possible. La figure 3 présente les décompositions sur 4 processeurs puis sur 20 processeurs obtenues par des techniques classiques. Ce sur quoi il faut s’intéresser ici, c’est la zone commune aux deux modèles. Autrement dit, la zone de recouvrement où les deux sous-domaines sont collés ensemble. Suivant le nombre de sous domaines et leur placement, certains processeurs vont participer au couplage ou non. En effet, dans le cas d’un partitionnement du problème en quatre parts, tous les processeurs chargés d’un sous domaine atomique ont une partie incluse dans le recouvrement. Ce n’est plus vrai pour la partition en 20 parts. La conséquence directe est ce que nous appelons communément le déséquilibre de charge. Certains processeurs vont terminer leurs tâches plus rapidement et attendre ceux qui ont plus de travail à fournir. Un ralentissement général est alors observé avec une perte d’efficacité du programme informatique. Il est clair que cet effet augmente avec le nombre de partitions que l’on souhaite utiliser. Pour un grand nombre de processeurs (plusieurs centaines au moins) cet effet commence à devenir ennuyeux et limite l’intérêt de l’approche couplée. Il est important de considérer ce problème et pour ce faire nous travaillons actuellement à l’intégration de techniques de partitionnement de maillages qui prendraient en compte le coût de couplage dans la répartition des tâches.

JPEG - 10.5 ko
fig. 3
Décomposition du domaine présenté sur la figure 2 en 4 parties (à gauche) et en 20 parties (à droite)

Mais il y a aussi une problématique du côté de la modélisation. En effet, un problème connu depuis les prémices de ce type d’approche est celui du traitement correct des ondes mécaniques et plus précisément de la bonne transmission de ces dernières entre la dynamique moléculaire et les éléments finis. Si nous imaginons une onde de déplacement (une vague) qui vient de la partie atomique, et se dirige vers la partie de mécanique continue, que va-t-il se passer ? Eh bien cela dépend de la longueur d’onde. Si cette longueur d’onde est très courte (haute fréquence) alors le maillage qui sert de support à l’onde n’a pas assez de points pour représenter cette dernière. L’onde incidente n’a d’autre choix que de se réfléchir à l’interface. Par contre, pour les grandes longueurs d’onde la transmission se fait sans problème. On peut le voir également selon la théorie de l’échantillonnage de Nyquist-Shanon : si une série de points discrets (les noeuds du maillage) sont le support pour un signal harmonique alors il y a une limite dans le nombre de points minimum nécessaire pour représenter correctement l’information de l’onde. Et cette limite est clairement liée à la fréquence de l’onde.
La figure 4 présente une simulation plan où l’onde de déplacement circulaire présente des réflexions à l’interface. Ces réflexions d’ondes n’ont, bien entendu, rien de physique. Des techniques ont donc été inventées pour contrer cet effet et dissiper ces ondes problématiques. Toutefois, cette portion d’énergie retirée du système a des inconvénients concernant le traitement de la température. En effet, à cette échelle, la température est en fait une énergie ondulatoire correspondant à des ondes quasi stationnaires de très hautes fréquences. Le maillage ne peut pas les représenter et si le système est capable de les dissiper alors l’information concernant l’énergie thermique est perdue. Ces thématiques font partie des recherches que nous menons sur les algorithmes de couplage au LSMS et sont encore émergentes.

JPEG - 15.2 ko
fig. 4
Réflexion d’une onde circulaire à la traversée d’une zone de recouvrement dans un cristal d’Argon en deux dimensions

Toutefois, le message est clair : il est désormais possible de contrer la limitation spatiale des simulations de dynamique moléculaire dans le cadre de l’étude de la matière condensée. Nous avons d’ailleurs déjà appliqué ces concepts sur la mécanique du contact et nous avons pu modéliser le contact glissant de deux surfaces rugueuses (fractales) en prenant en compte l’élasticité à longue portée des objets considérés. Ce domaine, à la rencontre de l’informatique du calcul haute performance, de la modélisation mécanique et de la science des matériaux, présente des facettes clairement multi-disciplinaires. Et d’ailleurs, les multiples difficultés déjà contournées ne le furent que grâce à l’association de scientifiques de spécialités a priori différentes. Pour l’évolution de cette discipline, il est très important de fournir des efforts dans la modélisation et les techniques informatiques. La modélisation, car la parallélisation seule ne saurait rendre possible la simulation par dynamique moléculaire d’échantillons macroscopiques. La parallélisation, car pour obtenir une précision accrue, des domaines de grandes tailles sont requis, et la complexité des algorithmes mis en place rend tout à fait non triviale l’utilisation de ces codes sur les super-calculateurs modernes. Grâce à ces outils, nous découvrirons peut-être les origines microscopiques des forces de friction, qui font que la roue tourne depuis des milliers d’années.



Cherchez ...

- dans tous les Flash informatique
(entre 1986 et 2001: seulement sur les titres et auteurs)
- par mot-clé

Avertissement

Cette page est un article d'une publication de l'EPFL.
Le contenu et certains liens ne sont peut-être plus d'actualité.

Responsabilité

Les articles n'engagent que leurs auteurs, sauf ceux qui concernent de façon évidente des prestations officielles (sous la responsabilité du DIT ou d'autres entités). Toute reproduction, même partielle, n'est autorisée qu'avec l'accord de la rédaction et des auteurs.


Archives sur clé USB

Le Flash informatique ne paraîtra plus. Le dernier numéro est daté de décembre 2013.

Taguage des articles

Depuis 2010, pour aider le lecteur, les articles sont taggués:
  •   tout public
    que vous soyiez utilisateur occasionnel du PC familial, ou bien simplement propriétaire d'un iPhone, lisez l'article marqué tout public, vous y apprendrez plein de choses qui vous permettront de mieux appréhender ces technologies qui envahissent votre quotidien
  •   public averti
    l'article parle de concepts techniques, mais à la portée de toute personne intéressée par les dessous des nouvelles technologies
  •   expert
    le sujet abordé n'intéresse que peu de lecteurs, mais ceux-là seront ravis d'approfondir un thème, d'en savoir plus sur un nouveau langage.