Université de Franche-Comté

Pour mieux faire… simulez !

Les simulations : des outils d'aide à la décision pour la conception

Faire et défaire, c'est toujours travailler, dit-on. Mais parfois « faire » s'avère si long, coûteux et sans garantie de succès qu'il vaut peut-être mieux y réfléchir à deux fois. Et l'une des aides à la réflexion peut être la simulation numérique qui permet de concevoir des produits en respectant un ensemble de contraintes. Elle consiste à résoudre numériquement les équations qui découlent des lois physiques régissant le comportement de l'objet à étudier.

 

 

///////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////

 

 

SOMMAIRE

 

 

Introduction 

 

Sortir de l'analyse par discipline pour envisager globalement un problème

 

Les nouveaux matériaux allient, intrinsèquement, plusieurs physiques

 

Comment faire confiance au virtuel

 

– Conclusion

 

 

La simulation participe à la construction des savoirs. Elle permet de tester des hypothèses en confrontant un modèle théorique avec la réalité. À ce titre, elle est utilisée dans toutes les sciences et technologies. Depuis une trentaine d'années, elle a gagné le milieu industriel qui s'est approprié ces outils pour concevoir de nouveaux produits, anticiper leurs comportements et optimiser leur conception.

 

Après une phase euphorique du tout numérique dans les années 1980, nombre de grands industriels ont dû revenir un pas en arrière en constatant un décalage entre le résultat des simulations et le comportement effectivement observé de ce qu'ils concevaient. Le réel ne se laisse pas attraper si facilement. Mais les simulations reviennent sur le devant de la scène actuellement — depuis le début des années 2000, bénéficiant d'un regain de confiance, loin d'être immérité. En effet, ce laps de temps a suffi pour mettre au point des méthodes de résolution de problèmes complexes, grâce au développement de logiciels de plus en plus sophistiqués exploitant les capacités de calcul des ordinateurs qui ne cessent de s'accroître de façon quasi exponentielle.

 

 

Modèle de moteur de fusée 

 

Modèle de moteur de fusée

 

 

Retour sommaire

 

Sortir de l'analyse par discipline pour envisager globalement un problème

Ces évolutions expliquent aussi que les scientifiques se soient penchés sur la résolution de problèmes jusque là inexplorés, notamment pour les systèmes multiphysiques que l'on rencontre dans le monde industriel.

 

Jusqu'à il y a une dizaine d'années, chaque discipline scientifique — la mécanique, la fluidique, la thermique, l'électromagnétisme — développait ses propres modèles, régis par des équations propres. Mais la miniaturisation des produits développés actuellement et aussi sans doute le raffinement et la précision des produits « multidisciplinaires » obligent à tenir compte de tous les phénomènes en même temps. Pour prendre un exemple trivial, la résistance d'un matériau à un effort peut dépendre de la température et donc de l'échauffement auquel il est soumis. Pour que la description de son comportement soit complète, le calcul de la tenue mécanique doit intégrer les phénomènes liés à l'échauffement. Dans les systèmes microtechniques, ce genre d'interactions multiphysiques prend des proportions telles qu'on ne peut plus les négliger.

 

Un grand groupe du secteur industriel a eu en charge de développer un système microfluidique. Partant d'un principe éprouvé à l'échelle macroscopique, les ingénieurs de l'entreprise souhaitent l'adapter à l'échelle microscopique, ce qui sous-entend d'intégrer dans la réflexion les contraintes amenées par les techniques de microfabrication. Plutôt que de réaliser nombre de prototypes, le groupe a fait appel à l'Institut Pierre Vernier pour simuler son dispositif. Ensemble, ils ont analysé le principe fondateur du système microfluidique à actionnement électrostatique pour trouver un dimensionnement garantissant les performances attendues du cahier des charges.

 

Si le groupe n'a pas pu faire ce travail en interne, c'est parce que justement la simulation se doit d'être multiphysique, requérant des compétences et des logiciels propres. Le plus répandu, Comsol, a été acheté par l'Institut Pierre Vernier pour répondre à ce type de demandes (cf. supplément IPV, en direct n° 223, mars 2009). Ce logiciel, à l'origine une extension de Matlab développée uniquement pour le multiphysique, fait référence dans les laboratoires de recherche. Il commence à s'imposer dans les boîtes à outils des entreprises, mais son acquisition représente un investissement, d'une part par l'achat de la licence, d'autre part par la formation — presque en continu — d'un personnel dédié.

 

L'intérêt de Comsol, ici, réside dans le fait que le système se définit au fur et à mesure, par itérations successives. Il n'est pas besoin d'être très précis sur tous les paramètres au début de la conception du modèle de simulation. Certains peuvent être négligés pour être introduits ensuite. Cette façon de travailler permet de fixer progressivement les caractéristiques dimensionnelles et physiques (mécanique, électronique, puissance d'alimentation…).

 

Retour sommaire

 

 

La simulation en trois étapes

 

Actuellement, la puissance de calcul des ordinateurs n'est pas suffisante pour modéliser entièrement en multiphysique un moteur en action. C'est dire si la tâche s'avère titanesque et les calculs… complexes. La méthode la plus populaire dans le domaine de la simulation est dite « méthode des éléments finis », qui consiste très grossièrement à découper la structure à modéliser en volumes élémentaires dont les inconnues aux nœuds (déplacements, température, potentiel…) constituent les variables du système. Cette méthode de discrétisation permet de représenter le comportement d'un système continu, régi par des équations différentielles, par un système discret, régi par des équations matricielles.

 

Des solveurs entrent alors en jeu, permettant la résolution du problème matriciel dont la taille peut être très importante. à titre d'exemple, il y a une dizaine d'années, les gros modèles comportaient quelques dizaines de milliers de degrés de liberté alors qu'actuellement des modèles à plusieurs millions de degrés de liberté sont monnaie courante (ce qui veut dire que l'on doit résoudre un système de plusieurs millions d'équations à plusieurs millions d'inconnues). À ce stade, l'optimisation des stratégies numériques employées peut faire gagner en temps et en efficacité. Les résultats sont ensuite souvent présentés sous forme graphique en utilisant des post-processeurs.

 

Retour sommaire

 

 

 

Modéliser et simuler les procédés de mise en forme

 

Sur l'écran de l'ordinateur, une fraise vient au contact d'une pièce à usiner. C'est une animation de modèle 3D par éléments finis ; un tour d'outil, et les copeaux se détachent au fur et à mesure. L'un des modèles les plus avancés au monde pour simuler le fraisage par éléments finis vient d'aboutir dans l'équipe travaillant sur les procédés de mise en forme au DMA, dans le cadre de la thèse d'Aurélien Maurel, récemment soutenue. Vingt jours de calcul sur un PC à 8 processeurs pour simuler un tour de fraise. Réalisé avec une méthode par éléments finis sous LS Dyna, ce modèle simule le procédé de fraisage en 3D avec des outils à géométrie complexe, en s'intéressant à l'arrachement de matière et aux efforts sur l'outil.

 

Ce code n'a pas encore vocation à aider directement les industriels. Il est utile plus en amont pour tester les hypothèses d'un autre modèle, analytique celui-là (par opposition aux simulations numériques résolues par éléments finis) qui permet de simuler des trajectoires réelles d'usinage. Ces deux types de modèle servent en outre à identifier des paramètres de matériaux et à optimiser les conditions de coupe pour un couple outil-matière donné.

 

Ceci est un exemple de ce que fait l'équipe, spécialisée dans la modélisation et l'instrumentation des procédés de mise en forme dans le domaine de la réplication (estampage, hydroformage, emboutissage, moulage) ou de l'ablation (usinage à l'outil coupant), que ce soit pour les procédés macroscopiques ou microscopiques — actuellement en plein développement. Elle utilise les mêmes méthodologies : modélisation, simulations, instrumentation, essais, identification et optimisation.

 

 

Modélisation 3D d'une fraise en action

 

Modélisation 3D d'une fraise en action

 

 

Contact : Nathalie BoudeauSébastien ThibaudMichaël Fontaine

Département Mécanique appliquée

Institut FEMTO-ST – Université de Franche-Comté / UTBM / ENSMM / CNRS

Tél. (0033/0) 3 81 66 60 34

 

Retour sommaire

 

 

Les nouveaux matériaux allient, intrinsèquement, plusieurs physiques

Alliages à mémoire de forme, matériaux composites, matériaux actifs, qui réagissent à leur environnement extérieur pour se modifier… les nouveaux matériaux ont une fâcheuse tendance à coupler plusieurs phénomènes physiques. Électricité et mécanique pour les piézoélectriques, thermique et mécanique pour les alliages à mémoire de forme, vibrations et acoustique pour les nouveaux composants… Parallèlement, ces matériaux composites intelligents éveillent des rêves de science-fiction, dans le domaine de l'aéronautique et de l'aérospatiale par exemple. Si les ailes d'un avion pouvaient changer de forme au cours du vol, du décollage à l'atterrissage, elles seraient en permanence dans une forme et une configuration optimales : aérodynamisme parfait en toutes circonstances. D'après certains calculs, 80 % de l'énergie actuellement nécessaire au vol d'un avion pourraient ainsi être économisés. De quoi s'y pencher sérieusement. On peut également envisager qu'une aile d'avion soit conçue pour localiser elle-même ses zones de rupture et envoyer un signal d'alerte, ou mieux, s'autoréparer.

 

Pour ces applications, et bien d'autres encore, qui dit simulation dit nécessairement simulation multiphysique. Le département Mécanique appliquée de FEMTO-ST s'y attelle depuis une quinzaine d'années. Le plus souvent, il travaille dans le cadre de projets coopératifs, les plus récents étant conduits avec SNECMA ou EUROCOPTER. Il est également team leader d'un projet ANR — Agence nationale de la recherche — regroupant Georgia Tech, la National science foundation, la NASA et l'École centrale de Lyon. Son objectif à quatre ans est de concevoir, optimiser et tester expérimentalement une nouvelle classe de composites intelligents électromécaniques intégrés possédant de nouvelles propriétés vibroacoustiques. La réalisation de ce nouveau type de « métamatériaux » nécessite la mise en œuvre d'outils de simulation adaptés permettant la prise en compte des couplages piézoélectriques, la modélisation de réseaux denses multiéchelles et l'optimisation numérique en moyennes et hautes fréquences.

 

Avec SNECMA, le laboratoire a entrepris d'optimiser les matériaux composites pour qu'ils répondent aux nouvelles fonctions qu'on leur demande (matériaux multifonctionnels et autoadaptatifs). Le projet consiste à concevoir une aube équipée pour collecter l'énergie dissipée qui serait ensuite utilisée soit pour alimenter des capteurs, utiles au diagnostic et à la maintenance du système, soit pour contrôler le système afin d'atténuer ou d'annuler les vibrations.

 

La capacité à simuler des phénomènes multiphysiques, si elle est encore l'apanage des laboratoires et des grands groupes, va vite devenir stratégique. Il est certain que les entreprises donneuses d'ordre vont confier à leurs sous-traitants le développement de produits complexes sur cahier des charges en leur demandant de valider leur conception.

 

L'exemple le plus emblématique de l'impact de la simulation dans le domaine industriel est celui de l'aéronautique où le comportement de l'avion, qu'il soit au sol ou en vol, est validé par des essais. Ces entreprises tentent maintenant de faire évoluer les normes et qualifications de leurs produits, nécessaires à leur mise sur le marché, en les fondant sur les résultats des simulations. On comprend alors la nécessité qu'il y a à disposer de « bons » modèles.

 

Retour sommaire

 

 

///////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////

 

 

Comment faire confiance au virtuel

Contraindre une réalité physique à des équations n'est pas sans poser problème. En effet, de nombreux détails ne sont pas pris en compte même avec des modèles raffinés à un million de degrés de liberté. Toute tentative de simulation induit donc de négliger certains phénomènes, d'en approximer d'autres, et/ou de faire un choix dans les paramètres. Ces approximations et choix sont-ils licites ? De cette question dépend la qualité de la simulation. La seule façon d'y répondre consiste à réaliser des essais sur structures réelles, pour comparer les résultats simulés à ceux observés, et ensuite modifier le modèle jusqu'à ce que simulation et essais concordent. Cette opération dite « recalage de modèle par confrontation des résultats calculs / essais » fait l'objet de recherches au département Mécanique appliquée de FEMTO-ST. La plate-forme AESOP — Analytico-Experimental Structural Optimisation Platform —, développée par l'équipe Validation et vérification de simulation numérique, regroupe un ensemble d'outils conçus au départ spécifiquement pour l'étude du comportement vibratoire des structures, mais qui est amené à être étendu à la vibroacoustique, voire à d'autres champs disciplinaires.

 

 

Exemple de corrélation calculs-essais à partir d'une mesure ESPI 

 

Exemple de corrélation calculs / essais à partir d'une mesure ESPI ;

à gauche, déformée modale calculée sur le modèle éléments-finis 3D ;

à droite, déformée modale mesurée par ESPI projetée sur les nœuds visibles du maillage éléments-finis

 

 

Les logiciels présents dans AESOP permettent, en comparant les comportements simulés et observés, de localiser les zones de la structure mal modélisées puis de corriger les paramètres physiques de ces zones. Ils donnent également des indications sur l'impact des incertitudes des paramètres sur le comportement linéaire ou non linéaire de la structure. Caractériser et hiérarchiser les incertitudes nées de la non linéarité (ou d'autres facteurs) sur un modèle, en partant de l'analyse des essais, permettent d'être plus précis sur les attentes et constituent une aide à la décision non négligeable. Surtout lorsqu'il est question de définir les spécifications d'un produit dans un cahier des charges. Quelle précision demander aux équipementiers ? Où s'arrêter ? Les constructeurs automobiles, par exemple, doivent répondre à des normes européennes sur le niveau acoustique de leurs véhicules. Pour s'assurer de bien répondre à ces normes, ils imposent des contraintes, fixées indépendamment les unes des autres, à chaque équipementier. Mais l'assemblage des différents éléments change la donne à cause de leurs interactions. Or, s'il n'est pas possible de modéliser le véhicule assemblé, il est par contre envisageable de fixer aux équipementiers la plage d'incertitude tolérable ne remettant pas en cause la robustesse du modèle.

 

De la même façon, l'équipe a été amenée à se demander, dans le cadre d'un projet PRéDIT mené en partenariat avec PSA PEUGEOT CITROEN et l'École centrale de Lyon, à quel point un défaut de la partie supérieure d'un capot de voiture pouvait engendrer des problèmes lors de son assemblage (avec une colle) avec la partie inférieure. En d'autres termes : quelle incertitude est tolérable pour que le capot réponde à un niveau de performance donné ?

 

 

Modèle du capot de voiture et du joint de colle 

 

Modèle du capot de voiture et du joint de colle

 

 

 

Là encore, les logiciels développés au sein de la plate-forme AESOP génèrent des critères simples d'aide à la décision, pour globalement réduire les coûts de développement, d'essais et de prototypage.

 

La mise au point de modèles numériques fiables se fait donc au prix d'un dialogue et d'une confrontation continue entre les services calculs et essais. Ils permettent en particulier de définir les conditions d'essais optimales, par exemple, le choix du nombre et de la position des excitateurs et des capteurs pour un essai vibratoire. 

 

Retour sommaire

 

 

Le roi du couplage !

 

DIXI MICROTECHNIQUES, spécialisée dans la production de dispositifs militaires et d'instruments avioniques, a demandé à l'IPV de réaliser une analyse dynamique sous Comsol d'un système de sécurité, devant assurer différentes fonctions avec une chronologie maîtrisée à la microseconde près. Après avoir décomposé le système en sous-ensembles, l'IPV a utilisé Comsol pour coupler les différentes équations physiques entrant en jeu : des lois cinématiques décrivant le mouvement de pièces indéformables et la résistance des matériaux pour les solides déformables. Il lui a aussi permis de coupler plusieurs géométries de modèle, issues d'assemblages complexes.

 

Retour sommaire

 

 

Ainsi, alors que les donneurs d'ordre passent commande sous forme de cahiers des charges, définissant les attendus en termes de performance, de dimensionnement et de tolérance possible, intégrer des simulations dans les processus de conception peut devenir un atout pour les entreprises sous-traitantes. D'autant plus que les technologies sont maintenant fiables, qu'elles permettent d'envisager les systèmes dans leur globalité, et qu'il est même possible de définir a priori leur marge de confiance.

 

 

Contact : Emmanuel FoltêteManuel ColletScott Cogan

Département Mécanique appliquée

Institut FEMTO-ST

Université de Franche-Comté / UTBM / ENSMM / CNRS

Tél. (0033/0) 3 81 66 60 32 / 67 28 / 60 22

 

 

Claudia Laou Huen

Service Communication

Institut Pierre Vernier

Tél. (0033/0) 3 81 40 57 08

 

Retour sommaire

Retour en haut de page

 

 

retour