Paulin,
je ne vais pas poursuivre le propos sur les différentiels : pas assez de biscuits et, à part toi, pas de questions ni de réelle volonté de comprendre ce qui se passe non plus, ce qui tend à démontrer que le seul critère de choix est le prix.
Rien de bien nouveau sous le soleil, donc!
Un dernier point, avant de clore : Lbarbar, si tu disposes d'une clef dynamométrique à lecture directe il serait possible, juste avant d'achever la repose du transfert, de réaliser deux ou trois mesures simples qui permettraient de se faire une idée du comportement de l'ATB sous couple...
A suivre, donc.
Paulin, de nouveau : ta question sur les précontraintes ne me semble pas relever de la sodomisation des drosophiles...
Elle est même centrale en matière de calcul de structures et c'est même dans la manière dont ce point précis est abordé et traité que l'on reconnaît les projeteurs expérimentés.
Quelques idées à ce sujet.
La question sous-jacente est celle de la rigidité des différents éléments structurels devant fonctionner ensemble : tu as le même problème avec les tabliers bétons reposant sur des rideaux de palplanches, les portiques bois ou acier des bâtiments de grandes dimensions et, bien évidemment, dans les calculs de ponts à haubans, surtout lorsqu'il s'agit de tabliers en béton.
Un carter et les arbres qu'il supporte relèvent de mon point de vue de la même problématique.
Note que la rigidité dépend des sections et des formes des pièces et aussi du module d'élasticité des matériaux considérés.
Qu'il s'agisse de béton précontraint ou de roulements, l'objectif de la manip est d'exercer un effort de compression sur certains éléments. Pour les roulements, cet effort est destiné à maintenir en contact des rouleaux même dans les zones où les éléments roulants auraient tendance à ne plus rouler sur leurs pistes lorsque ce que l'on appelle les moments sur appuis deviennent significatifs (un moment n'est autre qu'un couple) et pour les bétons, l'objectif est de ne pas laisser apparaître de contraintes de traction dans les zones où règnent ce que l'on appelle des moments négatifs provoquant une mise en traction du béton lors de certaines combinaisons d'actions/sollicitations.
En béton précontraint, cet effort est appliqué par des vérins, soit avant (cas des poutrelles de plancher qui sont préfabriquées) soit après la prise des bétons (cas de la construction par voussoirs ou par poutres post-contraintes). L'effort de compression est obtenu par lecture directe des pressions délivrées par les centrales hydrauliques.
Ces efforts peuvent atteindre des centaines de tonnes pour les ouvrages conséquents.
En mécanique, comme il est très compliqué de raisonner directement à partir des efforts appliqués (il est impossible de travailler avec des vérins dans une boîte de vitesses
) il faut procéder différemment.
Il y a eu globalement trois phases :
- le pif (on évaluait pifométriquement les efforts en observant la tenue à l'usure des roulements) ;
- la mesure directe des déformations des carters nus sous un effort connu ;
- la modélisation avancée de la déformabilité des carters et des arbres.
On en arrive donc à la question centrale : celle de la déformabilité des pièces.
Laquelle fait appel à une notion elle aussi très importante, bien, qu'étant souvent de « deuxième ordre » : les modules d'élasticité des matériaux considérés.
Physiquement, ce module correspond à la pente de la droite reliant les contraintes et les déformations. C'est rigoureusement vrai pour les métaux travaillant en phase élastique mais c'est faux pour les bétons.
Concernant le cas que tu soumets, la déformation imposée résultera de la somme des déformations du carter et de l'arbre. Formulé autrement, tu as donc deux ressorts (le carter et l'arbre) sur lesquels tu vas exercer un effort (celui qui va maintenir les éléments roulants et les pistes en contact même dans les cas de charges critiques) déterminé lors du calcul des paliers.
Les déplacements résultent donc d'une déformation par compression simple de l'arbre et d'une déformation en traction, beaucoup plus complexe, du carter. Schématiquement, tu auras une dominante de flexion dans les parois recevant l'alésage du palier et perpendiculaires à l'arbre et une flexion composée à dominante de traction dans les faces parallèles à l'arbre.
On conçoit que la détermination de la loi de déformation du carter à l'endroit où l'on applique l'effort de compression est très complexe, sachant que cette pièce comprend généralement nombre de goussets et de renforts destinés à en augmenter la rigidité. C'est donc un concentré de calcul de plaques et de coques minces auquel on est confronté, le tout en tridimensionnel.
Mais on conçoit aussi qu'un carter est beaucoup moins massif et rigide qu'un arbre : il va donc se déformer davantage sous un effort donné.
En d'autres termes, cela signifie qu'une variation dimensionnelle du carter, même beaucoup plus importante que celle de l'arbre, aura un impact plus réduit sur l'effort de compression initial.
Prenons un exemple simple, celui de deux barreaux (un en acier, l'autre en alu) de 20 mm de diamètre et de 200 mm de long, soumis chacun à un effort de compression de 100 000 N (10 tonnes pour faire simple).
Le module d'élasticité de l'acier est de 210 000 N/mm² et celui de l'alu de 70 000 N/mm².
Contrainte dans chaque barreau : 318 N/mm² (c'est beaucoup mais c'est pour les besoins de la cause...
).
La déformation relative de l'acier vaut donc : 318/210 000 soit 1,52 pour mille, ce qui représente environ 30 centièmes de millimètre de raccourcissement pour une longueur de 200 mm.
Celle de l'alu vaut : 318/70 000 soit 4,55 pour mille, ce qui représente cette fois environ 90 centièmes de millimètre de raccourcissement pour notre barreau de 200 mm.
Le même effort appliqué sur deux pièces rigoureusement identiques se traduit donc par une déformation trois fois plus importante pour l'aluminium. Formulé autrement, dans ce cas simple, on reste dans le rapport des modules d'élasticité (210 000/70 000) puisque les pièces ont la même géométrie.
Ce cas de figure, basique, se rencontre évidemment très rarement en pratique.
On note aussi que plus la pièce est rigide, plus les efforts qui y règne sont importants.
Une modélisation fine du carter conduirait probablement à une situation encore plus déséquilibrée : l'arbre, assimilable à une pièce massive ressemblant à notre barreau, se déformerait toujours très peu alors que le carter se déformerait un peu plus, notamment à cause des efforts de flexion sollicitant dans ses différentes faces, lesquels vont créer des déformations de type « flèche », à l'image d'une poutre en bois fléchissant sous la charge.
L'image est celle du réglet en acier, capable, sans se rompre, de prendre une flèche très importante. Évidemment, l'objectif n'est pas de réaliser un carter souple comme de la guimauve — ce qui ne veut pas dire qu'il se romprait — mais d'en réaliser un dont la rigidité soit la plus proche possible de celle des arbres qu'il contient.
Après cette réinterprétation très personnelle de la fable du chêne et du roseau
passons à ta question.
L'introduction des variations dimensionnelles liées aux variations de températures conduit à des résultats que je considère comme non significatifs, et ce d'autant plus que la variation des coefficients de dilatation thermique de l'acier et de l'aluminium va « dans le bon sens » :
- coefficient de dilatation de l'acier : 10,5·10-6 par ° C
- pour l'alu : 26·10-6 par °C.
Pour une différence de température de 40°C, un barreau en acier va effectivement s'allonger d'un peu plus de 8 centièmes de mm alors qu'un barreau en alu s'allongera de presque 21 centièmes.
Pour l'acier, 8 centièmes représentent une variation d'effort d'environ 27 700 N et pour l'alu, 21 centièmes représentent une variation de 22 900 N, soit un différentiel final d'effort de 4 800 N. Autrement dit, les fluctuations thermiques ne jouent en réalité qu'à la marge et ce d'autant plus que les boîtes de transfert des Land datent d'une époque où les imprécisions dans les modélisations étaient couvertes par des coefficients de sécurité plus que généreux.
Ça tombe bien, car la notion de gradient thermique dans une boîte de vitesses ne m'inspire guère : ainsi, si l'on imagine plusieurs heures à crapahuter en courtes sous un cagnard de folie et sans vent, je crains fort que les températures des différents organes ne soient à peu près toutes les mêmes...
Au regard de ce que je pressens du fonctionnement mécanique de l'ensemble, qui doit être largement couvert par des coefficients de sécurité généreux, je doute fort qu'une précontrainte pifométriquement réglée (bon, faut quand même rester dans la limite du raisonnable, à savoir le gradient d'épaisseur des cales) ait une influence déterminante sur la durée de vie des paliers.
Je me garderai bien de tenir le même propos avec les mécaniques d'aujourd'hui, qui sont certainement le fruit d'une modélisation beaucoup plus fine, l'objectif de la manip n'étant pas d'accroître la fiabilité, mais de viser une durée de service très précise, ce qui permet de diminuer les sections et, conséquemment, le coût de fabrication.
En d'autres termes, si un véhicule a été dimensionné pour 250 000 km, la probabilité pour qu'il ne dépasse pas 300 000 km est certainement très élevée. En tous cas, elle n'a rien à voir avec celle des véhicules de la génération précédente.
D'une manière plus générale — cette considération sur le sens délibérément donné à la marche du monde industriel étant issue de mon expérience professionnelle — le développement des outils de calcul informatique, par ailleurs responsable d'un certain nombre de dérives, est passée par trois phases, que j'ai eu la chance de connaître :
- une phase pionnière (avant 1980) celle des miniordinateurs qu'on programmait en Fortran et avec lesquels on dialoguait via des cartes perforées et des listings (pas très sexy, comme interface homme/machine, mais incroyablement formateur). Dire qu'on collait alors de très près aux modèles mathématiques et physiques était un euphémisme... Le calcul automatique ayant donné les résultats escomptés, on a alors étendu la modélisation : les éléments finis (qu'on définissait alors manuellement) sont alors apparus. Je me souviens notamment d'un prof, ingénieur conseil chez Campenon Bernard à l'époque, qui nous avait présenté les modèles de calcul de la tour Montparnasse : les matrices carrées 5 000 (5 000 lignes et autant de colonnes ) nous donnaient le vertige mais nous laissaient également entrevoir un monde où une maîtrise avancée des risques et de la matière devenait possible et ce pour le plus grand bien de l'humanité. Ce qu'on peut être naïfs et innocents quand on est gamins...
- une phase de calage des modèles qui, en gros, concerne les années 80 et une bonne partie des années 90 : cette phase a abouti à des dimensionnements très harmonieux et très équilibrés mais surtout très robustes, car on conservait des coefficients de sécurité importants, la fiabilité réelle des modélisations avancées n'ayant pas encore été sanctionnée par l'expérience. Cette phase s'est également caractérisée par une baisse impressionnante des coûts de modélisation (modélisation automatique à partir des outils de DAO, serveurs de calcul souples et puissants, représentation des résultats très intuitive, etc.) ;
- une phase d' « optimisation » des modèles, dont l'unique but a été la réduction des coûts (pas trop des prix, car il faut bien que le business se fasse ). Qui s'est combinée avec les mêmes démarches d'optimisation sur la qualité de la matière première et, aussi, avec l'introduction du recyclage, sans parler des contraintes d'hygiène et de sécurité. Tout ça pour dire que l'alignement des planètes, auparavant très généreux, a changé : non seulement on a réduit les coefficients de sécurité (ou les durées de vie théoriques) au regard de la fiabilité confirmée des calculs, mais on a fait appel à des matières premières beaucoup moins performantes. Résultat des courses dans mon domaine : toutes les chaussées — et pas des moindres — sur lesquelles des désordres préoccupants ont été observés (structurels notamment) ont été construites après les années 2000. A une époque où il devient assez évident que l'énergie et les matières premières doivent faire l'objet d'une attention plus que poussée, de telles orientations, qui concernent quasiment tous les secteurs d'activité, laissent perplexe...
J'ouvre enfin une rapide parenthèse pour illustrer cette intéressante question de la maîtrise des rigidités, mais dans un tout autre domaine, celui de l’insondable sujet des colles et joints à carrelage.
Contrairement à une idée très répandue, les décollements de carrelages en façade ou en terrasse (notamment les éléments de grande dimension et de couleur sombre) ne sont pas massivement dus au gel, mais à des rigidités mal prises en compte, ce qui a pour conséquence de rendre les contraintes d'origine thermique très pénalisantes.
Ces jours derniers ont été un enfer pour ces ouvrages, le pompon étant une vague de chaleur qui se clôt par un orage : le brusque refroidissement opéré par la pluie crée des contraintes de cisaillement particulièrement élevées à l'interface de collage.
Une colle très rigide sera donc le siège de contraintes très importantes qui, sans nécessairement dépasser sa résistance nominale en cisaillement/traction, vont considérablement la fatiguer.
Ce cycle, répété un certain nombre de fois, finit par disloquer le plan de collage.
Comme pour les enduits, l'enjeu d'un bon produit est d'offrir, en plus d'une résistance en traction, un module le plus faible possible, garant d'une limitation des concentrations de contraintes.
Noter que les produits pour joints font également l'objet de recherches importantes à ce sujet, car l'objectif recherché est d'absorber les évolutions dimensionnelles des pavés, notamment de grandes dimensions, afin d'en atténuer la transmission au plan de collage.
Le problème est que les normes restent discrètes sur la question des modules et de l'endurance à la fatigue thermique.
Mais une norme, c'est un compromis socio-économique, avec toujours des histoires de gros sous derrière...
Comme pour les différentiels, pas toujours facile d'acheter selon un cahier des charges travaillé pour répondre à des besoins précis!
Pour en finir avec la fatigue thermique, ceux qui ont parcouru les déserts de pierre ont pu constater ses ravages, même sur la pierre la plus résistante : ni eau ni de glace, mais une fracturation aussi belle qu'impressionnante...
Fin du quart d'heure encyclopédique!