text
stringlengths
1
100k
summary
stringlengths
3
4.99k
dataset
stringclasses
11 values
La convection est le mouvement interne d'un fluide sous l'effet de la différence de température, de salinité ou d'une autre caractéristique entre deux endroits. Elle peut être induite naturellement ou forcée. Il faut la différencier de l'advection qui est la quantité d'énergie, de salinité ou d'une autre caractéristique du fluide transportée par un agent externe comme le vent ou le courant.La convection naturelle est un phénomène de la mécanique des fluides, qui se produit lorsqu'un gradient induit un mouvement dans le fluide. Le gradient peut concerner différentes grandeurs intensives telles que la température (« convection thermique »), la concentration d'un soluté (« convection solutale ») ou la tension superficielle (« convection thermo-capillaire »). La masse volumique dépendant de la température (et, le cas échéant, de la concentration), un gradient de température ou de concentration engendre des différences de masse volumique au sein du fluide, d'où résultent des variations latérales de la poussée d'Archimède qui sont à l'origine du mouvement. De tels déplacements s'appellent des mouvements de convection. Ils sont à l'origine de certains phénomènes océanographiques (courants marins), météorologiques (orages), géologiques (remontées de magma) par exemple. La convection thermique n'est pas le seul moyen de créer des mouvements verticaux dans des fluides. Ceux-ci vont se stratifier selon leur densité, à température uniforme, par l'effet de la gravité. Cette convection gravitationnelle se déroule comme la convection thermique avec les zones du fluide plus denses descendant et les parties moins denses poussées vers le haut. Cependant, il n'y a pas de variation de températures dans ces échanges. On peut citer la diffusion de la salinité dans une couche isothermale ou le déplacement du sel vers le bas dans une terre humide. La convection naturelle est utilisée dans les chauffe-eau solaire à thermosiphon.La convection forcée est provoquée par une circulation artificielle (pompe, turbine, ventilateur) d'un fluide. Le transfert est plus rapide que dans le cas de convection naturelle. Voici quelques exemples de convection forcée dans des appareillages : chauffage central avec accélérateur, chauffages électriques avec soufflerie, chauffe-eau solaire à circulation forcée et four à convection de cuisinière. Le corps humain a son propre système de convection forcée, la circulation sanguine. Dans un environnement à microgravité comme dans l'espace, la convection naturelle n'est pas possible puisque la poussée d'Archimède s'exerce par la différence de force gravitationnelle sur des volumes de densités différentes. Ainsi la circulation de la chaleur doit être forcée dans une capsule spatiale. Une flamme aurait également de la difficulté à exister car les gaz de combustion resteraient près de la flamme, la coupant de l'apport d'oxygène. Il faut pour l'entretenir une circulation forcée pour éloigner ces gaz et amener l'oxygène.Une particule de fluide chauffée à la base devient moins dense du fait de sa dilatation thermique et remonte sous l'action de la poussée d'Archimède. Arrivée au sommet de la couche, le fluide échange sa chaleur, se refroidit et s'alourdit. Il redescend alors et crée un transfert retour de chaleur. La première approche physique a été mise en place par Henri Bénard, avec l'étude de la convection dans une couche de fluide soumise à un gradient de température vertical. Ces expériences sont connues sous le nom de cellules de Bénard.Les cellules de Bénard sont le cas d'école étudié expérimentalement par Henri Bénard et modélisé par Lord Rayleigh. On considère ici un système simple et on suppose un fluide newtonien, incompressible, dans l'approximation de Boussinesq, c'est-à-dire que la seule propriété physique qui change est la masse volumique. Cette configuration est un problème classique d'instabilité thermoconvective aussi appelé instabilité de Rayleigh-Bénard. Équations de conservation en jeu :Le transfert thermique dans une couche de fluide horizontale s'effectue par conduction thermique et, éventuellement, par le mouvement de parcelles de fluide de températures différentes. Quand on impose une différence de température entre les deux faces de la couche, un gradient de masse volumique s'installe. Expérimentalement, on observe que le fluide se met en mouvement spontanément si la différence de température est suffisante. Le seuil à partir duquel la convection se produit est déterminé par une valeur critique d'un nombre sans dimension appelé nombre de Rayleigh et noté Ra : avec : (Noter que ces valeurs peuvent être variables dans le fluide : il est important de vérifier que l'on utilise bien des grandeurs caractéristiques.) Si le nombre de Rayleigh est inférieur à une valeur critique de l'ordre de, le transfert thermique s'opère uniquement par conduction, tandis qu'au-delà de cette valeur la convection s'installe et devient vite prépondérante dans le transfert.Pour un écoulement à température formula_4 autour d'une structure à température de surface uniforme formula_5 et d'aire, l'expression du flux de chaleur convectif est donnée par la loi de Newton : où : Pour une convection en air calme, dans des conditions normales de température et de pression, on a typiquement "h" compris entre 5 et.L'analyse dimensionnelle permet de montrer que, en convection forcée, le nombre de Nusselt Nu, permettant de calculer "h" puis le flux thermique par la formule indiquée ci-dessus, s'exprime en fonction du nombre de Reynolds Re et du nombre de Prandtl Pr : où "C", "m" et "n" dépendent des caractéristiques du fluide, de la géométrie et du régime d'écoulement. L'ingénieur dispose alors d'une série de formules empiriques établies sur des configurations typiques (plaque plane, écoulement autour d'un cylindre...) afin d'en déduire le coefficient de transfert thermique.La convection crée des patrons cycliques de montée de l'air chaud et descente de l'air froid en rouleaux, cellules ou panaches. Il y a une série de domaines où l'on retrouve ce phénomène.Au sens météorologique, l'emploi du terme « convection » se limite au transport vertical des propriétés de l'air, le transport horizontal desdites propriétés étant désigné par un autre terme : l'advection horizontale. La convection est un phénomène omniprésent dans l'atmosphère terrestre. Elle peut être déclenchée par un réchauffement du sol par le soleil, par le mouvement d'une masse d'air froid au-dessus d'un plan d'eau relativement chaude, ou par d'autres phénomènes (dont les différences d'albédo) qui provoquent le réchauffement relatif du bas d'une couche atmosphérique par rapport à son sommet. Elle joue un rôle dans la chimie de l'atmosphère, en contribuant à certains transferts d'aérosols ou de polluants des basses couches (troposphère) vers les hautes couches, et inversement (pour l'ozone par exemple). Les processus ou les phénomènes qu'elle est capable de générer à certaines échelles spatio-temporelles sont qualifiés tout simplement de convectifs. Ils sont pourtant loin de représenter l'ensemble des processus et des phénomènes caractérisés par des mouvements verticaux, mais c'est parmi eux que se trouvent des phénomènes clés de la météorologie, comme les brises, les orages, les cyclones tropicaux ou les moussons.Il est très usuel de ne recourir au terme de « convection » en météorologie que dans un sens encore plus restreint, celui des mouvements verticaux. Le mouvement convectif ascendant est causé par la différence de température entre la parcelle d'air soulevée et l'environnement plus froid en altitude. En effet, la parcelle se refroidit en montant mais selon le gradient thermique adiabatique, soit moins que la température de l'environnement dans les cas instables. Elle est donc moins dense que l'environnement et subit une poussée d'Archimède vers le haut. Cette différence est l'énergie potentielle de convection disponible (EPCD). Elle sera plus importante si de la chaleur latente est relâchée par la condensation de vapeur d'eau contenue dans la parcelle. La vitesse de déplacement de la parcelle d'air sera proportionnelle à l'EPCD. Il est également possible d'obtenir de la convection oblique dans une zone d’instabilité symétrique conditionnelle qui se manifeste seulement dans un plan incliné par rapport à la convection hydrostatique conventionnelle. Ce mouvement ascendant s'accompagne du mouvement descendant d'un volume correspondant d'air plus dense (plus froid) par le même principe. La masse de l'air descendant est supérieure à celle de l'air ascendant ; il y a donc une baisse du centre de gravité du système, interprétable comme une conversion d'énergie potentielle gravitationnelle, en énergie cinétique. Les quantités d'énergie impliquées dans cette conversion peuvent être considérables et se traduire par des mouvements ascendants et descendants importants, créant de la turbulence. S'il y a condensation, on assiste à la formation de nuages convectifs qui peuvent donner de forts coups de vent, des précipitations intenses et de la foudre. Si le cisaillement des vents avec l'altitude est favorable à un transfert de tourbillon, on peut voir se former des tornades. Si le contenu en eau est très important, on peut obtenir des pluies torrentielles et même de la grêle.On donne à la classe des nuages d'origine convective le nom générique de "cumulus". Lorsque la couche d'air instable est peu étendue verticalement, on a formation de "cumulus humilis", dit cumulus de beau temps, synonymes d'air ascendant. Si l'énergie potentielle de convection disponible (EPCD) augmente, on passe ensuite au "cumulus mediocris", puis au congestus, le second produisant les averses. Si l'instabilité est plus grande on obtient le cumulonimbus "calvus", pour finir au roi des nuages le "cumulonimbus cappilatus incus" qui sont synonymes d'un orage mûr et possédant également un cycle descendant de convection. Chacun de ces nuages est appelé aussi cellule convective. Les orages peuvent être formés de cellules convectives isolées et on parlera alors d'un orage mono ou uni-cellulaire pour ceux peu importants et d'orages supercellulaires pour les autres. Les orages composés de plusieurs cellules convectives se classent en deux catégories, soit les orages multicellulaires, pour ceux provenant d'une cellule initiale qui se clone, et les systèmes convectifs de méso-échelle (ligne de grain, Derecho, complexe convectif de méso-échelle, cyclone tropical, etc.), pour celles qui s'unissent à partir d'une genèse distincte. Les nuages mentionnés ci-dessus se produisent en général dans une masse d'air assez uniforme ce qui donne une répartition aléatoire des cellules. Si un déclencheur comme un front, un creux barométrique, un soulèvement au-dessus d'un obstacle ou même le flux descendant des nuages passe dans le secteur, il peut servir à organiser la convection ou à donner une convection forcée. Des nuages convectifs peuvent également se former dans des systèmes plus stables. Par exemple, à l'avant d'une dépression qui donne de la pluie continue, dite stratiforme, on a souvent dans bandes de précipitations plus intenses associées à des zones convectives dans les niveaux moyens de l'atmosphère. On note alors des altocumulus castellanus, ou même de cumulonimbus à base haute, imbriqués dans la masse nuageuse. La convection se produit en toute saison. Ainsi, dans une tempête de neige les fortes chutes se retrouvent souvent sous des cellules convectives imbriquées. Le cas des bourrasques de neige côtières est un autre exemple alors que de l'air très froid passe au-dessus d'étendues d'eau non gelée et donne des cumulus bourgeonnants de faible extension verticale mais très intenses.La convection atmosphérique peut se produire sans nécessairement donner des nuages. En effet, elle n'est créée que par la structure thermique et si l'humidité n'est pas suffisante dans la parcelle d'air en ascension, il n'y aura pas de condensation. La brise de mer est un exemple typique de cellule convective en air clair. L'air se réchauffe plus rapidement sur terre que sur l'eau et une circulation thermique se développe durant la journée. Les thermiques qui se développent le long des pentes des montagnes sont un autre exemple où la différence de réchauffement crée une cellule convective à petite échelle, alors que la génération des alizés provient d'une boucle convective à large échelle. On peut mentionner encore les tourbillons de poussière et les vents générés dans un incendie.Sous sa forme bénigne, la convection peut donner aux planeurs et autres aéronefs non motorisés la poussée ascendante dont ils ont besoin pour se maintenir en vol. Les montgolfières utilisent aussi la convection comme moyen de sustentation, en emprisonnant une quantité d'air chaud (moins dense que l'air environnant) à l'intérieur d'un ballon. Par contre, les forts mouvements verticaux, dans et autour des orages, sont à éviter car ils produisent de la turbulence intense. De plus, le givrage dans ces nuages est important, car les gouttes y sont en surfusion, et la grêle va endommager les aéronefs.L'océan est animé de courants marins mettant en œuvre des phénomènes de convection. Les eaux de surface réchauffées par le Soleil à l'équateur se déplacent en courants superficiels ayant une épaisseur jusqu'à sous l'action des vents. Le réchauffement a comme conséquence une évaporation en surface qui concentre le sel contenu dans l'eau et donc la salinité de ces courants. Ce sont d'abord les alizés qui les poussent d'est en ouest puis, aux abords des continents, le courant remonte vers les hautes latitudes dans les vents généralement d'ouest. Les eaux se refroidissent ensuite à l'approche des calottes polaires et du fait de leur plus grande densité due à leur salinité, s'enfoncent au fond de l'océan. Elles terminent le cycle en retournant vers l'équateur.. Cependant, la boucle ne se limite pas à un bassin océanique mais plutôt encercle la Terre en plusieurs sous-boucles. L'eau chaude produite dans l'Atlantique équatorial se déplace vers l'Amérique du Nord avant de tourner vers l'Europe en surface dans le Gulf Stream. Elle plonge ensuite en profondeur et se dirige vers le sud de l'Afrique. et le sel se dilue lentement, les eaux font un nouveau cycle en surface qui se termine le long de la côte ouest de l'Amérique et replongent en profondeur pour éventuellement resurgir dans l'Atlantique. Une boucle semblable se produit dans l'hémisphère sud. Le cycle complet de cette circulation thermohaline est estimé, de 600 à. Le rôle de ces boucles convectives est essentiel car il permet le transport de chaleur, libérée dans l'atmosphère, de l'équateur vers les pôles. Si ce transfert n'existait pas, il ferait plus chaud à l'équateur et plus froid aux hautes latitudes. Le Gulf Stream et le Kuro Shivo réchauffent ainsi les eaux respectivement situées au large de l'Europe et du Japon. La convection océanique joue aussi un rôle important dans le cycle du carbone. En effet, en plongeant les eaux marines entraînent une grande quantité de dioxyde de carbone (CO) qui a été capturé de l'atmosphère et qui y est dissous. Ce dioxyde de carbone est restitué en partie à l'atmosphère lorsque les eaux profondes refont surface.La convection mantellique est un phénomène physique se produisant à l’intérieur du manteau terrestre. Elle est considérée comme le moteur profond de la théorie de la tectonique des plaques mais le sujet est toujours en discussion. Soumises à une forte différence de température entre la base du manteau inférieur (isotherme environ) d'une part et la transition asthénosphère-lithosphère (isotherme ) d'autre part, les roches du manteau développent un gradient de densité important. Les parties chaudes, moins denses, auront tendance à s'élever, tandis que les parties froides, plus denses, auront tendance à s'enfoncer. Si les forces liées à la poussée d'Archimède sont plusieurs ordres de grandeur supérieures aux forces opposées à l'élévation, une convection "à l'état solide" se met en place. Ce mécanisme est autorisé par le comportement ductile des roches en profondeur, qui permet au réseau cristallin de se déformer sans se briser (fluage plastique). Le nombre de Rayleigh (Ra), sans dimension, exprime le rapport des forces impliquées dans la convection, qui débute si Ra dépasse une valeur critique, caractéristique d'un milieu donné. Le tout s'effectuant sur une échelle de temps géologique (le million d'années), le manteau se comporte d'une manière similaire à un fluide.Plus profond encore, sous le manteau, se trouve le noyau terrestre. Il est composé d'une graine métallique (appelé aussi noyau interne, sorte d'agrégat de liquides solidifiés sous l'effet de la pression) entourée d'une épaisse coquille, métallique elle aussi mais demeurant à l'état liquide : le noyau externe. On peut considérer ici que le liquide contenu dans le noyau externe est confiné entre deux solides. Le noyau externe en question est animé de mystérieux mouvements de convection aux formes inhabituelles. Plusieurs phénomènes physiques de natures différentes (thermique, mécanique, magnétique) agissent de concert pour animer le noyau fluide. Dans un souci de simplification, nous présentons ces différentes causes séparément. La plus simple et la plus évidente d'entre toutes ces causes est certainement la poussée d'Archimède qui provoque des ascensions de parcelles dans le noyau fluide. Le noyau dans son ensemble se refroidit et cristallise lentement à l'interface entre le noyau interne et le noyau externe : de la chaleur et des éléments légers sont relargués par endroits à la base du fluide. Celui-ci, plus léger que son entourage (voir plus haut), se met naturellement à. C'est une forme de convection dont les deux aspects thermiques et chimiques sont aussi importants l'un que l'autre. On parle de convection thermo-chimique. Deux autres forces viennent ensuite embellir la mécanique en déviant la trajectoire des parcelles fluides. Tout d'abord, la force de Coriolis. En effet, contrairement au cas du manteau qui l'entoure, la viscosité du fluide constituant le noyau externe est très faible (proche de celle de l'eau). Par conséquent, et puisque la coquille qui encapsule le fluide métallique est en rotation (jour-nuit-jour...) le mouvement de convection décrit plus haut subit très fortement l'action de la force de Coriolis. Celle-ci devient dominante par rapport aux forces visqueuses et contraint le fluide à s'organiser en colonnes rotatives plus ou moins régulières. À ce stade on peut se représenter la convection dans le noyau en imaginant des parcelles de fluide ascendantes/descendantes convectant avec des trajectoires aux formes spiralées (?? image convection coquille rotation). Vient ensuite la force de Laplace. Ne l'oublions pas, le fluide considéré ici est métallique! (fer + nickel + quelques éléments légers). C'est un très bon conducteur de l'électricité, sorte de fluide électrifié, qui est le siège de phénomènes hydro-magnétiques non élucidés à ce jour, notamment l'effet dynamo grâce auquel nous baignons dans un champ magnétique terrestre. Reste cependant une certitude, les phénomènes en question font naître dans le noyau des forces magnétiques suffisamment importantes (compte tenu de l'intensité du champ magnétique terrestre ambiant et de la vigueur de l'écoulement décrit plus tôt) pour modifier elles aussi à leur tour les mouvements de convection dont il est question ici. La convection dans le noyau externe semble alors se complexifier davantage.Les étoiles de la séquence principale et les géantes rouges comportent une zone de convection stellaire, dans laquelle ce sont les cellules de convection qui transfèrent l'énergie thermique produite au cœur de l'étoile.
La convection désigne l'ensemble des mouvements internes (verticaux ou horizontaux) qui animent un fluide et qui impliquent alors le transport des propriétés des parcelles de ce fluide au cours de son déplacement. Ce transfert implique l'échange de chaleur entre une surface et un fluide mobile à son contact, ou le déplacement de chaleur au sein d'un fluide par le mouvement d'ensemble de ses molécules d'un point à un autre. La convection constitue, avec la conduction thermique et le transfert radiatif, l'un des trois modes d'échange de chaleur entre deux systèmes, et diffère de ces derniers par la méthode de transfert. Elle a aussi pour effet d'accélérer l'homogénéisation de la composition chimique du fluide, par rapport à la seule diffusion chimique.
xwikis
Tristan Bernard naît le, à Besançon, du mariage de Myrthil Bernard, négociant puis entrepreneur de construction, et d'Emma Ancel. Il quitte Besançon pour Paris à l'âge de quatorze ans et fait ses études au lycée Condorcet, puis à la faculté de Droit. Il fait son service dans les dragons, auxquels le Général Boulanger, alors ministre de la Guerre, a autorisé le port de la barbe. Après son service, Tristan Bernard décide de la conserver. Il se destine à une carrière d'avocat,, préférant se tourner vers les affaires et prendre la direction d'une usine d'aluminium à Creil. à Neuilly-sur-Seine (Toulouse-Lautrec l'y a peint en 1895). Plus tard, il dirige "Le Journal des vélocipédistes". En 1891, alors qu'il commence à collaborer à "La Revue Blanche", il prend pour pseudonyme Tristan, le nom d'un cheval sur lequel il avait misé avec succès aux courses. En 1894, il publie en collaboration avec Pierre Veber et, l'année suivante, sa première pièce, "Les Pieds nickelés", un triomphe qui détermine une longue carrière de dramaturge à succès. Plusieurs de ses pièces seront d'ailleurs adaptées au cinéma. En 1904, il fait partie de la première rédaction de "L'Humanité", le journal de Jaurès. Par quelques articles, il contribue en 1917 aux débuts du "Canard enchaîné". Il préside les banquets pour les numéros-anniversaires du journal en 1931 et 1934. Il aurait, par ailleurs, inventé le jeu des petits chevaux. Proche de Léon Blum, Jules Renard, Lucien Guitry, Paul Gordeaux, Marcel Pagnol, et de bien d'autres artistes, Tristan Bernard se fait connaître pour ses jeux de mots, ses romans et ses pièces, ainsi que pour ses mots croisés. Il contribue aussi largement au genre policier par son recueil "Amants et Voleurs" (1905), mais aussi avec plusieurs romans : "L'Affaire Larcier" (1907), "Secrets d'État" (1908), récit d'un complot contre le souverain de l'État imaginaire de Bergensland. "Mathilde et ses mitaines" (1912) met en scène la farfelue Mathilde Gourgeot qui préfigure le type de femme détective amateur qu'on retrouve beaucoup plus tard chez Erle Stanley Gardner, Maurice-Bernard Endrèbe et quelques autres. "Le Taxi fantôme" (1919) oppose un historien et un politicien véreux, qui briguent tous deux un poste d'académicien. Son avant-dernière contribution, "Aux abois" (1933), écrite sous forme d'un journal intime, est sous-titrée "Journal d'un meurtrier". Il publie un dernier roman policier avec "Visites nocturnes" (1934). Humoriste facétieux, il ajoute une strophe aux "Stances à Marquise" de Pierre Corneille, reprises en chanson par Georges Brassens : <poem> </poem> Pendant l'Occupation, menacé comme Juif, il se réfugie à Cannes où il vit à l'hôtel Windsor. À son ami, le scénariste Carlo Rim qui le presse de venir se cacher chez lui la nuit, il répond : « A mon âge, on ne découche plus! » et d'ajouter : « Savez-vous que je figure dans le Petit Larousse? On n'arrête pas quelqu'un qui figure dans le Petit Larousse ». Son ami Roland Dorgelès le presse aussi de venir se cacher chez lui à la campagne. Il est arrêté avec sa femme par les Allemands en septembre 1943 alors qu'il venait d'acheter les billets de train pour le rejoindre. Arrêté en tant que juif, il est interné au camp de Drancy ; à son départ pour ce camp, il a cette phrase : Il est libéré le grâce à l'intervention de Sacha Guitry et de l'actrice Arletty. Il avait refusé une première fois sa libération, ne voulant pas laisser sa femme, Mamita. Il confie à l'avocat Maurice Garçon : « Je n'ai jamais aimé apprendre l'histoire mais cet embêtement n'est rien auprès de l'obligation de la vivre. » Son petit-fils François-René, l'un des fils de Jean-Jacques est arrêté comme résistant et déporté à Mauthausen où il meurt ; Tristan Bernard ne se remet jamais de cette disparition. Mort à Paris le au 43, rue Charles Floquet, Tristan Bernard est inhumé au cimetière de Passy (). Sa première épouse meurt en 1928 et sa seconde épouse, en 1952.Tristan Bernard a trois fils de son premier mariage, le dans le 3e arrondissement de Paris, avec Suzanne Rebecca Bomsel, il est avocat à la cour d'appel. Le premier, Jean-Jacques, est un auteur dramatique, promoteur du « théâtre du silence » ("Martine"), qui témoigna également sur l'univers concentrationnaire ("Le Camp de la mort lente", "Le Pain rouge"). Le deuxième, Raymond, est un réalisateur de cinéma, avec notamment "Les Misérables", première version cinématographique en noir et blanc. Le troisième, Étienne, est professeur de médecine, phtisiologue, et contribue à la diffusion du BCG. Tristan Bernard est par ailleurs le beau-frère du dramaturge Pierre Veber et de Paul Strauss, sénateur de Paris. Il est l'oncle du journaliste et scénariste Pierre-Gilles Veber et du scénariste Serge Veber, le grand-oncle du cinéaste Francis Veber et l'arrière-grand-oncle de l'écrivain Sophie Audouin-Mamikonian. Veuf, il épouse, en secondes noces, Agathe Marcelle Reiss, le dans le 17e arrondissement de Paris. Il séjourne dans les années 1930, en famille, dans sa villa au Touquet-Paris-Plage.Tristan Bernard est également connu pour ses grilles de mots croisés, pleines d'esprit et de malice. Contrairement à une idée reçue, ce n'est pas à lui que l'on doit cette définition en 8 lettres, (réponse : l'entracte), mais à Renée David. En revanche, on lui doit bien celles-ci : (réponse : l'âge), (réponse : un taxi), (réponse : un diamantaire) et (réponse : un piano). Tristan Bernard, un grand absent de l'Académie française, qui aimait dire : « Je préfère faire partie de ceux dont on se demande pourquoi ils ne sont pas à l’Académie plutôt que de ceux dont on se demande pourquoi ils y sont. »Théâtre (pièces réunies) : Sketches radiophonique :Tristan Bernard est nommé chevalier de l'ordre national de la Légion d'honneur en 1903, officier en 1913, commandeur en 1928 et élevé à la dignité de.
Tristan Bernard, nom de plume de Paul Bernard, né à Besançon le et mort à Paris le, est un romancier et auteur dramatique français. Il est célèbre pour ses mots d'esprit.
xwikis
České Budějovice est arrosée par la Vltava et se trouve dans le sud de la Bohême, à au sud-est de Plzeň et à au sud de Prague.La ville de České Budějovice commence son développement au au confluent des rivières Vltava et Malše. Elle est formellement fondée en 1265 par Hirzo, un chevalier vassal de Přemysl Otakar qui songe à étayer son influence sur la marche sud de son royaume et vise à contrer l'influence des puissants seigneurs de Rosenberg (Rožmberk). Dès 1277, la ville soutient son premier siège de la part des puissants Rožmberk. À la surprise générale, la ville dont les murailles ne sont pas encore achevées résiste et sort victorieuse. En 1308, c'est au tour d'Albert de Habsbourg d'être repoussé aux pieds des murs de Budějovice. Durant les guerres hussites, la ville se range aux côtés des Rožmberk pour soutenir le combat de l'empereur Sigismond contre l'hérésie tchèque, ce qui fait que le commerce de la ville se réoriente vers l'Autriche au sud ainsi que ses allégeances politiques : en 1468, elle reconnaît comme suzerain Mathias Corvin. Pendant la Renaissance, la ville connaît un développement sans précédent (en raison de la présence de mines d’argent, du commerce du sel, du drap, de poissons et des bénéfices du brassage de la bière). Mais au, elle affronte à nouveau des temps moins cléments avec les débuts de la guerre de Trente Ans. En 1611, elle sert de base aux Pasovecs, lors de la fronde parlementaire tchèque, puis prend fait et cause pour les Habsbourg, ce qui lui vaut d'être assiégée par Heinrich Matthias von Thurn qui n’arrive cependant pas à la conquérir. En 1618, ce sont les armées impériales de Charles-Bonaventure de Buquoy qui entrent dans la ville mais sont repoussées par l’armée parlementaire tchèque. Affaiblis par ces luttes, les habitants de la ville succombent en masse durant l’hiver 1618-1619 à une épidémie de peste. Au printemps 1619, Buquoy défait les armées parlementaires tchèques lors de la bataille de Záblatí, ce qui a pour effet de stabiliser la situation en Bohême du Sud. La ville profite de la situation pour convaincre Buquoy d’attaquer Rudolfov, sa vieille rivale et concurrente qui avait par ailleurs soutenu les protestants. Ce n’est pas un but prioritaire pour le maréchal impérial, mais une solde versée en or le convainc et la ville de Rudolfov est rasée. Le reste de la guerre de Trente Ans épargne la ville et lui est même bénéfique puisque certaines administrations impériales y sont transférées depuis Prague, en particulier la garde des très symboliques joyaux de la Couronne tchèque. Au, Budweis est au centre des combats de la première (1740–1742) et de la deuxième (1744–1745) guerres de Succession d'Autriche. Elle est successivement occupée par Charles-Albert de Saxe, par les armées autrichiennes, puis françaises et enfin prussiennes. Construite entre 1825 et 1832, la deuxième voie ferrée du continent européen relie la ville à Linz au moyen d’un chemin de fer hippomobile. Jusqu'en 1918, la ville faisait partie de la monarchie autrichienne (empire d'Autriche), puis Autriche-Hongrie (Cisleithanie après le compromis de 1867), district de "Budweis", un des 94 "Bezirkshauptmannschaften" en Bohême. Au début du, elle bénéficie du transfert des administrations régionales depuis Písek et Tábor et la ville de devient un centre régional d’importance en particulier grâce au chemin de fer. Avec la déclaration de la République Tchécoslovaque faisant suite au traité de Saint-Germain-en-Laye, la ville perd son nom allemand (Budweis) et acquiert son appellation tchèque actuelle. Cela a renforcé ce qui était juste à travers la ville où il a été du jour au lendemain, retour 20. En décembre 1918 à la patrie libérée premier président Tomáš Garrigue Masaryk. Elle est à nouveau débaptisée avec l’occupation par la Wehrmacht (le 15 mars 1939) et l’instauration du protectorat qui dissout le conseil municipal tchèque pour y nommer des Allemands. En mars 1945, la ville subit deux bombardements alliés qui causent des destructions massives et des pertes civiles. Le 10 mai de la même année, les troupes allemandes quittent la ville sans combattre et la laissent aux mains des troupes soviétiques du deuxième front ukrainien (général Rodion Malinovski); lesquelles font leur jonction avec les troupes américaines. À cause des décrets Beneš, la ville perd allemands soit 16 % de sa population. En 1962, une mine d'uranium non loin de cette ville provoque la mort de 80 % du bétail par leucémies et difformités.Recensements (*) ou estimations de la population :La ville est le siège d'une importante brasserie, Budweiser qui exporte dans le monde entier et tient tête au géant américain de l'agro-alimentaire, Anheuser-Busch qui commercialise une bière différente du même nom. Ce différend est le encore irrésolu à ce jour. Le fabricant de crayons de papier Koh-i-Noor Hardtmuth a aussi son siège dans la ville ainsi que des unités de productions.L'Université de Bohême du Sud y a été fondée en 1991. Elle abrite une faculté d'agronomie, de biologie, d'économie et de pédagogie. La ville est dotée, depuis 2004, d’une Alliance française, l’Alliance française de Bohême du Sud – České Budějovice.La vieille ville, avec son plan quadrillé autour d'une place centrale, typique des bastides médiévales, a conservé des monuments médiévaux, Renaissance et baroque, parmi lesquels : Dans les environs, on visitera à Trotnov les ruines du château du héros national tchèque Jan Žižka, le château néo-gothique des princes Schwarzenberg à Hluboká nad Vltavou, la splendide église du village de Hosin et, un peu plus éloignée la petite ville de Český Krumlov, classée au patrimoine mondial par l'Unesco.Jusqu'en 2017, Joseph Staline (décédé en 1953) faisait partie de la liste des citoyens d'honneur de České Budějovice. Le 15 mai 2017, lui et Klement Gottwald furent privés de ce titre par la municipalité.La ville de České Budějovice est jumelée avec :
České Budějovice (en, littéralement « Budweis de Bohême ») est une ville de la Tchéquie, la capitale de la région de Bohême-du-Sud et le chef-lieu du district de České Budějovice. Fondée en 1265 par le roi Přemysl Otakar II, c'est un centre industriel qui compte habitants en 2020.
xwikis
L'Amérique centrale s'étend de l'isthme de Tehuantepec dans le Sud du Mexique (le Mexique est majoritairement situé en Amérique du Nord) au nord, à l'isthme de Darién (Panama) au sud. Elle est bordée par le golfe du Mexique au nord, la mer des Caraïbes à l'est, et par l'océan Pacifique au sud et à l'ouest.La cordillère néovolcanique est considérée comme la division géologique séparant l'Amérique du Nord et l'Amérique centrale.À l'époque coloniale l'Amérique centrale était partiellement contrôlée par la Capitainerie générale du Guatemala qui recouvrait les régions aujourd'hui occupées par le Guatemala, la Belize, le Honduras, le Salvador, le Nicaragua et le Costa Rica. À l'indépendance (1821-1822), la Capitainerie devient les Provinces unies d'Amérique centrale puis la République fédérale d'Amérique centrale. Les États que l'on connaît aujourd'hui sont devenus indépendants de cette fédération dans les années 1830. Ce passé, excluant le Panama rattaché à l'histoire colombienne et le Belize très vite colonisé par les Anglais, a permis à une identité centre-américaine de se développer dans ces pays. Il existe d'ailleurs une différence en espagnol entre la définition géographique, "« América Central »" (Amérique centrale), et la définition historique et politique, "« Centroamérica »" (Centre-Amérique). Il existe aujourd'hui des organisations régionales résultant de ce passé, comme le marché commun centraméricain (MCCA) ou le plus récent Système d'intégration centraméricain (SICA), dont les membres fondateurs sont les cinq pays « historiques » : Guatemala, Honduras, Salvador, Nicaragua et Costa Rica. Par simplification, on définit souvent ces cinq pays comme l'Amérique centrale ; le Belize et le Panama sont alors considérés comme caribéens (à l'instar des trois Guyanes). Mais le Panama a intégré le parlement centre-américain en 1992 et a comme projet de s'intégrer au SICA dans les prochaines années. Le Belize, lui, est déjà membre du SICA mais pas du MCCA, préférant la Communauté caribéenne (CARICOM). Quant au parlement centre-américain, il accueille depuis 2004 des députés de la République dominicaine (ce pays s'intégrant économiquement et politiquement de plus en plus à l'Amérique centrale). On peut donc s'apercevoir que la définition politique de l'Amérique centrale est encore très floue.L'Amérique centrale est traversée par un système montagneux appelé « la Cordillère centrale » dont les sommets peuvent dépasser les mètres. Située à l'intersection de la plaque caraïbe, de la plaque nord-américaine et de la plaque de Cocos, une chaîne volcanique longe la côte Pacifique du nord au sud de la région. La côte caraïbe est constituée d'une forêt tropicale, qui n'est en réalité que la prolongation de l'Amazonie, très peu hospitalière. Grâce à cette forêt tropicale, l'Amérique centrale abrite 7 % de la biodiversité mondiale. La côte Pacifique, plus hospitalière car plus sèche grâce au relief la protégeant du climat caribéen, abrite quant à elle la majeure partie de la population centre-américaine.L'espagnol est la langue officielle dans tous les pays, sauf au Belize où la langue officielle est l'anglais. L'anglais est courant sur les côtes où il y a beaucoup d'ascendance africaine, tandis que les Indiens continuent à parler leur langue maternelle.La religion principale est le catholicisme, mais l'évangélisme est en augmentation.La région est particulièrement attractive pour les entreprises (notamment de confection) en raison de sa proximité géographique avec les États-Unis, des salaires très bas et des avantages fiscaux considérables. En outre, la baisse des cours du café et autres produits d'exportation et les mesures d’ajustement structurel encouragées par les instances financières internationales ont en partie ruiné l'agriculture, favorisant l'émergence des Maquiladoras. Ce secteur constitue 42 % du total des exportations du Salvador, 55 % du Guatemala, et 65 % du Honduras. Pourtant, son apport à l’économie de ces pays est contesté ; les matières premières sont importées, les emplois sont précaires et peu rémunérés, et les exonérations d’impôts fragilisent les finances publiques. Elles font aussi l'objet de critiques pour les conditions de travail des employés : insultes et violences physiques, licenciements abusifs (notamment d'ouvrières enceintes), horaires, non-paiement des heures supplémentaires. Selon Lucrecia Bautista, coordinatrice du secteur "maquilas" du cabinet d'audit Coverco, « les réglementations en matière du droit du travail sont régulièrement violées dans les maquilas et il n'existe aucune volonté politique pour imposer leur application. Face aux infractions, l'inspection du travail fait preuve d'une remarquable mansuétude. Il s'agit de ne pas décourager les investisseurs. » Les syndicalistes sont sujets à des pressions, et parfois à des séquestrations ou assassinats. Dans certains cas, des chefs d'entreprises ont fait appel aux services des maras. Enfin, des listes noires comprenant des noms de syndicalistes ou militants politiques circulent dans les milieux patronaux.
L'Amérique centrale est une bande de terre reliant l'Amérique du Nord et l'Amérique du Sud. La différence entre les frontières géographiques et les frontières administratives, ainsi que l'histoire coloniale et les ressemblances et différences culturelles dans la région font varier la définition de l'Amérique centrale selon le contexte.
xwikis
Dès les débuts de l'humanité, le « théâtre » désignait l'acteur qui racontait, qui revivait une expérience de chasse, de conflit, pour la partager avec son groupe. Dans la civilisation occidentale on considère les cortèges en l'honneur du dieu grec Dionysos comme les premières représentations théâtrales, bien avant le. C'est en effet d'abord à l'époque grecque antique qu'apparaît le "Theatron" (, qui vient de : regarder, contempler). Le terme désigne alors l'hémicycle destiné aux spectateurs. Un théâtre est donc à l'origine un lieu d'où le public observe un spectacle. À la Renaissance, la signification s'étend non seulement à l'ensemble de l'édifice de spectacle, scène comprise, mais également à l'art dramatique. Ce n'est qu'après la période du théâtre classique que le terme devient par antonomase le texte qu'il soit lu ou joué. Le théâtre est né en Grèce, où des concours tragiques existent depuis le. Il est apparu à Rome à la fin du Les représentations font partie des « jeux » ("ludi"), fêtes officielles de la cité. À Rome, on édifie d'abord des théâtres en bois, où seuls les spectateurs des premiers rangs sont assis, puis des théâtres en pierre : théâtre de Pompée en 55 av. J.-C., de Balbus en 13 av. J.-C., de Marcellus en 12 ou 11 av. J.-C. En Campanie, par exemple à Pompéi, on construit des théâtres en pierre dès le. À l'époque impériale, chaque ville romaine a son théâtre, comme Ostie en Italie, Orange en Gaule ou Sabratha en Afrique. Dans le théâtre romain, plus anciennement dans le théâtre grec, les acteurs portaient un masque : cet accessoire leur permettait d'être mieux vus des spectateurs assis sur les gradins parfois éloignés et d'en être mieux entendus, leur voix étant amplifiée comme par des porte-voix. Il y avait des masques tragiques (un visage triste) ou comiques (un visage fendu d'un large rire) ainsi que des masques doubles (un côté tragique, un côté comique) ; les acteurs qui se servaient de ces derniers devaient jouer de profil. L'acteur, exclusivement masculin, porte aussi des vêtements aux rembourrages voyants et cloturaux ainsi qu'une coiffure très haute, censés évoquer le gigantisme des dieux et des héros qu'il incarne. Au Moyen Âge, des troupes itinérantes jouent des pièces de genre dites des « Miracles », des "Mystères" et des « drames liturgiques », d'abord dans les églises puis dans leurs porches, sur leurs parvis et sur les places publiques. Elles ont pour vocation de raconter la vie des Saints mais sont très longues, alors pour maintenir le spectateur éveillé on y glissait en intermède quelques petites farces. Aujourd'hui, le théâtre amateur tend à se développer partout en province.Un genre théâtral est le résultat d'une création comique correspondant à une forme particulière : le spectateur, connaissant un genre donné, sait à quoi s'attendre, et selon la présentation de l'œuvre (tragédie, comédie...), il a une vision stéréotypique de l'œuvre. Le genre est donc, avant tout, une convention qui donne un cadre, une forme précise. C'est un premier échange implicite entre l'artiste et le spectateur. Il inclut diverses formes théâtrales dont la farce, la comédie, la pantomime, la tragédie, le drame romantique, le drame bourgeois, la tragédie lyrique, le vaudeville, le mélodrame, les mystères médiévaux, le théâtre de marionnettes, le théâtre forum, le théâtre d'improvisation, le théâtre en plein air, le théâtre de rue, le théâtre expérimental, le théâtre installation performance, la danse-théâtre (ou théâtre-danse), le web-théâtre avec les expérimentations d'e-toile, le café-théâtre d'improvisation, le théâtre de l'absurde, le conte, la revue. Le théâtre de société, théâtre amateur joué dans les demeures privées de riches propriétaires, par, et pour, des proches de ces derniers, est une forme théâtrale qui s'est développée plus particulièrement à partir du. Notamment en Suisse romande sous l'influence de Voltaire, installé près de Genève, et de Germaine de Staël, au château de Coppet. Des témoignages exceptionnels (costumes et décors) ont été conservés au château d'Hauteville. Molière disait, traduisant ainsi une devise de Santeul : le but de la comédie est de corriger les mœurs ("castigat ridendo mores"), ce qui vaut aussi pour la tragédie. Ces deux formes théâtrales ont en effet une "portée édifiante". Depuis quelques années est apparu un genre nouveau : le théâtre témoignage. Les premiers spectacles abordaient la question des drames vécus par les personnes ayant subi des licenciements économiques ("Les yeux rouges" pour les employés de Lip ; "501 blues" pour ceux de Levis). Puis sont apparus des spectacles témoignant des horreurs des génocides de la fin du : Olivier Py et son "Requiem pour Srebrenica", ou encore Jacques Delcuvellerie avec "Rwanda 94".Auteurs ayant eu le plus d'influence et d'audience dans le domaine du théâtre de façon permanente depuis leur vie. Il n'y a pas d'autrices ou d'auteurs pour le théâtre contemporain à cause de la proximité temporelle : nous n'avons pas le recul nécessaire, à notre époque, pour déterminer les auteurs qui seront confirmés comme des auteurs célèbres.Le théâtre prend sa conception actuelle au début du, grâce à des pionniers et des pédagogues comme Constantin Stanislavski et Bertolt Brecht (pour l'enseignement du théâtre et la place du comédien), Vsevolod Meyerhold (entraînement physique), Edward Gordon Craig (laboratoire expérimental et importance de la marionnette), Adolphe Appia (espace théâtral en trois dimensions), Jacques Copeau (honnêteté, sincérité, simplicité avec le Théâtre du Vieux-Colombier), ou Antonin Artaud (la souffrance d'exister avec le Théâtre de la cruauté). Le metteur en scène au théâtre prend une réelle dimension à la fin du. Il acquiert la place de « maître du plateau ». Ce bouleversement est notamment provoqué par Constantin Stanislavski, auteur et metteur en scène russe né en 1863 à Moscou, qui va, à, créer avec Vladimir Nemirovitch-Dantchenko le Théâtre d'art de Moscou. Il y crée des spectacles de Tchekhov notamment ("Les Trois Sœurs", 1900) et y enseigne une nouvelle pratique du théâtre basée sur le travail corporel, le travail physique et le refus du jeu conventionnel. Ce « système » (nom donné, par les contemporains, à sa façon de travailler), également intitulé « La Méthode (théâtre) », qu'il décrit dans son livre, "La Formation de l'acteur", influence ses successeurs, dont Valère Novarina, Claude Régy ou encore Jean Vilar qui, dans la préface du roman, expose qu'« "il n'est pas de comédien authentique qui n'ait, un jour ou l'autre, emprunté, sciemment ou non, quelques-uns des sentiers" » du livre de Stanislavski. En constituant leurs écoles, Constantin Stanislavski ou Vsevold Meyerhold, en particulier, veulent mettre fin au mythe du talent et de l'inspiration. Le théâtre se construit, selon eux, sur des bases scientifiques. Si l'on devient acteur, si l'on devient actrice, c'est grâce à une pédagogie et une pratique rigoureuses - ils ne seront pas d'accord sur ce qu'est cette pédagogie et cette pratique, mais c'est un autre question. Pour la préparation d’une production et les représentations, le metteur en scène peut faire appel à plusieurs autres personnes, notamment :L'acteur de théâtre ne joue généralement qu'un seul rôle à la fois, clairement défini et cohérent. L'acteur sait qu'il n'est pas réellement le personnage, même s'il doit s'identifier à lui. Les rôles de théâtre ne sont donc pas constituants. Cependant, afin de rendre celui-ci fort et cohérent, un acteur peut s'investir dans son rôle avec sa personnalité et son vécu. Le fait de créer un passé au personnage à l'aide d'événements déjà vécus par l'acteur est théorisé par Constantin Stanislavski comme le « revivre » et l'exploration de la mémoire affective. Il n'empêche que certains sont accusés de jouer tous leurs personnages de la même manière, de cabotiner. Ce problème du paradoxe sur le comédien est exposé par Diderot. Contrairement à Stanislavski, Diderot croit que le meilleur comédien est celui qui garde une distance entre son personnage et lui et qui ne joue pas la pièce en allant puiser dans ses propres émotions. La vision du jeu théâtral de Diderot le rapproche donc de Brecht et de sa théorie de la distanciation. Les humains, vivant en société, deviennent nécessairement des acteurs sociaux, qui changent de rôle constamment (au travail, en famille, entre amis, etc.). Cela renvoie à la notion de Theatrum mundi qui soutient que la vie est un spectacle, que le monde est une scène, que les être humains sont des comédiens et que Dieu est l'auteur et le metteur en scène de cette grande pièce de théâtre.À rebours de la plupart des autres spectacles, où l'on admet, et quelquefois recherche, une certaine décontraction des individus composant le public, il s'est construit au une discipline de spectacle acceptée de tous. Par exemple, au, il était très courant que le public siffle un spectacle de théâtre ou se mette à se disputer ; ce n'est plus le cas aujourd'hui. Aujourd'hui prime le respect du travail présenté, et la recherche d'une communion entre les personnes présentes. Cette exigence n'est pas toujours bien vécue lorsque le spectacle n'est pas intéressant : le spectateur se mettant à remuer, à tousser, quitter la salle, etc, toutes attitudes qui ne sont pas considérées comme correctes ; en cas de spectacle ennuyeux, seulement deux attitudes sont admises : dormir sur son siège, ou partir à l'entracte. Ces règles sont si bien acceptées qu'il est exceptionnel, de nos jours, de voir des spectateurs siffler, manifester bruyamment un désaccord, encore moins envahir la scène. Pour préserver le travail des acteurs et actrices, pour ceux qui prennent plaisir au spectacle, il est même exceptionnel de les voir applaudir à contre-temps, c'est-à-dire avant la fin. Le public recherche avant tout un plaisir partagé par toute la salle, des bruits d'émotions, un pari, que les émotions de chacun viendront conforter les émotions de tous et non les contredire. La salle est importante pour déterminer comment faire collectif. Le public français est réflexif, c'est-à-dire qu'un individu donné comprend intuitivement comment fait le public où il est pour faire public. Pour cet individu, cela a des conséquences importantes sur sa sensation d'être à l'aise ou pas, quel que soit le spectacle présenté. Chaque théâtre « suggère » comment se comporter. Par exemple, à la Comédie-Française, « il faut » parler doucement et se tenir à certaines règles vestimentaires ; au Théâtre national de Chaillot, « il faut » être plus libre. Le théâtre n'est pas seulement un rapport à une œuvre, mais il est aussi une façon d'être ensemble, il est aussi la manifestation d'une solidarité sociale.Pourquoi, s'ils jouent déjà naturellement des rôles, les humains se sont-ils mis à jouer du théâtre? De façon générale, comme le rappelle Aristote dans "La Poétique", les gens réagissent différemment dans la vie, et face à une œuvre d'art. Un cadavre en décomposition horrifie, mais une nature morte ravit. Il y a donc un pouvoir propre à la représentation ("mimésis"), au jeu, qui permet d'appréhender avec plaisir ce qui autrement pose problème. Le théâtre est donc joué pour faire face aux mystères et conflits qui inquiètent. Les gens de théâtre cherchent ainsi à créer un "miroir social", un reflet plus ou moins caricatural de la société, qui permet de mieux la comprendre, et de mieux dénoncer ses failles : ce rôle politique était particulièrement évident dans la Grèce antique, avec la comédie ancienne. Mais cette citation du "Hamlet" de Shakespeare peut aussi être mentionnée : « "for any thing so overdone is from the purpose of playing, whose end, both at the first and now, was and is, to hold, as 'twere, the mirror up to nature" ». Le théâtre est aussi un miroir tendu à la nature : le spectateur, comme l'acteur, vient chercher une réponse, se construire une identité. Le théâtre peut avoir un effet cathartique, servant d'exutoire aux passions qui ne sont pas autorisées par la société. Le théâtre peut aussi être un divertissement, sans autre objectif que de changer les idées à ses spectateurs, par l'utilisation du comique notamment. Augusto Boal, qui aborda une manière de faire du théâtre résolument politique, c'est-à-dire qu'il faisait jouer à des gens des situations conflictuelles en changeant la position des personnages : par exemple, le directeur qui avait licencié tel salarié jouait le rôle du salarié. Cela permettait selon lui de régler certains conflits. C'est l'origine de ce qu'on a appelé le théâtre forum, et en Belgique le théâtre-action.Le festival le plus renommé en France est le "Festival d'Avignon". Le plus grand festival européen, et peut-être mondial est le festival international d'Édimbourg. Il existe de nombreux festivals, notamment en période estivale. Certains se concentrent sur un genre particulier (Aurillac pour le théâtre de rue, ou celui de Charleville-Mézières pour le théâtre de marionnettes, "Mimos" de Périgueux pour le théâtre gestuel, par exemple) ou bien restent « généralistes » en tentant la plupart du temps de programmer un spectacle avec une tête d'affiche pour attirer le public.Une majorité des comédiens en activité a suivi une formation, que ce soit par le conservatoire national supérieur d'art dramatique, un Conservatoire de musique, danse et art dramatique ou un cours privé.Internet est considéré par certains comme un concurrent du théâtre voire un adversaire qui encourage le goût de la dématérialisation de relations, contraire à la proximité humaine propre au théâtre. Certains ont considéré les sites de théâtre sur Internet comme « des officines responsables de la régression du théâtre ». D'autres personnes estiment qu'Internet apporte beaucoup au théâtre : une popularisation par la diffusion d'opinions sur les pièces, une démocratisation par la pression à la baisse des tarifs initiée par les billetteries en ligne et un accès facilité à l’information (programmation, réservation). Ainsi, en septembre 2006, la Comédie-Française a ouvert ses portes aux acteurs du web, que ce soit pour publier sur le Web des avis sur les pièces, ou pour proposer des tarifs réduits aux spectateurs. Le Théâtre des Osses, compagnie suisse fondée en 1978 et devenue Centre dramatique fribourgeois en 2003 ouvre un site d'archives.
Le théâtre () est à la fois l'art de la représentation d'un drame ou d'une comédie, un genre littéraire particulier, et l'édifice dans lequel se déroulent les spectacles de théâtre. On parle aussi de genre dramatique.
xwikis
Lorenzo Lotto passa son enfance et son adolescence à Venise où il fut formé. Élève de Giovanni Bellini selon Vasari, pour qui Lotto,, il est plus souvent présenté comme l’élève d’Alvise Vivarini, en considération de la sévère monumentalité de ses premières œuvres. Entre 1503 et 1504, il est documenté pour la première fois comme peintre à Trévise, où il exécute, en 1505, le "Portrait de l'évêque Bernardo de' Rossi", protagoniste de la vie culturelle trévisane et son protecteur. L’œuvre austère, exposée au musée napolitain de Capodimonte, par sa plasticité et son sens aigu de la psychologie, trahit des influences antonellienne et nordique, tout en montrant une personnalité stylistique déjà formée. L’"Allégorie du Vice et de la Vertu", aujourd’hui à la National Gallery of Art de Washington, décore le couvercle qui jadis protégeait le portrait. Lotto y réalise une image cryptée à travers l’élaboration originale de motifs allégoriques comme dans l’"Allégorie de la Chasteté" de 1505, autre couvercle d’un portrait non identifié, présentant en son centre une figure féminine rêveuse, sur laquelle un angelot ou un génie ailé déverse des pétales de fleurs ; à gauche, un satyre se penche derrière un tronc pendant qu’à droite, un autre s’adonne à des libations ; chez la femme, la "voluptas", l'inclination au plaisir, est atténuée par la "quies", un état en suspens de vision purificatrice loin de l'abandon inconscient au rêve. Lui succéda le grand retable de l’église Santa Cristina al Tiveron, hameau de Quinto di Treviso, extraordinaire "Sacra Conversazione" de 1505, qui, prenant pour modèle le retable de San Zaccaria peint par Bellini, adopte une composition plus fermée. Soulignée par l’entrecroisement des regards et des attitudes des personnages sacrés, elle est immergée dans une lumière froide et changeante, très éloignée de la production vénitienne d’alors. Lotto, dans cette œuvre et dans les suivantes, se tourne vers l’art de Dürer et des pays nordiques, dont il adopte le réalisme des détails, le pathétique de la représentation et cette vision d’une nature mystérieuse et inquiétante. Avec l’"Assomption du Duomo di Asolo" et le "Portrait du jeune homme à la lampe", du Kunsthistorisches Museum de Vienne, tous deux datés de 1506, se conclut l’expérience trévisane. L’homme représenté s’appelle Broccardo Malchiostro, jeune ecclésiastique, secrétaire de l’évêque Bernardo de' Rossi. Son identité est suggérée par les fleurs d’artichaut brodées sur la toile de brocart, que l’on retrouve sur ses armoiries, et par le jeu de mots "". La lampe que l’on aperçoit en haut à droite, sur un fond obscur, derrière le rideau, renvoie à la conjuration ratée organisée en 1503 contre lui et l’évêque De' Rossi. Fort d’une notoriété acquise en peu de temps, le peintre est invité en 1506 dans les Marches par les dominicains de Recanati, avec lesquels il entretiendra sa vie durant de bons rapports. En 1508, il termine le grand "polyptyque" de l’église Saint-Dominique, désormais conservé à la pinacothèque communale. Dans une architecture traditionnelle, s’y déploient des figures monumentales et mobiles, immergées dans une pénombre parcourue de forts contrastes lumineux. L’œuvre conclut le cycle de l’activité juvénile de Lotto, désormais peintre mature et conscient de ses propres moyens. Après un bref retour à Trévise, en 1509, il est appelé à Rome par le pape Jules II pour participer à la décoration de ses appartements au Vatican. Le "Saint Jérôme pénitent", est un thème récurrent chez Lotto qui en 1506, puis, sans doute en 1509, en réalise deux versions. Dans celle du château Saint-Ange, influencée par l’univers culturel romain, la palette s’éclaircit, immergeant le saint dans un paysage moins nordique, plus solaire, mais que le caractère anthropomorphe des éléments naturels (tronc noueux près du lion, racines en forme de main griffue, arbre accroché à l’éperon rocheux, derrière le saint) rend inquiétant. On dit que l’impact de la cour pontificale et de la grande "officine" romaine, où travaillaient les Lombards Bramante, Bramantino et Cesare da Sesto, les Siennois Sodoma et Domenico Beccafumi, Michel-Ange et surtout Raphaël, aux côtés duquel il dut travailler, bouleversa le talentueux mais renfermé Lorenzo : il quitta Rome en 1510 pour ne plus y revenir, débutant l'inquiet vagabondage qui le mènera à une situation de marginalisation, tant souhaitée que subie. Son retour dans les Marches est documenté par un contrat signé le avec la Confraternita del Buon Gesù de Jesi, pour une "Déposition" destinée à l’église de San Floriano et désormais exposée à la pinacothèque locale. Il y eut aussi ce passage à Recanati, où il peint la "Transfiguration" de l’église Santa Maria di Castelnuovo, aujourd’hui exposée à la pinacothèque. Le tableau est structuré selon un modèle raphaélique, contre lequel pourtant le peintre réagit, avec de soudains accès expressionnistes, une composition complexe, et des figures aux attitudes tourmentées. Le classicisme romain triomphant a certainement troublé les certitudes vénitienne et nordique de Lorenzo, sans jamais le convaincre de son efficacité.Avec le déménagement à Bergame, réalité culturelle en marge du débat intellectuel des centres majeurs, les inquiétudes couvées à Rome et exprimées dans les peintures des Marches s’apaisent. Lotto est désormais libre de s’exprimer dans ce que l’on peut appeler un art provincial, choix qui s’avéra perdant face au grand mouvement romain. L'artiste, stimulé aussi par les commandes locales, tenta une synthèse entre l’art « nouveau » vénitien et la tradition lombarde, venant en contact avec l’œuvre de Gaudenzio Ferrari et peut-être aussi du Corrège. Certainement, il approfondit sa connaissance de l’art nordique, en particulier celui d’Hans Holbein, par l’étude des gravures. Sans doute à cause du siège impérial de Bergame, il termina le grand "retable Martinengo", commandé en 1513 pour l’église Saint-Étienne-et-Saint-Dominique seulement trois ans plus tard ; le retable, privé de cadre, cimaise et prédelle, est conservé dans l’église San Bartolomeo. Lotto, de façon inhabituelle, y dispose les figures devant la perspective de la nef, et non sur le fond de l’abside, à la limite entre ombre et lumière. Au cœur de cette structure architectonique classique, ornée de drapés et ouverte sur la coupole, pleut une lumière céleste. Deux anges tiennent symboles et cartels sur lesquels sont inscrits ces mots : Il devient le protagoniste de la culture picturale bergamasque peignant intensément : "Suzanne et les vieillards", aujourd’hui aux Offices, date de 1517 et l’"Adieu du Christ à sa mère" de Berlin, de 1521. Dans cette œuvre, il ouvre encore largement l’architecture sur un jardin lumineux. Les figures monumentales y rappellent, par leur pathétique expressif et populaire, les statues de Gaudenzio Ferrari au Mont Sacré de Varallo. Il se libéra, en revanche, de l’apparat architectonique dans le "Retable de San Bernardino in Pignolo", de 1521, disposant la scène en pleine campagne. La Vierge et l’Enfant, à l’ombre d’un dais tendu par quatre anges, peints en fort raccourci, sont entourés des saints Joseph, Bernardin, Jean-Baptiste et Antoine le Grand. Le regard pénétrant que l’ange aux pieds du trône adresse au spectateur veut établir un lien, l’impliquant dans une conversation à laquelle tous peuvent et doivent participer. La "Pala di Santo Spirito", du nom de l’église bergamasque où elle est exposée, est contemporaine et de composition analogue, même si la représentation en est moins populaire ; dans le saint Jean-Baptiste enfant on peut voir une référence à Léonard tandis que les anges couronnant la Madone s’inspirent du Corrège. En 1524, Lotto reçoit de Giovan Battista Suardi et son cousin Maffeo, membres d’une famille aristocratique de Bergame, la tâche de décorer l’oratoire privé annexé à leur villa de Trescore Balneario. La décoration, exécutée au cours de l’été 1524, comprenait le plafond, peint à fresque avec une pergola en trompe-l’œil où s’ébattent des "putti", le mur ouest avec "l’Histoire de sainte Catherine et sainte Madeleine" et les deux murs latéraux avec, d’un côté, l’"Histoire de sainte Brigide" et de l’autre, l’"Histoire de sainte Barbe" ; le programme iconographique célèbre la victoire du Christ sur le Mal, annoncée par les prophètes et les sybilles, et confirmée par la vie des saints. La représentation de l’histoire de"sainte Brigide" est interrompue par deux fenêtres sur les murs de l’oratoire ; Lotto est alors contraint de réaliser trois scènes distinctes, chacune contenant divers épisodes de la vie de la sainte, reliés par un faux mur sur lequel figurent des tondi où prophètes et sibylles se font face. Dans "La prise d’habit de sainte Brigide", où l’on voit la famille du commanditaire, la scène principale se déroule devant une abside ; une nature morte d’objets sacrés est peinte sur l’autel, peut-être en souvenir de la "Messe de Bolsene" de Raphaël. Les ruines à droite de l’église ouvrent la perspective sur une veduta dans laquelle s’inscrit "L'offrande de sainte Brigide". Derrière la grande figure du "Christ - Vigne", sont racontées les "Histoires de sainte Barbe". Le Christ y tend ses doigts prolongés en sarments que des hérétiques, grimpés sur des échelles et munis de serpettes, tentent de couper. Enfermés dans des médaillons, des saints tentent de les repousser ; au second plan, sur fond d’édifices et de perspectives paysagères sont disposées des figures plus petites, s’illustrant dans une série de brillants épisodes, conclus par une scène de marché ; Lotto créa ici une histoire sans héros, anecdotique, et comme telle, proche des représentations du nord de l’Europe. Cette démarche antirhétorique et donc anticlassique, est accusée par les accords inhabituels de teintes (le jaune avec le violet, le rose avec le vert, le blanc avec le brun).En 1525, Lotto retourne à Venise, mais conserve des commandes à Bergame et dans les Marches. Dans l’"Annonciation de Recanati" peinte pour l’église Santa Maria dei Mercanti, aujourd’hui au musée Villa Coloredo Mels, Lotto renverse l’interprétation du thème proposée par Le Titien dans l’"Annonciation" de Trévise : Le "Saint Nicolas en Gloire", de 1529, premier retable peint à Venise, pour l’église du Carmine, est considéré par Ludovico Dolce, le biographe de Titien, comme étant de "médiocre coloris". Lui échappait alors la nouveauté du paysage, un nocturne très moderne, vu en contre-plongée. De Bergame lui vint la commande de dessins pour la décoration "a intarsio" des stalles du chœur de l’église Sainte-Marie Majeure, marqueteries exécutées par Giovan Battista Capoferri ; Lotto fournit une cinquantaine de cartons pour le transept et les stalles du chœur, où il représente des épisodes de l’histoire biblique avec efficacité et sens de la synthèse. Fortement suggestifs, les panneaux destinés à protéger les marqueteries du chœur témoignent de l’intrication de la religion et de la culture alchimique, procédé typique du Cinquecento. Les « imprese hiéroglyphiques » que Lorenzo dessina sur les conseils des érudits bergamasques du Consortium de la Miséricorde, dévoilent les correspondances latentes entre les différents épisodes bibliques et la vérité ésotérique, tirée du savoir alchimique. Dans la grandiose "Crucifixion" de Monte San Giusto, peinte en 1531, il réaffirme sa conception de la représentation populaire du fait religieux, qu’il dramatise jusqu’à anticiper Le Caravage ; en 1532, il envoie à la confraternité de Santa Lucia de Jesi la "Sainte Lucie devant le juge", exemple de colorisme brillant et de composition animée, où une lumière changeante s’attarde sur les détails d’une manche gonflée, d’un chapeau traînant sur le sol, de la baguette impuissante du juge, et sur les diverses expressions des personnages. Entre 1534 et 1539, Lotto est à nouveau dans les Marches : il y invente, pour les dominicains de Cingoli, une très complexe et joyeuse "Madone du Rosaire". Derrière la Vierge, enfermés dans quinze tondi, il représente les "Mystères du Rosaire". À ses pieds, il peint deux angelots répandant des pétales de roses accompagnés du petit saint Jean. De retour à Venise, au faîte de la gloire maniériste du Titien, il réalise en 1542 pour l’église de Saint-Jean et Saint-Paul un "Saint Antoine faisant l’aumône":Le dernier retable peint à Venise est la "Madone et les saints" de l’église San Giacomo dell’Orio, de 1546, année où il rédigea son testament : « Si, dans ce testament je ne fais pas mention de parents de sang, c’est parce que ces rares personnes sont déjà à l’aise et n’ont pas besoin du peu de bien dont je dispose ; ils m’excuseront donc ». En 1548, Pierre l'Arétin lui envoie une lettre, teintée de son habituelle ironie, dans laquelle il vante la supériorité du Titien : « (...) être dépassé dans le métier de peindre ne peut se comparer au fait de ne point trouver son égal en matière de dévotion. Ainsi, le ciel vous récompensera d’une gloire qui dépasse la louange de ce monde ». Des soupçons de luthéranisme pèsent alors sur lui. Après avoir vendu ses quelques biens, il retourne définitivement en 1549 dans les Marches. En 1550, il peint à Ancône, pour l’église de saint François, une "Assomption" ; pour gagner un peu d’argent, il organise une loterie dont les prix sont ses peintures et dessins invendus. En 1552, il entre à la Santa Casa de Lorette, où il est fait oblat, deux ans plus tard. La "Présentation au Temple", du palais apostolique de Lorette, peinte d’une main tremblante, comme toujours sans aucune rhétorique mais riche d’une pénétrante émotion, est sa dernière toile : en haut à droite, pointe la figure d’un vieillard à longue barbe blanche, dans laquelle on a voulu voir le dernier salut du peintre.Lorenzo Lotto fut un très grand portraitiste parce qu’il considérait chaque individu non comme le protagoniste d’une histoire, mais comme une personne quelconque, une parmi tant d’autres, avec laquelle on parle et on se comprend. À l'opposé de ceux du Titien, les portraits de Lotto sont les premiers psychologiques: ce ne sont évidemment pas des portraits d’empereurs ou de papes, mais des gens de la petite noblesse ou de la bonne bourgeoisie. Dans le nombre, figurent aussi ceux d’artistes, d’hommes de lettres ou d’ecclésiastiques. Sa grande découverte, qui fait la modernité de Lotto, est précisément celle du portrait comme dialogue, échange de confidence et de sympathie, entre un "soi" et un "autre". Ils sont des témoignages authentiques et crédibles, même si la description physionomique n’est pas plus minutieuse que dans les portraits du Titien. Car, plutôt que de fixer le personnage tel qu’il est objectivement, Lotto préfère le montrer à l’instant où il se qualifie, où il s’adresse à un autre, et se prépare à un rapport humain sincère. Il ne dit pas : « admire-moi, je suis le roi, le pape, le doge, je suis le centre du monde » ; il dit plutôt : « voilà comment je suis fait à l’intérieur, voilà quels sont les raisons de ma mélancolie ou les fondements de ma foi, voilà quelles sont mes sympathies ». Dans le portrait-dialogue, l’attitude du peintre est celle d’un confesseur, d’un interlocuteur qui pose les questions et interprète les réponses. [...] La beauté qui irradie, comme une lumière intérieure, de ses personnages n’est pas une beauté naturelle, ni même une beauté spirituelle ou morale, mais simplement la beauté intérieure trahie, plus que révélée, par un regard, un sourire, la pâleur transparente d’un visage ou la molle attitude d’une main» (Argan).
Lorenzo Lotto, né à Venise en 1480 et mort à Lorette en 1556, est un peintre vénitien du, contemporain de Titien, qui a été actif entre la Vénétie, Bergame et les Marches.
xwikis
L'histoire de la Pologne commence véritablement au, sous le règne de, duc des Polanes (de la dynastie Piast), qui convertit la Pologne naissante au christianisme en 966, puis, par le couronnement de son fils, le premier roi de Pologne, sacré en 1025. La Pologne devient rapidement au Moyen Âge une puissance régionale, tout en essayant régulièrement de sortir de l'influence du Saint-Empire romain germanique, et de repousser le « Drang nach Osten ». C'est ainsi qu'à partir du, le royaume de Pologne doit lutter contre les chevaliers Teutoniques qui ont colonisé la Prusse et une partie de la Poméranie. Le pays atteint son apogée aux sous la dynastie des Jagellon, après l'union du royaume de Pologne et du grand-duché de Lituanie, donnant naissance à la république des Deux Nations, l'un des plus grands pays d'Europe. Cependant, durant le et surtout le, la République est engagée dans de nombreux conflits militaires qui lui font perdre une grande partie de sa superficie, notamment sous le coup de l'expansion de l'Empire russe. À la fin du, après trois partages, le territoire de la république des Deux Nations est divisé entre la Prusse, l'Autriche et l'Empire russe. La Pologne ne recouvre que brièvement son indépendance, de 1918 à 1939, puis est à nouveau envahie par l'Allemagne nazie et l'URSS qui se partagent le pays, précipitant l'Europe dans la Seconde Guerre mondiale et provoquant la mort de près de six millions de Polonais. À la fin de la Seconde Guerre mondiale, l'URSS conserve la partie orientale de la Pologne, qui en contrepartie acquiert les territoires de la Poméranie, de la Prusse-Orientale et de la Silésie, régions allemandes depuis plusieurs centaines d'années. Joseph Staline impose la mainmise des Soviétiques sur le pays : la république populaire de Pologne est instituée en 1952, le régime communiste tient jusqu'en 1989. Après avoir retrouvé toute son indépendance, le pays devient membre de l'OTAN en 1999, de l'Union européenne en 2004 et tourne progressivement la page de l'économie planifiée au cours des décennies 1990 et 2000. Dans les années 2010, l'économie polonaise est l'une des plus dynamiques d'Europe. C'est le seul État européen à ne pas avoir connu la récession lors de la crise économique qui frappe les pays développés en 2008.Fondée au par les Polanes, la Pologne devient au Moyen Âge une puissance incontournable en Europe centrale. Son premier souverain est, fondateur de la dynastie Piast qui règne sur la Pologne de 966 à 1370. La capitale est alors Gniezno, au nord de la Posnanie. Poste avancé de l'Occident catholique romain et cible du "", la poussée germanique vers l'est, elle fait face aux mondes orthodoxe (en Russie, Biélorussie et Ukraine), païenLa république des Deux Nations ("Rzeczpospolita Obojga Narodów"), extension de l'Union de Pologne-Lituanie, en existence depuis 1386, est concrétisée par la signature, en 1569, du traité de l'Union de Lublin qui unit le royaume de Pologne et le Grand-duché de Lituanie en un seul État. Le royaume couvre alors un territoire qui va de la mer Baltique à la mer Noire et jusqu'aux portes de Moscou. La capitale est alors Cracovie, en Petite-Pologne. La "Rzeczpospolita" est un système politique inédit depuis la Rome antique, où l'aristocratie exerce une sorte de démocratie parlementaire. Le roi est en effet élu par ses pairs. C'est le principe de la monarchie élective. Cette « république »Mais, cette tolérance religieuse se réduit progressivement au, en particulier après 1655, quand la Suède protestante envahit la Pologne et est arrêtée à Częstochowa, devant le sanctuaire marial de Jasna Góra, dont le prieur, Augustyn Kordecki, est à la tête de troupes numériquement très inférieures. Le règne de Jean III Sobieski (1674-1696) est marqué par la construction, à partirLa "Rzeczpospolita" est peu à peu victime d'un long déclin, du fait de son système politique anarchique, et des nombreuses invasions (suédoises, russes, turques, prussiennes). À la fin du, la Pologne perd son indépendance, les partages de la Pologne se succèdent entre 1772, 1793 et 1795. La première partition de la Pologne, en 1772, conduit à un sursaut civique. Ce sursaut mène en 1791 à la proclamation de la Constitution polonaise du 3 mai 1791, nettement moins « révolutionnaire » que celle de la France, mais, néanmoins perçue comme trop dangereuse pour ses voisins, d'où le deuxième partage, qui provoque une révolte menée par un héros de la guerre d'indépendance américaine, Tadeusz Kościuszko. Cette révolte sert de prétexte au troisième partage, quand le royaume de Pologne est rayé de la carte.Tout au long du, exception faite de la fin de la période napoléonienne avec le duché de Varsovie, la Pologne est niée comme entité nationale, écartelée, partagée entre la Russie, la Prusse (puis l'Allemagne), et l'Autriche (puis l'Autriche-Hongrie). Cette période est marquée par une succession deLa Pologne ne recouvre son indépendance qu'en et fonde alors une Deuxième République, dont l'indépendance est reconnue par le petit traité de Versailles en juin 1919. Dès son indépendance, la guerre soviéto-polonaise de 1919-1921 l'opposeLa Pologne est envahie par les forces allemandes et slovaques le (campagne de Pologne), déclenchant la Seconde Guerre mondiale. La Wehrmacht atteint les faubourgs de Varsovie en sept jours grâce à sa stratégie du « Blitzkrieg » et à sa supériorité technologique (la ville ne capitule cependant que le ). Conformément aux accords secrets du Pacte germano-soviétique signé le, soit une semaine avant le début de l'invasion allemande, l'URSS envahit à son tour la Pologne, à partir du. Au début de la guerre, le président de la République Ignacy Mościcki et le gouvernement polonais pensent obtenir droit de passage en Roumanie, le, après l'invasion soviétique de la Pologne, mais sont internés par les autorités roumaines sous la pression allemande. En vertu de la Constitution polonaise d' qui le prévoit explicitement, le président de la République transmet alors sa charge, le, à un successeur désigné, Władysław Raczkiewicz qui nomme comme Premier ministreÀ la fin du second conflit mondial, la Pologne, pourtant pays allié, perd par rapport à son étendue de 1939 et est déplacée de en moyenne vers l'ouest, laissant ses territoires orientaux (notamment la Polésie et la Galicie orientale) à l'URSS, mais recevant en échange le sud de la Prusse-Orientale, la Poméranie orientale et la Silésie prises au Troisième Reich, et en grande partie vidées de leurs habitants allemands, installés là depuis près de huit siècles. Dans cette nouvelle Pologne qui retrouve grosso-modo ses frontières du, les Soviétiques imposent le PKWN pro-communiste au pouvoir : le pays devient une république dite « populaire » (mais en fait une dictature à parti unique) membre du Pacte de Varsovie. En, un soulèvement ouvrier à Poznań annonce les manifestations massives d', qui obligent les Soviétiques à accepter l'arrivée au pouvoir de Władysław Gomułka, un communiste réputé réformateur (en partie à tort). Celui-ci est évincé en 1970 au profit de Edward Gierek lors de grèves ouvrières importantes contre la hausse des prix alimentaires. En 1968, après la guerre des Six Jours, le régime tente de faire diversionEn 1989, le général Wojciech Jaruzelski cumule les fonctions de chef de l'État (président du Conseil d’État de la république populaire de Pologne) et de Premier secrétaire du Parti ouvrier unifié polonais (le POUP) dans un climat de révolte généralisée. Incapable de réinstaurer une « normalité socialiste », le pouvoir est contraint de tenir des « Tables rondes », réunions entre le gouvernement et le syndicat Solidarność (de fait reconnu comme un interlocuteur incontournable), qui permettent la tenue d’élections législatives partiellement libres ; celles-ci ont lieu en et consacrent une large victoire aux membres de Solidarność et à leurs alliés. Les termes de l’accord conclu à l’issue des « Tables rondes » prévoyant une candidature unique à la fonction nouvellement créée de président de la République, Wojciech Jaruzelski est le premier à occuper ce poste, mais sa légitimité est quasi nulle : il nomme un tout dernier gouvernement communiste qui tient à peine deux mois avant de se résoudre à appeler Tadeusz Mazowiecki pour former le premier gouvernement non communisteEn 1995, Lech Wałesa se présente à sa propre succession ; il est battu par Aleksander Kwaśniewski, jeune leader du parti social-démocrate refondé sur les ruines de l’ancien parti communiste. Le premier gouvernement du président Kwaśniewski est dirigé par Józef Oleksy, l’ancien ministre des Relations avec les syndicats qui avait participé aux négociations de la « Table ronde ». Soupçonné d’intelligence avec les Soviétiques par le passé, ce dernier démissionne en et laisse la place à Włodzimierz Cimoszewicz. En 1997, à la suite d'élections législatives remportées par la droite, s'ouvre uneLe, le maire de Varsovie et candidat du parti conservateur Droit et justice (PiS) à l'élection présidentielle, Lech Kaczyński, est élu président de la République avec 54,0 % contre 46,0 % pour le candidat du parti libéral pro-européen Plate-forme civique (PO), Donald Tusk. La victoire du maire de la capitale, arrivé loin derrière son adversaire au premier tour, est une surprise de taille, tous les sondages donnant Donald Tusk largement vainqueur. Le président élu affirme peu après son élection qu'il va mettre en place son programme, fortement inspiré par l’aile la plus conservatrice de l’Église catholique ; celui-ci est critiqué par de nombreux médias pour sa radicalité, son manque d’ouverture surLe, lors d'élections législatives anticipées, le parti libéral Plate-forme civique (PO) de Donald Tusk, parti d'opposition à Lech et Jarosław Kaczyński, remporte 41 % des voix et distance le parti conservateur Droit et justice (PiS) au pouvoir depuis deux ans, qui arrive à la seconde position avec 33 % des suffrages exprimés. Donald Tusk est officiellement désigné Premier ministre (président du Conseil des ministres) le suivant, puis forme un gouvernement de coalition (avec sur 460, la PO ne dispose pas de la majorité absolue) en s'alliant avec le parti paysan centriste PSL de Waldemar Pawlak. Lech Kaczyński meurt dans l'exercice de ses fonctions le dans un accident d'avion près de Smolensk, en Russie, alors qu'il se rendait à la commémoration du massacre de Katyń, commis par lesL'élection d'Andrzej Duda à la présidence de la République en et la victoire de son parti Droit et justice aux élections législatives d' marquent le retour des conservateurs en Pologne et le triomphe de l'euroscepticisme. En réaction est créé le comité de défense de la démocratie au mois de.La Pologne est une république semi-présidentielle régie par une constitution adoptée en 1997. Le président de la République ("Prezydent Rzeczypospolitej Polskiej"), élu au suffrage universel direct pour un mandat de cinq ans renouvelable une fois, est le chef de l'État. Il nomme le président du Conseil, les ministres et les autres membres du gouvernement ; en outre, il dispose d'un droit de "veto" qui ne peut être levé par la chambre basse qu'à la majorité qualifiée des trois cinquièmes. S'il est le garant des institutions, le président de la République détient des pouvoirs limités, s'en tenant à faire figure d'autorité politique et morale. Il est toutefois le chef des Forces armées et peut détenir une certaine influence dans la conduite de la politique étrangère de la Pologne. Le président du Conseil des ministres ("Prezes Rady Ministrów"), généralement désigné par le titre de Premier ministre, est le chef duL'organisation territoriale de la Pologne repose, depuis 1999, sur trois niveaux géographiques. Le territoire polonais est divisé en voïvodies, lesquelles sont divisées en "districts" ("powiaty"), et ces derniers sont à leur tour subdivisés en "communes" ("gminy"). Les villes majeures ont, pour la plupart, à la fois le statut de "gmina" et de "powiat". La Pologne est divisée en 16 voïvodies, (dont au statut de district) et.La Pologne est subdivisée depuis 1999 en 16 régions (à la fois divisions administratives et collectivités territoriales) appelées voïvodies ou voïévodies ("województwa" au pluriel, "województwo" au singulier), qui sont : Ces voïvodies étaient au nombre de 49 entre 1975 et 1999.Les relations de la Pologne avecLe territoire polonais est dominé par la plaine d'Europe du Nord. Les massifs des Carpates et des Sudètes au sud forment une frontière naturelle avec la Tchéquie et la Slovaquie, alors que la mer Baltique constitue une frontière naturelle au nord. À l'ouest, la frontière avec l'Allemagne est fixée sur les fleuves Oder et Nysa.La Pologne possède de plus de d'altitude. Les Tatras forment le massif le plus élevé de Pologne et de toutes les Carpates. C'est là que se situe le plus haut sommet de Pologne, le Rysy (). Au pied deLa côte baltique polonaise est longue de et s'étend de Świnoujście, sur les îles d'Usedom et de Wolin dans l'ouest, à Krynica Morska, sur la presqu'île de la Vistule dans l'est. Dans l'ensemble, la Pologne a un littoral régulier, formé par le mouvement continuel du sable par des courants et des vents d'ouest enLa Pologne est parcourue par deux fleuves majeurs qui se jettent dans la mer Baltique. La Vistule, longue de, traverse plusieurs grandes villes polonaises dont Varsovie, la capitale. L'Oder, longue de, délimite quant à elle une partie de la frontière entre l'Allemagne et la Pologne. Le pays compte aussi des rivières de première importance telles que la Warta, un affluent de l'Oder long de, le Bug, un affluentAvec près de dix mille lacs de plus d'un hectare, la Pologne est l'un des pays au monde qui en compte le plus (en Europe, seule la Finlande possède une plus grande densité de lacs). Les plus grands d'entre eux, couvrant plus de, sont le lac Śniardwy et le lac Mamry en Mazurie, ainsi que le lac Łebsko et le lac Drawsko en Poméranie. Le lac le plus profond (plus de ) est le lac Hancza, situé dans la région des lacs de Wigry, au nord-est du pays, en Podlachie.La structure géologique de la Pologne résulte de la collision des continents européens et africains durant les soixante derniers millions d'années d'une part, et de l'effet du Quaternaire au nord de l'Europe d'autre part, ces deux phénomènes ayant conduit à la formation des Sudètes et des Carpates. Les plaines du Nord de la Pologne sont des moraines, (ce qui permet auxLe désert de Błędów est situé en Pologne méridionale, dans la voïvodie de Silésie, et s'étend au-dessus de la région de Zagłębie Dąbrowskie. Il a une surface totale de. C'est le seul désert polonais et l'un des cinq seuls déserts naturels en Europe. C'est le désert le plus chaudLes forêts couvrent 28 % du territoire polonais. Plus de la moitié des terres sont consacrées à l'agriculture. Tandis que la surface totale sous culture diminue, les champs restants sont cultivés plus intensivement. Plus de 1 % du territoire de la Pologne, (), est protégé par nationaux. À cet égard, la Pologne estLa Pologne compte nationaux ("Parki narodowe"), qui couvrent une superficie totale de. La Pologne orientale comporte des régions boisées, comme la forêt vierge de Białowieża, qui n'ont jamais été défrichées par les hommes. De grands secteurs sont également couverts de forêts dans les régions montagneuses, en Mazurie, en Poméranie et en Basse-Silésie. Beaucoup d'animaux qui se sont depuis éteints dans d'autres parties de l'Europe survivent toujours en Pologne, tel le bison d'Europe dans la forêt de Białowieża et en Podlasie. D'autres espèces incluent l'ours brun, dans la forêtLe climat est de type océanique, au nord et à l'ouest, et devient graduellement plus continental vers le sud et l'est. Les étés sont tièdes, avec des températuresLa Pologne est au deuxième rang européen et au neuvième rang mondial pour la production de charbon et de lignite en 2012 (1,8 % de la production mondiale). Afin de remplir ses engagements de réduction des émissionsLa transition de l'économie planifiée vers l'économie de marché fut initiée par le vice-président du Conseil et ministre des Finances Leszek Balcerowicz, considéré comme le père des réformes économiques et le principal architecte de la profonde mutation de la Pologne du début des années 1990. Ce plan, de type thérapie de choc, a permis de maitriser l'hyperinflation qui ruinait l'économie polonaise et d'accélérer le processus de transformation. Après une première phase difficile se caractérisant par une forte inflation, une dévaluation de la monnaie, des fermetures d'entreprises et une forte hausse du chômage, cette politique a permis le développement et la modernisation de l'économie polonaise. Elle a abouti au retour de la croissance dès 1993, à une amélioration sensible du niveau de vie de la population, permettant une augmentation de la consommation, une baisse de l'inflation, une stabilisation du złoty, une augmentation des échanges commerciaux et d'importants flux d'investissements directs étrangers. L'embellie de l'économie polonaise due à la « thérapie de choc » s'est poursuivie jusqu'en 1997, avec cette année-là un taux de chômage enregistré passant sous la barre des 10 %. Il est brutalement remonté dans les années 2000, dépassant le seuil des 20 % en 2004, puis diminue continûment depuis 2013 pour atteindre 7 % en 2017. L'économie polonaise est dans les années 2010 l'une des plus dynamiques d'Europe. C'est le seul État européen à ne pas avoir connu de récession lors de la crise économique de 2008. Le pays a bénéficié de nombreuses aides de l'UE depuis son entrée en 2004. Sur la période 2004-2014, ce sont près de d'euros qui lui ont été alloués. De nombreuses infrastructures ont pu être financées, comme l'autoroute reliant désormais Varsovie à Berlin. La Pologne rattrape ainsi rapidement son retard sur ses voisins européens concernant le maillage du territoire et attire plus facilement les capitaux étrangers. Les inégalités de développement entre la partie ouest et la partie est du pays se creusent à partir des années 1990. Le PIB moyen des trois régions de l’Est (Podlaskie, Lubelskie et Podkarpackie) est en 2008 inférieur de 30 % à la moyenne nationale. En 2015, la Pologne est la huitième économie de l'Union européenne et la vingt-cinquième économie du monde en PIB. Le taux de chômage s’élève à 9,8 % en décembre 2015 et la croissance économique atteint 3,6 % cette même année. Le salaire médian brut est de et près de 1,5 million de salariés sont en « contrats flexibles », dits « contrats-poubelle » puisque les poussant dans la précarité.La population polonaise compte début 2017. Au moins deux millions de Polonais ont émigré entre 2004, date de l'entrée du pays dans l'Union européenne, et 2016. La diaspora polonaise (voir "infra") compte environ vingt millions d'individus. La Pologne ignore le multiculturalisme. Quelques minorités sont présentes dans le pays (germanophones, Ukrainiens, Juifs, Tatars musulmans), mais peu d’immigrés extra-européens : des commerçants vietnamiens arrivés dans les années 1970 et quelques milliers de ressortissants africains. La xénophobie est parfois attisée par une partie de la classe politique.Le classement est établi sur la base de la population des villes, il diffère si l'on prend en compte les agglomérations. Les plus grandes agglomérations du pays sont l'agglomération industrielleIl y a environ étrangers en Pologne, majoritairement originaires d'autres pays d'Europe orientale (Ukraine, Biélorussie, Lituanie...) et occidentale (Allemagne,La diaspora polonaise (Polonia) compteJusqu'à la Seconde Guerre mondiale, plusieurs religions étaient fortement représentées en Pologne : les minorités substantielles juive, protestante et chrétienne orthodoxe ont coexisté durant plusieurs siècles avec la majorité catholique. En raison de la Shoah, de l'annexion des territoires polonaise de l'Est par l'Union soviétique et de la politique communiste d’expulsion des populations allemandes et ukrainiennes après laLe polonais est la langue officielle du pays et est parlé nativement par 97 % de la population, ce qui fait de la Pologne l'un des pays linguistiquement les plus homogènesÀ partir du, une importante production dramaturgique donne ses lettresLes premières compositions polonaises remontent au. Il s'agit alors essentiellement de musique sacrée (avec notamment l'hymne religieux Bogurodzica). Au, la musique polonaise acquiert une renommée internationale grâce à Frédéric Chopin, puis Karol Szymanowski, Krzysztof Penderecki, Witold Lutosławski et Henryk Górecki au.Souvent réduit à tort aux simples prestations des ballets "Śląsk" et "Mazowsze", le folklore polonais reste cependant pratiqué assidûment par un grand nombre de Polonais de tous âges et de toutes classes sociales. Ceci est en partie dû à la volonté et au travail exceptionnel d'Oskar Kolberg, qui parcourut la Pologne au afin de répertorier le maximum de mélodies, de poèmes et de danses, région par région ; ce travail de recherche a donné lieu à son chef-d’œuvre de plus de de son vivant, "Lud"La formation des traits particuliers de la cuisine polonaise a été influencée par les changements historiques. À travers les siècles et au gré des migrations, la cuisine polonaise fut soumise à des influences et changements régionaux. Grâce à cela, on dénombre d'importantes influences orientales (mongoles, puis tatares et turques), russes, allemandes, françaises, italiennes et juives. Les plats les plus populaires en Pologne (qui le sont également dans les pays voisins) sont entre autres : les pierogi, le chou farci, le bigos, les kluski, les soupes (au chou, bortsch, żurek, bouillon, etc.), les plats de choux et de pommes de terre, le pain, les gâteaux, les légumes, les fruits (pommes, poires, différentes baies et groseilles, cerises et merisier), le fromage blanc et différents types de viandes (principalement porc, volaille et bœuf), ainsi que, dans une moindre mesure, les poissons d'eau douce ou de mer. Parmi les desserts figurent la babka, le pain d'épices, le sernik ou leL’histoire du cinéma polonais est presque aussi longue que celle de la cinématographie. Le cinéma polonais a acquis une renommée mondiale, même si les films polonais sont considérés comme étant moins commerciaux que les films en provenance d'autres nations européennes. Le cinéma polonais a traversé les frontières au cours de la Première Guerre mondiale. Des films réalisés à Varsovie ou à Wilno étaient souvent diffusés dans les salles de projection de Berlin. C'est ainsi que la jeune actrice Pola Negri (née Barbara Apolonia Chałupiec), s'est fait connaître en Allemagne et est devenue une grande star du cinéma muet. À partir de 1955, lesLe sport en Pologne est développé mais peine à être performant et surtout régulier comme en Russie et en Occident. Mais les Polonais récoltent quand même plusieurs résultats probants. L'âge d'or du sport polonais ayant eu lieu pendant la période communiste. Le football n'a jamais eu de titre en Ligue des champions, en Coupe des Vainqueurs de Coupe ou en Coupe de l'UEFA, mais réalisa plusieurs performances qui firent frémir les favoris dans les années 1970 et années 1980|1980. La sélection nationale remporta plus de succès en gagnant un titre olympique et deux médailles d'argent. En Coupe du Monde, la Pologne finit successivement,, entre 1974 et 1982, avant de faire le chant du cygne en huitièmes de finale en 1986. Du au, la Pologne a accueilli le Championnat d'Europe de
La Pologne, en forme longue république de Pologne ( ; ""), est un État d'Europe centrale, frontalier avec l'Allemagne à l'ouest, la Tchéquie au sud-ouest, la Slovaquie au sud, l'Ukraine à l'est-sud-est et la Biélorussie à l'est-nord-est, enfin la Lituanie et l'enclave russe de Kaliningrad au nord-est. Avec une population de d'habitants, la Pologne est le trente-quatrième pays le plus peuplé au monde. Elle est divisée en voïvodies, districts ("powiat") et communes ("gmina"). C'est une république parlementaire qui a pour monnaie nationale le złoty. Elle est membre de l'Union européenne depuis le, du Conseil de l'Europe, du groupe de Visegrád, de l'Organisation mondiale du commerce et de l'Organisation des Nations unies.
xwikis
Les premières peintures connues à ce jour sont les peintures rupestres. On trouve des peintures rupestres partout dans le monde: en Afrique, en Eurasie, en Australie, comme sur le continent américain - y compris en Océanie. Les plus anciennes du monde, celles de Maros (Célèbes, Indonésie) ont été datées de 40 000 ans. Les plus anciennes d'Europe datent d'environ quarante à trente mille ans avant notre ère et se trouvent dans la grotte de Sainte-Eulalie "("El Castillon, Espagne, datées de 40 800 ans) et dans la grotte Chauvet (France, datées de 32 000 ans). Dessinées avec de l'ocre rouge et un colorant noir, elles sont parfois gravées et représentent surtout des animaux, notamment des chevaux, des rhinocéros, des lions, des buffles et des hommes. Dans les cultures occidentales, la tempera, la peinture à l'huile et l'aquarelle sont les médiums les plus connus, avec des traditions riches et complexes dans le choix des modèles et des thèmes. Dans les pays orientaux, c'est l'encre noire ou colorée qui a toujours prédominé. C'est en 1829 qu'est apparue la première photographie puis, à partir de la seconde moitié du, les procédés photographiques se sont améliorés. Alors que la photographie devenait de plus en plus répandue, la peinture a perdu beaucoup de son rôle historique qui était de présenter un cliché d'une scène observable. C'est dans ce contexte qu'à partir de la fin du sont apparus de nouveaux mouvements artistiques comme l'impressionnisme, le postimpressionnisme, le fauvisme, l'expressionnisme, le cubisme et le dadaïsme, qui ont profondément changé la perception du monde héritée de la Renaissance. L'art moderne et contemporain marquent donc une évolution de la peinture, qui est passée d'un rôle, traditionnellement historique et documentaire, à celui de concept.Chaque point dans l'espace a une intensité différente des autres points qui peut être représentée en peignant en noir ou en blanc, en passant par toutes les nuances de gris. Dans la pratique, les peintres peuvent représenter des formes en juxtaposant des surfaces d'intensités différentes.La couleur et la tonalité sont l'essence même de la peinture, comme le sont la hauteur et le rythme pour la musique. La couleur est fortement subjective, et a des effets psychologiques et des significations symboliques qui peuvent différer d'une culture à l'autre : le noir est associé au deuil dans les pays occidentaux, alors qu'en Asie, c'est le blanc. Quelques peintres, théoriciens, auteurs et scientifiques, comme Goethe, Kandinsky ou Newton, ont écrit leur propre théorie de la couleur. Dans le langage, le mot désignant une couleur englobe bien souvent des couleurs et des tonalités différentes. Ainsi, le mot «rouge» peut couvrir un large éventail de couleurs. Il n'y a pas un registre formel des différentes couleurs, comme c'est le cas pour les notes de musique, même si le système Pantone est couramment employé dans l'imprimerie ou l'industrie graphique. Pour un peintre, la couleur n'est pas simplement divisée en couleurs primaires et complémentaires (comme le rouge, le bleu, le vert, le brun, etc). En effet, il utilise des pigments lui permettant d'obtenir de grandes variétés de couleurs. Par exemple, le «bleu» pour un peintre, peut être le cyan, l'indigo, le bleu de cobalt, le bleu marine, etc.Le rythme est aussi important dans la peinture que dans la musique. Le rythme est une pause dans un ensemble qui permet à la force créatrice d'intervenir et d'ajouter de nouveaux éléments, une forme, une mélodie, une coloration.L'esthétique a tenté d'être la « science de la beauté », et elle était une question importante pour des philosophes des comme Kant ou Hegel. Les philosophes classiques comme Platon et Aristote ont également théorisés sur l'art et la peinture en particulier. Platon avait tendance à négliger les peintres, et également les sculpteurs, dans son approche philosophique. Il considérait que la peinture ne pouvait pas représenter la Vérité, mais seulement une copie de la réalité et qu'il s'agissait d'un simple métier, comme la cordonnerie ou la ferronnerie. Au contraire, Léonard de Vinci estimait que « la peinture est une chose intellectuelle » ("la pittura è cosa mentale"). Kant distinguait la beauté et la sublimation, en privilégiant clairement cette dernière. Même si cette approche ne visait pas la peinture en particulier, elle a été reprise par des peintres comme Turner ou Caspar David Friedrich. Hegel a, quant à lui, reconnu l'impossibilité d'atteindre le concept de la beauté universelle et, dans son essai "Leçons sur l'esthétique", il a écrit que la peinture est l'un des trois arts romantiques, avec la poésie et la musique, en raison de son rôle symbolique et sa dimension intellectuelle. Parmi les peintres qui ont écrit des travaux théoriques sur la peinture, il faut citer tout d'abord Léonard de Vinci ("trattato della pittura"), Eugène Delacroix et, au, Salvador Dalí, Paul Klee, Kandinsky. Ce dernier estimait que la peinture avait une valeur spirituelle, et il rattachait les couleurs primaires aux sentiments ou concepts essentiels. L'iconographie s'est également attachée à théoriser la peinture. Cette discipline analyse les symboles visuels dans leur dimension culturelle, religieuse, sociale et philosophique pour parvenir à une meilleure compréhension des œuvres d'art.Les mouvements en peinture désignent des approches techniques ou visuelles communes à différents artistes. Un artiste peintre peut s'inscrire dans un mouvement, soit parce qu'il s'y est consciemment impliqué (Nabis, Dada), soit parce que des historiens d'art l'ont placé dans cette catégorie (Romantisme, Expressionnisme). Au travers des siècles, de nombreux mouvements sont apparus :En peinture, comme dans d'autre formes artistiques, il existe des thèmes récurrents. Le traitement par les peintres de ces thèmes fut longtemps dépendant de la hiérarchie des genres imposée par l'Académie royale de peinture et de sculpture.Au Moyen Âge, les peintres reproduisaient souvent des œuvres d'artistes antérieurs. La répétition, par la copie des mêmes motifs, a donné aux œuvres de cette époque un caractère collectif qui dura jusqu'au. Par la suite, les artistes peintres se mirent à reproduire la nature, la copie ne servant plus qu'à l'enseignement de l'art pictural. Elle fut également utilisée par les apprentis afin de reproduire des œuvres sous l'égide de leur maître qui pouvait ainsi les signer de son propre nom.Les peintres utilisent pour étendre les couleurs sur les différents supports à peindre des outils spéciaux, de fabrication industrielle ou artisanale, voire aussi tout simplement leurs doigts et/ou leurs corps, des tissus ou n'importe quel objet qui leur tombe sous la main.La peinture peut être appliquée sur une multitude de supports et matières :
La peinture est une forme d'art consistant à peindre sur une surface en y appliquant esthétiquement des fluides colorés. Les artistes peintres représentent une expression très personnelle sur des supports tels que le papier, la roche, la toile, le bois, l'écorce, le verre, le béton et bien d'autres subjectiles.
xwikis
Les nombreux sites archéologiques témoignent d'une présence de l'homme en Albanie depuis le paléolithique. Beaucoup de chercheurs pensent que le parcours préhistorique des Albanais est issu d'une ancienne tribu indo-européenne que l'historien Hellen Herodotus a qualifiée de. Beaucoup de chercheurs appellent les Albanais les descendants directs d'une ancienne tribu illyrienne, appelée, ou, qui s'est installée dans l'Albanie d'aujourd'hui. Certains pensent que les Albanais et les Illyriens sont des descendants des Pélasges, qui ont vécu des milliers d'années avant Jésus Christ. Dans l'Antiquité, le territoire qui forme aujourd'hui l'Albanie était habité par les Illyriens et les Bryges, peuples indo-européens qui se sont installés dans la région des Balkans au Parmi les tribus illyriennes qui habitaient le territoire de l'Albanie se trouvaient les Ardiéens, les Taulantiens, les Enchéléiens, les Parthiniens, tandis que dans le Sud vivait la tribu grecque des Chaoniens, et à l'ouest les Bryges. Le texte le plus ancien mentionnant l'existence des Illyriens remonte à Hérodote, au milieu du. Un royaume illyrien s’est étendu de la côte dalmate jusqu'à l'Albanie centrale et du Sud (passant par les territoires actuels de la Croatie du Sud, du Monténégro, de la Bosnie, de l'Albanie, la Serbie, etLes Albanais modernes sont mentionnés pour la première fois au : l'historien byzantin Michaelis Attaleiates écrit une "Histoire" dans laquelle il parle des "Albanoï" ayant participé à un soulèvement contre Constantinople en 1043, et des "Arbanitai" qui étaient des habitants du duché de Dyrrachion (Durrës), la nouvelle Épire. Vers 1081, un autre historien, Ioannis Scylitzes, évoque des Arvanites (dénomination grecque des Albanais) qui constituent une partie des troupes réunies par le duc de Durrës, Nicéphorus Basilacius, en rébellion contre Constantinople. Mention des Albanais est faite aussi au dans la chronique d'Anne Comnène, la fille de l'empereur byzantin Comnène. Ce dernier est alors confronté à l'invasion normande conduite par Robert Guiscard. Ce dernier sera battu à Shën Koll (Saint-Nicolas), près de Durrës, et selon la chronique il aurait pu vaincre. Replié ensuite vers Ohrid, il aurait donné le commandement de la place de Durrës au komiskort (seigneur) de l'Arbanon. De 1272 aux années 1280, la région se trouve sous le contrôle de Charles d'Anjou (frère de Saint Louis, installé d'abord en Sicile), qui se proclame "". Le territoire de ce royaume a la forme d'un rectangle dont les sommets sont aujourd'hui à Bar (anciennement Tivar), Prizren (Dardanie), Ohrid et Vlora (Sud de l'Albanie actuelle). Cela ne correspond qu'à une partie seulement du territoire sur lequel vivaient les tribus identifiées comme Illyriennes dans l'Antiquité. Les Normands, qui gouvernaient le Sud de l'Italie, conquirent Durrës en 1081. Les Byzantins reconquirent l'Albanie en 1083. Des Normands y retournèrent en 1107 et encore en 1185 mais furent rapidement expulsés. En 1190, le prince albanais réussit à instaurer un État indépendant qui se maintient jusqu’à la moitié du. Le Second Empire bulgare qui atteint son apogée sous le règne d'Ivan Assèn II (1218-1241), chutera à la mort d'Ivan. Un siècle plus tard, un empire serbe atteint son apogée au milieu du, sous le règne d’Douchan (1331 àL'histoire albanaise marquée par l'occupation s'est révélée particulièrement douloureuse sur le plan de la langue albanaise, au point de manquer de la faire disparaître. L'interdiction totale d'écoles en langue albanaise durant quasiment cinq siècles d'occupation ottomane eut pour conséquence. Pour les Albanais qui pouvaient recevoir un enseignement, il leur était imposé d'aller à Constantinople pour apprendre le turc. Si quelques-uns pouvaient avoir accès à un enseignement en Albanie du Sud (Épire du Nord), cet enseignement n'était alors qu'en langue grecque. Ce phénomène était dû à la forte influence de l'Église de Grèce au sud de l'Albanie depuis le schisme avec l'Église catholique et à la permissionAu cours du, les Impériaux eurent à faire avec les Turcs, et durant la campagne de 1689 leur général Piccolomini franchit la Save et pénétra par le Kosovo, où la route lui fut facilitée par Pjetër Bogdani jusqu'à Prizren. Les Autrichiens avancèrent de Prizren (Kosovo) à la vallée de Vardar, battant le Turc Mahmoud Begovitch, s'alliant avec les chrétiens albanais. Néanmoins, les Ottomans réussirent à faire entrer en conflit une partie des Albanais musulmans contre les Albanais chrétiens, et le duc de Holstein qui remplaça Piccolomini après sa mort ne sut pas comprendre ses alliés albanais, etÀ la fin du, les territoires d'Albanie sous domination ottomane étaient séparés en quatre régions administratives (vilâyet) : la région de Kosovo, celle de Shkodër, celle de Bitola (anciennement dénommée Monastir), et celle d'Ioannina. À l'issue de la grande guerre d'Orient (guerre russo-ottomane) qui marqua la victoire de l'Empire russe face à l'Empire ottoman : En signe de protestation contre ces annexions de populations et territoires albanais, se constitua la Ligue albanaise de Prizren, dont le siège se trouvait à Elbasan (Albanie centrale) avec des succursales à Prizren (Kosovo) et à Gjirokastër (Albanie). La Ligue proclamait la nécessité d'arriver à la constitution d'une autonomie albanaise avec la ville d'Ohrid (actuel Sud-Ouest de la Macédoine du Nord), comme chef-lieu. Avant la poursuite de ce dessein, la Ligue albanaise protesta vivement contre l'annexion des territoires albanais par le Monténégro, notamment pour les territoires de Podgorica et Ulcinj, puis se mit à organiserLa révolution de 1908 du mouvement Jeune-Turc donna naissance à un deuxième regroupement des forces albanaises contre l'Empire ottoman, les Albanais constatant qu'ils perdaient au fur et à mesure une grande partie de leurs territoires depuis les accords turco-russes 1878-1880, et à la suite d'une nouvelle levée de taxes. Aussi, en 1910 une nouvelle organisation, le mouvement "Bessa" (le « Serment ») s'organisa près de Prizren (Ferizaj, Sud du Kosovo), réclamant l'autonomie de l'Albanie vis-à-vis de l'Empire ottoman. Durant une courte période (1910-1912) de nombreuses révoltes albanaises éclatent. En représailles, l'Empire ottoman entreprit une expédition très importante sous la direction de, et désarma la population. Les Ottomans réussirent à la fin de 1910 à confisquer plus de,, et quelques canons. Durant une vingtaine de combats, les Ottomans tuèrent environ, exécutèrent de la résistance, ne perdant eux-mêmes que. Les mouvements albanais se regroupèrent à nouveau, et reprirent Skopje durant l'été de 1912, quelques semaines avant la déclaration de guerre par la Ligue balkanique à l'Empire ottoman. La guerre éclatée, l'Albanie devait se tenir encore au "statu quo" sur ordre des grandes puissances, dans l'attente de la détermination de ses frontières.En 1912, face à l'agonie de l'Empire ottoman, quatre pays (Serbie, Grèce, Monténégro et Bulgarie) conclurent une alliance militaire, la Ligue balkanique, visant à faire reculer l'Empire ottoman, avec l'appui de la Russie. Le 8 octobre 1912, la ligue déclare la Première Guerre balkanique à l'Empire. La guerre tourne rapidement à l'avantage des coalisés aux vues des faiblesses de l'Empire ottoman depuis la guerre russo-ottomane de 1877. L'Albanie lance un nouveau soulèvement, et proclame son indépendance le 28 novembre 1912, dans la continuité des révoltes précédentes. Les territoires revendiqués à la conférence des ambassadeurs de 1912-1913 à Londres, sont l'ensemble des territoires albanophones, incluantAprès la redéfinition de ses frontières, l'Albanie connut une courte période démocratique (marquée notamment par le gouvernement de Theofan Stilian Noli, dit Fan Noli, et de Luigj Gurakuqi) (1924). Ce gouvernement ne cessa de revendiquer auprès de la Société des Nations, après les découpages de 1913-1919, les territoires abritant des populations albanaises : le Kosovo, Monastir (de Skopje à Bitola) et une partie de l'Épire du Sud, dont Ioannina. Les diplomatesEn 1939, le pays est annexé par l’Italie : la couronne du Royaume albanais passe alors au roi d'Italie Victor-Emmanuel III, le pays devenant un protectorat italien. La résistance albanaise de quelques groupes communistes s'organise autour du Parti communiste d'Albanie à partir de 1941, sous la direction d'Enver Hoxha et en liaison avec le mouvement communiste de Tito. Le 16 septembre 1942, la première conférence de libération nationale, à Peć (Pejë), regroupe les communistes, les monarchistes, les nationalistes républicains du Balli Kombëtar (Front national)L'Albanie connaît, après sa libération totale en novembre 1944, un gouvernement communiste, dont le principal dirigeant est Enver Hoxha, chef du gouvernement et premier secrétaire du Parti communiste d'Albanie. La république populaire d'Albanie est officiellement proclamée le. Le gouvernement albanais est le seul à refuser la destalinisation à partir de 1956 (ce qui le conduira à la rupture avec l'Union soviétique et à un très fort isolement international) et impose la dictature la plus sévère d'Europe (plus de à mort et des milliers de personnes emprisonnées dans des camps, pour une population d'après-guerre de 1 million d'habitants). Le gouvernement met en œuvre des réformes visant à la modernisation économique et a obtenu des résultats importants en matière d'industrialisation, de développement de l'agriculture, de l'éducation, des arts et de la culture, ce qui a contribué à une hausse générale du niveau de vie. L'Albanie est isolée du reste duDepuis 1992, l'Albanie est une république parlementaire, démocratique et représentative. Le pouvoir exécutif est exercé par le gouvernement. Le pouvoir législatif est détenu par le Parlement l'Assemblée d'Albanie ("), mais le Gouvernement aussi propose des projets de lois. Depuis 1991, et l'introduction du pluralisme, le système politique est dominé par les conservateurs, le Parti démocrate d'Albanie et le Parti socialiste d'Albanie. D'autres formations politiques d'une importance moindre sont représentées au Parlement et au Gouvernement.Le chef de l’État est le président de la République, qui est élu par le Parlement avec un mandat de, renouvelable une fois. Dans ceL'Assemblée (""), constitue le pouvoir législatif, responsable des politiques intérieures et extérieures du pays et des modificationsIl existe deux types de juridictions en Albanie : criminelle et civile. Le système judiciaire dispose d’une, d'une, de cours d'appel et de cours de. La Cour constitutionnelle est composée de nommés par le président de la République avec le consentement de l'Assemblée pour uneL’Albanie est découpée en 36 districts (') qui disposent chacun d’un gouverneur local choisi par le conseil de district dont les membres sont élus au scrutin proportionnel. Les districts sont regroupésLes chiffres correspondent aux électionsL'Albanie mène, depuis 1992, date du premier Accord de commerce, des négociations avec la Communauté européenne pour une possible adhésion. En 2006, l'Albanie est devenue membre associée de l'Union européenne, après la signature d'un Accord de stabilisation et d'association (ASA). Au cours des dernières années des progrès plus ou moins grands ont été enregistrés dans les différents domaines de la gouvernance, tels que la réforme des institutions démocratiques, le renforcement des droits civiques D'autres progrès ont été accomplis en ce qui concerne la gestion de l'économie et la création d'opportunités pour inciterLa fuite des élites albanaises est un processus social et économique qui pénalise la recherche. Cependant, pour enrayer cet exode et encourager les émigrés à revenir, l'Albanie doit définir une politique scientifique et scolaire claire, étroitement liée à une politique industrielle à long terme avec l'aide des programmes européens développés à cet effet (ACE, PHARE, TEMPUS ou ). Les exportations sont faibles (surtout des produits agricoles) et les travailleurs émigrés sont les principaux pourvoyeurs de devises.L'Albanie s'étend sur une superficie totale de, avec environ 70 % de surface montagneuse, accidentée et difficilement accessible, dont le point culminant est le mont Korab s'élevant à. Le reste est constitué de plaines alluviales, dont le terrain est plutôt de piètre qualité pour l’agriculture, alternativement inondé ou desséché. Les terres les plus fertiles sont situées dans le district des lacs (lac d'Ohrid, Grand Prespa et Petit Prespa) et sur certains plateaux intermédiaires entre la plaine et la montagne. La seule île notable est celle de Sazan qui fut tour à tour occupée par diverses grandes puissances européennes. Son littoral s'étend sur le long de l'Adriatique et de la mer Ionienne. L'Albanie possède de frontières terrestres avec le Monténégro (), le Kosovo (), la Macédoine du Nord () et la Grèce (). Les principales villes sont Tirana (la capitale) avec environ, Durrës, Korça, Elbasan, Shkodër, Gjirokastra, Vlora et Kukës. Le plus grand fleuve albanais est le Drin. Long de, il est un des seuls à connaître un débit relativement stable tout au long de l’année. Les autres cours d’eau sont généralement presque secs durant l’été, même les rivières et Vjosa qui ont pourtant une longueur de plus de. Le climat y est méditerranéen dans les régions littorales (moyenne hivernale : ) et devient plus continental dans le relief. Les précipitations sont assez élevées ( à annuels), le flux d’air humide rencontrant la masse d’air continentale plus froide, surtout pendant l’hiver, qui est la saison pluvieuse. L'Albanie possède trois lacs dont l'un des plus vieux du monde (lac d'Ohrid). Le lac de Shkodër situé dans le Nord-Ouest du pays a une surface qui peut varier entre et, partagé entre l'Albanie et la ville d'Ulcinj au Monténégro. La rive albanaise du lac est longue de. Le lac d'Ohrid est le lac le plus profond des Balkans () mais aussi un des plus vieux du monde. Il est situé dans le Sud du pays et est partagé entre l'Albanie et la Macédoine du Nord. Il possède une variété de flore et de faune unique au monde, des « fossiles vivants » et de nombreuses espèces endémiques. En raison de sa valeur naturelle et historique, le lac d'Ohrid est sous la protection de l'Unesco. Plus d'un tiers du territoire de l'Albanie, environ carrés, est couvert de forêts et le pays possède une flore très riche. Environ différentes de plantes poussent en Albanie, dont beaucoup sont utilisées à des fins médicinales. Les forêts abritent une grande variété de mammifères, y compris les loups, ours, sangliers et chamois. Les lynx, les chats sauvages et les putois sont rares, mais continuent de survivre dans certaines régions du pays. Les ressources naturelles les plus importantes sont le pétrole, le gaz naturel, le charbon, le chrome, le cuivre, le bois, le nickel, le potentiel hydroélectrique.Malgré des ressources naturelles importantes, l'Albanie demeure un pays en développement. Son histoire a été profondément marquée par les quarante-cinq années d'autoritarisme et par l'autarcie imposée par Enver Hoxha qui s'est maintenue jusqu'en 1991 et qui donnait l'importance principale au secteur primaire, sans favoriser l'agriculture. L'Albanie reste cependant l'un des pays les plus pauvres de l'Europe. Le salaire minimum est en janvier 2017 de par mois, le plus faible d'Europe.L’agriculture représente un quart du PIB et l’économie parallèle a un poids important. Les structures économiques restent fragiles et dépendantes de l’aide extérieure et des transferts de revenus de l’émigration (environ 14 % du PIB). En 2004, le déficit budgétaire représentait 5 % du PIB et la dette publique s’élève à 56 % du PIB. Néanmoins, la productivité s’améliore sensiblement depuis environ une décennie et connaît depuis 2003 une croissance régulière (6La production électrique de l'Albanie provient à 95 % des centrales hydroélectriques situées sur le fleuve Drin au nord du pays. Malgré une consommation d'électricité moyenne par habitant très basse (l'une des plus faibles en Europe), l'Albanie a des problèmes d'approvisionnement. Les trois centrales situées sur le Drin ne suffisent pas à couvrir les besoins en électricité du pays, qui n'a pour l'instant d'autre alternative que l'importation ou le rationnement. Le gouvernementL'Albanie est actuellement un pays en développement, avec la moitié de sa population active travaillant dans le secteur de l'agriculture, et un cinquième des actifs travaillant à l'étranger. Officiellement, le chômage s'élève àDepuis les années 2000, le tourisme enregistre une forte croissance (En hausse de 15-20 % par an). On compte chaque année de touristes qui viennent visiter le pays. Cependant, ce chiffre englobe surtout des visiteurs professionnels ou des membres de la diaspora albanaise. Ainsi, le nombre réel de touristes occidentaux qui viennent visiter l'Albanie reste marginal. Malgré la bonne réputation du pays auprès des voyagistes, ilLe pays compte d'après le dernier recensement, sur un territoire montagneux à 70 %. Tirana en est la capitale, sa population atteint presque le million d’habitants. Les autres villes importantes du pays sont Shkodër, Durrës, Elbasan, Vlora, Korçë et Berat. La population rurale, qui tend à décliner, représente, en 2014, 44 % de la population totale. L'Albanie est l'un des pays les plus homogènes ethniquement parlant. 95 % de la population est composée d'Albanais de souche, répartis en deux groupes : les Guègues (au nord) et les Tosques (au sud). Les Grecs, les Aroumains, les Tziganes, les Serbes et les Macédoniens constituent des groupes minoritaires. Les Grecs sont laL’albanais est une langue d’origine indo-européenne, rattachée au groupe thraco-illyrien. La langue albanaise est typologiquement une langue flexionnelle synthétique. Certains auteurs ont soutenu que l'albanais permettrait de déchiffrer la langue étrusque. Le premier écrit en langue albanaise trouvé jusqu'à ce jour, est "La Formule de baptême" de Pal Engjëlli (1416-1470), archevêque de Durrës (« Je te baptise au nom du Père, du Fils, et du Saint-Esprit ») découvert à la bibliothèque de Florence par Nicolae Iorga en 1915, chercheur roumain. Le premier livre trouvé en langue albanaise est un manuel de liturgieLe grec est la seconde langue nationale, mais minoritaire, parlée au sud par la minorité grecque (ou épiriotes du Nord) qui est essentiellement de confession orthodoxe. L'anglais, l'italien et le turc sont les trois autres grandes langues parlées. Les Albanais regardent beaucoup les programmes télévisés, italiens essentiellement. L'anglais est très important au niveau du tourisme. L'italien est si courant en Albanie qu'il est plus parlé que le grec, mais l'italien est surtout parlé en seconde langue, et les locuteurs de langue maternelle italienne en Albanie constituent moins de. Depuis la crise économique de 2008, un grand nombre d'Italiens s'installent en Albanie, souvent des entrepreneurs et chefs d'entreprises. Plus de italiennesLe christianisme a été introduit au aux populations du territoire correspondant à l’Albanie par saint Paul ("Shën Pali") qui passa en Dalmatie et à Illyricum (Albanie actuelle du Nord et centrale) et par l’apôtre André qui prêcha en Épire (Albanie actuelle du Sud). Dans son écrit "Épître aux Romains", saint Paul dit à Illyricum. Saint Jérôme (ou Jérôme de Stridon), illyrien de Dalmatie, confirmera explicitement que saint Paul a prêché la parole du Christ en Illyricum. Après la scission définitive de l’Empire romain en Occident et Orient en 395, l’Albanie fut dès lors administrée par Byzance mais restait sous la dépendance de la papauté de Rome. Toutefois, en 732, l’empereur Léon III l’Isaurien, fâché contre les archevêques illyriens pour avoir soutenuL'influence de l'Empire ottoman encourage une large vague de conversion vers l'islam. Cette conversion augmente vers le milieu du, mais de manière plus accentuée durant le. Au début du on compte en Albanie des proportions quasi identiques entre les chrétiens et musulmans (47 % de chrétiens pour 53 % de musulmans). La communauté musulmane albanaise prendra naissance sur le plan institutionnel en 1923 avec l'aide du roi Zog. Lors du Congrès organisé à cet effet (Kongresi i Muslimanëve në Shqipëri : çështja e kalifatit dhe reformat islamike në Oriente Moderno 2, 1922-1923,La pratique religieuse a été interdite en Albanie en 1967 par le régime communiste. Enver Hoxha, qui l’a dirigé jusqu’enDans les années 1990, l’Albanie observe un montée en puissance de groupes religieux nouveaux : Églises évangéliques, Église de Jésus-Christ des saints des derniers jours (Mormons), Témoins de Jéhovah et autres mouvances musulmanes (salafistes, Chiites).À l'image de son passé agité et des espérances permises par l'ouverture à l'Occident des années 1990, l'Albanie possède une littérature contemporaine très riche et d'une grande variété de styles. On peut distinguer grossièrement les auteurs qui ont écrit la majeure partieLe territoire de l'Albanie a été occupé par la Grèce, l'Italie et l'Empire ottoman et chaque groupe a laissé sa marque sur la cuisine albanaise. Le repas principal des Albanais est le déjeuner, il est habituellementLord Byron fit voyager le héros de son poème narratif "Le Pèlerinage de Childe Harold" (fortement inspiré de ses propres voyages) autourHergé, dans sa série "Les Aventures de Tintin", créa la Syldavie, pays imaginaire des Balkans, mêlant des éléments de nombreux pays d'Europe. Concernant l'Albanie, il s'inspira de sa situation historique dans les années 1930. Comme l'atteste sa lettre écrite le 12 juin 1939 à son éditeur, à propos de la parution de l'épisode "LeL'Albanie a pour codes :
L', en forme longue la (en et, littéralement ) est une république située en Europe du Sud, dans l’Ouest de la péninsule des Balkans. Elle possède une façade maritime à l'ouest, bordée par la mer Adriatique et la mer Ionienne. L'Albanie partage également des frontières communes avec le Monténégro au nord-nord-ouest, le Kosovo au nord-nord-est, la Macédoine du Nord à l'est-nord-est et la Grèce au sud-est.
xwikis
La frontière entre la zoologie, qui étudie les animaux, et la botanique, qui étudie les végétaux, a été et est toujours sujette à controverses. Certains êtres vivants, considérés comme végétaux, se sont révélés être des animaux ; le cas de certains autres est toujours, à l'aube du, sujet à discussions. Pour ces êtres vivants atypiques, l'appartenance à l'une ou l'autre des sciences s'est trouvée modifiée grâce aux avancées et découvertes techniques ou scientifiques (entre autres la microscopie ou l'analyse de l'ADN). Si la plupart des Métazoaires ont toujours été placés parmi les animaux, certains Métazoaires inférieurs étaient encore au placés dans une catégorie particulière nommée « Zoophytes » (étymologiquement : animaux-plantes). Ce grand groupe comprenait traditionnellement les Spongiaires, les Cnidaires, les Cténophores et les Bryophytes. Carl von Linné classait dans cette catégorie des Mollusques comme la Seiche, l'Aplysie, l'Holothurie, mais aussi les Échinodermes (oursins et étoiles de mer). Ce n'est qu'en 1744 que Jean André Peyssonnel reconnut le corail comme un animal ; de même, les Spongiaires ne furent reconnus comme animaux qu'en 1825. Le cas des Protozoaires est encore plus problématique. L'étude des êtres vivants unicellulaires révèle des formes ambigües où la distinction entre animal et végétal n'est pas absolue. Certains d'entre eux, comme l'euglène ou certains Péridiniens qui peuvent avoir une alimentation autotrophe ou hétérotrophe, ont longtemps été placés à la frontière entre les deux disciplines. Ainsi, certains organismes unicellulairesL"'Homo sapiens" du Paléocène supérieur a réalisé de nombreuses peintures, gravures et sculptures rupestres. Ces représentations artistiques à dessein sans doute rituel montrent que nos ancêtres observaient attentivement la faune, représentant des détails qui indiquent une bonne connaissance des animaux de leur environnement, comme la mue des bisons ou le repli cutané présent à la base de la queue des mammouths. Le bestiaire varie selon les régions et selon les époques du Paléolithique supérieur : toutefois, on trouve en majorité de grands herbivores (chevaux, bisons, aurochs), comme dans la grotte de Lascaux. D'autres espèces sont plus rarement représentées, parfois avec de fortesLa révolution néolithique, qui est caractérisée par la domestication des animaux, se prolonge sur la période de l'Antiquité. La connaissance antique de la faune est illustrée par la représentation réaliste d'animaux sauvages et domestiques au Proche-Orient, en Mésopotamie comme en Égypte. Les Animaux dans le Proche-Orient ancien aussi bien que les Animaux dans l'Égypte antique relèvent du domaine culturel de la zoologie, s'étendant du sacré au symbolisme et à l'art, en passant par les pratiques et techniques d'élevage, de chasse ou de pêche. L'invention de l'écriture se traduit pour la zoologie par la présence des animaux dans les hiéroglyphes égyptiens. L'époque de l'Antiquité fut celle d'Aristote dans toute l'étendue scientifique du domaine de la zoologie. Le philosophe grec Aristote (384 av. J.-C.-322 av.Animaux fabuleux et tabous bibliques. La connaissance des animaux a relativement peu progressé au cours du Moyen Âge. La plupart des auteurs qui se sont intéressés à la vie animale sont tributaires d'Isidore de Séville (v. 560-636), lequel a rassemblé, au début du, dans ses "Etymologiae" ("Étymologies" ou "Origines") une partie des remarques, mais aussi des mythes transmis par Pline dans ses "Histoires naturelles". Au, Al-Asmai (v. 740-828), un linguiste de Bassora, en Irak, rédige les premiers traités majeurs du monde islamique sur la zoologie. Ses ouvrages, "Kitab al-Khail" (Le Livre du cheval) et "Kitab al-Ibil" (Le Livre du chameau) décrivent en détail la physiologie de ces animaux. Il écrit également d'autres livres sur les moutons "Kitab al-Sha", les animaux rares "Kitab al-Farq" et les animaux sauvages "Kitab al-Wuhush". Pendant cette période médiévale au, d'autres érudits arabes, comme Al-Jahiz (v. 776-868), auteur d'un Livre des animaux "Kitab al-Hawayan", maintiennentVoyages d'exploration et microscopistes. Vers 1480, Juliana Berners, probablement prieure du couvent de Sopwell près de St Albans, fait paraître un ouvrage de fauconnerie et un autre sur la pêche. Ippolito Salviani (1514-1572) est un pionnier de l'étude des faunes aquatiques, avec la parution en 1554 de l'ouvrage intitulé "Aquatilium animalium historiæ". Guillaume Rondelet (1507-1566) est un médecin à Montpellier, haut lieu des sciences françaises, principalement botanique et médecine, à la Renaissance. Il fait paraître en 1555 son "Universæ aquatilium historiæ pars altera" où il présente tous les animaux aquatiques, même mythiques, qu'il connaît. Il ajoute de nombreuses observations personnelles de grande qualité. Pierre Belon (v. 1517-1564) est l'auteur, en 1551, de "L'histoire naturelle des éstranges poissons marins avec la vraie peinctvre & description du Daulphin & de plusieurs autres de son espèce". Il a également écrit, en 1555, un ouvrage intitulé "Histoire de la nature des oiseaux". Ses travaux portent notamment sur l'anatomie comparée. Un oiseau paléarctique lui est dédié : le Tadorne de Belon. Conrad Gessner (1516-1565) fait paraître son "Historia animalium" à Zurich entre 1551 et 1558. Compilateur infatigable, surnommé le Pline suisse, Gessner compile toutes les connaissances au sujet des animaux dont il a connaissance. Il présente celles-ci, organisées sur une base alphabétique, chaque animal étant analysé sur un modèle identique. Gessner n'a pas pour but de juger mais de réaliser une encyclopédie aussi exhaustive que possible. Son œuvre, richement illustrée, entre autres par Albrecht Dürer, sera très souvent rééditée durant plus de trois siècles. Ulisse Aldrovandi (1522-1605) publie de 1559 à 1605 les quatre premiers volumes d'une histoire naturelle (dont "De Animalibus insectis" en 1602 qui constitue en fait le septième volume) qui en comptera quatorze, les autres étant publiés après sa mort (dernier volume paraissant en 1668). Ce naturaliste révère encore l'Antiquité et accorde autant de crédit à Strabon et à Pline qu'à ses propres observations. John Ray (1627-1705) et Francis Willughby (1635-1672) jouent un rôle essentiel tant en botanique qu'en zoologie durant cette période. Ces deux hommes se rencontrent à Cambridge et seDes savants naturalistes comme Lamarck, Cuvier, Geoffroy Saint-Hilaire et Darwin incarnent l'esprit du marqué en zoologie par les théories de l'évolution des espèces animales. Jean-Baptiste de Lamarck (1744-1829) est le premier à systématiser l’idée d’une transformation des espèces et à en donner un exposé cohérent. Dans sa "Philosophie zoologique" publiée en 1809, Lamarck propose une théorie explicative de l'évolution des espèces animales, supposant la transformation graduelle des espèces au cours du temps selon deux tendances conjointes, l'une de complexification des organismes sous l'effet de leur dynamique interne et l'autre de diversification des espèces sous l'effet des circonstances. Il réalise également la classification des invertébrés. Georges Cuvier (1769-1832) est le promoteur de l'anatomie comparée et de la paléontologie des Vertébrés. Cuvier énonça, en 1812, les lois de subordination des organes et de corrélation des formes. Étienne Geoffroy Saint-Hilaire (1772-1844) décrit l'unité des plans d'organisation au sein du règne animal. Les travaux zoologiques de Geoffroy Saint-Hilaire tendent à démontrer l'unitéComme le, le voit, avec l'augmentation des connaissances, la zoologie continuer à se subdiviser en de nombreuses disciplines. Au cours des premières décennies du, l'entomologie est mise au service de la génétique à la suite des recherches conduites sur la Drosophile par l'équipe de Morgan (1866-1945). Oskar Heinroth (1871-1945) développe des méthodes adaptées de la morphologie comparative au comportement animal. Il étudie particulièrement les Anatidés et démontre le lien existant entre leur comportement et leur position taxonomique au sein de cette famille. L'étude des oiseaux sera poussée par les Français Jean Delacour et René d’Abadie, dont les travaux seront internationalement reconnus. René Jeannel (1879-1965) et Emil Racovitza (1868-1947) explorent les grottes souterraines d'Europe et d'Afrique où ils étudient la faune cavernicole.Bien que le terme "zoologie" soit tombé en désuétude (les appellations "biologie des organismes" ou "biologie animale" sont plus courantes) l'étude des animaux s'est considérablement renouvelée, intégrant les apports de la phylogénie, de la biochimie, et de la génétique des populations. Néanmoins, les problématiquesRay est le premier à proposer une classification des animaux fondée sur des critères anatomiques et non comportementaux ou environnementaux. Sa classification, notamment des oiseaux et des poissons, est la plus évoluée jusqu'à l'œuvre de Linné. Dans leurs divers ouvrages, John Ray (1627-1705) et Francis Willughby (1635-1672) améliorent la classification des animaux. John Ray distingue, parmi les animaux, ceux dépourvus de sang, les exsangues, et ceux possédant du sang, les sanguins. Sa classification des animaux est schématiquement la suivante : La partie zoologique de "Systema naturæ", qui répartit les animaux en six groupes (Quadrupèdes, Oiseaux, Amphibiens, Poissons, Insectes et Vers), établis selon des caractères anatomiques (dents, becs, nageoires ou ailes), fera l’objet de nombreux amendements par Linné entre la (1735) et la (1770). Ainsi, les êtres humains seront, pour la première fois en l’an 1758, classés avec les Primates. Dans la dixième édition (1758), il transfère les baleines des Poissons aux Mammifères ainsi que les chauves-souris des Oiseaux aux Mammifères. Linné attribua la dénomination d'animaux à sang blanc aux insectes et vers. En 1777, Pennant distinguait lesLes premiers défenseurs de la théorie de l’évolution, Jean-Baptiste de Lamarck (1744-1829), Charles Darwin (1809-1882), Thomas Henry Huxley (1825-1895) et Ernst Haeckel (1834-1919), ont reconnu les corrélations phylétiques entre groupes d'animaux et ils ont complété le système naturel du règne animal par des arbres généalogiques (ou plutôt par des « buissons phylogéniques »). En 1874, Ernst Haeckel a proposé, sousLa nomenclature est la discipline relevant de la taxinomie et de la systématique qui a pour objet de définir et d'édicter les règles d'attribution et de priorité des "noms scientifiques des organismes vivants (ou ayant vécu)", appelés taxons. C'est Linné qui a établi les règles de base de la nomenclature binomialeDes zoologistes précurseurs, parmi lesquels Mitchell en 1901 et Rosa en 1918, ont participé, de manière indépendante, aux fondements des concepts et du vocabulaire de laDe nombreuses espèces animales ne sont pas actuellement connues de la zoologie, soit parce qu'elles sont restées dans des collections non étudiées pour le moment, soit parce qu'elles n'ont pas encore été découvertes. Ces découvertes
La zoologie (des termes grecs "ζῷον", zôon, animal, et "λόγος", logos, le discours) est la science qui étudie les animaux. Les spécialistes de cette discipline sont appelés zoologistes, ou zoologues.
xwikis
Deux tiers de la Grande-Bretagne, au sud et au centre, constituent l’Angleterre, ainsi que quelques îles au large comme l’île de Wight ou les îles Scilly. La nation constitutive est frontalière de deux autres nations du Royaume-Uni, et est plus proche du continent européen que toute autre île britannique. L’Angleterre est séparée de la France par un corridor maritime de, même si le tunnel sous la Manche les relie près de Folkestone. L’Angleterre possède aussi des littoraux sur la mer d’Irlande, la Mer du Nord et l’Océan Atlantique. Les ports de Londres, de Liverpool et de Newcastle upon Tyne se trouvent respectivement à l’embouchure de la Tamise, de la Mersey et de la Tyne. La Severn est la plus longue rivière d’Angleterre, sur. Elle se jette dans le canal de Bristol et est célèbre pour ses lames de fond de plus de de hauteur (dans le mascaret de Severn). Cependant, la plus longue rivière entièrement enPar des cartes des profondeurs de la Manche dressées par des sonars ultraperfectionnés, une gigantesque vallée au fond de la mer a pu être reconstituée en 3D, présentant les caractéristiques de l'érosion due à l'écoulement du fluide. Le cataclysme se serait produit il y a à la suite deL'Angleterre a un climat océanique tempéré. Il y fait doux avec des températures rarement dessous de en hiver et rarement dessus de en été. Le temps est fréquemment pluvieux et changeant. Les mois les plus froids sont janvier et février, ce dernier en particulier sur le littoral anglais, tandis que le mois de juillet est généralement le plus chaud. Les mois avec un temps variable sont mai, juin, septembre et octobre. Les précipitations sont réparties presque uniformément tout au long de l’année. Plusieurs facteurs ontLa ville la plus peuplée d'Angleterre est Londres, la capitale du Royaume-Uni. Elle est suivie par des villes qui se sontLes os humains les plus anciens découverts en Angleterre datent de plus de — des restes d’Homo erectus trouvés dans les Norfolk et Suffolk actuels. Les Homo sapiens arrivent pour la première fois dans la région il y a environ, mais à cause des conditions difficiles de la dernière période glaciaire (connue en Grande-Bretagne et Irlande sous le nom de glaciation Devensian), ils se replient dans les montagnes du Sud de l’Europe. Les grands mammifères comme les mammouths, les bisons et les rhinocérosL'Empire romain conquiert l’Angleterre en 43, pendant le règne de l’empereur Claude, et la région est annexée à l’Empire romain, sous le nom de Bretagne. Les plus connus des peuples qui ont tenté de résister à l’invasion sont les Catuvellauni, menés par Caratacus. En 47 apr. J.-C., Publius Ostorius Scapula est nommé par Claude propréteur de la province de Bretagne. En 54 ap. J.-C., d'après Suétone, l'Empereur Claude abolit complètement la religion des druides, ce qui déstabilisera fortement le monde celtique insulaire. L'archéologie et l'anthropologie aujourd'hui nous permettent de nous défaire de l'idéologie colonialiste prêtée aux romains envers les Celtes. En effet, les romains comme les Celtes, sont tous deux d'origine indo-européenne. Le flaminica et le druidica ne sont pas si différents l'un de l'autre et la Rome comme la Gaule sont toutes deux structurées dans la tripartition, comme nous l'a bien démontré Gerges Dumézil. En 57 apr. J.-C., les cohortes romaines d'Agricola commandées par Suetonius Paulinus détruisent le sanctuaire de l'Île de Mona, Anglesey, massacrant les druides et les druidesses ainsi que les enfants qui le servent et y vivent. VersÀ la suite de la retraite romaine, l’Angleterre est laissée à l’abandon, et la région devient propice à des attaques de peuples marins païens, tels les Saxons et les Jutes qui prennent le contrôle de territoires dans le Sud-Est. Leurs avancées sont contenues pendant un temps après la victoire des Bretons insulaires à la bataille du Mont Badon. Les royaumes britanniques post-romains dans le Nord, plus tard réunis sous la dénomination galloise de "Hen Ogledd" (« vieux Nord »), ont peu à peu été conquis par les Angles au cours du. Les Irlandais effectuaient des raids sur la côte ouest de la Bretagne. Les Irlandais finissent par fonder de véritables principautés sur les côtes galloises et écossaises. SiNorthumbrie et Mercie sont alors les forces dominantes. Toutefois, après les conquêtes vikings au nord et à l’est, et l’imposition du Danelaw, c'est-à-dire la loi des Vikings, le Wessex devient le premier royaume anglais sous Alfred le Grand. L'unification est le fait d'Édouard l'Ancien, roi de Wessex, assisté de sa sœur Æthelflæd, souveraine de Mercie dans les années 910 : l'Est-Anglie est conquise en 917, le royaume d'York en 918 mais à nouveau perdu en 919, la Northumbrie en 918. À la mort de saLe règne des Tudor est mouvementé. La Renaissance parvient en Angleterre grâce aux courtisans italiens, qui réintroduisent les arts, l’éducation et les savoirs de l’Antiquité gréco-romaine. Pendant ce temps, l’Angleterre développe une flotte navale, invente le théodolite, et explore les mers à l'ouest. Ces explorations sont bloquées par l’Empire ottoman, qui contrôle la mer Méditerranée, et empêche le commerce maritime des États chrétiens de l’Europe avec l’Est méditerranéen. Henri VIII rompt avec l’Église catholique romaine, à cause d’un désaccord sur un énième divorce royal, et proclame l’Acte de suprématie, en 1534, qui fait du monarque le chef de l’Église anglicane. Contrairement au protestantismeSous le royaume nouvellement formé Grande-Bretagne, les Lumières anglaises et écossaises, avec la Royal Society, produisent de nombreuses innovations en science et ingénierie. Cela permet à l’Empire britannique de prospérer, pour devenir le plus grand de l’Histoire. La Révolution industrielle apparaît en Angleterre, qui provoque des profonds changements socioéconomiques et culturels. L’agriculture s’industrialise, les usines et les mines apparaissent, tout comme les réseaux routiers, ferroviaires et maritimes, qui facilitent l’expansion et le développement de la révolution industrielle. L’ouverture du Canal de Bridgewater au nord-ouest de l’Angleterre en 1761 introduit la nation dans une véritable frénésie de la construction de canaux. L’Angleterre maintient une relative stabilité lors de la Révolution française. William Pitt le Jeune est premier ministre sous le règne deFaisant partie du Royaume-Uni, l’Angleterre est une monarchie constitutionnelle doublée d’un système parlementaire. Il n’y a pas de gouvernement d’Angleterre depuis 1707, quand l’Acte d’union, qui promulgue les termes du traité de l’Union, allie l’Angleterre et l’Écosse au sein de la Grande-Bretagne. Avant cette union, l’Angleterre était dirigée par une monarchie et le Parlement d’Angleterre. L’Angleterre est gouvernée par le Parlement du Royaume-Uni, même si certaines nations constitutives du Royaume-Uni ont des gouvernements décentralisés. À la Chambre des communes, qui est la chambre basse du parlement britannique basée au Palais de Westminster, à Londres, du parlement représentent des circonscriptions anglaises, sur un total de. Lors des élections législatives de 2010, le parti conservateur, sur les mis en jeu, a remporté la majorité absolue en Angleterre avec d’avance sur le total des sièges des autres partis (le Président de la Chambre des communes n’est pas considéré comme un conservateur). Cependant, en tenant compte des résultats en Écosse, en Irlande du Nord et au pays de Galles, ce n’est pas suffisant pourAvec plus de d’habitants, l’Angleterre est de loin la nation constitutive du Royaume-Uni la plus peuplée, avec environ 84 % de la population totale. À titre de comparaison, l'Angleterre possède le grand nombre d’habitants d'Europe de l'Ouest, et le dans le monde. Avec une densité de au kilomètre carré, c’est l'un des territoires les plus densément peuplés d'Europe. Les recherches génétiques suggèrent que 75 à 95 % de la population anglaise descendent en ligne paternelle de populations préhistoriques venues de la péninsule Ibérique. Un élément scandinave important ainsi qu'une contribution de 5 % des Angles et des Saxons constituent le reste, bien que certains généticiens estiment l'élément scandinave et germanique à hauteur de 50 %. Au cours du temps, de nombreuses cultures ont exercé leur influence : Bretons insulaires, Romains, Anglo-Saxons, Vikings, Gaëls, sans oublier la profonde influence des Normands. Il existe uneEn 2017, 29,2 % des nouveau-nés en Angleterre ( sur ) ont une mère née à l'étranger. 16,8 % ont une mère néeSelon le recensement de 2011, près de 15 % des habitants de l'Angleterre appartiennent à des minorités ethniques (20,4 % chezComme son nom le suggère, l’anglais est historiquement la langue de l’Angleterre, et en est toujours la langue principale. C’est une langue indo-européenne dans la branche anglo-frisone de la famille des langues germaniques. Après la conquête normande, le vieil anglais est confiné dans les classes sociales populaires, et le normand, le latin et l'anglo-normand le supplantent dans l’aristocratie. L'anglais utilise l'alphabet latin et les chiffres arabes comme système d’écriture. Vers le, l’anglais revient à la mode dans toutes les classes sociales, bien que très modifié. Le moyen anglais montre de nombreux signes de l’influence normande, à la fois dans le vocabulaire et dans la prononciation. Pendant la Renaissance anglaise, de nouveaux mots sont forgés grâce au latin et au grec. L’anglais moderne étend cette habitude de flexibilité, en incorporant des mots depuis d’autres langues. HéritageLe National Health Service (NHS) est le système de santé public de l’Angleterre, qui fournit l’essentiel des soins dans le pays. Le NHS a été créé le, appliquant la loi de 1946 sur le National Health Service. Cette loi se base sur les conclusions du rapport Beveridge, préparé par l’économiste et réformateur social William Beveridge. Le NHS est en majeure partie financé par les impôts, dont les montants de la National Insurance, et dispense la plupart de ses services gratuitement, même siLe christianisme est la religion la plus pratiquée en Angleterre, comme c’est le cas depuis le haut Moyen Âge, bien qu’il ait été introduit plus tôt, pendant les ères gaéliques et romaines. La chrétienté a perduré pendant les siècles qui ont suivi, et. La confession dominante dans le pays est l’anglicanisme, et date de la Réforme anglaise au, au moment du schisme de 1536 quand l’Église de Rome a refusé de valider le divorce entre Henri VIII et Catherine d'Aragon. La confession se considèreL'économie anglaise est l'une des plus grandes au monde, avec un PIB moyen par habitant de sterling. Habituellement considérée comme une économie de marché mixte, elle a adopté de nombreux principes du libre marché, contrairement au capitalisme rhénan de l'Europe continentale. La monnaie officielle en Angleterre est la livre sterling, également connue sous le nom de GBP. La fiscalité en Angleterre est caractérisée à partir de 2009 par un taux de base de l'impôt des particuliers de 20 % du revenu imposable jusqu'à concurrence de sterling, et de 40 % sur les revenus supplémentaires au-dessus de ce montant. L’Angleterre est le contributeur principal de l’économie du Royaume-Uni, qui est, selon la Banque mondiale, le 24 pays en termes de PIB (PPA) au monde. Les entreprises anglaises sont leaders dans les secteurs chimiques et pharmaceutiques, ainsi que dans les industries aérospatiales, de l’armement, et dans la conception de logiciels. Londres, où siège le London Stock Exchange, principale bourse des valeurs du Royaume-Uni et l’une des plus grandes en Europe, est le centre financier de l’Angleterre – 100 des 500 plus grandes entreprises européennes y ont leur siège social. Londres est le plus grand centre financier en Europe, et l’a aussi été en 2009 au niveau mondial. La Banque d’Angleterre, fondée en 1694 par le banquier écossais William Paterson, est la banque centrale du Royaume-Uni. Pensée à l’origine comme une banque privée à disposition du gouvernement anglais, elle joue ensuite un rôle au sein du Royaume-Uni – l’institution est nationalisée depuis 1946. La Banque a le monopole de l’émission des devises en Angleterre et au pays de Galles, mais pas dans les autres nations constitutives du Royaume-Uni. Sa Commission de Politique Monétaire a décentralisé la gestion de la politique monétaire et l’établissement des taux d’intérêts de chaque nation du Royaume-Uni. L’Angleterre est hautement industrialisée, mais connaît depuis les années 1970 un déclin dans les industries lourdes et manufacturières, ainsi qu’une augmentation du secteur tertiaire dans l’économie. Le tourisme est devenu une activité importante, en attirant des millions de visiteurs chaque année dans la région. L'Angleterre exporte principalement des médicaments, des automobiles du pétrole depuis les possessions anglaises en Mer du Nord et le champ de Wytch Farm, des moteurs d’avions, et des boissons alcoolisées. L’agriculture est intensive et fortement mécanisée, et produit 60 % des besoins en nourriture de la population avec seulement 2 % de la population active. Les deux tiers de la production sont consacrés au bétail, le reste aux moissons agricoles.Le système scolaire britannique se caractérise par des différences entre les régions du Royaume-Uni (Angleterre, pays de Galles, Écosse, Irlande du Nord) et le fait que le système est semi-privatisé. Le cursus se déroule généralement ainsi : Le sondage réalisé par le programme PISA en 2006 situe le système éducatif britannique nettement au-dessus de la moyenne OCDE1. Le système éducatif anglais est assez proche des systèmes gallois et écossais. Il est obligatoire d’aller à l'école primaire ("primary school") à partir de l’âge de 5 ans. Les deuxième et sixième années comportent chacune un examen, respectivement "Key Stage 1" et "Key Stage 2". Après l'école primaire, on a le choix entre deux types d'établissement : "grammar school" (lycée) et "comprehensive state" (lycée général). Pour entrer dans une "grammar school", il faut passer un examen nommé « 11+ ». Les "Grammar schools" étant pour les étudiants les plus doués, et les places étant limitées, la grande majorité des enfants fréquentent les "state comprehensive". Les familles ayant plus de moyens optent à la grande majorité pour le système privé. À partir de l’âge de 11 ans, on étudieUn grand nombre de vieux menhirs a été érigé pendant la préhistoire, parmi les plus connus sont Stonehenge, Devil's Arrows, Monolithe de Rudston et Cromlech de Castlerigg. Avec l'introduction de l'architecture romaine il y a eu un développement des basiliques, thermes, amphithéâtres, arcs de triomphe, villas, temples romains, voies romaines, forts romains, aqueducs, palissades. Ce sont les Romains qui ont fondé les premières cités et villes telles que Londres ("Londinium"), Bath ("Aquae Sulis"), York ("Eburacum"), Chester ("Deva") et St Albans ("Verulamium"). L'exemple le plus connu est peut-être le Mur d'Hadrien qui s'étend dans tout le nord de l'Angleterre. Un autre exemple bien préservé est les thermes de Bath à Bath, ville du comté de Somerset, au Sud-Ouest de l'Angleterre. Les constructions séculaires de l'architecture anglo-saxonne étaient des constructions simples qui utilisaient principalement le bois avec de la chaume pour les toitures. L'architecture ecclésiastique a varié passant d'une synthèse de monachisme irlando-saxon à un art paléochrétien caractérisé par des pilastres, des arcades, des balustres et des triangulaires. Après la conquête normande en 1066 de nombreux châteaux en AngleterreLe folklore anglais s’est développé pendant plusieurs siècles. Quelques-uns des personnages et des histoires existent à travers toute l’Angleterre, mais la plupart proviennent de régions très spécifiques. Les êtres folkloriques communs sont des pixies, des elfes, des croque-mitaines, des trolls, des gobelins, et des nains. Alors que de nombreuses légendes semblent très anciennes, par exemple celles qui mettent en scène Offa d'Angeln ou Völund, d’autres ont été conçues après l’invasion normande. La légende de Robin des Bois et ses Joyeux Compagnons de la forêt de Sherwood qui combattent le shérif de Nottingham, est sûrement la plus connue d’entre toutes. Pendant le Moyen Âge classique, des légendes originaires de mythes brittoniques intègrent le folklore anglais : le mythe arthurien. Elles proviennent de sources anglo-normandes, françaises ou galloises, et mettent en avant le Roi Arthur, Camelot, Excalibur, Merlin, et les Chevaliers de la Table Ronde, comme Lancelot du Lac. Ces histoires sont rapportées par Geoffroy de Monmouth dans son "Historia regum Britanniae". Une autre figure précoce des traditions britanniques, CoelDepuis le début de l'époque moderne, la nourriture de l'Angleterre a toujours été caractérisée par sa simplicité d'approche, l'honnêteté de sa saveur, et le recours à la haute qualité des produits naturels. Pendant le Moyen Âge et pendant la Renaissance, la cuisine anglaise était dotée d'une excellente réputation, malgré un déclin qui a commencé pendant la révolution industrielle avec l'abandon de la terre et l'urbanisation croissante de la population. Mais la nourriture anglaise a souvent, de nos jours, la réputation de ne pas être très sophistiquée ou même rudimentaire. Cependant, la cuisine anglaise a récemment connu un renouveau, qui a été reconnu par les critiques gastronomes avec quelques bonnes évaluations dans le magazine britannique "Restaurant". Le premier livre de recettes anglaises est le "Forme of Cury" de la cour royale de Richard II. Les exemplesLes premiers exemples connus sont les pierres préhistoriques et les pièces d’art pariétal, en particulier dans le Yorkshire du Nord, la Northumbrie et la Cumbria, et aussi plus loin dans le sud de l'Angleterre, dans les grottes de Creswell. Avec l’arrivée de la culture romaine au, de nouvelles formes d’art apparaissent : des statues, des bustes, le travail du verre et les mosaïques. De nombreux artefacts ont été retrouvés, à la villa romaine de Lullingstone et à Aldborough. Durant le haut Moyen Âge, le style évolue vers les croix sculptées, la peinture de manuscrits, la joaillerie d’or et d’émail, et démontre un goût pour les dessins entrelacés, comme le trésor de Staffordshire découvert en 2009. Ce style fusionne ensuite avec l'art insulaire, comme en témoignent les Évangiles de Lindisfarne et le Psautier Vespasien. Plus tard, l’art gothique devient populaireLes premiers auteurs anglais écrivent en latin, comme Bède le Vénérable et Alcuin. La littérature vieil-anglaise fournit le poème épique "Beowulf", la "Chronique anglo-saxonne", ainsi que des textes chrétiens comme "Judith", l’"Hymne" de Cædmon et de nombreuses hagiographies. Après la conquête normande de l’Angleterre, le latin survit parmi les classes sociales éduquées, ainsi que dans la littérature anglo-normande. La littérature en moyen anglais a émergé avec Geoffrey Chaucer (auteur des "Contes de Canterbury"), John Gower, le Pearl Poet et William Langland. Les moines franciscains, Guillaume d'Ockham et Roger Bacon sont les philosophes majeurs du Moyen Âge. Julienne de Norwich avec ses "Revelations of Divine Love", est une éminente écrivaine chrétienne. Avec la Renaissance anglaise, la littérature en anglais moderne naissant apparaît. William Shakespeare, dont les œuvres les plus connues sont "Hamlet", "Roméo et Juliette", "Macbeth", et "Le Songe d’une nuit d’été", reste l’un des auteurs les plus célèbres de la littérature anglaise. Christopher Marlowe, Edmund Spenser, Philip Sidney, Thomas Kyd, John Donne, Ben Jonson sont d’autres auteurs connus de la littérature élisabéthaine. FrancisLa musique traditionnelle britannique est vieille de plusieurs siècles et a inspiré plusieurs genres musicaux, parmi lesquels les chants de marins, les gigues, les hornpipes, et des danses traditionnelles. Ces musiques ont de nombreuses variations, et des particularités régionales. Au, Wynkyn de Worde imprime des ballades de Robin des Bois qui ont un fort retentissement, tout comme "The English Dancing Master" de John Playford ou les "Roxburghe Ballads" de Robert Harley. Les chansons les plus connues à cette époque sont "The Good Old Way", "Pastime with Good Company", "Maggie Mae", et "Spanish Ladies", parmi d’autres. De nombreuses comptines sont d’origine anglaise, telles "Twinkle Twinkle Little Star", "", "Jack and Jill", "Here We Go Round the Mulberry Bush", ou "Humpty Dumpty". Les premiers compositeurs anglais de musique classique sont des artistes de la Renaissance, Thomas Tallis et William Byrd, suivis de Henry Purcell pendant la période baroque. George Frideric Handel, né allemand, devient un sujet britannique, et passe la majeure partie de sa vie de compositeur à Londres, créant quelques-uns des morceaux les plus célèbres de la musique classique, comme le "Messie", "Water Music" et "Music forEnglish Heritage est un organisme gouvernemental avec une large attribution en matière de gestion du patrimoine historique de l'Angleterre. Il est actuellement parrainé par le département de la Culture, des Médias et du Sport. L'organisme associatif National Trust for Places of Historic Interest or Natural Beauty tient un rôle contrasté. Dix-sept des vingt-cinq sites du patrimoine mondial de l'UNESCO au Royaume-Uni mondial relèvent des lieux historiques de l'Angleterre. Certains des plus connus incluent le mur d'Hadrien, Stonehenge, Avebury and Associated Sites, la tour de Londres, le littoral du Dorset et de l'est du Devon, Saltaire, Ironbridge Gorge, le parc de StudleyL'Angleterre a un héritage sportif très fort, et pendant le la nation a codifié de nombreux sports qui se jouent maintenant dans le monde entier. Les sports originaires de l'Angleterre sont le football, le cricket, le rugby à XV, le rugby à XIII, le tennis, le badminton, le squash, le rounders, la boxe, le snooker, le billard, les fléchettes, le tennis de table, le boulingrin, le netball, courses de chevaux pur-sang et la chasse à courre. Il a aidé le développement de la voile et la Formule 1. Le football est le plus populaire de ces sports. L'équipe d'Angleterre de football, qui joue dans le mythique stade de Wembley, a remporté la Coupe du monde de football de 1966, année où la nation a accueilli la compétition. Au niveau du football, l'Angleterre est reconnue par la FIFA comme le lieu de naissance de ce sport, avec notamment le club de football de Sheffield fondé en 1857 et qui demeure le plus ancien club de football. La Fédération d'Angleterre de football formée en 1863, est la plus ancienne association nationale de football au monde et joua un rôle important dans la mise en place des règles de son sport. La FA Challenge Cup et la Football League ont été respectivement les toutes premières compétitions. Dans l'ère moderne la Premier League est la ligue de football la plus lucrative du monde et fait partie de l'élite internationale. La Ligue des champions a été remporté par Chelsea, Liverpool, Manchester United, Nottingham Forest et Aston Villa, tandis que Arsenal et Leeds United ont atteint la finale. Le cricket est généralement considéré comme ayant été élaboré en début de la période médiévale parmi les communautés agricoles et de laLe drapeau national de l'Angleterre, connu sous le nom de la Croix-Saint-Georges, a été le drapeau national depuis le. À l'origine, le drapeau a été utilisé par la République de Gênes. Le monarque anglais a rendu un hommage au doge de Gênes à compter de 1190, de sorte que les navires anglais pouvaient battre le pavillon comme un moyen de protection lors de l'entrée en mer Méditerranée. Une croix rouge a agi comme un symbole pour de nombreux croisés aux. Il est devenu associé à Georges de Lydda, qu'ils revendiquaient comme leur saint patron et utilisaient sa croix comme un étendard. Depuis 1606 la Croix de St George a fait partie de la conception du Union Jack, drapeau britannique conçu par le roi James I. Il existe de nombreux autres symboles et objets symboliques, à la fois officiels et non officiels, y compris la rose Tudor, l'emblème floral national, le Dragon Blanc et les "Trois Lions" présentés sur les Armoiries royales de l'Angleterre. La rose Tudor a été adoptée comme l'emblème national de l'Angleterre à l'époque de la guerre des Deux-Roses (1455–1485) entre les maisons d'York et de Lancastre avec la victoire d'Henri Tudor (futur Henri VII) sur Richard III, lors de la bataille de Bosworth, comme un symbole de paix. Il est un symbole syncrétique dans lequel ont fusionné la rose blanche des York et la rose rouge des Lancasters-cadets des Plantagenêt qui s'affrontèrent pour le contrôle de la maison royale. Le symbole est également connu sous le nom de la "Rose d'Angleterre". Le chêne est le symbole de l'Angleterre, représentant force et courage. Le terme « Chêne royal » ("Royal Oak") est utilisé pour désigner l'évasion du roi Charles II qui, pourchassé par les parlementaires après l'exécution de son père, s'est caché dans un chêne pour éviter d'être repéré avant de s'exiler en toute sécurité. Les armoiries royales d'Angleterre, un blason national avec trois lions, remontent à leur adoption par Richard d'Angleterre de 1198 à 1340. Il est décrit « de gueules à trois léopards d'or armés et lampassés d'azur », c'est-à-dire rouge avec trois lions jaunes regardant le spectateur. L'origine de ce blason des rois d'Angleterre reste sans explication définitive:, il s'agit de l'union de l'héraldique du duché de Normandie (« de gueules à deux léopards d'or armés et lampassés d’azur ») et de l'Aquitaine (« de gueules à un léopard d'or armés et lampassés d’azur »). L'Angleterre n'a pas d'hymne national officiel à la différence du Royaume-Uni et son hymne "God Save the Queen". Toutefois, les éléments suivants sont souvent considérés comme des hymnes nationaux anglais non officiels : "Jerusalem", "Land of Hope and Glory" (utilisé pour l'Angleterre pendant les Jeux du Commonwealth de 2002), et "I Vow to Thee, My Country". La fête nationale anglaise est la Saint George, ce dernier étant le saint patron de l'Angleterre, elle se tient chaque année le 23 avril.
L'Angleterre (en anglais "" ) est une nation constitutive du Royaume-Uni. Elle est bordée par l'Écosse au nord et le pays de Galles à l'ouest. Son littoral est entouré par la mer du Nord à l'est, la mer d'Irlande au nord-ouest, la mer Celtique au sud-ouest, et la Manche au sud qui la sépare de l'Europe continentale. Son territoire couvre la majorité du centre et du sud de l'île de Grande-Bretagne, et il inclut également une centaine de petites îles. Sa capitale est Londres qui est la première aire urbaine du Royaume-Uni et, selon les critères retenus, d'Europe de l'Ouest. L'Angleterre est la nation la plus peuplée du Royaume-Uni avec d'habitants en 2011, ce qui représente 84 % de la population britannique, et est la plus grande avec une superficie de. Le nom d'« Angleterre » est fréquemment mais faussement employé, par synecdoque, pour désigner le Royaume-Uni dans son ensemble.
xwikis
Il y a de très nombreux enjeux et applications industrielles à la bonne compréhension et maîtrise des phénomènes de solidification : coulée continue de l'acier, croissance du Si pour l'électronique, moulage d'implants dentaires... La solidification se fait en général par précipitation ou cristallisation à partir de la formation de germes de phase solide au sein du liquide (germination, "nucleation" en Anglais) puis croissance de ces germes ; avec donc une redistribution des éléments chimiques (quand la matière n'est pas mono-élémentaire). À pression constante, la solidification des corps purs se fait à température constante, la chaleur libérée par la solidification (chaleur latente de fusion) compense la chaleur perdue par le refroidissement. Les transferts thermiques sont eux-mêmes modifiés par les changements de propriété de la matière associés au changement de phase. Dans le cas d'un mélange de corps purs, la température baisse en général au cours de la solidification (sauf dans le cas des eutectiques).La courbe de refroidissement est en réalité légèrement différente. La température du liquide descend en dessous de la température de fusion, puis remonte brusquement pour former le plateau. Ceci s'appelle la surfusion. La surfusion est due à l'énergie d'interface solide-liquide (tension superficielle). De manière simplifiée, on peut considérer que les petits germes de solide sont instables car ils sont dissous par l'agitation thermique, il faut attendre que le liquide soit « plus calme » pour qu'ils puissent se former. De manière plus rigoureuse, vu sous un angle thermodynamique, l'énergie libérée par la solidification (chaleur latente de fusion) ne compense pas l'énergie dépensée pour créer l'interface solide-liquide. Le liquide continue donc à se refroidir sans solidifier. Lorsque le gain d'énergie est suffisant pour compenser la création de l'interface, les germes se créent très rapidement, et la chaleur libérée fait remonter la température. Puis, les germes croissent lentement, ce qui correspond au plateau. Le gain d'énergie devient suffisant lorsque :Considérons un germe sphérique de rayon formula_1. Il a un volume formula_2, ce qui correspond à la solidification d'une masse formula_3 si formula_4 est la masse volumique du solide. L'énergie formula_5 libérée est donc, formula_6 désignant l'enthalpie libre massique de fusion Ce germe a une surface formula_7. Pour le créer, il faut donc dépenser une énergie formula_8, où formula_9 est la tension superficielle. On a donc Ainsi la différence d'enthalpie libre formula_10 s'exprime : Le liquide doit franchir une barrière énergétique formula_11 pour amorcer sa solidification. Si formula_12 alors le cristal formé n'a pas franchi la barrière énergétique et redescend les potentiels jusqu'à formula_13 (le cristal se résorbe). Si formula_14 alors au contraire le cristal est stable et peut continuer sa croissance. Donc On s'intéresse alors au calcul de formula_15 l'enthalpie libre de fusion en fonction de la température : formula_16 avec formula_17 et formula_18 respectivement l'enthalpie et l'entropie de fusion. Par définition, formula_19 À la température de fusion, les phases liquide et solide sont à l'équilibre soit formula_20 Donc formula_21 soit formula_22 avec formula_23 le degré de surfusion (formula_24). Donc À température proche de la température de fusion, ce rayon critique est grand et le liquide ne peut pas spontanément amorcer sa solidification par nucléation homogène. Ainsi, soit le liquide gèle à des degrés de surfusion très importants, soit on introduit un floculant (impureté) ou crée des défauts dans la paroi du récipient (rayures, aspérités... ). Dans le deuxième cas, on parle de nucléation hétérogène et c'est la situation la plus observée.Considérons un système binaire, c'est-à-dire un mélange de deux corps purs "A" et "B". Le diagramme binaire de ce système permet de prédire la manière dont la solidification va se passer. Prenons pour simplifier le cas d'un système à solution solide unique. Prenons un liquide composé de 100-"C" % de phase "A" et de "C" % de phase "B" (on utilise en général des concentrations massiques). On suppose ici qu'à tout instant, tout le solide est à l'équilibre avec le liquide, ce qui signifie notamment que le solide est homogène. En pratique, cela signifie que la solidification est lente, et que la diffusion en phase solide permet d'homogénéiser le solide (la convection permet d'homogénéiser la phase liquide). On met un liquide dans un moule, et on laisse le mélange refroidir. À la température "T" définie par l'intersection entre le liquidus et la droite verticale correspondant à "C", le premier germe solide se forme ; il se forme contre la paroi du récipient puisque c'est la partie la plus froide. Ce premier germe est un solide à l'équilibre avec du liquide à "T" ; il se trouve donc sur le solidus, et a une concentration "C" ; on remarque que "C" vaut presque 0, c'est du corps "A" presque pur. À une température donnée "T", la droite horizontale correspondant à cette température coupe le solidus à une concentration "C" et le liquidus à une concentration "C". À cette température, le solide a une concentration 100-"C" de "A" ; le solide étant plus riche en "A" que le mélange initial, le liquide s'est appauvri et ne contient plus que 100-"C" % de "A". À la fin de la solidification, le solide a une teneur 100-"C" en "A". Ceci détermine la température de fin de fusion "T". La dernière goutte de liquide à solidifier a une teneur 100-"C" en "A", très faible, c'est presque du "B" pur ; comme le solide est encore légèrement plus riche en "A" que le mélange initial, cette goutte achève de « diluer » "A".Lorsque la solidification se fait à l'équilibre, le diagramme de phase permet de savoir quelle est la proportion de mélange qui a solidifié et quelle proportion reste liquide. À une température "T" donnée, les cristaux formés ont une concentration "C" en "A", et le liquide a une concentration "C" en "A". La proportion de matière sous forme liquide et solide est donnée par la règle des leviers : C'est comme si l'on avait une balance dont le pivot n'est pas au centre du fléau, un des plateaux portant le liquide, l'autre le solide (d'où la référence au ).Maintenant, nous allons considérer que la solidification est trop rapide pour que la diffusion permette l'homogénéisation du solide. Alors, seule la couche superficielle du solide au contact avec le liquide est à l'équilibre ; la partie du solide sous cette couche superficielle est isolée du liquide et ne contribue donc pas à l'équilibre de solidification. C'est comme si la concentration "C" évoluait au cours de la solidification ; en effet, le liquide s'appauvrit en "A" et s'enrichit en "B". Comme précédemment, le premier germe est un solide à l'équilibre avec du liquide à "T" ; il se trouve donc sur le solidus, et a une concentration "C" ; on remarque que "C" vaut presque 0, c'est du corps "A" presque pur. Ces premiers germes se forment sur la paroi du moule (la partie la plus froide). Le liquide s'appauvrit en "A" au fur et à mesure. À une température donnée "T", ce n'est pas le solide en entier qui a une concentration "C", mais uniquement les germes formés à ce moment-là. Le liquide continue à s'appauvrir au cours de la solidification, et les derniers germes formés, qui se trouvent au centre du moule, sont très riches en "B" pur ; la température de fin de fusion "T" est alors inférieure à la température de solidification à l'équilibre. On voit que la pièce formée est hétérogène ; c'est la raison pour laquelle les glaçons ont des bulles au milieu (l'eau pure gèle sur les côtés et rejette l'air dissout vers le centre, jusqu'au moment où on a de l'air pur). Ce phénomène est appelé ségrégation.Dans le cas où le solide formé est cristallin, la structure du lingot est en général la suivante :
La solidification est l'opération (plus ou moins réversible) au cours de laquelle un liquide passe à l'état solide. Cela peut se faire par refroidissement (cas le plus courant), par augmentation de la pression, par cristallisation, par catalyse ou bien par une combinaison de ces phénomènes. La congélation peut aussi permettre la solidification de certains fluides (l'eau par exemple).
xwikis
Par définition, la pression de vapeur saturante est la pression à laquelle la vapeur d'un corps est en équilibre thermodynamique avec la phase liquide de ce même corps. Tant que la température est inférieure à la température de changement de phase, la pression au sein du liquide est supérieure à la pression de vapeur saturante, donc à la pression pour laquelle les deux phases du corps peuvent coexister en équilibre thermodynamique. Une hypothétique bulle de vapeur d'eau au sein du liquide serait donc automatiquement retransformée en liquide. Ce n'est que lorsque la température de changement de phase est atteinte qu'une bulle de vapeur peut exister durablement au sein du liquide. La différence de tension de surface entre la phase liquide et la phase vapeur engendre une surpression à l'intérieur des bulles. Cette surpression dépend très fortement de la taille de la bulle. Plus la bulle est petite, plus la pression à l'intérieur de celle-ci est grande. Ce phénomène empêche la formation de nouvelles bulles. Sur une surface parfaitement lisse, il serait théoriquement impossible de parvenir à la formation de bulles. Dans la réalité, il existe toujours des rugosités ou des poussières qui vont permettre la « naissance » d'une bulle. C'est ce que l'on appelle les sites de nucléations (exemple : dans une coupe de champagne il n'est pas rare de voir que les bulles se forment à des endroits précis du verre, et non sur toute la surface de celui-ci). Une fois qu'une bulle est apparue, il est plus facile pour le liquide de se vaporiser en augmentant la taille de celle-ci plutôt qu'en faisant naître une nouvelle bulle. Les bulles ainsi formées sur les sites de nucléation vont se développer jusqu'à atteindre une taille critique, entrainant celles-ci vers le haut. C'est l'apparition de l'ébullition. En l'absence de site de nucléation, le liquide continue de surchauffer. La plus petite perturbation, comme la vibration engendrée par l'action de mélanger, est capable d'engendrer une séparation explosive des phases liquide et vapeur. Pour cette raison il est possible d'ajouter aux liquides susceptibles d'entrer en surchauffe de la pierre ponce dont la présence permet à l'ébullition de démarrer et d'éviter l'explosion.En fonction des conditions de vaporisation (fond plat/mur vertical, surface plane/surface rugueuse, différence de température entre la surface chaude et la température d'ébullition), l'aspect de l'ébullition sera différent. Nukiyama (1934) a proposé une classification. Dans le cas de l'eau à pression atmosphérique, il observe que lorsque l'élément chauffant est à la température de, l'eau commence à « frémir ». Jusqu'à, des bulles sont formées, grossissent et se détachent de l'élément chauffant. Il parle d'ébullition nucléée (cas classique de l'eau dans une casserole). Au-dessus de cette température de l'élément chauffant, un film de vapeur apparait autour de celui-ci, empêchant le liquide d'entrer en contact. Il parle alors d'ébullition pelliculaire ou d'ébullition en film. Certaines branches de la physique préfèrent employer le terme de caléfaction.Désinfecter l'eau en la portant à son point ébullition est la méthode la plus ancienne et la plus efficace car elle n'affecte pas le goût, elle est efficace malgré les contaminants ou particules qui s'y trouvent, et elle permet d'éliminer la plupart des microbes causant des maladies intestinales. Dans les endroits disposant d'un système de purification efficace, cette technique n'est recommandée que comme traitement d'urgence ou pour obtenir de l'eau potable en milieu sauvage ou dans les zones rurales, car elle ne permet pas de retirer les toxines chimiques ou les impuretés.
L’ébullition est la formation de bulles lors du changement violent d’un corps de l’état liquide vers l’état gazeux (une vaporisation rapide). Elle se produit lorsque la pression de vapeur saturante est égale ou supérieure à la pression du liquide : les bulles de vapeur formées au fond du récipient deviennent stables et peuvent donc remonter à la surface.
xwikis
Valeurs tirées du CRC Handbook of Chemistry and Physics,. La conversion entre cal/g et J/g dans le tableau ci-dessus utilise la valeur thermochimique de la calorie (cal) = plutôt que la valeur tirée de l'International Steam Table (cal) =. Valeurs pour les éléments à l'état standard en kJ/mol :Pour chauffer un kilogramme (env. 1 litre) d'eau de 283,15 K à 303,15 K ( à ), il faut. Cependant, fondre de la glace puis augmenter la température de l'eau résultante de 20 K demande de l'énergie supplémentaire. Pour fondre de la glace à 273,15 K, puis chauffer l'eau résultante jusqu'à 293,15 K demande :La chaleur de fusion peut être aussi utilisée pour déterminer la solubilité des solides dans les liquides. Dans une solution parfaite, la fraction molaire formula_5 du soluté à saturation est une fonction de la chaleur de fusion, du point de fusion du solide formula_6 et de la température (T) de la solution : Avec, R étant la constante universelle des gaz parfaits. Par exemple, la solubilité du paracétamol dans l'eau à 298 K est déterminée par : Ce qui est égal à la solubilité en grammes par litre de : formula_10 qui dévie de la solubilité réelle () de 11 %. Cette erreur peut être réduite en incluant dans la formule, un paramètre de capacité thermique massique.À l'équilibre, les potentiels chimiques d'un solvant pur et d'un solide pur sont identiques : ou avec formula_13 la constante universelle des gaz parfaits et formula_14 la température. Le réarrangement donne : Or : Il s'ensuit : Application de la relation de Gibbs-Helmholtz : ce qui donne finalement : ou : et avec l'intégration : le résultat final est obtenu par :
L'enthalpie de fusion (symbole : formula_1) est l'énergie absorbée sous forme de chaleur par un corps lorsqu'il passe de l'état solide à l'état liquide à température et pression constantes. Au point de fusion d'un corps pur, elle est plus communément appelée chaleur latente de fusion car c'est sous forme de chaleur que cette énergie est absorbée et cette absorption se fait sans élévation de la température. Elle sert en quelque sorte à désorganiser les liaisons intermoléculaires qui maintiennent les molécules ensemble et non à « chauffer » au sens commun du terme. Ainsi, quand on chauffe de l'eau contenant des glaçons, la température du système reste partout égale à 0 degrés Celsius tant que les glaçons n'ont pas complètement fondu (à condition que le chauffage ne soit pas trop vif, sans quoi la température n'est plus uniforme et on se trouve hors équilibre).
xwikis
Un liquide saturé de chaleur contient autant d'énergie thermique qu'il peut sans se mettre à bouillir (ou inversement, une vapeur saturée contient aussi peu d'énergie thermique qu'elle peut, sans devoir se condenser). Au-delà, un apport d'énergie supplémentaire entraînera une transition de phase : le liquide passe d'une phase liquide à une phase vapeur. Cette transition dépend de la pression imposée au système liquide-vapeur.Le point d'ébullition d'un corps est la température à laquelle la pression de vapeur saturante de ce corps est égale à la pression entourant le liquide. À ce point, tout apport d'énergie sous forme de chaleur est absorbé par la chaleur latente de vaporisation, et aura pour effet de faire passer une partie du liquide en vapeur. Le point d'ébullition d'un liquide varie suivant la pression : un liquide placé dans un vide partiel a un point d'ébullition plus bas qu'à la pression atmosphérique, et inversement, un liquide sous pression a un point d'ébullition plus élevé. Par exemple, l'eau bout à au niveau de la mer (dans les conditions normales de pression), mais à à d'altitude. Dans le cas d'un corps pur, les points d'ébullition forment dans le diagramme de phase la courbe qui sépare la zone liquide de la zone gazeuse. C'est-à-dire que pour une pression donnée, l'ébullition se produit à une température fixe. Dans ce cas, le point d'ébullition est identique au point de condensation, qui représente les conditions nécessaires au passage de l'état gazeux vers l'état liquide.Les liquides en contact avec l'atmosphère (ou, plus généralement, d'autres gaz) peuvent se transformer en vapeur à des températures inférieures à leur point d'ébullition, par le processus d'évaporation, mais ce dernier recouvre un phénomène très différent. L'évaporation est un phénomène de surface, dans lequel des molécules du liquide situées près de l'interface liquide-gaz, quand elles reçoivent un transfert de chaleur, peuvent franchir cette interface et dissiper cette chaleur par la chaleur latente de vaporisation en se transférant dans l'état gazeux. Dans ce processus d'évaporation, les molécules du liquide doivent se mélanger avec celles du gaz environnant, en fonction de l'équilibre à trouver entre pression partielle de vapeur (qui traduit la quantité du corps passée en phase vapeur) et pression de vapeur saturante. Ce transfert est possible jusqu'à « saturation », c'est-à-dire jusqu'au point où la pression partielle du corps dans le gaz atteint un maximum, qui est (par définition) la pression de vapeur saturante (variable pour une température donnée). La pression de vapeur saturante joue en quelque sorte le rôle de « couvercle » empêchant une évaporation trop rapide du corps. À proximité immédiate de l'interface liquide-gaz, la pression partielle du corps égale rapidement celle de la vapeur saturante, ce qui interdit une évaporation ultérieure. Plus loin, en revanche, la pression partielle peut être plus faible, ce qui laisse de la place à une évaporation supplémentaire, à condition que cette place libre puisse atteindre l'interface liquide-gaz, que ce soit par diffusion de la matière du corps dans la phase gazeuse, ou par convection de la masse gazeuse. Dans un cas comme dans l'autre, l'évaporation ne peut être qu'un processus lent et en quasi-équilibre, placé sous la condition que la couche superficielle saturée peut se diffuser dans le reste de la phase gazeuse et laisser la place à d'autres évaporations. Dans l'ébullition, en revanche, l'invasion de la phase gazeuse est brutale : la pression de vapeur saturante étant égale à la pression extérieure, le transfert de chaleur qui permet une « évaporation » permet la création, à partir du liquide, d'une bulle gazeuse du corps pur, sans nécessiter de mélange ou de transfert avec la composante gazeuse. Dans ce cas, le volume du corps sous forme de gaz peut physiquement être directement éjecté sous forme de bulle de vapeur, sans nécessité d'un mélange par convection ou diffusion : à partir du moment où cette bulle peut d'une manière ou d'une autre quitter l'interface (généralement par convection), l'ébullition n'est limitée que par l'apport de chaleur imposé au corps liquide.L'échelle de température Celsius était à l'origine définie de telle manière que la température d'ébullition de l'eau à la pression d'une atmosphère soit. La définition de la pression standard a été affinée depuis, et l'on prend en compte pour le calcul du point d'ébullition la chaleur nécessaire au changement d'état (égale à environ pour l'eau), de sorte que le point d'ébullition de l'eau à la pression standard est actuellement de. À titre de comparaison, au sommet du mont Everest, à d'altitude, la pression est d'environ et le point d'ébullition de l'eau est de. Une application courante de l'interdépendance entre température d'ébullition et pression d'ébullition est l'autocuiseur. C'est grâce à une augmentation de la pression (couramment de l'ordre du bar) que l'on peut faire passer la température d'ébullition de l'eau de à environ. Ces deux températures correspondent bien à des températures d'ébullition. Cependant, seule la valeur de est une valeur prise dans l'état standard, et par là la température standard d'ébullition de l'eau. Pour une pression donnée, la température de l'eau qui bout est fixe. Toute l’énergie sert au changement d'état (eau/vapeur), l'eau ne devient pas plus chaude en bouillonnant beaucoup ou longtemps. De ce fait, en cuisine, il est généralement inutile de faire cuire « à gros bouillon » ce qui doit simplement être maintenu au point d'ébullition de l'eau () pendant un temps déterminé : une ébullition lente maintient une température identique, et conduit à des conditions de cuisson équivalentes, sous réserve que l’homogénéisation (remuer régulièrement) soit équivalente.Dans les tables de thermodynamique des produits chimiques, on n'indique pas tout le diagramme de phase, mais seulement la température d'ébullition dans l'état standard, c'est-à-dire à la pression d'une atmosphère (). Ce point d'ébullition est alors appelé "point d'ébullition standard", et la température "température d'ébullition standard". Le terme "point d'ébullition" est souvent employé pour désigner la température d'ébullition standard dans le langage courant, en supposant la pression fixée. Pour une pression donnée, différents liquides bouillent à différentes températures. Le tableau suivant donne les températures d’ébullition des éléments à l'état standard à, exprimées en °C :Dans le cas d'un mélange, le point d'ébullition dépend non seulement de la pression et de la température, mais aussi de la concentration des différents composants du mélange et des réactions chimiques qui se produisent entre eux. Les différents composants s'évaporant à des vitesses différentes, leurs concentrations relatives évoluent pendant l'ébullition : on parle alors de distillation. La température ne reste pas constante, mais suit cette évolution. Les bouilleurs de cru utilisent cette variation pour estimer la proportion d'alcool restant dans le moût qu'ils distillent : à, tout l'alcool est évaporé, il ne reste que de l'eau.Les liquides peuvent aussi passer sans ébullition de l'état liquide à l'état gazeux, à des températures plus basses que celle du point d'ébullition : il s'agit alors d'évaporation et non pas d'ébullition. C'est ainsi que les routes sèchent après la pluie et le linge après avoir été lavé, sans qu'ils soient chauffés à, sous l'effet du soleil et du vent.
On appelle point d'ébullition d'un liquide, pour une pression donnée, la température à laquelle il passe de l'état liquide à l'état gazeux s'il reçoit de la chaleur (il entre alors en ébullition). Le point de condensation désigne le processus inverse, se produisant à la même température, où la vapeur se condense en fournissant de la chaleur.
xwikis
Le dioxyde de carbone () solide se sublime rapidement sous la pression atmosphérique à (). Il est employé couramment pour maintenir les températures froides sous les noms de « glace sèche » ou bien de « neige carbonique ». Par contre le liquide n'existe qu'aux pressions supérieures à son point triple (, ), tel qu'indiqué à son diagramme de phase. La neige et la glace peuvent se sublimer lentement aux températures inférieures à la température de fusion (). C'est pourquoi en hiver la neige peut disparaître lentement même si la température ne dépasse pas. Les'(« jumeaux » en italien) sont une paire de récipients en céramique réfractaire accouplés, utilisés naguère en Italie pour l'obtention de soufre à partir des pyrites. L'un des récipients, rempli de pyrite, était chauffé au-delà de. Le soufre, en s'évaporant, passait sous forme de vapeur dans le tuyau et, devenu liquide dans le second récipient par condensation, était récolté dans des moules. On utilisait les'en Romagne, car il fallait du combustible en abondance. Aussi le naphtalène (), autrefois employé comme boule antimite, est un solide avec une pression de vapeur importante à température ordinaire, qui alors se sublime facilement à des températures inférieures à son point de fusion ().En chimie, le produit issu de la sublimation d'un mélange ou d'un produit impur est appelé « sublimé ».Par définition, la sublimation représente le passage direct d'un corps de l'état solide à l'état gazeux sans passer par un état liquide. Dans une imprimante à sublimation thermique, la cire pigmentée remplace l'encre. Elle est chauffée à près de par des micro-résistances réparties sur la tête d'impression qui lui permet de passer instantanément de l'état solide à l'état gazeux puis, d’être projetée sur la feuille où elle refroidit et redevient solide. L'intérêt d'un tel procédé est qu'il exploite les propriétés de transparence de la cire. Avec la sublimation thermique, l'équation est simple : un point de couleur sur l'image numérique correspond à un point de couleur sur la photo imprimée. Ainsi, pour imprimer un point d'une couleur donnée, l'imprimante superpose trois couches de cire de densité variable (jaune, magenta et cyan) qui vont ensemble composer la teinte recherchée, dans une palette de de couleurs. Contrairement aux impressions à jet d’encre qui affichent des résolutions en tons continus de seulement, les imprimantes à sublimation thermique peuvent atteindre une définition allant jusqu’à. La différence réside dans le fait que la technologie jet d’encre ne fait que reproduire par effet optique un point de la couleur recherchée alors que dans l’impression par sublimation n'importe quelle couleur est atteinte par l'impression d'un seul point physique. Plus précisément, une imprimante jet d'encre ou laser ne procure que par primaire ; si l'on veut simuler du ton continu, soit par exemple par primaire (valeur considérée comme minimale par les professionnels), ce genre d'imprimante devra imprimer entre physiques (donc un carré ) qui représenteront ensemble un seul point à ton continu ; dans ce cas la résolution donnée par le fabricant devra être divisée par 16 pour pouvoir être comparée à la résolution d'une imprimante à sublimation thermique. Cette tricherie optique, utilisée par les imprimantes à jet d'encre ou laser, est parfois visible à l'œil nu, sous forme de trame ou de points apparents ; un défaut absent des impressions par sublimation thermique. Par ailleurs, les photos obtenues par sublimation ne souffrent d’aucune bavure, le passage direct de la cire de l'état solide à l'état gazeux puis, inversement, du gazeux au solide, permettant d'éviter ce problème. Seul inconvénient de cette technologie : l’impossibilité d’obtenir un noir bien net. La couleur noire est obtenue par superposition des trois couleurs en densité maximale. Ce type d'impression est donc inadapté aux impressions en noir et blanc. En outre, le prix de revient est très élevé, le coût d'une revenant dans les années 2010 de 2 à, et cela quel que soit le contenu couleur de la page à imprimer : en effet, à chaque impression, une longueur égale à celle de la feuille est dévidée des trois rouleaux de ruban ciré. La sublimation est aussi utilisée pour purifier des composés chimiques, à l'aide d'un appareil de sublimation.
En physique, la sublimation est le changement d'état d'un corps de l'état solide à l'état gazeux, directement (sans passer par l'état liquide). Le procédé inverse se nomme déposition ou condensation solide ou encore sublimation inverse.
xwikis
À Venise, il fut un admirateur de Giorgione, mais en 1511, peut-être pour échapper à l'ombre du Titien, après avoir réalisé le "retable de saint Jean Chrysostome", il part pour Rome. Il y rejoint le groupe d'artistes qui travaillent à la Villa Farnesina pour le richissime banquier du pape, le siennois, Agostino Chigi, aux côtés de Raphaël. Il ne revint presque jamais à Venise. Quelques années plus tard, il change d'orientation et se lie d'amitié avec Michel-Ange dont il développe à plusieurs reprises les cartons et études de composition. Il subsiste trois dessins de Michel-Ange relatifs au groupe constitué par Lazare dans le tableau de Londres et Michel-Ange a probablement participé à la l'exécution de la figure du Christ. En 1520, après la mort de Raphaël, Sebastiano est le peintre le plus important sur la scène romaine. En 1531, pour le remercier d'être resté auprès de lui, barricadé dans le Château Saint-Ange, pendant le Sac de Rome (1527) par les armées impériales, Clément VII le charge des sceaux pontificaux. Il prend alors le nom de Sebastiano del Piombo qui désigne sa charge, et qui a fait sombrer dans l'oubli son nom de Sebastiano Viniziano. Afin de bénéficier de la charge ecclésiastique des sceaux, ce père de deux filles, n'hésite pas à prononcer ses vœux, tout en écrivant à l'Arétin, qu'il est « le frère le plus gaillard de Rome ». Il encaisse les taxes d'enregistrement de tous les documents pontificaux scellés avec du plomb, mais cette réussite financière s'accompagne d'une quasi cessation de son activité de peintre.
Sebastiano Luciani (vers 1485 à Venise - à Rome) s'appela à Rome Sebastiano Viniziano, puis Sebastiano del Piombo. C'est un peintre italien de la renaissance, célèbre pour sa combinaison des couleurs de l'école vénitienne et des formes monumentales de celle de Rome.
xwikis
L'histoire du flambage remonte aux Maures qui pratiquaient cette technique au. En Angleterre, le plum pudding du était flambé au brandy. Il était alors composé de hachis de bœuf et de mouton, d'oignons et de fruits secs. En Allemagne, le punch « aux pinces de fer » est un vin chaud épicé au-dessus duquel un pain de sucre arrosé de rhum est tenu avec des pincettes pour être enflammé. En Bohème, un morceau de sucre trempé dans l'absinthe était enflammé, caramélisé puis tombait dans l'alcool auquel était ajoutée un peu d'eau. Le flambage actuel a été découvert à Monte-Carlo, en 1895, par Auguste Escoffier, qui travaillait au "Café de Paris". Lors de la venue du futur Édouard VII d'Angleterre, il eut la maladresse de renverser de la liqueur qui s'enflamma sur ses crêpes et l'intelligence de les présenter au prince de Galles sous le nom de crêpe Suzette en l'honneur de sa compagne. Cette technique fut très appréciée de la fin du au début du. Délaissé pendant un temps, l'art du flambage réapparut dans les années 1970, avant de disparaître progressivement face à la nouvelle cuisine.Le flambage modifie la chimie du mets. Flamber entraîne une perte d'alcool mais n’altère pas la concentration d'alcool. L'alcool bout à, l'eau à et le sucre caramélise à. Flamber tous ces éléments combinés donne une réaction chimique complexe où la surface de l'alcool qui brûle dépasse. Celui-ci est à la fois carburant et fournisseur d'arômes. Pour flamber, il doit titrer au moins 40°. Pour les arômes, le choix se porte sur un alcool en harmonie avec les mets. Le goût étant un sens très subjectif, tout un chacun ne peut discerner un changement de saveur. Certains expliquent que le flambage ne peut affecter de manière significative la saveur du mets. Cependant, un test réalisé à partir de deux lots de pommes caramélisées (un flambé, l'autre mijoté), a permis de remarquer que le.
Le flambage est un processus de cuisson dans lequel de l'alcool est ajouté dans une poêle chaude pour se consumer en flammes. Cette technique est pratiquée dans beaucoup de cuisines du monde.
xwikis
Il faut d'abord définir un référentiel, c'est-à-dire un repère de l’espace et une référence pour le temps, une horloge ; on utilise en général le référentiel lié au laboratoire, par exemple dont les axes suivent les arêtes des murs de la pièce, ou bien celle de la table, ou encore les directions géographiques Nord-Sud, Est-Ouest et haut-bas (si le laboratoire est immobile par rapport au sol). L'objet de base est le "point", sans dimension. Dans un repère cartésien, un point M est défini par ses coordonnées et noté. Un objet réel est un volume, constitué d'une infinité de points. La cinématique du point consiste donc à étudier un point particulier d'un solide. On choisit des points caractéristiques, dont l'étude est simple et/ou donne des renseignements pertinents ; ce sont typiquement le centre de gravité du solide, qui joue un rôle important en dynamique, ou bien le point de contact du solide avec un autre. Si le solide est de petite dimension par rapport à son déplacement, et que l'on ne s'intéresse pas à sa rotation propre dans le référentiel, alors on peut se contenter de cette étude du point ; c'est le cas par exemple de la révolution des planètes dans le système solaire. Les coordonnées définissent le "vecteur position", qui dépend ainsi de la position et du temps. Le vecteur obtenu en dérivant les coordonnées par rapport au temps définit le "vecteur vitesse". Le vecteur vitesse est indépendant du choix du point origine. Le vecteur obtenu en dérivant les composantes du vecteur vitesse par rapport au temps définit le "vecteur accélération" Le vecteur obtenu en dérivant les composantes du vecteur accélération par rapport au temps définit le "vecteur d'à-coup" La mécanique du point permet de prévoir la position en fonction du temps, à partir de la vitesse initiale et des forces. L'équation horaire du mouvement correspond à l’équation paramétrique d'une courbe ; on peut souvent réduire ceci à un système de trois équations cartésiennes qui, dans le cas le plus simple, sont du type linéaire : Cette courbe est l’ensemble des points par où passe le centre d'inertie du mobile. On définit alors l"'abscisse curviligne", notée "s", la distance parcourue sur la courbe par rapport à un point de référence (la position du centre d'inertie du mobile à. Pour un petit déplacement de à, l'abscisse curviligne est assimilable à un segment, d'où : On a donc : La notion commune de vitesse est en fait la dérivée de l'abscisse curviligne. On parle souvent de « vitesse scalaire » : On a en faitIl est souvent important de prendre en compte la rotation du solide. Le premier modèle est celui du solide indéformable : si l'on considère deux points M et M quelconque du solide, alors la distance MM reste constante au cours du temps. On peut étudier la trajectoire de chaque point du solide, mais on peut aussi définir le mouvement du solide de manière globale. Pour cela, on attache un repère au solide, (O, "x", "y", "z") ; l'origine O est un point présentant un intérêt particulier, comme le centre de gravité, le centre d'un pivot (centre du cylindre d'un perçage), un sommet. La position du solide est alors définie par six paramètres :Un fluide — liquide ou gaz — est constitué de nombreuses particules microscopiques, des molécules. Ces particules ont un mouvement chaotique, dit « mouvement brownien ». À ce mouvement se superpose un mouvement d'ensemble, le courant. Il serait illusoire de vouloir étudier chaque particule, on utilise donc une description statistique du mouvement.Le mouvement d'un solide est en général caractérisé par deux termes : son type et sa nature. Le type de mouvement indique la manière dont la position évolue. Les termes typiquement employés sont : La nature du mouvement donne une indication sur l'évolution de la vitesse : On a ainsi quatre mouvements solides simples. En cinématique du point, on ne parle pas de mouvement de rotation, mais de mouvement circulaire. Si l'on considère maintenant la trajectoire d'un point donné, on la caractérise par un « élément géométrique caractéristique », c'est-à-dire la courbe mathématique qu'il suit, si tant est qu'on puisse la définir de manière simple. Typiquement, c'est un « arc de cercle de entre A », un « segment de droite de direction formula_11 », ou une courbe plus complexe (ellipse, parabole, hyperbole).Considérons un plan, muni d'un repère. On s'intéresse à la distance de chaque point du solide par rapport à ce plan. Si, au cours du mouvement, cette distance reste constante pour chacun des points du solide, alors on dit que le solide a un mouvement plan. Ce plan peut être horizontal, vertical ou bien incliné. Ainsi, toutes les trajectoires sont plane, dans un plan parallèle à. Tous les vecteurs vitesse et accélération sont parallèles à. Tous les axes de rotation sont perpendiculaires à. On peut ainsi ne travailler qu'avec deux coordonnées spatiales, et ; on projette les positions et trajectoires sur le plan. Les exemples typiques de mouvement plan sont : Pour simplifier les calculs, on définit souvent un repère local dit « de Frenet » pour chaque instant ; en un point de la courbe, l'axe des est la tangente à la courbe et orienté dans le sens du mouvement, et l'axe des est la normale à la courbe orienté de sorte que le repère soit direct. Ce n'est pas un référentiel mobile par rapport au référentiel de l'étude, c'est un repère instantané, défini juste à un instant pour simplifier l'écriture des grandeurs à cet instant donné. Le référentiel reste celui du laboratoire, seule change la manière dont on exprime les composantes des vecteurs.Le problème est donc ramené à trouver la fonction donnant la position sur la courbe en fonction du temps, soit. On appelle diagramme horaire le graphe de : de tels diagrammes sont très utilisés pour les trains (par exemple en France, le CHAIX donne pour l'ensemble du réseau les diagrammes horaires, ce qui permet de calculer les tableaux de correspondance de transport de gare en gare).Le cas le plus simple est celui du mouvement rectiligne : la trajectoire décrite est une droite. "Mouvement dans lequel tout segment reliant deux points du solide reste parallèle à lui-même au cours du temps" est aussi une définition classique du mouvement rectiligne.Le mouvement est dit "rectiligne uniforme" si la vitesse formula_12 est constante ; cela correspond au mouvement d'un objet lancé dans l'espace hors de toute interaction, ou encore au mouvement d'un objet glissant sans frottement. On a : L'abscisse curviligne est alors une fonction linéaire du temps. En étude des vitesses, ce type de mouvement a une propriété fondamentale : "tous les points d'un solide en translation rectiligne uniforme ont le même vecteur vitesse." On considère de plus qu'un solide immobile est en translation rectiligne uniforme : "L'immobilité est un cas particulier du mouvement rectiligne uniforme."Le mouvement peut être "rectiligne uniformément accéléré" — MRUA — (on dit aussi "rectiligne uniformément varié") ; le vecteur accélération formula_14 est constant. Ceci correspond à la chute libre (sans frottement) d'un objet lâché avec une vitesse initiale nulle ou dirigée verticalement ; ou bien un mouvement sans frottement sur un plan incliné d'un mobile lâché avec une vitesse initiale nulle ou dirigée par la pente du plan incliné. On a l'accélération qui est constante, soit : où formula_17 est la vitesse à (elle est nulle si l'objet est lâché sans vitesse initiale), et (on prend ). La vitesse est une fonction linéaire du temps, et l'abscisse curviligne est une fonction parabolique du temps. Dans le cas de la chute d'un corps,, où est l'accélération de la pesanteur au lieu considéré. Le temps nécessaire au solide pour atteindre une position, se calcule en fonction de l'accélération et en fonction des conditions initiales.Prenons une fusée dont la position varie à chaque instant ; elle suit une trajectoire rectiligne A–B. Elle subit une accélération de, et on prend et : Donc, après 5 secondes de vol depuis A, la fusée est à (6/2)·(52) = de A. Maintenant pour connaître sa vitesse, on calcule : Donc si la fusée est en vol depuis 5 secondes, sa vitesse est de.Le centre d'inertie du mobile décrit un cercle. Cela peut être un mobile contraint à suivre cette trajectoire comme une bille dans une gouttière circulaire, un pendule à fil dont le fil reste tendu, ou un train sur un rail circulaire. Le vecteur vitesse varie, donc le mobile subit une accélération. Ceci justifie la distinction entre la notion de mouvement varié (dont la norme de la vitesse varie) et de mouvement accéléré (dont le vecteur vitesse varie, en norme et/ou en direction).Le mouvement est dit "circulaire uniforme" si la norme formula_21 de la vitesse est constante. L'équation horaire est alors du type : où formula_23, formula_24 sont les coordonnées du centre du cercle, formula_25 le rayon du cercle et formula_26 la "vitesse angulaire" du centre d'inertie du mobile, exprimée en radians par seconde (rad/s ou rad·s). La plupart du temps, on choisit formula_27, l'équation horaire devient alors : On a : Le vecteur vitesse est tangent au cercle ; on a : On voit aussi que l'accélération est toujours dirigée vers le centre du cercle (on parle d’"accélération centrale centripète"), et sa norme vaut Ceci explique que lorsque l'on tourne en voiture, plus le virage est serré (formula_25 est faible), plus l'accélération est importante. Dans le repère de Frenet, on a :Le mouvement est dit "circulaire uniformément varié" si la vitesse angulaire varie selon une loi affine : Ce modèle permet de décrire le mouvement d'un point d'une machine tournante au démarrage ou à l'arrêt. La grandeur constante "α" est l'accélération angulaire, elle s'exprime en radians par seconde au carré (rad/s ou rad·s). L'angle de rotation suit une loi quadratique : L'abscisse curviligne vérifie formula_37, soit formula_38 et donc une accélération tangentielle formula_39 Les équations horaires sont : avec formula_42 formula_43 et formula_39 Le mobile subit toujours une accélération normale centripète formula_45 Dans le repère de Frenet, on a : Attention! Le mouvement du pendule à fil ou d'une bille dans une gouttière est circulaire mais ni uniforme, ni uniformément varié.Le centre d'inertie du mobile décrit une ellipse (le mouvement circulaire est un cas particulier de mouvement elliptique). Cela peut être le mouvement d'une voiture sur une courbe suivant un arc d'ellipse, ou bien celui d'un satellite autour d'une planète dans un référentiel galiléen dans lequel la planète est fixe, ou encore le mouvement d'une planète ou d'une comète autour d'une étoile ; le centre de gravité du système est alors à un des foyers de l'ellipse (ce centre de gravité se confond quasiment avec le plus massif des deux objets quand le rapport des deux masse est très élevé). On définit la vitesse aréolaire comme étant l'aire balayée par un rayon joignant le foyer au centre d'inertie du mobile. Dans le cas des mouvements orbitaux, le moment cinétique formula_48 par rapport à un foyer F est constant (ceci peut se déduire du principe de conservation du moment cinétique d'un système isolé) : oùPour considérer les mouvements quelconques, on peut travailler de deux manières : Ces deux approximations sont valables si l'on considère des temps courts.En général, le mouvement du centre d'inertie d'un mobile est enregistré de manière échantillonnée, c'est-à-dire que l'on a des points discrets correspondant à des positions à des instants séparés d'une durée formula_54 Si l'on considère trois points consécutifs formula_55 formula_56 et formula_57 correspondant à des instants formula_58 formula_59 et formula_60. La première approximation consiste à dire que la tangente en formula_56 est parallèle à la corde formula_62 Ceci est légitimé par un théorème mathématique disant que pour une fonction continue et dérivable sur un intervalle, il existe un point de cet intervalle dont la dérivée vaut la pente entre les points extrêmes de la courbe sur cet intervalle (voir "Théorème des accroissements finis"). On peut aussi rapprocher cela du fait que sur un cercle, la médiatrice d'une corde passe par le milieu de la corde et est perpendiculaire à la tangente au milieu de la corde (puisque c'est un rayon). La deuxième approximation consiste à estimer la norme de la vitesse constante entre formula_63 et formula_57 ce qui est acceptable si la durée est petite par rapport à l'accélération tangentielle. On estime donc que l'on a : La variation de ce vecteur vitesse donne le vecteur accélération. La composante tangentielle vaut : ou, par approximation : en effet, dans le repère de Frenet, on a formula_68 et on fait l'approximation formula_69 (approximation d'ordre 0). La composante normale est donnée par la variation de direction du vecteur vitesse ; on a formula_70 par définition du repère de Frenet, soit : Dans le cas où le mouvement est lent par rapport à la précision de la mesure, la position enregistrée va avoir des variations dues aux incertitudes de mesure ; ainsi, au lieu d'avoir une courbe lisse, on va avoir une courbe présentant des oscillations (du bruit). Si l'on prend les points tels quels, on va calculer des vitesses instantanées incohérentes qui vont se répercuter sur les calculs des accélérations. Si les données sont traitées de manière informatique, on effectue donc un lissage des données.Choisissons sur une courbe un point comme origine, puis désignons par la position du mobile à l'instant, et par l'abscisse curviligne du point. La vitesse du mobile peut s'écrire : où formula_11 désigne le vecteur unitaire tangent à C. On définit en tout point le "rayon de courbure" "ρ" de la trajectoire par : où est l'angle formé entre les deux vecteurs vitesse aux points et.Dans le repère formula_75, considérons le mouvement d'équation horaire : Le vecteur position s'écrit : Le vecteur vitesse s'écrit : Le module du vecteur vitesse est : L'accélération tangentielle est : Le vecteur accélération totale est : Son module est : Les accélérations totale, tangentielle et normale forment un triangle rectangle ayant l'accélération totale pour hypoténuse ; alors d'après le théorème de Pythagore on a formula_83, ce qui donne ici : Or on a : donc : Cette courbe n'est autre qu'un cercle.L'enregistrement du mouvement, c'est-à-dire le relevé de la position et de la vitesse, est le fondement de l'étude cinématique.Le pré-requis pour faire une étude cinématique consiste à enregistrer le mouvement. Dans le cadre de l'enseignement, on étudie en général le mouvement de palets autoporteurs. Ce sont des appareils cylindriques sur coussin d'air (un jet d'air les maintient quelques millimètres au-dessus de la table), ce qui leur permet de glisser sans frottement (on néglige les frottements de l'air). On utilise une table conductrice d'électricité avec un papier spécial ; reliés à une base de temps (une horloge qui délivre des impulsions électriques à des instants espacés de formula_87), les palets autoporteurs provoquent des étincelles qui marquent le papier spécial. Ainsi, chaque point sur le papier correspond à la position du centre d'inertie à un instant donné. Ceci permet d'étudier le mouvement sur un plan horizontal et incliné, éventuellement avec deux palets (indépendants, reliés par un élastique ou s'entrechoquant). Pour étudier la chute libre, on utilise un objet lourd et profilé, une sorte d'obus métallique, que l'on fait tomber verticalement dans une cage (afin qu'il ne bascule pas après l'impact sur la zone de réception). On colle une feuille de papier dessus, et la cage est munie d'une « lance rotative », projetant un fin jet d'encre. La lance tournant selon une fréquence constante, chaque trait sur le papier marque le point présent au niveau de la lance à un moment donné. Grâce à la réduction du coût du matériel informatique, on peut maintenant disposer d'un caméscope numérique. On peut donc filmer le mouvement (le caméscope étant fixe, posé sur un pied), puis en affichant les images une par une, relever la position de l'objet pour chaque image (en France, la vidéo enregistre 25 images par seconde).Les forces de police s'intéressent en général uniquement à la vitesse et disposent de cinémomètres à effet Doppler-Fizeau, improprement appelés « radars ». Ceux-ci permettent de mesurer directement la vitesse instantanée. Lorsque s'est produit un accident, les traces de freinage, et les éventuelles traces d'impact sur le mobilier urbain ou les rails de sécurité, permettent de recomposer la trajectoire des véhicules. Notamment, la longueur des traces de freinage permet d'estimer la vitesse avant le début du freinage (la force de freinage étant constante). Le conducteur, quant à lui, dispose d'un tachymètre (indicateur de vitesse) sur son tableau de bord, qui lui permet de connaître également sa vitesse instantanée. Il se base en général sur la fréquence de rotation des roues ; par exemple, une pastille réfléchissante est collée sur l'arbre de transmission, et une cellule photo-détectrice permet de connaître le temps qui s'écoule entre deux passage de la pastille, donc la fréquence de rotation et par là la vitesse. Les cyclistes mettent un aimant sur un rayon de la roue avant et un détecteur magnétique sur la fourche, ce qui leur permet, de la même manière, de mesurer la vitesse et le chemin parcouru. D'anciens systèmes étaient basés sur une petite roue tournant, entraînée par la roue du vélo. Les marcheurs disposent de podomètres qui détectent les vibrations caractéristiques du pas. Le marcheur ayant rentré la longueur moyenne de son pas, l'appareil peut déterminer la distance parcourue ainsi que la vitesse (produit de la longueur du pas par la fréquence de pas). La vidéo couplée à l'analyse informatisée des images permet également de déterminer la position et la vitesse des véhicules. Ceci est utilisé pour estimer le trafic et détecter les embouteillages, et pourrait faire son apparition dans les véhicules dans un avenir proche, afin de fournir une aide à la conduite (par exemple évaluation des distances de sécurité en fonction de la vitesse, détection de trajectoires anormales et de freinage d'urgence).Aux débuts de la navigation maritime côtière, les marins se repéraient grâce aux reliefs de la côte. Les éléments caractéristiques (villes, phares, églises...), appelés amers, sont toujours utilisés et permettent une localisation rapide et simple, facilement exploitable en cas de demande de secours (voir "Navigation par relèvements"). La navigation au long cours est possible en utilisant les étoiles comme repère, c'est la notion de navigation astronomique ; elle était utilisée traditionnellement par les Polynésiens (voir "Peuplement de l'Océanie > Navigations austronésiennes"). En Europe, elle a été rendue possible grâce au développement des horloges ; en effet, elle utilisait la position des astres, or celle-ci varie avec l'heure. Connaissant la date et l'heure, et muni d'un éphéméride (relevé des positions des étoiles selon la date et l'heure), les astres jouaient alors le même rôle que les repères côtiers. La boussole permet de déterminer le cap que l'on suit, et pour un navire, la vitesse peut être estimée par la vitesse du vent et les courants. Ceci permet d'anticiper la trajectoire. Pour se repérer, les aviateurs et marins naviguant aux instruments disposent des signaux émis par des antennes. À la fin des années 1960–début des années 1970, certains pays développent des réseaux d'antennes terrestres, comme le système de navigation Oméga ou bien le système LORAN-C. Puis, à la fin des années 1970 sont lancés des satellites (système GPS, GLONASS, futur système Galileo). Les antennes émettent des signaux synchronisés, et le décalage entre la réception des signaux permet de déterminer la position sur le globe terrestre (voir "Système de positionnement") ; ces systèmes sont également accessibles aux véhicules terrestres et aux piétons. Pour le décollage et l'atterrissage, les avions disposent de balises radio posées au sol leur donnant un repérage précis par rapport à la piste, permettant des manœuvres sans visibilité (de nuit ou par mauvais temps), voir les articles "Vol aux instruments" et "VHF Omnidirectional Range". Les systèmes de surveillance aérienne (tour de contrôle, aviation civile, armée) ou nautique (CROSS, centre régional opérationnel de surveillance et de sauvetage), ainsi que certains avions et navires, sont munis de radars. Ces dispositifs émettent une impulsion radio dans toutes les directions (en général avec une antenne tournante). Une impulsion revient si elle rencontre un obstacle ; le temps qu'elle met à revenir permet de déterminer la distance de l'obstacle, et le décalage en fréquence permet de déterminer la vitesse de l'obstacle (effet Doppler-Fizeau).
En physique, la cinématique (du grec "kinêma", le mouvement) est l'étude des mouvements indépendamment des causes qui les produisent, ou, plus exactement, l'étude de tous les mouvements possibles. À côté de la notion d'espace qui est l'objet de la géométrie, la cinématique introduit la notion de temps. À ne pas confondre avec la, un terme plus général qui concerne la vitesse et les mécanismes d'une grande variété de processus ; en mécanique, "cinétique" est utilisé comme adjectif pour qualifier deux grandeurs impliquant aussi la masse : le moment cinétique et l'énergie cinétique.
xwikis
Le point d'ébullition de l'eau dépendant de la pression atmosphérique, l'augmentation de pression permet de faire monter la température de cuisson plus haut que (jusqu'à ). Une soupape relâche la vapeur dès que la pression absolue dépasse. On diminue alors l'intensité du feu et on commence le décompte du temps de cuisson. Il existe plusieurs systèmes de fermeture du couvercle : étrier, baïonnette, bouton-poussoir et couvercle rentrant.En 1679, Denis Papin met au point une marmite en fer très épais, munie d'une soupape de sécurité et d'un couvercle à pression bloqué par une traverse à vis. Il l'appelle "Digesteur". On la désigne aussi sous le nom de « marmite de Papin », terme maintenant utilisé par extension pour désigner tout type d'autocuiseur. Parmi les premiers autocuiseurs commercialisés le "" (pot à vapeur) était vendu en Alsace en 1898 par la société De Dietrich. Réalisé en fonte, il comportait une soupape de sécurité et une soupape de décompression. Il ne connut cependant pas le succès car il ne correspondait pas aux besoins des ménagères de l'époque, pour lesquelles la rapidité de la cuisson n'était pas une préoccupation première. Un exemplaire est exposé au Musée du fer de Reichshoffen. L'« Auto-Thermos » des Ateliers de Boulogne, présenté au Salon des arts ménagers de 1926, remporte la médaille d'or du concours Lépine et connaît un certain succès au cours des années trente, mais son prix élevé et son maniement délicat empêchent, en dépit des affiches de Paul Mohr et du soutien publicitaire de Joséphine Baker, une large diffusion si bien que l'entreprise, fournisseur de laboratoires, fermera en 1968. En Allemagne un autocuiseur moderne est commercialisé sous la marque "Sicomatic" par la société. Aux États-Unis, la " lance son poêlon à vapeur à la Foire internationale de New York de 1939. Sa cuisson diététique le fait adopter par des millions de ménagères américaines. Cette compagnie dépose par la suite plusieurs brevets d'autocuiseurs à vapeur. En 1948, Roland Devedjian (1901-1974), père de Patrick Devedjian (1944-2020), invente des autocuiseurs en fonte d'aluminium et fermeture à baïonnette, commercialisés sous le nom de Cocotte-minute, mais sa société fait faillite : elle est finalement rachetée par le Groupe SEB, qui produisait des autocuiseurs moins chers, en aluminium embouti. En 1952, Georges Lavergne, ancien président du Concours Lépine, invente un modèle de grande capacité () acheté par la marine française pour ses sous-marins militaires. En Suisse dans les années 1940, développe, grâce à l'ingénieur Zurichois Max Zeller, un autocuiseur doté d'une soupape sophistiquée évitant les risques d’explosion. En 1949, un brevet est déposé par Zeller sur son autocuiseur. En 1949, l'autocuiseur Duromatic est lancé par l'entreprise, et il acquiert une position dominante sur le marché. En 2007, plus de dix millions de Duromatic ont été vendus. En Autriche dans les années cinquante, la société Gruber & Kaja met sur le marché un autocuiseur appelé ". Ce nom deviendra synonyme d'autocuiseur dans ce pays. En en France, Frédéric Lescure lance la « Super-Cocotte SEB » qui connaît un grand succès, supplantant rapidement la vingtaine d'autres modèles en fonte d'aluminium présentés par les sociétés concurrentes : la Super-Cocotte, en aluminium embouti, plus léger, mais beaucoup plus solide, s'avère plus sûre. En 1960, elle est vendue à. En 1986, SEB lance le modèle "Sensor", cocotte en inox équipée d'une poignée longue et de plusieurs niveaux de température de cuisson. En 1994, son modèle "Clipso" est équipé d'une soupape silencieuse et d'un système d’ouverture-fermeture à une seule main.De nombreux accidents, ayant provoqué de graves brûlures, ont été causés par l'ouverture d'anciens modèles d'autocuiseurs restés sous pression après obstruction de la soupape. Les autocuiseurs modernes sont pourvus de mécanismes de sécurité qui empêchent l'ouverture du couvercle tant que le récipient reste sous pression.En France l'utilisation classique de l'autocuiseur se présente classiquement sous 2 modes : La cuisson vapeur en autocuiseur permet une bonne rétention des vitamines par rapport à d'autres modes de cuissons tels que la cuisson vapeur sans pression, et la cuisson a l'eau. L'autocuiseur permet de réduire considérablement les temps de cuissons. Contrairement à une cuisson plus longue en marmite traditionnelle, l'autocuiseur, avec une température montant jusqu'à 118° en fonction des marques et des modèles, garde les sels minéraux, utilise moins de matière grasse, mais, selon le "Larousse gastronomique" : L'autocuiseur est utilisé par les alpinistes pour compenser la diminution du point d'ébullition de l'eau quand l'altitude augmente, ce qui rend plus longue la cuisson des aliments à la pression atmosphérique du lieu.
L’autocuiseur, appelé également « Cocotte-minute » (marque déposée, propriété de la société SEB), est un ustensile de cuisine constitué d'un récipient en métal épais hermétiquement clos par un couvercle équipé d'une valve de dépressurisation. Il permet de cuire les aliments sous haute pression.
xwikis
Les mammifères forment une classe d'animaux vertébrés descendant des thérapsides. Ils possèdent tous des glandes lactéales, lesquelles dérivent a priori de glandes sudoripares. Ils nourrissent tous leurs jeunes avec du lait produit via ces glandes par les femelles (et parfois aussi les mâles). Parmi les mammifères actuels, les monotrèmes sont les seuls à ne pas posséder de mamelles. Hormis l'allaitement, plusieurs autres aspects physiologiques et morphologiques permettent de distinguer les mammifères d'autres clades. Les modes de locomotion varient en fonction de la niche écologique occupée : vol battu chez les chiroptères et vol plané par homoplasie chez plusieurs lignées (Petaurus, Dermoptera), quadrupédie chez la plupart des mammifères terrestres (qu'il s'agisse d'une quadrupédie de marche, de course, arboricole), bipédie occasionnelle ou constante chez une minorité de taxons (Homo, pangolins terrestres, Pan, probablement certains des plus lourds Sthenurus, les macropodidés) Le mammifère terrestre le plus massif connu ayant jamais existé est "Paraceratherium transouralicum" (environ ), le plus petit est "Batodonoides vanhouteni" (). Aujourd'hui le plus massif est l'Éléphant de savane d'Afrique () et le plus léger le Pachyure étrusque (), le plus petit (par la taille) est la Kitti à nez de porc (). En 2018, le groupe contient qui, selon les classifications scientifiques, sont distribuées en près de, et.Les poils sont un trait plésiomorphe au sein des mammifères, peut-être même un héritage des reptiles mammaliens ayant conduit aux mammifères. C'est une formation dermique caractéristique, utile à la régulation thermique (ex : fourrure) et dans certains cas à la mécanoception (vibrisses), voire à la sélection sexuelle (crinière). Chez certaines lignées, le pelage a évolué pour laisser place à des piquants ou des écailles (ex : pangolin, échidné), ou quasiment disparu comme chez les cétacés. La quasi totalité des espèces présentent aussi des griffes ou des sabots, sauf chez les espèces strictement aquatiques qui les ont perdus au cours de leur évolution.Les mammifères sont tous homéothermes à deux très rares et très particulières exceptions près (le rat-taupe nu et une espèce caprine désormais éteinte). Pour maintenir leur température constante généralement aux alentours de 36 à, les mammifères consomment beaucoup de dioxygène et d'énergie -- ce qui est rendu possible par la présence d'un tissu pulmonaire alvéolé ainsi qu'un diaphragme (séparant la cavité abdominale de la cavité thoracique) qui amplifie les mouvements respiratoires effectués avec la respiration costale. Ces animaux sont aussi dotés d'un type de tissu entièrement destiné à la production de chaleur qu'on appelle graisse brune. À noter que certaines espèces sont capables de survivre à des chutes de température corporelle importantes dans un état léthargique, éventuellement ces baisses de température participent du cycle saisonnier et donc des stratégies de survie de ces espèces (hibernation, estivation). De même, la progéniture de certaines espèces n'est pas apte à réguler sa température à la naissance, ce qui confère un rôle parental supplémentaire (thermorégulation) à la mère en plus de l'allaitement.Le cœur est constitué de deux demi-cœurs (circulations de sang complètement séparées), chacun composé d'un ventricule et d'une oreillette.Le cerveau est pourvu d'une couche supplémentaire de tissus nerveux appelé néocortex.Étant des tétrapodes, les mammifères possèdent tous une ceinture scapulaire (dite aussi ceinture pectorale) et une ceinture pelvienne -- que cette dernière soit développée (ex : pattes des macropodidés) ou vestigiale (comme chez les cétacés ou les siréniens). Les membres antérieurs sont, comme chez les reptiles mammaliens, à autopode dirigé vers l’avant. Ancestralement, les pattes sont pentadactyles avec un carpe constitué d'une dizaine d'os évoluant différemment selon les mammifères. La colonne vertébrale est différenciée, il y a présence de côtes et d’un diaphragme -- certaines caractéristiques physiologiques comme la ventilation pulmonaire à diaphragme expliquent potentiellement la disparition des côtes ventrales qu'on retrouve chez les non-mammifères (par exemple chez les pélycosauriens). La plupart des mammifères ont sept vertèbres cervicales, exception faite des lamantins, des paresseux didactyles qui en ont six et les paresseux tridactyles qui en ont neuf.Le crâne des mammifères est synapside. Il possède deux condyles occipitaux permettant l’articulation à l'os atlas, la première vertèbre cervicale. Le volume de la boîte crânienne est important, en comparaison avec les reptiles par exemple, pour loger un encéphale et surtout un cervelet plus important. La cavité buccale est partagée entre un étage olfactivo-respiratoire et un étage masticateur par une structure osseuse : le palais. Certains paléontologues proposent que cela permettrait la respiration et mastication simultanées. Plus probablement cette surface dure permet la manipulation des aliments et donc une meilleure mastication puisque beaucoup d'espèces non-mammifères possèdent un palais charnu qui leur permet déjà de manger et respirer en même temps. La mâchoire est puissante et richement innervée. Elle est constituée d'un seul os dentaire appelé mandibule, et s'articule avec l'os squamosal pour se mouvoir. L'oreille moyenne est également singulière, avec des particularités souvent utilisées par les paléontologues pour déterminer si un fossile est bien un mammifère. Elle comporte notamment la "chaine ossiculaire" (marteau, enclume, étrier), considérée par les paléontologues comme la « signature » des mammifères vrais parmi les mammaliformes. De fait, l'os carré a évolué pour devenir l'enclume et avec le marteau et l'étrier, compose l'oreille moyenne.Les dents sont la partie la plus dure du squelette, c'est pourquoi de nombreux mammifères fossiles ne sont connus que par leurs dents, complétées parfois d'un fragment de mâchoire ou mieux encore leur crâne. Les dents sont typiques de chaque espèce et permettent notamment d'évaluer le régime alimentaire des espèces auxquelles elles appartenaient. Comme chez les thérapsides, le groupe à partir duquel il est admis qu'ils se soient différenciés, les mammifères ont une denture ayant la particularité d'être : Certains mammifères ont des dents à croissance continue (ex. : castor).Ils apportent des soins aux jeunes qui ne peuvent vivre sans l'aide de leurs parents durant les premiers temps de leur existence. Certaines espèces sont sociales et on a découvert deux espèces eusociales (rat-taupe nu et rat-taupe de Damara). La plupart des mammifères communiquent par divers moyens tels que :Les plus anciens fossiles connus datent d'environ -220 Ma au cours du Trias. La divergence d'avec les autres amniotes pourrait être plus ancienne. Les os de l'oreille moyenne sont clairement séparés de ceux de la mandibule ; trait qui, dans l'évolution des espèces, les distinguent des autres « reptiles mammaliens ». D'après des études phylogénétiques, la lactation serait apparue au sein des thérapsides il y a au moins -200 Ma d'après l'horloge moléculaire. À la fin du Crétacé, durant le Maastrichtien, on n'a recensé jusqu'ici que 150 à 300 espèces de mammifères regroupées dans 27 familles, dont une dizaine de familles de marsupiaux, et une dizaine de placentaires. Alors que les dinosaures disparaissaient massivement, les mammifères placentaires et marsupiaux connaissaient une explosion radiative majeure sans équivalent dans l'histoire des mammifères. La radiation évolutive des quelques espèces de mammifères concernées est due à certains caractères propres comme les ailes et le système d'écholocation des chiroptères. De nombreuses recherches, relancées par la génétique, permettent de comprendre comment s'est déroulée cette explosion radiative. Une des hypothèses les plus intéressantes est celle du groupement des afrothériens, qui regrouperait les restes d'une radiation s'étant déroulée sur le Gondwana à l'époque où il était séparé de la Laurasie. Les afrothériens regroupent les proboscidiens, les hyracoïdes, les siréniens, les tubulidentés, les macroscélides, ainsi que des familles classées dans les "insectivora", les rats-taupes et les tenrecs et potamogales. Cette hypothèse regroupe des petits groupes, et expliquerait d'une manière unifiée leur réduction, à savoir la compétition des autres mammifères lors de la reconnexion avec l'Asie. Selon cette hypothèse, une division ancienne des mammifères placentaires consisterait en quatre groupes, les afrothériens, les xénarthres (Amérique du Sud), les euarchontoglires (regroupant primates, dermoptères, scandentiens et glires) et laurasiathériens (chiroptères, cétartiodactyles, périssodactyles et insectivores "stricto sensu"), ceux-ci correspondant à la radiation en Laurasie. Selon une étude de Roi Maor de l'université de Tel Aviv publiée en 2017, les mammifères auraient tous été nocturnes à l'origine et n'ont commencé à avoir une activité diurne qu'après l'extinction des dinosaures il y a 66 millions d'années. Parmi les mammifères devenus diurnes figurent les primates, et donc les ancêtres de l'homme.Comme le nom l'indique ("mammifère" signifie « qui porte des mamelles », du latin "mamma" « mamelle »), les femelles de cette classe peuvent allaiter leur progéniture. Les glandes mammaires sont une évolution des glandes sudoripares qui donnent des champs mammaires chez les protothériens et de vraies mamelles chez les autres mammifères. Le choix de Linné, de définir cette classe par la présence de glandes mammaires et non, par exemple, de poils, autre caractéristique de la classe, répond à la classification d’Aristote, qui avait repéré un ensemble de vertébrés quadrupèdes, vivipares et porteurs de poils. Mais cette classification d’Aristote avait l’inconvénient d’exclure les cétacés et les chiroptères, qui étaient alors classés respectivement parmi les poissons et les oiseaux. La découverte des monotrèmes (par exemple l'ornithorynque) est ultérieure (1798) à la définition de Linné (1758), mais elle a confirmé la pertinence de la classification opérée par le savant.D'après ITIS et "Mammal Species of the World", dans son édition de 2005, révisée en 2007 : Le traditionnel ordre des Insectivores (Insectivora) est ici scindé en trois ordres : Afrosoricida (taupes dorées et tenrecidés), Erinaceomorpha (hérissons et gymnures) et Soricomorpha (musaraignes, taupes, etc.). Le traditionnel super-ordre des Ongulés (Ungulata) correspond ici aux Artiodactyla, Perissodactyla, Cetacea, Proboscidea, Sirenia, Hyracoidea et Tubulidentata. Certains auteurs considèrent les ordres Artiodactyla et Cetacea comme étant en fait un seul et même ordre appelé Cetartiodactyla. Les divergences de point de vue sur ce sujet sont liées au caractère particulier de l'histoire évolutive des cétacés. L'infra-classe des Marsupiaux (Marsupialia) correspond ici aux sept ordres suivants : Didelphimorphia, Paucituberculata, Microbiotheria, Notoryctemorphia, Dasyuromorphia, Peramelemorphia, Diprotodontia, auxquels il faut ajouter deux ordres désormais éteints (Yalkaparidontia et Sparassodonta).Le groupement des ordres mammifères entre eux est un sujet de recherche. Le tableau indique une division correspondant plus ou moins aux ordres. Comme dans toute phylogénie, celle-ci reflète le savoir courant. Dans les zones d'incertitudes, citons la position des taupes dorées (ou rats-taupes, chrysochloridés) et des tenrecs (tenrécidés) qui pourraient devoir être séparés des "Insectivora".La classification des mammifères est complexe. D'une manière simplifiée, on reconnaît trois grands groupes de mammifères, dont le regroupement correspond au type de possédé par leurs représentants :La discipline qui étudie les mammifères se nomme la mammalogie.Parmi les mammifères, les placentaires sont les plus nombreux avec environ regroupées dans ; viennent en second les marsupiaux qui comptent regroupées en seize familles, et seulement cinq espèces en deux familles pour les monotrèmes. Ils sont présents sur l'ensemble de la Terre, dans tous les types de milieux terrestres. Chaque année, pour environ espèces animales découvertes, cinq à dix seulement sont des mammifères. Ce chiffre a considérablement augmenté, puisqu'on estime que durant la première décennie du, ce sont plus de espèces qui ont été décrites. Il faut voir là l'impact de l'outil génétique, qui permet de distinguer des espèces à l'apparence identique. Certains spécialistes pensent que sont encore inconnues, une partie d'entre elles étant menacées d'extinction.Il y a, les Hommes et les animaux domestiqués représentaient 0,1 % de la biomasse des mammifères sur Terre, c’est-à-dire du poids total estimé des mammifères ; ils en représentaient 90 % au début du. Selon deux publications de la fin des années 2010, ce taux atteint alors 96 %. À eux seuls, les mammifères d’élevage représentent 60 % de la biomasse des mammifères. Selon ces données, les humains et les animaux domestiqués représentent 18 % du total des vertébrés. La biomasse de l’espèce humaine est dix fois supérieure à celle de l’ensemble des mammifères sauvages ( espèces connues). Les bovins, ovins et porcins représentent une biomasse 14 fois plus importante que celle des mammifères sauvages ; les oiseaux d’élevage représentent une biomasse presque trois fois plus importante que les oiseaux sauvages. Hormis l'Homme et quelques races de bétail ou d'animaux de compagnie, ou espèces commensales de l'Homme (rat, souris) ou espèces introduites (rat musqué, ragondin), la plupart des mammifères semblent en situation de vulnérabilité ou en voie de régression (en nombre d'individus, de populations, et en diversité génétique), et sont en train de subir une importante perte de diversité génétique, à cause de la réduction et fragmentation de leurs populations et de leurs habitats comme c'est le cas de l'orang-outan en Indonésie, ou à cause du braconnage comme c'est le cas par exemple de l'éléphant d'Afrique. Certaines espèces subissent des épidémies (zoonoses qui les déciment) et les modifications climatiques en menacent d'autres (l'ours polaire en particulier). L'évaluation faite par l'UICN en 2008 révélait que, sur de mammifères, étaient en danger d'extinction, soit environ 25 %, dont 188 « en danger critique d'extinction » et près de 450 « en danger ». Mais la situation réelle pourrait être bien pire, car 836 espèces de mammifères étaient classées dans la catégorie « données insuffisantes ». Les espèces carnivores, ou piscivores dans le cas des mammifères marins, sont par leur situation haute de la chaîne alimentaire exposées aux effets encore mal évalués de cocktails de polluants dont perturbateurs hormonaux, toxiques, reprotoxiques, mutagènes, cancérogènes, aux captures accessoires de la pêche... Les stratégies de conservation sont aujourd'hui fondées sur l'étude des niveaux critiques de pression et sur une prolongation des tendances historiques en matière d'état, pression et réponse sur les mammifères. Les gestionnaires et responsables de la biodiversité (dont mammalienne) doivent rapidement comprendre ce qui change, où et quand, comment et pourquoi, ce qu'on peut encore faire, et quelles sont les options politiques possibles et leurs enjeux. Or, la pression sur les écosystèmes et sur les mammifères évolue de façon plus rapide et différemment de ce que l'humanité passée a connu. Les mesures de protection passent par la lutte contre le braconnage et le trafic d'animaux, ainsi que par la sensibilisation de la société civile sur les risques que de grandes multinationales font courir à de nombreuses espèces en encourageant la déforestation, responsable de la destruction des habitats naturels dans les forêts tropicales, comme c'est le cas du palmier à huile en Indonésie. Les outils et logiciels destinés à la prospective (ex : GLOBIO + modèle IMAGE) appliqués à quatre scénarios prospectifs concluent que, sans efforts importants et sans réorientation des priorités, la situation des mammifères dans le monde va continuer à se dégrader. En effet, pour les quatre scénarios, les endroits où les mammifères devraient être le plus menacés en 2050 ou 2100 ne sont pas ceux où les politiques de protection sont aujourd'hui les plus actives, et. Les prospectivistes de la biodiversité invitent à établir de nouvelles priorités de conservation, sans abandonner celles qui sont en cours, en tenant mieux compte des futurs probables, tout en développant.
Les Mammifères (Mammalia) sont une classe d'animaux vertébrés qui ont pour caractéristique principale que les représentants femelles (et parfois aussi les mâles) allaitent leurs juvéniles à partir d'une sécrétion cutanéo-glandulaire spécialisée appelée lait. Leur aire de répartition est planétaire, ils ont conquis une grande partie des niches écologiques de la macrofaune et demeurent un des taxons dominants depuis l'Éocène.
xwikis
L'énergie mécanique d'un système formula_1 s'exprime généralement comme la somme de son énergie cinétique formula_2 macroscopique et de son énergie potentielle formula_3 : Chaque force conservative, qu'elle soit intérieure ou extérieure, donne naissance à une énergie potentielle dont on dit qu'elle dérive. L'énergie potentielle formula_3 du système est la somme des énergies potentielles dues aux forces considérées selon le système étudié ː énergie potentielle gravitationnelle, énergie potentielle de pesanteur, énergie potentielle électrostatique, énergie potentielle élastique pour les cas les plus courants. Elle ne dépend que de la position du système. L'énergie cinétique macroscopique formula_2 peut être séparée en deux parties ː l'énergie cinétique de translation et l'énergie cinétique de rotation ; formula_7. Elle dépend de la vitesse des éléments du système. L'énergie cinétique microscopique, qui est le fondement de l'énergie interne utilisée en thermodynamique, n'est pas prise en compte dans le calcul de l'énergie mécanique. L'énergie mécanique est entièrement déterminée si l'on connait la vitesse et la position du système.Dans un référentiel galiléen, pour un corps ponctuel de masse "m" constante parcourant un chemin reliant un point A à un point B, la variation d’énergie mécanique est égale à la somme des travaux "W" des forces non conservatives extérieures et intérieures qui s’exercent sur le solide considéré : où formula_9 et formula_10 sont respectivement l’énergie mécanique du solide aux points A et B. Ainsi, l’énergie mécanique d'un système soumis uniquement à des forces conservatives est conservée. La dérivée par rapport au temps de l'énergie mécanique est égale à la puissance des forces non conservatives : Le théorème de Bernoulli est une forme particulière de ce résultat.
L'énergie mécanique est une quantité utilisée en mécanique classique pour désigner l'énergie d'un système emmagasinée sous forme d'énergie cinétique et d'énergie potentielle. C'est une quantité qui est conservée en l'absence de force non conservative appliquée sur le système. L'énergie mécanique n'est pas un invariant galiléen et dépend donc du référentiel choisi.
xwikis
La réfrigération (du latin, froid) est généralement le refroidissement d'un corps par le transfert d'une partie de sa chaleur. Les applications sont la conservation des aliments, l'abaissement de la température de boissons pour les rendre plus agréables à la consommationLa fonction d'une machine de réfrigération est de prendre de la chaleur du côté basse température en produisant une évaporation du fluide frigorigène qui se condense par la suite sur la paroi du fond de l'appareil et de la rejeter à l'extérieur grâce à la grille située derrière l'appareil, en utilisant une énergie externe pour entretenir le processus. Un réfrigérateur est une pompe à chaleur généralement animée par un moteur électrique, mais il est également possible d'employer les sels eutectiques, ou des procédés sans aucun moteur tel que l'absorption ou l'effet Peltier.Les réfrigérateurs sont des pompes à chaleur dont la plupart (comme ceux qui équipent maisons et voitures) utilisent un cycle de changement de phase. Ce procédé fait tourner un cycle de Carnot pour transférer de la chaleur de la partie à refroidir vers la partie qui sera réchauffée. Le compresseur est la pompe du circuit, qui permet de faire circuler le fluide réfrigérant. Ce cycle se déroule en quatre temps : Il existe aussi un procédé plus complexe, à deux fluides, où le compresseur est remplacé par une source de chaleur : par exemple le réfrigérateur à absorption de gaz. Ce procédé est exploité lorsque l'électricité ou la force mécanique manquent, alors qu'une source de chaleur est disponible (caravanes, frigos solaires...) ou lorsque le bruit doit être le plus faible possible (chambre d’hôtel par exemple).Avant l'invention des réfrigérateurs, on conservait les denrées périssables dans une pièce spéciale, le cellier, généralement orientée vers le Nord. L'usage se développa aussi, particulièrement à la Renaissance, de stocker la glace découpée l'hiver sur les étangs, dans une glacière. Il s'agissait d'un trou fermé par un couvercle isolant dans lequel on alternait des couches de paille, ou de sciure de bois, et de glace. Comme « l'air froid » descend et que « l'air chaud » monte, l'orifice de remplissage se situant en haut, la température basse se maintenait et une partie de la glace, ainsi stockée, se conservait jusqu'à l'été. Il existait aussi le leytès, également appelé cabenère, niche à lait, frigo à lait qui était un frigo servant à conserver le lait au frais après la traite et avant la descente au lieu de vente. Des inventeurs tentèrent de fabriquer de la glace artificielle à la fin du et au début du. En 1755, l’Écossais William Cullen obtient un peu de glace par vapeur d’eau sous « cloche à vide » et en fit la première démonstration publique en 1756. En 1834, Jacob Perkins un Américain, invente la première machine frigorifique fonctionnelle. Puis un peu plus tard, Perkins est crédité du premier brevet de réfrigération utilisant le cycle de compression de vapeur, attribué le. Le système de la machine était l'utilisation de l'éther dans un cycle de compression de vapeur. Cette idée serait venue en premier d'un autre inventeur américain, Oliver Evans, qui avait conçu ce système en 1805, mais qui n'a jamais fait construire son projet. En 1850, Ferdinand Carré invente une machine frigorifique à l'eau et à l'ammoniac. Mais la première utilisation industrielle d'une machine frigorifique est celle de James Harrison en 1851, lorsqu'il a fabriqué un système de réfrigération à compression de vapeur (""). James Harrison était un imprimeur écossais, émigré en Australie, qui avait acheté une entreprise de presse. Alors qu'il nettoyait des caractères à l'éther, il remarqua que le liquide refroidissait fortement le métal en s'évaporant. Harrison eut l'idée de comprimer l'éther gazeux avec une pompe pour le transformer en liquide, puis de laisser l'éther liquide revenir à l'état gazeux en provoquant un refroidissement. Harrison mit ce système en œuvre dans une brasserie australienne, où le gaz froid d'éther était pompé dans des tuyaux qui circulaient dans le bâtiment. Il utilisa le même principe pour fabriquer de la glace en faisant passer dans de l'eau les tuyaux refroidis par l'éther gazeux. Mais il fit faillite en 1860 car la glace naturelle qu'on importait par bateau d'Amérique restait moins chère.En 1858 le Français Charles Tellier crée la première machine frigorifique à circulation de gaz ammoniac liquéfié, permettant la production de froid à usage aussi bien domestique qu'industriel. En 1865, il construit une machine à compression mécanique à gaz liquéfié. Ces inventions permettent la réfrigération industrielle (dès 1865) et le transport réfrigéré, notamment par bateau (navire frigorifique) : le premier navire équipé de systèmes de réfrigération à l'éther méthylique selon les principes de Tellier a été le Frigorifique, entré en fonction en 1876. Cette même année en 1876, c'est l'allemand Carl von Linde qui invente le réfrigérateur domestique tel que nous le connaissons aujourd'hui. Une des premières utilisations de la réfrigération domestique a eu lieu au domaine de Biltmore à Asheville (Caroline du Nord), aux États-Unis, autour de 1895. Le principe de l'invention de Linde permet de fabriquer industriellement en 1913, le tout premier réfrigérateur domestique le « "Domelre" » par Fred W. Wolf de Chicago. En France, les premiers réfrigérateurs firent leur apparition en 1952, les « "Domelre" » en provenance de Chicago. Le réfrigérateur à absorption de gaz, qui se refroidit par l'utilisation d'une source de chaleur, a été inventé en Suède par Baltzar von Platen et Carl Munters en 1922, alors qu'ils étaient tous deux étudiants à l'Institut royal de technologie de Stockholm. Leur invention permet de produire du froid à partir d'une source d'énergie telle que le propane, l'électricité ou le kérosène. En 1923, la production de leur réfrigérateur à usage domestique commence par l'intermédiaire de la société AB Arctic. En 1925, AB Arctic est achetée par Servel (unité d'Electrolux), qui commercialise ses produits dans le monde entier, notamment aux États-Unis où elle dépose le brevet d'invention le. Servel est pendant de nombreuses années le seul producteur de ce réfrigérateur aux États-Unis. Aujourd'hui, il est utilisé dans les maisons non reliées au réseau électrique, dans des camping-cars, ou les chambres d'hôtels, car il ne produit aucun bruit. Albert Einstein et son élève et collègue Léo Szilard brevettent en 1930 un réfrigérateur utilisant du butane, de l'eau et de l'ammoniac.Ceux-ci se composent généralement de compartiments de refroidissement et de congélation et peuvent avoir quatre zones de température : () (congélateur), (viandes), () (réfrigérateur) et () (légumes), pour le stockage des différents types de nourriture.. Seul le « volume utile » (dit aussi « volume net ») indique la capacité de stockage, par opposition au « volume brut ». La température adéquate pour un réfrigérateur est de à l'étage du milieu. Le point le plus froid est l'étage inférieur () situé au-dessus du bac à légumes. C'est l'endroit où mettre la viande et le poisson frais. Les œufs, les produits laitiers, la charcuterie, les restes, les gâteaux et les produits portant la mention « à conserver au froid après ouverture » sont à positionner sur les étages du milieu (4 à ) et sur l'étagère du haut (). Les bacs en bas (jusqu'à ) sont destinés aux fruits et légumes susceptibles d'être endommagés par de trop basses températures. Les compartiments ou les étagères à l'intérieur de la porte sont les parties les plus chaudes du réfrigérateur (10 à ), elles sont destinées à recevoir les produits qui se satisfont d'une réfrigération légère : les boissons, la moutarde et le beurre. Depuis la fin des années 1950, plusieurs modèles de réfrigérateurs sont de type « sans givre » et possèdent un système réfrigération/congélation par circulation d'air avec un évaporateur situé dans un compartiment isolé des autres compartiments pour la nourriture et un système de dégivrage automatique utilisant des éléments chauffants. Ce système "" a pour conséquence une uniformisation de la température, un refroidissement plus rapide de l'air après ouverture de la porte, un assèchement accéléré des aliments non couverts et une augmentation de la consommation par rapport au système classique de dégivrage automatique. Quelques modèles incluent un système pour avertir d'une panne de courant, avec une fonction de mémoire qui alerte l'utilisateur de la coupure en faisant clignoter l'affichage de la température. En appuyant sur une touche d'information, l'utilisateur est informé de la température maximale atteinte pendant la panne de courant, et sait si les aliments surgelés ont été décongelés ou s'ils risquent d'avoir développé des bactéries dangereuses. Les anciens réfrigérateurs utilisaient le Fréon comme réfrigérant qui fait partie de la famille des CFC qui détruisent la couche d'ozone. Après la ratification du protocole de Montréal, ces fluides ont été remplacés par le R134a ou autres (HCFC). Aujourd'hui, la majorité des fabricants européens d'électroménager ont opté pour l'isobutane (R600a). En 2019, plus de la moitié de la production mondiale est situé dans à Foshan en Chine.Le réfrigérateur à compression (domestique) fonctionne selon un principe qui consiste à évaporer un fluide frigorigène (tel que les CFC : R12, R22 ou actuellement R134a et R600a) qui se trouve généralement à basse pression dans un circuit fermé. Cette évaporation provoque le refroidissement du fluide frigorigène car il s'agit d'un processus endothermique. Le fluide frigorigène est ensuite à nouveau compressé pour redevenir liquide dans le condenseur ; il s'agit d'un processus exothermique, la chaleur générée est évacuée à l'arrière du réfrigérateur. Le fluide frigorigène décrit un cycle perpétuel fermé, le fluide est recyclé indéfiniment.Les réfrigérateurs domestiques se déclinent en plusieurs catégories :La plage de température ambiante idéale de fonctionnement d'un réfrigérateur dépend des classes climatiques : Si la température est très en dessous de la plage de fonctionnement, le moteur peut stopper et si la température est au-dessus, on observe une inefficacité.La technologie des réfrigérateurs à fait énormément de progrès en quelques décennies. Aux États-Unis, leur consommation unitaire est passée de en 1974 à en 2001. Lorsque les américains seront aux normes d'efficacité énergétique, l'économie d'électricité sera de, soit l'équivalent de.Les portes et parois latérales des réfrigérateurs offrent une surface vierge d'au moins un demi-mètre carré, propice à la personnalisation : aimants, souvenirs, carte postales, dessins d'enfant, rappels...Il existe des réfrigérateurs plus respectueux de l'environnement destinés aux pays en voie de développement. Un tel réfrigérateur repose sur le fonctionnement du réfrigérateur à absorption mais utilise le Soleil comme générateur. Il est intéressant car il n'utilise que le Soleil comme source d'énergie, ce qui fait de lui un réfrigérateur idéal pour le tiers monde.Des camions frigorifiques sont utilisés pour transporter les denrées périssables, comme les aliments surgelés, les fruits et les légumes, et les produits chimiques sensibles à la température. La plupart des camions frigorifiques modernes maintiennent des températures de et ont une charge utile maximum d'environ (en Europe)..
Un réfrigérateur est un meuble ou une armoire fermée et calorifugée dont la température est régulée par réfrigération indépendamment de la température extérieure (cuisine, chambre froide, pharmacie, laboratoire).
xwikis
Les caractéristiques spécifiques des Carnivores concernent principalement la tête. Au niveau de la denture, la quatrième prémolaire supérieure et la première molaire inférieure sont spécialisées en carnassières. Par ailleurs, les mouvements latéraux de la mandibule sont très limités. Au niveau de la base du crâne, la bulle tympanique est constituée par trois éléments : ectotympanique, entotympanique rostral et entotympanique caudal. Par ailleurs, l'artère carotide interne est réduite, et la vascularisation du cerveau est essentiellement assurée par la carotide externe. D'autres caractéristiques sont présentes uniquement chez les espèces terrestres existantes : une boite crânienne de dimension élargie, la présence d'un os scapholunatum au niveau du carpe, ou l'absence de troisième trochanter pour le fémur.L'ancienne classification séparait les Carnivores en deux sous-ordres, les Fissipèdes et les Pinnipèdes. Cette classification est aujourd'hui obsolète, bien que les Pinnipèdes soient toujours un clade valide. Carnivora est aujourd'hui considéré comme le groupe-couronne de ses représentants actuels, divisé en deux sous-ordres. Les Caniformes regroupent les familles proches des Canidés, les Féliformes regroupent les familles proches des Félidés.Liste des familles actuelles selon ITIS : Note : les viverridés du genre "Prionodon" regroupant les linsangs asiatiques ont été classés à part dans la famille Prionodontidae à la suite d'analyse génétiques.Dans le sous-ordre Caniformia : Dans le sous-ordre Feliformia :Les différentes études génétiques estiment que l'ancêtre commun des carnivores actuels vivait il y a environ 60 millions d'années.
Les Carnivores (Carnivora) sont un ordre de mammifères placentaires du super-ordre des Laurasiathériens. Ils se distinguent par une mâchoire et une denture qui leur permet de chasser et de manger d'autres animaux. Une des synapomorphies qui caractérisent les Carnivores est la présence d'une carnassière. Les canines sont transformées en crocs. Leur cerveau est de type gyrencéphale.
xwikis
L'hydrostatique, ou statique des fluides, est l'étude des fluides immobiles. Ce domaine a de nombreuses applications comme la mesure de pression et de masse volumique.Au niveau le plus bas de la modélisation on décrit le milieu par position et vitesse de chaque particule constitutive et le potentiel d'interaction entre elles. Cette approche est bien sûr limitée par la quantité d'information qu'elle suppose. Elle est utilisée : Pour les gaz et à un niveau moins détaillé on se contente de décrire la distribution statistique des vitesses et éventuellement de tous les autres degrés de liberté (énergie interne, rotation et vibration dans le cas de molécules). Ludwig Boltzmann a ainsi réussi à écrire l'équation cinétique qui porte son nom. Cette fonction du temps, de la position et de la vitesse peut être calculée à partir d'outils comme la simulation directe Monte Carlo ou la méthode de gaz sur réseau particulièrement bien adaptée aux milieux poreux. Il s'agit de calculs coûteux en raison de la dimension 7 du problème. Pour cette raison on utilise généralement un potentiel d'interaction peu réaliste physiquement mais conduisant à des résultats acceptables.Par ce vocable on entend la description de phénomènes descriptibles à une échelle grande devant la précédente mais petite devant l'échelle du continu.La particule fluide décrit un fluide à l'échelle mésoscopique : c'est un volume de dimension suffisamment petite pour que les propriétés du fluide ne varient pas spatialement dans la particule et suffisamment grand pour qu'une quantité importante de molécules soient comprises dedans de manière à moyenner les fluctuations statistiques. On peut effectuer dans cette particule un bilan de masse, de quantité de mouvement et d'énergie en utilisant les flux correspondants sur les limites du domaine. Cette approche conduit à l'écriture des équations de conservation correspondantes et, par passage à la limite, aux équations descriptives du phénomène. Cette méthode est aussi la base de la description numérique, le volume élémentaire étant alors la maille élémentaire du calcul.La géométrie étudiée peut comprendre des détails dont la prise en compte explicite va rendre le problème coûteux, par exemple une rugosité de la surface ou le détail de la géométrie d'un milieu poreux. Dans ce dernier cas les méthodes bien connues de la prise de moyenne volumique ou de l'homogénéisation permettent le calcul de quantités intervenant sous forme de coefficients comme le coefficient de diffusion dans l'équation de Darcy. Dans le cas d'une rugosité l'homogénéisation aboutit à l'écriture d'une relation de saut à la paroi, c'est-à-dire une relation liant toute valeur à sa dérivée spatiale. On peut faire également entrer dans cette catégorie les phénomènes de raréfaction dans un choc ou une couche pariétale. Dans ces régions d'espace les équations du continu sont invalides sur une distance de quelques libres parcours moyens. On peut généralement les ignorer. Lorsque ce n'est pas les cas leur modélisation aboutit comme précédemment à des équations de saut. Les relations de Rankine-Hugoniot en sont un exemple. Enfin, et ce n'est pas le moindre problème, on peut faire disparaître toutes les fluctuations d'un écoulement turbulent par des méthodes de moyennage très diverses, pouvant ramener le problème à une simple diffusion équivalente. Là aussi le but est de simplifier le calcul, possible par la simulation directe, mais coûteux.Le niveau macroscopique résulte donc d'une simplification drastique de tous les détails du problème, lesquels sont tout de même présents au travers des coefficients qui interviennent dans les équations descriptives, des conditions aux limites et de l'équation d'état du milieu.Ces notions qui séparent nettement deux types d'écoulements ont une origine microscopique :Les équations de Navier-Stokes pour un fluide simple (newtonien) sont la pierre angulaire du domaine, à partir desquelles on déduit de nombreuses autres lois. Ces équations sont écrites dans un repère fixe, avec deux expressions des différentes grandeurs en fonction de la position : soit en fonction des coordonnées actuelles dans le repère (description eulérienne), soit en fonction des coordonnées occupées à un certain instant initial (description lagrangienne). Dans le premier cas le vecteur formula_1 représente la vitesse à l'instant et au point de coordonnées (formula_2) (mais à différents instants il ne s'agira pas de la même portion de matière), dans le second cas formula_3 représente la vitesse à l'instant de la matière qui à l'instant initial occupait la position formula_4 (et qui à l'instant se trouve en un point différent formula_5). On utilise le plus souvent la description eulérienne.On peut obtenir ces équations par au moins deux voies : Dans la première méthode apparaissent le tenseur des contraintes (ou tenseur de pression, incluant contraintes visqueuses et pression) et le flux de chaleur. Pour ces deux quantités on fait l'hypothèse qu'elles sont liées à un gradient : Le mécanisme sous-jacent dans les deux cas n'est pas très apparent : on se doute que cette proportionnalité est liée à une linéarisation des équations qui décrivent le problème exact sous-jacent. C'est là un processus général en physique mathématique. La méthode partant du microscopique permet d'éclairer cet aspect. Les équations de Navier-Stokes sont l'expression d'une petite perturbation de la fonction de distribution microscopique des vitesses et, éventuellement, des énergies internes (statistique de Maxwell-Boltzmann). "A contrario" les équations d'Euler décrivent le cas correspondant à l'équilibre thermodynamique local. Il faut alors donner les coefficients qui interviennent : pression, viscosité et conductivité. La pression est définie par l'équation d'état. Les propriétés de transport, viscosité, conductivité peut résulter dans le cas du gaz d'un calcul effectué à partir du niveau microscopique (du potentiel interatomique). Pour les liquides ces quantités relèvent de l'expérience.La similitude est la mise en évidence de nombres sans dimensions permettant de réduire le nombre de paramètres intervenant dans les équations afin de simplifier son analyse, éventuellement de définir des expériences à l'échelle du laboratoire. Elle est basée sur l'invariance d'échelle qui assure la covariance des équations : celles-ci sont valides dans tout référentiel galiléen. On peut alors par un changement de variable faire apparaître des nombres adimensionnels et diminuer ainsi le nombre de variables d'un problème. Reprenons l'exemple précédent. On définit : À partir de ces valeurs on déduit les variables réduites : Le système en variables réduites s'écrit : formula_12 est l'opérateur nabla adimensionné et formula_13 le nombre de Reynolds. Le problème ne dépend plus explicitement des dimensions physiques : l'équation ci-dessus décrit une famille de problèmes (et donc de solutions) se déduisant l'un de l'autre par transformation de l'espace et du temps.L'instabilité des solutions des équations est due au terme non-linéaire de transport de quantité de mouvement V ⋅ ∇V. Elles correspondent à une bifurcation de la solution obtenue pour une certaine valeur du nombre de Reynolds. On rencontre divers types d'instabilités : De plus les interfaces soumises à une accélération ou à un champ de gravité peuvent être le siège d'instabilités : Rayleigh-Taylor, Richtmyer-Meshkov, etc.Le passage de l'état laminaire d'un écoulement vers un état totalement turbulent peut emprunter plusieurs voies : Il n'existe pas de modèle universel de transition. Ceci est aisément compréhensible dans le cas de la transition naturelle où la source de l'instabilité peut être diverse et où de plus son amplitude joue un rôle. De même on ne maîtrise pas forcément une turbulence externe. En pratique on utilise des critères expérimentaux valides sur telle ou telle configuration.La turbulence est un phénomène étudié depuis Léonard de Vinci mais encore mal compris. Il n'existe pas de théorie permettant de décrire le phénomène à partir des équations de Navier-Stokes. La cascade turbulente se manifeste par un transfert d'énergie des grandes structures créées par les gradients de vitesse - encore le terme V ⋅ ∇V - vers les petits tourbillons détruits par dissipation visqueuse. Un résultat majeur obtenu par Kolmogorov est la description des échelles intermédiaires où se produit une diffusion de l'énergie cinétique par mélange et étirement/repli des tourbillons. Cette région possède une propriété d'auto-similitude : les transferts se produisent identiquement à toutes les échelles. Ce résultat illustre la capacité explicative de l'approche physique statistique et systèmes dynamiques. Il faut mentionner l'existence d'une turbulence quasi-bidimensionnelle obtenue lorsque l'une des dimensions du problème est limitée : c'est le cas de l'atmosphère où les grands tourbillons excèdent largement la « hauteur utile » où peut se développer une troisième dimension. Il se produit alors une double cascade d'énergie. En pratique l'approche physique statistique ne permet pas un calcul global. De même la résolution directe des équations est beaucoup trop coûteuse et ne sert qu'à générer des expériences numériques servant de test à une théorie. En pratique la mécanique des fluides numérique utilise une méthode où les moments des corrélations statistiques des variables issus d'une prise de moyenne sont modélisés par une hypothèse physique raisonnable. Il existe plusieurs modèles, chacun étant plus ou moins adaptée à une situation donnée. Les effets de la turbulence sur l'écoulement sont importants. Directement ils favorisent les échanges de masse, quantité de mouvement et énergie. Ce phénomène augmente également le bruit acoustique. Il a aussi un effet indirect en modifiant la structure globale d'une région, par exemple la région décollée d'une couche limite ou un jet.La loi de comportement d'un milieu solide ou fluide (voire intermédiaire) relie les contraintes "σ" exercées dans le milieu aux déformations "ε" du milieu et/ou à leurs dérivées par rapport au temps.Pour beaucoup de fluides le tenseur des contraintes peut s'écrire comme la somme d'un terme isotrope (la pression p) et d'un déviateur (le cisaillement): δ est le symbole de Kronecker, μ la viscosité dynamique et V la vitesse. En réalité il existe toujours un terme de viscosité volumique μ' div V δ correspondant à une variation isotrope de volume et dû à des interactions moléculaires inélastiques. Ce terme est généralement négligé quoique mesurable et, dans le cas des gaz, calculable. Très petit, il est supposé nul dans l'hypothèse de Stokes. Certains matériaux comme les verres ont un comportement qui passe continûment de l'état solide à l'état liquide. C'est vraisemblablement le cas du verre commun si l'on en croit les mesures de viscosité dans la plage où celles-ci sont faisables en un temps raisonnable ou celle du Silly Putty.De nombreux fluides ont des comportements différents, particulièrement en cisaillement. Ce comportement est lié à leur composition : phase solide en suspension, polymère, etc. Leur étude relève de la rhéologie. On présente généralement leur comportement sous un cisaillement simple pour lequel la viscosité est la pente de la courbe contrainte-déformation : La relation containtes-déformation n'est pas suffisante pour caractériser certains fluides dont le comportement est plus complexe : Ces caractéristiques peuvent donner naissance à des comportements remarquables comme : Les comportements peuvent être décrits par des modèles rhéologiques obtenus en ordonnant de manière plus ou moins complexes des éléments de base : ressort pour l'élasticité, amortisseur pour le comportement visqueux, patin pour la pseudo-plasticité. On obtient ainsi le modèle de Kelvin-Voigt ou le modèle de Maxwell pour décrire la viscoélasticité. Les caractéristiques sont mesurées à l'aide de rhéomètres ou, dans le cas des polymères, peuvent être prédites.Un écoulement peut être stationnaire ou instationnaire ou les deux à la fois. Prenons l'exemple de l'écoulement autour d'un cylindre infini :Les tourbillons peuvent naître dans une région décollée comme la recirculation dans l'exemple précédent. Il s'agit alors d'un phénomène entretenu d'origine visqueuse. Ils peuvent également avoir pour origine une dissymétrie des conditions aux limites : c'est le cas des extrémités d'une aile d'avion. Dans ce cas il s'agit d'un phénomène inertiel non entretenu (en un point de l'espace donné). Les tourbillons ainsi créés sont de grande taille et peu affectés par la viscosité, ce leur confère une grande durée de vie. Mathématiquement le tourbillon (ou vorticité) se définit comme le rotationnel de la vitesse ou la moitié de cette valeur. On sait écrire une équation de transport pour cette quantité qui est à la base des études sur la turbulence vue sous l'angle mécanique des fluides et non sous l'angle statistique comme dans l'étude de la cascade turbulente.Tous les fluides sont visqueux jusqu'à un certain degré. La compressibilité de l'eau par exemple vaut environ 5 × 10 N, ce qui suppose des pressions de l'ordre du kbar pour obtenir un effet mesurable. Cette faible valeur permet dans le cas général de faire l'approximation de masse volumique constante. Les écoulements dans lesquels cette approximation est valide sont généralement tels que la température y est sensiblement constante et où l'on peut par suite supposer la viscosité constante. L'équation de conservation de l'énergie est découplée et les équations de Navier-Stokes réduites à une forme plus simple. Si de plus on suppose le nombre de Reynolds petit (Re ≈ 1) on aboutit à l'équation de Stokes. Dans le cas d'un écoulement irrotationnel on montre que la vitesse découle d'un potentiel : on parle d'écoulement potentiel. Toutefois la compressibilité d'un liquide n'est jamais nulle et il est possible d'y propager une onde de choc, laquelle suppose une discontinuité des toutes les variables comme indiqué par les relations de Rankine-Hugoniot. Celles-ci sont relatives aux équations d'Euler, donc à un milieu sans viscosité. Cette discontinuité n'existe qu'au point de vue macroscopique puisque la théorie cinétique montre pour les gaz une variation rapide sans discontinuité sur une distance de quelques libres parcours moyens. L'onde de choc résulte d'une propriété remarquable des équations d'Euler : leur caractère hyperbolique. L'information dans le milieu est transportée par les caractéristiques. Ceci a donné lieu par le passé à des méthodes de résolution par construction géométrique dans des cas assez simples comme une tuyère ou l'onde accompagnant un objet en vol supersonique. Cette propriété est aujourd'hui à la base des méthodes de résolution numérique par volumes finis : les solveurs de Riemann.Hors problème de turbulence les effets dits visqueux, en fait tous les effets liés au transport de masse (diffusion), de quantité de mouvement (cisaillement) et d'énergie (conduction), sont généralement confinés à des régions particulières, généralement une paroi et dans ce cas on parle de couche limite. Un immense progrès dans la compréhension de ce phénomène a été faite au début du. Elle a permis l'avènement de l'aérodynamique moderne grâce à l'analyse que permet son caractère parabolique : l'information ne remonte pas l'écoulement. En outre la relative simplicité des équations autorise la mise en évidence de solutions approchées.Les écoulements à surface libre désignent les écoulements d'un fluide limité par une surface libre continue. Ils concernent essentiellement l'atmosphère, les océans ou les lacs et les rivières ou canaux, mais décrivent aussi une étoile. Les problèmes à grande échelle dans l'atmosphère ou l'océan ne possèdent pas de caractère spécifique. Ils sont décrits par les équations de Navier-Stokes. D'autres sont limités dans une ou plusieurs directions d'espace. Ce sont : La tension superficielle ne joue pas de rôle dans ce type de problème.Ce domaine de la mécanique des fluides s'intéresse à ce qui se passe lorsque l’on a affaire à plusieurs phases qui s’écoulent ensemble. Dans la majorité des cas il s'agit d'un milieu diphasique où une phase mineure en volume est dispersée dans la phase majeure. On peut distinguer en fonction du milieu majoritaire : Cette systématisation des phénomènes peut faire illusion : cela cache des problèmes de natures très différentes. Par exemple les bulles et leur interaction avec leur environnement constituent à elles seules un vrai problème physique que l'on doit aborder avant même de s'intéresser au problème diphasique. Pour le traitement théorique et numérique du problème on distingue les méthodes cinétique où l'on suit chaque élément de la phase diluée en lui appliquant les lois d'interaction "ad hoc" (par exemple dans l'équation de Mason-Weaver) et méthodes bifluides où des équations de Navier-Stokes couplées sont écrites pour chaque phase, moyennant certaines hypothèses sur le moyennage des phases (exemple de la méthode du volume de fluide. Cette méthode est plus économique mais pose souvent des problèmes de conditions aux limites où les hypothèses ne sont pas respectées. Il faut noter que les systèmes diphasiques sont susceptibles de montrer des instabilités spécifiques, un exemple remarquable étant le geyser. En taille et fraction suffisante les éléments dispersés peuvent affecter la turbulence.Les écoulements en milieu poreux sont présents dans de nombreux domaines comme l'hydrologie, les protections thermiques, etc. Il s'agit souvent de fluides homogènes mais on rencontre des cas hétérogènes comme dans l'extraction pétrolière. Ce sont par nature des écoulements de fluide à faible vitesse, généralement décrits par l'équation de Stokes à l'échelle du pore. La loi de Darcy établie expérimentalement est démontrable par prise de moyenne volumique ou homogénéisation sous cette condition. L'extension à des écoulements plus rapides (loi de Darcy-Forchheimer) se fait en introduisant un nombre de Reynolds. Pour les gaz on sait également traiter tous les régimes d'écoulement depuis le moléculaire jusqu'au continu (équation de Darcy-Klinkenberg). La quantité importante dans le domaine est la perméabilité. Celle-ci est mesurable. Elle a longtemps été évaluée théoriquement par des modèles utilisant des porosités de forme simple, respectant la porosité (par exemple la loi de Kozeny-Carman). Ces méthodes ont une prédictabilité limitée aux variations et non aux valeurs absolues. Ceci a changé avec l'avènement de la microtomographie qui permet une simulation numérique directe du phénomène à l'échelle du pore.La mécanique des fluides numérique consiste à étudier les mouvements d'un fluide, ou leurs effets, par la résolution numérique des équations régissant le fluide. En fonction des approximations choisies, qui sont en général le résultat d'un compromis en termes de besoins de représentation physique par rapport aux ressources de calcul ou de modélisation disponibles, les équations résolues peuvent être les équations d'Euler, les équations de Navier-Stokes, etc. La mécanique des fluides numérique a grandi d'une curiosité mathématique pour devenir un outil essentiel dans pratiquement toutes les branches de la dynamique des fluides, de la propulsion aérospatiale aux prédictions météorologiques en passant par le dessin des coques de bateaux. Dans le domaine de la recherche, cette approche est l'objet d'un effort important, car elle permet l'accès à toutes les informations instantanées (vitesse, pression, concentration) pour chaque point du domaine de calcul, pour un coût global généralement modique par rapport aux expériences correspondantes. Les méthodes ont porté non seulement sur le calcul proprement dit mais également sur le traitement des données issues de l'expérience (éventuellement numérique!). Cette discipline a prospéré grâce aux progrès des ordinateurs bien sûr mais aussi grâce à ceux de l'analyse numérique et de l'analyse tout court.
La mécanique des fluides est un domaine de la physique consacré à l’étude du comportement des fluides (liquides, gaz et plasmas) et des forces internes associées. C’est une branche de la mécanique des milieux continus qui modélise la matière à l’aide de particules assez petites pour relever de l’analyse mathématique mais assez grandes par rapport aux molécules pour être décrites par des fonctions continues.
xwikis
Dans les conditions habituelles, un solide est soumis à son poids. Chaque élément du solide (élément discret ou élément de matière isolé par l'esprit) a un poids propre, le poids de l'objet étant la résultante de tous ces poids. Pour simplifier l'étude, on considère que le solide est soumis à un poids unique, résultante des poids de ses composantes, et le centre de gravité, noté habituellement G, est le point d'application de cette force. L'analyse qui est faite pour le centre de gravité est en fait valable pour toutes les forces volumiques, et en particulier pour les forces d'inertie. On peut donc définir un centre d'inertie, qui est en fait confondu avec le centre de gravité lorsque le champ de gravité est homogène. Contrairement à un point matériel, un solide peut être soumis à une pression, c'est-à-dire à une force qui s'exerce sur une surface. Chaque élément de surface subit une poussée propre. Pour simplifier l'étude, on considère que le solide est soumis à une force unique, résultante des poussées de ses composantes, et le centre de poussée est le point d'application de cette force. De manière générale, le centre de poussée est distinct du centre de gravité. Lorsque la droite reliant le centre de poussée au centre de gravité n'est pas confondue avec la droite portant la résultante de la poussée, il en résulte un couple donc un basculement de l'objet.On appellera solide indéformable un ensemble de points tels que pris deux à deux, leur distance ne varie pas au cours du temps. Si les points sont discrets, on peut les noter "M", et doncLa mécanique du point peut s'appliquer en chaque point du solide, ou bien, dans le cas d'un solide continu, pour chaque élément infinitésimal de volume "dV" autour d'un point ("x", "y", "z"). Considérons le barycentre "G" des points du solide. Dans le cas d'un ensemble de points matériels discrets "M" et masse "m", on a : "O" étant l'origine du référentiel. Dans le cas d'un solide compact de masse formula_3 occupant un volume formula_4, on peut définir en chaque point une densité ρ, et les coordonnées du barycentre s'écrivent : En intégrant les lois de Newton sur le solide, on en déduit que le mouvement du barycentre lui-même peut être décrit par la mécanique du point ; on considère que les résultantes des forces du solide s'exercent sur le barycentre. Par exemple, si chaque élément de volume formula_8est soumis à un poids formula_9, alors on peut considérer que le barycentre est soumis au poids formula_10 avec On peut de même écrire le moment en chaque point du solide par rapport à une référence. En intégrant cette notion, on arrive à la notion de moment d'inertie et de moment cinétique. On a donc deux types d'actions à décrire, qui font intervenir deux modèles : les translations, avec le centre d'inertie et les lois de Newton, et les rotations, avec les moments. Pour synthétiser cela, on peut utiliser un objet mathématique appelé torseur.Soient formula_12 un champ de vecteurs appelés moment, formula_13 un vecteur appelé résultante et formula_14 deux points du solide, on dit que ces éléments sont liés par la relation de Varignon si : formula_15 On appelle torseur le champ de vecteurs formula_16, et il est défini de manière unique par la résultante formula_13 et le moment en un point donné formula_18. On le note : formula_19Soient formula_20 le champ des vecteurs vitesse du solide formula_21 dans un référentiel formula_22 et formula_23 l'origine de l'espace. On a : formula_24 une relation de Chasles nous donne alors formula_25 or, on montre qu'il existe formula_26 tel que formula_27 alors formula_28 on a alors une relation de Varignon, on peut donc définir un torseur appelé torseur cinématique : formula_29 où le champ des moments est le champ des vecteurs vitesse et où la résultante est le vecteur formula_26 appelé vecteur vitesse de rotation sa norme est la vitesse de rotation instantanée du solide.
La mécanique du solide est la partie de la mécanique qui s'intéresse aux objets que l'on ne peut réduire en un point matériel. Cela permet notamment de décrire et modéliser les rotations de l'objet sur lui-même.
xwikis
En français, le nom du pays a connu plusieurs variantes : appelé "Russie blanche" ou "Ruthénie blanche" dans les atlas du début du, puis "Biélorussie" (francisation du russe ) pendant toute la période soviétique, le pays, indépendant depuis 1991, est souvent nommé "Bélarus" dans les documents officiels. La dénomination officielle de l'ONU en français est "République de Bélarus" (proposée par le gouvernement biélorusse lui-même), adaptation française de la transcription approximative de. En revanche, la Commission nationale de toponymie (française), les ministères français des Affaires étrangères et de l'Éducation nationale, l'Académie française, l'Institut national de l'information géographique et forestière (IGN) et la Commission de toponymie du Québec recommandent l'usage du terme "Biélorussie". L'ambassadeur de Biélorussie en France a néanmoins redemandé à la Commission de toponymieLe Sud de la Biélorussie est pendant l'Antiquité le berceau des. D'après les fouilles archéologiques, ceux-ci se concentraient entre la VistuleL'ancêtre de la Biélorussie, la principauté de Polotsk, est mentionnée pour la première fois au. C'est alors un État peuplé par des Slaves de l'Est. En 1067, Minsk apparaît dans les chroniques. La principauté est incluse en 1129 dans la Rus' de Kiev. Lors de la séparation des Églises d'Orient et d'Occident, leurs souverains et populations choisissent l'obédience orthodoxe. Les invasions des Mongols et de la Horde d'or au provoquent laEn 1517, l'humaniste Francysk Skaryna publie la première bible en biélorusse ; c'est le premier témoignage imprimé de la langue. Au début du, lors de la grande guerre du Nord, la Biélorussie actuelle est traversée par les armées belligérantes : suédoise, puisLe pays est envahi par les troupes de Napoléon en 1812. Quelques mois plus tard, les Français doivent retraverser la Biélorussie et connaissent là un des épisodes les plus éprouvants de la campagne de Russie, le passage de la Bérézina. Une mission française a conduit sur ce site une première campagne de fouilles en 2012, au moment du bicentenaire. La recherche de vestiges des ponts et des fosses communes desAprès le traité de Brest-Litovsk entre l'Empire allemand et le gouvernement de Lénine, la Biélorussie se proclame indépendante le 25 mars 1918, et devient la République populaire biélorusse : Minsk est choisie comme capitale. Mais la Russie soviétique n'accepte pas cette indépendance, et envahit le pays. Depuis 1919, la Rada de la République démocratique biélorusse est en exil. En 2017, il s'agit du plus ancien gouvernement en exil. Le traité de Riga, signé le 18 mars 1921 après la guerre soviéto-polonaise, partage le territoire de la Biélorussie en deux : la partie occidentale est attribuée à la Deuxième République de Pologne, la partie orientale devient la République socialiste soviétique de Biélorussie en 1922, lors de la création de l'Union des républiques socialistes soviétiques. En septembre 1939, la Biélorussie polonaise sera le pointLe 24 octobre 1945, la Biélorussie devient membre de l’Organisation des Nations unies, tout comme l'Ukraine. L'Union soviétique dispose ainsi de trois voix à l'Assemblée générale des Nations unies. C'est aussi une récompense concédée par les Alliés pour l'effort de guerre exceptionnel du pays. À la proposition de Joseph Staline de doter chaque république socialiste soviétique d'un siège à l'ONU, Franklin D. Roosevelt proposa d'en faire autant pour chacun des quarante-huit États des États-Unis. On en resta finalement à ce compromis pour les seules Biélorussie et Ukraine. Le pays, meurtri par la guerre, se relève peu à peu ; l'industrialisation massive orchestrée par le régime stalinien, permettra la reconstruction des villes avant le début des années 1960. LeAprès un bref intermède démocratique en 1991-1992, la Biélorussie présente le 12 mars 1993 sa candidature au Conseil de l'Europe. Aujourd'hui, la Biélorussie n'en est toujours pas membre, et elle est le seul État européen à ne pas en faire partie. Le pays n'est pas accepté en raison de sa non abolition de la peine de mort et de son gouvernement peu démocratique. Après cet épisode, Alexandre Loukachenko produit un rapport qui mène à la destitution du président Stanislaw Chouchkievitch, pour corruption. Loukachenko est éluLa constitution de 1994 fait de la Biélorussie un État laïque. Les religions principales sont le christianisme orthodoxe et le catholicisme (notamment chez la minoritéLe président Alexandre Loukachenko a été élu en 1994 et réélu en 2001, 2006, 2010 et 2015. Il conduit une politique dirigiste sur le plan économique, et nationaliste dans ses relations extérieures. La majorité présidentielle le soutenant est formée notamment par : Le Loukachenko est réélu président de la République. Le déroulement de ces élections est contesté par le Conseil de l'Europe et par l'OSCE, alors que toute la Communauté des États indépendants qualifie le scrutin de transparent et ouvert. La « République de Bélarus » est parfois désignée comme la « dernière dictature d'Europe ». Le pays est classé dans les régimes autoritaires à partir de l'indice de démocratie qui le place auLe but des opposants biélorusses est de faire barrage au gouvernement d'Alexandre Loukachenko, qu'ils qualifient d'autoritaire, et d'établir une démocratie dans le pays. Au nom de la démocratie ou de la transition démocratique, à Vilnius en Lituanie, des camps de formation informatique ont été fondés pour les opposants à ces gouvernements qui. Ces TechCamps formentBien que leurs liens soient assez évidents avec les partis d'opposition, les associations n'inscrivent pas leur action dans un cadre purement politique. Reprenant le nom de l'animal emblématique de Biélorussie, "Zubr" est une organisation de jeunesse. Elle revendique environ. Le but de cette organisation est l'établissement de la démocratie en Biélorussie, l'intégration à l'Union européenne et à l'OTAN. Créée en 2001, cette organisation revendique une certaine filiation avec les Serbes de Otpor (étudiants serbes très actifs dans la lutte contre le gouvernement de Slobodan Milošević) et des Ukrainiens de Pora! (actifs dans la révolution orange). Au départ, cette association était surtout estudiantine, beaucoup deAvec la Russie, la Biélorussie s'est engagée en avril 1997, dans un processus d'union de type confédéral qui dépasserait les objectifs d'une simple union douanière et monétaire. La dépendance de Minsk en énergie et en termes de débouchés permet à Moscou de préserver son influence dans cette république slave. Fin 2006, la Biélorussie a ardemment négocié le prix de son gaz, qu'elle payait jusqu'à cette date pour (contre plus de alors sur le marché européen). Menaçant de couper les robinets à moins d'obtenir le prix qu'elle demandait, la Russie a obtenu un accord final "in extremis" le à un prix de pour. Elle a de plus obtenu une compensation, sous la forme de 50 % de titres dans la société gazière biélorusse "Beltransgaz" (dont le montant affiché de de dollars était estimé surévalué par lesÀ la suite de l'arrivée au pouvoir d'Alexandre Loukachenko en 1994, les relations bilatérales se sont détériorées et distancées. Bien qu'elles se soient améliorées depuis 2008, les résultats de l'élection présidentielle biélorusse de 2010, qui ont été contestés par l'opposition, et ont vu réélire Loukachenko, ont été source de nouvelles tensions.Après seize années à la tête de la République, Alexandre Loukachenko briguait sans surprise un quatrième mandat consécutif. Le scrutin de décembre 2010 le crédite de 79,67 % des voix. L'Organisation pour la sécurité et la coopération en Europe (OSCE) évoque un dépouillement « imparfait », et une élection « loin des principes démocratiques » Le dimanche, jour de la proclamation des résultats du scrutin, de nombreuses manifestations protestant contre la falsification des résultats sont émaillées de violencesEn signe de protestation contre les arrestations d'opposants au gouvernement, et après plusieurs années d'ouverture diplomatique, l'Union européenne et les États-Unis décident début 2011 une série de sanctions, faisant suite à celles initiées en 2006 (puis levées en 2008 après des concessions biélorusses). Fin janvier, les sanctions européennes prévoient le gel d'importants avoirs financiers et économiques, ainsi que l'interdiction de visa européenLe 15 février 2016, les ministres des affaires étrangères des États membres de l’Union européenne ont décidé, à l'unanimité de lever la quasi totalité des sanctions européennes frappant la Biélorussie. Trois entreprises et 170 personnalités biélorussesLes principales divisions administratives biélorusses sont les "voblasts" ("Вобласць" en biélorusse). Ces voblasts, au nombre de six, sont nommés d'après leur chef-lieu. Minsk, en tant que capitale et plusLa Biélorussie est située sur la bordure orientale de l'Europe, sans accès à la mer. Plus à l'est, c'est la Russie, avec laquelle elle partage de frontières. Au sud on rencontre l'Ukraine avec de frontières, à l'ouest la Pologne ( de frontières), au nord-ouest la Lituanie (), au nord la Lettonie (). Soit de frontières terrestres au total. La Biélorussie a une superficie de. Le territoire biélorusse est un territoire ouvert (sans limites naturelles précises) et dépourvu d'accès à la mer. Il s'agit d'une grande plaine de faible altitude ( d'altitude en moyenne), dont le point culminant est le mont chauve, appelé par les Soviétiques mont Dzerjinski (). Ce pays plat possède une des plus vastes régions marécageuses d'EuropeSelon un rapport de 2004 de la Banque mondiale, la Biélorussie « a rapidement retrouvé une croissance de son PIB après le choc économique initial résultant de son indépendance, a réduit les niveaux de pauvreté de façon significative, a maintenu une ample couverture de services de santé et d’éducation et a accompli cela sans un accroissement des inégalités. Les mesures politiques mises en place ont réussi à maintenir le niveau de vie et à réduire la pauvreté mieux que dans plusieurs économies en transition ». Après leurs études, les étudiants doivent travailler deux ans à un poste généralement assigné par leur centre universitaire n'importe où en Biélorussie. Toutes les professions sont concernées par le(Voir, par exemple, le site touristique officiel en polonais dans les liens extérieurs cités en dessous de cet article). La ville de Hrodna exerce une attraction importante du fait de son patrimoine religieux restauré qui appartient au catholicisme, à l'orthodoxie et au judaïsme. Les voyages en Biélorussie de touristes européens individuels sont plus difficiles qu'à l'intérieur de l'Union européenne : l'obtention d'un visa est obligatoire (le séjour doit être authentifié hôtel par hôtel s'il n'est pas organisé chez l'habitant), obligation d'une inscription dans des offices de l'immigration pour des voyages de plus de. Inversement, les voyages des Biélorusses en Europe dans l'espace Schengen leur occasionnent des difficultés similaires. Dans le sud du pays, certaines zones militaires sont interdites aux touristes européens, et aux citoyens biélorusses eux-mêmes. Mais surtout, dans le sud du pays, ce sont les zones contaminées par l'accident nucléaire de la centrale de Tchernobyl, en avril 1986, qui sont interdites aux touristes européens et étrangers. Toutefois, il est possible d'aller en certains lieux, en obtenant des « laisser-passer » ou dérogations de l'administration militaire biélorusse, le plus souvent délivrés à des citoyens biélorusses ou russes. Il faut justifier le sens de sa présence en ces lieux, dire si l'on connait quelqu'un, etc. Obtenir une autorisation est très long, avec un minimum d'attente de au moins une semaine, qui décourage souvent les visiteurs demandeurs. Globalement, la législation est plus favorables aux citoyens de Biélorussie, et aux visiteurs russes, et de la CEI. Les visiteurs étrangers qui contournent les ordres pour aller vers les zones interdites sont généralement expulsés de Biélorussie, avec signalement au tampon rouge sur les passeports et signalements à l'ambassade à l'étranger, qui refusera toute nouvelle demandeOn constate que la population du pays augmente entre 1960 et 1993, diminue entre 1993 et 2012, puis stagne depuis 2012. En 2005, la Biélorussie comptait dont 78 % de Biélorusses, 13 % de Russes, 5 % de Polonais et 2,3 % d'Ukrainiens. Les 0– représentent 16 % de la population, les 15– 68 %, les plus de 14,6 %. L'espérance de vie est de pour les hommes, et pour les femmes. Le taux de croissance de la population est de 0,4 % par an. La natalité est de, pour par femme, la mortalité de. La mortalité infantile est de. Le taux de migration est de 2,42 %. La population est majoritairement bilingue, et parle russe, ou possède des notions de cette langue, à plus de 85 %. Le pays a connu cinq crises démographiques majeures au cours de son histoire : Le taux de fécondité est estimé à 1,71 enfant par femme en 2015.Les langues officielles de la Biélorussie sont le biélorusse, qui est la langue nationale du pays et la langue maternelle de 53 % des Biélorusses, et, depuis 1995, le russe, qui est la langue maternelle de 42 % de la population du pays. La population est majoritairement bilingue, et parle ainsi également le russe, ou possède des notions de cette langue, à 84 % (soit en 2009). La langueLa Biélorussie possède le nombre de lits d'hôpitaux pour le plus élevé au monde.Le hockey sur glace est le sport national en Biélorussie. La Biélorussie est au classement IIHF et a comme meilleur résultat une aux Jeux olympiques de 2002. Ses meilleurs joueurs sont Ouladzimir Dzianissaw, Mikhail Hrabowski, Andreï Kastsitsyne et Sergei Kostitsyn. Le Championnat du monde de hockey sur glace s'est disputé en Biélorussie du 9 mai au <time>25 mai 2014</time> dans la ville de Minsk. En football, l'équipe nationale biélorusse ne s'est jamais qualifiée pour la phase finale d'une grande compétition internationale (Coupe du Monde, Euro) depuis son indépendance en 1990. Néanmoins, la Biélorussie compte quelques bons joueurs tels que Vitali Kutuzov (notamment passé dans de grands clubs italiens comme le Milan AC, l'UC Sampdoria ou Parme AC) mais surtout, avec Aliaksandr Hleb, un joueur de classe mondiale, qui a réalisé de grandes performances dans tous les clubs où il est passé (VfB Stuttgart, Arsenal FC, FC Barcelone...) et qui joue désormais au FK Isloch Minsk Raion. Hleb avait été transféré d'Arsenal à Barcelone en 2008 pour d'euros. Le football biélorusse a fait parler de lui en 2008 avec la qualification du club phare biélorusse, le FK BATE Borisov pour les phases de poules de la Ligue des champions, ce qui constitue un exploit historique pour la Biélorussie. Lors des tours préliminaires, le FK BATE Borisov avait éliminé les Belges du RSC Anderlecht puis les Bulgares du Levski Sofia qui étaient des adversaires supérieurs sur le papier. Le BATE Borisov a de nouveau participé aux phases de poules de la Ligue des champions en 2012 et en 2014. L'équipe nationale masculine de handball s'est déjà qualifiée neuf fois pour la phase finale d'une grande compétition internationale "( à l'Euro 1994, au Mondial de 1995, à l'Euro 2008, au Mondial de 2013, à l'Euro 2014, au Mondial de 2015, à l'Euro de 2016, au Mondial de 2017, à l'Euro de 2018)" depuis son indépendance en 1990, tandis que leurs homologues féminines se sont quant à elles qualifiées six fois pour une phase finale "( au Mondial de 1997, au Mondial de 1999, à l'Euro 2000, à l'Euro 2002, à l'Euro 2004, à l'Euro 2008)". La Biélorussie compte et a compté quelques joueurs de talents tels que Mikhaïl Iakimovitch, vainqueur de cinq Ligues des champions, de quatre Coupes des coupes, d'une Coupe EHF ainsi que de deux Supercoupes d'Europe, ou Aleksandr Toutchkine, vainqueur de cinq Ligues des champions, d'une Coupe des coupes et d'une Coupe des Villes. On peut également citer des joueurs tels que Andrej Klimovets, Dimitri Nikulenkau ou encore Siarhei Rutenka, vainqueur de six Ligues des champions et de deux SupercoupesLa Biélorussie a pour code :
La Biélorussie ou Bélarus, en forme longue la république de Biélorussie ou la république du Bélarus, est un pays d'Europe orientale sans accès à la mer, bordée par la Lettonie au nord, par la Russie au nord-est et à l'est, par l'Ukraine au sud, par la Pologne à l'ouest et par la Lituanie au nord-ouest. « Biélorussie » est le terme par la Commission d'enrichissement de la langue française. « Bélarus » est la francisation du nom du pays en biélorusse :, en russe : ou, adopté par les Nations unies.
xwikis
Avant de devenir une science à part entière, la mécanique a longtemps été une section des mathématiques. De nombreux mathématiciens y ont apporté une contribution souvent décisive, parmi eux des grands noms tels que Euler, Cauchy, Lagrange... Jusqu'à la fin du, la mécanique a été le domaine applicatif naturel des mathématiques, le domaine dans lequel on pouvait tenter de faire entrer les faits expérimentaux dans le cadre rigoureux des mathématiques. Inversement, certains problèmes de mécanique ont donné naissance ou orienté l'intérêt des mathématiciens vers des théories telles que la géométrie ou les équations différentielles. Historiquement, la mécanique statique a été le premier domaine étudié par les savants. De l'Antiquité jusqu'au Moyen Âge des notions fondamentales telles que « l'équilibre », le célèbre « bras de levier » d'Archimède ou encore la notion beaucoup plus abstraite de « force » ont été étudiées. Plus tard, l'intérêt s'est porté vers la « dynamique », c'est-à-dire les phénomènes qui régissent le mouvement des solides, domaine dans lequel Galilée, pour la chute des corps, et Newton dans ses célèbres "Philosophiae Naturalis Principia Mathematica" ont apporté des contributions décisives. Toutefois, jusqu'à la fin du, la mécanique se séparait en deux branches : la mécanique du point d'un côté et la mécanique des fluides de l'autre. Dans le cas de la mécanique du point, les objets étudiés sont supposés implicitement indéformables et le mouvement du solide complet peut alors être décrit par le mouvement d'un de ces points remarquables : le « centre de gravité ». Il a fallu attendre le courant du pour voir apparaître les premières théories des solides "déformables" qui allaient permettre de réunir la mécanique des solides et la mécanique des fluides dans un même cadre, celui de la mécanique des milieux continus. Parallèlement, un autre formalisme prenait naissance pour expliciter le mouvement des solides : Lagrange, dans un premier temps, puis Hamilton ont développé une approche dite analytique qui prenait comme axiome non plus l'équilibre des forces et de l'accélération mais l'existence d'un potentiel d'énergie minimal auquel obéit tout mouvement de solide. On peut démontrer que cette approche est rigoureusement équivalente à l'approche newtonienne ; elle permet toutefois de développer un formalisme radicalement différent. Les principaux domaines de la physique ayant recours à la « mécanique analytique » sont la physique du solide et le mouvement de mécanismes complexes tels que les bras de robot. Au début du, Einstein a développé sa célèbre théorie de la relativité et a mis en évidence les insuffisances de la mécanique telle qu'elle a été décrite par Newton. Toutefois, il s'avère que cette dernière constitue un cas particulier de la théorie de la relativité dès lors que l'on considère des vitesses relativement faibles. On a alors défini la "mécanique newtonienne", ou "mécanique classique", comme le domaine de la physique qui décrit les mouvements des corps à des vitesses faibles devant celle de la lumière (soit très inférieures à 300 000 km/s environ). Dans ce domaine, tout en étant plus simple, elle fournit des résultats très voisins de ceux de la relativité restreinte, adaptée quant à elle à tous les domaines de vitesse. Conceptuellement, la mécanique a connu trois révolutions : Au, les développements en mécanique classique se trouvent entre autres en théorie du chaos.La mécanique newtonienne est classiquement découpée en domaines selon le point de vue adopté : On distingue ainsi la cinématique du point de la cinématique du solide,... On peut résumer ces deux types de découpage dans le tableau suivant :
La mécanique newtonienne est une branche de la physique. Depuis les travaux d'Albert Einstein, elle est souvent qualifiée de mécanique classique.
xwikis
Du grec ', « ventre », « estomac », et de ', « loi », la gastronomie est littéralement. Le terme est attesté de façon isolée dès le. Il renvoie à un poème grec perdu d'Archestrate (), poème mentionné dans le "Banquet des sophistes", traité culinaire rédigé par le Grec Athénée. L'article de l’"Encyclopédie", qui traite de ce sujet, s'appelle. Le terme apparaît pour la première fois dans le titre d'un poème de Joseph Berchoux, en 1801, "Gastronomie ou l'homme des champs à table". Le dérivé est devenu d'un usage courant, depuis la parution de l'ouvrage de Brillat-Savarin, "Physiologie du goût". Selon Brillat-Savarin : Au, le sens de ce terme a progressivement évolué vers : Il est à souligner l'apport fait par Ziryab (789-857), qui fut considéré en Andalousie comme l'arbitre des élégances et du bon goût. Originaire de Bagdad, il vécut à Cordoue et fixa le premier les règles du service des mets au cours d'un repas. Paul Balta, directeur honoraire du Centre d’études de l’Orient contemporain, explique :La gastronomie est un ensemble de connaissances et de pratiques concernant l'alimentation, lorsqu'il n'est plus indispensable d'avoir faim pour manger. Le mot se prête à de nombreuses définitions et à des acceptions qui s’avèrent être bien souvent contradictoires.Au, on définit généralement et vaguement la gastronomie comme une manière particulièrement attentive, souvent considérée comme élitiste, de cuisiner et, surtout, de déguster des aliments,... Son objectif étant de plus que de répondre à un besoin vital, la gastronomie suit ou édicte des règles variables d'un pays à l'autre et dans le temps. Elles sont basées sur des techniques culinaires éventuellement très élaborées et des principes de dégustation faisant aller au-delà du plaisir immédiat, principes extrêmement variables selon les pays et les civilisations. L'exercice de la gastronomie requiert donc un savoir, tant pour préparer que pour déguster et, en principe, le sens de la convivialité. On affirme que l'art de préparer un repas gastronomique est celui du cuisinier, et que l'art de le bien déguster est celui du gastronome.En tant qu'ensemble de connaissances et de pratiques, la gastronomie est peu à peu considérée comme une culture. Constituant un élément approprié et reconnu par la majorité des classes sociales d'une région ou d'un pays, la gastronomie constitue l'une des composantes de la, synthèse des savoir-faire et des traditions (populaires comme élitaires) quant au boire et au manger. À ce titre, elle constitue un patrimoine immatériel dont divers pays ont demandé l'inscription sur la liste du patrimoine mondial de l'Unesco. Chacun voyant midi à son clocher, les goûts différant à l'aune de l'éducation et des moyens financiers, de nombreux pays sont candidats. Le, le repas gastronomique des Français est l'intitulé sous lequel l'histoire, l'originalité et l'identité des repas gastronomiques français ont été inscrites sur la liste représentative du patrimoine culturel immatériel de l'humanité, par l'UNESCO. C'est la première fois que des traditions culinaires sont enregistrées dans cette liste. La gastronomie est objet d'études et de recherches scientifiques un peu partout dans le monde.La gastronomie peut paraître un luxe, en raison du coût élevé de certains aliments et des prix de la restauration de haut niveau (cuisiniers maîtrisant des techniques précises, élaborant des mets composés de produits de haute qualité gustative, éventuellement inédits). Des convives fortunés voyageant à travers le monde, pouvant s'attarder à table et ayant la curiosité d'une littérature spécialisée, se constituent une culture gastronomique étendue plus facilement que les gourmets aux moyens financiers limités, qui peuvent, néanmoins, se considérer comme tout autant gastronomes. La gastronomie concerne aussi des produits simples et des recettes de tous les jours qui peuvent, autant que les mets luxueux, participer à l'éducation gustative et à l'entraînement à la dégustation. Celui qui s'applique à déguster avec attention un plat simple, en mémorisant ses sensations, dans des conditions de, témoigne d'un comportement de gastronome, contrairement à celui qui mange ce même plat distraitement, simplement pour se nourrir, combler sa faim ou s'attabler par convention.Charles Fourier, dans l'élaboration utopique d'un monde meilleur, donne une place essentielle au goût qui concerne, dit-il, quatre fonctions : la gastronomie, la cuisine, la conserve et la culture. La combinaison de ces fonctions engendre la gastrosophie, où la gastronomie devient une science destinée à offrir à tous les. , dit Kilien Stengel.Les règles de la gastronomie varient selon les classes sociales, les nations, les régions, les époques et les modes. Les différences sont, ou furent, liées aux ressources alimentaires locales, les classes aisées ayant en principe une culture de table plus vaste. Cela fut sensible au. Les principes socioculturels, en particulier religieux, sont particulièrement importants dans certains univers. S'il existe une gastronomie que l'on peut dire, au temps du Fooding, les habitudes gastronomiques locales, régionales et nationales demeurent assez solidement ancrées. Depuis les années 2010, la philosophie du mouvement du "social dining" permet à des particuliers passionnés ou des chefs cuisiniers de partager des repas à leurs domiciles. Il n'y a d'ailleurs pas contradiction entre l'attachement aux traditions et aux recettes locales et la curiosité envers l'inédit. De nombreux amateurs de bonne chère sont ouverts aux diverses cultures de table et apprécient ce qui vient d'ailleurs : la seule lecture d'innombrables cartes de restaurants, à Paris, Londres, Moscou ou Tokyo, le proclame. Cette ouverture s'est surtout avérée à partir du, lorsque les gourmets ont découvert d'autres terroirs que ceux de leur province, d'autres habitudes alimentaires que celles de leur ville ou de leur bourg. Les diverses cultures gastronomiques asiatiques, fort différentes les unes des autres, ne sont d'évidence pas celles de l'Occident, où l'on s'attable de façons fort diverses de part et d'autre des frontières. Cela malgré la relative uniformisation de la haute gastronomie, de plus en plus indifférente aux terroirs : les grands chefs privilégient en principe les produits locaux mais font, pour l'essentiel, leur marché au loin, étant donné les facilités de transport, les nouvelles possibilités de conservation, etc. La plupart de ces chefs voyagent beaucoup, font des stages, puis dirigent des restaurants à l'étranger. Les religions ont leur importance, bien que les gastronomes reconnus, ou se voulant tels, n'y fassent que prudemment référence : les gourmets de confession musulmane ou juive ne partagent pas forcément les préférences des gastronomes chrétiens, bouddhistes, etc., en raison des interdits religieux plus ou moins respectés et des habitudes communautaires. L'origine sociale, l'éducation et les ressources financières jouent également beaucoup. Déguster des caviars et les différencier, par exemple, n'est pas à la portée de tous. Les différences gastronomiques dépendent aussi de principes techniques et artistiques. La cuisine évolue comme les sciences et d'autres arts, avec lesquels elle peut avoir des relations ; on évoque souvent la gastronomie moléculaire révélée par Hervé This ou Pierre Gagnaire, depuis le début du. Le répertoire gastronomique dit propose des préparations s'écartant de celles de la cuisine dite.En 1950, le, les journalistes de renom Jean Valby et Curnonsky et les chefs Louis Giraudon et Marcel Dorin relancent la confrérie de la Chaîne des rôtisseurs et en font l'Association mondiale de la gastronomie (toujours active aujourd'hui dans 70 pays).
La gastronomie est l'ensemble des règles (fluctuantes, selon pays, classes sociales et modes) qui définissent l'art de faire bonne chère.
xwikis
En physique, un référentiel peut être défini à l'aide d'un système de coordonnées de l'espace-temps lié à un observateur (réel ou imaginaire), c'est-à-dire immobile par rapport à lui, composé de trois coordonnées d'espace et d'une coordonnée de temps, utilisé pour définir les notions de position, de vitesse et d'accélération. Une définition semblable est : c'est un système de coordonnées de l'espace de dimension 3 dont l'origine est un corps ponctuel réel ou imaginaire (en y ajoutant une mesure du temps, considéré comme universel en physique classique). Un référentiel réel doit être matérialisé : une origine définie par un corps identifiable, des axes ou système de coordonnées définis par des corps ou du moins par des notions expérimentables. Une hypothèse, jamais encore démentie, est que l'espace peut être considéré comme euclidien, au moins localement (sur de "courtes distances"). Habituellement on privilégie les référentiels galiléens, et en choisissant une base orthogonale (au sens de la géométrie de l'espace-temps) de trois vecteurs orthonormés d'espace (repère cartésien, repère orthonormé), un marqueur du temps. Ainsi, les données physiques du mouvement d'un objet sont données en fonction de ce référentiel.Un "référentiel galiléen" est un référentiel où une masse ponctuelle isolée (i.e. soumis à aucune force) est en translation rectiligne uniforme. La première loi de Newton suppose l'existence d'une telle catégorie de référentiels. Il est à noter que la plupart des référentiels usuels ne sont pas parfaitement galiléens, mais que, sur les durées considérées dans les expériences, les phénomènes liés à leur caractère non galiléen restent négligeables devant les autres phénomènes.Le référentiel terrestre est le référentiel le plus utilisé : il est centré en un point de la Terre, et ses axes sont liés à la rotation terrestre : un homme « immobile » est donc fixe dans le référentiel terrestre. Le référentiel terrestre peut être considéré comme galiléen dans les expériences usuelles. Il faut une chute libre commençant à une hauteur considérable pour mettre en évidence la déviation vers l'est, due à la rotation terrestre. On peut considérer en première approximation le référentiel terrestre comme galiléen lorsque la durée de l'expérience est très inférieure à la période de rotation de la Terre ou lorsqu'il est évident que l'effet de cette rotation est négligeable par rapport à d'autres facteurs.Le référentiel géocentrique a pour origine le centre de masse de la Terre et ses axes sont définis par rapport à trois étoiles suffisamment lointaines pour sembler immobiles. Deux de ces étoiles peuvent être, par exemple, l'étoile polaire et Beta du Centaure. Ainsi, il n'est pas solidaire de la Terre dans son mouvement de rotation autour de l'axe de ses pôles. Ce référentiel peut être considéré comme galiléen sur des expériences « peu longues », dont la durée est très brève devant une année, car la révolution de la Terre autour du Soleil n'est alors pas prise en compte.Le référentiel de Copernic est le référentiel centré sur le centre de masse du système solaire et dont les axes pointent vers trois étoiles éloignées. Le référentiel de Copernic peut être considéré comme galiléen quand l'expérience est d'une durée brève devant le mouvement du système solaire dans la Galaxie, donc d'une durée très inférieure à ~225-250 millions d'années. Ce référentiel est adapté à l'étude du système solaire.Le référentiel de Kepler (ou "référentiel héliocentrique") est le référentiel centré sur le centre de masse du Soleil et dont les axes sont parallèles à ceux du référentiel de Copernic. Les expériences prouvent que l'on peut le considérer comme galiléen avec une très bonne précision.Le référentiel barycentrique, aussi appelé référentiel du centre de masse, est le référentiel en translation par rapport à un référentiel de référence R (choisi généralement galiléen) et dans lequel le centre de masse est immobile. On lui associe souvent un système de coordonnées ayant pour origine le centre de masse du système considéré et un système d'axes colinéaires à ceux du référentiel de référence R. Mais ces choix de centre et d'axes ne sont pas obligatoires. Ce référentiel est particulièrement utilisé dans le cadre des théorèmes de König. "Remarque" : Ce référentiel n'est pas nécessairement galiléen.
En physique, il est impossible de définir une position ou un mouvement par rapport à l'espace « vide ». Un référentiel est un solide (un ensemble de points fixes entre eux) par rapport auquel on repère une position ou un mouvement. Un dispositif servant d'horloge est également nécessaire pour pouvoir qualifier le mouvement et définir la notion de vitesse. Un exemple classique de référentiel est le référentiel terrestre qui est lié à la Terre.
xwikis
Le concept d’angle et de rayon était déjà utilisé lors du millénaire L’astronome Hipparque créa une table trigonométrique qui donnait la longueur de la corde pour chaque angle, et il utilisait les coordonnées polaires pour établir les positions des étoiles. Dans "Des spirales", Archimède étudia la spirale d'Archimède, dans laquelle le rayon est fonction de l’angle. Cependant les Grecs ne l’étendront pas à un système de coordonnées complet. Il existe plusieurs versions de l’introduction des coordonnées polaires comme système de coordonnées formel. Grégoire de Saint-Vincent et Bonaventura Cavalieri ont indépendamment introduit ce concept dans le milieu du. Saint-Vincent a écrit sur ce thème en 1625 et a publié son travail en 1647, pendant que Cavalieri publia ses écrits en 1635, une version corrigée vit le jour en 1653. Cavalieri a d’abord utilisé les coordonnées polaires pour résoudre un problème relatif à l’aire sous une spirale d'Archimède. Blaise Pascal usait largement des coordonnées polaires pour calculer la longueur de paraboles. Dans "Méthode des Fluxions" (écrit en 1671, publié en 1736), Isaac Newton étudia les transformations entre les coordonnées polaires, qu'il appelait "Seventh Manner; For Spirals", et neuf autres systèmes de coordonnées. Dans le journal "Acta Eruditorum" (1691), Jacques Bernoulli utilisa un système avec un point et une droite, appelés respectivement le pôle et l'axe polaire. Les coordonnées étaient déterminées par leur distance au pôle et leur angle par rapport à l'axe polaire. Bernoulli utilisa même ce système pour déterminer le rayon de courbure de courbes exprimées dans ce système. Le terme actuel de coordonnées polaires a été attribué à Gregorio Fontana et a été utilisé par les écrivains italiens du. Le terme apparait en anglais pour la première fois dans la traduction de 1816 effectuée par George Peacock du "Traité du calcul différentiel et du calcul intégral" de Sylvestre-François Lacroix. Alexis Clairaut fut le premier à penser à étendre les coordonnées polaires en trois dimensions, et Leonhard Euler a été le premier à vraiment les développer.Chaque point du plan est déterminé par les coordonnées polaires, qui sont la coordonnée radiale et la coordonnée angulaire. La coordonnée radiale (souvent notée "r" ou "ρ", et appelé rayon) exprime la distance du point à un point central appelé pôle (équivalent à l’origine des coordonnées cartésiennes). La coordonnée angulaire (également appelée angle polaire ou azimut, et souvent notée "t" ou "θ") exprime la mesure, dans le sens trigonométrique, de l’angle entre le point et la demi-droite d’angle 0°, appelé axe polaire (équivalent à l’axe des abscisses en coordonnées cartésiennes). Par exemple, le point de coordonnées polaires (3 ; 60°) sera placé à trois unités de distance du pôle sur la demi-droite d’angle 60°. Le point (–3 ; –120°) sera au même endroit car une distance négative sera considérée comme une mesure positive sur la demi-droite opposée par rapport au pôle (tournée de 180° par rapport à la demi-droite d’origine). L’un des aspects importants du système de coordonnées polaires, qui n’est pas présent dans le système cartésien, est qu’il existe une infinité de coordonnées polaires désignant un même et unique point. En effet, on peut rajouter des mesures d’un tour complet sans affecter l’emplacement du point. Par exemple, le point (3 ; 420°) est confondu avec le point (3 ; 60°). En général, le point ("r" ; "θ") peut être représenté par ("r" ; "θ" ± 2"n"π) ou (−"r" ; "θ" ± (2 "n" + 1)π), où "n" est un entier quelconque et les angles sont notés en radians. Les coordonnées arbitraires (0 ; "θ") sont conventionnellement utilisées pour représenter le pôle, sans se soucier de la valeur attribuée dans ce cas à l’angle "θ", un point de rayon "r" = 0 sera toujours sur le pôle. Pour obtenir un unique représentant du point, on limite le rayon aux réels positifs et l’angle entre –180° et 180° (ou 0° et 360°), ou si l’on utilise les radians entre –π et π (ou 0 et 2π). On dit que l’angle est donné modulo 360° ou 2π. L’angle en notation polaire est généralement donné en degrés ou radians, en utilisant la convention 2π = 360°. Le choix dépend du contexte. En navigation, les degrés sont de rigueur, alors que certaines applications physiques (comme l’étude des rotations en mécaniques) et la plupart des mathématiques utilisent les radians.Les deux coordonnées polaires "r" et θ peuvent être converties en coordonnées cartésiennes "x" et "y" en utilisant les fonctions trigonométriques sinus et cosinus : Deux coordonnées cartésiennes "x" et "y" permettent de calculer la première coordonnée polaire "r" par : Pour déterminer la seconde (l’angle θ), on doit distinguer deux cas : Pour obtenir "θ" dans l’intervalle [0, 2 π[, on utilise les formules suivantes (arctan désigne la réciproque de la fonction tangente) : Pour l’obtenir dans l’intervalle ]–π, π], on utilise les formules : Pour obtenir "θ" dans l’intervalle ]–π, π[, on peut également utiliser la formule suivante, plus concise : qui est valable pour tout point du plan à l'exception du demi-axe des abscisses négatives. On peut aussi utiliser la fonction atan2 : ou encore la fonction arccos ou arcsin : voir Nombre complexe#Coordonnées polaires.Une équation qui définit une courbe algébrique exprimée en coordonnées polaires est connue sous le nom d’équation polaire. Dans la plupart des cas, une telle équation peut être spécifiée en définissant "r" comme une fonction de θ. La courbe résultante est alors formée des points du type ("r"("θ") ; "θ") et peut être vue comme le graphe de la fonction polaire "r". Différentes formes de symétries peuvent être déduites de l’équation d’une fonction polaire. Si "r"(–θ) = "r"(θ) alors la courbe est symétrique par rapport à l’axe horizontal (les demi-droites 0° et 180°). Si "r"(π – "θ") = "r"("θ"), la courbe sera symétrique par rapport à l’axe vertical (90° et 270°). À cause du caractère circulaire des coordonnées polaires, beaucoup de courbes peuvent être décrites par une équation polaire simple, alors que leur équation cartésienne serait beaucoup plus compliquée. Quelques courbes polaires les plus connues sont : la spirale d'Archimède, le lemniscate de Bernoulli, le limaçon de Pascal ou encore la cardioïde.L'équation générale d'un cercle de centre ("r" ; "φ") et de rayon "a" est : Dans de nombreux cas, cette équation est simplifiée. Par exemple,Une rosace est une courbe très connue qui ressemble à des pétales de fleurs, et qui peut être exprimée par une simple équation polaire : pour n'importe quelle constante réelle "φ". Si "k" est un entier, cette équation produit une fleur avec 2"k" pétale(s) si "k" est pair, et "k" pétale(s) si "k" est impair. Si "k" est un nombre rationnel, l'équation produit une courbe en forme de fleur dont les pétales se chevauchent. Ces équations ne peuvent fournir de courbe en forme de fleur à 2, 6, 10, 14... pétales. La constante réelle "a" détermine la longueur d'un pétale du centre à son extrémité.La spirale d'Archimède est une spirale découverte par Archimède, qui peut être également exprimée à partir d'une équation polaire : Changer le paramètre fait tourner la spirale autour du pôle, alors que détermine la distance entre les bras, qui pour une spirale donnée est constante. Une spirale d'Archimède possède deux bras, connectés au pôle : l'un pour et l'autre pour, lorsque, et alors chaque bras est le symétrique de l'autre par rapport à l'axe vertical (90°/270°). Cette courbe est l'une des premières courbe, après les coniques, à être décrite par des termes mathématiques et à être un exemple de courbe simplement exprimée en coordonnées polaires.Une conique avec un foyer confondu avec le pôle et un autre sur l'axe polaire (0°), le grand axe étant confondu avec l'axe polaire) est donnée par l'équation : où "e" est l'excentricité et "p" est appelé paramètre de la conique, et correspond à la longueur du segment perpendiculaire au grand axe joignant le foyer à la courbe. Si "e" > 1 l'équation définit une hyperbole, si "e" = 1, une parabole, si "e" < 1 une ellipse. Enfin pour "e" = 0 on obtient un cercle de rayon "p".Chaque nombre complexe peut être représenté par un point dans le plan complexe, et de plus peut être exprimé par ses coordonnées cartésiennes (appelé forme algébrique du nombre complexe) ou par ses coordonnées polaires. La forme algébrique d'un nombre complexe "z" est de la forme : où "x" et "y" sont des réels et est l'unité imaginaire. Sa forme polaire est (donnée par les formules données plus haut) : où "r" est un réel positif non nul et θ un réel. De là on en déduit :
Les coordonnées polaires sont, en mathématiques, un système de coordonnées curvilignes à deux dimensions, dans lequel chaque point du plan est entièrement déterminé par un angle et une distance. Ce système est particulièrement utile dans les situations où la relation entre deux points est plus facile à exprimer en termes d’angle et de distance, comme dans le cas du pendule. Dans ce cas, le système des coordonnées cartésiennes, plus familier, impliquerait d’utiliser des formules trigonométriques pour exprimer une telle relation.
xwikis
Sur une droite affine formula_1, un repère est la donnée de : Dans ce cas, labscisse du point formula_14 est l'unique réel formula_11 tel que : formula_16. Il y a donc une correspondance entre les points d'une droite affine et l'ensemble des réels. "Remarque : Il existe des systèmes de graduation non régulière mais le repère n'est plus appelé cartésien (voir échelle logarithmique)."Dans un plan affine, les coordonnées cartésiennes sont sans doute la manière la plus naturelle de définir un système de coordonnées. Un repère (cartésien) du plan affine formula_17 est la donnée conjointe de : Les axes de coordonnées sont les droites affines formula_22 et formula_23. Ces droites admettent des graduations respectives fournies par formula_2 et les vecteurs formula_19 et formula_20. Par un point formula_14, on est en droit de tracer : Le couple de réels formula_38 est uniquement déterminé par le point formula_14, on l'appelle les coordonnées de formula_14 dans le repère formula_41 : Réciproquement, à tout couple formula_38, correspond un "unique" point formula_14 de coordonnées d'abscisse formula_31 et d'ordonnée formula_36. C'est le point d'intersection des deux droites suivantes : Cette construction peut être interprétée comme la mise en place d'un parallélogramme de sommets formula_2 et formula_14. En termes vectoriels, on obtient l'identité suivante : Ce qui permet de faire une correspondance entre le calcul sur des coordonnées et le calcul vectoriel.Les bases orthonormées n'ont de sens que dans les plans affines "euclidiens". Dans un plan affine euclidien, une base formula_41 est dit orthonormée lorsque les vecteurs formula_19 et formula_20 sont d'une part de longueur 1 (de norme 1) et d'autre part orthogonaux, c'est-à-dire que le produit scalaire des deux vecteurs est nul. Autrement dit, les axes de coordonnées sont deux droites affines orthogonales avec le même système de graduation. Dans ce cas, on peut calculer des distances et des orthogonalités en utilisant le théorème de Pythagore. Voici un formulaire : Le calcul des distances et des angles étant souvent un objectif de la géométrie plane euclidienne, on privilégie particulièrement les repères orthonormés. À tel point que certains ouvrages réservent le terme de coordonnées cartésiennes à ce type de repère, les autres coordonnées étant appelées "coordonnées obliques".Le principe de construction sera le même. Dans un espace affine formula_75 de dimension 3, un repère (cartésien) est la donnée conjointe de : Les axes de coordonnées sont les droites affines concourantes formula_80, formula_81 et formula_82. Pour un point formula_14, on est en droit de tracer : Le triplet de réels formula_96 est uniquement déterminé par la position du point formula_14. Il s'appelle les coordonnées (cartésiennes) de formula_14 dans le repère formula_99 : Réciproquement, à tout triplet de réels formula_96 correspond un "unique" point formula_14 d'abscisse formula_31, d'ordonnée formula_36 et de cote formula_95. Ce point s'obtient comme l'intersection : Ces trois plans ainsi que les trois plans de bases formula_92, formula_88 et formula_84 dessinent un parallélépipède. Il y a correspondance biunivoque entre tout point formula_14 et tout triplet de réels appelés alors système de coordonnées de formula_14. De même que dans le plan, ces coordonnées se réinterprètent via l'écriture vectorielle :Dans un espace affine euclidien de dimension 3, un repère formula_99 est dit orthonormé lorsque les vecteurs formula_19, formula_20, et formula_79 sont unitaires et deux à deux orthogonaux. Cette deuxième condition s'écrit : Comme dans le plan, il sera nécessaire de prendre un repère orthonormé si l'on désire travailler sur des distances et des angles. La distance s'écrira alors:Les observations précédentes permettent de remarquer un lien entre couple ou triplet de réels et vecteurs du plan ou de l'espace. Ce lien se généralise à tout espace vectoriel ou affine de dimension finie sur un corps K. Si formula_131 est une base d'un espace vectoriel sur un corps K alors, pour tout vecteur formula_4, il existe un unique "n"-uplet formula_133 élément de K tel que : Ce "n"-uplet est appelé système de coordonnées cartésiennes du vecteur formula_4 dans la base formula_136). La correspondance entre chaque vecteur et chaque "n"-uplet permet de construire un isomorphisme d'espaces vectoriels entre V et K. Pour travailler sur des systèmes de coordonnées de points, il suffit d'ajouter à la base précédente un point "O" appelé origine. Les coordonnées du point "M" étant celles du vecteur formula_137. Enfin, pour travailler sur des distances, il sera nécessaire de construire une base orthonormale (dans laquelle tous les vecteurs sont de norme 1 et chaque vecteur est orthogonal à tous les autres). La distance "OM" s'exprimera alors sous la forme suivante :Les quantités cinématiques, position, vitesse et accélération sont données par : formula_139Les coordonnées cartésiennes ont été imaginées par Descartes au et ont été largement utilisées par la suite en mécanique newtonienne pour décrire l'espace physique selon trois dimensions (souvent symbolisées par les lettres "x", "y", "z"). La relativité restreinte a constitué une véritable révolution scientifique, et a amené dès les années 1900 des scientifiques comme Henri Poincaré et Hermann Minkowski à concevoir l'espace et le temps comme indissociablement liés, dans ce que l'on appelle l'espace-temps, théorisé par la notion d'espace de Minkowski. Aux trois dimensions d'espace s'ajoute ainsi la quatrième dimension du temps. Dans cette théorie, Minkowski utilise une représentation simplifiée de l'espace-temps en coordonnées cartésiennes, le diagramme de Minkowski, avec une dimension d'espace et la dimension de temps (symbolisée par "ct", où "c" est la vitesse de la lumière et "t" le temps), pour rendre compte de phénomènes tels que la dilatation du temps, la contraction des longueurs ou encore la notion de simultanéité, sans utiliser d'équation mathématique.L'introduction des coordonnées cartésiennes est faite dans le livre premier de la géométrie de René Descartes comme un outil afin de résoudre le problème de Pappus. Il montre en fait dans ce livre, comment résoudre un problèmes géométrique par un calcul algébrique, participant à la naissance de la géométrie analytique.
Un système de coordonnées cartésiennes permet de déterminer la position d'un point dans un espace affine (droite, plan, espace de dimension 3, etc.) muni d'un repère cartésien. Le mot "cartésien" vient du mathématicien et philosophe français René Descartes.
xwikis
L'unité de vitesse angulaire du Système international est le radian par seconde (rad/s ou ). On ne doit pas l'exprimer en hertz (Hz) auquel le radian par seconde n'est pas réductible. Dans les domaines de la mécanique industrielle et de la vie courante, on l'exprime souvent en tours par minute (tr/min). On peut aussi utiliser des degrés par seconde et des tours par seconde.Une révolution complète, accomplie en une "T", est égale à 2π radians. Un radian est donc parcouru en formula_1. La vitesse angulaire, qui décrit le nombre d'unités d'angle parcourues par unités de temps, en est l'inverse formula_2 puisque la fréquence "f" est l'inverse de la période. En d'autres termes : formula_3 Dans le système international d'unités, le temps s'exprime en secondes, et la fréquence en hertz. On en tire l'équivalence entre la vitesse de rotation en tours par minute et la vitesse angulaire en radians par seconde. Un tour par minute équivaut à formula_4, soit environ.En analyse dimensionnelle, l'équation aux dimensions de la vitesse angulaire est : où : Comme les angles sont des grandeurs sans dimension, on pourrait la communiquer simplement en s, mais cette pratique est à éviter, à moins que l'unité d'angle soit parfaitement claire.On utilise parfois un vecteur vitesse angulaire formula_8. Il s'agit du vecteur : Le vecteur vitesse angulaire définit ainsi à la fois l'axe autour duquel tourne l'objet et sa vitesse de rotation. Il ne s'agit pas exactement d'un vecteur mais d'un pseudovecteur, puisque le symétrique dans un miroir est inversé. L'usage du vecteur vitesse angulaire permet l'application de méthodes du calcul vectoriel à des objets en rotation les uns par rapport aux autres. Il permet la composition des vitesses angulaires par addition vectorielle et le calcul des vitesses linéaires à partir des vitesses angulaires.
La vitesse angulaire (ou vitesse de rotation) est une grandeur qui représente le rapport d'un angle de rotation au temps. C'est l'analogue, pour un mouvement de rotation, de la vitesse pour un mouvement de translation.
xwikis
Le cas le plus courant est la notion de coordonnées en géométrie, voir l'article "Repérage dans le plan et dans l'espace" : on choisit un point de repère appelé « origine », et trois « axes » (les « règles graduées ») de directions distinctes qui ne sont pas dans le même plan (dans le plan, deux directions suffisent). Les coordonnées de ce point sont appelées « abscisse », « ordonnée » et « cote », et sont notées respectivement "x", "y" et "z". Voir aussi l'article "Géométrie analytique". En géographie, on associe une longitude et une latitude à des endroits géographiques ; c'est un système de coordonnées. Dans ce cas, la paramétrisation n'est pas unique aux pôles Nord et Sud. Un exemple de système de coordonnées permet de décrire un point "P" dans l'espace euclidien formula_1 par un "n"-uplet : formula_3 étant des nombres réels appelés "coordonnées" du point "P". Si un sous-ensemble "S" d'un espace euclidien est appliqué de façon continue sur un autre espace topologique, cela définit les coordonnées de l'image de "S". On peut parler de paramétrisation de l'image, puisque ce processus assigne des nombres aux points. La correspondance est unique seulement si l'application est bijective.Une transformation de coordonnées est une conversion d'un système à un autre pour décrire le même espace. Certains choix de système de coordonnées peuvent conduire à des paradoxes, par exemple au voisinage d'un trou noir, qui peuvent être résolus en changeant de système. Cela n'est toutefois pas possible en une véritable singularité mathématique.Quelques systèmes de coordonnées couramment utilisés :L'astronomie utilise plusieurs systèmes de coordonnées pour noter la direction d'un objet céleste :En relativité générale, certains systèmes de coordonnées sont choisis de façon à simplifier les calculs.
En mathématiques, un système de coordonnées permet de faire correspondre à chaque point d'un espace à N dimensions, un (et un seul) N-uplet de scalaires. Dans beaucoup de cas, les scalaires considérés sont des nombres réels, mais il est possible d'utiliser des nombres complexes ou des éléments d'un corps commutatif quelconque. Plus généralement, les coordonnées peuvent provenir d'un anneau ou d'une autre structure algébrique apparentée.
xwikis
Actuellement, les Corvidae sont placés au sein de l'ordre des Passeriformes entre les familles des Oriolidae et des Regulidae.Le terme dérive du latin "corvus" « corbeau ».Certains corvidés forment des groupes solides ayant une hiérarchie sociale assez prononcée. C'est le cas des Choucas, qui, ont une très forte hiérarchie et peuvent devenir coloniaux lors des périodes de reproduction. Certains corvidés se perchent sur des dortoirs pouvant abriter plusieurs milliers d'individus en un seul endroit. Les Choucas sont connus pour être des nicheurs communautaires formant de très grands dortoirs.Les corvidés sont omnivores, leur régime alimentaire se compose d'invertébrés, d’oisillons, de petits mammifères, de baies, de fruits, de graines et de charognes. Toutefois, certaines espèces se sont particulièrement bien adaptées à l'urbanisation et dépendent maintenant des ressources alimentaires d'origines anthropique. L'augmentation des sources de nourritures fournies par l'homme contribue à l'augmentation de certaines populations. C'est le cas, par exemple, du Corneille d'Amérique, du Grand Corbeau ainsi que des Geais de Steller. Ces espèces ont la capacité de se nourrir de pommes de terre, de spaghettis ou encore de sandwichs. Certains corvidés sont également capables de cleptoparasitisme. Sur l'étang du Romelaëre, dans le Nord de la France, certains Choucas des tours ont été aperçus volant une proie qu'une mouette rieuse venait d’attraper. Durant l'hivernage, les corvidés forment de grands regroupements pour chercher de la nourriture. Ils peuvent manger des ravageurs agricoles, certains vers, sauterelles et prédatent d'autres oiseaux.En général, ce sont des espèces territoriales, ils protègent leur territoire tout au long de l’année ou alors seulement pendant la saison de reproduction. Les couples formés sont durables dans le temps, voir à vie chez certaines espèces. Les nids sont construits par les couples, ils sont assez grands, généralement dans les arbres ou sur les rebords de bâtiments. Le mâle nourrira la femelle durant l’incubation des œufs. Ceux-ci sont généralement pondus au nombre de 4 à 7 et sont souvent de couleur verdâtre avec des tâches brunes. Les corvidés procurent des soins parentaux aux juvéniles. Ils pratiquent la reproduction coopérative, c’est-à-dire que les parents sont aidés avec leur progéniture. Il s’agit généralement d’individus parents comme les jeunes des années précédentes, mais aussi parfois par des adultes non apparentés.D'après :D'après, la famille contient les espèces suivantes :
Les corvidés (Corvidae) constituent une famille de passereaux comprenant 25 genres et 130 espèces de corbeaux, corneilles, pies, témias et geais. C'est dans cette famille que se trouvent les plus gros passereaux. Les corvidés se reconnaissent par leur bec et leurs pattes robustes ainsi qu'a la présence de plumes recouvrant le dessus de leur bec, parfois jusqu'aux narines. Leur plumage est généralement noir avec des nuances de gris et de blanc. Toutefois, nous retrouvons des individus au plumage plus coloré tels que les Geais des chênes. Il s'agit d'une famille cosmopolite, elle est présente sur toute la surface terrestre et occupe tous les habitats possibles exceptés l'Arctique et l'Amérique du sud.
xwikis
Beaucoup de passereaux sont des oiseaux chanteurs qui ont des muscles complexes pour contrôler leur syrinx ; tous ouvrent leur bec pour se faire nourrir lorsqu'ils sont au nid. Ils ont quatre doigts, trois vers l'avant et un vers l'arrière (le pouce). Ils sont donc anisodactyles. La plupart des passereaux sont de taille plus petite que les oiseaux des autres ordres. Le Grand Corbeau est le passereau le plus lourd et le plus grand, tandis que le plus petit est le Microtyran à queue courte. Il est possible que le Xénique de Stephens ait été l'oiseau à l’aire de répartition naturelle la plus réduite et le seul passereau incapable de voler.Comme tous les oiseaux, les passereaux peuvent normalement héberger de nombreux micro-organismes parasites ou pathogènes (microchampignons, bactéries, virus...) responsables de zoonoses. Ils contribuent à leur diffusion dans leurs déplacement autour du nid et lors de leurs migrations, et ces pathogènes contribuent probablement à réguler les populations de passereaux. Ces derniers sont sensibles à de nombreux virus grippaux, et une étude récente, basée sur l'analyse de restes de repas sanguin prélevés chez des nymphes de tiques en quête d'un nouveau repas, a montré qu'en Irlande au moins, les passereaux pouvaient jouer un rôle d'espèce-réservoir pour plusieurs borrélies responsables de la maladie de Lyme. De nombreux passereaux (dont en particulier le merle noir) sont vulnérables à une virose émergente causée par le virus Usutu qui étend son aire d'influence en Europe depuis le début des.De nombreuses espèces de passereaux font l'objet de capture, piégeage et de chasse, et le plus souvent illégalement. La Ligue pour la protection des oiseaux (LPO) dénonce par exemple depuis plus de 10 ans, le laxisme, voire la complicité, de l'Etat français au regard du braconnage du bruant ortolan et du pinson des arbres dans les Landes, où cette chasse, bien qu'illégale depuis 1999, est traditionnelle et perdure encore aujourd'hui. Mais les passereaux sont aussi les victimes d'un braconnage intensif dans bien d'autres pays, comme en Indonésie pour l'organisation de concours de chants traditionnels et dans bien d'autres pays pour le commerce d'animaux de compagnie. Nombre d'entre eux échappent aux pièges et aux tirs, mais meurent indirectement de la chasse, en subissant des intoxications chroniques ou aiguës induites par l'ingestion de grenaille de plomb, issues des cartouches au plomb. Comme de nombreux autres oiseaux, les passereaux peuvent absorber avec avidité les grenailles répandues sur le sol comme gastrolithes. À titre d'exemple, une seule bille de plomb ingérée en même temps qu'une alimentation naturelle, libère assez de molécules de plomb dans le sang de "Molothrus ater" pour le tuer sur 10 en moyenne. Ils meurent alors d'intoxication saturnine aiguë en. La plupart des survivants excrètent le reste de la bille de plomb dans les suivant l'ingestion, mais cette dernière a eu le temps d'être assez érodée (lors de son passage dans le gésier et dans le reste du tractus digestif). Plus la bille a été érodée, plus l'oiseau risque de mourir. Une hypothèse était que l'ingestion de bille neuve était moins dangereuse que celle d'une bille ancienne et corrodée par le temps à l'air libre, mais il n'en est rien : les résultats expérimentaux ne montrent pas de différences statistiquement significatives () de plombémie selon que la bille ingérée est neuve ou ancienne et déjà corrodée. Les taux de plomb mesurés chez les oiseaux morts d'intoxication aiguë par le plomb variaient de (en poids secs). Le plomb est mortellement toxique pour les passereaux, même pour de faibles doses de plomb prélevées sur la bille ingérée. Ce phénomène a longtemps échappé aux chasseurs, car les oiseaux blessés ou malades se cachent. Moins réactif, l'oiseau court plus de risques d'être mangé par un prédateur, de se tuer en se cognant contre une vitre ou dans un accident avec un véhicule. Hormis quelques oiseaux ne se nourrissant pas au sol comme les hirondelles ou les martinets, la plupart des oiseaux sont concernés par ce phénomène, mais en raison de leur petite taille, les passereaux y sont très vulnérables et meurent encore plus discrètement.Passereau semble dériver du latin '.'désignait les petits oiseaux comparables aux moineaux. Dans le sud de la France, des termes issus de cette racine ont longtemps été utilisés en se déformant en "passerat" ou "passeret" par exemple. Cependant, ces noms vernaculaires ont finalement été supplantés par les termes originaires du nord de la France, termes qui donneront "moineau". "Passer" désigne aujourd'hui un genre particulier de passériforme.L'ordre est communément considéré comme le plus vaste et le plus varié de la classe des oiseaux. Il regroupe plus de la moitié des espèces d'oiseaux existantes. Toutes les classifications proposées ne comptent pas les mêmes espèces.Le terme est réapparu avec la francisation du nom scientifique du taxon "Passeres" qui regroupait les petits oiseaux, comprenant des espèces bien au-delà cependant des espèces connues sous le nom de moineau. Cet ordre a été créé par Carl von Linné dans la sixième édition de '. C'est un des six ordres d'oiseau avec les "Accipitres" c'est-à-dire les rapaces, les'ou échassiers, les pics au sens large, les "Anseres" le groupe des espèces proches des oies et des canards, les "" les espèces proches des faisans et de la poule domestique. Ces groupes faisant miroir aux six groupes de mammifères. André Marie Constant Duméril, en 1806, décomposait l'ordre des passereaux en sept familles en fonction de la forme du bec. Il y avait par exemple les "crenirostres" dont la partie supérieure de la mâchoire du bec est marquée d'une crénelure, les "dentirostres" disposant de plusieurs crénelures sur cette même mâchoire. Les conirostres avaient, selon sa définition, un bec de forme conique, un peu recourbé vers le bas et plus court que la tête. Les oiseaux de cette famille portaient pour nom vernaculaire les termes de moineaux, bruants, étourneaux, loriots, et tous les passereaux de France.D'après la classification de référence (, 2009) du Congrès ornithologique international, de "" et de Barker (2004). (ordre phylogénique) :
Les Passeriformes (ou passériformes) sont le plus grand ordre de la classe des oiseaux. Le taxon regroupe en effet plus de la moitié des espèces d'oiseaux. La classification est sujette à une révision permanente mais, les passereaux, parmi les oiseaux modernes, sont généralement distingués des perroquets, des colious, des rapaces nocturnes, des faucons, des pics, des colombes, des grues, des flamants, des cigognes, des grèbes, des plongeons, des manchots et autres clades moins familiers, au sein desquels les regroupements sont eux mêmes sans cesse remis en cause. Autrefois appelés "oiseaux percheurs", ils sont qualifiés en anglais de « "" », oiseaux chanteurs.
xwikis
La tête est robuste et la mâchoire extrêmement puissante. Les oreilles sont rondes, de couleur noire au revers avec une tache blanche au milieu, pour les individus non mélaniques. La pupille est ronde. Il a été suggéré que la morsure du jaguar est la plus forte de tous les félidés ; cette force permettant même de percer les carapaces de tortues. Une étude comparative de la force de la morsure en fonctionFélin trapu et plutôt court sur pattes, le jaguar est cependant très habile à l'escalade, l'exploration et la natation. Dans son aire de répartition, il ne peut être confondu avec aucun autre félin : seul le puma ("Puma concolor") peut être aussi gros que lui mais celui-ci est de couleur fauve. Toutefois, le jaguar ressemble au Léopard ("Panthera pardus") qui vit en Afrique et en Asie. Les deux animaux peuvent être distingués par leurs rosettes : celles du jaguar sont plus grandes, moins nombreuses, généralement plus sombres et ont des lignes plus épaisses et de petites taches dans le milieu que le léopard n'a pas. Les jaguars ont également une tête plus arrondie et courte que le léopard, et un aspect bien plus massif. Comme les félins de l'Ancien Monde, le jaguar possède dix-neuf paires de chromosomes. Dans la nature, le jaguar réagit à la cataire.Le jaguar est le plus gros félin sauvage des Amériques, surpassant légèrement le puma, et le troisième au monde après le tigre et le lion. Il existe d'importantes variations de taille parmi sa population selon les régions et les habitats, le poids de l'animal tendant à augmenter au sud de son aire de répartition. Le poids moyen varie du simple (en Amérique centrale) au double (dans le Pantanal brésilien et les plaines du Venezuela) : il a été estimé, pour les mâles, entre, et pour les femelles, entre. Une étude du jaguar dans la réserve de biosphère de Chamela-Cuixmala, sur la côte mexicaine de l'océan Pacifique,Le pelage du jaguar est généralement jaune tacheté, mais peut aller du brun au noir. Le dessous de l'animal, la gorge, la face intérieure de la patte et le bas des flancs sont de couleur plus claire, proche du blanc. Le jaguar est couvert de rosettes de camouflage lui permettant de se dissimuler dans la forêt amazonienne, son habitat. Les taches varient sur l'individu même et entre les individus : les rosettes peuvent inclure un ou plusieurs points, et la forme des points varie. Les taches sur la tête, le cou et la queue sont bienLe jaguar est le seul membre du genre "Panthera" existant au Nouveau Monde. Son étude ADN montre que le lion ("Panthera leo"), le tigre ("Panthera tigris"), le Léopard ("Panthera pardus"), le jaguar ("Panthera onca"), l'once ("Uncia uncia") et la panthère nébuleuse ("Neofelis nebulosa") partagent un ancêtre commun et que ce groupe ancestral se situe entre six et dix millions d'années. Les preuves fossiles estiment l'émergence du genre "Panthera" à 2 ou 3,8 millions d'années. Les études phylogénétiques situent généralement la panthère nébuleuse à la base de ce groupe. La position des autres espèces, notamment celle de l'once, varie entre les études et est encore en suspens. Sur la baseLes premières subdivisions intra-spécifiques du jaguar comportaient 24 sous-espèces ; une délimitation taxonomique de l'espèce réalisée par Reginald Innes Pocock en 1939 a réduit le nombre de sous-espèces à huit, sur la base des origines géographiques et de la morphologie du crâne. Toutefois, il n'avait pas accès à suffisamment de spécimens pour évaluer de manière claire toutes les sous-espèces et il a exprimé des doutes sur plusieurs d'entre elles. En 1989, le chercheur K.L. Seymore ne sépare ces sous-espèces qu'en trois "Panthera onca onca" (regroupant "P. o. onca" et "P. o. peruviana"), "Panthera onca hernandesii" (regroupant "P. o. centralis", "P. o. arizonensis", "P. o. veraecrucis" et "P. o. goldmani") et "Panthera onca palustris". Des études récentes ont également échoué à trouver des preuves de sous-espèces bien définies et ne sont plus reconnues. En 1997, Shawn Larson a étudié la variation morphologique du jaguar et a montré qu'il y a un cline de la population selon l'axe nord-sud, mais aussiLes femelles atteignent la maturité sexuelle à l'âge de deux à trois ans et les mâles entre trois et quatre ans. Le jaguar est considéré comme actif tout au long de l'année dans la nature, bien que les naissances puissent augmenter lorsque les proies sont abondantes. Les recherches sur les mâles en captivité confirment l'hypothèse de l'accouplement toute l'année, sans variation saisonnière dans le sperme et la qualité de l'éjaculation. Toutefois, dans le nord de son aire de répartition, l'activité est plus intense en décembre-janvier, lorsque les proies sont plus nombreuses. Un faible taux de reproduction a également été observé en captivité. L’œstrus de la femelle est de 6 à sur un cycle de, et la femelle indique sa période de fécondité avec des marques urinaires et l'augmentation des grognements. Ses appels peuvent attirer de un à trois mâles. La copulation est brève mais fréquente, jusqu'à cent fois par jour. Les couples se séparent après la reproduction, et la femelle prend la responsabilité entière des petits. La période de gestation dure de 91 à et les femelles donnent naissance à deux à quatre petits, le plus souvent deux. La mère ne tolère pas laComme la plupart des félins, le jaguar est solitaire dès qu'il quitte sa mère. Les adultes se réunissent uniquement pour la cour et la reproduction, bien que des tentatives de socialisation aient été observées de façon anecdotique. Comme la plupart des félins, le jaguar est territorial. Les territoires des femelles peuvent se chevaucher même si les individus s'évitent les uns des autres en général. Le territoire des mâles couvre à peu près deux fois plus d'espace que celui des femelles et sa taille varie avec la disponibilité des proies et de l'espace ; les territoires des mâles ne se chevauchent pas. Les marques de griffes et les dépôts d'urine et d'excréments sont utilisés pour marquer le territoire. À l'instar des autres grands félins, le jaguar est capable de rugir et permet de mettre en garde à distance les autres individus sur les questions territoriales et d'accouplement. Le mâleComme tous les félins, le jaguar est un carnivore. C'est un chasseur opportuniste et son régime alimentaire comprend 87 espèces. Le jaguar préfère les grandes proies et chasse cervidés, serpents, capybaras, tapirs, pécaris, caïmans. Toutefois, le félin peut manger toutes les petites espèces qu'il peut capturer, y compris les grenouilles, poissons, des œufs, des paresseux, des singes et des tortues. Il peut également chasser le bétail, raison pour laquelle il est parfois tué par les éleveurs. Contrairement à toutes les autres espèces du genreLe puma ("Puma concolor") partage son aire de répartition Sud avec l'aire Nord du Jaguar. Les cas de coexistence ne sont pas rares. Les deux espèces ont souvent été étudiées conjointement. Dans les zones tropicales, le puma est plus petit que dans les zones tempérées de son aire de répartition et chasse un plus grand nombre d'espèces, qui sont également de plus petite taille. La compétitionLe jaguar et les espèces du genre "Eunectes" présentent un recouvrement de leurs aire de distribution comme de leur régime alimentaire. Toutefois, les cas d'interactions sont rares et montrent des prédations du jaguar sur l'Anaconda jaune ("Eunectes notaeus") et l'Anaconda vert ("Eunectes murinus").L'habitat du félin comprend les forêts tropicales de l'Amérique centrale et du Sud qui sont saisonnièrement inondées. Parmi ces habitats, le jaguar préfère une forêt dense. Adapté à de nombreux habitats, ilLe jaguar adulte est un superprédateur, ce qui signifie qu'il est au sommet de la chaîne alimentaire et n'est pas lui-même considéré comme une proie dans la nature. Le jaguar est également une espèce clé de voûte, car il régule les populations de proies, maintenant l'intégrité de la structure des systèmes forestiers. Toutefois, déterminer avec précision l'effet des espèces comme leL'aire de répartition historique de l'espèce couvre la plupart du continent américain, néanmoins elle est en net recul. Le félin a rapidement perdu de son aire de répartition dans les régions sèches de son habitat, comme la pampa argentine, les prairies arides du Mexique, et le sud-ouest des États-Unis. Son aire de distribution actuelle représente environ 45 % de l'aire historique. Son aire de répartition s'étend du Mexique jusqu'en Amérique du Sud, en passant par l'Amérique centrale et une grande partie de l'Amazonie. Les pays inclus dans cette aire sont l'Argentine, le Belize, la Bolivie, le Brésil, la Colombie, le Costa Rica (notamment sur la péninsule d'Osa), l'Équateur, les États-Unis, le Guatemala, le Guyana, le Honduras, le Mexique, le Nicaragua, le Panama, le Paraguay, le Pérou, le Suriname et le Venezuela. Il est également présent en Guyane. Le jaguar est néanmoins considéré comme une espèce éteinte au Salvador et en Uruguay. En Amérique centrale il est considéré comme commun uniquement au Belize. Compte tenu de l'inaccessibilité de la plupart de l'aire de répartition du jaguar, l'estimation de la population d'animaux est difficile. Les recherches portent généralement sur des régions particulières et donc les analyses complètes sur l'espèce sont rares. En 1991, de 600 à individus ont été estimés comme vivant au Belize. Un an plus tôt, de 125 à 180 jaguars ont été estimés comme vivant auLes populations de jaguars sont en diminution. L'animal est considéré comme une espèce quasi menacée (NT) selon l’Union internationale pour la conservation de la nature (UICN), ce qui signifie qu'elle peut être menacée d'extinction dans un avenir proche. La perte d'une partie de son aire de répartition géographique, notamment sa quasi-élimination de sa zone d'implantation historique dans les régions du nord et l'augmentation de la fragmentation de son aire de répartition restante, ont contribué à un tel statut. Dans les années 1960, plus de de jaguars par an étaient tirées de l'Amazonie brésilienne,Le mot "jaguar" provient, par l'intermédiaire du portugais, de l'une des langues tupi-guarani, probablement du dialecte utilisé par les Tupis pour le commerce avec les Européens. Le mot tupi "yaguara", qui veut dire « bête » et est parfois traduit par « chien », est utilisé pour tout mammifère carnivore (le nom précis du jaguar étant "yaguareté", avec le suffixe "eté" « réel » ou « vrai »). Dans de nombreux pays d'Amérique centrale et d'Amérique du Sud, le jaguar est considéré comme "el tigre" (« le tigre ») ; c'est d'ailleurs le premier nom donné au jaguar par les colons espagnols. La premièreLe jaguar est le seul félin à avoir marqué durablement la religion et la culture de tout un continent, en l'occurrence l'Amérique. Dans les civilisations précolombiennes, le jaguar est depuis longtemps un symbole de puissance et de force. Parmi les cultures andines, le culte du jaguar pratiqué dès le début de la culture de Chavín se diffuse vers 900 av. J.-C. dans ce qui est aujourd'hui le Pérou : par exemple, la culture Moche, au nord du Pérou, utilise le jaguar comme un symbole de pouvoir sur un grand nombre de céramiques. En Mésoamérique, les Olmèques développent le concept de l'« homme-jaguar », une sorte de motif sculptural et figuratif représentant des jaguars stylisés ou des êtres humains avec des caractéristiques du jaguar. L'homme-jaguar était représenté obèse, la bouche ouverte montrantLe jaguar est largement utilisé comme un symbole dans la culture contemporaine. Le jaguar est également l'animal symbole du Guyana et figure dans ses armoiries. Il est souvent utilisé comme un nom de produit, notamment au féminin en français pour désigner le produit d'une marque de voiture de luxe. Le nom a été adopté par les franchises de sport, y compris les Jaguars de Jacksonville de la "National Football League," les Jaguares de Chiapas du championnat du Mexique de football et les Jaguars de Chambly, une équipe de football américain du nord de la France. Le logotype de la Fédération argentine de rugby à XV utilise l'image du jaguar, même si, en raison d'une erreur journalistique, l'équipe est surnommée "Los Pumas" (« les Pumas »).
Le jaguar (Panthera onca) est un mammifère carnivore de la famille des Felidae. C'est l'un des cinq « grands félins » du genre "Panthera", avec le tigre, le lion, la Panthère des neiges et le léopard. Son aire de répartition actuelle s'étend du Mexique à la majeure partie de l'Amérique centrale et de l'Amérique du Sud, jusqu'au nord de l'Argentine et du Paraguay. Hormis des errances occasionnelles de spécimens originaires du Mexique, le jaguar est une espèce extirpée des États-Unis depuis le début des années 1970. En France sa présence à l'état sauvage se limite à la Guyane.
xwikis
L'accélération est la première dérivée par rapport au temps (dérivée temporelle) de la vitesse angulaire, et la seconde dérivée temporelle de la position angulaire. Si formula_1 est la vitesse angulaire et formula_2 la position angulaire, l'accélération angulaire formula_3 est : L'accélération angulaire est pour le mouvement de rotation l'homologue de l'accélération pour le mouvement de translation.L'accélération angulaire d'un corps est liée à ses accélérations tangentielle et centripète. Pour déterminer l'accélération tangentielle d'un corps, il suffit de multiplier son accélération angulaire par la mesure du rayon du cercle qui forme sa trajectoire.L'accélération angulaire est l'une des variables de la deuxième loi de Newton appliquée en dynamique de rotation. Ainsi, on peut déterminer le total des moments de forces (formula_6) qui sont appliqués sur un corps à l'aide de l'accélération angulaire (formula_3) de celui-ci et de son moment d'inertie (I). La sommation de tous les moments de force est équivalente au produit du moment d'inertie du corps par son accélération angulaire lorsque le corps est rigide et que la rotation s'effectue autour d'un axe de rotation fixe.L'à-coup angulaire formula_9 est la dérivée par rapport au temps de l'accélération angulaire :Posons une roue tournant dans le sens positif d'un référentiel donné. On dira que la vitesse et l'accélération angulaire sont parallèles lorsque la vitesse augmente puisqu'elles seront toutes deux positives. À l'inverse, elles seront anti-parallèles si la vitesse diminue car celle-ci restera positive alors que l'accélération angulaire deviendra négative.
En physique, l'accélération angulaire est la variation de la vitesse angulaire au cours du temps. En unités dérivées du Système international, l'accélération angulaire s'exprime en radians par seconde carrée ().
xwikis
Penser, comme Aristote, que sur Terre (et avec l'hypothèse du vide atmosphérique) "plus un corps est lourd, plus il tombe vite" c'est faire une confusion entre "quantité" et "qualité" : Ainsi, bien qu'elles soient intimement associées dans nos expériences et nos sensations courantes, les deux grandeurs (poids et vitesse de chute) sont bien distinctes. La distinction ci-dessus entre qualité et quantité n'explique pas qu'en l'absence d'air, du bois et du métal tombent exactement à la même vitesse. Ce fait expérimental laisse penser que ces deux matières différentes (ainsi que toutes les autres) ont en commun la même qualité. Les expérimentations et les réflexions sur ce sujet ont donné le principe d'équivalence. En termes plus précis et plus scientifiques, la relativité générale étudie la gravitation et, comme « qualité commune » aux corps dans le problème posé ci-dessus, permet de proposer « l'énergie », bien qu'en toute rigueur cette théorie admet comme hypothèse l'existence de cette « qualité commune » (en admettant le principe d'équivalence) et qu'elle exclut toute idée "d'attraction" et de "force" gravitationnelle. En laissant tomber simultanément des objets de poids, formes ou volumes très différents, par exemple une balle de mousse et une bille de métal de même diamètre, depuis une hauteur d'homme, on peut penser qu'il y a égalité des vitesses de chute. Mais quand la hauteur de chute est plus grande, des différences perceptibles apparaissent, du fait des frottements de l'air. Galilée sera le premier à comprendre que les frottements sont la seule cause des différences de vitesses entre ces corps.Le philosophe grec Archimède a découvert le centre de gravité d'un triangle. Il a également postulé que si deux poids égaux n'avaient pas le même centre de gravité, le centre de gravité des deux poids combinés serait au milieu de la ligne qui joint leurs centres de gravité respectifs. L'architecte et ingénieur romain Vitruve postule dans l'ouvrage De Architectura que la gravité d'un objet ne dépend pas de son poids mais plutôt de sa nature. Dans l'Inde ancienne, Aryabhata a identifié la force pour expliquer pourquoi les objets ne sont pas projetés vers l'extérieur lorsque la Terre tourne. Brahmagupta a décrit la gravité comme une force d'attraction et a utilisé le terme «Gurutvaakarshan» pour décrire cette dernière.Par une expérience, mythique, réalisée du haut de la tour de Pise, le savant italien Galilée (1564-1642) aurait constaté que des balles lourdes et de poids différents ont le même temps de chute, mais, quand il explique dans son Dialogue sur les deux grands systèmes du monde pourquoi il en est ainsi dans le vide, il justifie par des expériences de pensée : notamment en imaginant deux pierres de même poids et forme, chutant simultanément et reliées ou non par un lien, formant ainsi deux corps séparés de même poids ou bien un seul de poids double, mais ayant dans tous les cas la même vitesse de chute. Vers 1604, Galilée utilise un constat : un objet en chute libre possède une vitesse initiale nulle, mais quand il arrive au sol, sa vitesse... n'est pas nulle. Donc la vitesse varie durant la chute. Galilée propose une loi simple : la vitesse varierait continûment à partir de 0, et proportionnellement au temps écoulé depuis le début de la chute. Ainsi :. Il en conclut, après un calcul, que, pendant une chute, la distance parcourue est proportionnelle au carré du temps écoulé. Plus précisément : (avec la même constante que ci-dessus). Son idée est confirmée dans une expérience, avec du matériel construit de sa main : une gouttière inclinée le long de laquelle des clochettes sont disposées pour indiquer le passage de la bille. La constante sera notée (accélération de la pesanteur) et sa valeur déterminée expérimentalement (environ ). La pesanteur varie notamment selon le lieu sur Terre. Par convention sa valeur normale est fixée à.Mathématicien autant que physicien, Isaac Newton mit au point, entre 1665 et 1685, sa théorie de la mécanique basée sur l’étude de l’accélération, et non seulement de la vitesse comme le faisaient Galilée et René Descartes. Newton chercha à unifier les lois connues pour les objets sur Terre et les lois observées pour les astres, notamment la gravitation terrestre et les mouvements des planètes, en considérant et traitant la gravitation comme une force. En considérant deux corps ponctuels exerçant une force gravitationnelle l’un sur l’autre, une justification de la loi de Newton est la suivante : En écrivant le "principe fondamental de la dynamique" pour le corps A de masse inerte formula_3, on obtient formula_4. On constate que pour que l’accélération formula_5 (et donc la vitesse) d’un corps en chute libre sur terre soit indépendante de sa masse inertielle formula_3 (comme l’a expérimenté Galilée), il faut que formula_7 pour ce corps, c’est-à-dire que la « masse gravifique » soit égale à la masse inertielle, indépendamment de la nature du corps (en fait la proportionnalité entre ces masses suffit, avec le même coefficient pour tous les matériaux, ensuite on peut les rendre égales avec un choix des unités de mesure). Newton a testé cette égalité pour de nombreux matériaux, et depuis les expériences n’ont jamais cessé, avec de plus en plus de raffinements (balance d’Eötvös). Depuis, cette égalité a été appelée le principe d’équivalence faible. L’action à distance (sans contact, à travers le vide) et la propagation instantanée de la force de gravitation ont aussi suscité des doutes, y compris de Newton. Dans l’écriture vectorielle moderne, la force gravitationnelle s’écrit : La loi newtonienne de la gravitation permet d'expliquer l'origine de la loi de Galilée : en notant "r" le rayon terrestre et "m" la masse de la Terre, on obtient formula_15 m·s soit approximativement. La théorie newtonienne est bien vérifiée expérimentalement. D’un point de vue technique, elle suffit pour faire voler des objets plus lourds que l’air et pour envoyer des hommes sur la Lune. La force de pesanteur est la résultante de la force de gravité et de forces axifuges (la force centrifuge liée à la rotation de la terre sur elle-même, de la loi de l’inertie du mouvement).Joseph-Louis Lagrange a réécrit, à partir de 1762, la théorie de la gravitation et l'ensemble de la physique en y introduisant le principe de moindre action qui avait été formulé par Pierre Louis Maupertuis vers 1744. William Rowan Hamilton, vers 1830, a substitué au principe de moindre action la notion d'énergie, qui est une constante pour tout système isolé (c’est-à-dire : sans interaction avec l'extérieur) et qui sera de la plus grande importance pour la physique relativiste et en mécanique quantique, au. L'idée d'un "champ de force", introduite par Michael Faraday, ne permit qu'une réécriture de la théorie de la gravitation newtonienne, mais cette notion se révélera féconde quand il s'agira de concevoir la gravitation relativiste. Le "champ" ou "champ de force" de la gravitation est une propriété de l'espace due à la masse d'un corps. Une autre masse entrant en contact avec ce "champ" est soumise à une influence, une force, due au champ. Ainsi, l'influence gravitationnelle n'est pas, dans ce cadre, créée et transportée instantanément d'un corps à l'autre, mais est déjà présente dans tout l'espace sous la forme du "champ" et à son contact un corps voit sa dynamique modifiée. Toutefois, le champ est lui-même instantanément modifié par le corps qui le crée. Si M est la masse du corps ponctuel émetteur du champ, et si r est la distance entre ce corps et le point de l'espace que l'on considère, le champ en ce point s'exprime par formula_16 le « potentiel gravitationnel ». Un corps ponctuel de masse m étant en contact avec ce champ, la force qu'il subit est formula_17, où formula_18 est le vecteur unitaire de même direction et de même sens que formula_19 qui va de M à m.Après avoir énoncé la théorie de la relativité restreinte en 1905, Albert Einstein cherche à la rendre compatible avec la gravitation, dont l'effet est supposé se propager à une vitesse infinie dans la théorie de Newton, alors que la vitesse de la lumière est la vitesse maximale pour toute interaction selon la relativité restreinte. Vers 1915, on émet l'hypothèse que la gravitation n'est pas une force au sens classique, que l'on donne à ce mot en physique, mais une manifestation de la déformation de l'espace-temps sous l'effet de l'énergie de la matière qui s'y trouve. Cette hypothèse résulte de l'observation que tous les corps tombent de la même façon dans un champ de gravitation, quelles que soient leur masse ou leur composition chimique. Cette observation, a priori fortuite en théorie newtonienne, mais remarquablement vérifiée expérimentalement, est formalisée sous le nom de principe d'équivalence et amène naturellement à considérer que la gravitation est une manifestation de la géométrie à de l'espace-temps. Au terme traditionnel de "force" se substitue alors celui plus générique d'interaction. La théorie ainsi construite, qui porte le nom de relativité générale, incorpore le principe de relativité, et la théorie newtonienne en est une approximation dans la limite des champs gravitationnels faibles et des vitesses petites devant celle de la lumière. En effet, les déformations de l'espace-temps prévues sous l'effet des corps massifs, quand ceux-ci ont une forte accélération, ne se propagent pas plus vite que la vitesse de la lumière, ce qui résout le paradoxe de l'instantanéité apparente de l'interaction newtonienne. Il en résulte des ondes gravitationnelles, détectées pour la première fois le.La gravitation newtonienne est suffisante pour décrire la majorité des phénomènes observés à l'échelle des étoiles. Elle suffit, par exemple, pour décrire l'évolution des planètes du Système solaire, à quelques détails près comme l'avance du périhélie de Mercure et l'effet Shapiro. Mais la relativité générale est nécessaire pour modéliser certains objets et phénomènes astronomiques particuliers : les étoiles à neutrons, les mirages gravitationnels, les objets très compacts tels que les trous noirsLa gravitation étant la force dominante à l'échelle des distances astronomiques, les théories newtonienne et einsteinienne ont été confrontées depuis leurs créations respectives aux observations de la structure à grande échelle de l'univers. Si aux échelles des étoiles et des galaxies, la gravitation newtonienne est suffisante, dans beaucoup de situations, la théorie newtonienne est en difficulté. Par exemple, elle est incapable d'offrir une description cohérente d'un univers homogène infini alors que la relativité générale est parfaitement en mesure de décrire une telle situation. La relativité générale seule ne suffit cependant pas pour décrire la structure à grande échelle de l'Univers. Il faut lui adjoindre des hypothèses sur la répartition spatiale de la matière. Les observations indiquent qu'à grande échelle, l'univers est remarquablement homogène (à plus petite échelle, la matière est bien sûr répartie de façon non uniforme : l'espace entre les étoiles d'une même galaxie est essentiellement vide, tout comme l'espace entre les galaxies). Ce fait observationnel avait au départ été supposé par Einstein, qui lui avait donné le nom de principe cosmologique. Sous cette hypothèse, la relativité générale permet, assez facilement du reste, une modélisation cohérente de l'Univers. Il existe cependant, outre la matière visible constituant les étoiles, et le gaz des galaxies, une matière noire aux propriétés et à la distribution encore très mal connues. La dynamique de l'Univers va, elle, dépendre des propriétés de la matière qui le compose, en particulier de son équation d'état. On peut montrer que, sauf cas particulier, l'Univers ne peut être statique : il est soit en contraction, soit en expansion globales. De toute manière, une structure globale uniforme de l'Univers serait instable : les parties les plus denses, même très faiblement, finiraient par s'effondrer sous leur propre poids, attirant la matière des parties les moins denses, et les laissant entièrement vides. (Cependant, à moyenne échelle, l'Univers a une « structure d'éponge » et il existe d'énormes bulles sans matière visible). Bien que la théorie de « l'Expansion » tienne peu compte des nombreuses interactions existant entre la matière et les rayonnements électromagnétiques (sinon, par exemple, seul le radar existerait ; on n'aurait pas de four à micro-ondes) ; les observations confirment globalement cette prédiction puisque l'on observe une récession apparente des galaxies, celles-ci s'éloignant de nous d'autant plus vite qu'elles sont éloignées. Le décalage spectral des lumières lointaines fut découvert par Edwin Hubble à la fin des années 1920. Plus tard, son élève, Allan Sandage introduisit le concept de l'Expansion, à la suite des travaux de Lemaître et Gamow. Elle indique que l'univers tel que nous le connaissons est issu d'une phase extraordinairement dense et chaude : le Big Bang. Plusieurs observations quantitatives confirment l'histoire du Big Bang, à partir de sa première minute. Le destin de l'univers n'est pas connu avec certitude, car le comportement à long terme de la matière est incertain. On a observé une accélération de l'expansion de l'univers, due à une force de répulsion à très longue distance, prévue comme une possibilité dans la Relativité Générale. Ceci semble être le signe probable que l'expansion durera indéfiniment, sans donner lieu à une phase de recontraction (Big Crunch) ou ; que cette expansion n'est qu'une apparence, très commode pour rendre compte de nombreuses observations.La relativité générale a été conçue sur l'hypothèse de la continuité de l'espace-temps (et même sa différentiabilité) et sur l'hypothèse de la continuité de la matière (entre autres pour construire le tenseur de densité d'énergie-impulsion). Cette deuxième hypothèse est clairement une approximation au regard de la physique quantique. La physique quantique étant l'exploration de l'infiniment petit, l'expérimentation de la gravitation dans ce cadre se heurte à un problème majeur : les trois autres forces qui y règnent sont au moins 10 fois plus fortes, alors qu'il est déjà difficile d'expérimenter sur elles ; du coup les effets de la gravitation se perdent dans les inévitables imprécisions des mesures. Cette difficulté expérimentale n'a pas empêché les tentatives théoriques de construire une gravitation quantique, sans résultat susceptible à ce jour de vérification expérimentale. On peut toutefois remarquer que : Exemples de théories quantiques de la gravitation : théorie M, supergravité, géométrie non commutative, gravitation quantique à boucles.
La gravitation, l'une des quatre interactions fondamentales qui régissent l'Univers, est l' physique responsable de l'attraction des corps massifs. Elle se manifeste notamment par l'attraction terrestre qui nous retient au sol, la gravité, qui est responsable de plusieurs manifestations naturelles ; les marées, l'orbite des planètes autour du Soleil, la sphéricité de la plupart des corps célestes en sont quelques exemples. D'une manière plus générale, la structure à grande échelle de l'Univers est déterminée par la gravitation.
xwikis
Selon la constitution, la Belgique possède plusieurs emblèmes, l’hymneLe royaume de Belgique se situe dans l’hémisphère nord et à l’est du méridien de Greenwich (latitude nord et longitude est). Le territoire du pays s’étend en latitude sur deux degrés, de Meerle au nord (30′) à Torgny au sud (30′), et compte moins de quatre degrés en longitude, de La Panne comme point le plus à l’ouest (33′) à Manderfeld à l’est (24′). Son centreSon relief est peu élevé : il s’étage graduellement de la côte vers le sud-est du pays, pour culminer à au signal de Botrange. Trois zones géographiques peuvent être distinguées : la Basse Belgique (moins de d’altitude), la moyenne Belgique (de ) et la Haute Belgique (de 200 à plus de ). La Basse Belgique commence après le littoral, une bande de plages de sable et de dunes, par des polders (c’est uniquement cette partie du pays que l’on appelle le plat pays) pour s’enfoncer à l’intérieur des terres avec la plaine flamande et la Campine. La moyenne Belgique s’élève progressivement vers les vallées de la Sambre et de la Meuse, c’est une zoneÀ cause de sa densité de population élevée, la Belgique fait face à de sérieux problèmes environnementaux. Un rapport de 2003 suggère que la qualité des eaux de surface de Belgique est la pire des étudiés. Dans l’étude de 2008 sur l’indice de performance écologique, la Belgique a obtenu un score total de 78,4 % et est classée antépénultième des pays de l’Union européenne, bien qu’elle soit sur. Le littoral marin est long d’environ, ouvrant sur un de, (0,5 % de toute la mer du Nord) avec une colonne d’eau de 20 à de profondeur. Les terres de Flandre sont en partie gagnées sur la mer et menacées par l’érosion du littoral et la montée des océans. Le pays gère donc aussi un patrimoine maritime et portuaire. L’environnement marin est encore riche en biodiversité mais ses ressources halieutiques ont été dégradées par la surpêche, le chalutage, les rejets de boues de dragage ainsiLe jour du dépassement (date de l’année à partir de laquelle l’humanité est supposée avoir consommé l’ensemble des ressources que la planète est capable de régénérer en un an) de la Belgique est le 6 avril. La Belgique est l'un des pays les plus fortement atteints par la pollution de l'air.Le réseau Natura 2000 rassemble des sites naturels ou semi-naturels de l'Union européenne ayant une grande valeur patrimoniale, par la faune et la flore exceptionnelles qu'ils contiennent. En décembre 2018, la Belgique comptait 310 sites dont :Le pays, lieu de rencontre des cultures germanique et romane, comprend différentes communautés linguistiques et culturelles. Les trois langues officielles sont le néerlandais, le français et l’allemand. Elles sont placées sur un pied d’égalité au niveau fédéral. Parmi les différentes régions, seule la Région de Bruxelles-Capitale (habitée par un peu plus de 10 % de la population) est officiellement bilingue (français et néerlandais). La Région flamande (habitée par près de 58 % de la population), située dans le Nord, est officiellement unilingue néerlandophone. La Région wallonne (habitée par près de 32 % de la population), située dans le Sud et le Sud-Est, est officiellement unilingue francophone, à l’exceptionAu, la Belgique comptait. Parmi eux étaient nés à l’étranger, ce qui représente 12,9 % de la population totale dont (6,5 %) nés dans un pays de l’Union européenne (UE) et (6,4 %) nés hors de l’UE. D’après une estimation publiée début 2012 par le sociologue Jan Hertogen,Le graphique suivant reprend sa populationHabitée dès le Mésolithique (stations dans la vallée de la Meuse), la Belgique connut une occupation humaine ininterrompue pendant la Préhistoire (nombreux sites néolithiques) puis la protohistoire (nombreux sites de l’âge du bronze et de l’âge du fer). Dans les temps anciens, cette partie de l’Europe accueillait l’homme de Néandertal, puis l’Homo sapiens, comme en attestent divers restes dont l’homme de Spy, l’homme d’Engis et homme de Flavion. L’arrivée de tribus celtes à l’âge du fer (-800) suivie de la conquête romaine, autour de 57 avant notre ère, marque le début de l’entrée de la Belgique dans l’histoire lorsque Jules César la désigne sous le nom de province "Belgica", composante du nord de la Gaule. Après quatre siècles durant lesquels la conquête romaine façonna la géographie politique du pays, celui-ci fut le théâtre des invasions germaniques et de nouveaux pouvoirs s’installent. Ceux-ci donnèrent naissance à la féodalité qui allait s’épanouir dans toute l’Europe durant près d’un millénaire. C’est ce que les historiens appellent le Moyen Âge qui commence avec Clovis en 476. Clovis hérita de son père,, d’un petit royaume franc qui allait de l’Aisne au Rhin. Il se fit sacrer roi de tous les Francs à Reims et agrandit son royaume jusqu’à la Méditerranée. Après les Mérovingiens, les Carolingiens en 731 prennent le pouvoir et Charlemagne agrandit son royaume en Empire européen en conquérant l’Allemagne, l’Autriche, l’Italie. Le traité de Verdun en 843 partagea son Empire en trois États entre ses petits-fils. Le territoire fut partagé entre l’influence carolingienne, Francie occidentale (France) et Lotharingie (Pays-Bas à l’Italie) et Francie orientale (Germanie). La quasi-totalité de son territoire (à l’exception des principautés de Liège et de Stavelot-Malmedy) fut réunie par les ducs de Bourgogne au pour former un tout, les Dix-Sept Provinces. De la fin du Moyen Âge jusqu’à la révolution politico-religieuse du, ce territoire est un centre commercial et culturel prospère mais ne forme pas encore le pays actuel. Sa quasi-totalité (à l’exception de la Principauté de Liège) fait partie des Dix-sept Provinces réunies par les ducs de Bourgogne au, que l’on dénomme, dans les atlas du temps,'ou'selon les époques. Suivant les règles du droit féodal, la dynastie bourguignonne a hérité légitimement des territoires des ducs de Brabant et d’autres féodaux, ce qui permet à Philippe le Bon d’arrondir encore les possessions bourguignonnes par des alliances et des achats. Il peut ainsi espérer devenir assez puissant pour s’affranchir de la tutelle du royaume de France et du Saint-Empire romain germanique auxquels appartiennent ses possessions. Des cartes représentent les possessions bourguignonnes du nom de "Leo Belgicus", Lion belgique. Cette dénomination allie le vieux nom de Belgique, venu de l’Antiquité à travers la relation par Jules César de la guerre des Gaules, avec le nom de l’animal qui a impressionné les croisés en Orient et dont ils ont fait un symbole de force et de beauté que l’on trouve dans l’héraldique de nombreux pays européens. Ce nom apparaît sur des cartes qui utilisent la forme générale des grands Pays-Bas pour y superposer la forme d’un lion dressé. La défaite à la guerre et la mort du fils de Philippe le Bon, Charles le Téméraire mettent fin au rêve d’une monarchie bourguignonne. Mais, à l’avènement de Charles Quint, descendant des Bourguignons, né à Gand, considéré comme un enfant du pays et accepté par la population et les États généraux comme souverain légitime, les Dix-Sept Provinces s’inscrivent dans un vaste ensemble européen, ce qui les protège des entreprises d’annexion des rois de France, leur garantissant une indépendance de fait. Car Charles Quint respecte en principe les privilèges que sont les droits locaux arrachés au cours des siècles par les villes et principautés dans leurs luttes contre la féodalité. Il promulgue la Pragmatique sanction qui constitue ce territoire en un tout indissociable, la Généralité, ancêtre des futurs royaumes de Belgique et des Pays-Bas. Mais les tentatives des cités, comme Gand, d’imposer un accroissement de leurs libertés au détriment du pouvoir du souverain engendrent cependant la répression de celui qui est aussi roi d’Espagne, titre obtenu par héritage, et empereur d’Allemagne. Cette dignité, il l’a obtenue en se ralliant les votes de la Diète germanique. Au, Charles Quint, le descendant des ducs de Bourgogne (et autres fiefs) né à Gand est roi dans les Dix-Sept Provinces, mais aussi empereur du Saint-Empire romain germanique. Installé à Bruxelles dans le palais qui fut celui des ducs de Brabant, puis de Bourgogne, il préside les États généraux des Pays-Bas (dix-sept provinces) et octroie à celles-ci une autonomie par rapport au Saint-Empire Germanique et à l’Espagne. C’est la Pragmatique Sanction de 1549. En vertu de ses titres d’empereur germanique et des titres dont il a hérité dans les dix-sept-provinces, ainsi que de son titre de roi d’Espagne, Charles-Quint est un roi "très chrétien" investi par le pape. Il se sent chargé de la mission de lutter contre le protestantisme. Sous le règne de son fils, roi d’Espagne qui dirige le pays depuis Madrid, la répression continue et une révolte éclate dans la population de la Généralité soutenue par une partie de la noblesse locale. Le conflit est motivé par les empiétements du pouvoir espagnol sur les libertés locales, la lutte contre le protestantisme servant de prétexte pour appesantir l’autorité de Madrid par l’intermédiaire de gouverneurs dont le duc d’Albe. Celui-ci fait mettre à mort les principaux chefs rebelles, les comtes d’Egmont et de Hornes. Il s’ensuit la guerre de Quatre-Vingts Ans qui est ponctuée de nombreuses batailles entre les troupes espagnoles et celles des États-Généraux, mais aussi d’intrusions guerrières venues d’Allemagne et de France. À l’issue de ce conflit, les Dix-Sept Provinces et le nord sont scindés. La'devient indépendante, tandis que la'retombe sous l’autorité espagnole. L’apparition du protestantisme engendre une répression, déjà sous Charles-Quint, qui sera amplifiée sous le règne de, fils de Charles-Quint. Philippe, qui réside en Espagne, n’est pas ressenti comme souverain local contrairement à son père Charles-Quint. Il ne fait d’ailleurs rien pour cela. Au contraire et il en résultera une véritable révolution anti-espagnole dont les mobiles mêlent la revendication de la liberté religieuse au refus de taxations de plus en plus lourdes. Mais, finalement, c’est seulement la partie nord des Pays-Bas qui devient indépendante, portant d’abord le nom de'(« Belgiques Fédérées »), le futur ', tandis que le Sud, "" (« "Belgiques royales" »), représentant la future Belgique reste sous la domination des Espagnols. Ceux-ci, essentiellement l’armée et certains nobles locaux acquis aux Espagnols, composent de mauvais gré avec les États généraux des Pays-Bas du sud représentant la noblesse, l’Église et la bourgeoisie. La scission d’avec les Pays-Bas du nord engendre d’ailleurs des guerres avec ceux-ci, jalonnées, en plus, de soulèvements au sud. D’autre part, les tentatives de conquête française entraînent des batailles et des pillages qui achèvent de faire du, un « siècle de malheur ». Les puissances européennes veulent s’approprier le pays. La France et l’Espagne s’affrontent militairement durant les. Même l’Angleterre intervient lors des campagnes du duc de Marlborough. Vient alors la transmission du pouvoir des Habsbourgs d’Espagne à ceux d’Autriche-Hongrie en 1713-1714. Le régime installé par l’empereur d’Autriche s’engage, par traité, à respecter que les États généraux, la bourgeoisie et la noblesse n’ont cessé de défendre. D’autant plus que la découverte, à Bruxelles, de chartes et traités remontant à des siècles, et qui avaient été dissimulés au moment les pires de la domination espagnole, ravive un esprit national dans les Pays-Bas du sud. À Vienne est installé un bureau belge et, à Bruxelles, siège un gouverneur. En Belgique existe, chez les intellectuels, deux camps, l’un est partisan du retour intégral aux traditions, l’autre, influencé par les idées des Lumières prône des idées démocratiques comme celles défendues par les encyclopédistes. Une tentative de réforme de l’empereur prétend introduire des réformes, comme la suppression de plusieurs congrégations religieuses et la diminution du nombre de jours chômés. En réaction, l’opinion publique se soulève. C’est la révolution brabançonne. Les États généraux lèvent une armée sous le commandement du général Jean-André van der Mersch et l’armée autrichienne est battue à la bataille de Turnhout en 1789. Les vainqueurs installent alors un régime d’indépendance sous le nom d’États belgiques unis. Mais les luttes intestines entre les conservateurs groupés derrière l’avocat van der Noot et les progressistes de l’avocat Vonck minent le nouveau régime et affaiblissent sa défense, d’autant plus que van der Meersch, le chef emblématique de l’armée, est emprisonné par le camp conservateur qui a pris le dessus. Les Autrichiens en profitent pour revenir en force et battre les troupes nationales. Mais la restauration autrichienne ne dure pas, car les armées de la Révolution française envahissent le territoire et battent les troupes impériales autrichiennes en 1793. Le territoire redevient français, et subit les levées militaires de conscrits entraînées par les guerres de Napoléon. À la chute de l’Empire français, les grandes puissances décident, lors du traité de Vienne, de réunir la Belgique avec les anciennes Provinces-Unies pour reformer l’ancien "Leo Belgicus" du temps des ducs de Bourgogne. C’est la création du Royaume uni des Pays-Bas dont le roi appartient à la famille d’Orange-Nassau qui descend d’un des initiateurs, au de la révolution contre l’Espagne. L’amalgame des provinces belges et néerlandaises maintient les deux capitales, la Haye dans le Nord et Bruxelles dans le Sud. Mais, en fait, le pouvoir est à la Haye. Mais, en deux siècles, de telles différences sont apparues entre les deux parties des grands Pays-Bas reconstitués que la partie méridionale se soulève contre le Nord et cette nouvelle révolution aboutit à l’indépendance. Les Belges s’unissent, de la gauche libérale à la droite cléricale. C’est l’unionisme qui se dresse contre la domination, dans la politique et l’armée, des populations du Nord contre celle de la Belgique. Alors que cette dernière est la plus peuplée, son influence est minorée. La Révolution belge, qui éclate à Bruxelles en 1830, met fin à l’amalgame avec les Pays-Bas, les Belges rejetant définitivement la prédominance économique et linguistique imposée par la dynastie de la Haye. Après des combats qui embrasent tout le pays et l’intervention des grandes puissances qui contraignent le roi de Hollande à renoncer à ses prétentions, la partie méridionale du royaume des Pays-Bas devient, en 1831, une monarchie constitutionnelle sous le nom de « royaume de Belgique ». Le trône en est d'abord offert au duc de Nemours (fils du roi des Français Louis-Philippe Ier), lequel décline l'offre, craignant l'hostilité des grandes puissances européennes à un retour de l'influence française en Belgique à peine quinze ans après la chute de Napoléon, qui avait inclus la Belgique dans l'empire français à la suite de la conquête par la République française. Finalement, le, c'est le prince allemand Léopold de Saxe-Cobourg-Gotha, oncle de la reine Victoria, qui devient, premier roi des Belges. L’histoire de la Belgique indépendante est marquée par une industrialisation précoce, par la colonisation du Congo, par les deux guerres mondiales et par l’émergence de conflits politiques entre les deux principales communautés linguistiques du pays, les Flamands, d’expression néerlandaise, et les Wallons, francophones. À partir de 1970, le pays s’oriente progressivement vers le fédéralisme, ce qui aboutit à la création de six entités fédérées : trois communautés (flamande, française et germanophone) et trois régions (flamande, wallonne et de Bruxelles-Capitale). Celles-ci sont dotées d’une autonomie législative. Le caractère fédéral de l’État est reconnu officiellement depuis 1993. Les Archives générales du Royaume conservent les archives des institutions centrales des Pays-Bas bourguignons, espagnols et autrichiens jusqu’en 1795, des organismes publics centraux de la période française (1795-1815) et de celle du royaume des Pays-Bas (1815-1830). Elles conservent également les archives des institutions centrales du gouvernement national, puis fédéral, de la fondation de la Belgique (1830) à nos jours, à l’exception des ministères de la Défense et des Affaires étrangères.La Belgique est une monarchie constitutionnelle et parlementaire, dont le roi actuel est Philippe de Belgique, septième roi des Belges, depuis le.La Belgique est un État fédéral depuis 1993 composé de différentes entités fédérées. La Constitution décrit la Belgique de la façon suivante : LaL'organisation politique de la Belgique est réglée principalement par la Constitution belge et par des lois à majorité spéciales prises en exécution de celle-ci.Les domaines communautaires de Bruxelles, région bilingue, sont gérés soit conjointement par les francophones et les néerlandophones, au sein de la CoCCom (Commission communautaire commune), soit séparément et en fonction de l'appartenance au groupe linguistique des citoyens concernés, au sein de la CoCoF (Commission communautaire française) ou de la VGC (").L’ordre de préséance en Belgique comporte. LaTous les grands partis sont, depuis la fédéralisation du pays en 1970, les représentants de leur communauté linguistique. Une exception, les écologistes, flamands et wallons Écolo, qui forment un groupe politique uni au parlement fédéral. Mais les partis socialistes, ex sociaux-chrétiens et libéraux se répartissent entre francophones et flamands qui concluent occasionnellement des accords sur la base qui les rapproche, celle de la doctrine socialiste, libérale ou humaniste pour les anciens sociaux-chrétiens. On parle, dans ce cas, de « famillesAprès les élections fédérales du, les partis libéraux et sociaux-chrétiens tentèrent en vain de former un gouvernement fédéral. Cette grave crise de plusieurs mois, sur un fond de profond désaccord communautaire, constitua un fait sans précédent dans l’histoire politique du pays. Un accord obtenu plus de six mois après les élections, en décembre 2007, a mis un terme (provisoire) à cette crise par la mise en place d’un gouvernement dirigé par le premier ministre sortant Guy Verhofstadt. Le, après neuf mois de négociations, Yves Leterme devient premier ministre et le nouveau gouvernement est installé. Cependant la démission du Premier ministre Yves Leterme le (bien que non acceptée par le roi des Belges ) replonge le pays dans l’incertitude d’une crise politique en ne permettant la prolongation du gouvernement actuel que sous une forme de plus en plus tronquée et reportant les sujets brûlants à des dates ultérieures, relançant le débat sur l’opportunité de voter anticipativement en 2009, lors du scrutin régional, et, ainsi, d’unifier à nouveau les élections régionales et législatives. Il propose la démission de son gouvernement les 19 et, et le roi accepte finalement la seconde proposition de démission. Le gouvernement Van Rompuy prête serment devant le roi le 30 décembre 2008 et remplace le gouvernement Leterme. Un sondage réalisé par les quotidiens "La Voix du Nord" et "Le Soir" début juillet 2008 a révélé que 49 % des Wallons interrogés favorisent, parmi plusieurs options théoriques, un rattachement à la France en cas de scission de la Belgique, alors qu'ils n’étaient que 29 % en janvier de la même année. Mais les élections n’accordent que 1,5 à 0,5 % des voix aux listes de petits partis prônant le rattachement à la France. Cette disparité entre les opinions et les votes semble courante en Belgique, car de telles différences s’étaient déjà révélées dans un passé proche. À la suite de la nomination d'Herman Van Rompuy au poste de président du Conseil européen, Yves Leterme redevient Premier ministre le et forme un nouveau gouvernement. Le, la Belgique s'enfonce dans une nouvelle crise politique avec la demande de démission du gouvernement à la suite du conflit entre francophonesLa Belgique est membre fondateur de l'Union européenne et de l'OTAN. Son territoire abrite les principales institutions de ces deux organisations internationales. La Belgique est aussi un membre ou est affiliée à de nombreuses organisations internationales : ACCT, AEN, AID, AIE, AIEA, BAfD, BAsD, BEI, Benelux, BERD, BID, BIRD, BRI,La Belgique était en 2014 la cinquième empreinte écologique mondiale par habitant. Avec une densité humaine parmi les plus importantes au monde, elle présente un bilan carbone élevé, un déficit agricole, une surconsommation de bois. La congestion automobile entraîne la pollution de l'air, et il existe également une pollution de l'eau. La gestion des déchets semble en revanche bonne.Signé le 29 avril 1998 et approuvé le 21 mai 2002 par l’ensemble des membres de l'UE, dont il est désormais une condition à l’adhésion, le Protocole de Kyoto est entré en vigueur le 16 février 2005. En vertu du protocole, la Belgique doit réduire ses émissions de gaz à effet de serre de 7,5 % par rapport aux émissions enregistrées en 1990. Elle a dès lors réparti son engagement de réduction entre les Régions et le fédéral de la façon suivante : Comme la compétence est très transversale entre les régions et le fédéral, deux institutions ont été créées :La Belgique est une monarchie constitutionnelle, particratique et parlementaire. Le chef de l’État est le roi Philippe mais le pouvoir est exercé par un Parlement bicaméral élu tous les cinq ans et un gouvernement. Reflet des répartitions linguistiques de la population, le pays est divisé depuis 1970 en trois communautés linguistiques et trois régions territoriales. La Constitution fut amendée en 1993 pour adopter un système fédéral afin d'éviter la rupture entre néerlandophones et francophones. Malgré cela, les tensions politiques, culturelles, linguistiques et économiques existent entre les deux communautés. Deux partis politiques flamands, le et la N-VA, prônent ainsi l'indépendance de la Flandre à court terme tandis qu'un parti francophone très minoritaire, le RWF, souhaite le rattachement de la Wallonie et de Bruxelles à la France. Ces deux mouvements sont d'obédience républicaine par nature. Le fédéralisme belge, qui contient des traits de confédéralisme, est bâti sur le concept d’équipollence des normes, c’est-à-dire que le niveau de pouvoir fédéral n'a aucune préséance par rapport aux entités fédérées. Un décret voté au Parlement wallon ne peut ainsi pas être contredit par une loi belge. De plus, comme les entités fédéréesLes Régions (Région wallonne, Région flamande et RégionLes Communautés (Communauté française, Communauté flamande et Communauté germanophone) sont les entités fédérées qui sont compétentes en matièreLa Région flamande et la Région wallonne sont divisées chacune en cinq provinces. Tandis que la RégionLes villes de Bruxelles, Liège, Namur, Charleroi, Mons, de même que l'Union des villes et communes deLa liberté de religion est inscrite dans la Constitution. C'est un pays de tradition catholique romaine, mais l'influence de l'Église et de la religion catholique sur la société belge a connu un déclin marqué. De fait, le nombre de fidèles dans les églises diminue depuis les années cinquante. La religion catholique reste cependant la plus répandue. D'autres, telles que l’islam,La vie culturelle belge a eu tendance à se développer dans chaque communauté. Les éléments inter-communautaires sont moins nombreux, en partie à cause de l'absence d'université bilingue, à part l’Académie royale, de médias communs, ni d'organisations culturelles ou scientifiques significatives où toutes les communautés sont représentées. Ces éléments précisés, la Belgique en tant que telle est culturellement connue pour son art raffiné et son architecture. Il y a lieu de remarquer que l'Internet est aussi un élément de fracture communautaire dans la mesure où les deux communautés ne participent pratiquement à aucune communication en ligne commune que ce soit sur le plan culturel, scientifique, technique ou même les loisirs, les francophones fréquentant plutôt les cercles français et les Flamands s'organisantLa cuisine belge est variée et connaît des variations régionales significatives. Elle est aussi influencée par les cuisines traditionnelles des pays voisinsLe PIB belge est de d'euros, plaçant le pays au neuvième rang parmi les pays de l'Union européenne (en 2009). LaL'Armée belge compte, en 2019,, soit dans l'armée de terre, dans l'aviation, dans la marine et au service médical. Le recrutement y est essentiellement fondé sur le volontariat de carrière depuisLa sécurité civile belge se scinde en deux parties : Une réforme est en cours afin de regrouper les services régionaux d'incendie en zones de secours,La Belgique a pour codes :
La Belgique (';'), en forme longue le royaume de Belgique, est un pays d’Europe de l'Ouest, bordé par la France, les Pays-Bas, l’Allemagne, le Luxembourg et la mer du Nord. Politiquement, il s'agit d’une monarchie constitutionnelle fédérale à régime parlementaire. Elle est l’un des six pays fondateurs de l’Union européenne et accueille, dans sa capitale Bruxelles, le Conseil de l'Union européenne, la Commission européenne, les Commissions parlementaires et six sessions plénières additionnelles du Parlement européen, ainsi que d’autres organisations internationales comme l’OTAN. Le pays accueille également, à Mons, le Grand Quartier général des puissances alliées en Europe (SHAPE). La Belgique couvre une superficie de avec une population de au, soit une densité de.
xwikis
Un déplacement et une longueur sont tous les deux exprimés en mètres, mais ces deux grandeurs ne sont pas équivalentes. Le terme de « longueur » est plutôt réservé à la mesure géométrique d'un objet, d'une distance ou d'un chemin, c'est le résultat d'une intégrale curviligne. Une telle longueur est alors un scalaire extensif (la longueur hors tout d'un train est la somme des longueurs de ses composants). Un « déplacement » est en revanche une grandeur vectorielle (caractérisée par une direction et une norme) et intensive (elle est définie en chaque point, et ne peut pas être additionnée d'un point sur l'autre). Sur le plan de l'analyse dimensionnelle, ces deux grandeurs sont toutes les deux des longueurs, mais la grandeur d'orientation est différente : la longueur est un scalaire en tandis que le déplacement est un vecteur en. Le long d'une courbe, le déplacement élémentaire formula_5 est une grandeur dont l'intégrale sur l'ensemble d'un segment peut conduire :Contrairement au vecteur position, le vecteur déplacement ne fait pas référence à une origine, mais à un point de départ. La différence entre position et déplacement ne tient qu'au statut du point d'origine : le vecteur déplacement est égal au vecteur position lorsque l'origine est prise par rapport au point de départ ; et inversement, le vecteur position est le déplacement qu'il faut effectuer pour aller de l'origine au point considéré. Ces deux notions sont liées en cinématique du point : la vitesse se définit comme la dérivée du vecteur position par rapport au temps, mais la primitive de la vitesse (définie à une origine arbitraire près) ne présente pas d'intérêt, contrairement à l'intégrale de cette vitesse sur un intervalle de temps, qui donne le vecteur déplacement de ce point.En coordonnées cartésiennes (origine et vecteurs de base formula_8) : où, et sont les coordonnées du point dans le repère cartésien.En coordonnées cylindriques (origine et vecteurs de base formula_10) : Les coordonnées polaires et du point M sont reliées à ses coordonnées cartésiennes planes et par : Les vecteurs de base formula_14 et formula_15 dépendent de :En coordonnées sphériques (origine et vecteurs de base formula_18) : Les coordonnées sphériques, et du point M sont reliées à ses coordonnées cartésiennes planes, et par : Les vecteurs de base formula_23, formula_15 et formula_25 dépendent de et :Le vecteur déplacement est défini comme la différence entre les vecteurs positions d'un point à deux instants différents. La dérivée d'un vecteur position par rapport au temps, donne un vecteur vitesse.
En géométrie, le vecteur position, ou rayon vecteur, est le vecteur qui sert à indiquer la position d'un point par rapport à un repère. L'origine du vecteur se situe à l'origine fixe du repère et son autre extrémité à la position du point. Si l'on note cette position et l'origine, le vecteur position se note formula_1. On le note aussi formula_2 ou formula_3.
xwikis
Avant Galilée, la théorie du mouvement est dans la philosophie occidentale dictée par la physique aristotélicienne qui ne connait pas l'inertie, et n'est pas compatible avec celle-ci. Entre autres, l'état naturel d'un corps est l'immobilité en son « lieu naturel », et son « mouvement naturel » est d'y retourner (corps lourds ou « graves » vers le bas tels la terre et l'eau, corps légers vers le haut pour l'air et le feu) par une propriété interne de finalité ; tout autre mouvement est « violent » et nécessite un « moteur » continuellement appliqué pour être entretenu. Cette conception aristotélicienne est présente également chez les théoriciens de l"'impetus", inventé pour pallier les manquements des explications d'Aristote au sujet du comportement de projectiles divers: Jean Buridan reprend les idées anciennes de Jean Philopon, commentateur d'Aristote au, et explique le mouvement, non plus par le contact entre un moteur et un mobile, mais par la possibilité pour le mouvement de conserver en lui un certain élan que le moteur assure au corps mû, et qu'il qualifie d'impetus. C'est la diminution de la force de l'impetus qui expliquerait la chute des corps. Cette théorie du mouvement est encore présente dans la première forme de pensée de Galilée (notamment dans son "De motu"); elle constitue un premier pas vers l'instauration du principe d'inertie. Mais Buridan va plus loin et précise cette thèse en expliquant que le corps dense, parce qu'il contient plus de matière relativement a son faible volume, peut expliquer pourquoi tel corps peut être lancé plus loin qu'un autre corps, premiers éléments de la théorie de la quantité de mouvement que défendra plus tard Descartes. Un disciple de Buridan, Albert de Saxe appliqua la théorie de l'impetus aux orbes célestes et proposa une nouvelle théorie de la « gravité » qui distingue entre la gravité d'un corps et celle de la Terre, provoquant un long débat auquel prendront part encore Léonard de Vinci, Girolamo Cardano et Bernard Palissy. Le nom d"'inertie" est donné par Kepler à la tendance des corps à rester au repos, à s'opposer au mouvement, ce qui reste une conception aristotélicienne. Le principe d'inertie est décrit dans les deux œuvres de Galilée, respectivement, en 1632 et en 1638: Le Dialogo sopra i due massimi sistemi del mondo et le Discorsi e dimostrazioni matematiche intorno a due nuove scienze attenenti alla mecanica e i movimenti locali. Galilée abandonne la conception qualitative aristotélicienne et médiévale du cosmos, et préfère une conception platonicienne : pour lui, le langage de la nature est « géométrique ». Étudiant les travaux de ses prédécesseurs, dont Archimède, il abandonne l'impetus et décrit le "mouvement inertiel" (ainsi que la relativité du mouvement) sans jamais nommer ce phénomène. « [...] Galilée n’a pas formulé de "principe d’inertie". Sur la route qui, du Cosmos bien ordonné de la science médiévale et antique, mène à l’Univers infini de la science classique, il n’est pas allé jusqu’au bout ». Si la physique de Galilée est « implicitement » basée sur l'inertie, il est reconnu que c'est René Descartes qui aurait formulé le mieux l'inertie, dans ses « "Principes de la philosophique", 2 partie, §37 », et qui « pour la première fois, en a entièrement compris la portée et le sens ». Toutefois d’origine non précisée – mais il fut, selon toute vraisemblance, conçu sous l’influence de Isaac Beeckman, le principe cartésien, bien que formellement plus correct, a davantage le statut d’une affirmation philosophique générale que d’une proposition scientifique, intrinsèquement liée aux conditions qu’exige une théorie géométrisée du mouvement. Face au principe galiléen qui nous introduit dans la science moderne, son vrai domaine d’application reste la cosmologie philosophique. Par son association avec le concept d’une matière en soi indifférente au repos et au mouvement, Galilée est le précurseur direct du principe classique d’inertie, ouvrant la voie à une première théorie mathématisée du mouvement dont les résultats passeront intégralement dans la synthèse newtonienne. Quand Newton, dans le Scholium qui suit l’énoncé des définitions et des lois du mouvement, dans la première partie de ses "Principia Mathematica", attribue à Galilée la découverte de la première loi (le principe d’inertie), sans mentionner Descartes, il prend acte à sa manière de cette situation qu’en lecteur attentif des Principes il a dû parfaitement percevoir. C'est Jean-Baptiste Baliani, disciple de Galilée qui généralise et énonce le principe d'inertie comme loi fondamentale du mouvement, formulé comme suit: Isaac Newton s'inspire des écrits de Galilée et Descartes pour l'énoncé de la "première loi" de ses "Philosophiae Naturalis Principia Mathematica" publiés en 1686. Sa formulation de l'inertie, bien que volontairement distincte de celle de Kepler, reste attachée aux anciennes conceptions par l'utilisation d'une « force inhérente à la matière » pour expliquer le mouvement inertiel ; près d'un siècle supplémentaire sera nécessaire pour qu'une formulation soit exempte d'une telle « force inertielle », sous la plume de Léonard Euler. Christian Huygens définit les notions de force centrifuge (force d'inertie d'un objet en rotation dans des référentiels non inertiels) et de moment d'inertie. En 1835, Gaspard-Gustave Coriolis décrit mathématiquement dans son article "Sur les équations du mouvement relatif des systèmes de corps" une autre force inertielle, la force de Coriolis.Il n'y a pas de théorie unique acceptée qui explique la source de l'inertie. Divers efforts notables à ce niveau ont été faits par des physiciens tels que Ernst Mach (voir le principe de Mach), Albert Einstein, Dennis W. Sciama et Bernard Haisch, mais ces efforts ont tous été critiqués par d'autres théoriciens. Parmi les traitements récents de la question, on peut citer des travaux de C. Johan Masreliez (2006-2009), pour l’édification d'une théorie du cosmos à expansion d'échelle, et ceux de Vesselin Petkov (2009).L'inertie s'exprime différemment selon le type de référentiel de l'observateur.
En physique, l'inertie d'un corps, dans un référentiel galiléen (dit "inertiel"), est sa tendance à conserver sa vitesse : en l'absence d'influence extérieure, tout corps ponctuel perdure dans un mouvement rectiligne uniforme. L'inertie est aussi appelée principe d'inertie, ou loi d'inertie, et, depuis Newton, première loi de Newton.
xwikis
On trouve une première formulation de la quantité de mouvement chez Jean Buridan (1292 - 1363), dans ses "Questiones" sur la physique d'Aristote : L<nowiki>'</nowiki>"impetus" implanté augmente dans le même rapport que la vitesse. Quand un déménageur met un corps en mouvement, il y implante un certain "impetus". C'est une certaine force qui permet au corps de se déplacer dans la direction dans laquelle le déménageur démarre ce mouvement, qu'il soit vers le haut, vers le bas, vers le côté ou en cercle. C'est à cause de cet "impetus", dit-il, qu'une pierre se déplace après que le lanceur a cessé de la déplacer. Mais en raison de la résistance de l'air (et aussi de la gravité de la pierre) qui s'efforce de la déplacer dans le sens inverse du mouvement causé par l<nowiki>'</nowiki>"impetus", celui-ci faiblira tout le temps. Par conséquent, le mouvement de la pierre sera progressivement plus lent et, finalement, l'impulsion est tellement diminuée ou détruite que la gravité de la pierre prévaut et déplace la pierre vers son lieu naturel. On peut, dit-il, accepter cette explication parce que les autres explications s'avèrent fausses alors que tous les phénomènes sont d'accord avec celle-ci. L'impulsion implantée, on notera, est causée par la vitesse et supposée proportionnelle à celle-ci. Ailleurs, Buridan l'a considérée comme proportionnelle au poids du corps. Dans les unités correctement choisies. L'expression reproduite par l'historien des sciences, donne un sens précis à l<nowiki>'</nowiki>"impetus", un concept qui était auparavant assez vague. Du point de vue formel, ce nouveau concept en dynamique est égal à la quantité de mouvement de la physique classique, mais en réalité, les deux sont très différents parce qu'ils jouent différentes parties dans leurs théories dynamiques respectives. Le point important est que dans son sens médiéval, le mot "impetus" est une force avec le même statut physique que la gravité, la légèreté, le magnétisme Néanmoins, la théorie pourrait bien avoir préparé la voie à la notion d'inertie qui le remplacera définitivement au.Dans le "Discorsi e dimostrazioni matematiche intorno a due nuove scienze" de Galilée, la conservation du mouvement, pourtant pleinement reconnue et utilisée, intervient seulement au cours de l’exposé. René Descartes, mesurant toute sa portée, l’introduit comme une « loi de la nature » au seuil de sa philosophie naturelle. Toutefois les domaines d’application du système de Descartes reste la cosmologie philosophique. Il n'a pas la qualité d’une proposition scientifique, intrinsèquement liée aux conditions qu’exige une théorie géométrisée du mouvement. Par son association avec le concept d’une matière en soi indifférente au repos et au mouvement, Galilée est le précurseur direct du principe classique d’inertie, ouvrant la voie à une première théorie mathématisée du mouvement dont les résultats passeront intégralement dans la synthèse newtonienne.En mécanique classique, la quantité de mouvement d'un point matériel de masse animé dans un référentiel donné d'une vitesse formula_10 est définie comme produit de la masse et de la vitesse : C'est donc, comme la vitesse, une grandeur vectorielle, dont l'unité SI est le kilogramme mètre par seconde (). Cette grandeur est "additive", ainsi pour un système matériel composé de "N" particules, la quantité de mouvement totale (ou "résultante cinétique") du système est définie par : En introduisant le centre d'inertie "C" du système dont le vecteur position est par définition formula_13 il vient aussitôt par dérivation la relation: autrement dit la quantité de mouvement totale du système est égale à la quantité de mouvement de son centre d'inertie "C" affectée de la "masse totale" formula_15 du système : Cette relation est valable pour tout type de système matériel, déformable ou non. En mécanique du solide, la quantité de mouvement est la résultante du torseur cinétique.La relation fondamentale de la dynamique exprime le fait que l'action d'une force fait varier la quantité de mouvement du point matériel dans un référentiel galiléen : Cette relation se généralise aisément à un système matériel en ce qui concerne la quantité de mouvement totale du système, c'est-à-dire celle de son centre d'inertie "C" affecté de la masse totale du système : Ce résultat est connu sous le nom de théorème de la résultante cinétique ou encore "théorème du centre d'inertie": il montre que pour un système matériel l'action des forces extérieures conduit à une variation de la quantité de mouvement du centre d'inertie du système.En l'absence de forces extérieures, ou si leur résultante est nulle, la quantité de mouvement d'un système matériel est donc une constante du mouvement, puisque alors formula_18. En mécanique analytique cette loi de conservation peut être reliée à l'invariance par translation dans l'espace du Lagrangien, "cf". ci-après. Une illustration classique de la conservation de la quantité de mouvement est fournie par le pendule de Newton, qui est souvent utilisé comme objet décoratif ("cf". illustration ci-contre). Une bille à une extrémité est lâchée sans vitesse et acquiert une certaine quantité de mouvement, puis entre en collision avec les autres billes accolées. La bille à l'autre extrémité repart dans le même sens que la bille incidente, ayant acquis sa quantité de mouvement, qui se « transmet » à travers les billes accolées. De façon générale, la conservation de la quantité de mouvement est très importante dans l'étude des chocs de particules ou de la désintégration (séparation en plusieurs parties) d'un système. En effet dans le cas d'un choc de deux (ou plus) corps matériel, la durée de l'interaction entre les corps est très brève et il est possible de négliger l'effet des interactions extérieures au système constitué par les corps en collision, dont la quantité de mouvement totale peut donc être considérée comme conservée. Il est important de souligner que l'énergie cinétique n'est en général pas conservée dans une collision, car il y a souvent changement de l'état interne des corps durant la collision : par exemple deux particules qui restent accolées au cours d'une collision, ce n'est que si la collision est élastique que l'énergie cinétique est conservée, en plus de la quantité de mouvement ("cf". illustrations ci-contre). Deux exemples classiques permettent d'illustrer l'application de la conservation de la quantité de mouvement dans l'étude des chocs ou de la désintégration d'un système : où formula_22 est la variation de la vitesse de la première boule pendant le choc. Si le choc est de plein fouet alors formula_22 et formula_24 sont colinéaires et alors la deuxième boule part à la vitesse de valeur formula_25. À la limite il peut y avoir transfert de la totalité de la quantité de mouvement de la première boule sur la deuxième et alors formula_26. Par suite, il y a un phénomène de recul de l'arme à la vitesse formula_30. Le même phénomène intervient lorsqu'un objet lourd (une pierre) est projeté depuis une barque (image ci-contre). De façon générale ce phénomène permet de comprendre le principe du moteur-fusée ("cf". figure ci-contre) : l'expulsion d'une masse d"m" de matière à la vitesse d'éjection formula_31 pendant d"t" conduit — du fait de la conservation de la quantité de mouvement — (et en négligeant l'action des forces extérieures) à faire varier la vitesse de la fusée spatiale de formula_32. En intégrant sur une durée finie formula_33, la vitesse de la fusée (de masse initiale "m") varie donc de formula_34 avec puisque la fusée perd de la masse. Ainsi, la fusée se déplace dans le sens opposé aux gaz éjectés (cf. Équation de Tsiolkovski).Une variation de quantité de mouvement consécutive à l'action d'une force est donc calculée comme étant l'intégrale de la force pendant la durée d'action de la force. Pour un objet de quantité de mouvement initiale formula_35à un instant, qui subit une force formula_36 pendant une durée, l'intégrale de cette force par rapport au temps, pendant cette durée, est égale à : En utilisant la relation fondamentale de la dynamique formula_38, on obtient : L'usage, dérivé de l'appellation anglo-saxonne "impulse", est d'appeler cette grandeur « impulsion ». Néanmoins, en toute rigueur, en français "impulsion" désigne le moment conjugué, grandeur de la mécanique lagrangienne. Lorsque la durée d'action de la force est très courte, la grandeur précédente est appelée percussion mécanique, en raison de son importance dans la théorie des chocs.En mécanique lagrangienne, l'état d'un système de "N" particules (3"N" degrés de liberté) est décrit par son Lagrangien noté formula_40, où formula_41 et formula_42 désigne les coordonnées et vitesses généralisées sous formes vectorielles de la "i-ème" particule ("i" = 1...,"N").Pour chaque particule il est possible de définir le "moment conjugué" (ou impulsion généralisée) de formula_41 par la relation: Le symbole formula_45 désignant l'opérateur gradient évalué par rapport aux composantes de la vitesse généralisée formula_42 de la "i"-ème particule. D'après les équations de Lagrange, qui s'écrivent avec les mêmes notations formula_47 il vient aussitôt formula_48, et si la coordonnée formula_41 est "cyclique", c'est-à-dire que le lagrangien "L" ne dépend pas de celle-ci, alors formula_50 et donc le moment conjugué formula_51 est conservé.La notion de moment conjugué ne correspond pas en général à celle de la quantité de mouvement. Par exemple, dans le cas du mouvement d'un seul point matériel dans un potentiel central, ne dépendant que de la distance à une origine, le mouvement est plan (2 degrés de liberté) et le Lagrangien du système peut s'écrire aisément en coordonnées cylindro-polaires sous la forme : et le moment conjugué de formula_53 est donc formula_54 qui est la valeur du moment cinétique de la particule (qui dans ce cas est conservée car "L" ne dépend pas de "θ"). Ce n'est que si les coordonnées généralisées coïncident avec les coordonnées cartésiennes ("i.e." ) et en l'absence de champ électromagnétique que formula_55 et donc que le moment conjugué correspond à la quantité de mouvement de chaque particule. En effet dans ce cas les équations de Lagrange s'identifient avec celles données par la relation fondamentale de dynamique appliquée à chaque particule. Si les coordonnées cartésiennes sont utilisées et que les particules, qui portent une charge sont en présence d'un champ électromagnétique, défini par les potentiels scalaire et vecteur du champ notés formula_56, le Lagrangien du système fait intervenir le potentiel généralisé :formula_57, et dans ce cas le moment conjugué s'écrit du fait des équations de Lagrange Le moment conjugué formula_51 est alors dans ce cas désigné sous le nom d'impulsion pour le distinguer de la quantité de mouvement formula_61.Une translation infinitésimale du système dans l'espace est définie par la transformation formula_62 appliquée à chaque particule, formula_63 étant le vecteur de translation élémentaire. Il est évident puisque formula_64 que cette translation laisse inchangée les vecteurs vitesses formula_19 des particules, qui coïncident avec les vitesses généralisées pour les coordonnées cartésiennes. Si le Lagrangien du système est invariant par translation dans l'espace, alors nécessairement sa variation élémentaire formula_66 correspondante est nulle au premier ordre en formula_63. D'après les équations de Lagrange, et en opérant en coordonnées cartésiennes, cette condition s'écrit sous la forme : or la translation élémentaire formula_69 envisagée étant arbitraire, l'invariance par translation du Lagrangien implique que la quantité de mouvement totale du système formula_70 est conservée. Ainsi la quantité de mouvement apparaît naturellement en mécanique analytique comme la grandeur conservée associée à l'invariance par translation du Lagrangien (ou du Hamiltonien), c'est-à-dire à la propriété "d'homogénéité de l'espace". Il s'agit d'un cas particulier du théorème de Noether.Dans le formalisme hamiltonien la description de l'état du système à "N" degrés de liberté se fait en termes des "N" coordonnées et impulsions généralisées et, qui interviennent dans l'expression du Hamiltonien du système. Il est possible d'introduire le crochet de Poisson de deux grandeurs arbitraires et fonction des coordonnées et impulsions généralisées, défini par : Dans le cas particulier où et il vient : ce résultat permet de généraliser la notion de position et de quantité de mouvement en mécanique quantique, en permettant de définir par le principe de correspondance une relation de commutation canonique entre les deux opérateurs.Dans le cadre de la description eulérienne des fluides, les équations sont généralement présentées sous forme locale (en un point). On s'affranchit alors de la notion de volume en définissant en tout point du fluide le vecteur quantité de mouvement parformula_72 avec la masse volumique du fluide étudié au point à l'instant et formula_73 la vitesse de la particule de fluide se trouvant au point à l'instant. Si le fluide est incompressible, est constant dans le temps et dans l'espace.Le théorème de la quantité de mouvement pour un fluide s'écrit :formula_74À noter que les forces exercées par l'extérieur sur le fluide sont de deux types : les forces à distance (volumiques) et les forces au contact (surfaciques) :formula_75Un exemple de force volumique est le poids et un exemple de force surfacique sont les forces de friction (on parle plutôt de viscosité).Lorsqu'Albert Einstein formula sa théorie de la relativité restreinte, il adapta la définition de la quantité de mouvement en un vecteur en quatre dimensions (quadrivecteur) appelé le quadri-moment, égal à la quadrivitesse multipliée par la masse du corps. Le quadri-moment reste lui aussi constant au cours du temps en l'absence de force extérieure. De plus, la norme du quadri-moment est invariante par changement de référentiel inertiel. Plus précisément, la pseudo-norme est invariante par les transformations de Lorentz, ce qui traduit l'invariance de la masse "m" du corps (et de son énergie "au repos" : mc2). Par contre, il y a changement des coordonnées du quadri-moment d'un référentiel à l'autre, et cela traduit le fait que la vitesse du corps et son énergie cinétique sont différentes d'un référentiel à l'autre. L'expression de la quadri-vitesse d'une particule de vitesse spatiale "v" inférieure à "c" est : où formula_10 représente le vecteur vitesse classique de la particule, et formula_78 est un facteur appelé "gamma relativiste" ou facteur de Lorentz, étant la vitesse de la lumière. Le carré de la norme de ce quadrivecteur est donné par formula_79. Le quadrivecteur impulsion-énergie qui généralise en mécanique relativiste la notion de quantité de mouvement s'obtient en considérant par analogie avec la définition classique, ce qui donne formula_80, avec : Le carré de la norme de ce quadrivecteur est la grandeur qui reste invariante lors d'une transformation de Lorentz, et qui est nécessairement égale au carré de la norme de formula_83 soit, par suite L'invariant relativiste associé à ce quadrivecteur est donc l'énergie de masse de la particule (de même que la masse demeure inchangée en mécanique newtonienne par changement de référentiel). Les objets de masse nulle, tels que les photons, possèdent aussi un 4-moment où la pseudo-norme du quadrivecteur est nulle. On a dans ce cas :La notion de quantité de mouvement n'est pas limitée à un corps matériel, mais peut être étendue à un champ comme le champ électromagnétique, pour lequel elle porte plutôt le nom d'impulsion, pour éviter toute confusion. L'impulsion du champ électromagnétique correspondant à un volume "V" est donnée par : La quantité formula_8 correspond à la "densité d'impulsion électromagnétique", c'est-à-dire à l'impulsion du champ électromagnétique par unité de volume. Elle est directement liée au vecteur de Poynting formula_88 puisque formula_89. Il est possible de montrer que cette quantité correspond bien à la densité d'impulsion liée au champ électromagnétique en considérant son interaction avec les charges et les courants présents dans un volume "V" arbitraire, délimité par la surface fermée : de par la conservation de l'impulsion du système global {charges + courants + champ e.m}, la variation des densités d'impulsions des charges et courants et du champ doit être égale au flux de densité d'impulsion à travers la surface. L'interaction entre le champ et les charges et les courants fait intervenir la densité de force de Lorentz formula_90, or d'après les équations de Maxwell, il vient : ce qui donne par substitution : or d'après l'identité formula_94, il vient : le terme de droite pouvant être rendu plus symétrique en utilisant les deux équations de Maxwell donnant la structure du champ : ce qui donne finalement : le terme de droite peut alors se mettre sous la forme de la divergence du tenseur des contraintes de Maxwell : soit finalement : cette dernière équation apparaît bien sous la forme d'une équation locale de bilan, le terme de gauche donnant la variation temporelle de la densité locale d'impulsion du système des charges et courants (formula_101) et du champ (terme en formula_102), le terme de droite correspondant aux échanges avec le reste. Ainsi, formula_103 peut être assimilée à la densité d'impulsion du champ électromagnétique.En mécanique quantique, l'état d'un système à un instant "t" est décrite par un vecteur d'état noté formula_104 appartenant à l'espace des états formula_105 du système (celui-ci possède une structure d'espace de Hilbert). Les différentes grandeurs physiques usuelles (position, énergie, etc.) sont alors des opérateurs hermitiens, donc à valeurs propres réelles, appelé "observables". La notion de quantité de mouvement d'une particule, plus souvent appelée "impulsion" correspond à un opérateur, en fait un ensemble de trois opérateurs correspondant chacun aux trois composantes d'espaces, dits opérateurs scalaires, qu'il est possible de regrouper, par analogie avec le cas classique en un opérateur dit "vectoriel", dit opérateur impulsion, noté formula_106.Par définition, l'opérateur de position formula_107 et l'opérateur impulsion formula_106 sont des opérateurs vectoriels, dont les trois opérateurs scalaires agissant sur les différentes composantes correspondent aux diverses directions d'espace et obéissent aux relations de commutation canoniques suivantes : La première relation de commutation se déduit formellement par analogie avec le crochet de Poisson entre coordonnées et impulsions généralisées en mécanique hamiltonienne, en appliquant la prescription (principe de correspondance): formula_110. La non-commutativité entre formula_111 et formula_112 ("idem" pour les autres composantes) implique "qu'il n'est pas possible de mesurer simultanément la position et la quantité de mouvement (et donc la vitesse) d'une particule". Il existe donc des inégalités, dites de Heisenberg, sur les écart-types moyens notés et de la mesure de chacune des deux grandeurs : formula_113. La conséquence de ces relations est que la notion de trajectoire n'existe pas pour une particule quantique. De façon heuristique, cette situation peut aisément se comprendre. En effet si l'on cherche à localiser avec précision une particule, il faut utiliser une onde de courte longueur d'onde, donc de grande énergie. Or cette énergie va être nécessairement transmise, en tout ou en partie à la particule, modifiant de façon appréciable sa quantité de mouvement. Il sera possible d'utiliser une onde de plus grande longueur d'onde, mais alors l'incertitude sur la mesure de la position augmentera.En représentation position, où l'état du système peut être décrit par sa fonction d'onde formula_114, l'opérateur position pour une composante "x" donnée correspond simplement à la multiplication de la fonction d'onde par celle-ci : il est alors facile de vérifier que du fait de la relation de commutation canonique entre formula_116 et formula_117 la quantité de mouvement dans la direction formula_118, pour une particule sans charge électrique et sans spin, est donné par l'opérateur : l'opérateur vectoriel de quantité de mouvement formula_106 s'écrit ainsi sous forme intrinsèque :En représentation impulsion l'état du système est décrit par la fonction d'onde « en impulsion » formula_122, l'opérateur impulsion pour une composante "x" donnée correspond simplement à la multiplication de la fonction d'onde par celui-ci: il est alors facile de vérifier que du fait de la relation de commutation canonique entre formula_111 et formula_112 l'expression de l'opérateur position formula_111, pour une particule sans charge électrique et sans spin, est donné par: l'opérateur vectoriel de position formula_107 s'écrit ainsi dans cette représentation sous forme intrinsèque :Les états propres de l'opérateur quantité de mouvement, c'est-à-dire les états pour lequel la quantité de mouvement de la particule a une valeur déterminée, sont donnés en représentation position à une dimension selon "x" par l'équation aux valeurs propres : La valeur de n'est pas quantifiée "a priori", sauf si des conditions particulières sont imposées à la particule, par exemple si elle confinée dans une boîte. Ce résultat se généralise aussitôt à trois dimensions sous la forme formula_133, où formula_134 est le vecteur d'onde de la particule. Ces états ne sont pas normalisables au sens usuel (ce ne sont pas des fonctions de carré sommable), mais il est possible de les normaliser « au sens des distributions » : Avec cette condition de normalisation il est possible de montrer que formula_136, en prenant pour convention de phase "C" réel et les états propres normalisés de l'opérateur impulsion s'écrivent ainsi en représentation position: Pour un système stationnaire, l'opérateur hamiltonien du système s'exprime en fonction de l'opérateur quantité de mouvement : formula_138 (particule sans spin en l'absence de champ magnétique). En général du fait de la non-commutation entre opérateur impulsion et position, les états propres de l'impulsion ne sont pas états propres du hamiltonien. Toutefois, dans le cas d'une particule libre formula_139 dans tout l'espace, et les états propres du hamiltonien sont ceux de l'impulsion, car alors formula_106 et formula_141 commutent entre eux. Les états propres d'énergie formula_142 ne sont donc pas quantifiés, et sont qualifiés de continus. Ils correspondent chacun à une valeur donnée de l'impulsion. Cette situation correspond en mécanique quantique à la conservation de la quantité de mouvement classique. La fonction d'onde « complète » d'un tel système, c'est-à-dire la solution de l'équation de Schrödinger dépendant du temps, est alors donnée par formula_143, avec formula_144, fréquence associée à l'énergie "E". "Les états propres ont donc la forme d'ondes progressives", traduisant sur le plan quantique le déplacement classique de la particule selon la direction de l'impulsion. Le caractère continu de ces états propres de l'impulsion disparaît si la particule n'est plus strictement "libre", mais "confinée" dans une région donnée de l'espace (« barrière de potentiel infinie »). Du point de vue mathématique cela revient à imposer des conditions aux limites à la fonction d'onde, qui devra s'annuler sur la « frontière » de la « boîte » dans laquelle est confinée la particule, puisque celle-ci a une probabilité de présence nulle en dehors de cette région. Ces conditions aux limites se traduisent physiquement par une quantification de l'énergie et donc de l'impulsion (cf. pour plus de détail l'article Particule dans une boîte). Les états propres correspondants se mettront sous la forme d'une somme des états propres libres, et correspondront à des ondes stationnaires, traduisant sur le plan quantique le confinement de la particule, cf. figure ci-contre.
En physique, la quantité de mouvement est le produit de la masse par le vecteur vitesse d'un corps matériel supposé ponctuel. Il s'agit donc d'une grandeur vectorielle, définie par formula_1, qui dépend du référentiel d'étude. Par additivité, il est possible de définir la quantité de mouvement d'un corps non ponctuel (ou système matériel), dont il est possible de démontrer qu'elle est égale à la quantité de mouvement de son centre d'inertie affecté de la masse totale du système, soit formula_2 ("C" étant le centre d'inertie du système). Son unité est le.
xwikis
La figure ci-contre illustre le cas d'une voiture qui accélère en ligne droite. On peut comparer le point de vue d'un piéton, supposé galiléen, qui observe depuis le trottoir, à celui de l'automobiliste: Dans les deux cas, les forces d'interaction chaussée/voiture, voiture/siège et siège/conducteur sont les mêmes : ce sont les « vraies » forces, indépendantes du référentiel. On peut remarquer que les forces d'inertie servent ici à équilibrer ces forces afin de maintenir l'automobiliste et sa voiture au repos dans leur propre référentiel.La force d'inertie, pour la plupart des dictionnaires, est "la résistance des corps au mouvement, résistance proportionnelle à leur masse."Soit (R) un référentiel galiléen centré en 0, et (R') un référentiel non galiléen centré en A, dont la rotation (instantanée) autour de (R) est donnée par le vecteur formula_1. Soit un point M mobile de masse "m" subissant des forces de résultante formula_2. Soit formula_3 la vitesse relative de M dans (R'). Alors, d'après la loi de composition des mouvements, en notant formula_4 l'accélération absolue dans (R), formula_5 l'accélération relative dans (R'), formula_6 l'accélération d'entraînement et enfin formula_7 l'accélération de Coriolis, on a : formula_8 Or, d'après le principe fondamental de la dynamique, on a : formula_9 D'où, dans (R'): formula_10 En définissant les forces d'inertie formula_11 et formula_12, on peut alors écrire le principe fondamental de la dynamique dans le référentiel (R') non galiléen : La force formula_13 est appelée force d'inertie d'entrainement, et son expression développée est : Dans l'expression précédente : La force formula_16 est appelée force d'inertie de Coriolis, et son expression développée est :Supposons que (R') subisse une accélération constante formula_17 dans (R). (R') est donc animé d'un mouvement linéaire uniformément accéléré dans (R). Dans (R'), il faut ajouter la force d'inertie d'entrainement formula_13 qui vaut alors simplement : formula_19 C'est ce qui se passe par exemple dans une voiture en ligne droite : la force d'inertie s'oppose à l'accélération de la voiture.Dans un manège tournant à la vitesse angulaire formula_20, nous avons tendance à nous éloigner du centre de rotation noté A ; cela est dû à la force d'inertie d'entrainement qui vaut alors : Cette force est encore appelée force centrifuge (ou axifuge) car elle a tendance à éloigner un objet de l'axe de rotation.En mécanique newtonienne, le mot force a un sens assez strict. Une force : Une force d'inertie ne respecte ni l'une ni l'autre de ces conditions, d'où les noms de "force fictive" ou "pseudo-force". Certains auteurs utilisent plutôt les termes d'accélération centrifuge, accélération inertielle et effet de Coriolis pour désigner les causes de ce que d'autres nomment respectivement force centrifuge, force inertielle et force de Coriolis.La notion de force d'inertie apparaît en relativité générale. Les forces d'inertie sont toujours proportionnelles à la masse de l'objet sur lequel elles agissent, ce qui est aussi le cas de la gravité. Ceci a conduit Albert Einstein à se demander si la gravitation était aussi une force d'inertie. Il remarque qu'un observateur en chute libre dans une pièce fermée ne ressent pas la gravité, et peut se croire dans un référentiel inertiel (c'est le principe d'équivalence). Ceci a conduit Einstein à formuler une théorie où la gravitation est une pseudo-force due à la courbure de l'espace-temps. Cette idée est le fondement de la relativité générale.
Une force d'inertie, ou inertielle, ou force fictive, ou pseudo-force est une force apparente qui agit sur les masses lorsqu'elles sont observées à partir d'un référentiel non inertiel, autrement dit depuis un point de vue en mouvement accéléré (en translation ou en rotation).
xwikis
En physique classique comme en relativité restreinte, l'espace de l'observateur est assimilé à un espace affine à trois dimensions auquel est associé un temps utilisé pour paramétrer les mouvements des corps observés. L'association d'un tel repère d'espace, qui implique l'existence d'un «solide de référence» auquel on rapporte l'étude des mouvements, et d'un repère de temps ou «horloge», constitue un "référentiel".Le choix du référentiel d'étude n'est pas uniquement guidé par des considérations techniques de complexité plus ou moins grande d'écriture des équations du mouvement, par exemple selon l'orientation des axes, le système de coordonnées (cartésiennes, sphériques, etc.), ou l'origine des dates, mais détermine également du point de vue fondamental le "cadre spatio-temporel" d'étude des phénomènes considérés. En effet, pour un référentiel quelconque, l'espace n'apparaîtra pas nécessairement "homogène" et/ou "isotrope", ni le temps "uniforme". Par exemple, l'étude du mouvement d'un corps par rapport au référentiel lié à un wagon en mouvement accéléré par rapport aux voies fera apparaître une direction privilégiée, celle du vecteur accélération, donc une "anisotropie" de l'espace. Il en sera de même pour un référentiel lié à un corps en mouvement de rotation autour d'un axe, qui fera apparaître à la fois une direction privilégiée, celle de l'axe de rotation (anisotropie), et des effets «centrifuges» dépendant de la distance à l'axe (non-homogénéité de l'espace), voire du temps si la vitesse de rotation n'est pas constante (non-uniformité du temps). Ces deux exemples sont détaillés plus bas. Une telle situation conduirait à devoir écrire les équations de la physique, notamment celles de la mécanique, d'une façon distincte selon le référentiel d'étude, c'est-à-dire sous une forme "non covariante", à moins de définir une classe de référentiels particuliers, dits "galiléens", par rapport auxquels ces équations prennent justement une forme covariante.Les considérations précédentes conduisent à définir de façon générale un référentiel galiléen comme un référentiel pour lequel l'espace est homogène (tous les points sont équivalents) et isotrope (toutes les directions de l'espace sont équivalentes), et le temps uniforme (tous les instants sont équivalents). Une autre définition, historique, et souvent donnée à un niveau élémentaire, est celle d'un référentiel dans lequel est vérifié le principe d'inertie : "tout" point matériel libre (c.-à-d., qui n'est soumis à aucune force) est animé d'un mouvement rectiligne uniforme, l'immobilité étant un cas particulier. Cette définition est "rigoureusement équivalente" à la précédente : dans un référentiel où le temps est uniforme, et l'espace homogène et isotrope, un corps libre ne subira aucun changement dans les conditions auxquelles il est soumis durant son déplacement, tous les points de l'espace étant équivalents, et ce quelle que soit la direction de son mouvement, du fait de l'isotropie, et à tout instant, du fait de l'uniformité du temps. Dès lors, il persistera dans son mouvement avec un vecteur vitesse constant, donc rectiligne et uniforme, ou son état de repos, ce qui correspond à l'énoncé du principe d'inertie. Enfin une dernière définition, également équivalente aux deux précédentes, mais plus adaptée au cadre particulier de la mécanique newtonienne, est celle d'un référentiel par rapport auquel la relation fondamentale de la dynamique s'écrit sous une forme ne faisant intervenir que des forces réellement appliquées, c'est-à-dire traduisant une interaction, à distance ou de contact, du corps considéré avec d'autres corps, à l'exclusion de toutes forces d'inertie.Dans la pratique, un référentiel lié à des corps réels ne peut être qu'approximativement, localement et momentanément galiléen. Il a déjà été indiqué que par rapport à un système de référence quelconque, l'espace est physiquement non-homogène et anisotrope, et le temps non uniforme, et dans ce cas la description d'un phénomène même simple peut prendre une forme très compliquée, comme il est possible de le montrer simplement en détaillant les deux exemples de référentiels "non inertiels" déjà évoqués plus haut. Cependant, l'expérience nous apprend que l'on peut toujours trouver un référentiel "galiléen" : l'espace y est (approximativement) homogène et isotrope, et le temps uniforme. En pratique on se contente d'un référentiel approximativement inertiel, approximation jugée satisfaisante pour l'expérience considérée. Ainsi, le référentiel terrestre peut être supposé galiléen, sauf si les effets de la rotation de la Terre ne sont pas négligeables : pour une expérience de courte durée en laboratoire, cela sera généralement accepté ; pour le calcul de la trajectoire d'un missile balistique, non. Il convient de souligner cependant que dans ce référentiel il est fait usage d'une force, le poids, traduisant l'action de la Terre sur un corps placé dans son voisinage, qui dans sa définition prend en compte des effets "non-inertiels", à savoir celui de la rotation de la Terre, et (dans une bien moindre mesure) les effets différentiels de marée, liés principalement au Soleil et à la Lune. Toutefois, les effets de l'accélération de Coriolis ne seront pas pris en compte par le poids. Un «meilleur» référentiel pourra être le référentiel géocentrique, lié au centre de la Terre, et dont les directions du repère d'espace associé pointent vers trois étoiles lointaines pouvant être considérées comme fixes. Dans ce référentiel, la Terre est en rotation, ce qui élimine l'effet non inertiel («axifuge») lié à celle-ci, toutefois il persistera l'effet de l'accélération de la Terre sur son orbite, entre autres, donc le référentiel ne sera pas rigoureusement galiléen. Toutefois pour des observations d'une durée faible devant la période de rotation de la Terre l'approximation est très bonne. Des référentiels encore «meilleurs» seront constitués par ceux de Kepler ou de Copernic, liés respectivement au centre du Soleil et au centre d'inertie du système solaire, pour lesquels les effets non-inertiels, liés entre autres au mouvement du Soleil par rapport au centre galactique, ne seront perceptibles que pour des périodes de plusieurs millions d'années. Ces exemples montrent le caractère idéal de la notion de référentiel galiléen. Il est évident que le choix du référentiel dépend aussi du problème étudié. Les référentiels de Copernic ou de Kepler sont sans doute pratiques pour l'étude du mouvement des corps du système solaire, beaucoup moins pour celle de la trajectoire d'un satellite et encore moins pour celle d'un avion... Le référentiel géocentrique et le référentiel terrestre, respectivement, seront beaucoup plus appropriés, bien que non rigoureusement galiléens. Il est aussi possible de noter que le référentiel lié au centre de masse d'un satellite artificiel, dont le repère d'espace associé est défini par les directions de trois étoiles définit un référentiel « quasi galiléen », comme en témoigne le fait que dans la capsule spatiale les objets flottent en impesanteur (pas de forces d'inertie). En fait, ce type de référentiel, qui peut être considéré en première approximation comme en "chute libre", peut être qualifié comme « localement » galiléen. Toutefois ce « caractère galiléen » ne sera approximativement valable que dans un voisinage de l'origine de ce référentiel, contrairement à un « vrai » référentiel inertiel. Cette notion de référentiel «localement inertiel» a un intérêt particulier dans la théorie de la relativité générale.Étant donné un référentiel supposé galiléen tout autre référentiel, en mouvement de translation rectiligne et uniforme (cf. figure ci-contre), constituera un référentiel galiléen. Il existe ainsi une infinité de référentiels galiléens, les formules de passage de des uns par rapport aux autres étant donnée par la transformation de Galilée (ou de Lorentz dans le cas de la relativité restreinte), cf. plus bas. La notion de référentiel galiléen est fondamentale en physique, particulièrement en mécanique. De fait, postuler l'existence d'un tel référentiel est indispensable pour pouvoir énoncer des lois physiques générales, qui ne varient ni au cours du temps ni selon la position dans l'espace ou la direction considérée. En physique classique notamment, newtonienne ou relativiste (restreinte), les référentiels galiléens constituent une «classe privilégiée» de référentiels, pour lesquels les lois physiques sont invariantes lors d'un passage d'un de ces référentiels à un autre : ce postulat constitue le "principe de relativité". Ce principe s'exprime différemment dans le cadre de la mécanique newtonienne et de la relativité restreinte. La mécanique newtonienne permet toutefois de raisonner dans tout référentiel, les effets non-inertiels étant pris en compte en utilisant la notion de force d'inertie, bien que l'utilisation de référentiels (approximativement au moins) galiléens soit généralement privilégiée afin de simplifier les analyses. En revanche, la relativité restreinte ne s'applique que dans les référentiels galiléens, les autres référentiels sont étudiés en relativité générale.Deux expériences de mécanique newtonienne, ou "classique", faite identiquement dans deux référentiels inertiels distincts s'y déroulent de manière identique. En relativité restreinte, il s'agit de tous types d'expériences physiques (hormis la gravitation qui n'y est pas définie), et pas seulement de mécanique. Par exemple, en mécanique classique, en considérant le sol terrestre comme un référentiel galiléen dans lequel les corps ne subissent que l'influence de la gravitation (en première approximation), le référentiel lié à un train en mouvement de translation rectiligne à vitesse constante par rapport au sol est lui aussi inertiel (sous l'influence aussi de la gravitation). Soit deux personnes, la première immobile par rapport au sol, et la seconde par rapport au train. Si ces deux personnes lâchent, sans vitesse initiale, un objet en tous points identique, à une même distance du sol ou du plancher du train, elles observeront chacune une chute de leur objet suivant une droite verticale, parfaitement identique aux observations de l'autre (les mesures faites par l'une et l'autre personne sont identiques). Une expérience observée depuis deux référentiels galiléens distincts (supposés en mouvement relatif de translation rectiligne uniforme) suit une loi identiquement écrite dans les deux référentiels. La différence entre les deux lois n'étant que la valeur numérique d'un paramètre (sous forme vectorielle, en général) qui change d'un référentiel à l'autre du fait de la vitesse relative des deux référentiels. Ce paramètre change les observations et mesures de l'expérience faites depuis l'un ou l'autre référentiel. Dans l'exemple cité ci-dessus, si une des personnes regarde la chute de l'objet de l'autre, elle ne verra pas une chute identique : en plus du mouvement vertical, elle y verra un mouvement horizontal rectiligne uniforme, le tout formant à ses yeux une trajectoire à la forme parabolique.Emmy Noether a montré, par ses théorèmes de symétrie, le rapport remarquable entre l'homogénéité du temps et la conservation de l'énergie, l'homogénéité de l'espace et la conservation de la quantité de mouvement, l'isotropie de l'espace et la conservation du moment cinétique.Un changement de référentiel est l'ensemble des lois à appliquer pour convertir les grandeurs physiques d'un référentiel à un autre. Dans le cas où la conversion porte sur les distances et les durées, on parle de transformation. Il a déjà été indiqué qu'un référentiel animé d'un mouvement relatif de translation rectiligne uniforme par rapport à un référentiel, supposé inertiel, est lui-même inertiel, et qu'il existe donc une infinité de référentiels inertiels en translation rectiligne uniforme les uns par rapport aux autres. Soient "(R)" et "(R')" deux référentiels inertiels en mouvement de translation rectiligne uniforme l'un rapport à l'autre de vitesse relative formula_15, tels que les axes des repères d'espace associés soient deux à deux parallèles, les origines de ceux-ci coïncidant à l'origine commune des dates cf. figure ci-contre). En notant formula_16 et formula_17 les vecteurs position d'un point "M" du corps observé par rapport respectivement à "(R)" et "(R')", et "t" et "t' " le temps dans chaque référentiel, les formules de changement de référentiel s'écrivent : La première équation traduit en fait l'hypothèse du "temps absolu", c'est-à-dire de l'invariance des durées formula_12 et formula_20 entre deux mêmes évènements lors du changement de référentiel. Il s'agit d'un exemple de transformation propre de Galilée. Dans le cas particulier où les axes des référentiels sont deux à deux parallèles et la vitesse relative est parallèle à l'axe des formula_21, ces formules deviennent : Dans cette théorie aussi, on admet comme hypothèse que tous les référentiels galiléens sont en translation spatiale rectiligne uniforme les uns par rapport aux autres. Toutefois, et contrairement à la mécanique non relativiste le caractère invariant de la vitesse de la lumière dans le vide conduit à devoir abandonner l'hypothèse du temps absolu. Par suite, le temps doit être traité sur le même plan que l'espace, conduisant au concept d'espace-temps, qui peut être représenté par un espace (pseudo-)euclidien quadridimensionnel appelé espace de Minkowski à quatre dimensions. Par suite, et par contraste avec la mécanique newtonienne, où le changement de référentiel galiléen suppose les invariances "séparées" de la durée (formula_23) et de la distance (formula_24) entre deux évènements, c'est l'intervalle d'espace-temps formula_25 qui est invariant lors du changement de référentiel, ceci constituant en fait la traduction mathématique de l'invariance de "c". Les formules de transformations précédentes sont remplacées par la transformation de Lorentz, qui dans le cas de la dernière situation considérée se met sous la forme : où formula_27 (vitesse réduite) et formula_28 (facteur de Lorentz). Une des principales conséquences de ces formules est que la vitesse de la lumière dans le vide est une "vitesse limite" : en effet le facteur de Lorentz diverge quand formula_29 (cf. figure plus haut). Pour des vitesses faibles par rapport à la vitesse de la lumière dans le vide cette transformation coïncide avec la transformation de Galilée.En relativité générale, toute masse et toute énergie cinétique impliquent une courbure de l'espace-temps et donc une déviation des trajectoires possibles dans l'environnement de la masse : cet effet est la gravitation. Au voisinage d'aucune masse l'espace est homogène et isotrope, donc il ne peut y avoir de véritable référentiel galiléen au sens où cela est compris en relativité restreinte ou en physique classique. Toutefois, il a déjà été indiqué qu'un référentiel en chute libre dans un champ de gravitation est localement inertiel: d'après le principe d'équivalence, au voisinage immédiat d'une géodésique tout corps suit une géodésique "parallèle" et à la même vitesse, donc dans ce référentiel, et très localement (mathématiquement : en un point), tout corps vérifie le mouvement inertiel. Bien sûr, il faut pour accepter cela parler de corps "quasi virtuel" aux énergies et masses trop petites pour avoir un effet perceptible sur l'espace-temps. Plus précisément, la recherche d'un référentiel localement inertiel consiste à considérer la métrique formula_30 de l'espace-temps en un point d'univers donné, ce qui implique que les formula_30 sont constants, et de rechercher la transformation permettant de ramener la matrice de ces coefficients à une forme diagonale. Dans cette théorie, du fait du principe d'équivalence, les référentiels galiléens ne sont pas tous en "translation rectiligne uniforme" les uns par rapport aux autres ; et en toute rigueur, l'espace étant courbe, cette notion de « "translation rectiligne uniforme" » ne peut avoir le même sens que dans un espace affine. Une des utilités des référentiels galiléens est que les égalités tensorielles y sont plus simples à établir que dans le cas général d'un référentiel quelconque et qu'une fois établie pour un type de référentiel, une égalité tensorielle est vraie pour tout type de référentiel (donc est toujours vraie). Toutefois, la relativité générale peut coïncider à peu près avec la relativité restreinte sur des petites régions de l'espace-temps où les effets de courbure sont moins importants, auquel cas les raisonnements liés aux référentiels galiléens peuvent de nouveau être appliqués.Henri Poincaré dans son livre La Science et l'Hypothèse (1902) a souligné que les principes de la physique ne sont fondés sur aucune nécessité logique. Déjà, ce savant mettait en cause l'a priori que l'espace physique est un espace euclidien à trois dimensions, bien qu'il ait conclu « Aucune expérience ne sera jamais en contradiction avec le "postulatum" d'Euclide ; en revanche aucune expérience ne sera jamais en contradiction avec le postulatum de Lobatchevsky ». Poincaré articule sa réflexion comme suit. Un référentiel galiléen est défini comme un repère cartésien, de l'espace supposé affine, dans lequel le mouvement de tout corps non influencé par une force est rectiligne uniforme : il faut savoir ce qu'est une force avant de poser cette définition. Une force ne peut être mesurée -donc définie- que par le fait qu'elle rend le mouvement non rectiligne-uniforme : la notion de force présuppose que celle de référentiel galiléen est bien définie. La force et le référentiel inertiel sont définis l'un par l'autre. Ce qui ressemble dès lors à une définition circulaire trouve sa justification dans les expériences : en observant des systèmes "à peu près isolés" (c'est-à-dire loin de tout corps pouvant l'influencer de manière significative), on arrive toujours à définir des référentiels dans lesquels les mouvements des centres de gravité des systèmes sont "à peu près" rectilignes et uniformes. Enfin, Henri Poincaré insiste : la mécanique est une science expérimentale où la "nature" des notions utilisées importe peu, seul compte le fait que ces notions soient « commodes » du point de vue de leur formulation mathématique, qu'elles soient mesurables et permettent de prédire des résultats d'expériences renouvelées.
En physique, un référentiel galiléen (nommé ainsi en hommage à Galilée), ou inertiel, se définit comme un référentiel dans lequel le principe d'inertie est vérifié, c'est-à-dire que "tout" corps ponctuel libre ("id est" sur lequel ne s’exerce aucune force ou sur lequel la résultante des forces est nulle) est en mouvement de translation rectiligne uniforme, ou au repos (qui est un cas particulier de mouvement rectiligne uniforme). Par suite, la vitesse du corps est constante (au cours du temps) en direction et en norme.
xwikis
Le solide indéformable est un modèle utilisé en mécanique pour décrire le comportement d'un corps (objet, pièce). Comme son nom l'indique, on considère qu'au cours du temps la distance entre deux points donnés ne varie pas. Cela signifie que l'on néglige les phénomènes de déformation élastique et "a fortiori" plastique, et que le solide ne présente pas de rupture. Ce modèle est très utilisé en cinématique et en dynamique, où il constitue la base de l'étude des mouvements du solide. Par rapport au modèle du point matériel, il permet de prendre en compte la rotation propre de l'objet par rapport au référentiel.Une des principales conséquence de cette indéformabilité est l'équiprojectivité du champ des vecteurs vitesse des points du solide. Ceci est la base de la notion de torseur cinématique, et de la notion de centre instantané de rotation.Le modèle devient inadapté lorsque les efforts mis en jeu (en vertu du principe fondamental de la dynamique) deviennent importants. On peut alors constater un écart notable entre le comportement prédit par la théorie du solide indéformable et le comportement constaté. Par exemple, la déformation élastique d'une pièce provoque un déphasage entre la sollicitation et la réponse, le point de contact d'une pièce ne se trouve pas exactement là où l'on s'y attend et modifie donc les efforts mis en jeu, on constate un effet rebond, voire une dégradation subie par certaines pièces. En particulier, le modèle du solide indéformable est inadapté à l'étude des chocs, des à-coups et des vibrations (par exemple de l'acoustique). Par ailleurs, certains systèmes sont conçus pour subir une déformation importante. C'est par exemple le cas des ressorts, des membranes et des soufflets. Le modèle ne permet évidemment pas d'étudier ces systèmes. Notons également que la notion de corps rigide est en général incompatible avec la relativité restreinte. En particulier, la rigidité ne peut pas toujours être maintenue en relativité lors de mouvements variés, incluant des rotations propres et des accélérations. Le modèle du solide indéformable n'est donc valable que lorsque les vitesses mises en jeu sont très inférieures à la vitesse de la lumière.Un "solide" est un ensemble de points matériels dont les distances mutuelles restent "constantes" au cours du temps. Il convient de noter que cette définition est très restrictive et ne doit pas être confondue avec celle « d'état solide », qui indique un faible libre parcours moyen des constituants de la matière (inférieur à la distance inter-atomique). Un solide au sens physico-chimique des mouvements d'atomes ou de molécules sans déformation macroscopique (agitation thermique, diffusion). Par ailleurs, on continue à parler de solide même lorsque l'objet subit des déformations notables (élastique, plastique, écoulement visqueux).Comme pour les systèmes matériels en général (déformables ou non), on peut adopter soit un mode de description discontinu (ou discret), ou encore continu.Le modèle le plus facile à utiliser est de considérer le solide (ou le système matériel) comme un ensemble d'un grand nombre de points matériels de masses. On définit alors la masse totale du solide par formula_1, étant dans le cadre d'un modèle classique avec additivité des masses. Toutes les autres grandeurs physiques extensives sont formellement définies par des sommes discrètes : par exemple, la quantité de mouvement s'exprime par formula_2La matière possède une structure microscopique discrète, étant constituée d'atomes, eux-mêmes ayant d'ailleurs une structure interne. Toutefois si l'on considère un élément de volume « mésoscopique » du solide, celui-ci est susceptible de contenir un très grand nombre d'atomes. Par exemple un cube de fer de 1 μm de côté (très petit à l'échelle macroscopique) contient près de. On peut ainsi traiter le solide comme un milieu continu. Plus précisément, un milieu sera dit continu si le nombre de particules contenues dans un volume élémentaire formula_3 est suffisamment grand pour que l'on puisse négliger ses fluctuations. Ce mode de description n'est pas spécifique aux corps « solides » mais convient également très bien pour les fluides. Dans l'hypothèse des milieux continus, on peut décrire le solide (ou également un système matériel comme un fluide) non par un ensemble discret de points matériels, mais par une "distribution volumique de masse" formula_4, définie en tout point du domaine de l'espace occupé par le solide. Plus précisément on peut définir la masse volumique formula_4 en considérant un élément de volume formula_6 centré au point, de masse formula_7, par formula_8, la limite formula_9 devant s'entendre « avec formula_6 restant important devant les dimensions atomiques ». Une définition similaire est utilisée pour définir la densité de charge électrique ou la densité de courant. Remarque: le solide est dit "homogène" si formula_4 est constant pour tout point du solide (ou du système). La plupart des éléments cinétiques des systèmes matériels (et donc, des solides) peuvent être définis en remplaçant la sommation formula_12 sur les indices des points matériels du modèle discret par une intégration volumique sur le domaine, par exemple : Pour un solide, le modèle continu est le plus souvent considéré comme plus lourd à utiliser, aussi lui préfère-t-on souvent le modèle discret, notamment dans les démonstrations des divers théorèmes. Néanmoins, il permet de définir le plus rigoureusement les notions de symétrie mécanique et d'effectuer les calculs de moments d'inertie, peu aisés à effectuer par sommation.Il est évident de par la définition d'un solide mécanique que celui-ci possède une forme géométrique propre - il s'agit au demeurant d'une caractéristique macroscopique élémentaire de l'état solide. Il est fréquent de considérer des solides de formes géométriques simples (e.g. sphère, cube, cylindre...) présentant des éléments de "symétrie géométrique" (e.g. centre, axe ou plan de symétrie) donnés. Toutefois la répartition des masses au sein d'un tel solide ne possède pas nécessairement les mêmes éléments de symétrie. On parle de symétrie mécanique associée une symétrie géométrique si pour tout couple de points "(M, M')" du solide homologues dans la symétrie géométrique on a "ρ(M)=ρ(M')". L'existence pour un solide de symétries mécaniques simplifie grandement la détermination de la position du centre d'inertie "G", des axes principaux d'inertie, les calculs des moments d'inertie.L'étude générale du mouvement d'un solide est complexe dans le cas général, bien que la condition de rigidité du modèle simplifie grandement le problème. en effet, au lieu d'une infinité (ou d'un très grand nombre) de degrés de liberté un solide possède seulement 6 degrés de liberté : Il est intéressant de considérer quelques cas particuliers.Pour deux points quelconques et d'un solide. Par hypothèse on a = cte, soit : et donc : Il s'agit donc d'un champ équiprojectif, c'est-à-dire d'un torseur. Par suite : où formula_21 est le vecteur rotation du solide dans le référentiel d'étude "(R)" (ou le référentiel barycentrique "(R)"associé, car les deux sont en translation). Ce vecteur a pour valeur la vitesse angulaire instantanée du solide, pour direction l'axe instantané de rotation du solide. Cette relation peut être écrite en faisant intervenir le centre d'inertie du solide (confondu avec le centre de masse ) : en effet il est évident que pour tout point du solide que = cte, donc la formule (1) reste applicable, d'où: formula_22, ce qui permet de montrer que le mouvement d'un point quelconque d'un solide se décompose en un mouvement "« de translation »" et un autre de "« rotation propre »".Par définition, un solide "(S)" est en mouvement de translation dans un référentiel "(R)" si au cours du mouvement le segment de droite reliant deux points quelconques "A" et "B" de "(S)" garde une direction constante dans l'espace au cours du temps. On peut également dire que lors du mouvement de translation d'un solide dans "(R)", tout segment reliant deux points quelconques "A" et "B" de "(S)" se déplace parallèlement à lui-même. Ce type de mouvement, très simple, correspond à l'idée d'un déplacement "en bloc" d'un solide. Il est fréquemment observé dans la vie courante, par exemple: Ces deux exemples montrent que la notion de mouvement de translation d'un solide ne doit pas être confondue avec celle de mouvement rectiligne.Il résulte de la définition qu'un solide en translation dans un référentiel "(R)" est dépourvu de rotation propre, par suite: formula_23 et le champ des vitesses du solide en translation est très simple: formula_24, pour tout point M du solide "(S)". Par suite dans le cas d'un solide en translation le mouvement du solide peut être décrit par celui de son centre d'inertie G, tous les autres points M du solide ayant la même trajectoire à un déplacement près. Les éléments cinétiques associées au solide en translation sont également d'expressions très simples, en effet puisque formula_23 on a respectivement pour l'énergie et le moment cinétique d'un solide en translation (on utilise les théorèmes de König, valables pour tout système matériel) : Ainsi du point de vue dynamique l'étude du mouvement du solide en translation se réduira-t-elle à celle du point matériel G affecté de la masse totale "M" du solide: ce résultat n'a rien d'étonnant dans la mesure où lors d'un mouvement de translation les trois degrés de liberté de rotation propre du solide sont en quelque sorte « gelés ».Cette situation correspond où, par rapport au référentiel "(R)", il existe une droite fixe dans "(R)" notée formula_28 telle qu'à tout instant "t" les différents points "M" du solide décrivent chacun un mouvement circulaire de même vitesse angulaire formula_29 le plan perpendiculaire à formula_28 contenant "M". Attention en général cette vitesse angulaire n'est pas constante, sauf si la rotation est uniforme. La droite formula_28 est appelée axe de rotation du solide, il ne passe pas nécessairement par le solide. Si formula_32 est un vecteur unitaire de l'axe formula_33 orienté suivant la règle de la main droite, le vecteur rotation du solide formula_34 est de direction fixe au cours du mouvement et s'écrit formula_35, le signe de formula_29 indiquant le sens de la rotation, suivant la règle de la main droite. La description du mouvement du solide en rotation autour d'un axe fixe est simple : en effet, de par la rigidité du solide, on peut repérer à tout instant la position du solide par une seule coordonnée angulaire, donnant l'angle formula_37 entre un segment de droite reliant un point donné du solide et sa projection sur l'axe, repéré par rapport à une direction choisie pour origine, avec formula_38 vitesse angulaire du solide. Le mouvement est donc à "un seul degré de liberté".Comme tout point de l'axe formula_28 est fixe dans "(R)", le champ des vitesses du solide "(S)" en rotation par rapport à formula_28 s'écrit simplement : formula_42 étant un point quelconque de "(S)". Dans la mesure où formula_43 est colinéaire à formula_28, ce champ des vitesses ne dépend pas du choix du point sur l'axe, car alors en considérant un autre point formula_45 on a pour tout point formula_42 du solide "(S)": puisque formula_48. Si l'on considère la projection formula_49 sur l'axe formula_28 d'un point formula_42 du solide, on peut alors introduire la distance formula_52 entre le point formula_42 et l'axe formula_28, et comme on a un mouvement circulaire dans le plan perpendiculaire à l'axe formula_28 contenant ces deux points, il en résulte en utilisant une base locale formula_56 l'expression suivante du champ des vitesse du solide en rotation: formula_57, pour tout point formula_42 du solide "(S)". Par suite, l'énergie cinétique du solide "(S)" par rapport à "(R)" s'écrit : où la quantité formula_60 est le moment d'inertie du solide par rapport à l'axe de rotation formula_28: formula_62. L'énergie cinétique de rotation autour d'un axe fixe est donc proportionnelle au carré de la vitesse angulaire formula_63, le moment d'inertie formula_60 traduisant la répartition des masses du solide autour de l'axe formula_65. De la même façon on pour le moment cinétique par rapport à un point "O" quelconque de l'axe : le moment cinétique d'un solide en rotation autour d'un axe fixe est donc colinéaire à son vecteur rotation.Le mouvement le plus général d'un solide par rapport à un référentiel galiléen "(R)" pourra se décomposer en un mouvement du centre d'inertie "G" de ce solide par rapport à "(R)" et un mouvement autour de l'axe "instantané" de rotation, auquel est associé le vecteur rotation instantané formula_67, dans le référentiel lié au centre d'inertie et en translation par rapport au référentiel d'étude "(R)". Ce référentiel particulier est le référentiel "barycentrique" du solide, noté "(R)". Dans ce cas, il est possible de montrer en utilisant les définitions des éléments cinétiques du solide et la propriété liée au champ des vitesses (par rapport au centre d'inertie) que l'énergie cinétique et le moment cinétique du solide s'écrivent: où formula_70 est le tenseur d'inertie du solide et formula_71 la résultante des forces appliquées. Physiquement l'énergie et le moment cinétiques apparaissent comme la somme de deux termes: Ces résultats sont en fait une illustration des théorèmes de König pour l'énergie et le moment cinétique, qui sont valables pour tout système matériel, déformable ou pas.
Le modèle du solide indéformable est un modèle de solide fréquemment utilisé en mécanique des systèmes de points matériels. Il s'agit d'une idéalisation de la notion usuelle de corps (à l'état) solide, considéré comme absolument "rigide", et négligeant toute déformation.
xwikis
Le couple est au mouvement de rotation ce que la force est au mouvement de translation. Le couple est ce qui provoque une accélération angulaire, et une rotation dans le plan perpendiculaire à la direction du couple. Dans la plupart des cas, on parle de couple pour analyser le mouvement d'une pièce mécanique capable de pivoter autour d'un axe fixe, mais sans degré de liberté dans ses autres mouvements. Une telle liaison mécanique transforme nécessairement en couple toute force extérieure qui lui est appliquée, parce que les points de liaison de l'axe imposent une réaction interne implicite. En pratique, en effet, ces points de liaison de l'axe ajoutent à la pièce mécanique des forces de réaction, induites par le système de force extérieur, ces forces de réaction jouant de telle manière que :Il y a un rapport direct entre couple et moment, puisque le principal effet d'un couple est de créer un moment, et la manière idéale de créer un moment est de le faire par un couple, mais ce n'est pas la même nature d'objet. On parle de moment d'une force, ou d'un système de forces, pour caractériser l'effet d'une force particulière par rapport à un axe de rotation. Dans ce cas il n'est pas nécessaire de tenir compte de la réaction de la liaison mécanique sur l'axe. Dans un système idéal sans déformation ni frottement, ces forces de réaction ne font en effet qu'équilibrer le système pour que son axe reste fixe ; et elles ne correspondent à aucun travail, elles peuvent donc être négligées dans l'étude dynamique du système. En revanche, il est nécessaire d'en tenir compte pour bien visualiser l'ensemble des forces qui impose un mouvement à un solide : le véritable ensemble de forces extérieures à la pièce est celui qu'il faudrait mettre en place pour obtenir le même mouvement sans que l'axe soit tenu par ses points de fixation, donc en explicitant la réaction implicite de ces fixations. Ce complément étant apporté, il est possible d'étudier le mouvement de la pièce uniquement soumise à un ensemble de forces et sans liaison mécanique : cet ensemble de forces (y compris donc les forces de réaction sur l'axe) réalise un couple. En réalité, le couple n'existe pas intrinsèquement. Il est toujours associé à un ensemble de forces s'annulant vectoriellement mais dont les moments s'ajoutent sans s'annuler. C'est par exemple le résultat de l'action du vent sur une éolienne, ou l'action des forces électromagnétiques sur le rotor d'un moteur électrique. Fondamentalement, un moment est une grandeur physique pseudovectorielle tandis qu'un couple est la résultante d'une distribution de forces dont la somme vectorielle est nulle. Ce n'est donc pas le couple qui est la grandeur physique, mais le moment de ce couple. Dans l'analogie entre rotation et translation, l'analogue d'une force n'est donc en fait ni un « couple » ni un « moment », mais en toute rigueur le moment créé par un couple. En pratique, lorsque le contexte ne prête pas à confusion, on qualifie souvent de « couple » ce qui est en réalité le « moment du couple résultant ».En mécanique auto, le "couple de serrage" est mesuré à l'aide d'une clé dynamométrique.En mécanique du solide, une force formula_1 appliquée dans le cas général sur un point "P" à une distance formula_2 du centre de gravité "O" d'un solide, provoque à la fois une accélération linéaire, et une accélération angulaire du solide. On montre (en étudiant l'égalité des sommes et des moments des forces) que cet effet peut être décomposé en deux effets indépendants : Inversement, un « couple de forces » formé de deux forces formula_1 et formula_5, d'intensité égales et de sens opposés, s'exerçant dans un plan en deux points séparés d'une distance formula_12, conduit à une accélération angulaire mais n'entraîne pas d'accélération linéaire. On peut montrer que le moment global d'un tel couple par rapport à n'importe quel point est alors égal au produit vectoriel constant, caractéristique du couple :On appelle « couple » tout ensemble de forces dont la résultante sur le système formula_14 est nulle et le moment résultant formula_15 par rapport à un point formula_16 est non nul. Dans le cas général, le moment formula_17 d'un système de force par rapport à un point A est égal au moment de ce système par rapport à un point O, plus le produit vectoriel du vecteur formula_18 par la résultante formula_19 des forces. Le couple étant un système d'actions mécaniques dont la résultante formula_21 est nulle, son moment résultant est indépendant du point choisi pour le calculer : On utilise souvent la notation formula_23 pour représenter le moment résultant d'un couple. Compte tenu du résultat précédent, il n'est en effet pas nécessaire de préciser le point choisi pour calculer le moment. On représente un couple par une flèche (semblable à celle qui représente un vecteur) perpendiculaire au plan d'application des forces, s'éloignant de l'objet pour une rotation dans le sens trigonométrique (qui est l'inverse du sens des aiguilles d'une montre), comme la vitesse de rotation.Il existe une infinité de représentations différentes d'un même couple formula_24 donné. Un couple peut toujours être remplacé par un autre de même moment et de même direction, dont l'intensité des forces ou l'écart des points d'application peut être fixé à volonté, du moment que le produit des deux respecte celui du couple initial. Cet effet commun à tous les « couples de force » équivalents est celui d'un « couple », abstraction faite de la paire particulière de forces capable de le créer (ou même de toute autre collection vectorielle coplanaire à somme nulle qui aurait le même effet). Le « couple » est (par définition) le produit vectoriel associé à un tel « couple de forces », ou de manière équivalente, la somme des produits moments de ces forces par rapport à un point quelconque. Outre les autres cas évidents, le couple est nul lorsque les deux forces ont la même droite d'action. Le couple augmente avec l'intensité commune des forces, mais aussi avec l'éloignement des points. Il est maximal lorsque formula_25 et formula_26 sont orthogonaux.La plus simple, qui lui donne son nom, consiste à considérer un ensemble de deux forces : Ainsi, la résultante formula_34 est bien nulle. On suppose de plus que les vecteurs formula_27 et formula_36 ne sont pas colinéaires au vecteur formula_37 ; le cas le plus simple consiste à prendre les deux forces perpendiculaires à ce vecteur : Si on note la distance formula_38, la norme des forces formula_39, et formula_40 le vecteur unitaire perpendiculaire au plan de la figure, le couple vaut explicitement :On peut représenter le même couple formula_24 que dans l'exemple précédent par d'autres ensembles d'actions mécaniques. Par exemple, par deux forces : Ainsi, la résultante formula_34 est toujours nulle. Pour simplifier, on peut encore supposer que les vecteurs formula_27 et formula_36 sont perpendiculaires au vecteur formula_51 : Pour retrouver la même valeur du couple : formula_41, il suffit de prendre par exemple une combinaison du type : Il existe une infinité de représentations possibles.Le moment en formula_57 de la résultante formula_14 de plusieurs forces formula_59 concourantes en un même point formula_60 est égal à la somme des moments en formula_57 de ces différentes forces : formula_62, avec formula_63. En effet : formula_64 En aucun cas il n'est possible de déduire que « somme des moments = moment de la somme ». Cela n'est vrai que pour un ensemble de forces appliquées au même point. Cela montre enfin qu'une action mécanique n'est pas représentable par un seul vecteur force. La considération du point d'application est primordiale.
En mécanique du solide, on appelle couple un ensemble de forces appliquées à un solide dont la résultante est nulle, mais dont la somme vectorielle des moments de ces forces est non nulle. En pratique, un couple tend seulement à mettre en rotation le système, c'est-à-dire qu'il provoque une variation de son moment cinétique, sans modifier le mouvement de son centre de gravité. C'est un concept fondamental de la mécanique, domaine de la physique qui étudie les mouvements et les déformations des systèmes. Le couple est ainsi nommé en raison de la façon caractéristique dont on obtient ce type d'action : un bras qui tire et un bras qui pousse, les deux forces étant égales et opposées.
xwikis
En statique, le centre de gravité est le point d'application du poids. Il s'agit d'une simplification qui consiste à considérer le poids comme une force s'appliquant en un point unique, G, plutôt que de considérer une force volumique s'appliquant en chaque point de l'objet. Outre la simplification des calculs de statique, la connaissance de la position du centre de gravité est indispensable pour déterminer la stabilité d'un objet :Pour les objets complexes, comme des machines, on détermine les coordonnées "x" et "y" par élingage : on fait des essais de levage et l'on ajuste la position du point d'accroche des élingues jusqu'à obtenir l'équilibre. On peut également poser l'objet sur plusieurs balances, au moins trois. La position du centre de gravité est alors le barycentre des positions des balances pondérées par le poids mesuré. Par exemple, pour déterminer le centre de gravité d'une voiture, on peut disposer une balance sous chaque roue. On ne peut pas déterminer l'altitude "z", sauf à faire des essais d'élingage ou de pesée avec une autre position de l'objet.Considérons un objet formula_2 dont la masse volumique au point M vaut formula_3 et qui est situé dans le champ de gravité formula_4. La position du centre de gravité formula_5 est définie par la relation suivante : où formula_7 est le poids volumique définit par : formula_8. Cette relation traduit le fait que le moment du poids par rapport au centre de gravité est nul. \left(\mathrm{M}\right) = \vec{g}\left(\mathrm{M}\right)\mathrm{dm}\left(\mathrm{M}\right) = \rho\left(\mathrm{M}\right)\vec{g}\left(\mathrm{M}\right)\mathrm{dV}</math> ; On peut définir le poids volumique : Le poids infinitésimal vaut donc : Le poids total de l'objet vaut : En tant que résultante des poids volumiques, le moment du poids formula_12 par rapport à un point quelconque A doit être égal à la somme des moments des poids volumiques : Calculons les membres de cette équation : La position du centre de gravité G est donc définie par la relation suivante :Nous supposons ici que le champ de gravité formula_17 est homogène ; le centre de gravité est alors confondu avec le centre de masse. Le centre de gravité des objets symétriques — sphères, parallélépipèdes (quelconques, rectangles ou cubes), prismes droits, solides de Platon — et homogènes se situe à leur centre géométrique. Si l'objet présente un élément de symétrie, le centre de gravité se situe sur cet élément de symétrie : Si l'objet est fait d'une tôle plane d'épaisseur constante, le centre de gravité est situé sur le plan passant au milieu de la tôle, et sur la normale passant par le centre de gravité du polygone. Dans le cas d'un ensemble rigide, composé de "n" sous-ensembles dont les centres de gravité sont G et les poids "p", le centre de gravité de l'ensemble est le barycentre des centres de gravité G pondérés par les poids "p" : où "p" est le poids total, "p" = ∑"p". Par exemple, considérons la boîte d'entrée d'un échangeur de chaleur ci-contre. Les coordonnées des centres de gravité sont, en millimètres (unité usuelle en chaudronnerie) : Dans les calculs, les cotes sont converties en mètres : On présente souvent les calculs sous la forme d'un tableau. SoitOn peut utiliser la méthode du dynamique et du funiculaire pour déterminer la position du centre de gravité. En effet, si l'on considère des éléments discrets on peut imaginer le système en équilibre sur une pointe, celle-ci exerçant une force formula_22. On a donc à résoudre un problème de statique à force parallèles, à ceci près que l'on connaît l'intensité de toutes les forces, et que l'inconnue est la droite d'action de l'une d'elles (formula_22). Pour procéder : Pour déterminer le centre de gravité d'une plaque de forme complexe, on peut découper cette plaque en bandes, appliquer un poids à chaque bande et appliquer la même méthode.Les théorèmes de Guldin s'appliquent pour les pièces de révolution. Ils mettent en relation On peut ainsi déterminer la position du centre de gravité. Étudions une coque hémicylindrique ; vue en bout, on voit un demi-cercle. Le diamètre perpendiculaire à la corde divise ce demi-cercle en deux quarts de cercle égaux ; pour des raisons de symétrie, le centre de gravité se trouve donc sur ce diamètre. Un demi-cercle, de longueur "l" = π"r", tournant autour de sa corde, génère une sphère d'aire A = 4π"r". Le centre de gravité parcourt donc un périmètre "p" vérifiant Si "r" est le rayon du cercle décrit par le centre de gravité, alors Étudions maintenant une plaque en forme de demi-disque d'aire A = 1/2π"r". Le diamètre perpendiculaire à la corde divise ce demi-cercle en deux quarts de cercle égaux ; pour des raisons de symétrie, le centre de gravité se trouve donc sur ce diamètre. En tournant autour de sa corde, ce demi-disque génère une sphère de volume V = 4/3π"r". Le centre de gravité parcourt donc un périmètre "p" vérifiant Si "r" est le rayon du cercle décrit par le centre de gravité, alorsSoient deux points matériels M et M de masses respectives "m" et "m", donc de poids respectifs formula_25 et formula_24. Si ces points sont solidaires (reliés par une barre rigide de poids négligeable), on peut les remplacer par un point matériel unique G de poids formula_34. Pour que le système soit équivalent d'un point de vue statique, le moment du poids résultant formula_12 par rapport à un point quelconque A doit être égal à la somme des moments des forces formula_25 et formula_24 par rapport à ce point : soit, par définition du moment d'une force, On se place dans un repère orthonormé formula_40, "z" étant l'axe vertical, et l'on note les coordonnées : et les composantes : avec Le point A est quelconque, on peut donc calculer le moment par rapport à O pour simplifier : soit et donc On peut refaire le calcul en considérant que le poids est orienté selon l'axe "x" ; cela revient à tourner l'ensemble rigide {M, M} d'un quart de tour dans le plan vertical ("x", "z"), et à considérer que le repère est lié à l'ensemble rigide {M, M}. On obtient alors une nouvelle relation similaire pour les coordonnées en "z", soit finalement : Le centre de gravité est donc le barycentre des points matériels pondérés par leur poids. On peut étendre ce résultat à un ensemble de "n" points M("x", "y", "z") : avec "p" = ∑"p". Il présente toutes les propriétés géométriques du barycentre. Le champ de gravité étant supposé homogène, on a et donc avec "m" = ∑"m". On retrouve bien la définition du centre de masse.Soit un objet homogène de masse volumique ρ. Considérons un volume de matière infinitésimal dV autour d'un point M ; c'est un point matériel de masse dm = ρ(M)dV et de poids d"p" = d"m"⋅"g". Le calcul est similaire au cas discret, mais la somme devient une intégrale (l'intégrale est une somme sur un ensemble continu) : avec formula_50. Par ailleurs, si "g" est uniforme : soit ce qui est la définition du centre de masse.Si la masse volumique est uniforme, alors et donc Le centre de gravité est donc le « centre géométrique », c'est-à-dire le barycentre en considérant que tous les points de l'objet ont la même pondération (isobarycentre).L'approximation du champ de gravitation ou de pesanteur uniforme n'est cependant pas toujours valable, dans certains problèmes d'astronomie notamment. Par exemple, dans le cas de la Lune, l'attraction gravitationnelle s'applique plus fort aux parties de la Lune proche de la Terre qu'aux parties plus éloignées, de sorte que le centre de gravité est en réalité légèrement plus proche que le centre de masse. De plus, si le corps en orbite n'est pas parfaitement symétrique par rapport à son axe de rotation, la position du centre de gravité se déplace en permanence avec cette rotation. C'est la raison pour laquelle, outre les effets de marées gravitationnelles, un corps en orbite tend à synchroniser sa vitesse de rotation sur sa vitesse orbitale pour montrer sa face la plus sphérique. C'est déjà le cas pour la Lune qui nous montre toujours la même face, et la planète Mercure qui montre toujours la même face au Soleil. De plus, c'est également la raison pour laquelle le relief de la face cachée de la Lune est beaucoup plus important que celui de sa face visible. Très souvent en mécanique, la dimension des corps étant faible devant la rotondité de la terre, on considère un champ de gravité uniforme. Sous cette hypothèse, le centre de gravité et le centre d'inertie sont confondus.
En physique, le centre de gravité ou CdG (en anglais, "center of gravity" ou "COG"), appelé G, est le point d'application de la résultante des forces de gravité ou de pesanteur. Il est dépendant du champ de gravitation auquel le corps est soumis et ne doit pas être confondu avec le centre d'inertie qui est le barycentre des masses. Il est souvent assimilé à ce dernier, mais ce n'est qu'une approximation liée au fait que dans la plupart des cas, le champ de gravitation auquel le corps est soumis peut être considéré comme uniforme dans le corps considéré.
xwikis
Le comportement rhéologique d'un fluide traduit la réponse mécanique de celui-ci, c'est-à-dire la relation entre les déformations du fluide et les contraintes appliquées. De manière générale, elle s'exprime par une équation constitutive reliant le tenseur des contraintes et le tenseur des taux de déformation. Il existe une grande variété de comportements rhéologiques, depuis une simple relation linéaire entre contraintes et taux de déformation, jusqu'à des comportements complexes, pouvant dépendre des vitesses de déformation, de l'histoire du fluide ou des conditions d'écoulement. La loi d'Ostwald–de Waele permet, par exemple, de modéliser de manière simplifiée et dans certaines limites, le comportement des fluides newtoniens, rhéofluidifiants et rhéoépaississants.Un fluide est dit newtonien lorsque le tenseur des contraintes visqueuses est une fonction "linéaire" du tenseur des taux de déformation. Le facteur de proportionnalité se nomme viscosité, il est constant et indépendant du taux de cisaillement formula_1. Pour la plupart des fluides usuels [eau, lait, jus de fruits naturels (non concentrés), la plupart des miels, huiles minérales, solvants organiques] dans des conditions standards, ce modèle est très satisfaisant. Pour ce type de fluide, l'équation d'évolution est une équation de Navier-Stokes. Pour donner un exemple, dans le cas d'un fluide incompressible et homogène (à masse volumique constante), cette équation s'écrit, dans sa version massique : formula_2 où :Un fluide est dit non newtonien lorsque le tenseur des contraintes visqueuses n'est pas une fonction linéaire du tenseur des taux de déformation. Autrement dit, lorsque sa vitesse de déformation (par exemple le taux de cisaillement) n'est pas directement proportionnelle à la force qu'on lui applique. Le meilleur exemple est celui du sable mouillé en bord de mer : quand on frappe le sable, il a la viscosité élevée d'un solide, alors que lorsqu'on appuie doucement dessus, il se comporte comme une pâte. Un autre exemple typique est un mélange épais d'eau et de fécule de maïs, dans lequel une main entre aisément à faible vitesse, mais ne peut rentrer à grande vitesse. En rhéologie et de manière simple, un fluide non newtonien correspond à un fluide dont la viscosité formula_9 dépend du taux de cisaillement. Concrètement lorsqu'on soumet un tel matériau à une contrainte de cisaillement formula_10, la réponse de ce fluide n'est pas proportionnelle, ce qui serait le cas pour un fluide newtonien. Il existe plusieurs types classiques de fluide non newtonien. Ils ne sont d'ailleurs pas exclusifs l'un de l'autre, un fluide peut présenter plusieurs des propriétés présentes ci-dessous.Pour des fluides tels les polymères en solution ou à l'état fondu, émulsions peu chargées, suspensions, dispersions ( purée de fruits, moutarde), la viscosité diminue lorsque le gradient de vitesse augmente. Cela donne un système de plus en plus fluide, ce qui justifie le nom de « rhéofluidifiant ». La courbe d'écoulement (représentation graphique de formula_11) d'un corps pseudoplastique s'incurve vers le bas. Pour de très faibles et très élevées valeurs de formula_1, le liquide est newtonien (ce qui est quasi universel), cela correspond aux " et second domaines newtoniens", respectivement. À chacun de ces domaines est associée une viscosité constante appelée viscosité à cisaillement nul ou viscosité en écoulement continu (formula_13), et viscosité infinie (formula_14), respectivement.Le comportement rhéoépaississant, inverse à la rhéofluidification, est assez rare. La viscosité augmente lorsque le taux de cisaillement augmente. Ce phénomène est nommé,. La courbe d'écoulement correspondante s'incurve vers le haut. On retrouve ce comportement pour des suspensions très concentrées ou certains polymères associatifs ( empois, certains miels et certaines formulations de plastisols, suspensions concentrées de fécule de maïs, D3o).Dans le cas du comportement (visco)plastique, l'écoulement n'a lieu qu'au-delà d'une certaine valeur de contrainte à appliquer sur le fluide, dite point de fluage, seuil d'écoulement, seuil de plasticité, contrainte critique ou contrainte seuil ( "yield stress"). Au-delà, on retrouve en général un comportement de type rhéofluidifiant. Quelques matériaux, tels la mayonnaise ou les boues de forage, ont cependant un comportement linéaire de type newtonien après leur seuil d'écoulement. On parle alors de fluide de Bingham. Le modèle de Bingham est: formula_15. Certaines peintures et graisses sont des fluides à seuil.La thixotropie étant un comportement dépendant du taux de cisaillement formula_16 (ou de la contrainte formula_17) et du temps, on maintient l'un des facteurs constant (formula_17 ou formula_16). Après une longue période de repos, formula_17 ou formula_16 étant brusquement appliqué puis maintenu constant, on observe une diminution de la viscosité apparente avec le temps. La structure est désorganisée par cisaillement. Le produit retrouve intégralement son état initial après un repos assez long (dans le cas contraire, il s'agit de thixotropie partielle). La thixotropie est souvent associée à un comportement rhéofluidifiant. On peut également avoir une contrainte seuil pour ces fluides. On observe ainsi des phénomènes d'hystérésis.Inversement, on trouve également les fluides antithixotropes (très rares), c'est-à-dire dont la viscosité apparente augmente avec le temps, dans les mêmes conditions que pour une expérience de thixotropie. La structure est organisée par cisaillement. L'antithixotropie est souvent associée à un comportement rhéoépaississant. Il ne faut pas confondre l'antithixotropie et la rhéopexie ( ) : ce dernier terme désigne la solidification d'un système thixotrope sous l'effet d'un mouvement doux et régulier.Un fluide est dit incompressible lorsque sa masse volumique formula_4 reste constante dans un écoulement. Dans ce cas, l'équation de continuité : formula_23 se réduit à : formula_24.
Un fluide est un milieu matériel parfaitement déformable. On regroupe sous cette appellation les liquides, les gaz et les plasmas. Gaz et plasmas sont très compressibles, tandis que les liquides le sont très peu (à peine plus que les solides).
xwikis
On peut diviser la traduction en trois phases principales : le démarrage qui consiste au recrutement du ribosome sur l'ARNm et à la reconnaissance du premier codon ou codon d'initiation ; l'élongation, c'est-à-dire la synthèse proprement dite de la protéine par le ribosome à partir de la séquence des codons ; la terminaison qui se produit lorsque le ribosome arrive sur le codon-stop et qui permet la libération de la chaîne protéique terminée et le recyclage des sous-unités du ribosome.Le démarrage de la traduction consiste en le recrutement du ribosome sur le premier codon de la séquence codant la protéine sur l'ARN messager. Cette étape implique une seule des deux sous-unités du ribosome qui doivent être au préalable dissociées. C'est la petite sous-unité du ribosome (30S chez les procaryotes ou 40S chez les eucaryotes) qui se lie ainsi en premier à l'ARN messager, pour aboutir à l'interaction entre le codon de démarrage et l'anticodon d'un ARNt spécifique appelé ARNt initiateur ou ARNt de démarrage. Cet ARNt a un anticodon complémentaire du codon de démarrage AUG et porte le premier acide aminé qui sera incorporé dans la protéine, une méthionine. Dans tous les cas, c'est l'interaction entre l'anticodon de l'ARNt de démarrage et le codon d'initiation qui constitue l'événement déclencheur du démarrage de la traduction. Il y a alors hydrolyse d'une molécule de GTP associée à un facteur spécifique lié à l'ARNt de démarrage : le facteur IF2 (bactéries) ou eIF2 (eucaryotes). Ceci déclenche la dissociation de ces différents facteurs de démarrage et le recrutement de la grande sous-unité ribosomique (50S chez les procaryotes ou 60S chez les eucaryotes). Le démarrage de la traduction est une étape essentielle de l'expression des gènes, car c'est à ce niveau que s'exercent de nombreuses régulations. En jouant sur l'efficacité du recrutement du ribosome sur le codon de démarrage, la cellule peut moduler la quantité de protéine produite à partir d'un ARNm donné. C'est le principe de base de la régulation traductionnelle. Les détails du mécanisme de démarrage de la traduction sont différents chez les eucaryotes et chez les bactéries.Chez les bactéries, la reconnaissance du codon de démarrage se fait grâce à l'interaction entre l'extrémité 3' de l'ARN ribosomique 16S et une séquence spécifique complémentaire située sur l'ARN messager juste en amont et appelée séquence Shine-Dalgarno. Cette séquence a pour consensus AGGAGGUAA et est située 6 à 12 nucléotides en amont du codon de démarrage AUG. Ceci permet le recrutement du ribosome sur des codons de démarrage internes de l'ARNm, en particulier dans les ARN polycistroniques. D'autre part la première méthionine portée par l'ARNt de démarrage est formylée sur sa fonction amine. Le premier acide aminé incorporé est donc une "N"-formylméthionine. Le recrutement de ce premier ARNt nécessite l'intervention de trois facteurs de démarrage ou facteurs d'initiation, appelés IF1, IF2 et IF3. IF1 se fixe dans le site A de la sous-unité 30S du ribosome et permet le recrutement direct de l'ARNt de démarrage au site P. IF2 complexé au GTP interagit directement avec l'ARNt de démarrage. IF3 assure la dissociation préalable des sous-unités 30S et 50S et vérifie que l'interaction entre le codon de démarrage AUG et l'anticodon de l'ARNt est correcte. Lorsque le complexe ternaire ARNm/ARNt/ribosome est formé, le GTP lié à IF2 est hydrolysé, la grande sous-unité 50S est recrutée à son tour et les facteurs d'initiation quittent le complexe. Ce mécanisme de recrutement via la séquence Shine-Dalgarno permet une entrée interne directe du ribosome sur le cistron de l'ARNm. Ceci permet la traduction des différents cistrons présents sur des ARNm polycistroniques, ce qui n'est pas possible avec le mécanisme de "scanning" des eucaryotes.Chez les eucaryotes, le principal mécanisme de reconnaissance du codon de démarrage est l'initiation par balayage ou "scanning" à partir de l'extrémité 5' de l'ARNm. Les ARNm cytoplasmiques matures sont organisés sous forme de pseudo-cercles : leur extrémité 5' est modifiée par une coiffe qui lie le facteur de démarrage eIF4E et leur extrémité 3'polyadénylée fixe la PABP ("poly(A)-binding protein"). Ces deux facteurs eIF4E et PABP interagissent avec eIF4G, pour former le pseudo-cercle. Lorsque l'ARNm est ainsi circularisé, eIF4G recrute un complexe, nommé complexe de préinitiation 43S, constitué de la petite sous-unité du ribosome 40S, de l'ARNt de démarrage et des facteurs d'initiation eIF1, eIF1A et eIF3. Cet assemblage constitue le complexe 48S qui va ensuite glisser à partir de l'extrémité 5' de l'ARNm jusqu'à rencontrer le premier codon de démarrage AUG. Ce mécanisme nécessite l'intervention de facteurs d'initiation additionnels : eIF2, eIF3, eIF5A eIF5B. L'intérêt de ce mécanisme de circularisation de l'ARNm, préalable au recrutement du ribosome, est d'introduire une étape de contrôle qualité de l'ARNm. Seuls les ARNm pourvus d'une coiffe en 5' et d'une queue poly(A) en 3' sont traduits, les ARNm incomplets ou clivés ne peuvent pas recruter de ribosome, ce qui évite la production de protéines anormales (voir aussi plus bas la section "contrôle qualité"). La reconnaissance du codon AUG de démarrage s'effectue par un balayage du complexe 48S de 5' vers 3', à partir de la coiffe. En général, c'est le premier triplet AUG rencontré qui est utilisé pour démarrer la traduction. C'est l'interaction de ce codon AUG avec l'anticodon de l'ARNt présent dans le complexe 48S qui permet le calage du ribosome sur le début de la séquence codante. L'interaction est favorisée par la présence d'un contexte de séquence favorable autour du codon AUG, appelé séquence de Kozak. La séquence consensus de Kozak chez les vertébrés est gccRccATGG, où R désigne une purine. En plus de ce mécanisme général de démarrage chez les eucaryotes, il existe deux voies alternatives plus rares que l'on retrouve en particulier dans les systèmes viraux : le démarrage interne par IRES et le shunt.Le ribosome progresse alors de codon en codon au niveau de l'ARNm, en polymérisant un à un les acides aminés de la protéine. À chaque étape du cycle, les ARNt diffusent de manière stochastique dans le site A du ribosome. Lorsqu'un ARNt porteur de l'anticodon complémentaire du codon de l'ARNm se fixe au site, il y a appariement. On parle de phase d'accommodation de l'ARNt. Les ARNt qui diffusent dans le site A ("aminoacid") portent estérifié à leur extrémité 3'-OH l'acide aminé correspondant dans le code génétique à leur anticodon. Cette estérification a été réalisée au préalable par une aminoacyl-ARNt synthétase. On a ainsi correspondance entre le codon et l'acide aminé à incorporer dans la protéine, suivant le programme porté par l'ARNm. Ces ARNt arrivent au ribosome complexés au facteur d'élongation EF-Tu (bactéries) ou eEF-1 (eucaryotes) lié au GTP. Lors de l'accomodation correcte, ce facteur d'élongation hydrolyse le GTP en GDP. La grande sous-unité du ribosome catalyse ensuite la formation de la liaison amide entre la fonction carboxylique de l'acide aminé fixé à l'ARNt du site P ("peptide") et l'amine de l'acide aminé de l'ARNt situé au site A. Ceci aboutit au transfert de la chaîne peptidique en cours de synthèse sur l'ARNt du site A. L'étape suivante est la translocation du ribosome de trois nucléotides sur l'ARNm, une étape qui nécessite l'intervention d'un deuxième facteur d'élongation, EF-G (bactéries) ou eEF-2 (eucaryotes), et l'hydrolyse d'une seconde molécule de GTP. À l'issue de cette étape, l'ARNt déacylé glisse au site E ("exit") et l'ARNt portant la chaîne peptidique, au site P. Après dissociation de l'ARNt du site E, on revient à l'étape initiale du cycle. Le polypeptide synthétisé émerge progressivement de la grande sous-unité du ribosome, au travers d'un "tunnel de sortie" spécifique traversant celle-ci. La protéine se replie progressivement, au fur et à mesure de l'avancée du processus de traduction. Dans le cas de protéines membranaires ou sécrétées (dans le réticulum endoplasmique ou à l'extérieur de la cellule), la chaîne protéique démarre avec une séquence spécifique appelée peptide signal. Lorsque le peptide signal émerge du ribosome, ceci déclenche la pause de ce dernier et son attachement à une machinerie spécifique à la membrane, le translocon, permettant la translocation directe de la protéine au travers de la membrane, de manière couplée à l'élongation de sa synthèse.Quand le ribosome parvient au niveau d'un codon stop (il en existe trois dans le code génétique : UGA, UAG ou UAA, ne correspondant à aucun acide aminé), il y a action des facteurs de terminaison. Ces facteurs sont au nombre de deux chez les eucaryotes (eRF1 et eRF3) et au nombre de 3 chez les procaryotes (RF1, RF2, RF3). Les facteurs de classe I (eRF1 et RF1, RF2) reconnaissent directement les codons stop, alors que les facteurs de classe II ont une activité GTPase qui a pour but de stimuler le relargage des facteurs de classe I. On peut noter ici une différence majeure, qui est que le facteur eucaryote eRF1 reconnaît les trois codons stop, alors que chez les procaryotes RF1 reconnaît les codons UAG et UAA, et RF2 UGA, UAA. Ce dernier facteur est exprimé grâce à un événement de décalage du cadre de lecture qui sert de mécanisme d'autorégulation traductionnelle du facteur RF2. Chez les eucaryotes le mécanisme de dissociation et de recyclage du ribosome demeurent largement incompris alors qu'il est beaucoup mieux décrit chez les procaryotes. Chez ces derniers un quatrième facteur (le RRF) agit en combinaison avec les facteurs IF3 et EFG pour provoquer la dissociation complète des deux sous unités du ribosome. L'action de ces facteurs a pu être visualisée par cryo-EM.Un ARNm peut être traduit par plusieurs ribosomes à la fois. L'ensemble formé par un ARNm et plusieurs ribosomes se déplaçant dessus s'appelle un polysome. Comme le phénomène de traduction a lieu plusieurs fois consécutivement à partir d'un même ARNm, il est donc fréquent de trouver des protéines identiques fabriquées à partir de celui-ci. La traduction est donc un processus d'amplification de l'expression des gènes à partir de l'ARNm produit par transcription.Le processus de traduction peut être bloqué par un certain nombre de molécules, en particulier chez les bactéries. Ces composés ont alors une action antibiotique, car l'inhibition de la synthèse protéique bloque la croissance bactérienne. Certains antibiotiques bloquent ou interfèrent avec le décodage du message sur l'ARN messager et agissent sur la petite sous-unité du ribosome (aminoglycosides, cyclines...). D'autres bloquent l'étape de synthèse de la liaison peptidique ou le tunnel de sortie du ribosome et agissent sur la grande sous-unité du ribosome (macrolides, lincosamides, synergistines). Certains agissent enfin sur les facteurs associés à la traduction et bloquent par exemple la translocation (acide fusidique...). Certains de ces composés agissent aussi sur la traduction dans les cellules eucaryotes et ont alors une activité cytotoxique, comme la généticine.La traduction peut se retrouver bloquée ou altérée si l'ARNm est défectueux. Ceci se produit en particulier, soit lorsqu'il y a un codon stop prématuré, soit lorsqu'il n'y a pas de codon stop, ce qui aboutit à la production d'une protéine anormale, voir au blocage du ribosome. Il existe différents mécanismes de contrôle qualité, dits de surveillance de l'ARN messager, qui permettent l'élimination de la protéine anormale et/ou la dégradation de l'ARNm défectueux. Ceux-ci sont couplés à la traduction elle-même et font intervenir le ribosome et des facteurs accessoires spécifiques de reconnaissance de la situation anormale. Chez les bactéries existe ainsi le mécanisme de trans-traduction par l'ARNtm et chez les eucaryotes, on a le mécanisme de dégradation des ARNm non sens.
En biologie moléculaire, la traduction génétique est l'étape de synthèse des protéines par les ribosomes, à partir de l'information génétique contenue dans les ARN messagers. Le ribosome interprète l'information contenue dans l'ARNm sous forme de codons ou triplets de nucléotides, qu'il traduit en acides aminés assemblés dans la protéine, selon l'ordre donné par les codons portés par l'ARNm. La table de correspondance entre codons et acides aminés permettant cette traduction s'appelle le code génétique.
xwikis
Sur le plan macroscopique, on appelle gaz parfait tout gaz vérifiant simultanément les : Sur le plan microscopique, la théorie cinétique des gaz permet de retrouver ce comportement de gaz parfait : un gaz parfait est un gaz dont les molécules n'interagissent pas entre elles en dehors des chocs et dont la taille est négligeable par rapport à la distance intermoléculaire moyenne. L'énergie du gaz parfait est donc la somme de l'énergie cinétique du centre de masse des molécules et de l'énergie interne de chaque molécule (rotation, oscillation). Lorsque ces deux énergies sont proportionnelles, on a le gaz parfait de Laplace.Comme pour tout gaz, l'état d'équilibre thermodynamique d'un gaz parfait est fixé pour formula_5 moles de molécules, par deux paramètres macroscopiques, au choix. Les autres paramètres peuvent se calculer à partir des deux paramètres choisis par l'équation d'état. L'équation la plus couramment utilisée est l'équation des gaz parfaits. On peut l'écrire différemment, dans une approche plus microscopique où l'on considère le nombre de molécules contenu dans une unité de volume. En thermodynamique, une autre version est couramment utilisée : Dans ces expressions, Cette équation dérive d'autres lois trouvées auparavant : la loi de Charles, la loi de Boyle-Mariotte et la loi de Gay-Lussac. Application numérique : le volume molaire est On retient en général la valeur approchée 22,4 L/mol. Ce qui donne un volume par molécule (volume « libre » autour de la molécule, indépendamment de sa dimension) : si l'on assimile ce volume libre à un cube, alors l'arête de ce cube est globalement la distance moyenne séparant les molécules à chaque instant, que l'on appelle « longueur de Loschmidt » formula_27. Cette valeur est la racine cubique du volume « libre » : on utilise en général la valeur approchée 3,33 nm. Pour une pression valant un millionième de la pression atmosphérique (formula_24/), la distance interparticulaire est 333 nm = 1/3 micromètre et est indépendante de la nature du gaz.On considère un gaz parfait constitué de N particules identiques. L'état de chaque particule est caractérisé par sa position formula_30 et sa quantité de mouvement formula_31. Chaque particule a une énergie cinétique proportionnelle au carré de sa vitesse formula_32, les particules peuvent échanger de l'énergie entre elles de façon conservative. Étant donné une énergie totale formula_33 il existe de nombreuses configurations de l'espace des phases formula_34 correspondant à ce niveau d'énergie. On définit un volume élémentaire dans l'espace des phases formula_35, avec h égale à la constante de Planck pour être cohérent avec la mécanique quantique. Étant donné une plage d'énergie le nombre de configuration microscopique, micro-état, est égal au volume de cette plage d'énergie dans l'espace des phases divisé par le volume élémentaire et le nombre de permutations possibles entre les particules formula_36, les particules étant indiscernables. Le nombre de micro-états correspondant à une énergie comprise entre formula_33 et formula_38 est avec formula_40 et formula_41 est un nombre fonction de N. Avec formula_42 (énergie du niveau fondamental d'une particule dans une boite cubique) La densité de micro-états à l'énergie formula_33 est donc formula_44 On a donc le nombre de micro-états cherché : On en déduit l'entropie du gaz en fonction de l'énergie : formula_45 Les grandeurs thermodynamiques se calculent ensuite selon : formula_46 formula_47 D'où la loi cherchée :Si la capacité thermique à pression constante formula_48 d'un gaz parfait ne dépend pas de formula_15, il en est de même de la capacité thermique à volume constant formula_50 en raison de la relation de Mayer. Le quotient formula_51 ne dépend donc pas non plus de la température : dans ce cas, le gaz parfait est dit "de Laplace". Pour un gaz parfait de Laplace, on a pour toute transformation : avec formula_54 l'énergie interne du gaz et formula_55 son enthalpie, d'où : Or, la définition de l'enthalpie permet d'écrire : On en déduit que : Des valeurs particulières de formula_59 modélisent le comportement de certains gaz. Pour un "gaz parfait monoatomique" formula_60, on obtient : Le comportement de l'argon est très proche d'un gaz parfait monoatomique. Pour un "gaz parfait diatomique" formula_62, on obtient : Le comportement du diazote N est proche d'un gaz parfait diatomique.Dans une transformation adiabatique réversible élémentaire : Ceci entraîne : Soit en intégrant : Compte tenu de l'équation des gaz parfaits, cette relation s'écrit également sous la forme : Il en résulte, dans une détente adiabatique, un refroidissement considérable, le gaz prenant sur son énergie interne le travail, (formula_70), qu'il fournit. Pour un gaz parfait monoatomique pour lequel formula_71, on trouve : Soit pour une diminution de pression de 90 %, un abaissement de température absolue d'un facteur 0,398. De 300 K la température descend à 120 K soit une chute de 180 K. Ce procédé est utilisé dans l'industrie pour obtenir de basses températures. Cependant, la valeur ainsi obtenue ne reflète pas la réalité, car les gaz réels ne sont pas des gaz parfaits à basse température. Pour les ordres de grandeur, on retient formula_73 2500 J/mol à 300 K. Le travail récupéré dans cette détente est 2500·(180/300) = 900 J/mol.Une autre loi remarquable est l'échauffement produit quand on laisse pénétrer un gaz parfait de Laplace dans un flacon vide. Le gaz s'engouffre et puis très vite tout redevient chaotique : la température s'uniformise et devient formula_75 étant la température externe. Pour une température externe de 300 K et un gaz parfait monoatomique, on obtient : soit une élévation de 200 K. Dans la soufflerie de Modane, c'est bien ce que l'on peut observer. Ainsi, on a deux cas d'expansion du gaz.Un cycle de Carnot moteur d'un gaz parfait a comme le veut le théorème de Carnot, le rendement de Carnot : Dans le cas présent, tout peut se calculer aisément. Décrivons le cycle — on pourra le dessiner aisément en coordonnées de Clapeyron logarithmiques (formula_78, formula_79) : Fin du cycle. Puisque le gaz est revenu à son état initial, le premier principe de la thermodynamique nous dit que : Le rendement du moteur est le travail récupéré formula_70 (donc égal à formula_91) divisé par la quantité de chaleur délivrée par la source chaude, soit formula_92 : On démontre que : d'où : Ce qui nous donne la formule annoncée. L'égalité de Clausius : provient du fait que le cycle a été réversible : l'entropie totale est restée constante, celle du gaz est nulle car il est revenu dans l'état A. La source 1 a vu son entropie varier de formula_97, la source 2 de formula_98, d'où l'égalité. Application numérique : même en prenant une eau de rivière à et une source chaude à, le rendement ne serait que 50 %. Sur un gigawatt électrique fourni par une centrale « réversible », doivent être consommés (en charbon, pétrole, méthane, ou mox nucléaire) dont ira à la rivière (élévation de température) ou dans l'atmosphère (chaleur de fumée, vapeur d'une tour de réfrigération). Si l'on considère que toute la chaleur va dans la rivière et que celle-ci a un débit /s : en 1 seconde, iront chauffer d'eau : soit une élévation de température de 10 (J)/4,18 (J/K) =. Six centrales produisant donneraient une élévation de 6 × 2,4 =. En France, il est interdit de dépasser dans une rivière (obligation légale, pour la survie de la vie aquatique en zone tempérée) : l'été 2003 fut très chaud, il a fallu arrêter certaines centrales. Cette pollution thermique (formula_99 < 0) calculée par la formule de Carnot est la plus basse possible ; il s'agit en fait d'un minimum, la pollution thermique réelle est plus élevée. Encore avons-nous pris un rendement formula_18 = 0,5 ; la réalité est proche de 0,42.Voici un troisième exemple, la détente de Joule et Gay-Lussac : le gaz parfait est contenu dans un flacon de volume formula_101 et est brutalement mis en contact avec un récipient vide de volume formula_102, où il s'engouffre partiellement. Quelle est la température finale en admettant que les parois n'absorbent aucune chaleur? Dans un premier temps, dans le second récipient, le gaz doit être plus chaud ; si formula_102 est très inférieur à formula_101, on doit retrouver formula_105, d'après l'expérience 2. Dans le récipient 1, le gaz qui y reste s'est détendu, il doit être plus froid ; c'est ce que l'on constate. Mais après retour à l'équilibre thermique, comme un gaz parfait est un gaz de Joule, la température ne change pas.L'énergie interne d'une quantité donnée d'un corps pur dépend de deux variables indépendantes (on choisit formula_15 et formula_2 dans ce cas). Donc sa différentielle est égale à: Or l'énergie interne est constituée des énergies cinétiques microscopiques correspondant à l'agitation thermique et des énergies d'interactions microscopiques correspondant aux énergies de liaisons et d'interactions diverses. Dans le cas d'un gaz parfait, par définition, ces dernières énergies restent constantes (pas de réaction chimique ou à fortiori nucléaire et pas d'interactions entre particules du gaz parfait). Comme l'agitation thermique ne dépend que de formula_15, il s'ensuit que l'énergie interne d'un gaz parfait ne dépend que de formula_15. Donc, pour un gaz parfait Et on obtient Or Il s'ensuit :De même, pour la même raison, l'enthalpie d'un gaz parfait ne dépend que de T : or pour formula_5 mol d'un gaz parfait Donc La différentielle de l'enthalpie serait égale dans le système de variables indépendantes (T,P dans ce cas) à: avec formula_120 et formula_121 (Capacité thermique isobare du gaz parfait). Il s'ensuit :Par définition, la différentielle de l'entropie s'exprime par la relation : Appliquons le premier principe : d'où : Dans le cas d'un gaz parfait l'énergie interne ne dépend que de T. il s'ensuit: En intégrant entre 2 états formula_131 et formula_132 : Il est possible d'établir les relations à partir de l'enthalpie au lieu de l'énergie interne : d'où Pour un gaz parfait l'enthalpie ne dépend que de T. d'où : De façon similaire en intégrant entre 2 états formula_143 et formula_144 : Pour déterminer la valeur de l'entropie d'un gaz parfait, il suffit alors de connaître une valeur de référence consignée dans les tables thermodynamiques, par exemple (S).Pour un gaz parfait monoatomique, on préfère retenir la valeur de l'enthalpie libre avec où formula_149 est la longueur d'onde de Broglie ; elle est donnée par formula_150 où formula_151 est la constante de Planck et formula_152 est la quantité de mouvement : On retrouve alors toutes les valeurs données dans les tables (par exemple pour l'argon, le néon...). Les calculs sont à peine plus compliqués pour les gaz diatomiques.La capacité calorifique à volume constant d'un gaz parfait vaut De même, la capacité calorifique à pression constante d'un gaz parfait vaut : La relation de Mayer est la relation qui existe entre les capacités calorifiques molaires C et C, d'un gaz parfait. D'où Si l'on applique la formule de Clapeyron donnant la chaleur latente de dilatation "l", de transfert latent de chaleur de dilatation (voir "Coefficients calorimétriques et thermoélastiques"), et on trouve que le coefficient β d'augmentation relative de pression isochore vérifie : donc : et l'enthalpie vaut :Les gaz parfaits font l'objet d'une théorie dite théorie cinétique des gaz expliquant les lois physiques qui les régissent.Pour ce qui est d’un mélange de gaz parfaits, on dispose de la loi de Dalton : où formula_166 désigne la pression partielle du gaz "i", c'est-à-dire la pression qu’aurait le gaz "i" s’il occupait seul tout le volume. Soit un gaz parfait de molécules "A" occupant un volume formula_101, et un gaz parfait de molécules "B" de volume formula_102, séparés par une cloison. Ils sont en équilibre (même température formula_15 et même pression formula_24). Il n'est pas du tout évident que pour une même pression et une même température, le mélange obtenu en enlevant la cloison soit un système de même pression, de même température et de volume formula_171. À titre de comparaison, si l'on mélange 1 L d'eau et 1 L d'alcool, on obtient 1,84 L d'eau alcoolisée ; certes ce ne sont pas des gaz parfaits, mais cela montre que les propriétés ne sont pas toujours additives. Considérons que les gaz sont chimiquement neutres, c'est-à-dire que les molécules de "A" et de "B" n'interagissent pas : d'après le paragraphe précédent : Ainsi la température n'a pas changé et la pression sur les parois est due à "A" et "B", soit : La pression totale est formula_178 : la pression n'a pas changé, la loi de Mariotte reste donc vraie. En revanche, il y a eu « perte d'information par mixage », il s'agit du théorème de Gibbs. S'il n'y a pas interaction entre "A" et "B", l'énergie interne est simplement celle de "A" plus celle de "B" : la loi de Joule reste vraie. Donc le mélange se comporte comme un gaz parfait. Le mélange de deux gaz parfaits de Laplace est un gaz parfait de Laplace, mais dont le facteur γ n'est pas la moyenne pondérée des γ : ce sont formula_50 et formula_48 qui sont les moyennes pondérées. L'entropie d'un mélange est la somme des entropies de chacun des gaz pris sous sa pression partielle (cf. théorème de Gibbs). En conséquence, un mélange de gaz parfaits est une solution idéale. Les propriétés d'un mélange de gaz parfaits se calculent donc facilement à partir des propriétés de ses constituants à l'état de gaz parfaits purs.À basse pression, tous les gaz peuvent être modélisés par un gaz parfait. Lorsque la pression augmente, on ne peut plus négliger les interactions à courte distance, notamment l'effet de taille des molécules et les interactions de type van der Waals. Un gaz réel a un comportement voisin d'un gaz parfait dans le cas où les distances intermoléculaires sont grandes par rapport à la taille des molécules et à la portée des forces d'interaction. On appelle gaz parfait « associé au gaz réel » le gaz parfait dont la capacité calorifique à pression constante est celle du gaz réel à pression nulle formula_181. On dresse les tables thermodynamiques d'un gaz réel à partir des corrections apportées à ce gaz parfait associé.Dans la limite des fortes densités, la nature quantique des atomes ou molécules de gaz doit être prise en compte. On peut donner comme critère que le modèle classique n'est valable que si la distance interatomique est très supérieure à la longueur d'onde de BroglieLe gaz parfait relativiste est une généralisation du gaz parfait aux cas où les particules de gaz ont des vitesses proches de celles de la lumière. Il faut alors prendre en compte les effets de la relativité dans le calcul des différentes propriétés du gaz. Ainsi, si la loi des gaz parfaits reste valable, l'énergie et la chaleur spécifique sont modifiées par les effets relativistes.
Le gaz parfait est un modèle thermodynamique décrivant le comportement des gaz réels à basse pression. Ce modèle a été développé du milieu du au milieu du et formalisé au. Il est fondé sur l'observation expérimentale selon laquelle tous les gaz tendent vers ce comportement à pression suffisamment basse, quelle que soit la nature chimique du gaz, ce qu'exprime la loi d'Avogadro, énoncée en 1811 : la relation entre la pression, le volume et la température est, dans ces conditions, indépendante de la nature du gaz. Cette propriété s'explique par le fait que lorsque la pression est faible, les molécules de gaz sont suffisamment éloignées les unes des autres pour que l'on puisse négliger les interactions électrostatiques qui dépendent, elles, de la nature du gaz (molécules plus ou moins polaires). De nombreux gaz réels vérifient avec une excellente approximation le modèle du gaz parfait dans les conditions normales. C'est le cas des gaz principaux de l'air, le diazote et le dioxygène.
xwikis
Le traité d'hydrostatique de Simon Stevin a paru d'abord en hollandais à Leyde en 1586 sous le titre "De Beghinselen des Waterwichts". Il a été de nouveau publié dans ses œuvres mathématiques écrites, également en hollandais, à Leyde, de 1605 à 1608. Willebrord Snell les a traduites en latin. Il a rendu le hollandais "Waterwichten" par "hydrostatice" expliqué en marge par "aquam ponderare" et c'est par là que ce terme s'est introduit dans l'usage.Expérimentalement, on constate que la pression dans l'eau immobile ne dépend que de la profondeur et pas de la direction. En effet, si l'on prend une petite boîte rigide ouverte d'un côté et que l'on tend une membrane élastique, cette boîte enfermant de l'air à pression atmosphérique, et que l'on plonge cette boîte dans l'eau, la déformation de la membrane permet de visualiser la différence de pression entre l'air et l'eau, et celle-ci ne dépend que de la profondeur, pas de l'orientation de la boîte ni de sa position dans le plan horizontal. Cette relation entre la pression dans un fluide et la profondeur est connue sous le nom de principe de Pascal, et est à la base de l'hydrostatique. "Convention" : dans l'exemple qui suit, nous orientons l'axe vertical vers le bas ("z" croît lorsque l'on descend).Le fluide étant incompressible, il transmet intégralement les efforts. La pression à une profondeur "z" résulte donc de la pression "P" qu'exerce l'air en surface, et du poids "p" de la colonne d'eau au-dessus de la membrane. Supposons que la membrane soit horizontale et orientée vers le haut, et que son aire soit "S". La colonne d'eau située au-dessus a pour volume "S"·"z", donc pour masse ρ·"S"·"z" si ρ est la masse volumique de l'eau équivalant à 999,95 kg/m3. Le poids "p" de l'eau est donc : où "g" est l'accélération de la gravité. La membrane est alors soumise à une force "F" : soit une pression : La Force d’Archimède ne dépend cependant pas de la pression. Une fois l'objet immergé le fait d'aller à 10 m ou à 100 m sous l'eau ne fera pas accroître la poussée d’Archimède.Mettons un liquide dans un tube fermé d'un côté ; ce tube est immergé dans une bassine de liquide (il se remplit intégralement), puis on le place verticalement, le côté fermé en haut, le côté ouvert trempant dans la bassine. La pression atmosphérique s'exerçant sur la surface du liquide dans la bassine fait monter le liquide dans le tube. Si le tube est suffisamment grand, du vide est obtenu au-dessus de la colonne de liquide dans le tube (en fait, il s'y trouve en quantité faible de la vapeur de liquide à une pression très basse, la pression de vapeur saturante). En mesurant la hauteur "h" de la colonne, on peut déterminer la pression atmosphérique : Cette hauteur équivaut environ à 10 m si le liquide est de l'eau, et à 76 cm si c'est du mercure. On a ainsi un baromètre. Prenons maintenant un tube en forme de U dont chacune des extrémités est ouverte et reliée à une enceinte étanche. Le tube contient un liquide. Si la pression régnant dans les deux enceintes est identique, la hauteur de liquide est identique dans les deux branches. Si la hauteur diffère d'une valeur δ"h", alors la différence de pression vaut : On exprime ainsi parfois une faible surpression en hauteur de la colonne d'eau (mm CE). g : où "g" est l'accélération de la gravité, qui dépend du lieu.Lorsque l'on considère de grandes variations d'altitude, on ne peut plus considérer le champ de gravité comme constant, "g" dépend donc de "z". Et lorsque le fluide est un gaz, on ne peut plus considérer celui-ci comme incompressible, donc ρ dépend également de "z" ; mais ceci n'est sensible que pour des variations de pression significatives, donc ρ étant faible dans le cas d'un gaz, ceci n'intervient que pour des variations de "z" assez grandes. Localement, pour de petites variations d"z" de "z", on peut toujours écrire : Il faut alors intégrer cette loi : si l'on connaît la loi de comportement du gaz, par exemple s'il s'agit d'un gaz parfait, alors pour une masse "m" de gaz donnée, on peut relier le volume "V" à la pression "P", donc la masse volumique ρ à la pression "P" : si ρ et "P" sont des valeurs à une altitude "z" de référence. Par ailleurs, la variation de la pesanteur se calcule avec la loi de Newton. Dans le cas de l'atmosphère, il faut de plus prendre en compte la variation de température et la variation de composition.Baromètre de Torriccelli, baromètre en UPompage par aspiration, plongée sous-marine, osmose inverse, largueur hydrostatique.En physique expérimentale, la pesée hydrostatique permet de déterminer la masse volumique et la densité d'un matériau. En techniques de marine, la pesée hydrostatique, ou plus communément, pesage hydrostatique, permet de déterminer la masse d'un chargement à partir de repères de jauge calibrant le navire en fonction du volume de la carène.En météorologie, l"'approximation hydrostatique" ou "quasi hydrostatique" stipule que la composante verticale de la force de pression est en équilibre exact avec la force gravitationnelle : l'équilibre hydrostatique. Elle permet de négliger, dans le calcul de la pression le long de l'axe vertical, les forces dues : Il s'ensuit que la pression, en tout point du volume atmosphérique, est uniquement et directement proportionnelle au poids de la colonne d'air au-dessus de ce point. Cette approximation est valide à un grand degré de précision dans un très grand nombre des états naturels de l'atmosphère en particulier pour les mouvements de grande échelle. Elle cesse d'être valide à petite échelle (< 10 km) et pour des systèmes intenses comme les tornades et les lignes de grains.
L'hydrostatique, ou statique des fluides, est l'étude des fluides immobiles. Fondée par Archimède, c'est un cas de la mécanique des fluides riche d'enseignements.
xwikis
L'énoncé originel de la première loi du mouvement est le suivant : Dans la formulation moderne de la loi, on parle de mouvement rectiligne uniforme, et on remplace la notion de force (unique) par celle, plus générale, de résultante des forces appliquées sur le corps. Autrement dit, s'il n'y a pas de force qui s'exerce sur un corps (corps isolé), ou si la somme des forces (ou force résultante) s'exerçant sur lui est égale au vecteur nul (corps pseudo-isolé), la direction et la norme de sa vitesse est constante ou, ce qui revient au même, son accélération est nulle. Cette première loi infirme la conception héritée d'Aristote,. Le mouvement considéré par Newton a lieu par rapport à un espace mathématique abstrait qu'il suppose absolu. Sa première loi s'applique également dans des référentiels en translation uniforme par rapport à cet espace absolu, ce qui donne naissance à la notion de référentiel galiléen. Au, la notion d'espace absolu est peu à peu abandonnée au profit des seuls référentiels galiléens. La première loi de Newton se reformule donc aujourd'hui sous la forme :La définition d'un référentiel galiléen apparaît fondamentale et est souvent formulée ainsi : Ainsi la première loi de Newton ne s'applique que dans un référentiel galiléen et un référentiel galiléen est un référentiel où la première loi de Newton s'applique... ce qui apparaît comme une définition circulaire. Pour éviter ce problème, on réécrit le principe d'inertie sous la forme axiomatique suivante : La détermination d'un "bon" référentiel galiléen est en réalité expérimentale et comme souvent en physique, seule la cohérence entre la théorie (ici la première loi de Newton) et la mesure (mouvement rectiligne uniforme) valide le choix "a posteriori".L'énoncé original de la deuxième loi de Newton est le suivant : Dans sa version moderne, on la nomme principe fondamental de la dynamique (PFD), parfois appelée relation fondamentale de la dynamique (RFD), et s'énonce ainsi : Cette expression de la deuxième loi de Newton n'étant valable que pour un système de masse constante, elle peut être reformulée de façon équivalente de la manière suivante : Ceci est souvent récapitulé dans l'équation : où :Pour un corps soumis à une résultante des forces nulle, on retrouve bien la première loi de Newton, c’est-à-dire un mouvement rectiligne uniforme. En première analyse, on peut se demander quelle est l'utilité de la première loi puisqu'elle semble être une conséquence de la deuxième. En réalité, dans l'énoncé de Newton, il n'en est rien car la première loi n'est pas présentée comme un cas particulier de la deuxième mais comme une "condition suffisante" à l'application de cette dernière. En effet, énoncer la première loi, c'est tout d'abord affirmer l<nowiki>'</nowiki>"existence" des référentiels galiléens. Cela constitue un postulat extrêmement fort qui permet, dans les exposés modernes de la mécanique classique, de définir les repères galiléens qui sont les seuls repères dans lesquels la seconde loi est valide. En l'absence de la première loi, la seconde loi est inapplicable puisqu'on ne peut pas définir son domaine de validité. Par conséquent, l'ordre logique dans lequel les lois sont énoncées n'est pas le fruit du hasard mais bien celui d'une construction intellectuelle cohérente. Ensuite, cette première loi énonce le principe d<nowiki>'</nowiki>"isolement" du solide : on considère les forces "extérieures" qui agissent sur lui, et on ne prend pas en compte ce qui se passe en interne.L'énoncé original est le suivant : De manière moderne, on exprime que : A et B étant deux corps en interaction, la force formula_6 (exercée par A sur B) et la force formula_7 (exercée par B sur A) qui décrivent l'interaction sont directement opposées et portées par la droite formula_8: Ces forces ont la même droite d'action, des sens opposés et la même norme. Ces deux forces sont toujours directement opposées, que A et B soient immobiles ou en mouvement. Il faut là encore revenir sur la modélisation, c'est-à-dire sur le passage de la réalité à la description vectorielle. Dans le cas d'une action de contact, c'est assez simple : si Albert pousse de sur Béatrice, alors Béatrice pousse également de sur Albert ; Albert et Béatrice peuvent être sur un sol adhérent ou de la glace, immobiles ou en train de patiner. Il est souvent plus difficile de comprendre que si Albert s'appuie sur le mur, alors le mur pousse aussi sur Albert ; le mur n'a pas de « volonté motrice », il fléchit sous l'effet de l'action d'Albert mais cette flexion est indécelable sauf pour une paroi souple, et Albert subit donc un « effet ressort ». Il est de même pour la notion de sol qui soutient Albert ; en particulier, en cas de saut, il est difficile d'imaginer que c'est le sol qui propulse Albert, toujours par effet ressort. Le cas des actions à distance est également difficile à conceptualiser, en particulier le fait qu'Albert attire lui aussi la Terre... Cette loi est parfois appelée "loi d'action-réaction", en référence à l'énoncé original ; une formulation au mieux imprécise, au pire entraînant de nombreuses confusions. En particulier, cette ancienne formulation véhicule l'idée qu'il y a toujours une force qui est la « cause » (l'action), l'autre n'étant qu'une sorte de conséquence (la réaction). Une autre difficulté rencontrée par les étudiants est l'oubli que ces deux forces formula_6 et formula_7 s'exercent sur deux corps différents. Elles ne peuvent donc pas « s'annuler mutuellement ». L'effet d'annulation n'intervient que lorsqu'on considère un système constitué de différents corps et que l'on s'intéresse à la résultante des forces : dans ce cas, les forces intérieures s'annulent en effet et seule la somme des forces extérieures est à prendre en compte (ce qui est heureux pour étudier le mouvement d'un solide constitué de plus de 10 éléments). La loi des actions réciproques a l'inconvénient de supposer l'application des forces comme instantanée (ce qui est abandonné en relativité restreinte). Dans le cas des forces à distance, il convient dans certains cas d'effectuer des transformations pour tenir compte du retard de propagation. Cette correction ne relève pas de la relativité. Comme les forces électromagnétiques s'appliquent à distance, on avait mis en évidence que ces forces se propagent à la vitesse de la lumière et non à vitesse infinie et inclus cette nuance dans les équations avant la révolution de la relativité restreinte.Certains auteurs (minoritaires) appellent "quatrième loi de Newton" sa loi universelle de la gravitation. Cette dénomination est très contestable, mais elle est mentionnée ici à cause de la parenté historique des lois : si cette loi ne fait pas partie des principes de la mécanique au même titre que les trois autres et le principe de relativité, la première réussite de Newton fut d'utiliser ses lois mécaniques plus sa loi d'interaction gravitationnelle pour démontrer les lois empiriques de Kepler. Ce sont ces premiers succès qui établirent pour longtemps la domination des lois de Newton sur la science. Notons qu'en combinant cette loi et le principe fondamental de la dynamique, on démontre la prédiction de Galilée selon laquelle, dans le vide, tous les objets tombent à la même vitesse (en admettant implicitement que masse inertielle et masse gravitationnelle sont égales).Newton dans ses Principia a mis en évidence la notion de relativité du mouvement dans les définitions précédant le livre premier. Il introduit dans les scholies II et IV la notion d'espace absolu et indique dans le corollaire V des lois que : ce qui préfigure la notion de référentiel galiléen telle qu'elle est définie aujourd'hui. Cependant, Newton ne fait aucune référence au cas où un référentiel n'est pas en mouvement rectiligne uniforme par rapport à ce qu'il appelle "l'espace absolu", et aucune infirmation de la validité de ses lois dans les référentiels accélérés n'est donnée dans les "Principia". Il faudra attendre les travaux de Gaspard Coriolis et de Foucault au pour que la notion de référentiel galiléen telle qu'elle est connue aujourd'hui se dégage et pour que les formules de changement de repère vers (ou depuis) un référentiel non galiléen soient établies. Le principe de relativité s'énonce comme suit : On pourra le vérifier en admettant les trois premières lois, l'invariance du temps, de la masse et des forces (implicite en physique pré-einsteinienne). C'est pourquoi ce principe est appelé ici corollaire. Ce principe est dit principe de relativité galiléenne car on en trouve la trace dans le célèbre Dialogue de Galilée, quoique Galilée ait supposé qu'il en était de même pour une rotation uniforme. Une formulation plus moderne affirme que toutes les lois de la physique sont les mêmes pour deux référentiels d'espace en translation rectiligne uniforme l'un par rapport à l'autre. C'est cette formulation forte qui est à la base de la relativité restreinte.Isaac Newton a énoncé ses lois dans le premier volume de son "Philosophiae Naturalis Principia Mathematica" en 1687 et, à l'aide des nouveaux outils mathématiques qu'il a développés, il a prouvé beaucoup de résultats au sujet du mouvement des particules idéalisées. Il convient de nuancer : si Newton avait connaissance des travaux de Galilée, son rôle a été de formaliser les idées de Galilée et d'en tirer les conséquences qui ont permis de construire la mécanique. Quand Newton affirme « Si j'ai vu plus loin que les autres, c'est parce que j'ai été porté par des épaules de géants. », le lecteur averti est censé comprendre que le travail s'inscrit dans la continuité de celui de Galilée. En fait, on pourrait même dire que Newton n'a pas précisé que le principe d'inertie et le principe de relativité, sur lesquels il s'est fondé pour construire toute la mécanique, ont été édictés par Galilée, tout simplement parce qu'il estime que le lecteur est censé le savoir! Les deux premiers volumes sont mathématiques. Dans le troisième volume, la philosophie naturelle (ancienne dénomination de la physique des phénomènes naturels) est expliquée : il a montré comment ses lois du mouvement combinées à sa loi universelle de la gravitation expliquent le mouvement des planètes et permettent de dériver les lois de Kepler.Les lois sus-citées ont été mises en forme et édictées par Newton. Mais les fondements proviennent de travaux antérieurs : Galilée, Torricelli, Descartes, Huygens, Hooke, « J'ai été porté par des épaules de géants. » reconnaissait lui-même Newton. D'autre part, comme l'a fait remarquer Ernst Mach : Dans cette critique, Mach fait référence à la définition IV des "Principia", laquelle introduit la notion de force, fondamentale en physique : Mais on peut aller encore plus loin : la conservation de la quantité de mouvement de systèmes peut être érigée en principe premier de la mécanique. Cette démarche présente l'avantage de reposer sur un concept, la quantité de mouvement, et permet de traiter des problèmes de mouvements relativistes. De plus la troisième loi permet d'introduire le concept d"'interaction" qui n'est pas trivial mais, lui aussi, fondamental en physique. À l'époque, cette loi est une absurdité, si l'on se réfère par exemple au point de vue d'Aristote chez qui la magie et autres actions à distance n'existent pas dans le cadre de la physique. Rappelons que le magnétisme est interprété depuis le "de Magnete" de Gilbert par des « lignes spectrales », ou tourbillons. De même, la cause de la gravitation est interprétée par Descartes "via" une théorie (fausse) de tourbillons, si contradictoire que. Par contre, Newton déclarera dans une phrase restée célèbre : "hypotheses non fingo", je ne chercherai pas la cause ultime de la gravitation. La gravitation « s'exprime » au travers de la loi centripète qu'il énonce, il ne fait aucune supposition sur la nature de cette force. Newton sortait donc hardiment du cadre imposé par la physique de l'époque, d'où une critique véhémente, l'action à distance étant récusée (elle gênait d'ailleurs Newton lui-même), comme insensée (Rømer venait de montrer la finitude de la célérité de la lumière). En 1906, Poincaré proposera une hypothèse moins choquante : la gravitation se propage à la vitesse limite c.Les lois de Newton peuvent être construites à partir de thèses plus abstraites. Les lois de Newton ont subi l'analyse critique de Laplace, puis Ernst Mach, puis Poincaré, puis de Kolmogorov. Selon leur analyse le principe fondamental de la dynamique peut être ramené à une conséquence du déterminisme énoncée par Laplace dans son traité sur les probabilités : Ainsi l'orbite hamiltonienne de l'électron dans le plan des phases ["x"("t" ), "p"("t" )] est déterminée par le PFD. C'est tout ce qu'affirme ce principe, puisque, par ailleurs, il faut trouver expérimentalement la loi F("x, v, t" ). Même si le déterminisme tel que le définit Laplace souffre de limites, il est tout de même possible de montrer que le théorème de la quantité de mouvement repose sur les principes mêmes de la physique : c'est en effet une conséquence du théorème de Noether.Newton avait postulé : il existe un espace et un temps absolu. En fait, on peut étendre à toute une classe de référentiels dits « inertiels » la notion d'espace absolu, conformément au point de vue de Galilée qui défendait l'équivalence entre un référentiel et un autre évoluant à vitesse constante par rapport au premier. Par contre, Newton se méfiait du temps absolu : il savait qu'en changeant l'échelle de temps, l'expression de son PFD changeait. Il l'a même savamment utilisé. Mais évidemment, il fallait prendre une décision : quelle échelle de temps choisir? Ce qui paraissait le plus simple était la fameuse loi de Kepler. Et tout était cohérent. Les notions de temps relatif, de finitude des vitesses, de synchronisation et de transport du temps allaient nécessiter encore beaucoup de découvertes avant d'être entrevues. Il a donc opté pour le temps dynamique absolu et édicté : le temps absolu s'écoule uniformément. C'est cette variable "t" qui intervient quand on écrit puis et donc : Ce temps absolu est généralement admis tant qu'on n'emploie pas la relativité restreinte. Mais il constitue néanmoins une hypothèse philosophique forte qui a été régulièrement discutée par Leibniz notamment qui disait:Une des grandes difficultés des théories de Newton, mise à jour dès le, est la notion d'action "instantanée" à distance. Newton lui-même par cette supposition présente tout aussi bien dans sa théorie de la gravitation que dans sa troisième loi. Plus tard au cours du, un certain nombre de difficultés, concernant l'électromagnétisme notamment, indiquèrent également que les principes de Newton ne pouvaient pas rendre compte en l'état de tous les problèmes mécaniques ou cinématiques. La relativité restreinte démontre qu'aucune interaction ne se propage plus vite que la vitesse de la lumière dans le vide et remet donc définitivement en cause les interactions instantanées. De plus, elle montre que pour des objets dont la vitesse est proche de celle de la lumière, les lois de Newton ne sont absolument plus fidèles à l'observation. Cependant, les formules de la relativité restreinte permettent de considérer la physique newtonienne comme une approximation en supposant la vitesse de la lumière infinie. Ainsi, la relativité permet de justifier les équations de Newton dans les cas de faibles vitesses en la rendant démontrable à partir d'une théorie plus générale qui l'englobe. Les lois de Newton s'appliquent donc à la plupart des applications quotidiennes de la mécanique, que l'on qualifie alors de « classique » (chute des corps, mouvement des véhicules, moteurs, etc.). En revanche, il existe des situations où les résultats sont radicalement modifiés, par exemple celles créées au sein des accélérateurs de particules (comme celui du CERN). L'énergie cinétique apportée à une particule de charge "q" par une tension V vaut "q" V. Les énergies cinétiques mises en jeu dans les accélérateurs de particules peuvent actuellement monter jusqu'à l'ordre du téravolt ( milliards de volts). On calculerait par exemple, selon les équations newtoniennes, pour un électron ayant acquis une telle énergie cinétique, une vitesse supérieure à celle de la lumière. La vitesse réelle, calculée dans le cadre relativiste est celle d'une fraction de la vitesse de la lumière légèrement inférieure à l'unité. Il est donc essentiel de bien distinguer les situations où les lois de Newton restent de très bonnes approximations de celles où elles perdent toute pertinence. En relativité restreinte, les forces respectent toujours un théorème de la quantité de mouvement mais adapté, faisant apparaître le facteur de Lorentz. Le théorème de la quantité de mouvement est donc un théorème très puissant, puisqu'il permet de déduire les lois de Newton dans le cas où les faibles vitesses le permettent. Dans le cas contraire il s'inscrit dans les résultats de la relativité restreinte.La mécanique newtonienne étudie surtout les systèmes macro-physiques. Dans ce contexte, l'espace et l'énergie sont implicitement considérés comme étant continus. Or, le monde de la mécanique quantique est celui des systèmes micro-physiques, pour lesquels. La mécanique newtonienne s'appuie notamment sur le concept de force, sachant que la force dérive d'un potentiel (pour un système mécanique isolé). Toutefois, pour les systèmes micro-physiques (relevant de la mécanique quantique), la notion de force ne peut pas être définie puisque l'énergie potentielle comme les coordonnées d'espace sont quantifiées. En effet, en mathématique, la dérivée d'une fonction discontinue n'est pas définie. La mécanique de Newton trouve donc ses limites pour l'étude des systèmes micro-physiques, puisque l'hypothèse implicite fondée sur un espace et une énergie continus est mise à mal pour ces systèmes.Si on connaît la trajectoire formula_16 d'un corps, on connaît formula_17 à chaque instant avec formula_18. À l'inverse, si on connaît la vitesse formula_17 d'un corps et la position initiale formula_20, on connaît formula_16 à chaque instant avec formula_22. Dans ces deux cas, si on s'intéresse à un seul axe, formula_23 par exemple, on voit qu'il est possible de connaître en même temps la position formula_24 et la vitesse formula_25 avec une précision infinie, ce qui est contraire au principe d'incertitude de la physique quantique.
Les lois du mouvement de Newton ont été énoncées dans son ouvrage "Philosophiae naturalis principia mathematica" en 1687. Il s'agit en fait des "principes" à la base de la grande théorie de Newton concernant le mouvement des corps, théorie que l'on nomme aujourd'hui mécanique newtonienne ou encore mécanique classique. À ces lois générales du mouvement fondées en particulier sur le principe de relativité des mouvements, Newton a ajouté la loi de la gravitation universelle permettant d'interpréter aussi bien la chute des corps que le mouvement de la Lune autour de la Terre.
xwikis
On distingue principalement :Vers 1635, les ingénieurs et fontainiers de Florence sont chargés de construire de gigantesques installations hydrauliques dans les jardins des palais. Ils installent des pompes aspirantes mais découvrent avec stupéfaction qu'elles sont incapables d'aspirer l'eau de plus de 6 brasses, soit une dizaine de mètres. Galilée est sollicité mais il meurt en 1642 sans avoir eu le temps de résoudre ce problème : pourquoi ne peut-on pas aspirer l'eau au-delà d'une certaine hauteur? On retrouva plus tard, dans ses notes, qu'il avait songé que l'air devait avoir un poids mais il n'en avait tiré aucune conclusion. L'idée que le liquide n'est pas aspiré par la pompe mais refoulé vers elle par l'effet d'une pression extérieure était en totale contradiction avec les dogmes admis à cette époque, qui voulaient que l'eau s'élève dans les tubes "parce que la nature a horreur du vide".Torricelli succède à Galilée comme physicien à la cour du Duc de Toscane. Reprenant les notes de son prédécesseur, il fait des expériences pour prouver que la pression atmosphérique est responsable de la montée de l'eau dans un espace vide. Pour éviter d'utiliser des colonnes d'eau d'une dizaine de mètres de hauteur, il a l'idée de faire des essais avec du mercure (hydrargyre, vif-argent...) qui est 13,6 fois plus dense. Il en remplit un long tube de verre, le bouche avec le doigt et le retourne sur un bassin rempli, lui aussi, de mercure. Il observe que le tube ne se vide que partiellement dans le bassin et qu'il y reste toujours une colonne de mercure d'environ de hauteur, quel que soit l'enfoncement du tube dans le bassin. Il en déduit que la pression de l'air sur la surface du bassin contrebalance le poids de la colonne de mercure et que c'est elle qui permet de faire monter l'eau dans les pompes d'une hauteur d'environ, mais pas davantage. C'est ainsi que Torricelli invente le baromètre en 1643. Il remarque également que la hauteur du mercure dans le tube varie avec les changements climatiques et qu'une baisse précède généralement une période de mauvais temps (pluie). Le réservoir ouvert n'est cependant pas très pratique si l'on veut transporter l'instrument. Diverses solutions sont imaginées ; on réalise par exemple des réservoirs en cuir poreux fixés au tube et contenant une petite quantité de mercure. Sir Robert Boyle imagine de replier le tube barométrique vers le haut, ce qui donne le « tube siphon » encore utilisé aujourd'hui. Le physicien et philosophe français René Descartes (1596-1650) améliore le système de Torricelli en ajoutant une graduation en papier. Il est le premier à émettre l'idée que la pression atmosphérique doit diminuer avec l'altitude. Le baromètre à cuvette est directement déduit du tube de Torricelli. Sans dispositif approprié, la lecture précise de la hauteur de la colonne de mercure n'est pas très facile. On a donc disposé au-dessus de la cuvette une vis à deux bouts pointus, l'inférieur venant juste tangenter la surface libre du métal dans la cuvette. À l'aide d'un cathétomètre, on vient mesurer la différence de hauteur entre la pointe supérieure de la vis et la surface libre dans le tube. La longueur de la vis, mesurée une fois pour toutes, est ajoutée à l'indication du cathétomètre et l'on obtient ainsi la hauteur de la colonne de mercure.La pression atmosphérique contraint le mercure à monter dans le tube sur une colonne d'environ de hauteur mais elle n'est pas suffisante pour combler le vide qui se forme dans la partie supérieure. Dans les années 1640, l'une des questions les plus discutées parmi les savants est : l'air a-t-il un poids? Blaise Pascal, homme de science précoce mais aussi excellent expérimentateur, vient d'inventer à 22 ans une machine à calculer. Il refait l'expérience de Torricelli et pense, comme Descartes, que si l'air a un poids, alors le mercure doit monter moins haut dans le tube si l'on fait l'expérience en altitude. C'est bien ce qu'il vérifie, mais avec une précision trop faible, au sommet de la Tour Saint-Jacques à Paris (). Grâce à son beau-frère qui habite au pied du puy de Dôme, le, il refait l'expérience à diverses altitudes et constate qu'en effet, la hauteur du mercure diminue bien au fur et à mesure que l'on s'élève. Le mot « baromètre » apparaît quelques années plus tard, créé par le physicien et chimiste irlandais Robert Boyle ("barometer", 1665-1666). Il est formé sur le grec "baros" (poids, pesanteur). Mais il faudra attendre le milieu du pour que les constructeurs d'instruments, les opticiens, les horlogers, commencent à produire des baromètres, à des fins scientifiques d'abord, puis à des fins domestiques. À partir de 1870 les graduations s'accompagnent d'indications météorologiques (« beau temps », « variable »...). La dénomination « baromètre » ne s'impose en France qu'après la publication en 1676 de l"'Essai sur la nature de l'air" par Edme Mariotte. Plus tard, on donnera le nom de pascal (sans majuscule) à l'unité internationale de pression, qui vaut un newton par mètre carré. Le hasard peut amener à une découverte. En 1675, l'abbé Picard, transportant de nuit un baromètre à mercure, fait une curieuse découverte. À chaque mouvement brusque du métal, une lueur bleuâtre illumine le tube. Ce phénomène est étudié entre autres par un élève de Robert Boyle, Francis Hauksbee. Naturellement, aucune explication satisfaisante n'est trouvée à l'époque mais c'est ainsi que débutent les premières recherches sur les décharges électriques dans les gaz raréfiés... L'intendant du Fay découvrit que la cause de cette luminescence est le frottement du mercure sur le capillaire en verre. Cette explication, qui mit un terme à la notion de "baromètre lumineux", valut à du Fay sa nomination comme adjoint à l'Académie des sciences.Le tube de Torricelli, baptisé par la suite baromètre, est un tube en U lié à une graduation de référence permettant de mesurer la différence de niveau entre les deux surfaces libres du mercure. Le baromètre à mercure présente de nombreux inconvénients : Bien que l'origine en soit controversée, on attribue au physicien hollandais Christian Huygens un important perfectionnement du tube de Torricelli, en 1672. Un tube en U contient du mercure comme précédemment et une zone de vide du côté fermé, mais la branche ouverte contient un liquide non volatil de plus faible densité dont le niveau dépend de celui du mercure. Descartes avait déjà réalisé des appareils de cette sorte. En choisissant convenablement les sections des tubes, on peut ainsi obtenir une amplification de l'ordre de 10, ce qui rend la lecture beaucoup plus facile et précise. Cette technique permet en outre d'éviter l'oxydation lente du mercure par l'oxygène de l'air. Le premier baromètre à cadran a été construit en 1663 par l'astronome anglais Robert Hooke. Un flotteur reposant sur le mercure suit les variations du niveau et actionne une aiguille qui indique la pression sur un cadran. La lecture est plus facile et plus précise qu'avec le baromètre de Torricelli mais, selon Privat-Deschanel et Focillon, « le baromètre à cadran est toujours un appareil assez grossier, quel que soit le luxe de sa présentation ». Dans les baromètres à siphon construits sur le modèle imaginé par Louis Joseph Gay-Lussac, la branche courte a la même section que la branche longue, dont elle est séparée par un tube très fin destiné à empêcher l'air de pénétrer dans la chambre à vide. L'ouverture O laisse passer l'air mais elle est suffisamment petite pour empêcher le mercure de sortir facilement. Bunten y a ajouté un réservoir de garde CD destiné à piéger les bulles d'air qui pourraient, par accident, franchir le siphon. Le français Jean Nicolas Fortin (1750-1831) réalisa un baromètre à mercure transportable qui porte son nom. Afin de diminuer le volume du mercure dans la cuvette inférieure et de faciliter la lecture, Fortin imagina, en collaboration avec le mécanicien Ernst, un système de vis et de membrane de cuir permettant d'amener la surface libre au niveau d'un repère de hauteur fixe par rapport au tube. Un curseur lié à celui-ci permet la mesure directe de la hauteur de la colonne barométrique. On notera la conception du trépied, dont les branches repliées constituent des protections pour le tube de verre. C’est au qu’apparurent les premiers baromètres de marine à mercure. Leur développement fut freiné par les marins eux-mêmes, très attachés aux méthodes ancestrales de prévision du temps. L’amiral britannique Fitzroy eut l’idée, en 1858, d’équiper tous les ports de pêche d’un baromètre.Selon un document de 1619, un Hollandais, Gijsbrecht de Donckere, aurait inventé un baromètre à eau. L'air enfermé dans une partie de l'appareil se dilate ou se contracte selon la pression qu'il subit, produisant une variation de niveau relativement importante dans le tube fin relié à l'air libre. Johann Wolfgang von Goethe, vers 1792-93, aurait réinventé un appareil de ce type, à partir des principes de Torricelli. Lorsque la pression atmosphérique augmente, le niveau du liquide dans le tube descend. Inversement, lorsque la pression baisse, il y a moins d'appui sur l'eau et le liquide monte. Les indications des baromètres à eau sont évidemment très liées à la température, et on ne se sert plus de ces appareils qu'à des fins décoratives.Le baromètre Eco-Celli est un instrument dont la précision peut être comparée avec celle d'un baromètre de Torricelli. Son fonctionnement est totalement différent puisqu'il ne contient pas de mercure. Comme les baromètres à eau, cet instrument mesure la pression atmosphérique grâce à la compressibilité d'un volume de gaz enfermé qui se comprime ou se détend en fonction de la pression atmosphérique. Le volume du gaz dépend également de la température ambiante et il faut donc faire une correction. Celle-ci est réalisée très simplement en déplaçant l'échelle d'un curseur jusqu'à ce que l'index métallique soit au même niveau que le liquide bleu du thermomètre. Par rapport à un baromètre à mercure simple, le baromètre Eco-Celli permet une amplification de 4 fois, ce qui rend la lecture plus précise et surtout plus facile. Le baromètre inventé par le Britannique Alexandre Adie en 1818 est nettement plus petit qu'un baromètre de Torricelli. Il est composé de deux éléments, un tube en forme de U (liquide rouge) et un thermomètre (liquide bleu) qui sont mis en parallèle. Une baisse de pression fait monter le liquide rouge du baromètre et une hausse le fait descendre. Le thermomètre permet de faire les corrections nécessaires.Le baromètre anéroïde (ou baromètre holostérique) fut mis au point par le Français Lucien Vidie qui en déposa le brevet en 1844 (en collaboration avec Antoine Redier, inventeur du réveille-matin). Les parois d'une capsule vide d'air, dite « capsule de Vidie » sont maintenues écartées par un ressort. La pression atmosphérique appuie plus ou moins sur la boîte (capsule) anéroïde et fait ainsi tourner l'aiguille sur le cadran, grâce à un mécanisme de précision. L'idée a été reprise par Eugène Bourdon en 1849 qui utilisa la déformation que subit un tube aplati vide d'air sous l'effet des variations de la pression extérieure. « Ce joli baromètre de cabinet ne pourrait pas remplacer le baromètre à mercure dans les observations de précision : mais, associé à ce baromètre, il peut rendre de grands services dans les excursions scientifiques » (Privat-Deschanel et Focillon). Le principe de cet appareil avait été proposé en 1700 par le savant allemand Gottfried Wilhelm Leibniz ; le grand mérite de Vidie a été de le transformer en un objet pratique et peu onéreux. Le baromètre anéroïde est moins précis que le baromètre à mercure mais il permet en contrepartie de fabriquer des instruments compacts, beaucoup plus robustes et facilement transportables, surtout en mer.Le système le plus ancien de baromètre enregistreur fut inventé par l’Anglais Moreland en 1670 mais c'est la capsule de Vidie qui est le « moteur » de la plupart des appareils actuels. Pour obtenir un déplacement et des efforts plus importants on utilise un empilement de capsules, généralement cinq. Les baromètres enregistreurs sont encore appelés barographes. Beaucoup sont présentés comme des objets « de luxe » dans une boîte vitrée aux montants d'acajou ou d'autre bois précieux mais il existe aussi des modèles beaucoup plus rustiques. Dans les barographes plus récents, la capsule est remplacée par un capteur piézorésistif et le tambour par un écran LCD. Les barographes étaient autrefois utilisés par les pilotes de planeur pour acquérir des insignes de la Fédération aéronautique internationale ou pour battre des records. Par exemple, un gain d'altitude de en planeur (pour l'insigne d'argent) était validé à l'aide d'un barographe enregistrant les différentes altitudes au cours du vol. Ces appareils sont encore reconnus par la Fédération aéronautique internationale. Toutefois ils tombent en désuétude et sont maintenant avantageusement remplacés par des lecteurs GPS avec barographe incorporé qui génèrent des fichiers.igc "qui sont scellés".En 1989, Casio a mis sur le marché la première montre-bracelet munie d'une fonction baromètre, inaugurant une série de montres multi-fonctions destinées aux randonneurs (avec altimètre) et aux plongeurs (avec manomètre).La pression atmosphérique peut être exprimée en millimètres de mercure (mmHg) ; ou en utilisant l'unité habituelle de pression : le millibar (mb), appelé officiellement « l'hectopascal (hPa) » depuis 1986, de façon à se rappeler plus aisément qu'il vaut. Lorsque l'on s'élève, la pression diminue ; pas de façon linéaire, mais de moins en moins vite. Elle dépend aussi du profil de température qui règne au-dessus du lieu où on la mesure. Dans les observations météorologiques, on indique généralement trois valeurs : la "pression au niveau de la station" (appelée « QFE »), mesurée par un baromètre bien étalonné ; la "pression réduite au niveau moyen de la mer" dans l'atmosphère standard (appelée « QNH »), c'est-à-dire celle qui régnerait théoriquement, au même endroit, à l'altitude zéro de référence (le "niveau moyen de la mer" n'est pas facile à définir...) ; et enfin la "pression réduite au niveau moyen de la mer" dans l'atmosphère réelle (appelée « QFF »). La formule ci-dessous permet de calculer la pression réduite dans l'atmosphère standard. Dans une telle atmosphère imaginaire, il règne toujours une température de (= ) à l'altitude zéro (si la température est sensiblement différente, la réduction comportera une erreur non négligeable. Voir à ce sujet l'article sur la pression atmosphérique) : formula_1 avec QFE = pression absolue [hPa], p = pression réduite au niveau moyen de la mer [hPa] et h = altitude au-dessus du niveau moyen de la mer [m]. Il est toujours utile d'avoir des ordres de grandeur. À basse altitude, si l'on monte de, la pression baisse d'environ. Un baromètre, quel qu'il soit, donne toujours la pression qui correspond à l’altitude où il se trouve ; mais les baromètres holostériques peuvent comporter une vis de réglage permettant d'afficher la pression corrigée au niveau de la mer. La pression atmosphérique donnée par les stations météo est toujours ramenée au « niveau moyen de la mer », afin d’avoir un point de référence ; mais en cas de besoin, par exemple pour réaliser les essais de performances de moteurs thermiques comme les turbines à combustion, les stations météos peuvent communiquer sur demande la pression vraie du lieu à une date et une heure voulue. Quant à la pression réduite au niveau moyen de la mer dans l'atmosphère réelle, elle peut se calculer grâce à la formule suivante (car, contrairement à la formule de réduction dans l'atmosphère standard qui est universelle, la formule utilisée pour l'atmosphère réelle varie d'un pays à l'autre) : QFF = QFE.exp(gz/RT) QFF = pression réduite au niveau moyen de la mer QFE = pression de la station en hPa z = altitude de la station en mètres T = (T + T) / 2 en kelvins T = 288,15 – 0,0016 Z température moyenne au niveau de la mer ajustée à l’altitude T = température moyenne de la station sur 12 heures en kelvins ou (T+T)/2 g = accélération locale due à la pesanteur = de 9,77 à R = = constante massique des gaz parfaits pour l’air sec R = R* / Ma R* = constante molaire des gaz parfaits = Ma = masse molaire de l'air sec = En gros, à basse altitude, la pression diminue de quand on monte de ou augmente de quand on descend de (pour une température de c'est-à-dire ).À un endroit donné, l'indication fournie par un baromètre varie continuellement sous l'effet des changements de pression liés à divers phénomènes météorologiques et à la marée atmosphérique. Ce n'est donc pas la valeur de la pression qui est importante mais sa variation. La première cause de variation est la marée atmosphérique. L'air est un fluide qui agit exactement comme l'eau des océans. L'atmosphère est soumise à l'attraction des astres et la pression atmosphérique en un point subit donc une marée, présentant deux maximums et deux minimums par jour. L'amplitude de celle-ci dépend de la latitude, négligeable aux pôles et de plusieurs hectopascals aux tropiques. Cependant, cette dernière n'est notable que quand la situation météorologique est stagnante, comme sous un anticyclone. Elle est le plus souvent masquée par les variations de pression liées aux perturbations atmosphériques. Ainsi, l'approche d'une dépression ou d'un creux barométrique se traduit par une tendance de pression à la baisse sur une période de l'ordre de qui peut être de plusieurs dizaines d'hectopascals. La valeur et la rapidité de la baisse de pression sont des indicateurs valables de l'intensité de la perturbation atmosphérique qui s'approche et du mauvais temps probable. De même, la pression augmente derrière ces systèmes à l'approche d'un anticyclone ou d'une crête barométrique qui dégagera le ciel. À l'approche d'un orage, la pression baisse rapidement sur une faible zone et remonte tout aussi rapidement avec le front de rafales. En l'absence de prévisions météorologiques modernes, ou en supplément de celles-ci, un observateur avisé peut donc arriver à faire une prévision à court terme d'une certaine valeur en tenant compte de la climatologie locale, des changements de vents, des nuages et de la tendance de pression.Bien que plusieurs autres instruments de mesure (thermomètre, hygromètre, anémomètre, girouette, pour ne nommer qu'eux) aient eu un rôle à jouer dans la genèse scientifique de la météorologie, il est clair que le baromètre est d'une importance toute spéciale. Le baromètre mesure une propriété mécanique de l'atmosphère, la pression, qui, contrairement au vent, à la température, ou même à l'humidité, échappe généralement à nos sens. Dès son invention, les scientifiques ont soupçonné l'importance de la pression comme paramètre météorologique, mais les progrès menant à une compréhension réelle ont été lents. On a parfois donné à la lecture du baromètre une importance mal placée, fondée sur des observations empiriques d'une exactitude qui de nos jours paraît discutable. En effet, jusqu'au début du, la mécanique atmosphérique était encore mal comprise. Le courant-jet, par exemple, est demeuré essentiellement insoupçonné jusque dans les années 1940. C'est dans cette période de la première moitié du siècle que des chercheurs tels que Vilhelm Bjerknes et Carl-Gustaf Rossby ont donné à la météorologie à grande échelle le cadre conceptuel qu'on lui connaît aujourd'hui, fondé sur un solide formalisme de physique mathématique. C'est qu'il était difficile, avant la multiplication des liens de communications, de mesurer l'état de l'atmosphère à une échelle comparable à celle des grands systèmes météorologiques. Les scientifiques du en étaient donc le plus souvent réduits à tenter de relier empiriquement les fluctuations locales de pression avec le caractère du temps et du vent. Ainsi, en 1883, Privat-Deschanel et Focillon donnent les indications suivantes : et, remarquent-ils avec bon sens : Ces remarques contiennent quelques éléments de vérité, mais ne sont pas appuyées par une compréhension suffisante des mécanismes sous-jacents. Par exemple, il est correct de dire que les grandes tempêtes sont précédées d'une baisse de pression mais la relation avec l'équateur n'est qu'une observation, incomprise, et finalement incorrecte à la lumière des connaissances actuelles. De nos jours, le baromètre conserve une importance fondamentale parmi une batterie grandissante d'instruments. Les mesures de pression, de vitesse du vent, de température et d'humidité prises à la surface et en altitude sont communiquées partout dans le monde. Ces mesures prises in-situ ont bien sûr une grande valeur intrinsèque pour l'observation météo mais cette valeur est multipliée lorsqu'on considère qu'elles servent aussi à l'étalonnage et à la validation d'instruments de mesure à distance qui opèrent à partir de satellites, d'avions ou de la surface terrestre. Le baromètre joue ainsi un rôle fondamental dans l'explosion en cours du volume des données d'observation de la Terre par mesure à distance.Une histoire célèbre raconte différentes manières de mesurer la hauteur d'un bâtiment avec un baromètre : en s'en servant comme masse pour un fil à plomb ou comme un pendule dont on mesurerait la fréquence propre, comme masse pour mesurer le temps de chute, comme marchandise pour soudoyer le gardien du bâtiment... La « réponse attendue » (mesure de la différence de pression entre le bas et le haut) n'étant citée qu'en dernier. Cette histoire aurait en fait été publiée dans le "Reader's Digest" en 1958 et elle se serait transformée au fil du temps en une anecdote supposée réelle et attribuée à Niels Bohr, devenant ainsi une légende moderne. On peut se demander si le recours à cette personne célèbre n'est pas une manière de transformer une anecdote amusante en un pamphlet contre la « rigidité de l'enseignement scolaire » opposée à la « créativité ».
Le baromètre est un instrument de mesure, utilisé en physique et en météorologie, qui sert à mesurer la pression atmosphérique. Il peut, de façon secondaire, servir d'altimètre pour déterminer, de manière approximative, l'altitude.
xwikis
Le débit volumique est la grandeur physique qui caractérise le volume d'un fluide qui traverse une surface formula_1 donnée par unité de temps. Son unité dérivée du Système international d'unités est le mètre cube par seconde (m/s). Ce débit est largement employé dans le domaine de l'hydraulique, en premier lieu en hydrologie, dès lors que l'on étudie l'écoulement des liquides que l'on peut considérer incompressibles, c'est-à-dire que leur masse volumique ne dépend ni de la température ni de la pression. Dans ce cas, le débit volumique reste constant lors de l'écoulement. Son expression correspond au flux du vecteur vitesse formula_2 à travers la surface formula_1 : formula_4. Dans le cas d'un écoulement uniforme, c'est-à-dire dont la vitesse est la même sur la totalité de la surface formula_1 normale au champ de vitesse, l'expression peut se simplifier : formula_6. Si l'écoulement n'est pas uniforme, on introduit parfois la vitesse débitante, vitesse moyenne sur la surface, telle que formula_7 pour simplifier les calculs. Des variantes telles que le débit-volume surfacique en mètres carrés par seconde (m/s) et le débit-volume linéique en mètres par seconde (m/s) sont parfois utilisées.Le débit massique est la grandeur physique qui caractérise la masse qui traverse une surface formula_1 donnée par unité de temps. Son unité dérivée du Système international d'unités est le kilogramme par seconde (kg/s). En mécanique des fluides, il est souvent indispensable de prendre en considération la compressibilité du fluide, tout particulièrement dans le cas des gaz : il est préférable d'étudier le débit massique compte tenu du principe de conservation de la masse. En effet le volume d'une masse gazeuse peut être amené à varier fortement. Par exemple, pour le circuit secondaire d'une centrale électrique, le débit volumique de l'eau liquide qui entre dans l'échangeur est bien plus faible que celui de la vapeur d'eau produite qui part faire tourner la turbine. Le débit massique, cependant, reste identique en tous points du circuit. Il est plus facile de détecter une perte massique du fluide caloporteur (l'eau dans le cas précédent) d'un circuit par différence de débits massiques. Le débit massique d'un turboréacteur de type CFM56 au décollage est de l'ordre de pour un diamètre d'entrée de. Ainsi la vitesse débitante, ou vitesse moyenne, à ce régime est de l'ordre de. Toutefois, si un gaz reste dans tout le circuit dans des conditions de température et de pression constantes, il sera par convention utilisé l'unité volumique : c'est le cas pour les circuits de ventilation ou les circuits d'alimentation de gaz réglés en pression. Pour certains cas, on utilisera l'unité normo mètre cube par heure (Nm/h ou (n)m/h), pour des circuits particuliers dont on veut un débit régulier quelles que soient les conditions barométriques et thermiques du milieu. Par exemple les circuits munis de réchauffeurs, surpresseurs, climatiseurs. Le but étant de « ramener » ce débit à celui des conditions normales de température et de pression, éliminant alors toutes perturbations liées à la dilatation et la compression. L’expression du débit massique correspond au flux du produit de la masse volumique et du vecteur vitesse, soit formula_9, ce qui correspond à la quantité de mouvement par unité de volume, à travers la surface formula_1 : formula_11. Dans le cas d'un écoulement uniforme, l'expression peut se simplifier : formula_12.Toujours en mécanique des fluides, il est pratique d'exprimer les débits d'énergie et de quantité de mouvement afin d'écrire les bilans de ces deux grandeurs s'appuyant respectivement sur le premier principe de la thermodynamique (conservation de l'énergie) et le principe fondamental de la dynamique (plus spécifiquement le théorème de la quantité de mouvement). Leur expression respectives sont : formula_13, formula_14. où formula_15 est l'énergie massique, en joules par kilogramme.En électricité, l'intensité du courant électrique, en ampères (A), est souvent présentée comme un débit de charges électriques en coulombs par seconde (C/s).Le débit de dose mesure l'énergie déposée par unité de masse par un rayonnement ionisant par unité de temps.Dans l'industrie, de nombreuses applications requièrent l'utilisation d'un débitmètre afin de mesurer les débits d'air ou de divers gaz, d'eau ou de divers liquides. Suivant les applications et l'importance du débit à mesurer, on peut utiliser différents types de débitmètres.
Le débit est la quantité d'une grandeur qui traverse une surface donnée par unité de temps. Il permet de quantifier un déplacement de matière ou d'énergie.
xwikis
Le comportement complexe des écoulements turbulents est la plupart du temps abordé par la voie statistique. On peut ainsi considérer que l'étude de la turbulence fait partie de la physique statistique. Pour traduire le fait que, dans un écoulement, les forces d'inertie l'emportent sur les forces de viscosité, un nombre de Reynolds convenablement choisi doit être supérieur à un certain seuil. Ce seuil varie en fonction de l'application. Une propriété classiquement mise en avant d'un écoulement turbulent réside dans un processus appelé cascade turbulente (ou cascade de Richardson) : la division des grands tourbillons en tourbillons plus petits permet un transfert d'énergie des grandes échelles vers les petites échelles données par la dimension de Kolmogorov : À l'issue de ce transfert, les tourbillons les plus petits dissipent l'énergie qu'ils ont reçue des plus grands tourbillons (comme les dépressions météo et cyclones par exemple). Pour ces petits tourbillons, en effet, la dissipation moléculaire freine les variations de vitesse trop importantes du fait de la viscosité du fluide considéré. Cette cascade turbulente explique, par exemple, l'atténuation progressive et la mort des cyclones et dépressions météo, ainsi que la transformation de leur énergie cinétique en chaleur. Mais elle explique aussi, à plus petit échelle, la dissipation du sillage d'une voiture ou d'un avion. Le tourbillon de rue de l'image ci-dessous peut ainsi être vu comme la dernière métamorphose du cyclone de l'image précédente (ou d'ailleurs le dernier effet local du passage d'un camion). Il est important de souligner que sans la dissipation permanente qu'entraîne cette cascade de Richardson, les phénomènes météo tels que cyclones, tornades et tourbillons de poussière dureraient indéfiniment et la vie des humains en serait totalement différente. L'apport en énergie solaire, qui est la source d'énergie de la machine planétaire (océanique et atmosphérique), ne s'interrompant jamais, on ne pourrait qu'aboutir à un renforcement continu des courants océaniques et atmosphériques. En pratique, ce processus de dissipation de l'énergie (la cascade turbulente) n'est cependant pas obligatoirement à sens unique, le phénomène d'appariement tourbillonnaire (en anglais "backscatter") permettant le transfert ponctuel de petites structures tourbillonnaires (qui fusionnent) vers une ou plusieurs structures plus grandes. La physique de la turbulence est en plein essor grâce à la généralisation des instruments de mesure (comme les "free falling optical profilers" ou les sondes à effet Doppler-Fizeau pour l'étude de la turbulence en milieu aquatique), et à la réduction progressive de leur coût. Depuis les années 1970, la modélisation numérique de la turbulence permet aux chercheurs d'étudier le phénomène à petite échelle, en utilisant notamment l'approche appelée Simulation des Grandes Structures (SGS) de la Turbulence, ou Large Eddy Simulation (LES) en anglais.Dans le cas d'un écoulement incompressible la turbulence peut se quantifier à l'aide de l'outil statistique "écart type". En considérant une série de n mesures de vitesse en un point, l'écart type peut être défini par la formule suivante: formula_2 étant la vitesse à l'instant formula_3 et formula_4 la valeur moyenne de la vitesse La turbulence exprimée en %, souvent notée Tu, correspond alors à:La turbulence augmente la traînée de friction des objets en mouvements pour des nombres de Reynolds élevés (ceux qui régentent les mouvements des objets du quotidien : véhicules, aéronefs et projectiles de sports). Cependant, provoquer la transition de la couche limite existant autour d'un corps depuis le régime laminaire jusqu'au régime turbulent peut permettre de retarder le décollement de cette couche limite et de ce fait diminuer la traînée de pression du corps (avec une légère augmentation de la traînée de friction, le bilan restant cependant largement positif). Par exemple certaines combinaisons de nageurs sont munies d'écailles, pour générer de la turbulence ; les concavités présentes à la surface des balles de golf jouent le même rôle (voir la crise de traînée de la sphère), ainsi que les "turbulateurs" à la surface des avions, autrement appelés "générateurs de vortex". Ces dispositifs visant à modifier l'écoulement fluide passant autour de l'objet (aéronef, projectile...) entrent dans la catégorie du contrôle des écoulements.Il existe plusieurs phénomènes turbulents dans l'atmosphère et les océans. Certains sont reliés à convection lors du réchauffement des basses couches de ces fluides. Celles-ci deviennent moins denses que les couches supérieures et vont s'élever ce qui va changer la distribution de vitesse du fluide tant dans la verticale que dans l'horizontale. D'autres sont reliés au glissement de couches stables, mais ayant des densités différentes, l'une sur l'autre. On parle alors de cisaillement. Les ondes de Kelvin-Helmholtz sont générés de cette manière et introduisent une rotation semblable à une vague qui déferle à l'altitude de la jonction des couches. Il y a également des turbulences mécaniques qui se produisent quand le fluide atmosphérique ou océanique est forcé de surmonter un obstacle. On obtient alors d'une onde de gravité qui peut générer de la turbulence sous forme de rotors. Il s'agit d'un phénomène météorologique complexe appelé onde orographique. Les rotors sont alors formés dans la couche sous-ondulatoire. La turbulence explique donc les variations locales des courants marins et des vents atmosphériques.Elles ont un rôle écologique important. Kalnay et Cai dans la revue Nature avaient en 2003 posé l'hypothèse que les arbres freinaient significativement le vent. En effet, en forêt tropicale dense, hormis lors des tempêtes, les effets du vent sont quasiment imperceptibles depuis le sol. La plupart des arbres n'y produisent leurs puissants contreforts que quand ils émergent au niveau de la canopée où ils sont alors exposés à un éventuel déracinement par le vent. On a récemment réanalysé les données météorologiques de mesure des vents de surface (jusqu'à 10 mètres de hauteur) qui confirment dans l’hémisphère nord une tendance au ralentissement ; il semble que les forêts puissent, dans une certaine mesure, freiner le vent alors que la désertification l'exacerbe. Là où la forêt a regagné du terrain, la force du vent a diminué (de 5 à 15 %), et ce, de manière d'autant plus visible que le vent est fort. Les vents géostrophiques (induits par les variations de pression atmosphérique) n'ont pas diminué, et les aéroradiosondes ne montrent pas de tendance au ralentissement en altitude.La turbulence atmosphérique est le frein majeur aux observations astronomiques effectuées depuis la Terre. Elle a pour effet de disperser la lumière de façon fluctuante et aléatoire. Les dispositifs d'optique adaptative permettent de compenser en partie ces "distorsions parasites". La turbulence atmosphérique change chaque milliseconde.Elle est aussi étudiée en aéronautique (jets des réacteurs, chambres de combustion, sillages des aubes et compresseurs, etc.), dans l'industrie chimique (efficacité considérable du processus de mélange turbulent), ainsi qu'en acoustique, en géophysique, etc.
La turbulence désigne l'état de l'écoulement d'un fluide, liquide ou gaz, dans lequel la vitesse présente en tout point un caractère tourbillonnaire : tourbillons dont la taille, la localisation et l'orientation varient constamment. Les écoulements turbulents se caractérisent donc par une apparence très désordonnée, un comportement difficilement prévisible et l'existence de nombreuses échelles spatiales et temporelles. De tels écoulements apparaissent lorsque la source d'énergie cinétique qui met le fluide en mouvement est relativement intense devant les forces de viscosité que le fluide oppose pour se déplacer. À l'inverse, on appelle laminaire le caractère d'un écoulement régulier.
xwikis
Le moment d'inertie est au mouvement de rotation l'analogue de la masse pour le mouvement de translation : il reflète la « résistance » qu'oppose un corps à sa mise en mouvement. Cette difficulté est d'autant plus grande, dans le cas de la rotation d'un solide, que les masses en son sein se trouvent loin de l'axe de rotation. Ainsi par exemple dans le cas d'un balai pris en main au milieu du manche ( figure ci-contre), il est plus aisé de le faire tourner autour de l'axe du manche (), qu'autour de l'axe transversal indiqué (). En effet, dans ce dernier cas la brosse, dont la masse relative par rapport au manche est importante, est située plus loin de l'axe de rotation que dans le premier cas (il y a également dissymétrie dans la répartition des masses autour de l'axe de rotation). Comme pour un solide en rotation, la vitesse linéaire d'un point croît en proportion avec cet éloignement, il est nécessaire, à vitesse angulaire égale, de communiquer une plus grande énergie cinétique aux points éloignés. D'où la plus grande "résistance" du balai à tourner autour d'un axe transversal qu'autour de l'axe du manche.Dans cette analogie, l'énergie nécessaire à la mise en mouvement se transforme (d'une manière ou d'une autre) en énergie cinétique. Dans le cas d'un mouvement de translation, l'énergie cinétique d'un point de masse "m" est donnée par la formule formula_1. Dans le cas d'une rotation d'un solide autour d'un axe fixe, il est possible de montrer que l'énergie cinétique totale se met sous la forme formula_2, où le terme formula_3 est précisément le moment d'inertie par rapport à l'axe de rotation, c'est-à-dire une forme analogue à celle de l'énergie cinétique du mouvement de translation. Le moment d'inertie apparaît ainsi comme l'analogue de la masse (inerte) du solide dans le cas du mouvement de translation, et est donc en relation avec la "résistance" de celui-ci à sa mise "en rotation". En fait l'explication du phénomène empirique de plus grande "résistance à tourner" du balai selon que le choix de l'axe de rotation axial ou transversal est liée au fait que le moment d'inertie par rapport à l'axe dans ce dernier cas est plus grand que dans le premier.Soit un solide, considéré comme composé de plusieurs points matériels formula_4 de masse formula_5, dont les distances mutuelles sont fixes. Ce système est en mouvement de rotation autour d'un axe formula_6, fixe dans le référentiel d'étude, à la vitesse angulaire formula_7, qui est la même (à un instant donné) pour tous les points du système. Le moment d'inertie autour de l'axe formula_6 apparaît alors naturellement dans les expressions de l'énergie cinétique et du moment cinétique du solide considéré.L'énergie cinétique étant une grandeur extensive, c'est-à-dire que sa valeur sur un système complexe est la somme des valeurs sur les parties élémentaires, l'énergie cinétique totale du solide considéré s'exprime donc sous la forme : avec : Cette expression possède une analogie évidente avec celle de l'énergie cinétique pour un point matériel (ou un solide en translation), où celle-ci s'écrit formula_17. Dans le cas de la rotation la vitesse angulaire ω est l'homologue de la vitesse linéaire "v", et le moment d'inertie formula_18 comme l'homologue de la masse "m". Toutefois le moment d'inertie dépend également de la répartition des masses autour de l'axe formula_6 et sa valeur dépend donc du choix de celui-ci. En tant qu'homologue de la masse (inerte) pour la rotation, ce terme reflète la "résistance" du solide à sa mise en rotation, comme il avait été indiqué dans l'approche empirique précédente.De la même façon que pour l'énergie cinétique, et du fait du caractère extensif de cette grandeur, le moment cinétique du solide par rapport à un point quelconque formula_20 de l'axe s'exprime alors sous la forme, en utilisant les mêmes notations que précédemment : Comme la vitesse d'un point formula_11 est donnée par formula_23, la composante du moment cinétique "colinéaire à l'axe de rotation" formula_6 correspond au second terme de la somme, et se met sous la forme : Dans les deux cas apparaît la grandeur caractéristique, qui ne dépend que de la géométrie des masses du solide, appelé moment d'inertie formula_18 par rapport à l'axe formula_6 : Remarque : il convient de souligner que formula_30, moment cinétique du solide au point formula_20 de l'axe de rotation n'est pas en général colinéaire à cet axe. Ce n'est que si l'axe de rotation coïncide avec un axe principal d'inertie du solide, ce qui est notamment le cas s'il est un axe de symétrie matérielle du solide, c'est-à-dire à la fois axe de symétrie géométrique et que pour tout couple de points formula_32 symétriques l'un par rapport à l'autre on ait formula_33, que formula_30 sera colinéaire à l'axe de rotation. En fait on aura alors formula_35 par rapport à tout point formula_20 situé sur l'axe de rotation.Du fait de sa définition, le moment d'inertie a les dimensions d'une masse par le carré d'une longueur soit. Son unité dans le système international d'unités pourra donc naturellement être exprimée en, unité qui n'a pas de nom propre. On peut cependant remarquer que dans la relation formula_37, la vitesse de rotation ω n'est pas exprimée en, mais en. Toutefois, étant défini comme le rapport de deux longueurs, le radian, considéré comme unité dérivée du système international depuis la générale du BIPM, est sans dimension, par suite ceci n'affecte pas l'homogénéité de l'équation aux dimensions de l'expression de l'énergie cinétique. Il ne serait cependant pas faux que le moment d'inertie soit exprimé en, mais ce choix est rarement retenu en pratique. Son seul intérêt serait de rappeler qu'il s'agit d'une unité spécifiquement rattachée au mouvement de rotation, comme pour toutes les unités où le radian apparaît.Par extension dans un solide considéré comme un ensemble continu de points matériels formula_38 affectés d'une masse volumique formula_39, le moment d'inertie s'écrit : où Cette définition peut également prendre une forme vectorielle : oùEn toute rigueur, la notion de moment d'inertie n'est définie que si la quantité formula_56 peut être isolée des expressions de l'énergie cinétique ou du moment cinétique de rotation, c'est-à-dire que dans la mesure où la vitesse angulaire est la même pour les points du système à un instant donné. Ceci n'est valable strictement que dans le cas du modèle du solide indéformable. Toutefois, la définition précédente peut s'étendre à un système déformable, dès lors qu'il ne présente pas de rotation différentielle, ou que l'on peut négliger l'effet de celle-ci, de façon qu'il soit possible de considérer que tous les points du système ont à un instant donné la même vitesse angulaire. Par exemple un système articulé, constitué de plusieurs solides reliés entre eux par des liaisons, en rotation autour d'un axe fixe, si les vitesses angulaires de rotation entre les diverses parties sont petites devant la vitesse angulaire de rotation « globale ». Toutefois, pour un système déformable le moment d'inertie n'est plus constant dans le temps.Dans la comparaison entre le mouvement de rotation et le mouvement de translation, le moment cinétique est l'homologue de la quantité de mouvement, et pour un système isolé est une grandeur conservative. Comme indiqué précédemment, il découle de la définition du moment d'inertie que plus les masses constituant un solide sont réparties loin de l'axe de rotation, plus son moment d'inertie par rapport à cet axe est important. Comme la composante axiale du moment cinétique est égale au moment d'inertie multiplié par sa vitesse angulaire de rotation, et du fait de son caractère conservatif, si le moment d'inertie d'un système diminue du fait d'une variation de sa géométrie interne, sa vitesse angulaire de rotation doit augmenter (et inversement). Ainsi, le patineur sur glace rapproche les bras de son corps lors d'une pirouette. Cela a pour effet de diminuer son moment d'inertie, ce qui, par conservation du moment cinétique, implique une plus grande vitesse de rotation. De même, les enfants jouant à mettre en rotation un tourniquet en courant à ses côtés atteignent une vitesse de rotation limitée par leur course. Ils peuvent cependant ensuite sauter sur le tourniquet en mouvement, puis se positionner en son centre, augmentant ainsi significativement la vitesse de rotation initialement obtenue.La notion de moment d'inertie a été mise en évidence à partir du mouvement de rotation autour d'un axe fixe d'un solide. Or le mouvement général d'un solide par rapport à un référentiel "(R)" quelconque peut se décomposer en celui de son centre d'inertie "C" (affecté de la masse totale du système) et un mouvement de rotation propre autour de "C" dans le référentiel lié à ce point, en translation par rapport à "(R)", appelé "référentiel barycentrique" (noté "(R)") Il est alors possible d'exprimer comme précédemment le moment cinétique et l'énergie cinétique propres du système, c'est-à-dire évalué dans "(R)", notés respectivement formula_57 et formula_58, ce qui permet de mettre également en évidence une grandeur ne dépendant que de la géométrie des masses du solide, et généralisant la notion précédente, qui ne se réduit cependant plus à une grandeur scalaire mais sera représenté par un "tenseur", le tenseur d'inertie (appelé aussi opérateur ou matrice d'inertie).Le moment cinétique propre formula_57 d'un solide de vecteur rotation instantané formula_60 s'écrit : Il est possible d'exprimer par exemple la composante suivant "x" en coordonnées cartésiennes, ce qui donne : Dans cette expression, les facteurs entre parenthèses représentent respectivement le moment d'inertie du solide par rapport à l'axe O"x", noté formula_63, et deux termes homogènes à un moment d'inertie, appelés "produits d'inertie", notés formula_64 et formula_65. Il est possible d'écrire formula_66 sous la forme : et en procédant de même pour les autres composantes il vient finalement l'expression du moment cinétique propre sous la forme : avec formula_69 tenseur (ou opérateur) d'inertie, qui est défini par : expression dans laquelle les éléments diagonaux sont les moments d'inertie du solide par rapport aux divers axes, et les éléments non diagonaux sont les "produits d'inertie". De même, l'énergie cinétique propre s'écrit : formula_71. Il est clair que formula_69 ne dépend que de la géométrie des masses du solide. Il découle des relations précédentes que dans le cas général le moment cinétique propre du système n'est pas colinéaire à l'axe instantané de rotation, les relations précédentes généralisant celles obtenues dans le cas de la rotation autour d'un axe fixe. Le moment d'inertie par rapport à un axe quelconque, de direction donnée par le vecteur unitaire formula_73 est alors donné par formula_74.Il est facile de montrer que formula_69 est effectivement un tenseur. En effet, en adoptant la notation formula_78 il est possible de remarquer que la composante formula_79 de formula_69 se met sous la forme suivante : Le premier terme est le produit d'un scalaire (le moment d'inertie par rapport au point O, formula_56) par un tenseur (le tenseur de Kronecker formula_83). Le second terme correspond à une somme dans lequel chaque terme correspond au produit d'un scalaire (la masse "m") par formula_84. Or il s'agit là des composantes du tenseur résultant du produit tensoriel du vecteur formula_85 par lui-même, donc celles d'un tenseur. Par suite formula_69 est donc bien un tenseur d'ordre deux : ceci était nécessaire de façon à assurer le caractère invariant par changement du système de coordonnées des expressions précédentes de formula_57 et formula_58. Ce tenseur est évidemment symétrique.Du fait de son caractère symétrique il est toujours possible de choisir un système d'axe tel que la matrice représentant formula_69 soit diagonale. De tels axes sont dits axes principaux d'inertie. Les moments d'inertie correspondants sont appelés moments principaux d'inertie, et sont notés formula_90. Leurs valeurs dépendent de la forme géométrique du solide et de la distribution de la masse en son sein, donc de l'expression que prend sa masse volumique formula_91 en chaque point du solide. Pour un solide "homogène" "ρ" est constante, et les moments principaux d'inertie ne dépendent alors que de la forme géométrique du solide. En général un solide quelconque possède trois moments principaux d'inertie différents, il est appelé "toupie asymétrique". Si deux moments principaux d'inertie sont égaux, par exemple formula_92, le corps est qualifié de "toupie symétrique", et si tous les moments principaux sont égaux, de "toupie sphérique". Par exemple un parallélépipède homogène quelconque sera une toupie asymétrique, un cône ou un cylindre homogène une toupie symétrique et une sphère homogène une toupie sphérique. La Terre, du fait de son aplatissement aux pôles, est également en général considérée comme une toupie symétrique. La présence d'éléments de symétrie matérielle simplifie grandement la recherche des axes principaux d'inertie. En effet en présence de tels éléments certains produits d'inertie, par nature impairs par réflexions, s'annulent, ce qui permet de diagonaliser facilement la matrice représentant formula_69. Un élément de symétrie (point, axe, plan) "matérielle" est non seulement un élément par rapport auquel le solide est "géométriquement" symétrique, mais aussi pour lequel sa masse volumique présente la même symétrie. Ainsi un cylindre homogène comporte-t-il un axe de symétrie matérielle (son axe), par lequel passe une infinité de plans de symétrie matérielle, ainsi qu'un autre plan de symétrie matérielle qui est celui perpendiculaire à son axe passant par le milieu du cylindre. En revanche, si le cylindre est constitué de deux demi-cylindres tous deux homogènes, mais de masses volumiques différentes, accolés dans un plan contenant leurs axes, le cylindre possède toujours le plan de symétrie matérielle précédent, mais son axe n'est plus axe de symétrie matérielle. En revanche le plan de symétrie commun des deux demi-cylindres est toujours plan de symétrie matérielle du système. Il est possible de montrer compte tenu des expressions précédentes des produits d'inertie les propriétés suivantes : Ainsi un cylindre homogène a pour axes principaux d'inertie son axe ainsi que tout axe qui y est perpendiculaire, passant par son centre. Par suite, deux des moments principaux d'inertie sont égaux et le tenseur d'inertie prend dans cette base la forme suivante :Le potentiel de gravitation créé par une distribution quelconque de points matériels formula_4 de masses formula_5 ne se ramène pas en général à la forme obtenue dans le cas d'une distribution de masse à symétrie sphérique. Toutefois la plupart des corps célestes (étoile, planètes...) possède approximativement cette symétrie et les écarts à la sphéricité demeurent faibles. Ces écarts sont évidemment liés à la répartition de la matière au sein de la distribution de masse, et donc doivent être (au moins pour les premières corrections) en relation avec le tenseur d'inertie de la distribution (assimilée à un solide parfait dans la suite) : de fait il est possible de montrer facilement que la première correction non nulle au potentiel sphérique fait intervenir une grandeur tensorielle, le tenseur de moment quadrupolaire de la distribution de masse, dont les composantes s'expriment de façon simple en fonction de celles du tenseur d'inertie. De façon générale à grande distance d'une distribution de masse le potentiel créé peut se mettre sous la forme d'un développement multipolaire : chaque point matériel constituant la distribution (de masse totale formula_97), repéré par le vecteur formula_98 par rapport à une origine "O" génère en formula_99 le potentiel dans lequel formula_101 est l'angle entre formula_102 et formula_85 et formula_104 est le polynôme de Legendre d'ordre "k". Comme "r»r" il est possible de se limiter aux 3 premier termes, ce qui donne : ce qui compte tenu de formula_106 devient : Le potentiel créé par la distribution en "M" est égale à la somme des potentiels formula_108, et chacun des trois termes se met alors sous la forme : Ce dernier terme est donc la première correction, "" non nulle, traduisant la non-sphéricité à grande distance du potentiel de gravitation créé par une distribution de masse. La somme sur "i" qui apparaît dans celui-ci peut être réécrite sous la forme : où formula_114 est le moment quadrupolaire de la distribution de masse : Les axes principaux d'inertie, pour lesquels la matrice représentant formula_69 est diagonale, constituent également une base dans lequel formula_114 est également diagonale, il vient pour les composantes de ce dernier l'expression formula_122. Dans le cas où la distribution de masse est à symétrie sphérique tous les moments principaux d'inertie sont égaux, et alors formula_123. Ce résultat est physiquement évident, et en fait dans ce cas tous les termes d'ordre supérieur du développement multipolaire précédent sont également nuls. Une planète comme la Terre se comporte comme une toupie symétrique pour laquelle formula_124, l'axe principal d'inertie selon "Oz" correspondant pratiquement à son axe de rotation. Dans ce cas d'après les formules précédentes le potentiel gravitationnel à grande distance se met sous la forme :Le moment d'inertie d'un solide quelconque de tenseur d'inertie formula_69 par rapport à un axe quelconque dont la direction est donnée par le vecteur unitaire formula_73 est donné par : en posant formula_131 cette relation peut se mettre sous la forme : en explicitant avec les composantes formula_133 de ce vecteur, il vient l'équation d'un ellipsoïde : laquelle prend dans les axes principaux d'inertie une forme particulièrement simple : Cet ellipsoïde est appelé "ellipsoïde d'inertie". Dans le cas d'une toupie symétrique, il s'agit d'un ellipsoïde de révolution, et dans le cas d'une toupie sphérique, d'une sphère. Cette notion n'a plus en général aujourd'hui qu'un intérêt historique, toutefois il est intéressant de remarquer que les axes principaux d'inertie sont les axes principaux de l'ellipsoïde d'inertie.Pour les exemples suivants, nous considérerons des solides homogènes (formula_39 constant) et de masse formula_137.Pour une boule homogène de rayon formula_138 et de centre formula_139, les moments d'inertie au centre de la boule par rapport aux trois axes sont égaux. On peut donc écrire : En désignant par formula_39 la masse volumique, formula_142 donc : ou, comme la masse de la boule est formula_144 :Pour une sphère creuse, comme pour la boule, les moments d'inertie passant par son centre sont égaux. En l'occurrence, si son rayon est formula_138 :Dans le cas d'une barre de section négligeable et de longueur formula_148, le moment d'inertie selon un axe perpendiculaire à la barre est, en son centre : Ici, formula_39 exprime une masse linéique (masse par unité de longueur). Cela est vrai si l'axe de rotation passe par le milieu de la barre. La formule est différente si l'axe de rotation passe par son extrémité.Dans le cas d'un carré de côté formula_152, le moment d'inertie selon un axe perpendiculaire au plan du carré est, en son centre : Ici, formula_39 exprime une masse surfacique (masse par unité de surface).Dans le cas d'un rectangle de grand côté formula_156 et de petit côté formula_157, le moment d'inertie selon un axe perpendiculaire au plan du rectangle (ici l'axe "Oz") est, en son centre : Ici, formula_39 exprime une masse surfacique (masse par unité de surface) pour une surface homogène, elle ne dépend donc pas de "x" et "y". Remarquons que si formula_161, on se ramène au cas du carré.Dans le cas d'un parallélépipède de hauteur formula_162, de grand côté formula_156 et de petit côté formula_157, le moment d'inertie selon l'axe le long de sa hauteur et en son centre est le même que celui pour un rectangle. En d'autres termes, la hauteur du parallélépipède ne joue aucun rôle :On utilisera les coordonnées cylindriques pour simplifier les calculs. Dans le cas d'un cylindre de rayon formula_138 et de hauteur formula_167, le moment d'inertie selon l'axe de révolution "Oz" du cylindre est : Ici, formula_39 exprime une masse volumique (masse par unité de volume). On peut également déterminer le moment d'inertie selon tout axe Ox perpendiculaire à l'axe de révolution Oz du cylindre. Il vaut :Dans le cas d'un cylindre creux de rayons intérieur formula_172 et extérieur formula_173, et de hauteur formula_167, le moment d'inertie selon l'axe du cylindre est : Ici, formula_39 exprime une masse volumique (masse par unité de volume).Pour un cône (plein) dont la base a un rayon formula_178, son moment d'inertie le long de sa hauteur est : A noter que le moment d'inertie ne dépend pas de la hauteur du cône.Pour un anneau fin (d'épaisseur négligeable) de rayon formula_178 et de densité linéique formula_182 (c'est-à-dire que chaque unité de longueur de l'anneau a une masse formula_182), l'on a : formula_184Soit l'axe formula_6 passant par le centre de masse de l'objet, et un axe formula_186 parallèle à formula_6 et distant de formula_188. En calculant comme précédemment le moment d'inertie, on retrouve la relation établie par Christian Huygens connue sous le nom de théorème de transport ou théorème de Huygens ou théorème de Steiner ou théorème des axes parallèles qui donne le moment d'inertie formula_189 en fonction de formula_18 : À l'énergie cinétique de rotation propre d'un corps, s'ajoute celle de « translation » circulaire du centre de masse auquel on a affecté la masse totale du solide. Une conséquence immédiate du théorème de Huygens est qu'il est moins coûteux (en énergie) de faire tourner un corps autour d'un axe passant par le centre de masse.
Le moment d'inertie est une grandeur physique qui caractérise la géométrie des masses d'un solide, c'est-à-dire la répartition de la matière en son sein. Il quantifie également la "résistance" à une mise en rotation de ce solide (ou plus généralement à une accélération angulaire), et a pour dimension M·L2 (le produit d'une masse et du carré d'une longueur, qui s'exprime en kg·m2 dans le S.I.). C'est l'analogue pour un solide de la masse inertielle qui, elle, mesure la "résistance" d'un corps soumis à une accélération linéaire.
xwikis
Le coefficient de traînée formula_3 est défini par : où : La masse volumique et la vitesse sont prises à l'infini amont (ou en tous cas loin de toute perturbation locale due à l'obstacle). Le numérateur et le dénominateur ont les dimensions d'une force. Au dénominateur, on retrouve l'expression de la pression dynamique formula_9 donnée par formula_10 qui est multipliée par la surface de référence formula_11. Cette dernière est choisie arbitrairement. Souvent, on prend la surface du maître-couple, projection du solide sur un plan perpendiculaire au déplacement, sauf dans le cas des ailes en aéronautique, pour lesquelles on rapporte les forces à la surface alaire, projection des ailes sur un plan contenant la corde des profils, ce qui permet de comparer des profils indépendamment de leur épaisseur. Néanmoins pour des études particulières, d'autres surfaces de référence peuvent être utilisées.Notée formula_12 ou formula_13, elle s’exprime en newtons et est une force dépendante du formula_3 et d’autres facteurs aérodynamiques cités plus haut. On peut l’exprimer par la formule suivante : où formula_16 est la masse volumique du fluide dans lequel a lieu le déplacement (en kg/m3), formula_11 la surface de référence ayant été choisie lors de la détermination du formula_3 (en m), formula_3 ledit coefficient de traînée (sans dimension), et formula_20 la vitesse relative du mobile par rapport au fluide (en m/s). Cette équation est basée sur l'hypothèse que la force de traînée de tout objet est proportionnelle à la densité et au carré de la vitesse relative. En réalité, sauf pour quelques corps particuliers, le formula_3 n'est pas constant mais varie en fonction de la vitesse du fluide, de sa direction, de la position de l'objet et de sa taille, de la densité et viscosité du fluide. La vitesse, la viscosité cinématique et une longueur caractéristique sont incorporées dans un paramètre sans dimension : le nombre de Reynolds formula_22. Le formula_3 est par conséquent fonction de formula_22. Dans le cas d'un fluide compressible à grande vitesse, le formula_3 est aussi fonction du nombre de Mach formula_26.Le coefficient de traînée formula_3 rend compte de la perturbation qu'impose le corps au fluide lors de son mouvement relatif dans ce fluide. Une des méthodes possibles de détermination du formula_3 est d'observer la diminution de Quantité de mouvement du courant d'air d'une soufflerie causée par la présence du corps. Il s'avère que cette diminution, pour les corps abruptes causant un décollement de l'écoulement, est liée à l'angle avec lequel les filets fluides quittent le corps. Le graphe ci-contre (d'après Hoerner) dessine la valeur du formula_3 frontal de corps abruptes 2D (en référence à leur surface telle que vue par l'écoulement), selon le demi angle formula_30 auquel se produit le décollement de l'écoulement que ces corps induisent (on pourrait appeler cet angle "angle de décollement" ou encore "angle de projection de l’écoulement"). Lorsque ce demi angle formula_30 atteint formula_32°, le dièdre 2D est devenu une palette infinie et Hoerner continue le graphe en considérant que les formula_33° dessinent des dièdres creux.Bien que les formula_3 soient le plus souvent donnés en référence à la surface frontale (sauf dans l'aviation où ils sont donnés en référence à la surface alaire), on trouve des formula_3 donnés en référence à beaucoup d’autres surfaces. Dans la pratique, le formula_3 d’un corps peut être établi en référence à n’importe quelle surface (même une surface qui n’appartienne pas au corps) pourvu que cette surface de référence soit précisée. Pour bien raisonner au sujet du choix de la surface de référence, il faut prendre conscience de la fonction du formula_3. Ce coefficient sert à effectuer des comparaisons, à nombres de Reynolds proches, entre des corps de formes identiques mais d’échelles différentes. Ainsi, le formula_3 d’un cube exposé normalement (c.-à-d. que le courant fluide frappe l’une des faces perpendiculairement) vaut 1,05. Pour ce corps à arêtes vives, le nombre de Reynolds n’intervient pas sur le formula_3. On pourra donc comparer le formula_3 de tous les cubes (exposés normalement) quelle que soit leur échelle (c.-à-d. : que ces formula_3 aient été relevés sur des cubes de ou de de côté). Par contre, pour d’autres corps, comme la sphère, le cylindre ou les corps profilés 2D et 3D, le nombre de Reynolds a beaucoup d’influence sur le formula_3 mesuré. Il conviendra donc de comparer les formula_3 de tels corps à nombres de Reynolds proches. Pour la sphère et le cylindre, l’influence du nombre de Reynolds diamétral est même décisive dans la zone dite de crise de traînée (où une très petite variation du nombre de Reynolds pouvant produire un division du formula_3 par un facteur 5 pour la sphère, par exemple). Cette influence cruciale du nombre de Reynolds (dans cette plage ‘‘critique’’ rend plus difficile la comparaison de formula_3 de sphères de diamètres différents (la comparaison ne pouvant se faire qu’entre sphères de nombres de Reynolds suffisamment proches). Fort heureusement, ainsi que le montre le graphe ci-contre, le formula_3 s’avère peu ou prou constant dans la plage de nombre de Reynolds diamétral courant de à. Dans cette plage, nommée "plage de Newton", la comparaison du formula_3 de sphères lisses de diamètres différents est donc aisée. De la même façon, et même pour le cylindre et les corps profilés, le formula_3 peut présenter des plages de relative invariance avec le nombre de Reynolds, ce qui facilitera la comparaison des formula_3 de corps de tailles différentes. Comme surface de référence, les ingénieurs choisissent une surface plus significative pour les comparaisons entre des corps de mêmes formes ou de formes approchantes : À titre d’exercice, on peut penser au formula_3 de la voiture de Karl Schlör (image ci-contre) : Karl Schlör a en effet abaissé notablement la traînée de son véhicule en carénant presque totalement les roues avant. Mais, ce faisant, il a gagné sur les deux tableaux puisque le calcul du formula_3 se fait à partir d’une traînée diminuée (ce qui est juste) mais aussi à partir d’une surface frontale augmentée de 14 % (ce qui cause des problèmes d’encombrement du véhicule), cette augmentation de la surface frontale diminuant d'autant le formula_3. Dans la pratique, on trouve dans les textes techniques toutes sortes de surfaces de référence. L’exemple du sous-marin Albacore (image ci-contre lors de tests dans la soufflerie grandeur nature de Langley en 1950) est instructif à ce sujet dans la mesure où la surface de référence adoptée par les ingénieurs de la NACA est le carré de la longueur formula_57 du modèle. Cette surface (virtuelle) de référence est curieuse, mais c’est sans importance puisqu’elle est précisée. Le formula_3 annoncé (en référence à formula_59) étant formula_60, on en tire facilement la traînée (formula_61, si formula_62 est la pression dynamique). En divisant cette traînée par formula_62 et la surface frontale formula_64, on écrit le formula_3 frontal : L’élancement formula_67 du modèle étant formula_68, on obtient finalement le formula_3 frontal très faible de formula_70 pour ce corps profilé. Dernière remarque : Il faut prendre conscience, même dans le cas apparemment simple du coefficient de traînée d'une automobile, que la surface de référence choisie peut être virtuelle : sur l'image ci-contre, la surface de référence choisie est la surface projetée sur un plan perpendiculaire à la vitesse ; or aucune section de la voiture ne dessine cette surface de référence. C'est sans importance :Le formula_3 intervient dans le calcul de la finesse aérodynamique (c'est le rapport formula_72 l'un et l'autre calculé sur base de la surface alaire). Cette finesse aérodynamique représente en quelque sorte le rendement de l'aérodyne (avion, planeur, hélicoptère) : plus la finesse d'un aérodyne est faible, plus son moteur devra apporter de puissance pour entretenir le vol horizontal.Si pour certains corps simples non profilés (plaque ou disque circulaire face à l'écoulement, figure ci-contre) le formula_3 ne dépend pas du nombre de Reynolds de l'écoulement, pour la plupart des autres corps il en dépend. De sorte que, pour tous ces autres corps, en plus de dépendre de leurs formes, le formula_3 dépend du coefficient de frottement, de la forme du profil de vitesse dans la Couche Limite (profil « turbulent », profil laminaire), de la traînée induite par la portance éventuelle. Le coefficient de frottement dépend du nombre de Reynolds de l'écoulement sur le corps et du degré de laminarité de la surface de ce corps.La sphère est une forme qui a été particulièrement étudié en aérodynamique. On peut résumer les principales variations du formula_3 de la sphère comme suit :
En dynamique des fluides, le coefficient de traînée, dont le symbole normalisé est C, C ou C (formula_1 en anglais, formula_2 en allemand) fait partie de la famille des coefficients aérodynamiques. C'est un nombre sans dimension qui est utilisé pour quantifier la traînée ou résistance d'un objet dans un fluide, tel que l'air ou l'eau. Il est toujours associé à une surface particulière (selon le contexte, appelée maître-couple, surface alaire ou plus généralement surface de référence). La définition adimensionnelle actuelle du coefficient de traînée a été proposée par Ludwig Prandtl sur une idée de Richard Knoller.
xwikis
Au, il était connu que les vents de l'hémisphère nord formaient une boucle tournant vers la droite (sens des aiguilles d'une montre). Les navigateurs portugais qui suivaient la côte de l'Afrique à la recherche de la route maritime vers l'Inde rencontraient des vents contraires au-delà de l'équateur. Bartolomeu Dias eut l'idée que ces vents formaient également une boucle tournant vers la gauche (sens inverse des aiguilles d'une montre). Il utilisa cette intuition pour naviguer plus rapidement vers le sud de l'Afrique et découvrit ainsi le Cap de Bonne-Espérance. L'astronome jésuite Giovanni Battista Riccioli et son assistant Francesco Maria Grimaldi décrivaient l'effet en 1651 dans "", en disant que l'effet de la rotation de la Terre doit dévier la trajectoire d'un boulet de canon, tiré au nord, vers l'est. Dans son "Cursus seu Mundus Mathematicus", publié en 1674, Claude François Milliet Dechales, prêtre jésuite et anti-Copernicien comme Riccioli, utilise le fait que ces déviations ne sont pas observées comme argument que la Terre n'est pas en rotation. À la fin du et au début du, la mécanique connut de grands développements théoriques. En tant qu'ingénieur, Gaspard-Gustave Coriolis s'intéressait à rendre la mécanique théorique applicable dans la compréhension et le développement de machines industrielles. C'est dans son article "Sur les équations du mouvement relatif des systèmes de corps" (1835) que Coriolis décrivit mathématiquement la force qui devait porter son nom. Dans cet article, la force de Coriolis apparaît comme une composante supplémentaire à la force centrifuge, elle aussi inertielle, ressentie par un corps en mouvement relativement à un référentiel en rotation, comme cela pourrait se produire par exemple dans les rouages d'une machine. L'argumentation de Coriolis était basée sur une analyse du travail et de l'énergie potentielle et cinétique dans les systèmes en rotation. De nos jours, la démonstration la plus utilisée pour enseigner la force de Coriolis utilise les outils de la cinématique. Ce n'est qu'à la fin du que cette force fit son apparition dans la littérature météorologique et océanographique. Le terme « force de Coriolis » apparut au début du.En mécanique newtonienne, on qualifie la force de Coriolis de force fictive, ou "inertielle", en vertu du fait qu'elle n'existe que parce que l'observateur se trouve dans un référentiel en rotation alors qu'aucune force ne s'exerce pour un observateur dans un référentiel galiléen (ou référentiel inertiel). L'animation à droite nous montre donc la différence entre le point de vue d'un observateur immobile dans un référentiel inertiel hors du système en haut et celui d'un observateur qui se déplace avec un disque en rotation dans le même référentiel en bas. Dans les deux cas, il n'y a pas de friction entre la bille noire et le disque et donc aucune force réelle. Pour le premier, la bille ne fait que se déplacer avec une vitesse constante depuis le centre du disque vers sa bordure. Pour lui, il n'y a pas de force en jeu et la bille se déplace en ligne droite. Pour le second (le point rouge), la bille se déplace le long d'un arc de cercle, vers sa gauche, changeant constamment de direction. Il faut donc une force pour expliquer ce déplacement. Cette pseudo-force est la force de Coriolis formula_1. Elle est perpendiculaire à l'axe de rotation du référentiel et au vecteur de la vitesse du corps en mouvement. Si le corps s'éloigne de l'axe de rotation, formula_2 s'exerce dans le sens contraire de la rotation. Si le corps se rapproche de l'axe de rotation, formula_1 s'exerce dans le même sens que la rotation.La définition précédente ne permet que difficilement d'obtenir la forme exacte de la force de Coriolis. Pour cela, il faut effectuer directement le calcul de l'accélération dans le repère accéléré. On en déduit qu'il est possible de représenter formula_4 comme un produit vectoriel en utilisant : où Cependant, on peut multiplier la vitesse angulaire formula_10 avec formula_7, ce qui produit le vecteur formula_12. Ce vecteur vitesse-pivotement instantané formula_13 décrit ainsi à la fois la direction et la vitesse angulaire du référentiel. OU Une seconde définition oùDans l'image du disque et de la bille vue précédemment, cette dernière glisse sans frottement et seule la force de Coriolis est présente dans le repère en rotation. Dans le cas du mouvement d'un corps à la surface de la Terre, ce dernier a son mouvement propre à la surface du globe. Il se déplace également dans l'espace, avec la rotation de la planète, en étant attiré par la gravité. Il subit donc en plus une autre force fictive dite "force d'inertie d'entraînement". Les deux s'additionnent : La force d’entraînement comprend plusieurs termes dont la force centrifuge. Comme on l'a vu précédemment, la force de Coriolis dépend de la du corps en mouvement. La force centrifuge, en réalité la force axifuge, se définit elle comme formula_19 et dépend de la (R) du corps par rapport à l'axe de rotation instantané. Ces deux forces peuvent varier si formula_20 varie, mais pour un formula_20 donné, « on peut dire » que la force centrifuge est la composante statique de la force inertielle se manifestant dans le référentiel en rotation, alors que la force de Coriolis en est la composante cinématique ( forces d'inertie). Il faut de plus compter avec la force d'inertie orthocentrifuge : formula_22 ; sinon, l'analyse serait fausse.La force de Coriolis permet l'interprétation de beaucoup de phénomènes à la surface de la Terre. En effet, la Terre tourne sur elle-même, et ce mouvement engendre une force de Coriolis sur les corps à sa surface. Afin de calculer correctement la force de Coriolis, il faut utiliser la durée du jour sidéral formula_23 qui correspond à. On en déduit formula_24 la vitesse angulaire de rotation de la Terre sur elle-même : On citera comme exemples de la manifestation de la force de Coriolis sur Terre le mouvement des masses d'air et des cyclones, la déviation de la trajectoire des projectiles à grande portée ( Pariser Kanonen), le changement du plan de mouvement d'un pendule tel que montré par Foucault dans son expérience du pendule de Foucault en 1851 au Panthéon de Paris, ainsi que la légère déviation vers l'est lors de la chute libre.L'application la plus importante de la pseudo-force de Coriolis est sans conteste en météorologie et en océanographie. En effet, les mouvements à grande échelle de l'atmosphère terrestre sont le résultat de la différence de pression entre différentes régions de la couche atmosphérique mais sont assez lents pour que le déplacement dû à la rotation de la Terre influence la trajectoire d'une parcelle d'air. Considérons donc la circulation atmosphérique mais les mêmes remarques sont valides pour les mouvements des eaux dans les mers.Pour simplifier les calculs, il faut définir d'abord le paramètre ou fréquence de Coriolis comme : Où formula_27 est la latitude Les oscillations inertielles à la surface de la Terre due à la force de Coriolis se produisent à la fréquence définie comme formula_28, appelée aussi "fréquence d’inertie", "période de Coriolis" ou "période d’inertie". Cela veut dire d'une particule seulement affectée par la force de Coriolis effectuera un cercle complet autour de sa position de départ à formula_28 sur un rayon de formula_30 où A est l'amplitude de sa vitesse (section Balistique et cercles inertiels).Le flux d'air dans une masse d'air au repos s'effectue depuis les zones de haute pression vers celles de basse pression. Si la Terre n'était pas en rotation, la pression d'air s'égaliserait donc rapidement et l'atmosphère deviendrait rapidement isotrope sans apport de chaleur. Par contre, avec le réchauffement différent aux pôles et à l'équateur qui maintient une différence de pression, on aurait une éternelle circulation entre ces deux endroits. Cette dernière circulation existe près de l'équateur où l'effet de Coriolis devient nul car formula_31 et formula_32 deviennent parallèles (voir Cellules de Hadley). Cependant, la Terre tourne et en utilisant la définition de la force de Coriolis dans un référentiel en rotation, on voit que cette dernière augmente à mesure que la vitesse obtenue par le gradient de pression augmente mais dans la direction perpendiculaire. Ceci donne une déviation vers la droite dans l'hémisphère nord (gauche dans celui du sud) d'une parcelle d'air en mouvement. Ainsi, la circulation de l'air sera anti-horaire autour d'une dépression et horaire autour d'un anticyclone (hémisphère nord). Il s'agit là du vent géostrophique. Dans la figure à droite, on voit comment cela se produit en prenant les quatre points cardinaux comme début de l'interaction des forces. Le gradient de pression (flèches bleues) amorce le déplacement de l'air mais la force de Coriolis (flèches rouges) le fait dévier vers la droite (flèches noires). Le gradient de pression s'ajuste en direction avec ce changement ainsi que la force de Coriolis ce qui fait changer continuellement la direction de notre parcelle. Rapidement, le gradient de pression et la force de Coriolis s'opposent et le déplacement de l'air se stabilise en suivant une trajectoire perpendiculaire au gradient et donc parallèle aux lignes d'équi-pression (isobares). En fait, à cause de la friction, de la force centrifuge et des différences de pression dans une région, l'équilibre n'est jamais vraiment atteint et la direction restera toujours légèrement vers le centre de basse pression (voir Spirale d'Ekman). Les dépressions, aussi appelés cyclones, ne peuvent pas se former près de l'équateur où la composante horizontale de la force de Coriolis est nulle. La variation de la force de Coriolis donne donc différents régimes de circulation atmosphérique selon la latitude.Une autre utilisation pratique de la force de Coriolis est le calcul de la trajectoire des projectiles dans l'atmosphère. Une fois qu'un obus est tiré ou qu'une fusée en vol sous-orbital a épuisé son carburant, sa trajectoire n'est contrôlée que par la gravité et les vents (quand il est dans l'atmosphère). Supposons maintenant qu'on enlève la déviation due au vent. Dans le repère en rotation qu'est la Terre, le sol se déplace par rapport à la trajectoire rectiligne que verrait un observateur immobile dans l'espace. Donc pour un observateur terrestre, il faut ajouter la force de Coriolis pour savoir où le projectile retombera au sol. Dans la figure de droite, on montre la composante horizontale de la trajectoire qu'un corps parcourrait (elle ne comporte pas la composante verticale du vol, ni la composante verticale de Coriolis). Supposons que le corps se déplace à vitesse constante de l'équateur vers le pôle Nord à altitude constante du sol, il subit un déplacement vers la droite par Coriolis (hémisphère nord). Sa vitesse ne change pas mais sa direction courbe. Dans sa nouvelle trajectoire, la force de Coriolis se remet à angle droit et le fait courber encore plus. Finalement, il effectue un cercle complet en un temps donné qui dépend de sa vitesse (v) et de la latitude. Le rayon de ce cercle (R) est : Pour une latitude autour de, formula_35 est de l'ordre de (donnant une fréquence de rotation de ). Si un projectile se meut à (environ ), l'équation donne un rayon de courbure de. Il est clairement impossible pour un projectile sur une courbe balistique de rester en l'air et il effectuera donc seulement une partie de la trajectoire courbe. Par exemple, pendant la Première Guerre mondiale, les obus tirés par les, appelés "Grosse Bertha" par les Français, qui pilonnaient Paris à de distance, étaient déviés de près de par la force de Coriolis. Par contre, la situation est différente dans le cas de l'océan ou de l'atmosphère. En effet, pour une parcelle d'air en mouvement dans une zone où la pression atmosphérique est uniforme (vaste col de pression) ou pour une couche océanique en mouvement dans une zone à très faible relief dynamique, le déplacement inertiel est appelé "oscillation d'inertie". Aux latitudes moyennes, avec une vitesse typique de pour l'air, le rayon est de alors qu'avec des vitesses de pour l'eau, on obtient un rayon de. Dans ces deux cas, ces oscillations d'inertie, dont le rotationnel est nul, ne doivent pas être confondues avec des tourbillons. Ces trajectoires inertielles sont des cercles décrits en un demi-jour pendulaire dans le de celui de la circulation autour d'une dépression. Il faut se rappeler qu'il s'agit d'un cas où il n'y a pas de gradient de pression. En toute rigueur, comme formula_35 varie avec la latitude, cette trajectoire n'est pas exactement un cercle, c'est une boucle qui ne se referme pas. En effet, la vitesse restant constante, la déviation due à l'effet Coriolis est plus forte à la latitude la plus élevée de la trajectoire, il s'ensuit qu'après une période d'inertie, la parcelle d'eau ou d'air se retrouve légèrement à l'ouest de son point de départ, aussi bien dans l'hémisphère nord que dans l'hémisphère sud.Jusqu'à présent, nous avions considéré des mouvements selon l'horizontale uniquement. Parce que la Terre n'est pas plate et que l'atmosphère a une certaine épaisseur, les mouvements ont généralement une composante verticale. La force de Coriolis ne s'exerce donc pas uniquement parallèlement à la surface de la planète mais également selon la verticale. On peut penser par exemple à une parcelle d'air en surface qui se dirigerait en direction d'une étoile du firmament dans le sens de rotation de la Terre. Comme cette dernière tourne, sa surface change de direction par rapport à cette orientation et la parcelle semble s'éloigner vers le haut d'où une pseudo-force l'attirant dans cette direction. Cet effet est très faible car la force de Coriolis a peu de temps pour s'exercer avant que la parcelle d'air atteigne la limite supérieure ou inférieure de l'atmosphère mais influence certains objets comme les tirs balistiques vu plus haut. Si on regarde les effets selon la direction :Contrairement à une croyance populaire, la force de Coriolis due à la rotation du globe terrestre est trop faible pour avoir le temps d'influer sur le sens de rotation de l'écoulement de l'eau dans un lavabo qui se vide. Comme l'ont montré Arsher Shapiro et Lloyd N. Trefethen, pour percevoir une telle influence, il est nécessaire d'observer une masse d'eau stabilisée dans un très grand bassin circulaire, d'un diamètre de l'ordre d'au moins plusieurs dizaines de kilomètres pour un effet en centimètres. Dans le siphon d'un lavabo, le sens de rotation de l'eau est dû à la géométrie du lavabo et aux microcourants d'eau créés lors de son remplissage, ou lors d'une agitation de l'eau. Il est donc possible de fausser le résultat en donnant une impulsion à l'eau, comme on peut le voir sur certaines vidéos, où l'expérience est proposée aux touristes sur l'équateur terrestre. Pour calculer la composante horizontale de l'accélération de Coriolis, a, on utilise cette relation : Soit environ moins que l'accélération due à la pesanteur formula_48. Donc le bassin se vide bien avant que la déviation due à Coriolis se fasse sentir. Une expérience facile à reproduire et qui démontre ce point est présentée à ce sujet sur le site de "Planet Terre". Dans le cas des attractions touristiques mentionnées précédemment, la latitude est nulle, et la composante horizontale de l'accélération de Coriolis également. Pour l'anecdote, George Gamow parodia cette idée reçue en affirmant avoir constaté lors d'un voyage en Australie que dans l'hémisphère sud, les vaches ruminent en faisant circuler l'herbe en sens inverse du sens dans l'hémisphère nord.La rotation dans une tornade est le plus souvent anti-horaire mais ce n'est pas dû à Coriolis. Dans ce cas, la rotation est initiée par la configuration des vents dans la couche d'air près du sol qui donne une rotation horizontale de l'air. Lorsque le fort courant ascendant d'un orage verticalise cette rotation et qu'elle se concentre, le sens est déjà déterminé. On est encore là dans un domaine où le mouvement de l'air est beaucoup trop rapide pour que l'effet de Coriolis ait le temps d'avoir un impact. Dans le cas d'un tourbillon de poussière, la mise en route de la rotation se fait par une différence des vents horizontaux. On a alors un axe vertical de tourbillon créé où la force centrifuge est contrebalancée par celle de pression. La vitesse des particules est trop rapide et sur un trop petit rayon pour que la force de Coriolis ait le temps d'agir. Les observations ont montré que la rotation dans ces vortex est statistiquement divisée également entre horaires et anti-horaire, quel que soit l'hémisphère.La force de Coriolis ne dépend pas de la courbure de la Terre, seulement de sa rotation et de la latitude où on se trouve. La Terre étant quasiment une sphère, les cartes géographiques en deux dimensions sont nécessairement une projection (voir par exemple la projection de Mercator) qui donne une distorsion de la surface terrestre. La trajectoire des missiles balistiques, ou des obus, est courbée lorsqu'on la trace sur une carte mais la courbe obtenue est une somme de l'effet de Coriolis, des vents et de la projection qui a servi à faire la carte. Or ces deux dernières sont en général plus importantes que la déviation de Coriolis.
La force de Coriolis est une force inertielle agissant perpendiculairement à la direction du mouvement d'un corps en déplacement dans un milieu (un référentiel) lui-même en rotation uniforme, tel que vu par un observateur partageant le même référentiel. Cette « force » est nommée ainsi en l'honneur de l'ingénieur français Gaspard-Gustave Coriolis.
xwikis
Pour un écoulement Alors, en régime stationnaire, si l'on néglige les transferts d'énergie sous forme de chaleur, on vérifie l'égalité suivante : Sur une même ligne du courant, la quantité de Bernoulli se conserve, soit : où : La constante ici dépend de la ligne de courant considérée. Si de plus l'écoulement est "irrotationnel" (le rotationnel de la vitesse du fluide est nul, ce qui implique un écoulement non tourbillonnaire et un champ de vitesse dérivant d'un potentiel), la quantité de Bernoulli se conserve dans l'intégralité du fluide. La constante est donc la même partout dans le fluide mais dépend des caractéristiques de ce dernier, de l'écoulement etc. La constante intervenant dans le second membre de l'équation n'est pas universelle mais propre à l'écoulement, il s'agit d'une constante le long de tout le domaine fluide (écoulement irrotationnel), appelée charge.Cette équation traduit en fait le bilan de l'énergie le long d'une ligne de courant : La loi de bilan s'écrit donc soit ce qui amène à l'équation ci-dessus en divisant par. On remarque que formulée ainsi, la constante n'est plus la charge, mais la pression totale, et que chaque terme est bien homogène à une pression.Il existe d'autres formulations du théorème de Bernoulli applicables dans des contextes plus généraux. Lorsque les effets de compressibilité dans un fluide ne sont plus négligeables (vitesse des particules de fluide comparable à la vitesse du son dans le fluide), il devient nécessaire d'apporter une correction au terme caractérisant l'énergie potentielle élastique du fluide. Dans le cas idéal d'un gaz parfait et d'un processus adiabatique, on a : où est l’indice adiabatique défini comme le rapport des capacités calorifiques du fluide :. où désigne l'enthalpie spécifique (i.e. par unité de masse)., où désigne l'énergie interne spécifique du fluide. Dans le cas d'un écoulement d'un point A vers un point B avec échange d'énergie (présence d'une pompe ou d'une turbine), l'expression devient : où représente le débit volumique du fluide (en mètres cubes par seconde) et représente la puissance (en watts) de la machine. On a dans le cas d'une pompe (la puissance est reçue par le fluide) et dans le cas d'une turbine (la puissance est fournie par le fluide).Dans un écoulement où la variation d'énergie potentielle peut être négligée, si l'on écrit l’équation de Bernoulli en deux points le long d’une ligne de courant (le deuxième point étant loin du corps), on obtient : D'où l'on peut tirer : En divisant par la pression dynamique de l'écoulement formula_12, on obtient : Si à présent on pose : Cette égalité très simple constitue la variante adimensionnelle de l’équation de Bernoulli. Contrairement à ce que la relative complexité de leur libellé peut laisser penser, les coefficients adimensionnels de pression et de vitesse et sont extrêmement intuitifs et représentent bien les sous ou surpressions et les sous ou survitesses qui intéressent les mécaniciens des fluides ; ceci explique pourquoi ils apparaissent dans tous les résultats d’essais en souffleries. La variante adimensionnelle de l'équation de Bernoulli s'applique en chaque point d'un écoulement (en dehors de la couche limite), donc en un seul point, ce qui peut sembler contradictoire avec le fait que l'équation classique de Bernoulli met en relation les caractéristiques de deux points sur la même ligne de courant. L'explication de cette rupture apparente de logique est que les et intègrent dans leur libellé la référence à certaines caractéristiques des points à l'infini amont (suffisamment à l'écart du corps). Il n'y a donc là qu'une libéralité apparente.La première formulation du théorème de Bernoulli apparaît dans "Hydrodynamica - De viribus et motibus fluidorum commentarii" de Daniel Bernoulli (première édition en 1738). Pour d'Alembert, ce texte est l'œuvre fondatrice de l'hydrodynamique en tant que discipline physique moderne. Il est alors formulé comme un bilan macroscopique global et une méthode de calcul, dans le cadre de la résolution d'un problème technique : la détermination de la durée de vidange des vases munis d'un orifice. La justification réside dans l'égalité de la "montée potentielle" et de la "descente actuelle". Il s'agit d'une transposition aux fluides de la conservation des "forces vives", déjà connue en mécanique, et qui est en fait l'ancêtre du principe de conservation de l'énergie dans le domaine de la physique classique. C'est seulement en 1755, avec les travaux d'Euler, que le théorème apparaît sous la forme d'un bilan local plus proche des formulations contemporaines.
Le théorème de Bernoulli, qui a été établi en 1738 par Daniel Bernoulli, est la formulation mathématique du "principe de Bernoulli" qui énonce que dans le flux d'un fluide homogène et incompressible soumis uniquement aux forces de pression et de pesanteur, une accélération se produit simultanément avec la diminution de la pression. Dans un flux de fluide sans viscosité et donc dans lequel une différence de pression est la seule force d'accélération, la vitesse est équivalente à celle donnée par les lois du mouvement de Newton. Il est très commun que l'effet de Bernoulli soit cité pour affirmer qu'un changement de vitesse cause un changement de pression ; cependant le principe de Bernoulli ne fait pas ce rapport et ce n'est pas le cas.
xwikis
La première mention écrite du nom se trouve dans l"Historia gentis Langobardorum", et date de l'année 796.'signifie en vieil allemand « le royaume de l'Est ». L'Autriche a longtemps été le plus oriental des pays de l'Ouest. Un croisement avec son équivalent latin, (dès le ), a donné'en moyen français, puis "Autriche" en français. "" est dérivé de "Ostarrichi", première mention du nom du pays sur un document qui date de 996. Auparavant, le pays est connu sous le nom d"Ostmark" « Marche de l'est », créée par l'empereur germanique Otton.Les trois plus grandes villes sont, dans l'ordre, Vienne, Graz et Linz. Les Alpes occupent les deux tiers de la surface au sol de l'Autriche. Le point culminant du pays est le Grossglockner, qui s'élève à. Le fleuve le plus long est le Danube, qui traverse également l'Allemagne, la Slovaquie, la Hongrie, la Croatie, la Serbie, la Bulgarie, la Roumanie, la Moldavie et l'Ukraine. Son parcours en Autriche s'étend sur. Le mois de juin 2019 a été le plus chaud jamais enregistré en Autriche.La crise climatique affecte l'Autriche de diverses manières. Le rapport d'évaluation autrichien sur le changement climatique 2014 ("Österreichischer Sachstandsbericht Klimawandel 2014") a abouti aux résultats suivants: en Autriche, la température a augmenté de près de au cours de la période allant de 1880 à 2014. Sur la même période, la température n'a globalement augmenté que de. Les mesures prises jusqu'à présent par l'Autriche ne couvrent pas la contribution attendue du pays à la réalisation de l'objectif mondial de. Au, on peut s'attendre à une augmentation des précipitations au cours du semestre d'hiver et à une diminution du semestre d'été. La durée de l'enneigement s'est raccourcie au cours des dernières décennies, en particulier à moyenne et haute altitude (environ ). Tous les glaciers mesurés en Autriche ont clairement perdu de la surface et du volume depuis 1980. Par exemple, dans les Alpes du sud de l'Ötztal, la plus grande zone glaciaire contiguë d'Autriche, la zone glaciaire est passée de en 1969 à en 1997 et en 2006. Les glissements de terrain, les coulées de boue, les éboulements et autres phénomènes gravitationnels augmentent considérablement dans les régions montagneuses. Le risque d'incendies de forêt augmentera en Autriche. Les perturbations dans les écosystèmes forestiers augmentent en intensité et en fréquence dans tous les scénarios climatiques discutés. Les écosystèmes à longue période de développement et les habitats des Alpes au-dessus de la limite des arbres sont particulièrement affectés par le changement climatique. Le tourisme d'hiver continuera de subir des pressions en raison de l'augmentation constante de la température.En 2019, le jour du dépassement (date de l’année à partir de laquelle l’humanité est supposée avoir consommé l’ensemble des ressources que la planète est capable de régénérer en un an) de l'Autriche est le 9 avril. L'Autriche est l'un des pays dont la consommation dépasse le plus les capacités de la planète.Le réseau Natura 2000 rassemble des sites naturels ou semi-naturels de l'Union européenne ayant une grande valeur patrimoniale, par la faune et la flore exceptionnelles qu'ils contiennent. En décembre 2018, l'Autriche comptait 350 sites dont :L’infrastructure de transports autrichienne est liée directement à sa situation, d’une part au sein des Alpes, et d'autre part à sa situation de carrefour du centre de l’Europe centrale, que ce soit du point de vue des liaisons routières autant que ferroviaires. L'aménagement de voies de communication dans les Alpes nécessite de nombreux tunnels et ponts ayant pour caractéristiques de devoir résister à des conditions météorologiques extrêmes. Du fait de sa situation centrale, l’Autriche constitue un pays de transit, principalement pour les axes Nord-Sud et Nord-Sud-Est, et depuis la chute du rideau de fer également pour l'axe Est-Ouest. Cela implique ainsi un net surdimensionnement des voies de communication, notamment dans des zones écologiques sensibles, soulevant souvent des protestations de la part de la population. Pour faire face à cette difficile combinaison d'intérêts à la fois économiques et écologiques, certaines mesures ont été rendues nécessaires, contribuant à faire de l'Autriche un pays aux avant-postes de la protection environnementale. La république alpine a par exemple très tôt imposé l'utilisation de pots catalytiques sur les véhicules motorisés. Certaines voies de circulation ne sont ouvertes qu’aux camions à la nuisance sonore réduite. Diverses dérégulations ont toutefois entraîné, principalement parmi certaines populations telles que celles de la vallée de l’Inn, un sentiment d'être oubliées par les instances de régulation agissant aux niveaux nationaux et internationaux, notamment par l’Union européenne.Le réseau routier autrichien se compose actuellement de : Le réseau routier est entretenu principalement par l’État. Une taxe sur les véhicules existe sur le réseau autoroutier, sous la forme de vignette obligatoire ( en 2012 pour une vignette annuelle). Les camions doivent payer une redevance kilométrique (maximum /km) à la société.La majorité du réseau ferroviaire est gérée par la société "ÖBB" ("Österreichische Bundesbahnen"). D’autres entreprises sont également présentes dans le transport ferré autrichien, détenues soit par les Länder, soit par le secteur privé. Un réseau de S-Bahn est déployé actuellement dans les régions métropolitaine de chacune des capitales d'État : Vienne, Brégence, Graz,, Klagenfurt,, Salzbourg. Vienne est la seule ville autrichienne à être équipée d’un véritable réseau de métro ("U-Bahn"). Certaines stations du réseau de tramway de Linz se trouvent sous terre. Les villes de Vienne, Graz, Linz, Innsbruck et Gmunden possèdent également un réseau de tramway. Le village de Serfaus, situé dans le Tyrol, possède le "U-Bahn Serfaus", téléphérique souterrain, parfois considéré comme le métro le plus petit au monde.Déjà peuplée par les Celtes (culture de Hallstatt), appartenant à l’Empire romain (Provinces Norique ainsi qu’une partie de la Pannonie et de la Rhétie) puis en partie possédée par la Francie orientale, l’Autriche est pendant tout le Moyen Âge une des nombreuses principautés de langue allemande composant le Saint-Empire romain germanique. Grâce au "Privilegium Minus" et à la maison de Babenberg, indépendante de la Bavière depuis 1156, l'Autriche adoptée par la maison de Habsbourg en 1278 (Rodolphe) a longtemps été la force dominante de l’Empire, plaçant à sa tête beaucoup de ses souverains, jusqu’à sa dissolution en 1806 par le « double-empereur » autrichien François II/I. À la fin du Moyen Âge, la maison de Habsbourg (plus tard Habsbourg-Lorraine) transforme ses possessions en puissance européenne par rattachement des pays germanophones et non-germanophones, centralise l’administration et le droit dans l’archiduché d'Autriche et forme enfin en 1804 l’empire d'Autriche. En 1815 l’Autriche et les autres pays germanophones essayent à nouveau de former une confédération germanique, mais l’opposition austro-prussienne domine, et la guerre austro-prussienne achève cette confédération en 1866 et résout la question allemande définitivement de la part de l’Autriche. En 1867, l’Autriche, sous le règne de François-Joseph se tourne vers le Sud-Est de l’Europe de sorte que l’empire d’Autriche se transforme et s’agrandit pour former la « monarchie danubienne » (allemand : "Donaumonarchie"), l’Autriche-Hongrie. La défaite des Empires centraux à la fin de la Première Guerre mondiale voit le territoire de la monarchie danubienne morcelé en plusieurs nouveaux États indépendants. L'Autriche est alors réduite à son territoire actuel. Le pays se laisse alors tenter par l'austrofascisme, puis par le nazisme. En 1938, l'Autriche est purement et simplement annexée au Troisième Reich : c’est l'Anschluss. La défaite hitlérienne à la fin de la Seconde Guerre mondiale, laisse le pays exsangue. Vienne, la capitale historique, connaît alors pendant dix ans un sort similaire à celui de Berlin avec une division quadripartite. En 1955, le pays recouvre sa souveraineté et mène une politique de stricte neutralité.Durant l'Antiquité, l'Autriche est peuplée par les Celtes (culture de Hallstatt). Elle est ensuite partagée entre plusieurs provinces romaines, la Norique ainsi qu’une partie de la Pannonie et de la Rhétie. Elle est intégrée à la Francie orientale qui devient le Saint-Empire romain germanique, après les grandes invasions en tant que marche de l'empire carolingien.En 1815, après le congrès de Vienne, l’Autriche et les autres pays germanophones essayent à nouveau de former une confédération allemande, mais l’opposition austro-prussienne domine. Les tensions atteignent leur paroxysme au cours de la guerre austro-prussienne en 1866. La défaite autrichienne voit l'avènement de cette confédération la même année résolvant ainsi la question allemande à son détriment. Vienne est trois ans après l'épicentre du krach du siècle. Sous le règne de François-Joseph, en 1867, l'Autriche se tourne vers le Sud-Est de l’Europe, de sorte que l’Empire d’Autriche se transforme et s’agrandit pour former la « monarchie danubienne » (""), l’Autriche-Hongrie. François-Joseph meurt en 1916, à, pendant la Première Guerre mondiale, après de règne. Son petit-neveu et successeur Charles d'Autriche,, après de vaines tentatives de retour à la paix, accepte impuissant le la dislocation de son empire et part en exil.Lors de la scission de l'Autriche-Hongrie en 1918, les députés autrichiens allemands du parlement de Cisleithanie (Reichsrat) élus en 1911 décident de fonder un État d'Autriche allemande. L'Assemblée rédige une constitution déclarant que « l'Autriche allemande est une république démocratique » (article 1) et qu'elle « est une partie de la République allemande » (article 2). Les alliés de la Première Guerre mondiale s'opposent à cette idée, et le traité de Saint-Germain-en-Laye interdit le nom d'« Autriche allemande » et son unification éventuelle avec l'Allemagne (article 88), donnant naissance à l'ère de la Première République d'Autriche. Considérablement réduite en taille après le traité de Saint-Germain-en-Laye de 1919, l'Autriche connaît une grave crise économique au lendemain de la Grande Guerre. Ce n'est que grâce à l'intervention de la Société des Nations que sa situation s'améliore à la fin des années 1920. Plus tard, l'Autriche est rattachée à l'Allemagne hitlérienne entre 1938 et 1945. À la fin de la Seconde Guerre mondiale, elle est occupée par les armées alliées et ne retrouve sa pleine souveraineté qu'en 1955. La guerre froide en fait à nouveau une « marche » de l'Europe, cette fois face au bloc soviétique. Elle connaît alors un fort redressement économique durant cette période, avant d'adhérer à l'Union européenne en 1995.Le Conseil national autrichien ("Nationalrat", ) est depuis le composé comme suit : Heinz Fischer, du SPÖ, est élu président fédéral le avec 52,41 % des voix contre 47,59 % des voix pour Benita Ferrero-Waldner. Il est intronisé le, soit deux jours après le décès de son prédécesseur, Thomas Klestil. Le, Fischer est réélu avec 79,3 % des voix pour un nouveau mandat de six ans. Le a lieu le second tour de l'élection présidentielle de 2016 ; le vainqueur est Alexander Van der Bellen mais les résultats sont annulés et le scrutin est reporté au qui confirme la victoire d'Alexander Van der Bellen pour la présidence d'Autriche.L'Autriche est un pays neutre, qui ne fait, par exemple, pas partie de l’OTAN, à la différence de la plupart des pays européens. La neutralité autrichienne est une conséquence directe des négociations pour le Traité d'État autrichien ("Staatsvertrag"), signé le à Vienne. Le pays est membre de l'Association européenne de libre-échange de 1960 à 1995, puis rejoint l'Union européenne le. En 2002, l'Autriche abandonne le schilling autrichien et adopte l'euro. L'Autriche est un pays observateur au sein de l'Organisation internationale de la francophonie. En 2000, après l'entrée au gouvernement du Parti de la liberté d'Autriche (FPÖ), les quatorze autres États membres de l'Union européenne cessent toute rencontre bilatérale avec le gouvernement autrichien pendant sept mois, imposent des limitations à ses ambassadeurs et ôtent tout soutien à des candidats autrichiens à des postes dans les organisations internationales.L'armée autrichienne est de puissance réduite et participe peu aux opérations hors de son territoire.L’organisation territoriale de l'Autriche se compose de plusieurs niveaux. Le premier échelon administratif, sous l’État fédéral, est l’État fédéré. Il existe cependant un échelon statistique supérieur, le groupe d’États. Viennent ensuite les districts et en dessous les communes.L'Autriche est une République fédérant neuf États ou "Bundesländer" :Grâce notamment au poids important des sociétés spécialisées dans la sous-traitance, l'Autriche est essentiellement un pays de petites et moyennes entreprises.Les secteurs-clés de l'industrie autrichienne :Le tourisme est l'un des secteurs économiques les plus importants en Autriche : en 2018, sa valeur ajoutée directe est de d'euros, ce qui correspond à 8,7% du PIB. Le tourisme est uniformément réparti sur les saisons d'été et d'hiver.Une estimation préliminaire de la population autrichienne en date du, faisait état de. L'Autriche affiche au total une croissance de plus de en une année, et a connu ainsi une croissance démographique exceptionnelle de 1,35 %. L'essentiel de cet accroissement est le fait de l'immigration soutenue, le taux d'accroissement naturel étant nul. La croissance fut de en 2005. Le taux moyen de 0,66 % observé en 2004-2005 était cinq fois supérieur au taux fort bas affiché au milieu des années 1990. Mais, à l’instar de tous ses voisins, le pays fait en réalité partie du groupe de pays d’Europe centro-méridionale à bas taux de fécondité (1,41 en 2005). L’excédent des naissances est très faible (de - à + ces dernières années) et dû totalement à l’excédent naturel des étrangers. La totalité de l'accroissement de la population constaté est dû à une nouvelle vague d’immigration. Sur en 2005, plus de étaient de nationalité étrangère, et bien plus encore en comptant les naissances liées à des parents immigrés ou étrangers fraîchement naturalisés. Le flux d’immigration nette a dépassé en 2004 comme en 2005. Le niveau des acquisitions de la nationalité autrichienne est élevé, surtout chez les jeunes et a atteint près de en 2005, après des années 2003 et 2004 records ( et ). L'Autriche interdit cependant de travailler aux citoyens qui n'ont pas de nationalité de l'UE, afin de freiner l'immigration. L'espérance de vie en Autriche s'élève à pour les femmes et à pour les hommes.L’Autriche a donné le jour à de nombreux artistes célèbres, comme les compositeurs, Franz Schubert, Johann Strauss (père et fils), Anton Bruckner, et Gustav Mahler, les actrices Hedy Lamarr et Romy Schneider (certes née à Vienne, celle-ci n'a cependant jamais eu la nationalité autrichienne), les peintres Egon Schiele et Gustav Klimt, les écrivains Arthur Schnitzler, Thomas Bernhard, Ingeborg Bachmann, Elfriede Jelinek et Robert Musil, les architectes Adolf Loos, Otto Wagner, Josef Hoffmann. Beaucoup ont émigré, notamment à la fin des années 1930, et ont connu la notoriété dans des pays étrangers : l'écrivain Stefan Zweig, l'historien d'art Otto Benesch, la peintre Mariette Lydis, le compositeur Arnold Schoenberg, le musicien Erich Wolfgang Korngold, les cinéastes Max Reinhardt, Michael Haneke, la chorégraphe Margarethe Wallmann, l'acteur Arnold Schwarzenegger et beaucoup d'autres. En revanche, et contrairement à une idée répandue, le compositeur Wolfgang Amadeus Mozart n'était pas autrichien : lorsqu'il est né, en 1756, la ville de Salzbourg était encore une principauté du Saint-Empire romain germanique, et ce n'est qu'après sa mort qu'elle a été rattachée à l'Autriche.La langue officielle de l’Autriche est l’allemand. L’allemand autrichien est différent dans sa prononciation et son lexique comparé à celui parlé en Allemagne. Il s’agit de la langue maternelle de 89 % de la population du pays, soit sur.En 2001, 73,6 % des Autrichiens étaient catholiques, 4,5 % protestants luthériens, 4,2 % musulmans, 5,5 % autres et 12 % sans religion. En 2016, le nombre de musulmans s'établit à près de provenant principalement de Bosnie et de Turquie. Les alévis bektachi sont environ en Autriche. En 2010, l'État autrichien a officiellement reconnu l'alévisme comme un culte. Les cemevi ont un statut légal, les chefs religieux sont reconnus par l'État, les jours sacrés (kurban, ashura, Hizir et newroz) des alévis sont devenus des jours fériés, et des masters sur l'alévisme sont mis en place. Les Autrichiens musulmans doivent faire face à une montée de l'intolérance religieuse : la majorité de la population considérerait que les musulmans ne devraient pas bénéficier de droits égaux à ceux des catholiques, et les agressions islamophobes sont en augmentation.Le pays compte plusieurs orchestres de renommée internationale, tels le Concentus Musicus Wien, dirigé par Nikolaus Harnoncourt, et surtout l'Orchestre philharmonique de Vienne conduit par des chefs invités de renom.Parmi les autres Autrichiens célèbres on compte les compositeurs Franz Schubert, Anton Bruckner, Mozart (même si, Salzbourg, sa ville natale, n'a été rattachée à l'Autriche qu'après sa mort) et Gustav Mahler, les physiciens Ludwig Boltzmann, Erwin Schrödinger, et Wolfgang Pauli, le mathématicien Kurt Gödel, les économistes Ludwig von Mises et Friedrich Hayek, les philosophes Karl Popper et Ludwig Wittgenstein, le psychanalyste Sigmund Freud, les écrivains Stefan Zweig, Robert Musil, Carl Zuckmayer, Elfriede Jelinek, Joseph Roth ou Thomas Bernhard, les peintres Gustav Klimt, Egon Schiele et Oskar Kokoschka ainsi que l’acteur et homme politique Arnold Schwarzenegger, l'acteur Christoph Waltz, le réalisateur doublement palmé à Cannes Michael Haneke, l'acteur Helmut Berger, mais aussi Adolf Hitler, émigré en Allemagne en 1913, et qui demande à renoncer à sa nationalité autrichienne le 7 avril 1925 ou encore le père fondateur du sionisme Theodor Herzl. Située dans les Alpes, l’Autriche est la patrie de nombreux skieurs alpins, comme Toni Sailer, Hermann Maier, Annemarie Moser-Pröll, Anita Wachter et Benjamin Raich. Avec l'Euro 2008, organisé par la Suisse et l'Autriche, les joueurs de l'équipe nationale de football ont gagné aussi en popularité, comme Andy Ivanschitz, Jimmy Hoffer ou Sebastian Prödl. Ce petit pays démographiquement parlant a aussi donné naissance à deux champions du monde de Formule 1 : Jochen Rindt (champion en 1970 à titre posthume) et Niki Lauda (champion en 1975, 1977 et 1984).La pratique religieuse y était de 35 % dans les années 1950.L'Autriche a pour codes :
L'Autriche ( ), en forme longue la république d'Autriche (), est un État fédéral d'Europe centrale sans accès à la mer. Pays montagneux, il est entouré, dans le sens des aiguilles d'une montre, par l'Allemagne et la Tchéquie au nord, la Slovaquie et la Hongrie à l'est, la Slovénie et l'Italie au sud, et par la Suisse et le Liechtenstein à l'ouest. L'Autriche est membre de l'Union européenne et de la zone euro respectivement depuis 1995 et 1999. Sa langue officielle est l'allemand, mais depuis la ratification de la Charte européenne des langues régionales ou minoritaires, six autres langues (hongrois, slovène, croate du Burgenland, tchèque, slovaque et romani) sont reconnues. Sa capitale et plus grande ville est Vienne.
xwikis
Pour que le théorème s'applique il faut que le fluide immergeant et le corps immergé soient au repos. Il faut également qu'il soit possible de remplacer le corps immergé par du fluide immergeant sans rompre l'équilibre, le contre-exemple étant le bouchon d'une baignoire remplie d'eau : si celui-ci est remplacé par de l'eau, il est clair que la baignoire se vide et que le fluide n'est alors plus au repos. Le théorème ne s'applique pas puisque nous sommes dans un cas où le bouchon n'est pas entièrement mouillé par le liquide et ne traverse pas sa surface libre. Une fois les conditions précédentes respectées, dans un champ de pesanteur uniforme, la poussée d'Archimède, notée formula_1 est donnée par la formule : Dans le cas particulier où la masse volumique "ρ" du fluide est elle aussi uniforme, on a : formula_4 Si l'on considère les intensités (normes) des forces alors, en notant "P" et "g" les normes des vecteurs associés, on a : L'intensité "P" de la poussée d'Archimède s'exprime en, la masse volumique "ρ" en, le volume de fluide déplacé "V" en et l'accélération de la pesanteur "g" en.Considérons un fluide au repos. On délimite, par la pensée, un certain volume de forme quelconque au sein de ce fluide. Ce volume est lui aussi au repos : malgré son poids, ce volume ne tombe pas. Cela signifie donc que son poids est rigoureusement compensé par une force opposée, qui le maintient sur place, et qui provient du fluide extérieur. On remplace maintenant, toujours par la pensée, ce volume par un corps quelconque. Comme la force qui maintenait le fluide en équilibre est une force de pression agissant à la surface du volume, il est possible de supposer que cette même force s'applique encore au corps immergé : elle est toujours opposée au poids de fluide déplacé. C'est la poussée d'Archimède. Le fait que les champs de force soient identiques pour le fluide homogène au repos et pour le corps immergé dans le fluide au repos est appelé « théorème de solidification ».Supposons un cube d'arête "a" entièrement immergé dans un liquide, sa face du haut étant horizontale et située à une profondeur "z" > 0 (le sens positif est vers le bas). On notera formula_6 le vecteur unitaire dirigé selon l'axe des z croissants (donc orienté vers le bas). Dans le cas d'un liquide incompressible au repos soumis à un champ de pesanteur uniforme, la pression absolue "p" à une profondeur "z" vaut : On considère une colonne de liquide, assimilable à un pavé droit de hauteur variable "z" et dont la surface de la base est constante et vaut "A." À une profondeur "z", la pression hydrostatique correspond à la norme "P" du poids, divisé par la base "A" de la colonne de liquide : "p"("z") = "P"/"A". Or l'expression du poids de la colonne de liquide est : On obtient donc, en utilisant la formule "p"("z") = "P"/A : La pression absolue vaut donc Par symétrie, les forces de pression exercées sur les quatre faces latérales du cube s'annulent deux à deux. La force formula_11, exercée par le liquide sur la face supérieure (d'aire "A" = "a") du cube, est dirigée de haut en bas et vaut : La force formula_13 dirigée du bas vers le haut, exercée par le liquide sur la face inférieure (d'aire "A" = "a") du cube, qui est située à la profondeur "z" = "z" + "a", vaut : La résultante formula_15 des forces de pression vaut donc : La force résultante est donc bien égale à l'opposé du poids du volume de liquide déplacé. Cette force étant négative, elle est bien orientée verticalement du bas vers le haut. Il est possible de généraliser la démonstration précédente à un volume de forme quelconque. Il suffit de décomposer la surface bordant le volume en une infinité d'éléments infinitésimaux d"S" supposés plans, puis de faire la somme, à l'aide d'un calcul d'intégrales, de toutes les forces infinitésimales formula_18 exercées sur chaque élément de surface.On peut déduire le théorème d'Archimède de celui du gradient : supposons un volume quelconque "V", délimité par une surface fermée "S", plongé entièrement dans un fluide de masse volumique "ρ" soumis à un champ de pesanteur formula_19, non nécessairement uniforme. Par définition de la pression "p", la résultante des forces de pression exercées sur le volume est : Par le théorème du gradient puis la loi fondamentale de l'hydrostatique, cette expression devient : qui est l'opposé du poids du volume de fluide déplacé.Immergeons entièrement un solide de volume "V", de masse "m" et de masse volumique "ρ" dans un fluide de masse volumique "ρ" uniforme, puis relâchons-le à partir du repos. Au départ, la vitesse étant nulle, deux forces seulement agissent sur le solide : son poids "F" (vers le bas) et la poussée d'Archimède "F" (vers le haut). Le rapport des masses volumiques est en l'occurrence équivalent à celui des densités : Dans les deux cas où le solide n'est pas en équilibre, son mouvement ultérieur est déterminé par trois forces : son poids, la poussée d'Archimède (opposée au poids) et une force de frottement visqueux "F" (opposée à la vitesse). Selon la deuxième loi du mouvement de Newton, on a alors : où "a" est l'accélération du solide. Comme la force de frottement visqueux n'est pas constante, mais qu'elle augmente avec la vitesse, l'accélération diminue graduellement, de sorte que le solide atteint plus ou moins rapidement une vitesse limite, lorsque la résultante des forces est nulle.Considérons un solide de volume "V" et de masse volumique "ρ" flottant à la surface d'un liquide de masse volumique "ρ". Si le solide flotte, c'est que son poids est équilibré par la poussée d'Archimède : La poussée d'Archimède étant égale (en valeur absolue) au poids du volume de liquide déplacé (égal au volume "V" immergé), on peut écrire : Le volume immergé vaut donc : Puisque "V" > "V", il s'ensuit que "ρ" < "ρ".Considérons un morceau de glace pure à flottant dans de l'eau de mer. Soit "ρ" = et "ρ" = (on aurait "ρ" = pour de l'eau pure à ). Le rapport (c’est-à-dire la densité relative) est égal à 0,895, si bien que le volume immergé "V" représente près de 90 % du volume total "V" de l'iceberg.Il est facile de vérifier que la fonte d'un morceau de glace pure flottant sur de l'eau pure se produit sans changement de niveau de l'eau. Le volume de glace immergé correspond en effet au volume d'eau liquide nécessaire pour égaler le poids du glaçon ( 1). En fondant, le glaçon produit (par conservation de la masse) exactement ce volume d'eau, qui « bouche le trou laissé par la disparition de la glace solide ». Le niveau de l'eau reste le même. Sur la figure ci-contre, le volume délimité en pointillé est, dans le verre de gauche, le volume de glace immergée, et, dans le verre de droite, le volume d'eau liquide produit par la fonte du glaçon. On peut également faire le calcul suivant : si on considère, par exemple, un glaçon de et de masse volumique (qui contient donc d'eau), le volume immergé est ( 2) (comme pour un iceberg, la majeure partie est sous l'eau). Lorsque le glaçon aura fondu, ce d'eau qui aura désormais une masse volumique de occupera exactement le volume qu'occupait la partie immergée du glaçon.Tout se passe comme si la poussée d'Archimède s'appliquait au centre de carène, c'est-à-dire au centre de gravité du volume de fluide déplacé. Cette caractéristique est importante pour le calcul de la stabilité d'un sous-marin en plongée ou d'un aérostat : sous peine de voir ces engins se retourner, il est nécessaire que leur centre de carène soit situé au-dessus de leur centre de gravité. Pour ce qui est d'un navire, en revanche, le centre de carène est souvent situé au-dessous du centre de gravité afin d'éviter des moments de redressement trop importants. Cependant, lorsque l'inclinaison du navire change (roulis), le centre de carène se déplace latéralement plus que le centre de gravité, ce qui génère un couple qui tend à ramener le navire à son inclinaison d'origine. La stabilité est alors assurée par la position du métacentre, qui est le point d'application des variations de la poussée. Ce métacentre doit se trouver au-dessus du centre de gravité. De façon anecdotique, on peut remarquer que les concepteurs de sous-marins doivent s'assurer simultanément de deux types d'équilibres pour leurs engins : l'équilibre en plongée et l'équilibre en surface.Le "Traité des corps flottants", où Archimède énonce les lois de la statique des fluides - et des conditions d'équilibre des corps solides immergés dans un fluide ou flottant sur lui - est probablement la plus connue des œuvres d'Archimède, car tout le monde a présent à l'esprit l'anecdote rapportée par Vitruve suivant laquelle Archimède aurait eu l'intuition du principe fondamental de l'hydrostatique en prenant un bain: Archimède, savant grec qui vécut à Syracuse, en Sicile de 287 av. J.-C. à 212 av. J.-C., est connu pour ses multiples travaux scientifiques, théoriques ou pratiques, que ce soit en mathématique ou en physique. Le "Traité des corps flottants" qui étudie avec rigueur l'immersion d'un corps, solide ou fluide, dans un fluide de densité inférieure, égale ou supérieure, jette les bases de la branche de mécanique des fluides, ce que l'on nommera plus tard « hydrostatique ». Dans cet ouvrage se trouve le théorème qui portera le nom du savant, qui ne sera complètement démontré qu'au. Le "Traité des corps flottants" contient d'autres propositions relatives à la poussée d'Archimède :Vitruve rapporte que le roi Hiéron II de Syracuse (306-214) aurait demandé à son jeune ami et conseiller scientifique Archimède (âgé alors de 22 ans) de vérifier si une couronne d'or, qu'il s'était fait confectionner comme offrande à Zeus, était totalement en or ou si l'artisan y avait mis de l'argent. La vérification avait bien sûr pour contrainte de ne pas détériorer la couronne. La forme de celle-ci était en outre trop complexe pour effectuer un calcul du volume de l'ornement. Archimède aurait trouvé le moyen de vérifier si la couronne était vraiment en or, alors qu'il était au bain public, en observant comment des objets y flottaient. Il serait alors sorti dans la rue entièrement nu en s'écriant (j'ai trouvé!), formule depuis lors devenue célèbre. La constatation qu'Archimède fait au bain public est que, pour un même volume donné, les corps n'ont pas le même poids, c'est-à-dire ont une masse par unité de volume différente. On parle de nos jours de masse volumique. L'argent (masse volumique ) est moins dense que l'or (masse volumique ), il a donc une masse volumique plus faible: pour obtenir le même poids, il faut une plus grande quantité d'argent que d'or. Si l'artisan a caché de l'argent dans la couronne du roi, Archimède déduit que la couronne doit être plus volumineuse que si elle avait été faite exclusivement en or. Ainsi fut démasquée la supercherie du joaillier.Pour répondre à la question du roi Hiéron, Archimède a donc pu comparer les volumes d'eau déplacés par la couronne et une quantité d'or de masse identique. Si les deux déplacent le même volume d'eau, leur masse volumique est alors égale et on peut en conclure que les deux sont composés du même métal. Pour réaliser l'expérience, on peut imaginer plonger la masse d'or dans un récipient rempli à ras-bord (et muni d'un bec verseur pour mieux observer la chose). Une certaine quantité d'eau débordera alors du récipient (on peut la recueillir pour la mesurer). Ensuite, on retire l'or et on le remplace par la couronne à étudier. Si la couronne est bien totalement en or, alors l'eau ne débordera pas. En revanche, si sa densité est plus faible et donc son volume plus important pour la même masse, de l'eau supplémentaire débordera. Le volume d'eau déplacé dépendra de la proportion d'argent dans l'or ; l'or étant approximativement deux fois plus dense que l'argent, remplacer 10 % en masse d'or par de l'argent conduit à une hausse de volume de 10 %. Mais du fait de la forte masse volumique de l'or, son volume est très faible : le volume d'une couronne de d'or n'est que d'un peu plus de et substituer 10 % d'or par de l'argent ne produit une différence que d'environ de (le volume d'eau d'une petite cuillère) La méthode ainsi décrite par Vitruve présente deux inconvénients. Le premier est qu'elle ne fait ici intervenir en rien le principe d'Archimède. Le second problème est qu'avec des conditions réalistes, en raison de la densité de l'or et du volume faible de la couronne, le volume d'eau déplacée est très faible et sa mesure est perturbée par l'eau qui peut être perdue dans les différentes opérations. Il est donc peu probable qu'Archimède ait pu tirer des conclusions significatives à partir d'une telle expérience. Une méthode plus réaliste est la suivante. On équilibre une balance avec la couronne d'un côté et de l'or pur de l'autre, dont les masses sont égales. Ensuite, on immerge complètement les objets pesés (pour s'affranchir de l'influence des plateaux de la balance, on peut s'assurer que ceux-ci sont bien strictement identiques, ou, mieux, les supprimer en les remplaçant par un fil fin et de densité proche de celle de l'eau). Si la couronne n'est pas en or pur, elle est de volume un peu plus grand, donc elle produit une force d'Archimède vers le haut un peu plus importante que la même masse d'or pur et l'équilibre initial de la balance est rompu. Là encore, la différence de poids est faible ; dans les conditions imaginées plus haut elle correspond au poids de d'eau, soit. Il faut donc une balance capable de détecter une telle variation, ce qui est difficile, mais pas irréaliste. L'appareil a effectivement été réalisé sous le nom de balance hydrostatique.L'anecdote est perpétuée par des titres comme "La Baignoire d'Archimède. Petite mythologie de la science" de Sven Ortoli et Nicolas Witkowski (1998), ou encore "La baignoire d'archimède - anthologie poétique de l'Obériou" de Henri Abril (2012).
La poussée d'Archimède est la force particulière que subit un corps plongé en tout ou en partie dans un fluide (liquide ou gaz) et soumis à un champ de gravité. Cette force provient de l'augmentation de la pression du fluide avec la profondeur (effet de la gravité sur le fluide, voir l'article hydrostatique) : la pression étant plus forte sur la partie inférieure d'un objet immergé que sur sa partie supérieure, il en résulte une poussée globalement verticale ascendante. C'est à partir de cette poussée qu'on définit la flottabilité d'un corps. Cette poussée a été pour la première fois mise en évidence par Archimède de Syracuse.
xwikis
Un corps placé dans un écoulement d'air (ou d'eau) subit une force aérodynamique (ou hydrodynamique). Pour l'analyse, on décompose cette force en une composante parallèle au vent relatif : la traînée (voir aussi Aérodynamique), et une composante perpendiculaire au vent relatif : la portance.L'aile en mouvement dévie une masse d'air. Selon la troisième loi de Newton, « tout corps A exerçant une force sur un corps B subit une force d'intensité égale, de même direction mais de sens opposé, exercée par le corps B ». Si A est l'aile, et B l'air, alors l'aile subit une force en réaction au mouvement de la masse d'air dû au déplacement de l'aile. Si l'air est dévié par le bas, l'aile est tirée vers le haut. L'aile peut dévier l'air grâce à ses deux faces :L'incidence (angle d'attaque) positive de l'aile en mouvement implique que l'intrados (face inférieure) oriente l'air incident vers le bas, créant une sur-pression et donc une force vers le haut.Du fait de sa viscosité, l'effet Coandă explique que la masse d'air en mouvement qui rencontre un profil bombé suit la surface de ce profil ; Le flux d'air reste « collé » à la surface de l'aile. La masse d'air suit le profil de l'aile et est déviée vers le bas. Ceci ne reste valable que pour une incidence limitée. Au-delà d'une certaine incidence, les filets d'air se décollent de l'extrados et la portance disparait pratiquement, c'est le décrochage. On invoque souvent le théorème de Bernoulli et l'effet Venturi : la forme bombée de l'extrados créerait des vitesses plus élevées ce qui impliquerait une dépression, qui attirerait l'aile vers le haut. Cette explication est souvent indiquée comme fausse par des scientifiques.En subsonique la portance d'une aile de grand allongement est proportionnelle à la circulation de l'air autour de celle-ci (voir théorème de Kutta-Jukowski). C'est la condition de Kutta qui impose la valeur de la circulation telle qu'il n'y ait pas de vitesse infinie au bord de fuite.La portance verticale formula_1 en newtons (N) d'une aile vaut : avec : Cette formule, issue de l'analyse dimensionnelle et identique à celle de la traînée, est valable dans tout système d'unités cohérent. Il faut noter qu'elle ne dit pas que la portance est exactement proportionnelle au carré de la vitesse. Seuls des essais peuvent le confirmer, ou l'infirmer, dans un cas particulier. Elle définit un cadre cohérent pour exprimer les résultats de ces essais, le coefficient sans dimensions étant défini comme une fonction d'autres nombres sans dimensions. Outre des nombres sans dimensions, comme l'allongement, qui expriment la similitude géométrique, interviennent des nombres sans dimensions qui expriment la similitude physique. Le nombre le plus utile pour la portance est le nombre de Mach qui caractérise les effets de la compressibilité. Le nombre de Reynolds qui exprime les effets de la viscosité joue pour la portance un rôle moins important que pour la traînée. On écrit d'une façon plus générale F = q S C, q étant la pression dynamique formula_7, S étant la surface de référence et C le coefficient de portance. Ceci se généralise à tous les coefficients aérodynamiques : - Lift = portance = q S C (la portance étant perpendiculaire à la vitesse) - Drag = traînée = q S C (la traînée étant parallèle à la vitesse) - pour une portance dans le plan de symétrie on a F et C - pour une portance latérale on a F et C, - pour la traînée on a F et C.Pour un fluide répondant à l'approximation des milieux continus, c'est-à-dire dans lequel on considère des particules fluides de taille supérieure à celle des molécules mais assez petites pour permettre l'utilisation des différentielles, les équations générales de la mécanique des fluides sont les équations de Navier-Stokes. Dans les problèmes liés à la portance d'un profil mince, la viscosité et la turbulence sont généralement négligeables ; le fluide est donc considéré comme parfait soumis aux équations d'Euler nettement plus simples. Celles-ci se traitent en général par la théorie des écoulements à potentiel de vitesse et, plus particulièrement, par la théorie des profils minces.Cette formule met en jeu les paramètres suivants :L'intérêt de cette formulation réside dans le fait que les coefficients aérodynamiques dont le formula_6 peuvent être considérés comme constants, dans une configuration et à une incidence données. Cependant ce n'est pas tout à fait le cas, il varie selon le nombre de Reynolds et le nombre de Mach :Considérons un cylindre à section circulaire de longueur supposée infinie fixé en travers d'un écoulement de vitesse U supposée de gauche à droite : il subit en général une traînée dans la direction de l'écoulement qui peut avoir plusieurs origines selon les circonstances, mais pas de portance perpendiculaire à l'écoulement (sauf dans le cas de tourbillons dissymétriques ou alternés). Si le cylindre est soumis à une rotation autour de son axe, le fluide visqueux en contact avec celui-ci est entraîné (condition de non-glissement). Cela se traduit dans chaque section droite par une, intégrale des vitesses fluides sur son périmètre. Si le cylindre tourne dans le sens rétrograde, l'écoulement est déformé de telle manière que la vitesse au point le plus haut s'ajoute à la vitesse en l'absence de rotation tandis qu'elle se retranche au point le plus bas. Ainsi, selon le théorème de Bernoulli appliqué ici, comme il se doit, au cas d'un fluide supposé incompressible, il y a des surpressions sur la partie inférieure et des dépressions sur la partie supérieure. On montre en mécanique des fluides que la portance ainsi créée est perpendiculaire à la vitesse de l'écoulement et vaut par unité de longueur du cylindre, ρ étant la masse volumique du fluide :formula_13 Ce résultat est connu sous le nom de théorème de Kutta-Joukowsky.Par une transformation conforme (qui conserve les angles), on peut transformer le cylindre à section circulaire en une aile de profil constant. Le théorème précédent est toujours valable mais le problème physique concerne l'origine de la circulation. En effet, il est hors de question de faire tourner l'aile pour obtenir un effet Magnus. Pour comprendre alors la création de circulation à l'origine de la portance il faut remarquer que, sur le profil comme sur le cercle considéré précédemment, l'écoulement présente deux points d'arrêt. En l'absence de circulation, le point d'arrêt amont se trouve au voisinage du bord d'attaque tandis que le point d'arrêt aval se trouve au voisinage du bord de fuite sur l'extrados. Il en résulte que le filet fluide qui a longé l'intrados devrait pivoter brutalement au bord de fuite pour retrouver ce point d'arrêt aval, ce qui conduirait à des vitesses infinies et n'est pas conforme à l'expérience. Il se crée alors une circulation qui pousse ce point d'arrêt jusqu'au bord de fuite : c'est la condition de Kutta qui assure un équilibre stable de l'écoulement en fixant la circulation de manière unique. En utilisant l'aile comme référence pour les vitesses, on voit que l'écoulement se fait dans le sens bord d'attaque, extrados, bord de fuite, intrados. En fait, la circulation est conservée par la création d'un tourbillon de sens inverse qui est « déversé » dans le sillage et s'éloigne vers l'aval avant de disparaître sous l'effet des frottements visqueux. On ne modifie pas la portance si on remplace le profil par un simple tourbillon, l'aile apparaissant comme une ligne de « tourbillons liés ». On peut également associer cette portance à l'écoulement qui se dirige vers le haut à l'amont et vers le bas à l'aval. La portance est décrite par une formule analogue à celle indiquée pour l'effet Magnus. La circulation était alors proportionnelle à la vitesse de rotation imposée au cylindre. Ici, la condition de Joukowsky crée une circulation proportionnelle à la vitesse relative loin de l'aile. La portance est alors proportionnelle au carré de la vitesse et il est donc possible de mettre l'expression sous la forme classique indiquée dans Formulation, sans que la pression dynamique intervienne en quoi que ce soit dans cette force perpendiculaire à la direction générale de l'écoulement.Pour une aile d'envergure finie, la ligne de tourbillons décrite précédemment ne peut s'arrêter brusquement en bout d'aile. En fait, la surpression de l'intrados par rapport à l'extrados conduit à une égalisation en bout d'aile à travers un écoulement transversal des hautes pressions vers les basses pressions, soit vers l'extérieur sur l'intrados et vers l'intérieur sur l'extrados. Ces mouvements amorcent des tourbillons qui se développent vers l'aval, d'intensité décroissante à mesure qu'on s'éloigne des extrémités de l'aile. À quelque distance du bord de fuite, ce système tourbillonnaire se réduit à deux lignes de tourbillons d'extrémités d'aile. L'ensemble de ces deux lignes et de la ligne de tourbillons liés à l'aile forme le système de tourbillons en fer à cheval. Dans une atmosphère humide, la détente, qui est à l'origine de ces tourbillons, peut amener l'air à se saturer en eau, la condensation éphémère qui en résulte peut parfois mettre en évidence les tourbillons partant des extrémités de l'aile (traînée de condensation dite « fugace »). Une condition propice à la formation de telles traînées est une forte incidence, que l'on rencontre lors d'évolutions serrées (voltige ou vols de démonstration) ou à basse vitesse (phase d'atterrissage d'un avion par exemple).La portance crée au niveau des saumons des ailes des tourbillons marginaux. Ce phénomène vient de la différence de pression entre l'intrados et l'extrados. Cette turbulence de sillage consomme de l'énergie, ce qui se traduit par une traînée induite (par la portance). Aux extrémités de l'aile la discontinuité entre cette déflexion et l'air non perturbé — des deux côtés de l'aile — est à l'origine des tourbillons marginaux. Les winglets ont pour but de diminuer ces vortex. À cette traînée liée à la portance, il convient d'ajouter la traînée de frottement liée à la viscosité dans la couche limite.La portance peut être mesurée grâce à l'expérience de la butée Michell.
La portance aérodynamique est la composante de la force subie par un corps en mouvement dans un fluide qui s'exerce perpendiculairement à la direction du mouvement (au vent relatif). Cela concerne les aérodynes (engins plus denses que l'air).
xwikis
Dans le cas unidimensionnel, par exemple un écoulement de Couette de fluide incompressible, la viscosité dynamique peut être définie en considérant deux couches d'un fluide notées abcd et a’b’c’d’, la couche abcd étant animée d'une vitesse relative à a’b’c’d’ notée formula_1 et dirigée suivant formula_2. Une force de frottement formula_3 s'exerce sur la couche a’b’c’d’ séparée de d"z". La viscosité dynamique formula_4 (le symbole formula_5 est également utilisé) intervient dans la relation entre la norme de cette force formula_3 et le taux de cisaillement formula_7, formula_8 étant la surface de chaque couche La dimension physique de la viscosité dynamique est : Dans le Système international d'unités (SI), la viscosité dynamique formula_4 se mesure donc en pascals secondes (Pa•s), cette dénomination ayant remplacé le poiseuille (Pl), de même valeur ( = ). On trouve encore parfois l'ancienne unité du système CGS, la poise (Po) : =. De cette grandeur dérivent deux autres, équivalentes :Dans le cas général le tenseur des contraintes visqueuses est donnée par : On peut écrire cette équation sous la forme : formula_19 est la seconde viscosité. On notera que certains ouvrages inversent les définitions de viscosité volumique (en anglais "") et seconde viscosité. L'hypothèse de Stokes présume que la viscosité volumique est nulle :Le terme de viscosité élongationnelle est utilisé en rhéologie pour caractériser l'écoulement d'un corps incompressible soumis à une contrainte uniaxiale. La viscosité élongationnelle vaut formula_22 (loi de Trouton).La viscosité turbulente désigne une quantité utilisée pour décrire la dissipation turbulente. Elle est l'analogue de la viscosité dynamique pour la relation contraintes-déformations dans le milieu mais n'est pas une caractéristique de ce milieu et son expression doit être adaptée à chaque situation physique.La viscosité des gaz purs et des mélanges peut être calculée à partir de la méthode de Chapman-Enskog en utilisant un potentiel d'interaction molécule-molécule tel que le potentiel Lennard-Jones. Cette propriété de transport macroscopique (domaine continu) est l'image des transferts de quantité de mouvement à l'échelle moléculaire qui croissent avec la force des collisions, donc avec la température et qui s'opposent à l'advection de la quantité de mouvement dans le milieu.La viscosité dynamique d'un corps pur est donnée par l'expression suivante (les indices sont pour la collision de l'espèce i avec elle-même) où formula_24 est la température, formula_25 la masse molaire, formula_26 le nombre d'Avogadro, formula_27 la constante de Boltzmann, formula_28 la section efficace et formula_29 l'intégrale de collision réduite par sa valeur utilisant un potentiel sphères dures. Ce terme dépend faiblement de la température, il est donc voisin de l'unité. Si on prend formula_30 on retrouve l'approximation d'un milieu composé de sphères dures parfaitement élastiques. Le terme formula_31 représente le nombre de collisions par unité de temps. La quantité formula_32 est souvent disponible dans les bases de données sous forme tabulée ou sous forme polynomiale où formula_34 peut être négatif. Ce type d'approximation est également utilisé pour donner une expression numérique formula_35.La viscosité dynamique d'un mélange gazeux de formula_36 corps est solution d'un système algébrique linéaire d'ordre formula_36 et de rang formula_38. Elle s'exprime donc sous la forme formula_39 où formula_40 est la fraction massique de l'espèce formula_41 dans le mélange. Il existe nombre d'approximations précises dans un domaine plus ou moins large (voir figure ci-contre) :Des données nombreuses et fiables sont contenues dans la compilation faite par Yeram Sarkis Touloukian. On donne dans le tableau ci-dessous quelques valeurs de cette base de données.Pour les liquides il n'existe pas de théorie que l'on puisse qualifier d'exacte à l'instar de la méthode de Chapman-Enskog. La généralisation de cette méthode par David Enskog ne donne que des résultats qualitatifs. La difficulté tient au fait qu'une molécule possède de nombreuses voisines avec laquelle elle interagit. Son mouvement est lié à la présence d'un site libre dans son voisinage. La mobilité augmentant avec la température, le phénomène de migration est facilité d'autant, ce qui explique la diminution de la viscosité. Les seuls calculs exacts sont ceux de dynamique moléculaire qui simulent le milieu à l'échelle moléculaire. Toutefois cette notion de site libre a permis à Henry Eyring de proposer une théorie où l'énergie d'agitation thermique permet à une molécule de vaincre la barrière de potentiel la séparant de ce site dans l'esprit de l'équation d'Eyring. La fréquence formula_43 de sauter la distance séparant la molécule d'un site libre adjacent est : où formula_45 est l'énergie libre d'activation permettant d'échapper à la « cage » où se trouve la molécule.En pratique on utilise diverses méthodes physiques approchées (liste non exhaustive) : On utilise fréquemment des approximations numériques formula_55 telles que la suivante pour l'eau à pression de vapeur saturante : La comparaison avec la courbe ci-contre montre qu'elle est valide jusqu'à environ.On utilise couramment la loi de mélange empirique (ou des variantes de celle-ci) formula_58 est la fraction volumique (molaire).Des données sont contenues dans diverses compilations dont on donne ci-dessous deux exemples. Par ailleurs on peut trouver de nombreuses valeurs typiques pour des fluides newtoniens qui ne sont pas nécessairement parfaitement définis.Certains corps comme les verres passent continument de l'état solide à l'état liquide. La viscosité du dioxyde de silicium a été mesurée à à et à à. On trouve parfois des valeurs de viscosités pour des corps rhéofluidiants et thixotropes comme le sang ou fortement non-newtoniens comme la glace polycristalline. Il convient de considérer ces valeurs avec circonspection.La viscosité de volume est généralement négligée en mécanique des fluides, le terme dû au cisaillement étant prépondérant. Cependant il existe des contre-exemples, par exemple la propagation du son dans les gaz. Cette quantité résulte des collisions inélastiques pour lesquelles l'énergie interne (liée à la vibration et la rotation) des espèces en interaction est modifiée par la collision. Elle est donc négligeable dans le cas des gaz nobles. L'expression la plus simple est obtenue pour un gaz parfait dans la limite des ondes de faibles fréquences et faibles amplitudes : où formula_60 est la capacité thermique à volume constant associée au mode interne caractérisé par une durée de relaxation, la pression, la constante universelle des gaz parfaits et l'indice adiabatique. On donne ci-dessous quelques valeurs caractéristiques à 293K et à pression normale. On remarque que certains corps comme l'hydrogène ou la vapeur d'eau ont une viscosité élevée comparée à la viscosité dynamique.À l'aide du calcul tensoriel on peut calculer la dissipation irréversible, en énergie thermique, de l'énergie cinétique formula_61, où formula_62 désigne l'énergie cinétique par unité de volume. Dans le cas incompressible elle prend la forme : où formula_41 et formula_65, parcourant la base cartésienne, vont de 1 à 3 (convention d'Einstein). En coordonnées cylindriques, on obtient :Les mesures de viscosité dynamique se font à l'aide d'un viscosimètre ou d'un rhéomètre. Pour la viscosité volumique on utilise un.
La viscosité (du latin "", gui, glu) peut être définie comme l'ensemble des phénomènes de résistance au mouvement d'un fluide pour un écoulement avec ou sans turbulence. La viscosité diminue la liberté d'écoulement du fluide et dissipe son énergie.
xwikis
L'énergie potentielle gravitationnelle est, comme toutes les formes d'énergies potentielles, définie à une constante additive arbitraire près. Néanmoins, il est d'usage de fixer la valeur de la constante en prenant la valeur de l'énergie potentielle nulle lorsque la masse est infiniment éloignée du centre de gravité du champ auquel elle est soumise. Dans ce cas-là, l'énergie potentielle gravitationnelle est négative. Cela signifie qu'il faut fournir un travail positif (c'est-à-dire dépenser de l'énergie) pour extraire une masse d'un champ gravitationnel. Ceci est une conséquence directe du fait que, dans la Nature, les masses sont des quantités positives, qui s'attirent toujours. Ainsi, éloigner une masse d'une distribution arbitraire de masses nécessite de dépenser de l'énergie pour s'opposer à la force attractive entre les différentes masses.Considérant une masse "m", supposée dans un premier temps ponctuelle, placée en un point dont le rayon vecteur est noté r, si on appelle Φ le potentiel gravitationnel dans lequel se déplace cette masse, alors, l'énergie potentielle gravitationnelle "E" de celle-ci vaut Comme annoncé plus haut, cette énergie est définie à une constante près du fait qu'il en est de même pour le potentiel Φ. Si la distribution des masses à l'origine du potentiel Φ est d'extension limitée, alors il est naturel de choisir une valeur nulle pour le potentiel à l'infini, ce qui donne immédiatement d'après la formule ci-dessus une énergie nulle à l'infini.Dans le cas le plus général d'une distribution continue de matière décrite par une densité de masse "ρ"(r), où r représente le rayon vecteur d'un point quelconque de l'espace, l'énergie potentielle gravitationnelle du système est donnée par la somme de tous les travaux nécessaires pour amener chacune de ses parties depuis l'infini jusqu'à leur position finale. Cette énergie s'écrit alors : Le facteur 1/2 peut se comprendre par le fait que l'on considère l'ensemble des énergies potentielles prises entre deux points de la distribution de masse, chaque paire de points étant comptée deux fois d'où la nécessité de rajouter un facteur 1/2 dans le résultat final.Du fait que la formule générale du potentiel gravitationnel s'écrit on peut effectuer une des deux intégrations dans la formule précédente, pour obtenirSi l'on connaît le champ gravitationnel g généré par la distribution des sources, on peut réexprimer la formule précédente selon Cette expression est essentiellement similaires aux énergies électrostatique et magnétostatique, faisant l'une et l'autre intervenir l'intégrale sur tout l'espace du carré de la norme du champ correspondant (électrique et magnétique, respectivement), le tout multiplié par la constante appropriée. Par exemple, la constante est "ε"/2 pour l'énergie potentielle électrostatique et -1/8"πG" pour l'énergie potentielle gravitationnelle, car les forces électrostatiques et gravitationnelles font intervenir les constantes 1/4"πε" et "G", et que l'une est répulsive pour des charges de même signe, alors que l'autre est attractive. Cette expression est assez commode dans le cas du calcul de l'énergie potentielle gravitationnelle d'une distribution de matière à symétrie sphérique.Dans le cas d'un satellite artificiel en orbite autour de la Terre que l'on peut en première approximation considérer comme étant à symétrie sphérique, le potentiel dans lequel il est plongé suit la loi suivante : où "G" est la constante de gravitation, "M" la masse de la Terre et "r" la distance par rapport au centre de la Terre. Alors l'énergie potentielle du satellite vaut Cette énergie est certes négative, mais supérieure à l'énergie potentielle du satellite avant son lancement, puisque, à ce moment-là, sa distance au centre de la Terre était égale au rayon terrestre, plus petit que sa distance "r" en orbite.Pour une sphère homogène de rayon "R" et de masse "M", l'énergie potentielle gravitationnelle s'écritD'une manière plus générale, pour une distribution de matière quelconque à symétrie sphérique, l'énergie potentielle gravitationnelle est toujours de la forme la valeur de la quantité "ξ" étant déterminée par le détail du profil de densité de la distribution : plus celle-ci est piquée vers le centre, plus cette quantité est grande, ce qui se comprend aisément en remarquant qu'une distribution très piquée de matière est majoritairement confinée dans un rayon notablement plus petit que la rayon total "R" de la configuration, où ne se situe qu'une petite partie de la masse, qui ne contribue guère au potentiel gravitationnel (ou à l'énergie) totale. Se fixer un profil de densité revient en réalité à fixer une équation d'état pour la matière considérée. En astrophysique se produisent beaucoup de situations où seule la densité et la pression interviennent, la température étant une quantité in-essentielle. L'exemple typique de cette situation est celui d'un polytrope, où pression et densité sont reliées par une loi de puissance du type formula_10. Dans ce cas, la quantité "ξ" est une fonction de "γ", appelé dans ce contexte indice adiabatique. Dans un tel contexte, il convient de rappeler que l'énergie potentielle gravitationnelle seule ne suffit pas à décrire la configuration (par exemple si l'on s'intéresse à sa stabilité). Il faut en effet considérer l'énergie totale, somme de la contribution gravitationnelle et de l'énergie interne de la configuration.
En physique classique, l'énergie potentielle gravitationnelle est l'énergie potentielle associée au champ gravitationnel. Son interprétation la plus naturelle est liée au travail qu'il faut fournir pour déplacer un objet plongé dans un champ gravitationnel. Plus précisément, la variation d'énergie potentielle gravitationnelle d'une masse est l'opposée du travail nécessaire pour déplacer cette masse entre deux points de l'espace où règne un champ gravitationnel.
xwikis
Gottfried Leibniz, s'opposant ainsi à Descartes qui estimait que la quantité de mouvement se conservait toujours, développa l'idée de la « force vive » (""), à laquelle il attribuait la valeur formula_2. La force vive est donc le double de l'énergie cinétique.L'énergie cinétique est généralement notée dans les textes en français (« "E" » pour "énergie", « c » pour "cinétique"). Dans les textes en anglais on trouve ou, « k » étant l'initiale de "kinetics" (le mot anglais qui correspond à "cinétique").Dans les cas non relativistes (c'est-à-dire lorsque les vitesses sont petites comparées à la vitesse de la lumière dans le vide), l'énergie cinétique formula_3 (en J) d'un point matériel de masse "formula_4" (en kg) se déplaçant à une vitesse formula_5 (en m/s) dans un référentiel donné s'exprime ainsi :Dans le domaine de validité de la mécanique newtonienne, la notion d'énergie cinétique peut être facilement mise en évidence pour un point matériel, corps considéré comme ponctuel de masse "m" constante. En effet, la relation fondamentale de la dynamique s'écrit dans ce cas : avec : En prenant le produit scalaire, membre à membre, par la vitesse formula_9 du corps, il vient : or : il vient ainsi : On met en évidence dans le membre de gauche la quantité formula_13 appelée énergie cinétique du point matériel, dont la dérivée par rapport au temps est égale à la somme des puissances formula_14 des forces appliquées au corps (théorème de l'énergie cinétique, forme « instantanée »). On peut obtenir une expression plus générale en considérant que l'on a donc formula_15, puisque formula_16. En introduisant la variation infinitésimale de la quantité de mouvement du corps, formula_17, il vient finalement l'expression : où formula_19 désigne la variation d'énergie cinétique.Dans le cas d'un corps que l'on ne peut considérer ponctuel, il est possible de l'assimiler à un système (d'une infinité) de points matériels formula_20 de masses formula_21 avec formula_22 "masse totale" du corps. L'énergie cinétique formula_23 du système de points peut être alors simplement définie comme la somme des énergies cinétiques associées aux points matériels constituant le système : Cette expression est générale et ne préjuge pas de la nature du système, déformable ou pas. Remarque : en considérant la limite des milieux continus on a formula_25, "M" étant un point courant du système (S).L'unité légale est le joule. Les calculs s'effectuent avec les masses en kg et les vitesses en mètres par seconde.L'expression (1) n'est guère utilisable directement, bien que générale. Il est possible de la réécrire sous une autre forme, dont l'interprétation physique est plus aisée.Ce théorème se démontre en faisant intervenir le référentiel barycentrique "(R)" lié au centre d'inertie "G" du système, et en mouvement de translation par rapport au référentiel d'étude "(R)". Il s'écrit : L'énergie cinétique d'un système est alors la somme de deux termes : l'énergie cinétique du centre de masse de (S) affectée de sa masse totale "M", formula_27, et l'énergie cinétique propre du système dans (R), formula_28.Un solide est un système de points tels que les distances entre deux points quelconques de (S) sont constantes. Il s'agit d'une idéalisation d'un solide réel, considéré comme absolument rigide.Dans ce cas, le mouvement du solide peut être décomposé en un mouvement de son centre de masse "G" dans (R) et un mouvement de rotation autour d'un axe instantané (Δ) dans le référentiel barycentrique (R). Plus précisément, pour un solide on peut écrire le champ des vitesses dans le référentiel barycentrique (R) sous la forme formula_29, formula_30 étant le vecteur rotation instantané du solide dans (R) [ou (R), puisque les deux référentiels sont en translation]. Son énergie cinétique propre formula_31 s'exprime alors : puisque formula_33, moment cinétique du solide par rapport à G, égal au moment cinétique propre formula_34 (voir théorèmes de König). D'après le théorème de König, l’énergie cinétique totale d’un solide s'écrit donc ainsi : que l'on peut considérer comme la somme d’une "énergie cinétique « de translation »" et d’une "énergie cinétique de rotation"formula_36, aussi appelée "énergie cinétique angulaire".Si, de surcroît, il y a rotation autour d'un axe (Δ) "fixe" dans (R), le moment cinétique par rapport à "G" du solide s'écrit formula_37, où formula_38 est le moment d'inertie du solide par rapport à l'axe de rotation (Δ). Son "énergie cinétique de rotation" se mettra ainsi sous la forme :Dans la théorie de la relativité d’Einstein (utilisée principalement pour les vitesses proches de la vitesse de la lumière, mais valable pour toutes vitesses), l’énergie cinétique est : où : La théorie de la relativité affirme que l’énergie cinétique d’un objet (ayant une masse « au repos» non nulle) tend vers l’infini quand sa vitesse s’approche de la vitesse de la lumière et que, par conséquent, il est impossible d’accélérer un objet jusqu’à cette vitesse. Pour une vitesse "v" petite devant "c" (formula_42), le développement limité de l’énergie cinétique relativiste est : On retrouve ainsi au premier ordre l'énergie cinétique newtonienne. Par exemple, pour un objet d'un kilogramme allant à la vitesse de, la différence entre énergie cinétique relativiste et énergie cinétique newtonienne est d'environ 0,04 J pour une énergie cinétique newtonienne de 50 MJ, soit un écart relatif de 0,8 milliardième. Cette différence est de 400 J sur 5 GJ à, soit un écart relatif de 80 milliardièmes. Quand la gravité est faible et que l’objet se déplace à des vitesses très inférieures à la vitesse de la lumière (c’est le cas de la plupart des phénomènes observés sur Terre), la formule de la mécanique newtonienne est une excellente approximation de l’énergie cinétique relativiste.Ce théorème, valable uniquement dans le cadre de la mécanique newtonienne, permet de lier l’énergie cinétique d’un système au travail des forces auxquelles celui-ci est soumis.Dans un référentiel galiléen, pour un corps de masse "m" constante parcourant un chemin reliant un point A à un point B, la variation d’énergie cinétique est égale à la somme des travaux "W" des forces (extérieures et intérieures) qui s’exercent sur le corps considéré : où :D’après la de Newton, l’accélération du centre de gravité est liée aux forces qui s’exercent sur le solide par la relation suivante : Pendant une durée "dt", le solide se déplace de formula_46 où formula_9 est la vitesse du solide. On en déduit le travail élémentaire des forces : Si le solide parcourt un chemin d’un point A à un point B, alors le travail total s’obtient en faisant une intégrale le long du chemin : formula_50 étant une différentielle exacte, l’intégrale ne dépend pas du chemin suivi entre A et B et peut donc être obtenue explicitement :Dans un référentiel galiléen, la puissance des forces s'appliquant au point M est égale à la dérivée par rapport au temps de l'énergie cinétique. On peut également appliquer cette définition à un unique solide si l'on considère uniquement la puissance des forces extérieures au solide.L’énergie thermique est une forme d’énergie due à l’énergie cinétique totale des molécules et des atomes qui forment la matière. La relation entre la chaleur, la température et l’énergie cinétique des atomes et des molécules est l’objet de la mécanique statistique et de la thermodynamique. De nature quantique, l’énergie thermique se transforme en énergie électromagnétique par rayonnement. Ce rayonnement thermique peut être approché sous certaines conditions par le modèle du rayonnement dit du "corps noir". La chaleur, qui représente un échange d’énergie thermique, est aussi analogue à un travail dans le sens où elle représente une variation de l’énergie interne du système. L’énergie représentée par la chaleur fait directement référence à l’énergie associée à l’agitation moléculaire. La conservation de la chaleur et de l’énergie mécanique est l’objet du premier principe de la thermodynamique.
]]formula_1 L'énergie cinétique (du grec "ἐνέργεια / enérgeia" « force en action » et "κίνησις / kínêsis" « mouvement ») est l’énergie que possède un corps du fait de son mouvement par rapport à un référentiel donné. Sa valeur dépend donc du choix de ce référentiel. Elle s'exprime en joules (J).
xwikis
Si l’on entend par mécanisme la mise en place cohérente de plusieurs solides dans le but de transformer un mouvement, alors le levier est le plus simple de tous. Ce qui en fait probablement le premier mécanisme ou dispositif mécanique utilisé par l’Homme, bien avant la découverte de la roue. Il n’est formé que de deux solides : un appui (un caillou) et un levier (une branche, un bâton) qui disposés judicieusement permettent de démultiplier la force musculaire. Il est mis en œuvre dans l'Antiquité, notamment sous forme de chadouf. Bien plus tard, Archimède a compris et maîtrisé toutes les possibilités qu’offre le levier. Ce dispositif est d’ailleurs à l’origine de l'une de ses citations les plus célèbres : « "" » (« Donne-moi où je puisse me tenir ferme, et j'ébranlerai la Terre »).On regroupe traditionnellement les leviers en trois classes, fonction de la position du point d'appui et des forces en entrée et sortie : Le ratio des longueurs des bras de levier (entre chaque force et le point d'appui), et donc le ratio des forces et celui des déplacements, sont libres pour la première classe. Pour la seconde classe, la force résultante a un bras de levier forcément plus court : son déplacement sera moindre et la force exercée multipliée. Pour la troisième classe, c'est l'inverse : le bras de levier pour la force résultante étant forcément plus long, le déplacement le sera aussi, mais en contrepartie il faudra une force exercée plus forte.Dans une approche élémentaire, nous considérons deux efforts : Cette étude est peu rigoureuse, puisqu'elle ne passe pas par la démarche de la statique du solide (isolement du solide, bilan des actions mécaniques extérieures, application des principes de la statique), mais c'est cette étude qui a permis la découverte des principes fondant la statique. Supposons également, pour simplifier, que le levier est droit (rectiligne) et que les efforts sont perpendiculaires au levier. On constate alors que le levier amplifie (ou réduit) l'effort proportionnellement au rapport des bras de levier, c'est-à-dire à la distance du pivot au point d'application de l'effort.Dans une étude rigoureuse, il faut isoler le levier. La liaison entre le levier et son appui est généralement unilatérale (un seul sens d’application d’effort est alors possible) dans le cas d'un levier amovible, ou constitue une articulation (pivot, rotule...). Cet appui ne se situe pas obligatoirement entre les deux points d’application des forces, il peut être extérieur à ces points. C’est le cas par exemple pour la brouette. D'autre part, le levier subit une charge, ce qu'on veut soulever ou pousser, et une force motrice, celle qu'on exerce en la souhaitant la plus faible possible. L'équilibre sous trois forces — relation entre trois vecteurs — implique que le levier agit dans un plan. Il est possible que ce plan ne soit pas fixe, et tourne dans l'espace. C’est le cas d’un levier de vitesses automobile, maintenu par une liaison rotule à doigt. L'étude qui suit présente un levier dans le plan cinématique et statique. Tous les vecteurs sont vus en vraie grandeur. Le levier est maintenu par un appui ponctuel ou linéaire rectiligne.Les vecteurs formula_1 et formula_2 ont même angulation mais sont de sens opposés : formula_3. Ces deux vecteurs peuvent représenter un déplacement (m), une vitesse (m/s) ou une accélération (m/s2). Le théorème de Thalès nous donne la relation : formula_4. Cette relation peut s'écrire plus utilement formula_5 ou formula_6. Un levier permet donc de transformer un déplacement, une vitesse ou une accélération selon le rapport de ses bras de levier. Une utilisation guerrière de l'aspect cinématique du levier est le trébuchet. Dans ce cas, une masse attachée à une extrémité (L) est accélérée par la pesanteur terrestre, le levier augmente et transmet cette accélération à l'autre extrémité (L) afin de projeter un boulet. Dans ce cas, outre l'amplification de la vitesse, on a également une multiplication de l'amplitude du mouvement, ainsi que de la force requise (dans le cas du trébuchet, le poids d'entrainement plusieurs fois supérieure à celui du boulet). En sens inverse, on peut diviser la force requise pour exercer une force donnée, au prix de la division de l'amplitude de mouvement dans le même ratio. Ceci est largement utilisé par les appareils de manutention, par exemple dans les chèvres hydrauliques, les tables à ciseaux, les plateformes et nacelles élévatrices, les échelles aériennes, les élévateurs de manège,...Le principe fondamental de la statique (PFS) appliqué au système {levier} au point "O" donne deux équations vectorielles : Soit, en projection sur formula_8 : Ce qui donne finalement en projection sur formula_14 : que l'on écrira plus utilement : ou Remarques sur les résultats : Le rapport des forces est donc inversement proportionnel au rapport des bras de levier. Le sécateur et le pied-de-biche, aussi appelé pince monseigneur, utilisent l'aspect statique du levier. Un petit effort appliqué par l'utilisateur sur le grand bras de levier permet d'obtenir un effort très important au niveau du petit bras de levier et permet ainsi de couper une branche ou d'arracher un clou. De même, l'intérêt de la brouette, dans le transport de charges, repose sur ce principe.Le levier respecte le principe de la conservation de l'énergie. En A, la puissance appliquée est formula_18. La puissance transmise en B est formula_19. Or nous avons vu que formula_20 et que formula_21. On a donc formula_22. Ainsi la puissance et l’énergie sont intégralement transmises du point A au point B. En pratique, une petite partie de la puissance est dégradée sous forme de chaleur et/ou de vibrations sonores au niveau de la liaison avec l’appui. Pour en tenir compte, il faut connaître le rendement de cette liaison. À partir du principe de conservation de l'énergie (ici sous la forme du travail des forces) on retrouve les propriétés du levier, notamment le fait que le rapport des forces aux extrémités est égal au rapport inverse des longueurs des bras.Selon le principe des travaux virtuels, les déplacements de la structure sont si petits que sa géométrie n'est pas changée. Les grandeurs infinitésimales sont précédées du signe formula_23 et nous plaçons le point 1 en A et 2 en B. En 1, le travail virtuel vaut formula_24. Le travail virtuel en 2 est formula_25. Comme la structure ne travaille pas au repos, nous pouvons égaler ces deux travaux virtuels, donc formula_26. Or les déplacements des points 1 et 2 sont liés par la géométrie de la structure car si nous considérons que les poutres restent parfaitement rigides, dès lors, formula_27. On a donc formula_28.
En mécanique, un levier est une pièce rigide, allongée, généralement en liaison pivot ou en simple appui par rapport à une partie fixe, qui permet de transformer un mouvement. Le levier est l'une des huit machines simples.
xwikis
L'analyse dimensionnelle montre que la traînée d'un obstacle formula_1 peut s'écrire dans le cas d'un écoulement turbulent sous la forme : avec : Le coefficient 1/2, forcément arbitraire, a été institué en mars 1923 après une réflexion commune de tous les aérodynamiciens de l'époque, sur une proposition de Richard Knoller, de façon que la définition du formula_6 soit unifiée planétairement. L'avantage de ce coefficient 1/2 est qu'il indexe le formula_6 sur la pression dynamique formula_9 de l'écoulement. Cette formule ne dit pas que la traînée est proportionnelle au carré de la vitesse. Elle permet seulement d'organiser de manière rationnelle des résultats d'essais en présentant le coefficient de traînée, nombre sans dimension, comme une fonction d'autres nombres sans dimensions. Parmi ces derniers, certains ne dépendent pas de la vitesse comme des rapports de longueurs qui décrivent la géométrie de l'obstacle ou l'incidence d'une aile. Dans certaines plages du nombre de Reynolds de l'écoulement (nombre qui caractérise l'effet de la viscosité), on ne peut plus cependant considérer que la force de traînée est proportionnelle au carré de la vitesse. Aux grandes vitesses, l'effet du nombre de Mach qui caractérise l'effet de la compressibilité se fait également sentir de façon prépondérante.Le C est couramment utilisé en automobile afin de comparer les modèles. La surface frontale de ces modèles est souvent prise comme surface de référence.Quand la géométrie du corps n ́est pas régulière (et que la surface de référence varie, comme dans le cas d'un coureur cycliste ou d'un coureur à pied), il est plus difficile de parler de C. On utilise alors la "Surface équivalente de traînée" (ou "Surface de traînée équivalente") SC, ce SC étant le quotient de la force de traînée par la pression dynamique formula_9 de l'écoulement. Cependant on estime que le C du coureur à pied Usain Bolt est de l'ordre de 1.2. La surface de traînée d'un skieur de compétition est donnée par Hoerner comme valant de 0,48 à 0,60 m2.Dans tous les cas, il existe une traînée de frottement qui naît de l'entrainement de la surface "mouillée" du corps par le fluide ; cette traînée de frottement cause une dissipation de l'énergie mécanique de l'écoulement qui se transforme en chaleur. Elle est primordiale pour un corps mince comme une plaque plane (à incidence nulle par rapport au fluide). Dans ce qui suit, on considère le cas d'un écoulement par rapport à un obstacle fixe (comme dans une soufflerie).La vitesse varie entre zéro sur l'obstacle et sa valeur loin de celui-ci. On observe donc des variations de vitesse qui tendent à être atténuées par la viscosité du fluide selon un phénomène analogue à un frottement solide se traduisant par un échauffement. Pour les vitesses très faibles, correspondant à un très petit nombre de Reynolds, la viscosité est prépondérante. Le coefficient de traînée apparaît alors comme inversement proportionnel au nombre de Reynolds : la force de traînée est par conséquent proportionnelle à la vitesse et non à son carré ainsi que proportionnelle à une longueur caractéristique et non à une surface. Ce régime d'écoulement est appelé régime de Stokes. Plus le nombre de Reynolds augmente, plus la viscosité a du mal à freiner l'écoulement général. La zone de variation des vitesses imposée par la condition de non-glissement à la paroi se rétrécit et forme une couche limite qui concentre l'essentiel des effets visqueux. Si dans cette couche limite l'équation de Bernoulli n'est plus valide, en dehors de cette couche limite, elle redevient valide. Pour la quantification du coefficient de frottement, voir l'article détaillé Couche limite.Lorsque le fluide rencontre le profil, l'écoulement est d'abord laminaire : la couche limite est laminaire; cette couche limite ainsi que les filets fluides au-dessus d'elle limite suivent la forme de l'obstacle. À partir d'une zone dite de transition, l'écoulement reste attaché mais la couche limite devient turbulente, les particules contenues dans celle-ci ayant des trajectoires erratiques. La couche limite turbulente est plus épaisse et dissipe plus d'énergie que la couche limite laminaire (la traînée locale de frottement du profil devenant plus forte). Pour réduire la traînée de frottement, il paraît donc souhaitable de reculer autant que possible la transition laminaire/turbulent (ce qui donne les profils "laminaires" des planeurs). Cependant, dans certains cas, il est préférable de maintenir la couche limite en état de turbulence pour retarder la séparation (décollement) qui résulte en une forte traînée de culot.La traînée de frottement représente l'essentiel de la traînée d'un obstacle mince. Dès que l'obstacle a une certaine épaisseur se superpose une traînée de forme, modérée sur un corps profilé (en écoulement attaché), mais qui devient prépondérante sur un corps non profilé (en écoulement décollé).Dans le cas d'un fluide idéal (sans viscosité), le fluide est accéléré à l'amont et ralenti à l'arrière. En application du théorème de Bernoulli, la pression diminue juste après le point d'arrêt (où elle est maximale), atteint un minimum près du maître couple du corps, puis réaugmente peu à peu pour retrouver (théoriquement) la même valeur qu'à l'amont. Ainsi apparaît le paradoxe de D'Alembert : sans viscosité l'intégration des efforts de pression sur le corps résulterait en une traînée nulle. En réalité les fluides sont visqueux (avec cet avantage que la viscosité maintient leur cohésion). Lorsque, dans le fluide, les efforts dus à cette viscosité deviennent faibles (relativement aux efforts dus à l'inertie), c.-à-d. aux nombres de Reynolds relativement élevés (cas des véhicules courants), il se produit souvent un décollement de l'écoulement ou plus exactement un décollement de la couche limite. Ce décollement résulte en un tourbillon aval (ou "de culot") en nette dépression qui crée une forte traînée (dite "de culot"). Avec un corps non profilé symétrique, comme un cylindre, ce décollement produit deux tourbillons symétriques. Une faible augmentation de la vitesse privilégie l'un des deux et, lorsque son diamètre devient de l'ordre du diamètre du cylindre, il se détache pour être remplacé par un tourbillon situé de l'autre côté, ce qui donne naissance à une allée de tourbillons de Karman. Un plus forte augmentation du nombre de Reynolds transforme le sillage tourbillonnaire organisé en un sillage désorganisé. Dans les deux cas les vitesses des particules fluides sont augmentées à l'aval du corps, ce qui entraîne une chute de la pression donc une augmentation de la traînée. Cette traînée (dite "de forme") correspond donc moins aux surpressions sur l'amont qu'à la dépression sur l'aval (dépression liée au décollement) (cette prépondérance de la traînée de culot, et donc le peu d'importance de la traînée de l'avant corps, se constate sur la plupart des berlines actuelles).À la surface d'un corps profilé se forme une couche mince où agissent les efforts dus à la viscosité du fluide. Cette couche mince est appelée couche limite. Cette couche limite s'épaissit peu à peu de l'amont vers l'aval du corps et est entourée par une zone d'écoulement sain où la viscosité du fluide est négligeable (et ou l'équation de Bernoulli est donc valide). Un corps profilé a une traînée faible. Si l'on pousse au maximum son profilage, on aboutit aux corps de moindre traînée (cas du plus grand corps -en bleu- de l'image ci-contre). Une aile d'avion est à la fois profilée et mince, cette dernière caractéristique la rapprochant d'une plaque. La traînée de forme d'une aile est négligeable aux incidences pas trop élevées (tant que l'écoulement reste attaché) ; c'est en effet sa traînée de friction (proportionnelle à la surface de ses parois) qui est prépondérante. Il existe néanmoins une incidence au-delà de laquelle se forme un tourbillon sur l'extrados, ce qui entraîne un décollement local avec une augmentation significative de la traînée et une diminution de la portance. Ce décollement progresse vers l'amont (le bord d'attaque du corps) quand l'incidence augmente et peut conduire au décrochage.Une aile d'envergure finie crée une traînée induite par la portance via des tourbillons en bout d'aile. Ceux-ci sont liés à l'égalisation des pressions venant de l'intrados et de l'extrados.Dans les ondes de choc, la vitesse de l'écoulement chute brutalement de telle sorte que sa composante normale au choc passe du supersonique au subsonique, ce qui se traduit par un nouveau type de traînée correspondant à une consommation supplémentaire d'énergie. Dans la phase transsonique, l'onde de choc située sur l'extrados est à l'origine d'un phénomène analogue au décollement qui, outre l'augmentation de la traînée, cause une instabilité. Dans la phase supersonique, ce phénomène disparaît mais il est remplacé, pour un profil d'aile classique à bord d'attaque arrondi, par un nouveau terme de traînée lié à une onde de choc détachée.
En mécanique des fluides, la traînée est la force qui s'oppose au mouvement d'un corps dans un liquide ou un gaz et agit comme un frottement. Mathématiquement, c'est la composante des efforts exercés sur le corps, dans le sens opposé à la vitesse relative du corps par rapport au fluide.
xwikis
La série débute après l'attentat perpétré contre un agent du KGB, une fusillade éclate entre la police et le criminel. Un des policiers, Michael, est tué mais son chien Rex est sauf. Rex déprime sans son maître et refuse de s'alimenter au chenil, il s'échappe pour aller sur la tombe de Michael. Un certain Richard Moser, nouveau à la brigade criminelle, qui enquête sur l'affaire le rencontre et décide de le garder... Au fil des épisodes, "Rex" met en scène une unité de brigade criminelle à Vienne puis Rome et notamment le duo infaillible d'un commissaire et de son berger allemand, Rex. Il y a eu différents commissaires, maîtres de Rex sur 18 saisons (1994-2015) : Richard Moser (saisons 1 à 4, 1994-1997), Alexander Brandtner (saisons 4 à 7, 1997-2001), Mark Hoffmann (saisons 8 à 10, 2002-2004), Lorenzo Fabbri (saisons 11 à 14, 2008-2011), Davide Rivera (saisons 14 à 15, 2012-2013) et Marco Terzani (saisons 16 à 18, 2013-2015). En 2019, un remake de Rex Chien Flic fait son apparition au Canada sous le titre de Hudson & Rex. Nous suivons les enquêtes du Détective Charlie Hudson qui a récupéré Rex après la mort de son dernier maître. Diffusée pour la première fois à Citytv le 25 mars 2019, une saison 2 est programmée pour 2019/2020. Le tournage, commencé en octobre 2018 se déroule à Saint-Jean de Terre-Neuve.Les différents chiens ayant interprété le rôle de Rex Adaptation française : Anne EyriacGertraud Jesserer est madame Fuchs dans la morte de Schönbrunn... Nina Franoszek...Nounours mortels ainsi que Mort d'un élevé...Doublage français réalisé par Mediadub International Apparition brève de Laurent Maurel.
' ou'au Québec (' puis ') est une série télévisée germano-autrichienne puis italienne, en 211 épisodes de 45 minutes, créée par Peter Hajek et Peter Moser et diffusée en Autriche du au sur la chaîne ORF, et diffusée en Allemagne sur le réseau Sat.1. Une seconde série de 92 épisodes est produite et diffusée en Italie du au sur la chaîne Rai 2 et diffusée en France à partir du sur France 2.
xwikis
La première mention connue du mot proviendrait d'une stèle assyrienne qui distingue les rivages de la mer Égée par deux mots phéniciens : "Ereb", le, et "Assou", le. L'origine des noms grecs "Eurôpê" () et "Asia" () se trouve vraisemblablement dans ces deux termes sémitiques. qui signifie « monter », « croître » en parlant du Soleil. Le terme pourrait également dériver d'Assuwa, un État confédéré situé dans l'Ouest de l'Anatolie et dont le nom proviendrait du hittite "assu" qui signifie. Par la suite, les Ioniens auraient désigné "asia" comme étant la région basse et humide, située autour des vallées du Caystre, de l’Hermos et du Méandre. Leurs expansions géographiques auraient fini par qualifier ainsi toute l'Asie Mineure (Anatolie) ou, par opposition au monde grec ou égyptien, l'empire Perse. Même si l’adjectif "asios" apparaît une seule fois vers -800 chez Homère pour désigner la. Dans l"Iliade", Homère parle aussi d’un Troyen, un certain "Asios", fils d'Hyrtacus. Vers -440, le Grec Hérodote découpe le monde en trois parties qu'il nomme en l'honneur de trois personnages de la mythologie grecque : l'Europe en l'honneur de l'Océanide Europe ou de la fille d'Agénor, Europe, la Libye en l'honneur de Libye et l'Asie ("Ασία") en l'honneur de l'Océanide Asie, plus communément appelée Clymène.L'Asie est le plus grand des sept continents ; il peut aussi être considéré comme un sous-continent de l'Eurasie. Sa superficie est de. Il possède plusieurs records géographiques mondiaux : l'altitude maximale (Everest dans l'Himalaya avec ), l'altitude minimale (mer Morte avec ) et la terre émergée la plus éloignée de tout océan (située à de la côte la plus proche, coordonnées ), ainsi que le lac le plus profond (lac Baïkal), qui représente près de 20 % des réserves d'eau douce de la planète.On distingue quatre grands domaines.Il y fait toujours chaud. L’été, les moussons venues de l’océan Indien apportent des pluies abondantes qui causent de nombreuses inondations mais qui sont essentielles aux cultures. Le climat et le relief des plaines et des plateaux sont favorables à la culture du riz, une plante qui a besoin de chaleur et qui pousse dans l’eau. Presque tout l’espace en est cultivé.Le climat est froid en raison de l'altitude ; comme cette région est à l’abri des vents marins, les précipitations sont rares. L’été, le sol est couvert par une maigre prairie naturelle.Le climat est continental avec des hivers très rigoureux et devient polaire près de l’Arctique. Le centre de cette partie de l’Asie est occupé par une grande forêt, la taïga, qui laisse place près de l’océan Arctique à une végétation de mousses et d’arbustes, la toundra.Cette région est marquée par l’aridité. Le milieu est désertique avec de vastes étendues de sable ou de pierres. Un climat tempéré méditerranéen occupe une étroite bordure à l’ouest du continent.Ce chiffre inclut la partie européenne de la Russie.Beaucoup de géographes ne considèrent pas l'Asie comme un continent séparé de l'Europe, car il n'y a pas de séparation physique entre les deux. L'Asie constitue l'est et le nord de l'Afro-Eurasie ou encore l'est de l'Eurasie. Elle est délimitée au nord par l'océan Arctique, à l'est par l'océan Pacifique, au sud par l'océan Indien, au sud-ouest par l'océan Indien (mer Rouge) et à l'ouest par l'océan Atlantique (mer Méditerranée et mer Noire), le Caucase, la mer Caspienne, le fleuve Oural et les monts Oural. L'Asie est séparée du continent américain par le détroit de Béring, de l'Océanie par différents mers et détroits et de l'Afrique par l'isthme de Suez. En revanche, la séparation avec le continent européen est nettement plus arbitraire dans la mesure où l'Europe et l'Asie forment une seule masse continentale clairement continue. Les critères qui définissent l'Europe comme un continent distinct de l'Asie pourraient s'appliquer à d'autres portions de l'Eurasie : Proche et Moyen-Orient, sous-continent Indien, Indochine, etc.Au, le tsar Pierre désire faire de la Russie une puissance européenne. Son géographe Tatitchev propose alors en 1703 que les monts Oural, le fleuve Oural et le Caucase constituent la frontière entre Europe et Asie en lieu et place du Don qui incluait alors la Russie dans l'Asie. Avec l'extension récente de l'Union européenne aux portes de l'Asie tant dans les Balkans qu'en Europe de l'Est se pose une nouvelle fois le problème du tracé exact de la limite entre Europe et Asie., par commodité, voudraient repousser la limite au-delà du Caucase afin d'inclure notamment l'Arménie en Europe. D'autres, à l'inverse, voudraient voir cette frontière fixée à la dépression de Manytch située au nord du Caucase dans le but d'inclure les peuples turcs du Caucase dans l'Asie.En 1831, l'explorateur et géographe Jules Dumont d'Urville découpe l'Océanie en quatre régions : la Polynésie, la Micronésie, la Mélanésie et l'Insulinde (alors appelée Malaisie). Cette dernière partie sera ensuite rattachée à l'Asie ce qui explique la frontière actuelle entre Asie et Océanie : l'ensemble des îles indonésiennes sont asiatiques à l'exception de la Nouvelle-Guinée et des îles toutes proches. Mais le caractère arbitraire de cette limite amène les géographes à repenser cette frontière. Certains pensent qu'il serait plus approprié d'utiliser la ligne Wallace, d'autres voudraient inclure entièrement l'Indonésie en Asie en excluant le Timor oriental.La frontière entre l'Asie et l'Afrique est généralement fixée à l'isthme de Suez ce qui exclut le Sinaï de l'Afrique. L'Égypte se retrouvant à cheval sur deux continents, proposent de déplacer la limite entre ces deux continents à la frontière israélo-égyptienne.Par commodité, la frontière entre ces deux continents est fixée à la frontière russo-américaine, aux alentours du détroit de Béring. Les îles Komandorski sont donc asiatiques tandis que le reste des îles Aléoutiennes sont américaines.Pendant six siècles, le développement du continent s'était construit autour de sa façade maritime. L'Union soviétique fermée, la Chine aussi, l'Inde repliée sur elle-même... l'essor de l'Asie s'était effectuée au travers de ses ports et de ses détroits, vers l'extérieur, Corée du Sud, Taïwan, Hong Kong, Singapour... La géographie économique et politique de l'Asie qui a émergé au est une géographie côtière. Le bras de fer militaire pour le contrôle de l'océan Indien est là pour en témoigner. Tout cela reste vrai, mais, en parallèle, une autre Asie émerge. Intérieure, continentale, terrestre. Des routes sont tracées, des voies ferrées posées, des pipelines et des villes forment peu à peu une infrastructure si importante que deux experts australiens, Anthony Bubalo et Malcolm Cook, y voient la naissance d'une nouvelle Asie, posée sur un axe est-ouest et qu'ils baptisent l'Asie « horizontale », en référence à l'Asie « verticale », construite le long des côtes. La liste des récents réseaux terrestres qu'ils dressent est impressionnante. Un oléoduc de kilomètres entre Turkménistan et Chine. Un autre, en projet, entre l'Inde et l'Iran. Des milliers de kilomètres de tuyaux pour acheminer le pétrole russe vers la Chine. Des routes reliant la Birmanie à ce grand voisin. Des voies ferrées à grande vitesse vers le sud (Singapour) et vers l'ouest. Le rêve officiel chinois étant carrément de relier Shanghai à Londres en deux jours en 2025. Tout n'ira pas aussi vite que proclamé. Les Chinois ne pourront pas, conjoncture économique oblige, financer tous les travaux.L'Asie connut la domination au cours des siècles de diverses puissances telles que :Diverses puissances coloniales se sont partagé l'Asie : la France avec la domination du Cambodge, du Laos et du Viêt Nam puis de la Syrie et du Liban (après la chute de l'Empire ottoman), le Royaume-Uni avec la domination du sous-continent indien sauf l'Afghanistan, de la Palestine, de l'Irak, du Yémen, d'Oman (après la chute de l'Empire ottoman), ainsi que de l'Inde, Bangladesh, Pakistan, Sri Lanka, la Birmanie (Myanmar) et de la Malaisie, les Pays-Bas avec l'Indonésie, les États-Unis avec la colonisation des Philippines, qui furent une colonie espagnole jusqu'en 1898, et l'administration du Japon, et le Portugal avec son Royaume-Uni de Portugal, du Brésil et des Algarves, dont l'Inde faisait partie.Les colonies asiatiques ont été les premières à connaître l'indépendance grâce à des leaders tels que Jawaharlal Nehru et Mohandas Gandhi en Inde, Ho Chi Minh au Viêt Nam ou encore Sukarno et Hatta en Indonésie qui autoproclamèrent leurs pays respectifs indépendants en 1945, prenant les Empires coloniaux au dépourvu au sortir de la Seconde Guerre mondiale. Les Américains comprenant la situation (et pour éviter d'éventuelles tensions comme les Pays-Bas avec l'Indonésie ou encore la France avec ses colonies indochinoises), ils décidèrent de donner l'indépendance aux Philippines en 1946, qui fut le premier pays officiellement indépendant d'Asie. Le Royaume-Uni suivra en 1947 en déclarant l'indépendance du Pakistan et de l'Inde (bien que les comptoirs portugais et français ne doivent pas être pas indépendants avant les années 1950 et 1960). Il s'ensuivit des tensions ethno-religieuses entre les deux pays. Le Royaume-Uni rendit également Ceylan et la Birmanie (1948) puis la Malaisie (1957), Singapour (1965), le Brunei (1984) et enfin Hong Kong (1997). Les Pays-Bas abandonnèrent l'Indonésie en 1949 à la suite d'une guérilla condamnée par l'ONU et qui se prolongera en conflit ethnique post-colonial. Quant à la France et au Portugal, ce n'est que tardivement qu'elles laissèrent leurs colonies. Pour la France, après une guerre contre l'Indochine qui l'épuise, elle donne l'indépendance au Laos, au Cambodge et au Viêt Nam en 1954 (ce dernier se divise en deux parties, Viêt Nam du Sud et Viêt Nam du Nord, ce qui les plongent dans une guerre pour récupérer la Cochinchine). Le Portugal, quant à lui, rendra son dernier comptoir qu'est Macao en 1999. L'Asie contemporaine a été marquée par la création d'un État sioniste, Israël, en 1948 et cela entraînera des conflits d'ordre ethnico-religieux à plusieurs reprises. Les, c'est-à-dire les États-Unis et l'URSS, tentent de rallier à eux le continent, ce qui entraîne des tensions notamment en Corée (de 1950 à 1953) ; dans les années 1950 des révolutions éclatent au Moyen-Orient, comme en Syrie et en Irak puis, dans les années 1960, en Asie du Sud-Est comme la guerre du Viêt Nam (1967 à 1973), au Cambodge et au Laos ; l'Afghanistan sera envahi par l'URSS en 1979. La Chine deviendra un pays communiste en 1949 et s'ensuit la révolution culturelle en 1966.L'Asie compte d'habitants en 2014, soit plus de la moitié de la population mondiale (environ 60 %). Environ deux milliards d'entre eux ont moins de vingt ans. La population est toutefois très inégalement répartie : aux déserts humains de l'ouest et du nord de l'Asie s'opposent les grands foyers de peuplement de l'Asie du Sud et de l'Est. La population asiatique croît au même rythme que la population mondiale. Certains pays mènent des politiques pour limiter les naissances, comme la Chine avec sa politique du mariage tardif et de l'enfant unique (toutefois abandonnée en 2015), ou l'Inde avec le versement d'allocations valorisées aux familles les moins nombreuses. La fécondité varie selon les différentes régions d'Asie. Les pays d'Asie de l'Est ont un taux de fécondité très faible : par femme en Chine, 1,4 au Japon, 1,2 en Corée du Sud et 1,1 à Taïwan. En revanche, les pays d'Asie de l'Ouest, d'Asie centrale et d'Asie du Sud ont un taux de fécondité plus élevé : par femme en Afghanistan, 4,4 au Yémen, 3,6 au Pakistan ou encore 3,1 en Israël.Les langues les plus parlées en Asie sont le mandarin, avec environ 1 milliard de locuteurs et l'hindi.L'Asie compte plusieurs religions majeures et pour la plupart originaires d'Asie et dispersées sur tout le continent : animisme, bouddhisme, christianisme, confucianisme, hindouisme, sikhisme, jaïnisme, islam, judaïsme, shintoïsme, taoïsme, zoroastrisme, bahaïsme et le yézidisme.Le continent est très riche en ressources naturelles, telles que le pétrole, les forêts, les poissons, l'eau, le gaz naturel, le cuivre et l'argent. L'Asie est le deuxième continent le plus riche du monde par PIB nominal après l'Europe et le premier en PPA. Les plus grandes économies d'Asie sont la Chine, le Japon, l'Inde, la Corée du Sud et l'Indonésie. L'Asie abrite également six des vingt plus grandes puissances économiques mondiales (huit si l'on compte la Russie et la Turquie) : la Chine, le Japon, l'Inde, la Corée du Sud, l'Indonésie et l'Arabie saoudite.L'industrie en Asie a toujours été plus importante dans l'Est, le Sud, et le Sud-est de l'Asie, en particulier en Chine, à Taïwan, en Corée du Sud, au Japon, en Inde et à Singapour. Le Japon et la Corée du Sud continuent à dominer dans le domaine des firmes multinationales. L'Asie émergente attire de nombreuses délocalisations grâce à une main-d'œuvre bon marché et peu exigeante sur les conditions de travail, sur les heures et les salaires. Par exemple, il y a très peu de lois sociales en Chine.L'Asie a plusieurs grands centres financiers : Hong Kong, Singapour, Tokyo, Shanghai et Mumbai. Dubaï connaît une croissance rapide en tant que centre financier pour l'Asie occidentale. Le nombre d'emplois dans les centres d'appel et les Business Process Outsourcing (BPOs) est très important en Inde, au Pakistan et aux Philippines en raison de la disponibilité d'un vaste nombre de personnes hautement qualifiées, de travailleurs anglophones. L'utilisation accrue de l'externalisation a aidé l'ascension de l'Inde et de la République populaire de Chine en tant que centres financiers. Grâce à sa grande industrie extrêmement compétitive des technologies et de l'information, l'Inde est devenue une importante plaque tournante pour l'externalisation.
L'Asie est l'un des continents ou une partie des supercontinents Eurasie ou Afro-Eurasie de la Terre. Avec de terres et 4,3 milliards d'habitants, l'Asie est le plus grand continent (8,6 % de la surface totale terrestre ou 29,4 % des terres émergées) et le plus peuplé (environ 60 % de la population mondiale). L'Asie est davantage un concept culturel qu'une entité physique homogène.
xwikis
D'après le BIPM :Le poids d'un corps (de masse "m") est la force de pesanteur exercée sur lui et qui s'oppose à la force résultante de celles qui le maintiennent à l'équilibre dans le référentiel terrestre (c’est-à-dire, lié à l'objet solide Terre en rotation). Cette définition fait que sa détermination expérimentale est aisée, par exemple à l'aide d'un fil à plomb maintenu à l'équilibre : le poids est défini comme l'opposé de la tension du fil et sa direction est celle du fil. La direction du fil définit la verticale. D'une manière générale, le poids est la somme de l'attraction universelle des autres masses et de la force d'inertie d'entraînement due au fait que le référentiel terrestre n'est pas un référentiel galiléen. Quel que soit le corps, le rapport du poids (formula_1) à sa masse ("m") est identique et noté formula_2 : Sur Terre, cette accélération est d'environ. Les écarts (toujours locaux) entre le champ de pesanteur théorique et le champ mesuré sont appelés des anomalies de pesanteurs. Le poids "P" s'exprime en newtons (N) et la masse "m" étant en kilogrammes (kg). Ainsi, une masse de () a un poids d'environ, une masse de a un poids d'environ, une masse de a un poids d'environ. C'est la raison pour laquelle, dans les domaines techniques, on travaille souvent en décanewtons (daN) : un objet de a un poids d'environ ; auparavant, on utilisait le kilogramme-force (kgf), unité désuète. La notion de poids n'est pas uniquement terrestre et peut être étendue aux autres planètes. Par ailleurs, la rotation de la Terre provoque une force centrifuge qui contribue également au poids. Le poids est une force, son intensité s'exprime donc en newtons (N), ou éventuellement en décanewtons (daN) ou kilonewtons (kN). Dans le langage courant, on assimile le poids à la masse et on l'exprime de manière erronée en kilogrammes. Si le poids d'un corps dépend de sa position sur la Terre (ou si on le considère à la surface d'une planète plus ou moins grosse), sa masse n'en dépend pas.Dans le système international d'unités, la masse "m" s'exprime en kilogrammes (symbole kg) alors que le poids qui est une force s'exprime en newtons (symbole N), et l'accélération "g" est indifféremment exprimée en ou en. La non-distinction entre masse et poids dure jusqu'au, et perdure dans le langage courant. Par exemple : « la masse corporelle d'une personne » est usuellement appelée son « poids ». Il en résulte une difficulté pédagogique, au moment où cette distinction est enseignée. L'adoption du Système international (S.I.) a permis grâce à la suppression de l'unité kilogramme-poids de résoudre partiellement cette difficulté, mais on utilise fréquemment le décanewton (daN) pour retrouver approximativement cette équivalence masse-poids sur Terre. L'accélération de pesanteur g est l'objet d'étude de la gravimétrie. Elle n'est pas constante à la surface de la Terre, variant entre autres, avec l'altitude mais aussi la latitude en diminuant du pôle () à l'équateur (), en raison de l'aplatissement de la Terre aux pôles et de la force centrifuge perçue dans le référentiel terrestre due à la rotation de la Terre autour de son axe. En France, on prend conventionnellement la valeur de "g" à Paris, soit environ :Sachant que le rayon moyen de la Terre est égal à et sa masse à, on peut déterminer une valeur approchée de l'accélération de la pesanteur formula_6 qui s'exerce sur un objet quelconque de masse à la surface de la Terre en ne tenant compte que de l'attraction gravitationnelle de la Terre et en négligeant la force d'inertie d'entraînement : On rappelle que est la constante universelle de gravitation. La valeur de l'accélération de la pesanteur dépendant du rayon, elle connaît à la surface de la Terre des variations qui peuvent atteindre 0,5 % et qui sont très souvent négligées.Le poids apparent d'un objet est différent du poids de cet objet chaque fois que la force de gravité agissant sur l'objet n'est pas équilibrée par une force normale égale mais opposée; situation que l'on retrouve: Le poids apparent d'un objet correspond au poids indiqué par un peson (dynamomètre) (ou tout autre instrument approprié à la mesure d'une force), quand ce poids n'est pas identique au poids « réel » de l'objet, défini comme la force due à la pesanteur terrestre.Par exemple, si l'on pesait un objet sous l'eau, la poussée d'Archimède ferait paraître l'objet plus léger et le poids mesuré serait inférieur au poids réel. Évidemment, dans la vie quotidienne, quand on pèse un objet, la poussée d'Archimède exercée par l'air ambiant est à toutes fins utiles négligeable.Pesons un objet en le suspendant à un dynamomètre. Il sera effectivement soumis à deux forces : son poids, orienté vers le bas, et la force exercée par le dynamomètre, orientée vers le haut. Quand l'objet n'accélère pas, les deux forces ont la même grandeur et le dynamomètre indique le poids réel de l'objet. Toutefois, si l'on effectue la mesure dans un ascenseur pendant que celui-ci se met en mouvement vers le haut, la force exercée par le dynamomètre sera supérieure au poids (du moins aux yeux d'un observateur immobile situé à l'extérieur de l'ascenseur), conformément à la deuxième loi du mouvement de Newton : où "F" est la force exercée par le dynamomètre, "P" le poids de l'objet et "a" l'accélération de l'ascenseur (et du dynamomètre). Étant donné que le poids indiqué par le dynamomètre correspond à l'intensité "F" de la force qu'exerce sur lui l'objet à peser (cette force étant la réaction à la force que le dynamomètre exerce sur l'objet), ce poids « apparent » est supérieur au poids réel ("F" > "P", car "a" > 0). Pour un observateur situé dans l'ascenseur, l'objet à peser apparaît évidemment immobile. En ce cas, pour expliquer que la force exercée par le dynamomètre est supérieure au poids réel de l'objet, on doit faire intervenir une force d'inertie orientée vers le bas. Le poids normal d'une personne de soumise à l'accélération de la pesanteur "g" = est égal à "mg", vaut () () =. Dans un ascenseur qui décélère à, la personne est soumise à deux forces : d'une part son poids réel "P", orienté vers le bas, et d'autre part la réaction "N", orientée vers le haut, exercée sur elle par le plancher de l'ascenseur (ou le pèse-personne sur lequel elle se tient). Quand l'ascenseur freine, son accélération est orientée dans le sens opposé à la vitesse, c'est-à-dire en l'occurrence vers le bas. En orientant l'axe de référence vers le haut, on écrira donc, conformément à la deuxième loi de Newton : On obtient un poids apparent de, inférieur au poids réel.L'état d'impesanteur expérimenté par les spationautes est dû à la chute libre de leur habitacle spatial, en orbite autour de la Terre. En orbite, la force d'inertie ressentie par les astronautes annule leur poids apparent, bien que leur poids réel, à d'altitude, ne soit qu'environ 11 % plus faible que sur Terre.La descente de poids permet d'actionner un mécanisme tel qu'un automate ou une horloge. Ce type de dispositif a été remplacé par un ressort moteur, mais est toujours utilisé pour produire de l'électricité, comme dans le cas des barrages hydroélectriques.La masse d'un objet est la quantité de matière dans celui-ci tandis que le poids est la force d'attraction qui agit sur l'objet. Comme le référentiel usuel est l'attraction terrestre (plus ou moins au niveau de la mer), par abus de langage, le mot « poids » est couramment utilisé comme synonyme de la masse (exemple : "Son poids est de " est faux, la bonne « formule » serait "Sa masse est de " ou "son poids est de 680 newtons sur Terre (approx.)").Le "poids", en mathématiques, est aussi la valeur que l'on attribue à un symbole en fonction de sa place dans un nombre. Le "poids" est aussi le coefficient ou pondération affecté à un point dans un barycentre (en référence à la physique où le barycentre fait appel aux masses)En informatique, le terme "poids" et ses qualificatifs associés sont couramment employés pour désigner la taille d'un fichier (« poids d'un fichier », « fichier lourd », « fichier léger »), et la consommation des ressources d'un processus (« processus léger »).
Le poids est la force de la pesanteur, d'origine gravitationnelle et inertielle, exercée, par exemple, par la Terre sur un corps massique en raison uniquement du voisinage de la Terre. Son unité dans le Système international est le newton. Il est égal à l'opposé de la résultante des autres forces appliquées au centre de gravité du corps lorsque celui-ci est immobile dans le référentiel terrestre. Cette force est la résultante des efforts dus à la gravité et à la force d'inertie d'entraînement due à la rotation de la Terre sur elle-même. Elle s'applique au centre de gravité du corps et sa direction définit la verticale qui passe approximativement par le centre de la Terre. Le poids est une action à distance toujours proportionnelle à la masse.
xwikis
En boulonnerie, le terme vis correspond à un filetage complet alors que le terme correct est « corps de boulon » lorsque la partie filetée est partielle. Pour exemple un boulon tête hexagonale correspond à la norme ISO 4014 si le filetage est partiel et à la norme 4017 si le filetage est complet (sous tête). Un boulon crée une liaison « complète, rigide et démontable », entre les pièces qu'il traverse et presse l'une contre l'autre. En fait, les boulons (et les vis à métaux) agissent comme des ressorts très raides dont l'élasticité permet de maintenir le serrage des pièces malgré l'influence de facteurs extérieurs tels que des actions mécaniques, des vibrations ou encore des élévations de température. Une ou plusieurs rondelles placées de part et d'autre des pièces permettent de mieux répartir l'effort de compression, de reprendre le matage éventuel des surfaces et/ou de protéger le substrat de déformations non désirées. Un écrou supplémentaire (« contre-écrou ») peut venir freiner l'assemblage et éviter qu'il se desserre. Le nom de boulon intègre par extension ces équipements complémentaires. Le boulon constitue un dispositif d'assemblage précontraint. En effet, la traction mécanique maintenue dans la tige provoque un frottement qui empêche la rotation de la tête de la vis et celle de l'écrou par rapport à la pièce fixée. Dès lors que cette traction disparaît (aplatissement de la surface de contact en ± 15 min, fluage en ± 10 ans), l'assemblage périt. Divers dispositifs permettent d'éviter le desserrage de l'écrou, par arrêt mécanique (rondelles à rabattre, perçage et passage de « fil à freiner » en aviation et en compétition moto, goupillage, écrous à créneaux), ou par effet du serrage notamment les rondelles freins fendues et élastiques (« Grower » ou « W »), ondulées, crantées (« éventail » ou « AZ »), par freinage de l'écrou lui-même (écrous Nylstop, à collerette) ; la tendance moderne étant au collage par des adhésifs anaérobies, démontables par chauffage ou force brute. Exemple de désignation : boulon CHc M8x1-50, 8,8 Zn.Le revêtement et la matière du boulon jouent un rôle très important du fait des couples électrochimiques entrant en jeu.La tête de la vis est une section de cylindre creux, soudée perpendiculairement à l'axe général de la vis, et l'écrou est souvent un écrou moleté. Ce boulon s'utilise généralement pour des montages-démontages rapides et à la main, la tête de vis étant simplement engagée sur une tige.
Un boulon est un organe d'assemblage constitué d'une vis à filetage uniforme et extrémité plate (ou tige filetée), et d'un écrou (et éventuellement d'une rondelle). Dans le langage commun, le mot « boulon » est souvent employé à tort pour désigner un écrou seul ou une vis seule.
xwikis
Le nom de cette constante est souvent source de confusions. Il est important de comprendre que la vitesse de la lumière n'est pas une constante physique "en soi" : elle coïncide avec la constante physique " à condition que les photons aient une masse identiquement nulle et que la propagation s'effectue dans le vide absolu. Par ailleurs, il est nécessaire de définir soigneusement la vitesse dont on parle. En effet, lorsqu'une impulsion lumineuse est émise, la description de sa propagation peut faire intervenir différentes notions comme la vitesse de phase (vitesse de propagation d'une composante spectrale monochromatique), la vitesse de groupe (vitesse de propagation du maximum de l'impulsion lumineuse, parfois abusivement considérée comme la vitesse de propagation de l'information), la vitesse du front d'onde (vitesse du point initial de l'onde), etc. En réalité, elle n'a pas toujours un sens physique simple ; elle peut être supérieure à " ou même négative ; la vitesse de transport de l'énergie n'est pas directement mesurable et pose également des problèmes de sens physique simple. D'après Sylvan C. Bloch, au moins huit vitesses différentes peuvent être utilisées pour caractériser la propagation de la lumière, à savoir : les vitesses (1) de phase, (2) de groupe, (3) d'énergie, (4) de signal, (5) la constante de vitesse relativiste, (6) la vitesse de rapport d'unités, (7) la centrovitesse et (8) la vitesse de corrélation. Dans le vide, toutes ces vitesses sont égales à la constante ", mais dans un autre milieu, seule la vitesse du front d'onde conserve cette valeur. En toute rigueur, la question de la constance de la vitesse de la lumière dans le vide, telle qu’observée par quanta d’énergie transportés par les photons, ne peut être totalement tranchée puisqu'il est théoriquement possible que les photons aient une masse non nulle : les mesures ne peuvent que plafonner cette masse hypothétique et non prouver qu'elle est rigoureusement nulle. Toutefois, même s'il était avéré que les photons ont une masse, cela ne remettrait pas en cause le principe de la constante ", mais donnerait plutôt une limite de précision de son observabilité dans les modèles de référence ; on conserverait avec "c" une limite absolue de vitesse que les photons observés ne pourraient pas eux-mêmes atteindre dans le vide.La vitesse de la lumière est couramment notée, initiale de "constante" et de "célérité". Sa vitesse est couramment notée, initiale de "vitesse". Le symbole a été utilisé pour la vitesse de la lumière par James Clerk Maxwell en 1865. En 1856, Wilhelm Eduard Weber et Rudolf Kohlrausch utilisèrent pour noter une autre constante égale à la vitesse de la lumière dans le vide multipliée par la racine carrée de deux. En 1894, Paul Drude redéfinit comme le symbole pour la vitesse des ondes électromagnétiques. En 1905, Albert Einstein utilise dans ses publications sur la relativité restreinte. Mais, en 1907, il opte pour. La vitesse de la lumière est parfois notée. Sa vitesse est alors notée, conformément à la recommandation du Bureau international des poids et mesures. L'indice indiquant que le milieu est le vide, comme dans les notations usuelles de la perméabilité magnétique du vide, de la permittivité diélectrique du vide (on a ) et de l'impédance caractéristique du vide.En analyse dimensionnelle, la vitesse de la lumière, dans le vide ou dans un milieu, a la dimension d'une vitesse. Son équation aux dimensions est : Dans le Système international d'unités, elle s'exprime en mètres par seconde ().Depuis 1983, la vitesse de la lumière est exacte,. Celui-ci étant défini comme, la vitesse de la lumière est ainsi : On peut se souvenir de la valeur de "" en remplaçant chaque mot de la phrase suivante par le nombre de lettres qui le composent :, soit. En unités géométriques et en unités de Planck, la vitesse de la lumière est, par définition, réduite à un :.L'histoire des mesures de la vitesse de la lumière ne compte pas moins de douze méthodes pour déterminer la valeur de "c". Après les spéculations d’Empédocle, d’Alhazen ou de Roger Bacon, et les tentatives malheureuses de Galilée avec des aides démasquant des lanternes, la première estimation expérimentale est due à l’astronome danois Ole Christensen Rømer : en étudiant le cycle des éclipses de Io, satellite de Jupiter, il trouve que quarante révolutions observées lors d’une quadrature de Jupiter avec la Terre sont décalées dans le temps par rapport à quarante autres observées lorsque les deux planètes sont au plus proche. Il en déduit que quand Jupiter et la Terre sont en positions opposées par rapport au soleil, la lumière de Jupiter met de plus pour nous parvenir que lorsque les deux planètes sont au plus proche, ce retard correspondant au temps supplémentaire de parcours par la lumière du diamètre de l’orbite terrestre. En, il prédit ainsi pour une émersion de Io, un retard de (observé le ) par rapport à la table établie par Cassini. La lumière mettait ainsi pour parcourir le rayon de l’orbite terrestre, mais ce rayon était mal connu, les mesures étant dispersées entre de kilomètres, valeurs toutes fausses. Ce travail est publié dans le "Journal des sçavans", la plus ancienne revue littéraire et scientifique. Rømer (qui trouva ensuite ), Cassini, Newton et bien d’autres améliorèrent la précision du temps de parcours, mais il fallut attendre que Delambre analyse un millier d’éclipses, réparties sur, pour trouver la valeur de (la valeur correcte est de ). L’étape suivante est due à James Bradley : en 1727, étudiant les variations de déclinaison de l’étoile Gamma du Dragon, il découvre le phénomène de l’aberration de la lumière, dû à la combinaison de la vitesse de la lumière avec celle de la Terre ; il en déduit que la vitesse de la lumière vaut celle de la Terre. Mais la vitesse de la Terre était mal connue, puisqu’elle dépend du rayon de son orbite. La première mesure, indépendante d’une autre mesure, est faite par Hippolyte Fizeau, en 1849. En opérant entre Suresnes et Montmartre avec un dispositif à roue dentée, il trouve (donc majorée avec une erreur de seulement 5 %), un résultat déjà impressionnant pour l’époque, tout autant que l'instrumentation construite par Gustave Froment, avec une roue comprenant usinées au centième de millimètre près. Un nouveau progrès est fait par Léon Foucault avec un dispositif à miroir tournant, qui lui permet d’opérer sans sortir du laboratoire. En 1850, il montre que la lumière se déplace moins vite dans l’eau, en accord avec la théorie des ondulations. À l'Observatoire de Paris, en, il trouve la valeur de. Les mesures (et les méthodes) vont alors se multiplier. Sans les citer toutes : Michelson imagina de faire l'expérience dans le vide. En 1930, il entreprit de faire construire près de Pasadena, un tube en acier d'un mile de long pour y faire une ultime expérience. Il mourut en 1931 sans en voir les résultats. Malgré des erreurs de mesures dues à des effets géologiques et des problèmes de construction du tube, les résultats finaux,, étaient en accord avec les mesures électro-optiques de l'époque. Après la Seconde Guerre mondiale, le géodimètre, la cavité résonnante, le radar, le radio-interféromètre, la spectrométrie de bande, et surtout le laser, vont permettre un bond dans la précision : Par cette dernière définition, la communauté scientifique entérine la définition de la vitesse de la lumière dans le vide absolu (un vide théorique car il est seulement approché et simulé dans les modèles expérimentaux actuels) comme une constante universelle, sur laquelle se fondent ensuite toutes les mesures d’espace et de temps. Elle comporte aussi l’avantage conséquent de ne plus se baser sur les raies spectrales d’éléments atomiques (auparavant une raie du krypton 86 depuis 1960, déjà difficile à purifier et isoler dans des états stables sur des échantillons suffisamment significatifs pour obtenir la précision souhaitée), ce qui élimine en même temps d’une part les sources d’imprécision ou d’incertitude relatives aux variétés isotopiques ou subatomiques (qui influent sur la largeur des raies spectrales encore actuellement mesurées) et d’autre part la nécessité de reproduire plus exactement des conditions de mesure basées sur un modèle expérimental (des conditions qui peuvent désormais évoluer indépendamment de cette définition et s’améliorer en précision à un coût moindre, en fonction des nouvelles découvertes), notamment à l'aide de mesure des fréquences (ou de façon équivalente) de longueurs d’onde de raies spectrales caractéristiques (qui restent à étudier pour mettre en pratique cette définition). Cependant, elle présuppose encore l’existence d’un modèle expérimental pour l’établissement de la définition de la seconde, dont dépend alors celle du mètre puisque la vitesse de la lumière dans le vide dont dépend aussi cette définition est maintenant établie comme une constante universelle. C’est tout de même une amélioration du système puisqu’un des deux éléments de variabilité a été éliminé, et aussi parce que c’est dans le domaine de la mesure du temps (ou des fréquences) que les progrès les plus importants ont été obtenus en termes de précision. Une définition similaire concernant l’unité de masse (ou de façon équivalente de celle d’énergie) pourrait aussi utiliser à terme la définition d’une constante universelle, quand le phénomène de gravitation sera mieux connu et maîtrisé pour mieux préciser la vitesse de la lumière dans un vide non idéal (puisque l’espace et le temps subissent l’influence considérable de la gravitation, ce qui influe sur la vitesse effectivement mesurée de la lumière dans le vide réel toujours observé).D’après les théories de la physique moderne, et notamment les équations de Maxwell, la lumière visible, et même le rayonnement électromagnétique en général, a une vitesse constante dans le vide ; c'est cette vitesse qu'on appelle "vitesse de la lumière dans le vide". C'est donc une constante physique fondamentale. Elle est notée "c" (du latin "celeritas", « vitesse »). Elle n’est pas seulement constante en tout lieu (et à tout âge) de l’Univers (principes cosmologiques faible et fort, respectivement) ; elle est également constante d’un repère inertiel à un autre (Principe de relativité). En d’autres termes, quel que soit le repère inertiel de référence d’un observateur ou la vitesse de l’objet émettant la lumière, tout observateur obtiendra la même mesure. La "vitesse de la lumière dans le vide" est notée "c" (valeur exacte recommandée depuis 1975, devenue exacte par définition depuis 1983) :Cette valeur est exacte par définition. En effet, depuis 1983, le mètre est défini à partir de la vitesse de la lumière dans le vide dans le Système international d'unités, comme étant la longueur du trajet parcouru dans le vide par la lumière pendant une durée de 1/ de seconde. Ce qui fait que le mètre est aujourd’hui défini par la seconde, via la vitesse fixée pour la lumière. On pourrait objecter que la constance de la vitesse de la lumière quelle que soit la direction, pilier de la physique, est vraie par construction, par le choix des définitions des unités du système international. Cette objection est fausse parce que le choix d’une définition du mètre basée sur la seconde et la lumière est en fait une conséquence de la confiance absolue des physiciens en la constance de la vitesse de la lumière dans le vide ; cette confiance était exprimée alors que la définition du mètre de 1960 reposait sur un phénomène radiatif indépendant de celui définissant la seconde. Cependant, il a été suggéré dans diverses théories que la vitesse de la lumière pourrait avoir varié au cours du temps. Aucune preuve concluante de tels changements n'a encore été mise en évidence, mais cela reste à ce jour un sujet de recherche.La différence de vitesse de propagation de la lumière dans des milieux différents est à l’origine du phénomène de réfraction. La vitesse dans un milieu donné par rapport à la vitesse dans le vide est égale à l'inverse de l’indice de réfraction (ce dernier dépendant par ailleurs de la longueur d’onde) : Cependant la vitesse de la lumière, sans autre précision, s’entend généralement pour la vitesse de la lumière dans le « vide ». Notons que si aucun objet dans quelque milieu que ce soit ne peut dépasser la vitesse de la lumière dans le vide, dépasser la vitesse de la lumière dans un même milieu est possible : par exemple dans l’eau, les neutrinos vont considérablement plus vite que la lumière (qui s’y trouve elle-même considérablement ralentie). Dans le cas de particules chargées, comme les électrons ou positons issus de la désintégration cela provoque l'équivalent du bang supersonique pour la lumière, c'est l’effet Tcherenkov qui « teinte » en bleu le fond des piscines contenant du matériel radioactif. Pour finir, dans un milieu dit biréfringent, la vitesse de la lumière dépend aussi de son plan de polarisation. Ce phénomène très particulier est utilisé dans de très nombreux domaines comme en microscopie ou pour les lunettes de soleil.La vitesse de la lumière dans le vide n’est pas une "vitesse limite" au sens conventionnel. Nous avons l’habitude d’additionner des vitesses, par exemple nous estimerons normal que deux voitures roulant à à l’heure en sens opposés se voient l’une et l’autre comme se rapprochant à une vitesse de + =. Et cette formule "approchée" est parfaitement légitime pour des vitesses de cet ordre ( ≈ ). Mais, lorsque l’une des vitesses est proche de celle de la lumière dans le vide, un tel calcul classique s’écarte trop des résultats observés ; en effet, dès la fin du, diverses expériences (notamment, celle de Michelson) et observations laissaient apparaître une vitesse de la lumière dans le vide identique dans "tous" les repères inertiels. Minkowski, Lorentz, Poincaré et Einstein introduisirent cette question dans la théorie galiléenne, et s’aperçurent de la nécessité de remplacer un principe implicite et inexact par un autre compatible avec les observations : Après mise en forme calculatoire, il se dégagea que la nouvelle formule de composition comportait un terme correctif en, de l’ordre de seulement à la vitesse du son. L’effet devient plus grand lorsque les vitesses dépassent, et de plus en plus visible à mesure que se rapproche de 1 : deux vaisseaux spatiaux voyageant l’un vers l’autre à la vitesse de (par rapport à un troisième observateur), ne percevront pas une vitesse d’approche (ou vitesse "relative") égale à, mais seulement (voir tableau ci-contre). Ce résultat est donné par la transformation de Lorentz : Ainsi, quelle que soit la vitesse à laquelle se déplace un objet par rapport à un autre, chacun mesurera la vitesse de l’impulsion lumineuse reçue comme ayant la même valeur : la vitesse de la lumière ; en revanche, la fréquence observée d’un rayonnement électromagnétique transmis entre deux objets en déplacement relatif (ainsi que les quantums d’énergie associée entre le rayonnement émis et le rayonnement perçu par l’objet cible) sera modifiée par effet Doppler-Fizeau. Albert Einstein unifia les travaux de ses trois collègues en une théorie de la relativité homogène, appliquant ces étranges conséquences à la mécanique classique. Les confirmations expérimentales de la théorie de la relativité furent au rendez-vous, à la précision des mesures de l’époque près. Dans le cadre de la théorie de la relativité, les particules sont classées en trois groupes : Les masses au repos combinées avec le facteur multiplicatif formula_4 donnent une énergie réelle pour chacun des groupes définis précédemment.Ce qu'interdit la relativité restreinte, c'est de violer la causalité : c'est donc l'information au sens causal du terme qui ne peut pas aller plus vite que "c". L'un des problèmes est d'arriver à définir cette notion d'information. En effet, il est par exemple possible qu'une impulsion lumineuse ait une vitesse de groupe supérieure à "c" sans que cela viole la causalité car le front d'onde se propage lui à la vitesse. Il a en fait été montré que l'information se propage toujours à la vitesse : les vitesses de la lumière "infra" ou supraluminiques peuvent transporter un signal, mais pas de l'information au sens causal. De manière générale, il est donc important de faire attention à la définition de la vitesse considérée. En plus de la vitesse de l'information (le concept d'information étant parfois difficile à définir), on peut ainsi considérer différentes vitesses qui peuvent prendre des valeurs inférieures ou supérieures à, voire des valeurs négatives : Le paradoxe EPR a également montré que la physique quantique donne des exemples pour lesquels les particules se comportent comme si elles pouvaient se coordonner, alors que les écarts dans l'espace et le temps réclameraient pour cela de dépasser "". Cependant, ce phénomène ne peut pas être utilisé pour transmettre de l'information. En, la collaboration de physiciens travaillant sur l'expérience OPERA annonce que le temps de vol mesuré des neutrinos produits au CERN est inférieur de à celui attendu pour des particules se déplaçant à la vitesse de la lumière. Le, les scientifiques de l'expérience OPERA annoncent que l'anomalie était en fait liée à une erreur de mesure due au branchement défectueux d’un câble de synchronisation optique des horloges atomiques, et que la vitesse mesurée des neutrinos était compatible avec celle de la lumière.
La vitesse de la lumière dans le vide, communément notée pour « célérité », est une constante physique universelle et un invariant relativiste (vitesse limite des théories relativistes), importante dans de nombreux domaines de la physique. Sa valeur exacte est (environ ou ). Selon la relativité restreinte, la vitesse de la lumière dans le vide est la vitesse maximale que peuvent atteindre toutes formes de matière ou d'information dans l'univers.
xwikis
Né dans le quartier de la Jolla à San Diego en Californie, Eldred Gregory Peck est le fils unique de Gregory Peck (pharmacien/chimiste d'origine anglo-arménienne du côté de son père et irlandaise du côté de sa mère, catholique) et de Bernice Ayres (originaire du Missouri, convertie au catholicisme). Sa grand-mère paternelle Catherine Ashe est liée au nationaliste irlandais, qui prend part à l'Insurrection de Pâques 1916 (année de naissance de Peck). Son grand-père paternel est lié au nationalisme arménien, mais a habité en Angleterre. Pendant son adolescence, Gregory Peck étudie la langue arménienne, pour être plus proche de ses origines. Malgré leur pratique stricte de la religion catholique, les parents de Gregory Peck divorcent alors qu'il n'a que cinq ans ; il est alors pris en charge par sa grand-mère. Eldred est ensuite envoyé à dix ans dans une école militaire catholique de Los Angeles, puis à la "San Diego High School". Une fois diplômé, il s'inscrit à la San Diego State University puis à l'Université de Californie à Berkeley. À partir de 1936, il commence à développer un intérêt pour la comédie et s'implique dans la section de théâtre de Berkeley. Il apparaît dans cinq pièces durant ses années d'études. À la même époque, il doit travailler pour pouvoir financer ses études. Pendant une courte période, il travaille comme conducteur de camion pour une entreprise pétrolière, puis comme aide-cuisinier. Gregory Peck dit plus tard de ses années à Berkeley : En remerciement à son coach Ky Ebright, Gregory Peck fait un don de dollars à sa section de Berkeley en 1997. Après avoir obtenu son diplôme en anglais, Peck enlève légalement le « Eldred » de son nom, et part à New York étudier à la Neighborhood Playhouse, une école de comédie réputée. Il manque alors souvent de moyens et dort quelquefois dans Central Park. Il travaille en 1939 à l'Exposition universelle puis comme guide pour la chaîne de télévision NBC.Gregory Peck fait ses débuts à Broadway dans la pièce d'Emlyn Williams "The Morning Star" (1942) puis dans "The Willow and I" avec Edward Pawley et "The Doctor's Dilemma". À cette même période, il épouse Greta Kukkonen Rice avec laquelle il a trois enfants. Il gagne en popularité durant la seconde guerre mondiale, bien qu'exempté de service militaire en raison de maux de dos. Ce problème de dos serait dû à un mauvais mouvement durant une leçon de danse avec Martha Graham, mais laTwentieth Century Fox préfère annoncer que ce problème de dos provient d'un accident d'aviron à l'université. Gregory Peck en dit plus tard :Gregory Peck arrive à Hollywood en 1944 avec quatre contrats en poche. C'est Jacques Tourneur qui lui donne son premier emploi au cinéma : le rôle principal de "Jours de Gloire" (1944). Il est immédiatement pris sous contrat par David O Selznick qui prépare la production de "Les Clés du royaume" (1944). Bien que quelques critiques qualifient son jeu d'inexpressif, Gregory Peck est nommé cinq fois au cours de sa carrière pour l'Oscar du meilleur acteur, dont quatre au cours de ses premières années au cinéma avec : "Les Clés du royaume" (1944), "Jody et le Faon" (1946), "Le Mur invisible" (1947, aux côtés de Dorothy McGuire), et "Un homme de fer" (1949). Il remporte l'Oscar à sa cinquième nomination, pour le rôle d'Atticus Finch dans "To Kill a Mockingbird" ("Du Silence et des Ombres") en 1962, adaptation du roman éponyme d'Harper Lee. Sorti en pleine lutte des noirs américains pour obtenir leurs droits civiques, ce film a pour thème l'injustice dont est victime un noir de l'Alabama, accusé à tort de viol. Dans ce film, Peck joue un avocat, veuf et père de deux enfants, qui doit défendre ce noir contre toute la société qui l'entoure. "To Kill a Mockingbird" aurait été le film préféré de l'acteur. Le personnage qu'il interprète, Atticus, est désigné en 2003, soit deux semaines avant sa mort, par l’"American Film Institute" comme le plus grand héros de l'histoire du cinéma (avec en place Indiana Jones et en James Bond). Gregory Peck eut une carrière prolifique, dont certains films se démarquent : "Les Canons de Navarone", film de guerre avec David Niven et Anthony Quinn, le "Moby Dick" de John Huston, deux collaborations avec Alfred Hitchcock ("La Maison du docteur Edwardes" et "Le Procès Paradine"), ainsi que "Vacances romaines" aux côtés d'Audrey Hepburn qui remporte son premier Oscar grâce à ce film. Gregory Peck et Audrey Hepburn étaient des amis proches jusqu'à la mort de celle-ci : c'est d'ailleurs lui qui lui présenta son premier mari Mel Ferrer. À côté de sa carrière, Peck fonde en 1949, dans sa ville natale, "The La Jolla Playhouse" avec ses amis Mel Ferrer et Dorothy McGuire.En 1947, alors que beaucoup à Hollywood figurent déjà sur une liste noire de personnalités soupçonnées de communisme, Gregory Peck signe une lettre accusant le House Un-American Activities Committee (Comité des activités anti-américaines) et les investigations menées par Joseph McCarthy dans l'industrie du cinéma. Quand, en 1958, il tourne avec Henry King le western psychologique "Bravados" traitant d'une vengeance fautive, il déclare avoir voulu dénoncer le maccarthysme. Il prend également la parole pendant la guerre du Viêt Nam, alors que son propre fils Stephen y combat. En 1972, il produit l'adaptation cinématographique de la pièce de Daniel Berrigan, "Les Neuf de Catonsville", sur le procès d'un groupe de vietnamiens accusés de désobéissance civile. En 1977, malgré son hésitation initiale à interpréter le général Douglas MacArthur pour le film "MacArthur, le général rebelle", il en ressort avec une grande admiration pour l'homme. Sympathisant du Parti démocrate, Gregory Peck est envisagé, dans les années 1970, comme un candidat possible contre Ronald Reagan au poste de gouverneur de Californie. Dans une interview, il révèle aussi que le président Lyndon Johnson, alors candidat à sa réélection, lui avait proposé un poste d'ambassadeur des États-Unis en Irlande (poste que Peck aurait volontiers accepté en considération de son ascendance irlandaise). Il encourage plus tard un de ses fils, Carey, dans sa carrière politique. mais celui-ci échoue deux fois à entrer au Congrès en 1978 et 1980 (les deux fois avec de faibles écarts en nombre de voix). Gregory Peck est présent aux côtés de Line Renaud (et en direct à la télévision, dans leur voiture commune, avec aussi "Madame Peck" présentée par Line), lorsque celle-ci est allée féliciter Jacques Chirac à l'occasion de sa victoire à l'élection présidentielle, le.Dans les années 1980, Gregory Peck interprète le rôle d'Abraham Lincoln dans le téléfilm "Les Bleus et les Gris". Il joue aussi dans "The Scarlet and The Black", téléfilm sur un prêtre catholique qui sauve des juifs et des réfugiés du nazisme durant la Seconde Guerre mondiale. L'acteur se retire du métier en 1991. Tout comme Cary Grant, il passe les dernières années de sa vie à parcourir le monde, multipliant les discours et les conférences. Il meurt à l'âge de 87 ans dans son sommeil, des suites d'une pneumonie, le, à Los Angeles. Il est inhumé à la Cathédrale Notre-Dame-des-Anges de Los Angeles. Sa femme Véronique Peck meurt à l'âge de 80 ans, le, à son domicile de Los Angeles.De sa première épouse Greta Kukkonen (1911-2008), avec laquelle il est marié de 1942 à 1954, Gregory Peck a eu trois fils : Jonathan (né en 1944 et qui se suicide en 1975), Stephen (né en 1945) et Carey (né en 1949). Au cours d'une interview en 1953, il répond aux questions d'une journaliste française de "France-Soir", Véronique Passani, avant qu'il ne se rende en Italie pour tourner "Vacances romaines" avec Audrey Hepburn. Six mois plus tard, il l'invite à déjeuner. Ils deviendront alors inséparables. Il l'épousera le, soit le jour de la finalisation de son divorce d'avec Greta Kukkonen, mère de ses trois fils. Par amour pour lui, la journaliste abandonne son travail. Ils auront un fils, Anthony (né en 1956) et une fille, Cecilia (née en 1958), tous deux devenus acteurs.En 1979, Gregory Peck est introduit au Western Performers Hall of Fame du « National Cowboy & Western Heritage Museum » à Oklahoma City. En 1989, il reçoit l'AFI Life Achievement Award décerné par l'American Film Institute. En 1996, il reçoit également un Globe de cristal pour sa contribution artistique au monde du cinéma. En 2000, il est fait Docteur es Lettres par l'Université nationale d'Irlande. Il est aussi patron de l'« University College Dublin School of Film » (où il nomme Martin Scorsese comme membre honoraire) et siège quelque temps à l'American Cancer Society. Il est l'un des premiers à recevoir une étoile sur le Hollywood Walk of Fame dans les années 1960, au 6100 Hollywood Boulevard, mais cette étoile est volée 45 ans plus tard, le.Gregory Peck est titulaire des décorations suivantes :En France, Gregory Peck fut particulièrement doublé par des comédiens possédant un timbre grave, Marc Valbel et Jean-Claude Michel étant les deux doubleurs les plus réguliers. et aussi :
Gregory Peck, né le à San Diego et mort le à Los Angeles, est un acteur américain. Grande star de Hollywood des années 1950 et 1960, Gregory Peck est classé par l'American Film Institute douzième acteur de légende du cinéma américain, grâce à de nombreux rôles restés célèbres : "Duel au soleil", "Le Mur Invisible", "Capitaine sans peur", "Vacances romaines", "Moby Dick", "Les Canons de Navarone, La Malédiction" ou encore "Les Nerfs à vif". Son rôle le plus célèbre et le plus marquant pour des générations de cinéphiles reste celui de l'avocat Atticus Finch dans "Du silence et des ombres", personnage qui figure à la première place du classement des 100 plus grands héros de films.
xwikis
Le mot « oiseau » dérive de l’ancien français "oisel" (attesté en 1060), lui-même issu du bas latin "aucellus", forme syncopée de "avicellus" et diminutif du latin classique "avis", « oiseau ». Le nom "avis" dérive de la racine indo-européenne "°aw-", représentée notamment dans le védique "véḥ", l’arménien "haw" « oiseau » et le grec ancien (), « aigle » (racine grecque qu’on retrouve dans le nom du genre "Gypaetus"). Quant à l’ornithologie (littéralement la « science des oiseaux »), elle tire son nom du grec ancien (), « oiseau », qui désigne aussi bien l’oiseau domestique que l’oiseau de proie. Par « oiseau », on entend habituellement l’ensemble des espèces existantes possédant des plumes, qui sont regroupées dansUn oiseau est un animal tétrapode (à quatre membres), au corps couvert de plumes (seule apomorphie le rendant facilement identifiable), avec un bec corné dépourvu de dents. Ses membres postérieurs sont des pattes et ses membres antérieurs des ailes (homologues aux bras humains) permettant à la plupart d'entre eux de voler. L'évolution montre qu'il n'y a pas de corrélation entre la présence de plumes et vol, les plumes ayant précédé le vol de plusieurs dizaines de millions d'années. La participation des plumes dans le vol résulte d'un détournement de fonction de structuresLes oiseaux sont les seuls animaux à posséder des plumes, leur plumage est d'ailleurs un bon moyen de reconnaître une espèce. Parmi les différentes sortes de plumes qui forment le plumage, on distingue : Les plumages et les différentes sortes de plumes spécialisées qui les composent ont de nombreuses fonctions pour l'oiseau, la plus universelle étant l'isolation thermique, qui participe au maintien de la température interne de ces tétrapodes homéothermes. Pour certaines espèces, le plumage peut offrir une tenue de camouflage efficace. Pour d'autres, le plumage des mâles est utilisé dans les parades nuptialesLes oiseaux primitifs (sous-classe des Archaeornithes) ont encore une mâchoire osseuse avec des dents ayant la forme du bec. Chez les oiseaux modernes, cette transformation des maxillaires dentés (mâchoires et mandibules) en bec corné dépourvu de dents s'accompagne d'un développement massif des muscles du gésier, qui remplace une bonne partie des fonctions masticatrices. Ces maxillaires sont recouverts de la rhamphothèque, gaine constituée d'une ou plusieurs lames de corne. Elle comprend la rhinothèque pour la mandibule supérieure ou maxilleLes pattes sont formées de trois os longs (le fémur, le tibiotarse et le tarsométatarse) et de quatre doigts. Le fémur est l'os proximal. Le tibiotarse vient de la fusion de la partie proximale du tarse avec le tibia. Le tarsométatarse, os long distal de la patte, résulte de la fusion des autres tarses et des métatarses. Les oiseaux sont digitigrades. Ainsi, la partie de la patte en contact avec le sol correspond aux différentes phalanges des doigts et non à la plante du pied comme chez les humains. Les deux pattes sont recouvertes d'écailles ou scutelles, dont la couleur varie selon les espèces, et présentent des doigts munis de griffes. La disposition desCertaines caractéristiques anatomiques des oiseaux (dispositifs physiologiques thermorégulateurs, plumage, appareil reproducteur impair) rappellent celles des reptiles ou celles des mammifères. Ils sont homéothermes et ovipares. L'anatomie des oiseaux montre beaucoup d'adaptations inhabituelles dans le règne animal, dont un grand nombre a pour but de faciliter le vol ; ces adaptations existent même chez les espèces d'oiseaux qui ne savent pas voler. Les adaptations anatomiques pour le vol se retrouvent évidemment dans la morphologie du squelette de l'oiseau mais aussi dans celle de ses os. Plusieurs d'entre eux, les os pneumatiques, sont creux et fusionnent avec les sacs aériens qui sont des organes du système respiratoire. En fait, le squelette des oiseauxLes régimes alimentaires aussi bien que les stratégies pour se nourrir sont très variés. Certaines espèces peuvent être opportunistes comme les charognards, ou peuvent trouver leur nourriture dans des lieux spécifiques comme les nectarivores ou frugivores. Les oiseaux peuvent aussi être herbivores, granivores, prédateurs comme les carnivores, insectivores, piscivores, planctonivores, voire cleptoparasites. Le Géospize à bec pointu est même connu pour être hématophage. Certaines espèces piscivores, (Grand cormoran, Spatule blanche, etc.) peuvent chasser ou pêcher en groupe et ont desLes oiseaux sont des animaux homéothermes, c'est-à-dire que leur température interne est maintenue constante, quelle que soit la température extérieure. Leur métabolisme élevéLe système de détermination sexuelle est de type WZ/ZZ. Dans le système WZ de détermination sexuelle, les femelles ont deux chromosomes sexuels de types différents (WZ), alors que les mâles ont deux chromosomes sexuels de même type (ZZ). Cependant le schéma général de détermination des sexes est mal connu et très différent de celui observé chez les mammifères. Le génome des oiseaux est original sur plusieurs points, la taille physique du génome est faible parmi les vertébrés et de 2 à 8 fois plus courte que chez les mammifères. Le génome est assez homogène avec 60 à 75 % de séquences uniques. La gamme de variations du nombre diploïde est assez étendue : de 40 pour l’Œdicnème criardLa vie des oiseaux s'organise en fonction de plusieurs rythmes biologiques. Le plus commun aux vertébrés est le rythme circadien. La plupart des oiseaux sont diurnes, mais quelques oiseaux, comme la plupart des hiboux et des "Caprimulgidae", ainsi que de nombreuses chouettes, sont nocturnes ou crépusculaires. D'autres espèces, comme la plupart des limicoles, suivent un rythme de vie basé sur la marée. Les oiseaux, en raison de l'existence des saisons, suivent également un rythme circannuel. Les oiseaux qui migrent sur de longues distances subissent généralement des changements anatomiques ou comportementaux comme le Zugunruhe ou une mue pour préparer ce voyage. Suivant les saisons, certaines espèces peuvent également effectuer des migrations journalières, altitudinales par exemple, ou pour se rendre sur des zones de nourrissage. Les rythmes circadiens et saisonniers semblent liés à la durée du jour. Les cycles de reproduction sont annuels, plusieurs nidifications pouvant avoir lieu dans une saison pour certaines espèces particulièrement prolifiques.L'activité journalière de la majeure partie des oiseaux comporte des périodes de repos et des périodes courtes de sommeil. Cette période est appelée sommeil vigilant. Les oiseaux ouvrent fréquemment les yeux et observent les alentours pour pouvoir fuir en cas de menace. Le sommeil des oiseaux présente une phase de sommeil paradoxal courte que l'on estime en moyenne à moins d'une minute, même si les "Spheniscidae", qui détiennent un record dans la classe, capitalisent jusqu'à de sommeil paradoxal par jour. Certaines espèces, comme les albatros ou les martinets, sont réputées pouvoir dormir en volant ou sont capables de rester plusieurs jours sans dormir. Il n'existe cependant pas de preuve expérimentale. Deux théories principales existent. L'une postule que les oiseaux seraient capables d’alterner veille et sommeil de façon très rapide. L'autre propose qu'ils mettraient en sommeil alternativement leursLe plumage est régulièrement renouvelé, au minimum une fois par an, au cours de la mue. Suivant les espèces, celle-ci peut avoir plusieurs rôles. Elle permet à certaines espèces de changer de couleurs de plumage, aussi bien pour la reproduction que pour se camoufler, mais aussi d'obtenir une meilleure couverture thermique. Elle peut aussi précéder une migration. Les oiseaux réalisent aussiLa migration est un déplacement régulier, d'annuel à journalier, observé chez de très nombreuses espèces d'oiseaux. Ces déplacements peuvent prendre des formes très différentes selon les espèces et induisent d'autres comportements, alimentaires par exemple, très spécifiques. C'est un effort important pour bon nombre d'oiseaux qui peuvent même en mourir. Bien connues des hommes, ces migrations sont attendues par les chasseurs, craintes par les gestionnaires d'aérodromes et certains aspects confondent toujours les scientifiques, qui cherchent encore à comprendre comment font les oiseaux pour parvenir à leur destination. Ces déplacements sont une manière pour les espèces migratrices d'échapper à un changement d'habitat ou une baisse de disponibilité de nourriture liée aux rigueurs d'un climat défavorable, mais peuvent aussi s'interpréter comme une maximisation des chances de reproduction.Les oiseaux utilisent une partie de leur temps dans des activités dites de confort. Selon certains auteurs, ils consacrent 9,2 % de leur période active à cela. Une des activités de confort les plus courantes est le lissage de leurs plumes avec les sécrétions cireuses de leur glande uropygienne. L'utilité deLa durée de vie des oiseaux est très variable selon les espèces, elle peut être de trois ou quatre ans pour certains passereaux (mais jusqu'à 25 ans pour le Cardinal à poitrine rose) à plus de 50 pour les albatros et puffins, même plus de 60 ans pour certaines espèces rares comme le kakapo. Les records de longévité sont obtenus en captivité, car les oiseaux libres sont soumis aux pressions environnementales (maladies, braconnage, accidents) et surtout à la pression des prédateurs. Ainsi,Les parasites les plus courants chez les oiseaux appartiennent aux groupes des acariens, des poux aviaires et des vers. D'autres parasites microscopiques, comme certains protozoaires, provoquent des maladies. Au moins d'acariens réparties dans 40 familles vivent en relation étroite avec les oiseaux, occupant leurs nids, leurs plumes ou même leur bec, comme certains acariens d'oiseaux-mouches. Ces acariens peuvent avoir une relation simplement phorétique ou peuvent perturber leurs hôtes en provoquant des démangeaisons, mais peuvent aussi être des parasites comme les "Dermanyssus" et "Ornithonyssus". ToutesComme d'autres espèces animales domestiquées (volailles notamment) ou sauvages (insectes, mammifères notamment), les oiseaux peuvent jouer un rôle épidémiologique limité et écoépidémiologique important vis-à-vis des humains en étant vecteurs et souvent porteurs-sains de maladies et parasites qu'ils peuvent propager à longues distances via leurs migrations. C'est le cas par exemple de l'ornithose, la salmonellose, le campylobactériose, la mycobactériose (tuberculose aviaire), la grippe aviaire, la lambliase, et la cryptosporidiose ou de diverses maladies émergentes comme la maladie de Lyme. Ces zoonoses sont donc étudiées, sous l'égide de l'OIE et de l'OMS et leur propagation soigneusement observée du fait de l'importance économique et écologique des élevages de volaille (victimes de maladies « sauvages » et sources de maladies émergentes parfois problématiques (avec antibiorésistance, risque nosocomial ou apparition de virus réassorti). C'est pourquoi les découvertes de foyers de maladies aviaires peuvent amener les autorités sanitaires et/ou vétérinaires à prendre des mesures radicales vis-à-vis de ces élevages : on apprend régulièrement par les journaux l’abattage de centaines de milliers de volailles (canards, poules ou dindes) pour endiguer ces épidémies. Certaines maladies peuvent être plus spécifiques à un ordre comme la maladie de Pacheco pour les Psittaciformes. Autres maladies :Les sens des oiseaux ne diffèrent pas fondamentalement de ceux des mammifères, mais pour certains restent mal connus : on ne sait pas très bien, par exemple, comment les oiseaux parviennent à se repérer lors de leur migration. En revanche, on sait que leur vision est souvent remarquable. Ils ont une vision à la fois monoculaire et binoculaire combinée. Certaines espèces perçoivent les ultraviolets. Les rapaces notamment ont une acuité visuelle importante, deux à trois fois plus élevée que celle de l'homme ; la fovéa d'une buse variable possède environ par millimètre carré, contre chez l'homme, soit 5 fois plus. Les yeux des oiseaux sont très volumineux ; ceux deBien qu'« avoir une cervelle d'oiseau » signifie ne pas avoir une grande intelligence dans plusieurs cultures, certaines espèces d'oiseaux font preuve de capacités cognitives relativement élevées. Les "Corvidae" sont réputés être les plus intelligents des oiseaux ; les "Psittacidae" sont aussi capables de performances remarquables, mais avec beaucoup d'inégalités selon les espèces. D'autre part, il est difficile de définir le terme « intelligence » et aussi de distinguer ce qui fait partie du domaine de l'inné ou du domaine de l'acquis, et donc d'évaluer leur capacité de raisonnement. Les oiseaux sont capables d'apprendre ; on sait par exemple que les petits coucous apprennent le chant de leurs parents adoptifs ou que les corbeaux font leur apprentissage en imitantL'appareil reproducteur aviaire est caractérisé par l'absence d'organes sexuels externes, si bien qu'il n'est souvent possible de déterminer le sexe des oiseaux que par les caractères sexuels secondaires (couleur des plumes, présence de plumes ornementales, chant, présence de barbillons,La plupart des oiseaux sont capables de voler, c'est-à-dire de se déplacer dans les airs ; il n'existe qu'une soixantaine d'espèces d'oiseaux coureurs, qui en sont incapables. On estime que tous les ancêtres des oiseaux modernes étaient capables de voler. La perte de cette aptitude, souvent dans des endroits isolés, pourrait être due à l'absence de prédateur (comme pour le Dronte) ou à la faiblesse des ressources alimentaires, rendant périlleuse la grande dépense d'énergie que nécessiteUne étude britannique sur des verdiers, menée en 2011, suggère que les oiseaux ont individuellementLe degré de sociabilité varie selon les espèces et les saisons. La plupart des espèces sont, à une période de leur vie au moins, sociables, même si les différences de comportement entre espèces sont très importantes. Les oiseaux utilisent, dans ce cadre, plusieursLes oiseaux constituent un des groupes les plus homogènes du vivant, leur architecture est en effet conditionnée par de rigoureuses adaptations au vol. On en répertorie en 2020 autour de. Leur répartition est mondiale et dépend des saisons car de nombreuses espèces sont migratrices. La diversité la plus élevée se trouve dans les régions tropicales, en domaine continental, la moins élevée se situe au niveau des régions polaires. Bon nombre d'espèces sont grégaires, les populations sont donc concentrées sur certains sites, principalement sous les latitudes élevées. Ceci peut être dû à une spéciation ou à une extinction plus élevée dans ces régions. Certains oiseaux comme les Pétrels desLa principale cause naturelle d'expansion de l'aire de répartition d'un oiseau est la recherche de nourriture. Elle peut se faire soit au hasard d'une migration erronée, soit d'une façon lente par adaptation. L'extension des aires de répartition pour certaines espèces au détriment d'autres croît fortement depuis quelques années et elle est probablement due à l'action de l'homme sur l'environnement, comme le réchauffement climatique ou la perturbation des habitats d'origine. Ces changements d'aire ont toujours existé et provoquent à long terme des spéciations, et par conséquent ils sont un processus normal de l'évolution. Cependant, par l'accélération de ce phénomène, les changements d'aire témoignent d'un changement global de l'environnement. Outre le réchauffement, l'urbanisation et la déforestation sont aussi en cause. En Amérique du Nord, on a observé que "Scardafella inca" est peu àListe des ordres d'oiseaux modernes selonCladogramme illustrant la phylogénie des différents ordres actuels d'oiseaux d'aprèsL'étude de l'histoire évolutive des oiseaux est rendue difficile du fait que les fossiles d'oiseaux en bon état sont difficiles à trouver. Cependant, les plus anciens fossiles considérés comme appartenant à cette classe remontent au Jurassique supérieur, il y a plus de. Si l'on veut supposer les dinosaures comme un clade monophylétique, il faut considérer les oiseaux comme seuls représentants actuels des dinosaures. Ils sont issus du groupe des Théropodes (dans lequel on trouve le Tyrannosaure ou encore leD'autres oiseaux d'élevages peuvent également être utilisés à d'autres fins qu'alimentaires. Diverses races domestiquées à partir du Pigeon biset sont utilisées comme messagers ou comme aliments. Ils ont joué, comme messagers, un rôle important durant la Seconde Guerre mondiale. Un de ces pigeons, « Cher Ami », a même été décoré de la Croix de Guerre américaine. Aujourd'hui ces pratiques ont changé. La colombophilie est devenue une activité ludique. Les coqs de combat sont sources de paris ; dans certains pays comme l'Afrique du Sud ou les États-Unis, on organise des courses d'autruches. Plusieurs espèces d'oiseaux sont capturées et enfermées pour distraire l'homme, soit par leurs chants, soit pour leurs plumes. L'élevage d'oiseaux comme animaux de compagnie s'est généralisé. La fauconnerie s'est transformée presque partout avec d'autres objectifs que la chasse,Le rôle et l'impact des oiseaux sur l'écologie est un sujet de plus en plus soumis à l'étude. Ils jouent notamment un rôle important dans la lutte contre les nuisibles. On retrouve par exemple la mésangeDans la publicité, comme symboles d'entreprise ou comme mascottes, outre les oiseaux de fiction célèbres, les images d'oiseaux sont très utilisées d'une manière plus ou moins stylisée (cf. Oiseau postal). Aux États-Unis, l'image des rapaces prédateurs, donc sans les vautours, est largement utilisée, par exemple par l'équipe de football américain des Seahawks de Seattle. La chouette, symbole d'Athéna, déesse de la sagesse dans la Grèce antique, est utilisée par diverses banques et compagnies d'assurances et est un symbole utilisé par l'État grec. Les oiseaux sont également très représentés sur les timbres postaux.Les oiseaux ou leurs œufs, de par leur répartition, sont connus de toutes les cultures humaines et ceci a directement influencé leurs coutumes, leurs religions et leur vie, par le symbolisme qui leur est associé.On leur a donc attribué, comme à tous les animaux familiers à l'homme, des caractéristiques plus ou moins anthropomorphiques suivant les espèces mais aussi d'une manière générale. L'oiseau ou ses caractéristiques associées (comme l'œuf, les plumes, les ailes ou les serres) peuvent être considérés comme symbole. Le vol de l'oiseau est naturellement porteur d'un symbole de liberté comme l'exprime le mythe grec d'Icare. Par exemple, l'aigle est un symbole de majesté, c'est pourquoi on le retrouve sur les armoiries de divers empires. La paix est symbolisée par la colombe. La plupart des oiseaux sont considérés comme symboles positifs, mais il existe cependant des exceptions en fonction des cultures. Les vautours ont une réputation négative pour beaucoup de peuples, cependant les parsis, et les zoroastriensEn français, par exemple, chanter comme un oiseau signifie chanter gaiement. Avoir un appétit d'oiseau signifie manger très peu. Une cervelle ou tête d'oiseau est un esprit léger, insouciant, étourdi, et un individu qui vit comme un oiseau, le fait sans souci du lendemain. Être libre comme un oiseau signifie n'avoir aucune entrave. Se faire donner des noms d'oiseaux signifie se faire copieusement insulter. Dans le langage populaire, un oiseau désigne un individu, avec un sens plutôt négatif. Un oiseau de passage désigne un individu dont on n'entendra plus parler une fois parti, un oiseau de mauvais augure est un porteur de mauvaises nouvelles. Un oiseau de nuit est un noctambule. Un oiseau rare est une personne que l'on cherche à contacter mais qui se rend peu disponible. Bon nombre d'expressions sont liées à des espèces précises en fonction des symboles particuliers liés aux espèces considéréesDans la littérature et la poésie, nombre d'œuvres prennent l'oiseau pour sujet, par exemple "Chantecler", d'Edmond Rostand ou "L'Albatros" de Charles BaudelaireQuelques oiseaux sont devenusSi plusieurs religions ont directement utilisé certains oiseaux comme symbole religieux, la plupart ont utilisé l'œuf, les plumes ou les ailes. Certaines religions considèrent certains oiseaux comme porteurs d'une essence divine car symbole de leur(s) dieu (x). Par exemple, à l'instar de plusieurs autres types d'animaux, la religion égyptienne antique élevait avec un grand faste et respect les spécimens de Faucon, d'Ibis, de Huppe fasciée dans leur temple. Certaines populations dravidiennes considèrent les paons bleus comme divins, manifestation de la Terre mère. D'autres peuples, plus simplement, représentent leur(s) dieu(x) sous la forme d'oiseau, comme les yézédis qui représentent "Melek Ta'us" sous la forme d'un paon, comme les chrétiens utilisent la Colombe comme manifestation d'une des essences de la Sainte Trinité, le Saint-Esprit. La Bible se sert aussi de la colombe avec plusieurs significations associées, effroi, passivité, deuil et beauté. La couleur de la « blanche colombe » en fait un symbole de pureté qui était très commune au Moyen-Orient durant l'antiquité. Les interprétations humaines de ces messages ne sont pas uniformes puisque la Huppe fasciée est sacrée en Égypte antique, elle est symbole de vertu en Perse et elle est signe de guerre dans les pays scandinaves. Certains cultes ou mythologies ont attribué des pouvoirs à certains oiseaux, sansLa discipline qui étudie les oiseaux se nomme l'ornithologie. Vous pouvez consulter ici une.L'étude des oiseaux est une science pratiquée par une large majorité d'amateurs et non par les seuls ornithologues. Leur observation et la collecte d'informations relèvent souvent de techniques simples nécessitant peu de matériel. Les scientifiques « officiels » (peu nombreux dans la majorité des pays) s'appuient sur des réseaux d'observateurs amateurs, parfois très étoffés (2 millions de Britanniques adhèrent à la ). On distingue usuellement plusieurs branches à l'ornithologie, par exemple l'Oologie pour l'étude des œufs, la Paléozoologie pour l'étude des œufs fossiles. L'Ethnoornithologie étudie, elle, les rapports entre les hommesLa classe des oiseaux est une des classes les plus étudiées en laboratoire. De nombreuses espèces y sont étudiées du fait de la facilité des conditions d'élevage. CertainesLes oiseaux peuvent être porteurs, sains ou non, de maladies transmissibles à l'hommeCertains oiseaux sont considérés comme nuisibles. Les causes en sont diverses et certaines très controversées. Par exemple, ils consomment de petits fruits ou du maïs, comme les carouges à épaulettes, les moineaux, certains étourneaux, les gros-becs, certaines corneilles et certains corbeaux. Les pigeons sont quant à eux une nuisance pour les bâtiments, bien qu'en Angleterre on les voie attaquer certaines cultures. Les moyens mis en place pour lutter contre eux peuvent être très différents. L'abattage par certains chasseurs de rapaces particulièrement utiles aux agriculteurs, car chassant surtout les vermines mais perçus comme une concurrence déloyale pour la chasse aux lièvres et lapins, a fortement réduit certaines populations. Les vautours, dans le sud de la France, accusés sans preuves formelles de tuer moutons et vaches, ont été exterminés, avant d'y être réintroduits. D'autres espèces, devenues invasives à la suite de l'introductionL'évolution se produit à une échelle trop lente pour être clairement perçue par les humains, mais on note une diminution certaineLa liste des espèces d’oiseaux menacés d’extinction tend à s’allonger, bien que les oiseaux soient mobiles et semblent pouvoir plus facilement échapper que d'autres espèces aux menaces qui pèsent sur eux. La liste rouge des espèces menacées, éditée par l’UICN et réactualisée en 2020, compte d’oiseaux menacées d’extinction sur, soit 13,6 % du total. Les gouvernements, et de nombreuses associations de protection de la nature ou de, travaillent à la protection des oiseaux de diverses manières, comme la loi, la protectionVoir aussi Orientation bibliographique en ornithologie et Liste de périodiques ornithologiques.
Les oiseaux (Aves), encore appelés dinosaures aviens, sont une classe d'animaux vertébrés caractérisée par la bipédie, la disposition des ailes et un bec sans dents. Ce sont les seuls représentants actuels des dinosaures théropodes, tandis que tous les autres groupes de dinosaures qualifiés de « non avien » sont éteints.
xwikis
On distingue la simple chute dans un champ de pesanteur uniforme au voisinage de la Terre (Galilée, 1605), et la chute céleste (Lois de Kepler), dont Isaac Newton a fait la synthèse en 1687. On peut aussi, comme l'a fait Galilée, opérer une chute ralentie, pour mieux observer le mouvement : Il est évident que la loi de chute est différente : la masse "m" n'intervient pas, car il y a compensation exacte entre masse inerte et masse grave.Galilée est né en 1564. Passionné de mathématiques (qui à l’époque regroupaient la physique et l’astronomie), ce personnage atypique fut un scientifique reconnu qui illumina son époque de ses nombreuses découvertes. Il a notamment découvert que la lune avait des montagnes comme la Terre ou que la planète Jupiter a des satellites en orbites tout comme les planètes du système solaire qui tournent autour du soleil. Cependant, sa plus grande découverte est la théorie de la chute des corps. En effet, d’après Galilée, la vitesse d’un objet est indépendante de sa masse dans le vide. Cependant, il n’est pas arrivé à cette conclusion immédiatement. Pour établir sa théorie, il remet en cause des écoles anciennes comme les idées d’Aristote, un homme considéré par beaucoup comme le plus grand scientifique et philosophe de la Grèce antique. En effet, Aristote dit que c’est dans la nature des objets lourds de tomber plus rapidement que les objets légers. Galilée remet en cause les idées reçues par la nature ("", qui signifie « la nature donnera la vérité ») et non par l’argumentation ou la logique. Pour démontrer l’erreur d’Aristote, il a l’idée géniale de montrer la chute de deux corps attachés comparée à la chute d’un seul de ces corps. D’après Aristote, le corps lourd et le corps léger attachés tomberont avant le corps lourd seul. Cependant, d’après la loi d’Aristote, le corps lourd attaché au corps léger tombera avant le corps léger attaché au corps lourd car ce corps léger freinera le corps lourd tel un parachute. Le corps lourd attaché au corps léger tombera donc moins vite que le corps lourd seul. La loi d’Aristote prédit donc une chose et son contraire! Galilée commence à travailler sur la chute des corps dès 1597, à l’âge de 33 ans afin de prouver sa théorie. La légende dit qu’il jetait des objets plus ou moins légers du haut de la tour de Pise afin de comparer leurs vitesses. Malheureusement, il ne s’agit que d’une histoire inventée. En réalité, il a eu l’idée de jeter pour la première fois des objets du haut d’une église à Padoue, dans le nord de l’Italie. Mais, il a du mal à mesurer ou se trouve le corps à un moment précis. Afin de limiter la vitesse des deux corps, il réalise une première expérience sur un plan incliné. Pour mesurer le temps, il utilise des clepsydres. Il utilise aussi des clochettes et remarque que la fréquence des sons s'accélère. Il a une première intuition : la résistance de l’air intervient dans la chute des corps. Galilée imagine donc que la forme des objets a une influence sur la vitesse de leur chute, contrairement à la masse. Il commence par faire tomber deux corps de même poids mais de tailles différentes et des boules de natures différentes (par exemple une en plomb et une en liège). Il a l’impression que les deux boules tombent en même temps. Il confectionne une boîte à chute pour que le départ des deux boules soit identique mais obtient le même résultat. Il en déduit ainsi la théorie de la chute des corps: la vitesse d’un objet ne dépend pas de sa masse.En supposant que le corps n'est soumis qu'à la pesanteur (c'est-à-dire sans frottement), si un corps ponctuel "P" est lâché d'un point de cote "z" sans vitesse initiale et si l'axe des z est orienté vers le haut, alors on a : Avec : La vitesse formula_14 à l'impact est donnée par: Remarque : En Mécanique des fluides, en étudiant la vidange d'une cuve, on retrouve ce résultat (voir Formule de Torricelli).L'objet décrit une trajectoire parabolique.Si la vitesse initiale est appropriée, c'est-à-dire à la bonne valeur et la bonne orientation étant donnée la position initiale, la trajectoire peut être circulaire (cf. fenêtre de tir), comme elle l'est pour un satellite géostationnaire ; la Lune a plutôt un mouvement elliptique (en première approximation), très perturbé par l'influence du Soleil (la force de gravitation du Soleil sur la Lune est plus grande que la force de gravitation de la Terre sur la Lune).Dans des systèmes en chute libre simple, les objets n'ont pas de poids apparent et flottent librement les uns par rapport aux autres. Pour cette raison, la chute libre est employée dans les tours d'impesanteur, les avions en vol parabolique compensé (Airbus 0-g) ou les systèmes en orbite pour simuler l'absence de gravité et étudier ses conséquences. Contrairement à une idée reçue, les spationautes dans une station spatiale, ne flottent pas en impesanteur en raison d'une diminution de la gravitation due à leur éloignement de la Terre, mais parce que le système constitué par la station spatiale et eux-mêmes sont en chute libre (cf. Référentiel non inertiel, impesanteur).Dans la théorie de la relativité générale, la gravitation n'est pas une force mais une « déformation riemannienne de l'espace-temps » ; un objet dit en chute libre décrit simplement une géodésique de cet espace. On remarquera que la loi de Galilée (1602) [tous les corps ont même loi de chute] a été élevée au rang de principe d'équivalence (de la « masse inerte » et de la « masse grave ») par Einstein en 1915, quand il a créé sa théorie. Naturellement, cette équivalence n'existe que si l'on considère le phénomène au niveau ponctuel et non en tant que champ. Dans la pratique, avec des accéléromètres suffisamment précis et nombreux, il sera aisé de distinguer même sans vision de l'extérieur entre un champ de forces gravitationnel (centripète), celui dans un ascenseur au câble coupé (parallèle) et une manifestation de « forces centrifuges » (axifuges) dans le cas général : la relativité constitue une théorie locale.
Une chute libre est le mouvement, dans le vide, d'un objet uniquement soumis à la pesanteur. En première approximation le concept de chute libre s'applique aussi à la chute d'un objet dans l'atmosphère, les forces autres que le poids (poussée d'Archimède, résistance de l'air et force de Coriolis) étant souvent négligeables. Quand on prend en compte la résistance de l'air, on parle de chute avec résistance de l'air.
xwikis
Deux corps ponctuels de masses respectives formula_1 et formula_2 s'attirent avec des forces vectoriellement opposées et de même valeur absolue. Cette valeur est proportionnelle au produit des deux masses, et inversement proportionnelle au carré de la distance qui les sépare. Ces 2 forces opposées ont pour axe commun la droite passant par les centres de gravité de ces deux corps. La force exercée sur le corps formula_3 par le corps formula_4 est donnée par : formula_6 et formula_7 en kilogramme (kg); "d" en mètre (m); formula_8 et formula_9 en newton (N) où G est la constante gravitationnelle. Dans les unités SI, le CODATA recommande la valeur suivante : avec une incertitude standard de On peut noter la proximité de la forme de cette formule avec la forme de la formule de la Loi de Coulomb sur les forces entre charges électrostatiques : formula_12 avec toutefois une distinction : la charge électrostatique peut être négative ou positive, alors que seul le cas de la masse positive est actuellement utilisé en physique habituelle.Voici le calcul menant à l'expression de l'énergie potentielle de gravitation d'un corps de masse "m" à une distance "R" d'un corps de masse "M" produisant le champ de gravitation : D'où : Cette formule est similaire à celle du potentiel électrostatique, qui est issu de la loi de Coulomb. Ainsi, tous les calculs de gravimétrie sont transposables en électrostatique et réciproquement, ce qui est une économie de pensée considérable.Soit un corps sphérique de rayon "R" et de masse volumique uniforme formula_15. On peut démontrer que son énergie potentielle interne formula_16 est égale à : =-\frac{G M dm}{r}</math> Avec formula_18 On construit la sphère à partir de coquilles sphériques d'épaisseur "dr" superposées de "r=0" jusqu'à "r=R".Chargé par Tycho Brahe d'étudier le mouvement des planètes, Johannes Kepler écrit ses conclusions dans l'ouvrage "Astronomia nova" où sont indiquées trois lois que vérifie le mouvement des planètes et des astres, ces lois seront par la suite appelées lois de Kepler. Dans "Harmonices Mundi", Kepler écrivit : « C'est comme si une force émane du Soleil ». Il y étudia la piste d'une force magnétique. Sur ces bases, à partir de la de Kepler, Isaac Newton développa sa théorie sur la gravitation. Isaac Newton (1643-1727) publie son ouvrage fondamental, portant le titre "Principes mathématiques de la philosophie naturelle" ("Principia mathematica philosophiae naturalis") en 1687. Il y pose les fondations d'une nouvelle physique. Il y expose son système du monde et "démontre" les lois de Kepler à partir de la loi d'attraction universelle des masses. Selon celle-ci, deux points massiques quelconques de l'univers s'attirent avec une force qui est inversement proportionnelle au carré de la distance qui les sépare, et que la force agit le long de la direction qui les joint. Cette loi fera par la suite référence dans les domaines de la mécanique, de la mécanique céleste, de la géodésie et de la gravimétrie. Sur la loi d'attraction des corps, les idées les plus vagues et changeantes ont circulé avant Newton, mais celui-ci ne fut pas le premier à penser que l'action diminuait avec la distance comme l'inverse du carré. Pour Roger Bacon, toutes les actions à distance se propagent en rayons rectilignes, comme la lumière. Johannes Kepler reprend cette analogie. Or, on savait depuis Euclide que l'intensité lumineuse émise par une source varie en raison inverse du carré de la distance à la source. Dans cette analogie optique, la "virtus movens" (vertu mouvante) émanant du Soleil et agissant sur les planètes devrait suivre la même loi. Toutefois, en ce qui concerne la dynamique, Kepler demeure un péripatéticien, c'est-à-dire un disciple d'Aristote. Ainsi, pour lui la force est proportionnelle à la vitesse et non au taux de variation de la vitesse (à l'accélération), comme le postulera plus tard Newton. De sa deuxième loi ("r v =" constante), Kepler tirera donc la conséquence erronée suivante : la "virtus movens" du Soleil sur les planètes est inversement proportionnelle à la distance du Soleil. Pour concilier cette loi avec l'analogie optique, il soutient que la lumière se répand de tous côtés dans l'espace, alors que la "virtus movens" n'agit que dans le plan de l'équateur solaire. Plus tard, Ismaël Boulliau (1605-1691) pousse jusqu'au bout l'analogie optique dans son ouvrage "Astronomia Philolaïca", paru en 1645. Il soutient donc que la loi d'attraction est inversement proportionnelle au carré de la distance. Toutefois, pour Boulliau, l'attraction est normale au rayon vecteur, tandis que pour Newton elle est centrale. D'autre part, René Descartes se bornera à remplacer la «virtus movens» de Kepler par l'entraînement d'un tourbillon éthéré. Il est suivi en cela par Roberval, qui est lui aussi un adepte de la théorie des tourbillons. Plus méritoirement, Giovanni Alfonso Borelli (1608-1679) explique pourquoi les planètes ne tombent pas sur le Soleil en évoquant l'exemple de la fronde : il équilibre l'«instinct» que possède toute planète à se porter vers le Soleil par la « tendance » que possède tout corps en rotation à s'éloigner de son centre. Pour Borelli, cette "vis repellens" (force répulsive) est inversement proportionnelle au rayon de l'orbite. Robert Hooke, secrétaire de la « Royal Society », admet que l'attraction décroît avec la distance. En 1672, il se prononce pour la loi de l'inverse carré, en se basant sur l'analogie avec l'optique. Cependant, ce n'est que dans un écrit daté de 1674 et intitulé «An attempt to prove the annual motion of the Earth» (Un essai pour prouver le mouvement annuel de la Terre) qu'il formule clairement le principe de la gravitation. Il écrit en effet que « tous les corps célestes, sans exception, exercent un pouvoir d'attraction ou de pesanteur dirigé vers leur centre, en vertu duquel non seulement ils retiennent leurs propres parties et les empêchent de s'échapper, comme nous voyons que le fait la Terre, mais encore ils attirent aussi tous les corps célestes qui se trouvent dans la sphère de leur activité. D'où il suit, par exemple, que non seulement le Soleil et la Lune agissent sur la marche et le mouvement de la Terre, comme la Terre agit sur eux, mais que Mercure, Vénus, Mars, Jupiter et Saturne ont aussi, par leur pouvoir attractif, une influence considérable sur le mouvement de la Terre, de même que la Terre en a une puissante sur le mouvement de ces corps. » Comme on le voit, Hooke avait formulé le premier la loi de l'attraction des planètes tout à fait correctement, "mais il ne l'avait pas établie". Pour valider son hypothèse de l'inverse carré, Hooke aurait dû connaître les lois de la force centrifuge. Or, les énoncés de celles-ci ne furent publiés par Huyghens qu'en 1673 sous la forme de treize propositions annexées à son "Horologium oscillatorium". En fait, Huyghens avait rédigé dès 1659 un traité intitulé "De vi centrifuga" (Sur la force centrifuge), dans lequel ces lois étaient démontrées, mais celui-ci ne parut qu'en 1703, dans ses œuvres posthumes éditées par de Volder et Fullenius. Toutefois, dès 1684, Sir Edmond Halley (1656-1742), ami de Newton, applique ces théorèmes à l'hypothèse de Hooke. En utilisant la troisième loi de Kepler, il trouve la loi de l'inverse carré. En 1687, Newton publie ses "Principes mathématiques de la philosophie naturelle". Par une analyse analogue à celle de Halley, il formule la loi de l'attraction inversement proportionnelle au carré de la distance, en se fondant sur la troisième loi de Kepler. Néanmoins, étant sans doute plus scrupuleux que ses précurseurs, Newton entend soumettre cette loi au contrôle de l'expérience. Aussi cherche-t-il à vérifier si l'attraction exercée par la Terre sur la Lune répond à cette loi et si l'on peut identifier cette attraction à la pesanteur terrestre, afin d'établir le caractère universel de l'attraction. Sachant que le rayon de l'orbite lunaire vaut environ 60 rayons terrestres, la force qui maintient la Lune sur son orbite serait, dans ces conditions, 602=3600 fois plus faible que la pesanteur. Un « grave » tombant en chute libre au voisinage de la surface terrestre parcourt dans la première seconde une distance de, ou. La Lune devrait donc tomber vers la Terre à raison d'un vingtième de pouce par seconde. Or, connaissant la période de révolution de la Lune et la dimension de son orbite, on peut calculer sa vitesse de chute. Avec la valeur acceptée en Angleterre en ce temps, Newton trouva seulement un vingt-troisième de pouce par seconde. Devant cette divergence, il renonça à sa théorie. Ce n'est que seize ans plus tard (en 1682) qu'il apprit au cours d'une réunion de la « Royal Society » la valeur du rayon terrestre déterminée par Picard en France une douzaine d'années plus tôt. Avec la valeur que Picard donnait pour le rayon de la Terre, Newton trouva que la vitesse de chute de la Lune était bien un vingtième de pouce par seconde, valeur qui confirmait sa théorie. Parmi les propositions intéressant la mécanique céleste et la gravimétrie, on trouve dans les "Principia mathematica" plusieurs théorèmes sur l'attraction des sphères et des autres corps. Par exemple, Newton démontre que l'attraction gravifique d'un corps sphérique dont la masse est répartie sur des couches sphériques isopycniques est la même que celle d'un point massique situé au centre du corps et possédant la masse totale de celui-ci. Une autre conséquence importante de la théorie de Newton, détaillée aussi dans les "Principia", est que la Terre doit être légèrement aplatie aux pôles du fait de la force centrifuge créée par la rotation de la terre sur elle-même.On part de la de Kepler, s'appliquant à tout astre du système solaire : Avec a, demi grand-axe de l'orbite, T période (année de l'astre), k constante de gravitation. Dans le cas d'une orbite circulaire, la de Kepler s'écrit : où r est le rayon de l'orbite circulaire. En divisant les deux termes de l'équation par formula_23, on a : Selon la loi fondamentale de la dynamique (seule la force de gravitation formula_25 est prise en compte): Or l'accélération centripète vaut formula_27, où formula_28 est la vitesse tangentielle. D'où : Puisque, en cas d'une orbite circulaire, la seule accélération est centripète, selon la loi fondamentale de la dynamique, et la de Kepler on a : En posant formula_31, avec G, constante de gravitation universelle et formula_32, masse du soleil, on obtient : Cela démontre que l'hypothèse d'une force agissant à distance entre objets massifs telle qu'émise par Newton est compatible avec la de Kepler, au moins pour des orbites circulaires.Isaac Newton en 1684 utilise pour la première fois cette loi dans le "De motu corporum in gyrum" (sur le mouvement), mais pour des astres supposés ponctuels. Il découvre que tout en astronomie s'en déduit, et qu'il peut même appliquer sa loi à la pesanteur, unifiant ainsi la mécanique terrestre et la mécanique céleste. Il demandera à Halley un délai pour mettre « tout ce fatras » au propre : ce qui exigera de sa part un effort colossal. En 1687, paraîtront les Principia, montrant la voie pour la recherche du. Pour la première fois, est mise pleinement en acte la pensée de Galilée : le grand livre de la Nature peut s'expliquer par les mathématiques. Tous ses rivaux (Hooke, Huygens, etc.) sont relégués à l'avant Newton, un peu comme après 1905, on parlera de avant/après Einstein. Pourtant, Newton reprendra à son compte un aphorisme déjà énoncé par Bernard de Chartres, parfois attribué à Nicole Oresme :. Il est clair que la loi en 1/r2, mais personne ne l'a énoncée ainsi. Newton a surtout été acclamé pour sa reformulation des lois de Kepler, alors que c'est un théorème parmi bien d'autres.Vers 1900, on sait qu'il reste à expliquer un résidu dans la précession de la trajectoire de la planète Mercure autour du Soleil. Bien qu'il n'ait pas cherché à résoudre cette anomalie, Einstein expliquera ces fameuses 43 secondes d'arc par siècle, en inventant sa théorie de la gravitation appelée relativité générale en 1915. Selon le philosophe des sciences Thomas Samuel Kuhn, la théorie d'Einstein ne fait pas que "corriger" la théorie de Newton, mais l"'invalide" profondément et qu'affirmer que « "la loi de Newton fournit une bonne solution approchée lorsque les vitesses relatives des corps considérés sont petites en comparaison de la vitesse de la lumière" » représenta une simple tentative de conciliation des positivistes logiques entre les deux modèles. La théorie d'Einstein représente un changement majeur de paradigme par rapport à la théorie newtonienne, puisqu'elle fait perdre au temps et à l'espace leur caractère d'absolus, de même que l'astronomie de Copernic modifiait radicalement la vision du monde de Ptolémée. La loi de Newton est une première approximation de la gravitation relativiste, valable si (v/c) « 1 (où v désigne la vitesse relative des corps et c la vitesse de la lumière) et si les masses en jeu sont "faibles", ce qui implique une "petite" déformation de l'espace-temps au voisinage des masses. L'anomalie du périhélie de Mercure est un "petit" effet de la déformation de l'espace-temps par la masse solaire, et ce fut le premier élément indiquant l'insuffisance de la loi de Newton. La loi de Newton ne s'applique ni aux trous noirs à l'intérieur de leur rayon de Schwarzschild, ni à la déformation de l'espace-temps (présenté par simplification comme « déviation de la lumière ») par la gravitation, ou autres phénomènes observés au. Elle n'en reste pas moins utilisée seule, et avec succès, pour calculer les lancements de satellites, mais tenir compte de la Relativité devient indispensable dans ces satellites s'ils font partie d'un système GPS. On notera qu'il existe trois autres forces fondamentales en physique : ces trois dernières forces fondamentales pouvant être unifiées.Un philosophe, Claude Henri de Rouvroy, comte de Saint-Simon, a bâti une théorie philosophique dans les années 1820, selon laquelle Dieu est remplacé par la gravitation universelle. Plus récemment, Stephen Hawking a également émis une déclaration du même ordre selon laquelle la gravitation, pourtant la plus faible des forces physiques - il faut toute la masse de la Terre pour qu'une pomme puisse peser le poids d'une pomme - était le grand ordonnateur de l'univers. David Hume voyait dans les "Principia" le modèle de la science, qu'il voulait appliquer à la philosophie.
La loi universelle de la gravitation ou loi de l'attraction universelle, découverte par Isaac Newton, est la loi décrivant la gravitation comme une force responsable de la chute des corps et du mouvement des corps célestes, et de façon générale, de l'attraction entre des corps ayant une masse, par exemple les planètes, les satellites naturels ou artificiels. Cet article présente essentiellement les aspects de la mécanique classique de la gravitation, et non pas la relativité générale qui procède d'un cadre plus général dans un nouveau paradigme.
xwikis
Le mot aphélie est composé de deux mots qui viennent du grec ancien qui signifie « loin » et qui signifie « soleil ». Autrement dit, le point le plus éloigné du Soleil.La Terre est à son aphélie autour du, à une distance de. Cette date se décale en moyenne d'environ vingt minutes par année sidérale (hors effet des irrégularités du calendrier), du fait de la précession apsidale soit celle de l'orbite terrestre. La date et l'heure de passage de la Terre à l'aphélie varient donc légèrement d'une année sur l'autre, du fait de la précession de l'orbite terrestre et de diverses perturbations apportées par la position des autres planètes du Système solaire, et du fait des particularités de notre calendrier civil. La Terre décrit une orbite elliptique dont le Soleil occupe un des foyers.C'est principalement l'inclinaison de l'axe de la Terre par rapport au plan de l'écliptique qui est responsable du phénomène des saisons. Ceci étant, le fait que le périhélie tombe au début du mois de janvier a pour effet que l'hémisphère Sud reçoit plus d'énergie solaire en été que l'hémisphère Nord. À l'inverse, le fait que l'aphélie tombe au début du mois de juillet a pour effet que l'hémisphère Sud reçoit moins d'énergie solaire que l'hémisphère Nord en hiver. La différence est environ de 3 %. On trouve souvent l'assertion que ceci diminue l'écart de températures entre hiver et été dans l'hémisphère Nord et l'augmente dans l'hémisphère Sud. C'est cependant oublier que la masse des océans, qui a un effet modérateur par sa capacité thermique, est beaucoup plus importante dans le Sud et qu'il faut également prendre en compte le fait que la glace polaire du continent Antarctique réfléchit plus de lumière solaire que celle de l'Arctique en raison de leurs tailles respectives. Il faut retenir que les phénomènes climatiques sont très complexes et qu'on ne peut pas tirer de conclusions aussi rapides. C'est en fait un phénomène qui produit une tendance qui se rajoute à d'autres phénomènes, comme ceux cités de l'inégalité du rapport continents/océans et de l'inégalité des calottes polaires des hémisphères Nord et Sud.
L’aphélie (nom masculin) est le point de la trajectoire d'un objet céleste en orbite héliocentrique qui est le plus éloigné du centre de masse, donc du Soleil (dans le cas du système solaire).
xwikis
La notion de roulement implique le contact de deux pièces dont l'une au moins présente une courbure ; on a typiquement Pour que deux pièces restent en contact l'une avec l'autre, il faut un effort presseur. En étant pressées l'une sur l'autre, les pièces se déforment : la pièce courbe s'aplatit, la pièce plane (ou la moins courbée) se creuse et forme un bourrelet de matière.Dans un premier temps, considérons le roulement d'un cylindre sur un plan, et séparons les deux phénomènes de déformation. Sauf mention contraire, nous nous plaçons en statique : l'élément roulant est immobile par rapport à la piste de roulement, ou bien à la limite du roulement. Nous nous limitons à la présence de trois forces sur le cylindre (effort presseur, effort moteur, action du support) pour pouvoir déterminer de manière simple l'action du support (principe des forces coplanaires concourantes). C'est le cas d'une roue libre (non motrice et non freinée) : l'effort presseur et l'effort moteur sont transmis par l'axe, par exemple :Soit un cylindre aplati sous l'effet d'un effort presseur et soumis à un effort moteur (force parallèle au plan, en rouge sur l'image ci-contre). Faire tourner le cylindre revient à le renverser ; il faut donc fournir une force suffisante, comme pour faire tomber un objet. D'un point de vue global, il faut que le point d'application de la force de contact plan/cylindre F soit au bord du plat ; d'un point de vue microscopique, l'action de contact est une force répartie (pression), et il faut la concentrer du côté du bord. En effet, au moment du basculement, le reste de la surface de contact « décolle », le sol n'exerce pas d'action sur cette partie. Pour des raisons de clarté, nous avons représenté l'effort presseur F et l'effort moteur F sur le pourtour de la roue, mais en général, il s'agit de l'action de l'axe sur le moyeu.En étant enfoncé sous l'effet de l'effort presseur, le plan crée un bourrelet de matière. Ce bourrelet constitue un obstacle au mouvement, une pente que le cylindre doit monter. Sous l'effet de l'effort moteur, l'action de contact plan/cylindre F se déplace, et le pivotement autour du point de contact devient possible lorsque ce point d'application est au sommet du bourrelet.Dans les deux cas, la force nécessaire pour créer le mouvement dépend de largeur 2"a" de la surface de contact et du rayon R du cylindre, donc de l'effort presseur et de la raideur du cylindre. On trouve une loi macroscopique similaire à la loi de frottement : la force minimale pour créer le roulement F, tangentielle, est proportionnelle à l'effort presseur, force normale F : La demi-largeur du plat, le paramètre "a", est appelé coefficient de résistance au roulement.Une roue peut être freinée volontairement, ou bien accidentellement (axe grippé par exemple). Nous pouvons modéliser le freinage comme un couple s'opposant à la rotation, il s'agit donc d'une résistante au pivotement de la roue autour de son axe. Pour simplifier, nous ne représentons que la déformation de la roue, et pas celle du sol. Dans un premier temps, nous considérons une roue à l'arrêt et que l'on veut mettre en mouvement. Au repos (figure de gauche), et pour les faibles forces motrices, la situation est similaire à une roue libre non freinée. Lorsque la force F est suffisante pour faire basculer la roue (figure du milieu), le couple résistant (initialement faible) empêche le basculement. Pour que la roue puisse tourner, il faut que le couple de l'action du sol F par rapport à l'axe soit suffisant pour vaincre le couple résistant maximum C : On voit que la force motrice nécessaire est supérieure au cas de la roue non freinée. Il peut y avoir dans ce cas une concurrence entre roulement et glissement. Par exemple, dans le cas du freinage d'un véhicule, si le freinage est trop fort, alors les roues se bloquent : la résistance au roulement devient plus forte que la résistance au glissement. Il est important de prendre en compte ce phénomène dans l'étude d'un galet suiveur sur une came. En effet, le galet a une résistance au roulement qui provient de son palier (liaison arbre/moyeu). On peut ainsi avoir un galet qui ne roule pas mais glisse sur la came, ce qui provoque son usure ; on parle parfois de beurrage. Dans le cas maintenant d'une roue en mouvement que l'on veut arrêter (typiquement lorsque l'on actionne les freins d'un véhicule), le couple résistant que l'on crée a pour effet d'incliner la force modélisant l'action du sol vers l'arrière, et donc la résultante des forces n'est plus nulle. Du fait du principe fondamental de la dynamique, cela crée donc une accélération vers l'arrière, c'est-à-dire un freinage.Considérons un véhicule dont le mouvement est assuré par l'adhérence de roues motrices sur le sol. Nous supposons que l'inertie propre de la roue est négligeable devant les efforts nécessaires pour mettre en mouvement le véhicule. Nous pouvons donc écrire que la somme des moments extérieurs s'appliquant sur la roue est nulle. Dans le cas d'une roue motrice, le couple moteur C provient de l'arbre. Lorsque ce couple est faible, l'effort presseur et l'action du sol forment un couple (F, F) de résultante nulle et de moment : où "d" est la distance entre les droites d'action des forces. Plus le couple augmente, plus l'action du sol se décale vers l'avant, jusqu'à arriver à la distance "a" (figure du milieu). On a donc un couple résistant maximum valant : on retrouve ici le coefficient de résistance au roulement "a", demi-largeur de la zone de contact. À partir de cet instant-là, la roue peut tourner à vitesse constante. Le travail moteur du couple C est équilibré algébriquement par l'énergie nécessaire pour déformer une zone de contact toujours renouvelée. Si la voiture accélère, alors la force Fc s'incline vers l'avant.Le coefficient C désigne le coefficient de résistance au roulement (). La force de résistance constante s'élève à où "m" est la masse du véhicule et "g" correspond à la gravité terrestre. Considérons un cas classique de voiture de avec des roues au coefficient de 0,01. Nous obtiendrons une force de frottement de 0,01⋅⋅9,81 soit. Après avoir remarqué que l'unité équivaut à une force de frottement de, la force de frottement de correspond à une consommation de. Enfin puisqu'un litre d'essence équivaut à environ, la consommation due à la seule résistance au roulement peut être estimée à d'essence pour. Il reste à tenir compte de l'efficacité globale du véhicule, comme le montre le schéma du DoE. Elle s'élève autour de 20 % pour les véhicules thermiques, et autour de 50% pour les véhicules électriques (quand on tient également compte du chauffage et de la climatisation, les pertes du réseau électrique étant incluses), mais il faut tenir compte de la production d'électricité (voir Énergie grise énergétique). Le concept de coefficient de frottement est repris dans les diagrammes de Gabrielli – von Kármán, sous une forme toutefois un peu différente.Le coefficient de résistance au roulement est donc défini comme étant la demi-largeur "a" de la zone de contact ; il s'exprime habituellement en millimètre. Il dépend du coefficient d'élasticité des matériaux, mais aussi du rayon, de la vitesse de déplacement, de la rugosité... et, dans le cas d'un pneumatique, de la pression de gonflage, ce qui explique que des pneus sous-gonflés augmentent la consommation de carburant. Pour les applications mécaniques, on retient en général les valeurs suivantes. Dans le cas d'une roue motrice, le couple résistant à vaincre est proportionnel au coefficient de résistance au roulement et à l'effort presseur F : Dans le cas d'une roue libre, la force tractrice minimale à fournir pour faire tourner la roue s'exprime par R étant le rayon de la roue. Le facteur de résistance global μ est notablement plus faible que le coefficient d'adhérence intervenant dans la résistance au glissement. Cela explique l'intérêt d'interposer un contact roulant lorsque l'on veut réaliser un mouvement relatif entre deux pièces. Ces valeurs sont à comparer avec les coefficients d'adhérence acier/acier lubrifié (μ ≃ 0,12), acier/bronze lubrifié (μ ≃ 0,1) et téflon/acier (μ ≃ 0,04).
La résistance au roulement est le phénomène physique qui s'oppose au roulement. En tant qu'opposition au mouvement, il s'apparente aux frottements, mais est de nature différente : il est dû à la déformation élastique des pièces en contact. Il est donc en cela différent de la résistance au pivotement d'un palier lisse, et de la résistance au glissement.
xwikis
Un pays ou territoire obtient généralement de nouveaux codes alphabétiques si son nom change, alors qu’un nouveau code numérique est associé à un changement de frontières. Certains codes dans chaque série sont réservés, pour des raisons diverses. ISO 3166-1 n’est pas la seule norme de codes pour les pays. Le Code de rédaction institutionnel de l’Union européenne recommande, pour les pays de l’Union, l'usage du code ISO 3166-1 alpha-2 sauf pour le Royaume-Uni (UK) et la Grèce (EL), (cf. Code de rédaction interinstitutionnel). Les codes des subdivisions internes des pays figurent dans la norme ISO 3166-2. Les codes devenus obsolètes (à la suite d'une fusion, d'un éclatement ou d'un changement de nom de pays) figurent dans la norme ISO 3166-3.Le tableau ci-dessous reprend une des trois parties de la norme "ISO 3166-1", dite « codes alpha-2 ». Il permet de connaître les pays pour lesquels les informations ISO 3166-2 de codification et de nomenclature des subdivisions administratives sont présentes, à partir de la couleur de la cellule dans laquelle se trouve le code affecté au pays (voir la légende sous le tableau). Il permet également, en cliquant sur un codet, d’aller à l’article de l’encyclopédie qui détaille les informations des données ISO 3166-2 du pays correspondant. Pour une recherche des informations par nom du pays (en français, ISO, ou dans la langue locale), ou par codes (alpha-2, alpha-3..) consultez le tableau triable de la section suivante « Table de codage » de cet article.Le tableau suivant a pour but de synthétiser la liste complète des codes ISO 3166-1 affectés, dans l’ordre alphabétique des noms français de pays, tels qu’ils sont désignés par la norme ISO. Les dénominations usuelles en français utilisées sur Wikipédia sont également indiquées. Sont présentés en caractères "italiques" les dépendances d’un autre État, ou les pays non reconnus internationalement comme des États autogouvernés et indépendants, ainsi que les autres noms usuels (entre parenthèses). Les synonymes définis par l’ISO, ou les territoires indépendants qui sont encore classés au sein d’un autre sont également présentés sans codification, avec un renvoi vers le nom de pays actuellement normalisé. La liste est présentée triée par défaut d’après les noms français normalisés par l’ISO (dans leur forme courte) ; cependant vous pouvez trier la table suivant un autre critère, si votre navigateur supporte Javascript, en cliquant sur l’icône de tri dans l’en-tête des colonnes.Cette liste, fournie dans l’annexe A (informative et non normative) de la norme ISO 3166-1, et classée alphabétiquement par les noms français, reprend les informations notées dans le corps de la norme concernant la définition de chaque zone et d'une façon plus accessible ; elle indique pour chaque territoire le code ISO 3166-1 (alpha-2) du pays ou territoire qui le couvre ; elle ne constitue pas une liste de subdivisions administratives (voir l'ISO 3166-2 pour cela), mais sert uniquement à différencier et délimiter les codes ISO 3166-1 entre eux, selon un critère géographique suffisamment précis pour permettre cette différenciation territoriale. Elle reprend essentiellement un grand nombre d’îles et d'archipels qui sont : soit en bordure d’une frontière d’État, soit bordées par des eaux internationales ou des eaux partagées par plusieurs pays suivant une frontière invisible non marquée géographiquement.Le tableau suivant a pour but de synthétiser la liste complète des codes "ISO 3166-1", dans l’ordre alphabétique des codets, tels qu’ils sont désignés par la norme ISO, sur la « plateforme de consultation en ligne » (OBP). Ces codets alpha-2 ne font pas partie de la norme ISO 3166-1 en tant que tels, mais ont été listés conjointement avec elle car ils sont utilisés dans d’autres normes définies par des membres partenaires de l’ISO (notamment l’UPU, l’ITU, l’ISoc). Ils remplacent suivant les cas un ou plusieurs "codes ISO 3166-1" standards (et peuvent éventuellement faire l’objet d’une affectation de nom de domaine de premier niveau pour l’usage sur Internet.) Ils ne peuvent donc pas faire l’objet d’une normalisation des subdivisions nationales dans ISO 3166-2. Ces codets correspondent aux 12 cellules jaunes du tableau général ci-dessus.Le tableau suivant a pour but de synthétiser la liste complète des codes "ISO 3166-1" réservés (c'est-à-dire supprimés) de façon transitoire, dans l’ordre alphabétique des codets, tels qu’ils sont désignés par la norme ISO, sur la « plateforme de consultation en ligne » (OBP). Ces suppressions de codes viennent des éclatements ou des changements de nom des pays ou territoires, auxquels ils étaient précédemment affectés. Ces codets alpha-2 ne font pas partie de la norme ISO 3166-1 en tant que tels, mais ont été listés conjointement avec elle car ils pourront être ré-utilisés à l'issue de la période transitoire. Ces codets correspondent aux cellules grises du tableau général ci-dessus.Ces codets correspondent aux cellules rouges du tableau général ci-dessus, dans l’ordre alphabétique des codets, tels qu’ils sont désignés par la norme ISO, sur la « plateforme de consultation en ligne » (OBP). Parmi les 30 codets concernés à mi 2017, les 10 codets « AP, BX, EF, EM, EP, EV, GC, IB, OA et WO » sont demandés par l’Organisation mondiale de la propriété intellectuelle (OMPI) ou "World Intellectual Property Organization" (WIPO) pour une utilisation dans sa norme ST.3 ; norme qui utilise également certains codets à usage privé de la norme ISO 3166-1 : QZ, XU et XV et qui recommande XX pour coder les pays ou organisations inconnus.Les changements de "ISO 3166-1" sont annoncés par des bulletins périodiques appelés « Info-Services ». Ils sont d’intérêt général et consultables gratuitement.
ISO 3166-1 est une norme internationale de codification des pays. Elle fait partie de la norme ISO 3166. Publiée par l’Organisation internationale de normalisation (ISO) pour la première fois en 1974, pour la deuxième fois en 2006 et la troisième fois en 2013, elle attribue 3 codes pour les pays du monde :
xwikis
Né le à Prague, Vladimír Špidla étudia à l'université Charles de Prague où il obtint une maîtrise à la faculté des arts libéraux et des sciences en 1974 et un doctorat en histoire et préhistoire en 1976. Il exercera ensuite diverses professions : employé à la protection du patrimoine, archéologue, directeur adjoint de laiterie... En 1990 il exerce les fonctions de vice-président à l'éducation, la santé, la culture et les affaires sociales au Conseil populaire de district de Jindřichův Hradec. Il sera directeur de 1991 à 1996 de l'agence pour l'emploi de la même ville. Vladimír Špidla est marié et a deux enfants, auxquels s'ajoutent deux autres enfants d'un précédent mariage. Il parle allemand, français et anglais.L'engagement politique de Vladimír Špidla est tardif et remonte à la Révolution de velours, peu après laquelle il adhère au parti social-démocrate tchèque (CSSD), dont il intègre la présidence en 1992. Soutenu par Miloš Zeman, le leader historique des socialistes tchèques, il brigue avec succès la présidence du parti en 2001, pour l'abandonner en 2004 après le lourd revers subi par le CSSD aux élections européennes de 2004. Il fait partie de l'aile gauche du parti, même s'il est farouchement anti-communiste. Pro-européen, il prône la poursuite du processus d'intégration européenne.Élu député en 1996, Vladimír Špidla sera de 1998 à 2002 ministre du Travail et des Affaires sociales de République tchèque, avant de devenir Premier ministre le. Son gouvernement de coalition CSSD/ KDU-CSL/US-DE s'efforcera de contenir le déficit public du pays alors qu'à l'intérieur de la coalition des tensions sont fortes et qu'elle n'a qu'une très faible majorité à la Snemovna. Finalement, la politique de rigueur du gouvernement Špidla, faite de hausses d'impôts et non de réductions des dépenses de l'État, sera critiquée par ses adversaires pour sa demi-mesure. Dans ce contexte et après la défaite du CSSD aux élections européennes de 2004, Špidla démissionne du gouvernement et acceptera après une brève hésitation le poste de commissaire européen à l'emploi, des affaires sociales et à l'égalité des chances, dans lequel il entre en fonction en. Depuis son départ pour Bruxelles il n'intervient plus dans la vie politique tchèque. Certains ont critiqué ce départ de Špidla pour Bruxelles, que ce soit pour dénoncer le cadeau qui lui était fait ou pour l'accuser, en partant à Bruxelles, d'esquiver la bataille pour la conduite du CSSD avec ses rivaux. Vladimir Špidla jouit en Tchéquie d'une relativement bonne image: si on trouve ennuyeux ce technocrate peu apte à la communication, ses qualités d'intégrité et honnêteté sont reconnues par tous.
Vladimír Špidla, né le à Prague, est un homme d'État tchèque, de sensibilité social-démocrate. Il fut président du gouvernement tchèque de 2002 à 2004.
xwikis
Le royaume de Hongrie fondé en 1001 et disparu en 1946 portait en hongrois le nom de "Magyar Királyság" dont est issue l'appellation de la Hongrie contemporaine : "Magyarország" : « le pays des Magyars ». En hongrois, "magyar" désigne à la fois l'État et le nom du groupe ethnique issu de l'Oural et leurs descendants supposés. Du mot "magyar" est issu l'adjectif et le substantif « magyar » en français ou encore "magyarisch" et "Magyar" en allemand. Dans la plupart des langues du monde, c'est pourtant la racine latine "Hungaria" qui est utilisée pour désigner l'État, qu'il s'agisse du royaume ou de la république. C'est le cas de l'anglais notamment : "Kingdom of Hungary", "Republic of Hungary", "Hungary". En slovaque, en slovène et en croate et serbe, le terme "magyar"Les éléments des armoiries de la Hongrie datent du Moyen Âge. Le blason actuel est utilisé pour la première fois sous le règne de Louis (1342 – 1382). La couronne surplombant le blason apparaît sous le règne de Ladislas Jagellon (1440 – 1444). Il s'agit à l'origine d'un diadème classique, mais sur le sceau de Matthias Corvin de 1464, elle commence à ressembler davantage à la couronne d'Étienne de Hongrie. La version finale des armoiries est élaborée sous le règne de Matthias, au début du. Son usage devient régulier sous le règne de Marie-Thérèse d'Autriche. Le drapeau de la Hongrie est composé de trois bandes horizontales rouge (dessus), blanche et verte. Sa forme tricolore est inspirée du drapeau français et des idées de la Révolution de 1789 alors que ses couleurs sont une reprise des armoiries historiques de la Hongrie. Le drapeau fait sa première apparitionLes "regalia" sont les symboles de la souveraineté hongroise. Elles sont constituées de plusieurs pièces : la couronne de saint Étienne ("Szent István Korona"), le sceptre ("jogar"), l'orbe ("országalma"), le manteau du couronnement ("palást") et l'épée ("kard"). La couronne des rois de Hongrie était utilisée depuis le. Chaque couronnement fait référence à celui d’Étienne, couronné roi de Hongrie le avec une couronne envoyée par le pape Sylvestre II. La couronne avait été apportée par le légat Astéric (ou Anastase), futur archevêque d’Esztergom. La couronne que l’on peut voir aujourd’hui est différente de l’original. Étienne perdit son fils unique et renvoya avant de mourir sa couronne au Vatican, en signe de soumission. Depuis, elle a été volée et on perd sa trace au. Les spécialistes considèrent que la couronne actuelle se compose d’une partie byzantineLa Hongrie est d'une altitude moyenne de au-dessus du niveau de la mer. Bien qu'il existe quelques sommets montagneux, seul 2 % du territoire national dépasse les d'altitude. Le point culminant de la Hongrie est le Kékes dans les monts Mátra qui culmine à. Le point le plus bas est situé à Csongrád près de la rivière Tisza à de hauteur. Les principales rivières du pays sontBien que l'altitude de la plus grande partie du pays n'excède pas, on trouve plusieurs chaînes de montagnes moyennes en Hongrie. Il existe quatre régions géographiques montagneuses, d'ouest en est : Alpokalja, massif de Transdanubie, Mecsek, massif du Nord. L'Alpokalja (en allemand : "Alpenenstrand", les « contreforts des Alpes ») est situé le long de la frontière avec l'Autriche. Son point culminant est le Kékes, ou Kékestető (). Le massif de Transdanubie s'étend du lac Balaton jusqu'auLa Hongrie se situe au carrefour de quatre influences climatiques. D'une part l'influence continentale de l'Europe de l'Est produit des saisons marquées avec des températures fortement négatives en hiver et élevées en été, mais tempérées par les masses d'air de la façade atlantique. D'autre part, c'est dans le bassin des Carpates que se rencontrent les influences sibériques du nord et l'influence méditerranéenne des Balkans. La température moyenne annuelle est de 8, ce qui est relativement élevé, avec des amplitudes de 20. En janvier, la températureLa Hongrie compte une dizaine de parcs nationaux, naturelles et protégées. Les parcs nationaux de Aggtelek et de HortobágyLe réseau Natura 2000 rassemble des sites naturels ou semi-naturels de l'Union européenne ayant une grande valeur patrimoniale, par la faune et laVers 350 av. J.-C., aux Illyriens (en Pannonie), aux Agathyrses (dans la plaine danubienne) et aux Thraces (dans le bassin de la Tisza) vivant dans le bassin hydrographique du moyen-Danube s'ajoutent des Scythes et des Celtes puis, au, les Romains qui occupent la rive occidentale du Danube et transforment la Pannonie en province romaine. Au celle-ci subit les invasions des Ostrogoths, eux-mêmes contraints de quitter la région en 409 par la pousséeÀ la fin du, le prince Géza, descendant d'Árpád, impose sa domination sur toutes les tribus et se fait baptiser avec toute sa famille. Lors de sa succession, le jeune Vajk, futur Étienne de Hongrie, défend l'alliance avec l'Europe occidentale et l'église de Rome contre Koppány qui, lui, s'était allié à Byzance. Ainsi, le couronnement d'Étienne de Hongrie en l'an 1000, avec la bénédiction du pape Sylvestre II, signe à la fois la naissance formelle du royaume de Hongrie et l'inscription du nouvel État dans le giron occidental. L'organisation d'un clergé hongrois est le signe de la reconnaissance de l'indépendance du royaume, notamment face au Saint-Empire romain germanique. Assuré deEn 1526, le royaume de Hongrie est divisé en deux, puis en trois parties. Ferdinand du Saint-Empire s'empare de la Haute-Hongrie (actuelle Slovaquie) et de l'Ouest du royaume tandis que le voïvode de Transylvanie, Jean Zápolya, conserve le Centre et l'Est. À sa mort en 1540, Soliman le Magnifique, sultan ottoman, occupe la plaine danubienne et prend Buda. La principauté de Transylvanie (agrandie du Nord-Est de la Hongrie royale, le "partium") a le choix entre deux vassalités : envers les Autrichiens ou envers les Turcs : les voïvodes choisissent la seconde option, qui leur laisse plus d'indépendance, tant politique que religieuse (pacte de tolérance). Entre 1591 et 1606, les Habsbourgs utilisent leur armée pour faire pression sur la Haute-Hongrie et la Transylvanie. Étienne II Bocskai mène alors un soulèvement qui pousse l'Empire autrichien à reconnaître les privilèges de laLes magnats hongrois négocient alors un compromis avec la maison autrichienne et favorisent l'arrivée au pouvoir de Charles d'Autriche. En 1715, celui-ci proclame ainsi l'indivisibilité de la Hongrie et des provinces héréditaires des Habsbourg. Ceux-ci organisent l'installation de colons allemands dans toute la plaine danubienne, spécifiquement sur les rives du fleuve (Allemands du Banat). Après plusieurs tentatives des souverains autrichiens de réformer l'administration et imposer l'allemand comme langue de la Cour, Léopold d'Autriche reconnaît en 1792 la spécificité des loisL'effondrement de l'Autriche-Hongrie à l'issue de la Première Guerre mondiale entraîne son éclatement selon le principe des États-nations. Les indépendantistes hongrois prennent le pouvoir à Budapest le 30 octobre et, le 16 novembre, la République démocratique hongroise est proclamée, mais le gouvernement de Mihály Károlyi ne parvient pas à empêcher les minorités de l'ancien royaume de Hongrie de proclamer leurs propres indépendances ou unions avec des pays voisins. En décembre 1918, la Grande Hongrie est démembrée "de facto". En avril 1919, les communistes de Béla Kun, alliés aux sociaux-démocrates, prennent le pouvoir et proclament la République des conseils de Hongrie, deuxième régime communiste de l'histoire après la Russie soviétique. Le régime ne dure que trois mois : une attaque contre la Tchécoslovaquie et la Roumanie, visant à récupérer les territoires perdus, tourne à la débâcle et les communistes sont chassés du pouvoir. L'après-guerre ouvre une période paradoxale pour le pays. D'une part, elle signe l'émancipationEn 1944, Miklós Horthy proclame la neutralité de son pays alors que les armées soviétiques et roumaines franchissent les frontières hongroises. La Hongrie est alors envahie à l'ouest par l'Allemagne, qui renverse Horthy et le remplace par le dirigeant hungariste Ferenc Szálasi, chef du parti fasciste hongrois des Croix fléchées. Les Soviétiques et les Roumains chassent les Allemands de Hongrie en avril 1945. Occupée par l'URSS, la République hongroise est soumise à une prise de pouvoir progressive par les communistes hongrois dont les Soviétiques imposent la présence au sein du gouvernement de coalition de l'après-guerre. Mátyás Rákosi, secrétaire général du Parti des travailleurs hongrois, devient le principal dirigeant de la République populaire de Hongrie, nouveau régime communiste officiellement proclamé le. Le, la Hongrie se soulève contre l'URSS. Initiée en faveur du soutien au Premier ministre réformateur Imre Nagy, l'insurrection de Budapest est écrasée entre le 4 et le 11 novembre par l'armée soviétique, tuant et entraînant le départ de plus de. János Kádár devient Premier ministre et premier secrétaire du Parti socialiste ouvrier hongrois, nouveau nom du parti unique. Imre Nagy et ses compagnons sont arrêtés et exécutés deux ansLe président de la République est élu au suffrage indirect par l'Assemblée nationale ("Országgyűlés") tous les cinq ans. Il est le chef de l'État et le garant des institutions. Il nomme le Premier ministre qui compose son gouvernement et à qui il appartient seul le droit de révoquer les ministres. Chaque nomination ministérielle doitLa loi LXV de 1990 sur les collectivités territoriales ("helyi önkormányzat") est considérée comme l'un des actes juridiques les plus importants de la transition post-communiste car elle redéfinit profondément le maillage administratif de la Hongrie avec comme objectif la création d'un système de démocratie locale en rupture totale avec le système communiste. Il s'agit alors de redistribuer les différentes compétences administratives de façon à réduire substantiellement le pouvoir des comitats, considérés alors comme les pivots de l'ancienne nomenclature administrative socialiste. Le modèle privilégié est alors le contenu de la Charte du ConseilLes Magyars d'outre-frontières ("határon túli magyarok") désignent les populations magyares autochtones vivant sous le statut de minorité nationale ou de communauté ethnique dans les pays frontaliers de la Hongrie. Ils bénéficient d'un traitement spécifique de la part de la loi hongroise qui leur permet d'accéder à la citoyenneté hongroise ("magyar állampolgárság"), de bénéficier de bourses d'enseignements, de recevoir des aides financières en faveur du maintien et du développement de leur culture et de leur langue et de disposer d'organisations représentatives reconnues par le gouvernement hongrois. L'activisme législatif de la Hongrie à l'égard de ces populations est souvent perçu par les pays voisins comme autant d'intrusion dans leurs affaires politiques nationales. Depuis deuxLe système éducatif hongrois est un système décentralisé. Le Secrétariat d'État à l'Éducation fixe les conditions de scolarité ainsi que les exigences des épreuves nationales sanctionnant le parcours scolaire. Les collectivités locales sont propriétaires des établissements pré-élémentaires, élémentaires et secondaires. Chaque établissement jouit d'une grande autonomie budgétaire etEn décembre 2018 deux nouvelles lois sur le droit du travail provoquent un mouvement de protestation soutenu par l’ensemble des partis politiques en dehors de celui de l’exécutif. Organisée à l’appel des partis d’opposition, des syndicats et de mouvements issus de la société civile, la manifestation se poursuit en janvier 2019 pour dénoncer la nouvelle loi sur les heures supplémentaires qualifiée d’ – les chefs d’entreprise peuvent exiger de leurs employés jusqu’à 400 heures supplémentaires par an, soit l’équivalent de deux mois de travail, payables trois ans plus tard.Depuis le milieu des années 1990, la politique étrangère hongroise s'inscrit dans une démarche de convergence avec les objectifs de l'Union européenne. Après avoir déposé son adhésion le et ouvert les négociations le, la Hongrie devient membre de l'Union le et intègre l'espace Schengen le. De par sa taille, la Hongrie ambitionne de devenir un acteur régional au sein d'une Europe centrale élargie, bien au-delà de ses pays frontaliers. Au nord, elle s'implique avec la Pologne, la Tchéquie et la Slovaquie à la construction du groupe de Visegrád, afin de renforcer les politiques de coopération régionale, notamment sur le plan économique et énergétique. Cet espace privilégié est cependant régulièrement soumis à de nombreuses perturbations liées à l'activisme politique de la Hongrie à l'égard des Magyars d'outre-frontières particulièrement nombreux en Slovaquie. Au sud, la Hongrie est un soutien actif de l'intégration des pays balkaniques à l'Union européenne. Lors de la présidenceEntre 1990 et 2010, la démocratie parlementaire a surtout été rythmée par les alternances successives entre le centre-droit représenté par le Forum démocrate hongrois ("Magyar Demokrata Forúm", MDF) puis par le Fidesz ("") et le centre-gauche, représenté par le Parti socialiste hongrois ("Magyar Szocialista Párt", MSzP) et Alliance des démocrates libres ("Szabad Demokraták Szövetsége", SzDSz). Ces alternances reflètent alors un certain équilibre des forces politiques proche de celui des démocraties occidentales. La gauche hongroise est l'héritière à la fois des anciens réformateurs du Parti socialiste ouvrier hongrois (MSzMP devenu MSzP) et de ses opposants libéraux (SzDSz). Sa composante sociale-démocrate majoritaire prône le libéralisme politique et économique ainsi qu'une politique pro-européenne volontaire. L'extrême gauche est scindée entre le Parti communiste ouvrier hongrois ("Magyar Kommunista Munkáspárt", MKM) stalinien et la Gauche verte ("Zöld Baloldal Párt", ZB) altermondialiste. Depuis les dernières élections, un nouveau venu, La politique peut être différente ("Lehet más a politika", LMP) de sensibilité écologiste a fait son apparition et en même temps son entrée dans l'Országgyűlés. Enfin, la défaite de la gauche en 2010 est en train d'amener une profonde reconfiguration de l'échiquier politique comme l'illustre la fondation de laIl existe six confédérations syndicales en Hongrie membres du Conseil national de conciliation ("Országos Érdekegyeztető Tanács") aux côtés des organisations des employeurs et des représentants de l'État. La Confédération des syndicats autonomes ("Autonóm Szakszervezetek Szövetsége") regroupe essentiellement les syndicats des secteurs de transport, de l'énergie et de l'industrie ; le Bloc des syndicats professionnels défendAprès son retour au pouvoir en 2010, Viktor Orbán reprend en main la télévision publique pour l'instrumentaliser à des fins de propagande. Les médias privés sont progressivement rachètés par des oligarques proches du pouvoir. Désormais, le Premier ministre est à la tête d’un empire médiatique : une grande chaîne commerciale, toute la presse quotidienne régionale, des sites Internet ; près de 500 médias au total. Ce conglomérat couvrirait près de 80% du paysage médiatique. Depuis 2010, la liberté de la presse est encadrée par un Conseil des médias ("Media Tanács") chargé de vérifier, selon les termes de la loi, le traitement équitable deLa religion la plus importante en Hongrie est le christianisme (54,2 %) répartie entre l'Église catholique (39,0 %), les Églises protestantes (14,6 %) et les Églises orthodoxes (0,1 %). Les religions non chrétiennes sont très minoritaires (0,2 %). Le reste de la population se divise entre les sans religion (18,2 %) et ceux qui n'ont pas souhaité répondre (27,2 %). La Loi sur la liberté de conscience et le statutLa population décroît depuis le début des années 1980. IlLa stratification sociale de la société hongroise est marquée par l'héritage du collectivisme et les conditions de la décollectivisation. Au début des années 1950, le pouvoir communiste restreint considérablement la propriété privée, notamment foncière, ce qui aboutit à une forte diminution des inégalités sociales héritées de la Hongrie d'avant-guerre. Parallèlement à cette diminution, la nouvelle division du travail entraîne malgré cela l'émergence d'une nouvelle forme de hiérarchisation sociale selon la forme suivante, de haut en bas : Les inégalités sociales se concrétisent par une inégalité en termes de revenus et de conditions de logements. L'intensification de l'industrialisation participe dans les années 1960 à une amélioration des conditions de vie des plus pauvres, sans pour autant résorber les écarts de conditions de vie.Il y a plusieurs minorités ethniques, comme les Roms (3 %), les Allemands (1,3 %), les Slovaques (0,30La langue officielle en Hongrie est le hongrois. La Constitution reconnaît également les langues des minorités ethniques et la langue des signes hongroise.Plus de, sur une population de moins de d'habitants, ont quitté la Hongrie depuis le début des années 2010. Le pays est dès lors confronté à une pénurie de main-d'œuvre. Le pouvoir adopte en janvier 2019 une loi de « flexibilisation », que l'opposition qualifieLes plus importantes zones agricoles se situent dans le Petit Alföld (qui bénéficie des terres les plus fertiles), la Transdanubie et l'Alföld. Cette dernière zone couvre plus de la moitié du pays () et a des qualités de sol extrêmement variables. On y trouve même une petite région herbeuse semi-désertique appelée puszta (steppe) utilisée pour l'élevageDans le secteur industriel et de la métallurgie,La dette publique brute de la Hongrie étaitLe réseau routier national est géré par l'État. Il se déploie en unHaut débitDepuis la fin du communisme, les besoins énergétiques de l'industrie et de la population hongroises augmentent de façon continue. Les installations peinent à suivre la demande et le pays est ainsi obligé d'importer 62 % de sa consommation d’énergies fossiles, dont 82 % du gaz naturel en provenance de Russie. Cette dépendance s'explique par la vétusté des équipements de production thermique et l'obsolescence des installations existantes. Par ailleurs, la part des énergies renouvelables est particulièrement faible (7,3 %). Depuis juillet 2011, une stratégie gouvernementale fixant à l'horizon des vingt prochaines années l'indépendance énergétique a délimité trois grands principes de mise en œuvre de cette stratégie : laLe peintre hongrois le plus connu du siècle est Michele Ongaro (dit Pannonio). Il travaillait à la cour de Ferrare en Italie. Les peintres hongrois des et siècle travaillaient également surtout à l'étranger. Au siècle la peinture de scènes d'histoire a pris de l'importance (Gyula Benczúr, Bertalan Székely, Mór Than). Miklós Barabás, portraitiste, est le premier à avoir acquis une certaine reconnaissance dans son pays. Les tableaux de Mihály Zichy et de sont influencésLa musique hongroise occupe une place particulière en Europe. Si elle est encore souvent assimilée à la musique tzigane, il s'agit bien de traditions assez différentes. Le destin politique de la Hongrie ayant marqué de nombreux coups d'arrêt au développement d'une musique nationale, c'est finalement sous l'influence non plus de traditions orales issues de l'Asie et des Turcs, mais grâce à l'importation de la musique classique occidentale qu'elle prend un véritable essor (Franz Liszt, Béla Bartók). Les chœurs et le quatuor à cordes classique yEn 1896 à Budapest eut lieu la première séance de cinéma à la suite de l’initiative d’un marchand de chapeaux nommé Arnold Sziklaï qui a assisté à une projection des films à Paris. Il a alors décidé de ramener chez lui l’appareil de projection et quelques petits films ont été tournés et projetés. En 1898, Mor Ungerleilern le directeur du Velence, et Jozsef Neumann, un homme d'affaires ont fondé « Projectograph » la de production cinématographique Hongroise. Ces productions connues : "Un maniaque des échecs" (1898) et des copies de films : "La danse" de Béla Zsitkovski (1901), "Les sœurs" d'Ödön Uher (1905) et "Aujourd'hui et demain" de Mihaly Kertész (1912). Les scénarios du cinéma hongrois en 1910 étaient principalement des adaptations de romans ou de pièces de théâtre, et à partir de 1919, le cinéma dépendait des régimes politiques qui jouaient un rôle primordial sur la créativité des cinéastes. Début 1919 fut une période faste où furent produits, mais sous le règne fasciste jusqu’à 1931, plusieurs acteurs (Peter Lorre, Béla Lugosi), metteurs en scène (Kertesz, Alexander Korda, Benedek, André de Toth, George Pal, PaulLa Hongrie est particulièrement bien dotée en universités et laboratoires de recherche. L'université Loránd Eötvös (') est l'héritière de lUniversitas" de Nagyszombat fondée par Péter Pázmány en 1635, de l'université de Pest et de l'université de Budapest. L'université Corvinus de Budapest (') dispense une formation en sciences de l'économie depuis 1948. L'université polytechnique et économique de Budapest (') est réputée pour avoir formé des ingénieurs illustres au nombre desquels on compte Ernő Rubik, Dennis Gabor ou encore Leó Szilárd. En dehors de Budapest, les plus grandes villes du pays disposent également d'universités importantes, à l'instar de Debrecen : (université de Debrecen), Gödöllő (université Szent István), Győr (université István Széchenyi), Kaposvár (université de Kaposvár), Miskolc (Université de Miskolc), Pécs (université de Pécs), Sopron (université de Hongrie occidentale), Szeged (université de Szeged) et Veszprém (université de Pannonie). Après la réforme des universités de 2000, de nombreux établissements d'enseignement supérieur sont devenus des universités à part entière. Parmi celles-ci, de nombreuses écoles réputées dans les domaines artistiques ont vu leur statut évoluer, à l'instar de l'université hongroise des beaux-arts ('), l'université deLa cuisine hongroise ("magyar konyha") classique est, pour simplifier les choses, un mélange de cuisine française adaptée par l’intermédiaire de l’Autriche et de plats rustiques typiquement hongrois dont de nombreux proviennent d’Asie. La cuisine hongroise fait référence à une tradition gastronomique originaire de Hongrie, partagée par les habitants du pays et les minorités magyares vivant en Slovaquie, Ukraine, Roumanie et Serbie. Utilisant les mêmes ingrédients que la plupart des cuisines d'Europe centrale (chou et de nombreuses variétés de racines et tubercules, bœuf, porc, volaille), elle se distingue par une forte influence orientale (turque et balkanique) et l'utilisation privilégiée du poivron, sous forme de légume ou de poudre de paprika. Elle est également inspiratrice de nombreux plats de la cuisine juive ashkénaze. De ces ingrédients sont préparés de nombreux plats de viande épicés (pörkölt, paprikás, fasírt), des spécialités de saucisses (saucisses de Debrecen, de Gyula), des soupes paysannes (goulasch, bableves) ou de pêcheurs ("halászlé"), des légumes marinés, farcisDepuis le Moyen Âge, la Hongrie possède un rôle influent dans l’histoire artistique, culturelle, intellectuelle et politique de nombreux pays d'Europe centrale. En particulier, les anciennes possessions du royaume de Hongrie (Slovaquie, Transylvanie et Croatie notamment) perpétuent encore des traditions administratives et juridiques héritées de l'État hongrois (le système de comitat notamment). Le renouveau linguistique ("Nyelvújítás") initié à la fin du puis le mouvement nationaliste hongrois du participent à une offensive culturelle contre l'allemand, alors langue de l'élite politique hongroise et de la Cour impériale. Cette offensive s'accompagne d'une politique de magyarisation très forte auprès des Slovaques, Roumains et Croates vivant dans le royaume. Celle-ci échoue définitivement lorsque l'ancien royaume de Hongrie est disloqué à la suite du traité de Trianon en 1920. ParLa Hongrie a pour codes :
La Hongrie (, ) est une république constitutionnelle unitaire située en Europe centrale. Elle a pour capitale Budapest, pour langue officielle le hongrois et pour monnaie le forint. Son drapeau est constitué de trois bandes horizontales, rouge, blanche et verte et son hymne national est le "Himnusz". D'une superficie de, elle s'étend sur du nord au sud et d'est en ouest. Elle a de frontières avec l'Autriche à l'ouest, la Slovénie et la Croatie au sud-ouest, la Serbie au sud, la Roumanie au sud-est, l'Ukraine au nord-est et la Slovaquie au nord.
xwikis
La première distinction entre les continents a été faite par les anciens marins grecs qui ont donné les noms d'Europe et d'Asie aux terres des deux côtés du cours d'eau de la mer Égée, le détroit des Dardanelles, la mer de Marmara, le détroit de Bosphore et la mer Noire. Les noms ont d'abord été appliqués seulement pour désigner les terres près de la côte et seulement plus tard étendus à l'arrière-pays. Les penseurs de la Grèce antique ont ensuite débattu pour savoir si l'Afrique (alors appelée la Libye) devait être considérée comme faisant partie de l'Asie ou comme une tierce partie du monde. Une division en trois parties s'est finalement imposée. Du point de vue grec, la mer Égée, était le centre du monde, avec l'Asie à l'Est, l'Europe à l'Ouest et au Nord et l'Afrique au Sud. Alors que les limites géographiques sont immuables (à l'échelle de temps humaine), les limites entre les continents ne sont pas fixes. Dès le début, la frontière de l'Europe avec l'Asie a été prise à partir de la mer Noire, le long de la rivière Rioni (appelée alors le Phasis) en Géorgie. Plus tard, elle était considérée comme allant de la mer Noire par le détroit de Kertch, la mer d'Azov et le long du fleuve Don (appelé alors le Tanais) en Russie. Le Nil a généralement été considéré comme La frontière entre l'Asie et l'Afrique. Hérodote, au, s'est cependant opposé à cette situation, qui plaçait l'Égypte sur deux continents. Il a donc fait coïncider la rupture entre l'Asie et l'Afrique avec la frontière occidentale de l'Égypte, ce qui situait ce pays en Asie. Il a également remis en question la division en trois de ce qui est en fait une seule masse, un débat qui se poursuit près de deux millénaires et demi plus tard. Ératosthène, au, a noté que certains géographes divisaient les continents par les fleuves (le Nil et le Don), considérant ainsi les. D'autres divisaient les continents par des isthmes, appelant donc les continents. Ces géographes fixaient la frontière entre l'Europe et l'Asie à l'isthme entre la mer Noire et la mer Caspienne, et la frontière entre l'Asie et l'Afrique à l'isthme entre la mer Rouge et l'embouchure du lac Bardawil sur la Méditerranée. Avec la période romaine et le Moyen Âge, quelques auteurs ont pris l'isthme de Suez comme frontière entre l'Asie et l'Afrique, mais la plupart des auteurs continuaient à considérer le Nil ou la frontière occidentale de l'Égypte comme frontière. Au Moyen Âge, le monde a été représenté sur la carte en T-O, avec le T représentant les eaux de la division des trois continents.Christophe Colomb a traversé l'océan Atlantique pour atteindre les Antilles en 1492, ouvrant la voie à l'exploration et à la colonisation européenne des Amériques. Mais malgré ses quatre voyages vers l'ouest, Christophe Colomb n'a jamais su qu'il avait atteint un nouveau continent et a persisté à penser qu'il avait atteint l'Asie. En 1501, Amerigo Vespucci était le pilote d'une expédition qui naviguait le long de la côte du Brésil. Les membres de l'expédition parcoururent un long chemin vers le sud, le long de la côte de l'Amérique du Sud, ce qui confirma que la terre qu'ils longeaient avait des proportions continentales. De retour en Europe, Vespucci a publié un compte rendu de son voyage intitulé "Mundus Novus" () en 1502 ou 1503, mais il semble qu'il y ait eu des ajouts ou des modifications par un autre auteur. Quel que soit l'auteur de ces paroles, on peut lire dans "Mundus Novus", première identification explicite des Amériques, un continent comme les trois autres. Après quelques années, le nom de commence à apparaître comme un nom pour l'Amérique du Sud sur les cartes, comme Oliveriana (Pesaro) datant de 1504-1505. Les cartes de l'époque montrent clairement l'Amérique du Nord comme connectée à l'Asie et l'Amérique du Sud comme une terre séparée. En 1507, Martin Waldseemüller publie une carte du monde, "Cosmographia Universalis", qui est la première à montrer l'Amérique du Nord et l'Amérique du Sud distinctes de l'Asie et entourées par de l'eau. Un petit carton au-dessus de la carte principale explique pour la première fois que les Amériques sont à l'est de l'Asie et sont séparées de l'Asie par un océan, car les Amériques sont placées à l'extrémité gauche de la carte et l'Asie à l'extrémité droite, ce qui aurait pu créer une confusion. Dans le livre d'accompagnement, "Cosmographiae Introductio", Waldseemüller a noté que la terre est divisée en quatre parties, l'Europe, l'Asie, l'Afrique et la quatrième partie dont il forge le nom à partir du prénom d'Amerigo Vespucci. Sur la carte, le mot est placé sur une partie de l'Amérique du Sud.À partir du, le mot « continent » est utilisé comme substantif pour désigner une « étendue de terre limitée par un ou plusieurs océans »: en 1532, A. Fabre note dans son "Extraict ou recueil des isles nouvellement trouvees," « la terre veue de loing audevant estre adioncte a nostre continent ». Par la suite, il acquiert aussi d'autres sens, y compris l'acception anglaise de « terre ferme par rapport à une île », voire « d'Europe par rapport à l'Angleterre ». Le mot « continent » existait déjà en français. Sa première apparition dans la langue écrite remonte au, mais il était utilisé pour qualifier une personne pratiquant la continence, c'est-à-dire s'abstenant, totalement ou partiellement, de rapports sexuels. Utilisé avec le sens géographique, le terme est emprunté au latin "continens", participe présent de "continere" « maintenir relié », qui était employé comme substantif en latin classique pour désigner la « terre ferme ». On le trouve dans la traduction de textes grecs et latins à propos des trois du monde, bien qu'il n'y eut pas dans la langue originale de mot ayant exactement le même sens que "continent" qui ait été utilisé. Alors que le mot « continent » a été utilisé pour les zones relativement petites de la continuité de la terre, les géographes ont de nouveau soulevé la question de Hérodote sur les raisons pour lesquelles une seule grande masse devrait être divisée en deux continents. Au milieu du, Peter Heylin a écrit dans sa "Cosmographie" que. En 1727, Ephraïm Chambers a écrit dans son "Cyclopædia",. Et, dans son atlas de 1752, Emanuel Bowen définit un continent comme. Toutefois, la vieille idée de l'Europe, de l'Asie et de l'Afrique en tant que du monde a en fin de compte persisté, celles-ci étant désormais considérés comme des continents.À partir de la fin du, certains géographes ont commencé à considérer l'Amérique du Nord et l'Amérique du Sud comme deux parties du monde, ce qui fait au total cinq parties. Cependant, la division par quatre fut globalement plus répandue au cours du. Les Européens ont découvert l'Australie en 1606, mais pour un certain temps, elle a été vue comme une partie de l'Asie. À la fin du, certains géographes ont considéré qu'il s'agissait d'un continent à part entière, ce qui en fait le sixième (ou le cinquième pour ceux pour qui l'Amérique est un seul et même continent). En 1815, Samuel Butler a écrit de l'Australie : et l'Oxford English Dictionary est tout aussi équivoque quelques décennies plus tard. L'Antarctique a été aperçu en 1820 et est décrit comme un continent par Charles Wilkes sur l'Expédition Wilkes en 1838, c'est le dernier continent à être identifié, même si l'existence d'un grand territoire antarctique avait été envisagée depuis des millénaires. En 1849, signale l'Antarctique comme un continent, mais peu d'autres atlas l'ont fait jusqu'après la Seconde Guerre mondiale. Au, le mayaniste Augustus Le Plongeon proposa l'hypothèse d'un nouveau continent, nommé Mu. Il se basait sur la traduction - ultérieurement contestée - du Codex tro-cortesianus par Brasseur de Bourbourg. D'autres continents hypothétiques ont été imaginés, à l'époque où la géologie était moins avancée que désormais. C'est le cas de la Lémurie, continent envisagé pour expliquer la disparition de certains mammifères. On peut aussi citer l'Atlantide, évoquée pour la première fois au, cet hypothétique continent englouti est encore aujourd'hui fruit de spéculations. Le drapeau olympique, conçu en 1913, a cinq anneaux représentant les cinq terres habitées, traite l'Amérique comme un seul continent et n'inclut pas l'Antarctique. À partir du milieu du, les atlas des États-Unis ont le plus souvent traité l'Amérique du Nord et l'Amérique du Sud comme deux continents, ce qui est compatible avec la compréhension de la géologie et de la tectonique des plaques. Mais il n'était toujours pas rare que les atlas américains les traitent comme un seul continent, du moins jusqu'à la Seconde Guerre mondiale. C'est d'ailleurs cette dernière vision qui prévaut encore de nos jours en Europe. Toutefois, au cours des dernières années, il y a eu une poussée pour que l'Europe et l'Asie, traditionnellement considérées comme deux continents, soient considérées comme un seul continent, appelé — là aussi compatible avec la compréhension de la géologie et de la tectonique des plaques. Dans ce modèle, le monde est divisé en six continents (si l'Amérique du Nord et l'Amérique du Sud sont considérées comme des continents distincts). De façon anecdotique, on parle aussi de « "n"ième continent » pour qualifier les plaques de déchets de l'Atlantique Nord et du Pacifique Nord, plus précisément désigné en tant que vortex de déchets du Pacifique nord.Il n'y a pas de définition unique d'un continent. C'est pourquoi les cultures et les sciences ont des listes différentes de continents. D'un point de vue restrictif, un continent doit être une grande étendue continue de terre ferme (émergée), à laquelle on peut associer les îles proches (se reporter à la liste des subdivisions continentales donnée plus bas). Le critère d'origine pour désigner un continent, le critère géographique, est parfois ignoré au profit de critères plus arbitraires, souvent liés à l'histoire et aux cultures. En effet, sur les sept continents les plus couramment retenus, seuls l'Antarctique et l'Océanie sont séparés des autres continents par une étendue d'eau significative (océan Austral et mers de l'archipel indien), alors que les autres ne sont séparés que par des détroits, parfois aisément franchissables.Étant donné que la définition d'un continent est souvent arbitraire, les séparations entre ceux-ci ne sont pas toujours clairement définies. On privilégie les frontières maritimes, mais elles ne sont pas toujours satisfaisantes notamment du fait des nombreuses îles d'Océanie. Certaines frontières rassemblent un certain consensus du fait de leur clarté géographique : Du fait de ces fixations géographiquement arbitraires de limites, des pays comme l'Égypte, la Turquie et le Panama se retrouvent à cheval sur deux continents, sans qu'on puisse y trouver la moindre justification culturelle. Des limites comme les canaux de Suez et Panama sont d'ailleurs très contestables, car purement artificielles, et altérant la réalité géographique naturelle. Certains géographes proposent donc de déplacer tout au moins les limites aux frontières politiques les plus proches de la séparation géographique. D'autres frontières sont davantage controversées : Avec l'extension récente de l'Union européenne aux portes de l'Asie, tant dans les Balkans qu'en Europe de l'Est, se pose une nouvelle fois le problème du tracé exact de la limite de l'Europe, car il soulève celui des élargissements à venir. Si ce problème ne revêt guère d'importance aux yeux de la Russie, puissance majeure qui n'a jamais exprimé de velléités à intégrer la communauté, d'autres pays du Sud et de l'Est de la Méditerranée (Maroc, Turquie...) ainsi que du Caucase (Arménie, Géorgie...) y voient un enjeu important en termes d'opportunités commerciales et de développement économique, et se revendiquent membres de l'espace européen sur la base de critères historiques et culturels pour prétendre à l'adhésion. Le Cap-Vert, un pays encore bien plus éloigné, se prévaut aussi d'arguments en termes géostratégiques. Les discussions sur la pertinence des frontières ont cependant permis de révéler une chose : il ne faut pas confondre les catégorisations sur des critères géographiques avec celles sur des critères anthropologiques. Même les limites les plus consensuelles telles que les détroits ne recouvrent aucune réalité historique ou culturelle, et cela est aisément vérifiable en observant la répartition des ensembles ethniques sur des zones-clés telles que la Méditerranée, l'Insulinde et l'Europe de l'Est. La dimension scientifique (en termes de tectonique des plaques) doit donc être distinguée de la dimension humaine (en termes de zones de peuplements culturellement homogènes).Dans un sens élargi, le terme de continent désigne la subdivision commune de la Terre en grandes parties à partir des critères géographiques de continuité des territoires et de ceux d'homogénéité culturelle, de sorte qu'y sont aussi incluses les îles au large des côtes. Pourtant les îles ne font pas partie des continents (au sens commun, ou au sens scientifique) puisque leur territoire n'est pas continu avec celui du continent. Elles sont donc habituellement considérées comme appartenant au continent dont elles sont le plus proches. Par exemple, les îles Canaries — quoique espagnoles — sont rattachées à l'Afrique, les Baléares font partie de l'Europe et les îles du Pacifique appartiennent à l'Océanie. Il en est de même pour l'île de La Réunion ou l'île Maurice qui, malgré la distance qui les sépare de l'Afrique, sont considérées malgré tout comme des îles africaines. L'Australie constitue certainement l'exemple le plus illustratif de l'ambivalence de la définition : communément qualifiée d'île-continent, il est difficile de lui assigner un statut de façon non arbitraire. Si l'on retient la taille moyenne des autres continents, tels que l'Afrique, l'Asie ou l'Antarctique, comme critère de distinction, l'Australie devrait appartenir à la catégorie des îles, et se voir rattacher de ce fait à l'Asie (comme il était fait au temps de sa découverte). Cependant, du fait de son éloignement de la partie continentale de l'Asie, de sa grande taille comparativement aux iles de l'Insulinde, de spécificités culturelles, etc. elle a finalement été intégrée en tant que partie continentale au vaste ensemble d'îles du Pacifique regroupé sous le terme d'Océanie au. D'ailleurs, en comparaison avec l'Europe, il semble difficile de lui dénier ce statut.Deux des plus grandes oppositions portent sur l'Europe et l'Asie qui pourraient être unifiées (Eurasie) et sur l'Amérique du Nord et l'Amérique du Sud qui formeraient l'Amérique. Quelques géographes proposent de regrouper l'Europe, l'Asie et l'Afrique en une Afro-Eurasie. Le modèle à six continents avec un seul continent américain est utilisé par les pays de langue latine, notamment en France et la majorité de la francophonie, en Espagne, Portugal et en Amérique latine, en Italie, Roumanie, ainsi qu'en Grèce. Un modèle à cinq continents est obtenu à partir de ce modèle, en excluant l'Antarctique qui est inhabitée. Il est utilisé notamment par les Nations Unies, le Comité olympique et le drapeau olympique. Le modèle à six continents avec un bloc eurasiatique est utilisé au Japon et en Russie. Le modèle à sept continent est généralement enseigné dans la plupart des pays anglo-saxons, dont le Royaume-Uni, l'Australie, et aussi en Chine, Inde, Pakistan, Philippines, plus certains pays d'Europe occidentale.Le tableau suivant donne la superficie, la population, la densité de population et le nombre de pays de chaque continent, suivant le modèle à sept continents. La superficie totale des continents est, ou approximativement 29 % de la surface de la Terre ().Le tableau suivant donne la liste des continents en fonction de leur point culminant. L'Asie bénéficie du plus haut sommet du monde, l'Everest, mais elle regroupe en outre l'ensemble des dix premiers sommets du monde, en termes de hauteur. De nombreux reliefs s'élèvent en Asie, avec des massifs montagneux comme le Tian Shan et l'Himalaya. Le relief sud-américain est quant à lui marqué par la cordillère des Andes qui longe toute sa côte ouest. La disposition du relief nord-américain est longitudinale : la région se décompose en ensembles différenciés qui se succèdent d’est en ouest. Le point culminant d'Amérique du Nord, le Denali, se trouve en Alaska. Le point culminant de l'Afrique, le Kilimandjaro (un volcan éteint), fait partie de la vallée du grand rift. Les principales chaînes de montagnes en Europe sont l'Oural, le Caucase et les Alpes, ces dernières abritant le mont Blanc, point culminant d'Europe occidentale. L'Antarctique est, lui, coupé en deux parties inégales par les monts Transantarctiques, chaîne de montagne de de long, formant une courbe en depuis la côte de la mer de Weddell (face à l’île Berkner) jusqu'à la côte de l'océan Antarctique face aux îles Balleny. L'Australie est un continent relativement plat, marqué cependant par certaines zones montagneuses. L'île de la Nouvelle-Guinée offre son plus haut sommet à la région océanienne.Le tableau suivant donne l'espérance de vie des habitants des cinq régions majeures, suivant un modèle à « cinq continents », suivant le modèle subjectif européen séparant Europe et Asie. L'Afrique est marquée par une espérance de vie assez faible, due à un taux de mortalité important, bien qu'il soit inégal suivant les régions du territoire. Par exemple, le Maghreb a un taux de mortalité de alors que celui de l'Afrique subsaharienne s'élève à. L'Europe et l'Océanie sont les régions qui bénéficient de la plus haute espérance de vie, celle-ci étant égale à dans les deux cas. L'espérance de vie du continent américain est baissée par celle de l'Amérique du Sud, où certains pays en développement ont une espérance de vie assez faible. Par exemple, l'espérance de vie de la Bolivie s'élève à seulement. L'espérance de vie du continent asiatique est inégale, avec une espérance de pour les habitants de l'Afghanistan alors que les Chinois vivent en moyenne jusqu'à.Au début du, Alfred Wegener remarque que par la disposition des continents, la côte est de l'Amérique du Sud semble s'emboiter parfaitement dans la côte ouest de l'Afrique. D'autres bien avant lui s'en sont aperçus, mais il est le premier à alors proposer, à partir de cette observation, la théorie de la dérive des continents : un supercontinent, la Pangée, se serait fragmenté au début de l'ère secondaire et, depuis cette date, les masses continentales issues de cette fragmentation dériveraient à la surface de la Terre. Au cours du, il fut accepté par les géologues que les continents bougent à la surface de la planète, à l'échelle des temps géologiques. Ce processus est connu sous le nom de et est expliqué par la tectonique des plaques. La surface de la Terre est aujourd'hui constituée de douze plaques tectoniques majeures (ainsi que de nombreuses mineures). Par conséquent, à l'échelle géologique, le nombre de continents est variable. Il existait d'autres continents dans le passé géologique, les paléocontinents. On a pu déterminer qu'il y a eu des époques de l'histoire de la Terre où il n'y avait qu'un seul grand continent à sa surface. Le plus récent, la Pangée remonte à d'années. Le prochain devrait apparaître dans d'années par le rapprochement de l'Afrique, de l'Eurasie et des Amériques, il s'agirait de la Pangée ultime.Pour les géologues, il existe à la surface de la Terre deux éléments structurels distincts : la croûte continentale, formée pour l'essentiel de granite et de roches associées, et la croûte océanique, de basalte et de gabbro. Aussi, la limite entre domaine continental et domaine océanique se trouve sous la surface de la mer : il est alors question de qui se prolonge parfois à plusieurs kilomètres au-delà du trait de côte. Lors de la dernière époque glaciaire (à l'apogée de la glaciation de Würm il y a ), en Europe occidentale, le plateau continental s'étendait à plusieurs dizaines de kilomètres à l'ouest du littoral actuel. En termes géologiques, un « continent » pourrait être défini indépendamment de la hauteur de l'océan, comme un bloc connexe de croûte continentale entouré de croûte océanique. Cependant, une telle définition appliquée strictement conduirait à considérer comme un même continent l'Amérique du nord et la Sibérie, le détroit de Behring étant formé sur de la croûte continentale. De même, l'idée de « dérive des continents » pourrait suggérer que les continents sont les objets emportés par cette dérive. Mais une définition s'appuyant sur les plaques tectoniques conduirait à la même difficulté, la pointe est de la Sibérie appartenant à la plaque nord-américaine. Ou encore, cette considération conduirait à rattacher la Sicile au continent africain, dont elle dépend géologiquement.Certaines parties des continents sont reconnues comme des sous-continents, en particulier celles sur les différentes plaques tectoniques qui divisent les continents. Les plus notables sont le sous-continent indien et la péninsule Arabique. Groenland, sur la plaque nord-américaine, est parfois considéré comme un sous-continent. Lorsque l'Amérique est perçue comme un seul continent, elle est divisée en deux sous-continents (Amérique du Nord et en Amérique du Sud) ou en diverses régions. Une définition des continents fondée sur les plateaux continentaux ajouterait ainsi plusieurs continents à faible surface émergée. Certaines zones de la croûte continentale sont largement couvertes par la mer, mais peuvent être considérées comme des continents submergés. C'est le cas de Zealandia, émergeant de la mer en Nouvelle-Zélande et en Nouvelle-Calédonie, ou même le presque complètement submergé plateau de Kerguelen, dans le sud de l'océan Indien. Certaines îles sont situées sur les sections de la croûte continentale qui ont cassé et dérivent en dehors de l'un des principaux continents. Bien qu'elles ne soient pas considérées comme des continents en raison de leur taille relativement petite, elles peuvent être considérées comme des microcontinents. Madagascar, l'exemple le plus répandu, est généralement considéré comme faisant partie de l'Afrique, mais a déjà été décrit comme.
Le mot continent vient du latin "continere" pour, ou "continens terra", les. Au sens propre, ce terme désigne une vaste étendue continue du sol à la surface du globe terrestre. Cependant, en géographie, la définition est souvent amendée selon des critères faisant appel à des habitudes historiques et culturelles. On retrouve ainsi certains systèmes de continents qui considèrent l'Europe et l'Asie comme deux continents, alors que l'Eurasie ne forme qu'une étendue de terre.
xwikis
Pour un petit déplacement rectiligne formula_2 du point d'application de la force, le travail élémentaire de la force formula_3 est par définition : Le travail d'une force pour un déplacement fini est donc égal à la circulation de cette force le long du trajet formula_5 du point d'application de la force : Une force constante formula_3 qui s'applique sur un objet parcourant un trajet rectiligne formula_8 fournit un travail "W" : En décomposant formula_3 en deux composantes : l'une parallèle à formula_8 et l'autre perpendiculaire, on remarque que la composante perpendiculaire ne travaille pas, et que seule la composante parallèle travaille, en application d'une propriété du produit scalaire. Si la trajectoire est circulaire (par exemple dans le cas où le point d'application d'une force est en rotation autour d'un axe formula_12), alors le travail élémentaire du moment résultant vaut formula_13, où formula_14 est le moment de la force par rapport à formula_12 et formula_16 l'angle parcouru par le solide pendant une courte durée d"t".Le déplacement élémentaire sur un intervalle de temps formula_17 est par définition formula_18, où formula_19 représente la vitesse de déplacement du point d'application de la force. Le travail élémentaire de la force formula_3 peut donc être défini de manière équivalente à partir de la puissance instantanée formula_21 (en watts) de cette force : Le travail d'une force sur une durée finie est alors égale à l'intégrale de la puissance instantanée de la force pendant cette durée.Considérons une force formula_3 constante s'appliquant sur un objet se déplaçant sur une trajectoire rectiligne (Il n'y a pas d'autres forces s'exerçant sur l'objet). Un certain nombre de cas particuliers permettent d'illustrer la notion de travail d'une force : Ce dernier cas ne doit pas laisser penser qu'une force dont le travail est nul n'a aucun effet sur un système. Ainsi, dans le cas d'un solide en mouvement circulaire uniforme, la force centripète a un travail nul (le mouvement circulaire uniforme n'est pas modifié). Pour autant, si l'on supprime la force centripète le solide cessera son mouvement circulaire et se déplacera en mouvement rectiligne, conformément à la loi de Newton. Les forces dont le travail est nul ne modifient pas l'énergie cinétique du solide. En particulier, elles ne modifient pas la norme de la vitesse ; elles peuvent cependant en modifier la direction.Les forces conservatives sont, par définition, des forces dont le travail ne dépend pas du chemin suivi mais uniquement des positions de départ et d'arrivée. Dans le cas de telles forces, il existe alors une énergie potentielle associée, dont la variation est l'opposée du travail. Le poids est un exemple de force conservative, dont le travail est l'opposé de la variation de l'énergie potentielle de pesanteur. Les contre-exemples les plus courants sont les frottements, dont le travail dépend toujours du chemin suivi. Considérons un corps de masse "m" se déplaçant de "A" vers "B" et un repère formula_37, l'axe formula_38 étant supposé vertical et dirigé dans le sens opposé de la gravité : formula_39. Dans ce cas, le travail du poids vaut : Si on considère que le poids est constant le long du trajet entre "A" et "B" alors on a : Si l'on note formula_42 les coordonnées du point "A" et formula_43 celles de "B", alors les coordonnées des vecteurs formula_44 et formula_45 sont les suivantes : et, par définition du produit scalaire, le travail du poids se simplifie de la façon suivante : Le travail du poids d'un corps est donc indépendant du chemin suivi lors de son déplacement, il ne dépend que de la variation d'altitude du centre de gravité de ce corps.Une personne de masse monte debout sur une chaise de de haut. Quel est le travail effectué par le poids de cette personne? formula_49, soit formula_50 où 9,81 représente la constante "g" caractéristique de la Terre (en newtons par kilogramme), 80 la masse en kilogrammes et 0,5 la hauteur en mètres. Le poids est une force résistante dans ce cas (il « s'oppose » au déplacement de la personne).Le travail induit par les forces de pression correspond à la forme de travail la plus courante rencontrée en thermodynamique classique, discipline qui s'est développée avec l'avènement de l'ère industrielle basée essentiellement sur la machine à vapeur. Le travail mécanique mis en jeu dans un moteur thermique par l'intermédiaire d'un ensemble cylindre-piston, correspond au travail du piston contre la pression extérieure, formula_51. Soit formula_52, la force exercée par le milieu extérieur sur le piston de surface formula_53. Si le piston se déplace d'une petite longueur élémentaire formula_54, le travail élémentaire effectué par celui-ci devient : or d'où On obtient ainsi: Pour respecter la règle des signes qui veut que le travail fourni par le système moteur au milieu extérieur soit négatif, formula_59 étant positif (détente), il convient d'ajouter le signe "moins". Pour une transformation réelle définie par la trajectoire AB, le travail dépend de cette trajectoire et n'est donc pas indépendant du chemin suivi : Remarques :Dans le cas où le déplacement est virtuel, formula_64, le "travail" d'une force formula_65 est considéré comme lui aussi "virtuel" : formula_66. L'unité de mesure d'un travail virtuel est aussi le joule, y compris en cas d'utilisation de coordonnées généralisées formula_67 car on utilise alors la force généralisée formula_68 vérifiant formula_69. Le principe de D'Alembert dit que le travail virtuel de l'ensemble des forces de contrainte est nul.
Le travail d'une force est l'énergie fournie par cette force lorsque son point d'application se déplace (l'objet subissant la force se déplace ou se déforme). Il est responsable de la variation de l'énergie cinétique du système qui subit cette force. Si par exemple on pousse une bicyclette, le travail de la poussée est l'énergie produite par cette poussée. Cette notion avec ce nom fut introduite par Gaspard-Gustave Coriolis.
xwikis
Un appareil informatique est un automate qui traite des informations conformément à des instructions préalablement enregistrées, selon le principe de la machine de Turing. Un micro-ordinateur est composé de :L'intérieur du boîtier d'un appareil informatique contient un ou plusieurs circuits imprimés sur lesquels sont soudés des composants électroniques et des connecteurs. La carte mère est le circuit imprimé central, sur lequel sont connectés tous les autres équipements. Les périphériques sont par définition les équipements situés à l"'extérieur" du boîtier. Ces équipements peuvent être connectés par des câbles, qui sont souvent des bus informatiques ou Ethernet mais de plus en plus souvent par des liaisons radios (WIFI, Bluetooth)Un bus informatique est un ensemble de lignes de communication qui servent aux échanges d'informations entre les composants d'un appareil informatique. Les informations sont transmises sous forme de suites de signaux électriques. La « largeur » d'un bus parallèle désigne le nombre de bits d'un groupe et donc le nombre de lignes utilisées pour sa transmission. Quelques standards de bus informatiques :Les périphériques d'entrée servent à "commander" l'appareil informatique ou à y "envoyer des informations". Les données d'entrées sont numérisées pour pouvoir être utilisée par le processeur. L'ensemble des dispositifs de commande, et les périphériques de sortie directement associés forment une façade de commande appelée interface homme-machine.Les lecteurs de cartes perforées (Herman Hollerith, 1890) sont les périphériques d'entrée qui équipaient les premiers ordinateurs. Ils ont été utilisés jusque dans les années 1980. Les cartes perforées servaient en même temps de mémoire de masse. Un télétype est un type d'appareil créé en 1925, semblable à une machine à écrire et utilisé pour introduire des "textes" dans un système informatique. Un terminal est un groupe de périphériques d'entrée et de sortie (clavier, souris, écran), utilisés pour commander à distance un appareil informatique. Les terminaux étaient d'usage courant sur les ordinateurs jusque dans les années 1980. Un émulateur de terminal est un logiciel placé dans un appareil informatique pour permettre à l'utilisateur de piloter un autre appareil comme s'il se trouvait aux commandes d'un terminal.La souris, la tablette graphique et le crayon optique sont des "dispositifs de pointage". Ils servent à désigner un objet sur une surface — généralement un écran. Un "écran tactile" est un écran sensible à la pression. Il permet de désigner un objet à sa surface avec le doigt, sans utiliser de "dispositif de pointage". Le joystick, les manettes, le volant, le pistolet et le gant de données sont des dispositifs de pilotage utilisés en réalité virtuelle, notamment avec les consoles de jeux vidéo et les simulateurs de vol.En musique assistée par ordinateur, les informations sont introduites en utilisant le clavier d'un synthétiseur. Les appareils informatiques peuvent être pilotés par une télécommande. Dans une interface neuronale directe, l'appareil est piloté directement par le cerveau de l'utilisateur. Les robots sont des appareils informatiques sans dispositif de commande — par définition un robot ne se commande pas. Ils peuvent par contre être équipés de capteurs de distance, d'altitude, ou de positionnement géographique analogue à celui du GPS.Les équipements de stockage servent à conserver des informations sous forme de nombres binaires.Un appareil informatique contient au minimum un processeur, voire 2, 4, ou plus. Les ordinateurs géants contiennent des centaines, voire des milliers de processeurs reliés dans un réseau de neurones, concept inspiré de l'anatomie du cerveau.Les équipements de sortie servent à présenter les informations provenant d'un appareil informatique sous une forme reconnaissable par un humain.Une imprimante est un équipement qui sert à faire sortir des informations sous forme d'images sur du papier. Il peut s'agir de documents ou de photos. Sur une imprimante à marguerite, un marteau frappe successivement les différentes pattes d'une étoile souple (la marguerite) contre un ruban encreur. Au bout de chaque patte se trouve l'empreinte d'un caractère typographique. Cette technique est directement héritée des machines à écrire. Sur une imprimante matricielle, l'image est imprimée par les frappes d'un groupe d'aiguilles sur un ruban encreur. Cette technique, très bruyante, permet toutefois d'effectuer des copies sur papier carbone, ce qui la rend encore très utile pour l'impression de factures ou de bons de livraison. Sur une imprimante à jet d'encre, l'image est imprimée par projection de gouttelettes d'encre sur le papier. Cette technique, évolution des imprimantes matricielles, est apparue en 1970. Sur une imprimante laser, un rayon laser dessine l'image à reproduire sur un tambour, qui se polarise et attire une poudre noire (le toner) qui reproduit alors fidèlement l'image à imprimer. Une feuille de papier pré polarisée est enroulée sur le tambour les inscriptions en poudre sont transférée sur le papier. La feuille passe alors entre deux rouleaux presseurs dont un chauffe, la poudre fond s'incrustant définitivement sur le papier. Cette technique est aussi utilisée sur les photocopieurs depuis 1976.Les équipements de réseau sont l'ensemble des équipements relatifs à la communication d'informations entre des appareils informatiques. Les équipements servent à l'envoi d'informations, à la réception, à la retransmission, et au filtrage. Les communications peuvent se faire par câble, par onde radio, par satellite, ou par fibre optique. En règle générale les équipements de transmission prennent en charge les normes industrielles et les protocoles de communication des niveaux 1 et 2. Les niveaux 3 à 7 sont pris en charge par les "logiciels".Une carte réseau est un circuit imprimé qui sert à recevoir et envoyer des informations conformément à un ou plusieurs protocoles. Un modem est un équipement qui sert à envoyer des informations sous forme d'un signal électrique modulé, ce qui permet de les faire passer sur une ligne de communication analogique telle une ligne téléphonique. Un hub Ethernet est un appareil de relais utilisé dans les réseaux informatiques. Il est équipé de plusieurs connecteurs, chaque information reçue par un des connecteurs est retransmise sur tous les autres connecteurs. Un hub travaille au niveau OSI 1. Un commutateur réseau (plus connu sous le nom de "") est un appareil de relais utilisé dans les réseaux informatiques. Il est équipé de plusieurs connecteurs, chaque information reçue par un des connecteurs est analysée, puis retransmise dès que possible sur le connecteur ou se trouve le destinataire. Un commutateur réseau travaille au niveau OSI 1 et 2. Un routeur est un appareil de filtrage des informations utilisé dans les réseaux informatiques. Il est équipé de deux connecteurs. Le routeur analyse les informations qu'il reçoit par un des connecteurs, puis en fonction de table de routage transforme les informations, et décide s'il est nécessaire de les retransmettre sur l'autre connecteur. Un routeur travaille aux niveaux OSI 1, 2 et 3.
Un matériel informatique (en anglais : ) est une pièce détachée d'un appareil informatique. Il s'agit d'un domaine important de l’informatique qui va de pair avec le logiciel (' ou '). Il peut y avoir des pièces situées à l'intérieur de l'appareil et qui sont indispensables à son fonctionnement, comme secondaires ou disposées à l'extérieur (les périphériques).
xwikis
Le mot gotique "Thiuda" signifiant « peuple », a comme adjectif "Thiudisk". "Thiudisk" est transformé en "Theodischus" par les Romains, puis en "Teudischus". "Thiudisk" devient "Diutisca" en vieux haut allemand pour aboutir à "Deutsch" en allemand moderne ou "Tysk" dans les langues scandinaves (d'où "Tyskland"). En ancien français, le latin "Theodiscus" donne "Thodesche", puis "Tudesque". Le français moderne préfère le mot "Allemand" issu duLongtemps dominée par l'Autriche dans le cadre du Saint-Empire romain germanique (de 962 à 1806) puis de la Confédération germanique (de 1815 à 1866), en 1871, à la fin de la guerre franco-prussienne, les divers États allemands furent réunis dans un État dominé par la Prusse, donnant ainsi naissance à l'Allemagne unifiée moderne, dite également Deuxième Reich ou "Reich Wilhelminien". La défaite allemande qui suivit la Première Guerre mondiale provoqua en 1918 l'avènement de la République, puis en 1933 celui du Troisième Reich, lequel s'effondra en 1945 dans la défaite qu'entraîna la Seconde Guerre mondiale. D'abord occupée par les forces armées de ses vainqueurs, l'Allemagne fut séparée en deux parties en 1949, qui formèrent la République fédérale d'Allemagne (dite ) et la République démocratique allemande (dite ). La réunification a eu lieu le, onze mois après la chute du Mur de Berlin, qui marqua la réunification populaire. En 1990, sa capitale redevient Berlin.La linguistique et les textes latins nous montrent que la mention du peuple germain remonte à l'époque romaine. Cependant les historiens s'entendent pour trouver les origines d'un territoire allemand au partage de Verdun de 842. Louis le Germanique a obtenu, lors de ce partage, l'est de l'empire carolingien, nommé Francie orientale. C'est de la Francie orientale qu'est issu le Saint-Empire romain germanique fondé par, dit le Grand (936-973). Cet empire comprend, outre le territoire de l'actuelle Allemagne, l'Italie du nord et la Bourgogne. Dès sa fondation, ce nouvel empire est entravéSous la pression de la France, le Saint-Empire est dissous en 1806 et remplacé par la Confédération du Rhin sous protectorat français. Après le congrès de Vienne ( - ), celle-ci est remplacée par la Confédération germanique () qui ne regroupe plus que sous la direction honorifique des Habsbourg, lesquels ne portent plus que le titre d'Empereur d'Autriche. En fait, cette confédération ne peut exister que si l'Autriche et la Prusse s'entendent. À partir de 1834, le Zollverein ou unionL'Allemagne, devenue une des puissances politiques majeures en Europe s'engage dans la Première Guerre mondiale aux côtés de l'Autriche-Hongrie (1914) et tente d'envahir la France. Après les premiers assauts, la guerre s'oriente vers une longue et lente guerre de position dans les tranchées, meurtrière d'un côté comme de l'autre. Elle prend fin en 1918 avec la défaite allemande, et l'empereur allemand, le Kaiser, doit abdiquer en raison de la Révolution allemande de. Lors du traité de Versailles, l'Allemagne est considérée comme responsable de la guerre et condamnée à payer de très lourdes réparations, d'autant que les Allemands ont fait sauter les cuvelages de 18 des minières françaises du nord pendant la guerreDévastée par la guerre (même si le potentiel industriel du pays est encore énorme car la politique de la terre brûlée souhaitée par Adolf Hitler n'est pas appliquée de façon conséquente), l'Allemagne est occupée par les Alliés. Le pays et Berlin sont divisés en quatre secteurs, chacun contrôlé par l'une des nations victorieuses (États-Unis, Royaume-Uni, Union soviétique et France). Après plusieurs propositions pour une nouvelle Allemagne (comme le "plan Morgenthau"), elle est finalement divisée en deux parties durant toute la Guerre froide : la "RFA" (République fédérale d'Allemagne) créée le à l'Ouest avec Bonn pour capitale et siège administratif, et la "RDA" (République démocratique allemande) créée le à l'Est avec Berlin-Est pour capitale. Les territoires à l'est du fleuve Oder et son affluent Neisse de Lusace ont été intégrés à la Pologne et à l'URSS. Le creux démographique provoqué par la guerre est rapidement compensé par l'arrivée d'environ d'Allemands expulsés des anciens territoires d'Allemagne-Orientale et des pays d'EuropeDe 1991 à 2000, de DM ont été investis chaque année à l'Est de l'Allemagne sans parvenir à sortir cette région de la crise, mais des réformes en profondeur sont entreprises dans les deux parties de l'Allemagne dans les années 1990, afin d'inciter le pays à être plus compétitif, en particulier celle du système de retraite. De 1998 à, le gouvernement allemand est dirigé par Gerhard Schröder, du SPD (Parti social-démocrate). Les écologistes du parti Die Grünen participent à un gouvernement de coalition. Après les élections législatives anticipées de 2005, la chancelière chrétienne démocrate Angela Merkel dirige un gouvernement basé sur une qui regroupe cette fois la CDU (et sa branche bavaroise la CSU) et le SPD. Depuis 2009, laLe Nord est occupé par la plaine d'Europe du Nord, formée par les glaciations du quaternaire, aux paysages fortement différenciés, le centre par des montagnes anciennes d'altitudes peu élevées, le sud par un bassin sédimentaire et par le massif alpin. Ce pays, bordé au nord-ouest par la mer du Nord et au nord-est par la mer Baltique, occupe une place centrale dans l'Union européenne par sa situation, sa puissance démographique, industrielle et commerciale. Une grande partie de l'Allemagne occidentale fait partie de l'Europe rhénane, la région la plus dynamique d'Europe et l'une des plus dynamiques du monde. La réunification de 1990 a changé l'organisation de l'espace allemand. L'espace rhénan reste cependant le cœur de l'Allemagne et l'axe le plus fréquenté, aussi bien sur le plan économique que sur le plan démographique malgré la nécessaire mutation de la Ruhr. Francfort et la conurbation de Région Rhin-Main continue de jouer son rôle de capitale financière du pays. Depuis le début des, les régions du Sud, le Bade-Wurtemberg et la Bavière sont des espaces attractifs. Ce sont des régions aussi bien industrielles (techniques de pointe, complexes militaro-industriels) que touristiques. Le solde migratoire régional est fortement positif. Depuis la réunification, le Centre et le Nord jouissent d'une position privilégiée. Ils sont devenus un nouveau centre géographique de l'Allemagne. Les ports de Hambourg et de Brême disposent de l'Hinterland de l'ancienne RDA dont ils étaient privés jusqu'en 1990. Le transit entre ces ports et les régions diverses d'Allemagne et d'Europe permet au Land de Basse-Saxe d'occuper une place majeure dans l'espace de l'Allemagne réunifiée. Les cinq Länder de l'est constituent une périphérie en reconstruction. Le passage d'une économie socialiste à une économie de marché a entraîné la fermeture de nombreuses usines vétustes et peu concurrentielles, le développement de friches industrielles, des migrations régionales vers les Länder de l'ouest et une forte augmentation du chômage. Le taux de chômage était, fin 2006, de 16,4 % alors qu'il est de 10,1 % pour l'ensemble de l'Allemagne. Ceci est dû à une faible compétitivité qui persiste depuis plus de quinze ans, malgré les investissements consentis par le gouvernement fédéral. Cette situation a abouti à un « désamour » entre les Allemands de l'ouest « "Wessis" » et les Allemands de l'est « "Ossis" », les uns trouvant qu'ils ont payé trop cher l'union, les autres se sentant oubliés par les plus nantis et regrettant l'époque de la RDA. Ce dernier phénomène a été appelé Ostalgie par les journalistes. Cependant, les autorités misent sur les nouveaux élargissements de l'Union européenne à l'Est pour dynamiser l'économie des cinq Länder de l'est. Entre 1990 et 2017, l'Allemagne a perdu 75 % de ses insectes volants.La "Deutsche Bahn", souvent désignée par son nom commercial "Die Bahn" ou par le sigle DB, est l'entrepriseVoici une liste des aéroportsLes alliés occidentaux ont réintroduit une structure fédéraliste en Allemagne en 1949. Le but était de préserver l'unité de la partie occupée par les occidentaux en empêchant le retour d'une Allemagne trop puissante sur le plan politique. Le fonctionnement du système politique allemand est donc régi depuis 1949 par une Constitution appelée Loi fondamentale ("Grundgesetz"). La Cour constitutionnelle qui siège à Karlsruhe veille à son respect. Depuis cette date, l'Allemagne est donc une république fédérale, composée d'abord de, puis de seize depuis 1990. Depuis la réunification des deux Allemagnes la capitale fédérale est Berlin. Les pouvoirs exercés par la seule Fédération concernent les affaires étrangères, la défense, la nationalité, la monnaie, les frontières, le trafic aérien, les postes et télécommunications, et une partie du droit fiscal. Le Parlement allemand est composé de deux chambres, le Bundestag, élu au scrutin mixte pour quatre ans, et le Bundesrat (Conseil fédéral) qui comprend des gouvernements des Länder. Chaque Land donne toutes ses voix pour ou contre une loi. L'accroissement des pouvoirs du Bundesrat met ceux-ci en mesure de bloquer l'action du gouvernement fédéral. En même temps, les compétences de l'État fédéral ont augmenté aux dépens des Länder. L'imbrication des compétences rend toute décision de plus en plus difficile. En effet, le Bundesrat doit se prononcer sur toutes les lois dont le contenu est applicable dans les Länder. En cinquante ans, la proportion de lois fédérales exigeant l'accord du Bundesrat est passée de 10 % à 60 %. En cas de différence de majorité entre les Länder et le gouvernement fédéral, il y a parfois blocage. Cela gêne même l'action de l'Allemagne dans les instances européennes. Les Länder et le gouvernement fédéral ont donc réfléchi ensemble à une réforme des institutions allemandes qui a été votée en. Les prérogatives législatives du Bundesrat sont diminuées. Le Bundesrat ne vote que les lois qui ont un impact sur les budgets des régions. En contrepartie, l'État fédéral abandonne à celles-ci des champs entiers de compétences dans l'éducation, la recherche et l'environnement. Le président de la République fédérale ("Bundespräsident") est élu pour un mandat de cinq ans, renouvelable une fois, au suffrage indirect, c'est-à-dire par les députés du "Bundestag" et des personnes élues par les parlements des Länder. Il représente l'unité allemande et défend les intérêts de l'Allemagne mais ses prérogatives restent serrées, son rôle étant essentiellement symbolique. Cependant, il s'agit d'une autorité morale respectée et écoutée. L'actuel président fédéral est Frank-Walter Steinmeier ; cet ancien ministre fédéral des Affaires étrangères a été élu à la fonction présidentielle le. Le chancelier fédéral ("Bundeskanzler") est le chef du gouvernement allemand. Il est élu par les membres du "Bundestag", sur proposition du président fédéral pour un mandat de quatre ans, renouvelable à plusieurs reprises. Angela Merkel (CDU) est l'actuelle chancelière fédérale ("Bundeskanzlerin") depuis le ; elle a été réélue en 2009, 2013 et 2017. La formation de coalitions (généralement désignées par référence aux couleurs qui symbolisent les grands partis) joue un grand rôle dans le fonctionnement politique de l'Allemagne, tant au niveau fédéral que dans chaque Land. Un seul des vingt-et-un gouvernements fédéraux ne reposait sur aucune coalition : le cabinet Adenauer III, entre 1960 et 1961. Deux grands partis dominent traditionnellement ces coalitions et s'opposent électoralement, quand ils ne sont pas unis dans une Grande coalition ("große Koalition", de 1966 à 1969, de 2005 à 2009 et depuis 2013 au niveau fédéral) : l'Union chrétienne-démocrate d'Allemagne ("Christlich Demokratische Union Deutschlands", CDU, symbolisée par le noir, centre droit démocrate chrétien et libéral-conservateur, présent dans tous les Länder sauf la Bavière) et son allié bavarois l'Union chrétienne-sociale en Bavière ("Christlich-soziale union in Bayern", CSU, symbolisée par le bleu ou le noir, droite démocrate chrétienne et conservatrice), membres du Parti populaire européen, ont dominé le gouvernement fédéral en occupant la chancellerie de 1949 à 1969, de 1982 à 1998 et depuis 2005) ; le Parti social-démocrate d'Allemagne ("Sozialdemokratische Partei Deutschlands", SPD, symbolisé par le rouge, centre gauche social-démocrate), membre du Parti socialiste européen, a dirigé l'Allemagne fédérale de 1969 à 1982 et de 1998 à 2005, et deuxième force d'une Grande coalition de 1966 à 1969, de 2005 à 2009 et depuis 2013. Deux autres partis ont été des partenaires mineurs de coalition au niveau fédéral : le Parti libéral-démocrate ("Freie Demokratische Partei", FDP, symbolisé par le jaune, centre libéral), membre du Parti de l'Alliance des libéraux et des démocrates pour l'Europe, a été associé aussi bien à la CDU/CSU (coalition noire-jaune) de 1961 à 1966, de 1982 à 1998 et de 2009 à 2013, qu'au SPD (coalition sociale-libérale ou rouge-jaune) de 1969 à 1982, en s'affirmant pendant longtemps comme la troisième force politique du pays avant de disparaître du Bundestag en 2013 ; l'Alliance 90 / Les Verts ("Bündnis 90 / Die Grünen", symbolisée par le vert, centre gauche écologiste), membre du Parti vert européen, n'a été membre d'un cabinet fédéral qu'en association avec le SPD (coalition rouge-verte) de 1998 à 2005, après avoir connu une progression électorale relativement soutenue depuis les années 1980. Une cinquième formation est représentée au Bundestag depuis 2009 sans avoir jamais fait partie d'une coalition au niveau fédéral et est devenue la troisième force politique allemande (et la première d'opposition) en 2013 : "Die Linke" (« La Gauche », symbolisé par le rouge, gauche et extrême gauche socialiste démocratique, antilibéral et populiste de gauche), membre du Parti de la gauche européenne. Plus récemment, durant les années 2010, à la suite successivement de la crise de la dette dans la zone euro et à la crise migratoire en Europe, un parti eurosceptique a vu ses résultats électoraux progresser très rapidement (cinquième force lors des élections européennes de 2014, la deuxième lors des élections législatives régionales de 2016 en Saxe-Anhalt et la troisième pour celles de Rhénanie-Palatinat et de Bade-Wurtemberg la même année) : l'Alternative pour l'Allemagne ("Alternative für Deutschland", AfD symbolisé par le bleu et le rouge), à l'origine créé par des économistes critiques envers l'euro, devenu davantage national-conservateur depuis 2015 en se réorientant vers des positions anti-immigration et anti-islam. Au niveau des Länder, au, neuf d'entre eux ont un ministre-président social-démocrate dont quatre dans le cadre d'une coalition rouge-verte (Brême, Rhénanie-du-Nord-Westphalie, Basse-Saxe et Hambourg), deux avec une Grande coalition (Berlin et Mecklembourg-Poméranie-Occidentale), deux dans une coalition en feu tricolore (avec l'Alliance 90 / Les Verts et un parti centriste libéral ou régionaliste, Schleswig-Holstein avec le parti de défense de la minorité danoise de la Fédération des électeurs du Schleswig-du-Sud ou SSW, et Rhénanie-Palatinat avec le FDP), un avec une coalition rouge-rouge (avec "Die Linke", Brandebourg). Quatre Länder ont un chef de gouvernement issu de la CDU, dont deux en Grande coalition (Sarre et Saxe), un avec une coalition noire-verte (avec l'Alliance 90 / Les Verts, Hesse) et un avec une coalition noire-rouge-verte ou kényane (avec le SPD et l'Alliance 90 / Les Verts, Saxe-Anhalt), à quoi s'ajoute un Land traditionnellement dominé par la CSU seule (Bavière). Enfin, deux Länder ont un ministre-président issu d'autres mouvements que les deux grandes forces de gouvernement : le Bade-Wurtemberg a un dirigeant issu de l'Alliance 90 / Les Verts gouvernant en coalition avec la CDU (coalition verte-noire) depuis 2016 après l'avoir fait avec le SPD (coalition verte-rouge) de 2011 à 2016 ; la Thuringe avec un chef issu de "Die Linke" depuis 2014 qui mène une coalition rouge-rouge-verte (avec le SPD et l'Alliance 90 / Les Verts).L'Allemagne est peuplée de d'habitants en, dont d'étrangers. Avec ses par km, l'Allemagne est l'un des pays les plus densément peuplés d'Europe (après les Pays-Bas, la Belgique et le Royaume-Uni). C'est le pays le plus peuplé de l'Union européenne. L'Ouest du pays reste plus peuplé que l'Est. En effet, on rencontre d'importantes concentrations urbaines à l'Ouest (région métropolitaine Rhin-Ruhr), dans le Sud-Ouest (région Rhin-Main, région métropolitaine Rhin-Neckar) et le Sud du pays (région métropolitaine de Stuttgart, région métropolitaine de Munich). Le taux de natalité de l'Allemagne est l'un des plus faibles du monde () et son accroissement naturel est négatif depuis les pour les onze LänderLe tableau ci-dessous donne la liste des principales aires urbaines au sens de l'Eurostat : Dans le dernier classement de Mercer des villes les plus agréables àL'allemand est une langue indo-européenne appartenant à la branche occidentale des langues germaniques, de même que le néerlandais ou l'anglais. 92 % de la population a l'allemand comme langue maternelle, ce qui indique une très grande homogénéité linguistique. 8 % de locuteurs parlent une autre langue : le danois, le frison septentrional, le frison oriental, le sorabe, le polonais, les parlers de deux groupes roms (les Sintis et les Roms allemands) ainsi que le turc, le kurde, ou le serbe. Il s'agit d'une estimation, car il n'existe en Allemagne aucun recensement basé sur les données linguistiques. Les immigrés ont contribué à l'élargissement du champ linguistique. L'allemand standard, appelé en Allemagne "Hochdeutsch", n'est pas la langue vernaculaire de tous les germanophones. En effet, plusieurs millions d'Allemands parlent dans leur vie quotidienne l'un des dialectes allemands. Ces nombreux dialectes peuvent être rattachés géographiquement à trois groupes, du nord au sud : le bas-allemand ("Niederdeutsch"), le bas francique, au centre les dialectes du moyen-allemand occidental et du moyen-allemand oriental, et au sud le haut allemand : le bavarois, l'alémanique, le francique méridional et le francique oriental (voir la liste complète des dialectes dans l'article détaillé sur la langue allemande). La différenciation nord-sud (bas-allemand / haut-allemand) est apparue à partir du. En 1980, on estimait qu'environ 50 % des Allemands utilisaient dans leur vie quotidienne l'un de ces dialectes sans jamais l'écrire. L'anglais est très répandu, et est la première langue étrangère et commerciale : le quotidien "Aktuelle Woche" estime qu'au moins 50 % des Allemands parlent anglais, ou ont des notions d'anglais, et 30 % des Allemands parleraient anglais couramment. Le français, qui avait un taux de connaissanceLes guerres de religions ont déchiré les Allemands aux, au cours de la guerre de Trente Ans. La réforme luthérienne est introduite par le moine augustin Martin Luther. La diffusion de la Dispute de Martin Luther sur la puissance des indulgences (titre latin "Disputatio pro declaratione virtutis indulgentiarum"), plus connue comme les Quatre-vingt-quinze thèses, a déclenché la Réforme en Allemagne. Le document aurait été placardé à la porte de l'église de Wittemberg (aujourd'hui en Saxe-Anhalt) le. Les sont finalement condamnées le par la bulle "Exsurge Domine" du pape Léon X. Luther, alors ouvertement en conflit avecL'Allemagne est la première puissance économique de l'Union européenne. Elle figure au quatrième rang mondial depuis 2008 derrière les États-Unis, le Japon, et la Chine mais devant la France et le Royaume-Uni. Elle possède pour cela de nombreux atouts : un marché intérieur important, une population active qualifiée grâce à l'apprentissage professionnel, et un niveau de vie élevé. Les entreprises et les syndicats allemands fonctionnent en cogestion. Le PIB allemand s'élève à de dollars (GDP 2014, Fonds monétaire international). Le commerce extérieur représente un tiers du PNB : avec un volume d'exportations de d'euros (2014). L'excédent commercial était le plus élevé du monde en 2014 avec d'euros. Le principal moteur de ce commerce extérieur est l'industrie, dont le pourcentage dans le total des exportations se situe à quelque 84 % (2004). L'économie allemande dispose d'un réseau de communication de première qualité : le plus long réseau autoroutier d'Europe, un réseau ferré particulièrement dense et trois axes navigables, le Rhin premier fleuve mondial pour le fret, la liaison Rhin-Main-Danube et le canal du Mittelland. L'Allemagne est la quatrième puissance maritime économique du monde. Au, sa flotte s'élevait à, totalisant de tonnes de port en lourd, dont battant pavillon étranger et répartis sur. 52,41 % de la totalité du tonnage est immatriculée au Liberia et 10,43 % à Antigua-et-Barbuda, contre seulement 13,23 % en Allemagne. Certaines entreprises allemandes occupent la première place du marché mondial dans leur domaine (par exemple BASF dans l'industrie chimique, Munich Re (aussi "Münchener Rück") dans la réassurance, Aldi et Lidl pour les supermarchés hard-discount). Autres entreprises occupent la première place européenne dans leur domaine (par exemple Volkswagen dans la construction automobile, Bosch pour les équipementiers automobiles, Deutsche Bahn pour les entreprises ferroviaires, Lufthansa pour les compagnies aériennes, DHL pour la logistique, SAP pour les entreprises de logiciels ou Adidas dans la fabrication d'articles de sport). En outre, il y a beaucoup de petites et moyennes entreprises, le fameux « Mittelstand », qui occupent la première place du marché mondial ou européen dans une niche qui s'appellent « champions cachées » ou « hidden champions ». L'évasion fiscale représente d'euros par an selon Tax Justice Network. Les inégalités comptent parmi les plus élevées d'Europe et se traduisent notamment par des bas salaires dans de nombreux secteurs. Ainsi, 22,5 % des actifs gagnent moins de de l'heure contre seulement 8,8 % pour la France. L'Allemagne est confrontée depuis 2004 à une envolée du prix des loyers, pouvant déboucher sur l'éclatement d'une bulle immobilière. Entre 2016 et 2017, les prix ont augmenté de plus de 20 % à Berlin.L'Allemagne fait partie de l'aire de la civilisation occidentale et européenne et compte inscrits au patrimoine mondial, dont quarante-trois culturels et trois naturels. La notion de culture est perçue de façon différente en France et en Allemagne. En France, la culture désigne plus une connaissance « intellectuelle », individuelle. En Allemagne, les deux sens, individuel et collectif, sont exprimés par deux mots distincts : "Bildung" et "Kultur". La définition de la culture individuelle ou culture générale correspond au mot "Bildung". C'est surtout cette dernière notion que l'article se propose de développer même si le mot culture et le mot civilisation sont désormais pratiquement synonymes en France. La deuxième difficulté rencontrée pour parler de culture allemande est liée au fait que l'État allemand ne date que de la seconde moitié du. Beaucoup d'artistes perçus comme allemands ne se revendiquent pas comme tels, mais sont assimilés à l'aire germanique qui se définit sur des bases linguistiques. À ce titre, il est difficile de distinguer "culture allemande" et culture autrichienne jusqu'au milieu du. Enfin, les frontières du territoire allemands ont fluctué à travers les siècles, ce qui rend la définition géographique du sujet délicate. Certaines grandes fêtes populaires - comme la Noël en Allemagne, la fête de la bière à Munich (« Oktoberfest »), le Christopher Street Day dans les grandes villes, le Carnaval des cultures à Berlin, les carnavals de Mayence, Düsseldorf et de Cologne, le Hanse Sail de Rostock - sont depuis longtemps des pôles d'attraction pour beaucoup de locaux et touristes. L'Allemagne est également le pays possédant le plus de zoo au monde, ainsi que le plus grand nombre espèces différentes vivantes dans ces zoo.Le pays compte plusieurs orchestres de renommée internationale, au premier rang desquels : L'Allemagne a été riche en compositeurs, notamment : Karl Friedrich Abel, Jean-Sébastien Bach et ses fils Carl Philipp Emanuel Bach et Johann Christian Bach, Ludwig van Beethoven, Johannes Brahms, Johann Jakob Froberger, Christoph Willibald Gluck, Georg Friedrich Haendel, E.T.A. Hoffmann, Félix Mendelssohn, Johann Pachelbel, Johann Joachim Quantz, Max Reger, Heinrich Schütz, Robert Schumann, Richard Strauss, Georg Philipp Telemann, Richard Wagner, et Carl Maria vonDes philosophes allemands : Theodor W. Adorno, Hannah Arendt, Jakob Böhme, Friedrich Engels, Johann Gottlieb Fichte, Jürgen Habermas, Georg WilhelmDes ingénieursLa littérature allemande s'inscrit dans le cadre plus général de la littérature de langue allemande qui regroupe l'ensemble des œuvres littéraires de langue allemande, en englobant celles produites en Autriche ainsi que dans une partie de la Suisse. Née au Moyen Âge, la littérature allemande a connu des périodes de grand rayonnement comme le « Sturm und Drang » (vers 1765-1785) avec Johann Wolfgang von Goethe et Friedrich von Schiller, le romantismeCertains designers allemands ont apporté une contribution importante au design industriel moderne, en s'inspirant notamment de l'école du Bauhaus, de Dieter Rams et de Braun. La mode vestimentaire en Allemagne, si elle ne dispose pas d'influence au niveau mondial, est source de plusieurs personnalités reconnues, telles Karl Lagerfeld ou Claudia SchifferL'Allemagne a pour codes :
LAllemagne ( ; en ), en forme longue la République fédérale d'Allemagne abrégée en RFA (en, abrégée en ), est un pays d'Europe centrale, entouré par la mer du Nord, le Danemark et la mer Baltique au nord, par la Pologne à l'est-nord-est, par la Tchéquie à l'est-sud-est, par l'Autriche au sud-sud-est, par la Suisse au sud-sud-ouest, par la France au sud-ouest, par la Belgique et le Luxembourg à l'ouest, enfin par les Pays-Bas à l'ouest-nord-ouest. Décentralisée et fédérale, l'Allemagne compte quatre métropoles de plus d'un million d'habitants : la capitale Berlin, ainsi que Hambourg, Munich et Cologne. Le siège du gouvernement est situé dans la ville de Berlin et dans la ville fédérale de Bonn. Francfort-sur-le-Main est considérée comme la capitale financière de l'Allemagne : dans cette ville se trouve le siège de la BCE.
xwikis
L'immense majorité des programmes qui s'exécutent sur nos ordinateurs, téléphones et autres outils électroniques sont écrits dans des langages de programmation dits impératifs : les lignes du programme sont exécutées les unes après les autres. Chaque ligne du programme effectue soit une opération simple, soit exécute une fonction qui est elle-même une suite d'opérations simples. Le programme "Hello World!" est par tradition le premier programme écrit par tous programmeurs. Le programme possède pour unique fonction l'affichage de "Hello World!" à son utilisateur. Voici une version d'un programme "Hello World!": Le programme suivant écrit en langage Java (légèrement simplifié et auquel des commentaires ont été rajoutés), demande simplement à l'utilisateur d'entrer au clavier deux nombres entiers, et affiche leur quotient. void main() { // fonction'main' : c'est toujours ici qu'un programme commence float CalculerDivision(float U, float V) { // U et V sont les paramètres de notre fonction 'CalculerDivision' : ce sont des nombres à virgules (float). Dans ce programme les principales fonctionnalités de la programmation impérative sont utilisées : des variables de type nombre entier, nombre à virgule, chaîne de caractère, fonction calculant un résultat à partir de paramètres, fonction effectuant une tâche telle qu'afficher un message à l'écran, instruction codice_1 permettant d'exécuter un code ou un autre en fonction de la valeur de telle ou telle variable. Dans un programme informatique typique, on trouvera également des boucles codice_2 ou codice_3 qui permettent d'exécuter un morceau de code en boucle ou simplement un certain nombre de fois, des codice_4 pour l'allocation dynamique de données (par exemple des tableaux), et très souvent des éléments de programmation objet permettant de structurer différemment le code et de créer des types de données personnalisés, ou encore des exceptions pour gérer certains cas d'erreurs plus facilement. On remarque que pour effectuer une tâche très simple, le code informatique est très laborieux, et encore ici on ne traite pas les erreurs (si l'utilisateur tape un mot au lieu d'un nombre), et l'affichage est minimaliste. C'est pourquoi les langages de programmation n'ont jamais cessé d'évoluer, dans le but d'aider le programmeur : qui souhaite réaliser des programmes rapides à s'exécuter, sans dysfonctionnements, et surtout qui soient le plus simple à écrire.La première machine programmable (c’est-à-dire machine dont les possibilités changent quand on modifie son programme) est probablement le métier à tisser de Jacquard, qui a été réalisé en 1801. La machine utilisait une suite de cartons perforés. Les trous indiquaient le motif que le métier suivait pour réaliser un tissage ; avec des cartes différentes le métier produisait des tissages différents. Cette innovation a été ensuite améliorée par Herman Hollerith d'IBM pour le développement de la fameuse carte perforée d'IBM. En 1936, la publication de l'article fondateur de la science informatique "On Computable Numbers with an Application to the Entscheidungsproblem" par Alan Turing allait donner le coup d'envoi à la création de l'ordinateur programmable. Il y présente sa machine de Turing, le premier calculateur universel programmable, et invente les concepts et les termes de programmation et de programme. Les premiers programmes d'ordinateur étaient réalisés avec un fer à souder et un grand nombre de tubes à vide (plus tard, des transistors). Les programmes devenant plus complexes, cela est devenu presque impossible, parce qu'une seule erreur rendait le programme entier inutilisable. Avec les progrès des supports de données, il devient possible de charger le programme à partir de cartes perforées, contenant la liste des instructions en code binaire spécifique à un type d'ordinateur particulier. La puissance des ordinateurs augmentant, on les utilisa pour faire les programmes, les programmeurs préférant naturellement rédiger du texte plutôt que des suites de 0 et de 1, à charge pour l'ordinateur d'en faire la traduction lui-même. Avec le temps, de nouveaux langages de programmation sont apparus, faisant de plus en plus abstraction du matériel sur lequel devaient tourner les programmes. Ceci apporte plusieurs facteurs de gains : ces langages sont plus faciles à apprendre, un programmeur peut produire du code plus rapidement, et les programmes produits peuvent tourner sur différents types de machines.La phase de conception définit le but du programme. Si on fait une rapide analyse fonctionnelle d'un programme, on détermine essentiellement les données qu'il va traiter (données d'entrée), la méthode employée (appelée l'algorithme), et le résultat (données de sortie). Les données d'entrée et de sortie peuvent être de nature très diverses. On peut décrire la méthode employée pour accomplir le but d'un programme à l'aide d'un algorithme. La programmation procédurale et fonctionnelle est basée sur l'algorithmique. On retrouve en général les mêmes fonctionnalités de base.Une fois l'algorithme défini, l'étape suivante est de coder le programme. Le codage dépend de l'architecture sur laquelle va s'exécuter le programme, de compromis temps-mémoire, et d'autres contraintes. Ces contraintes vont déterminer quel langage de programmation utiliser pour « convertir » l'algorithme en code source.Le code source n'est (presque) jamais utilisable tel quel. Il est généralement écrit dans un langage "de haut niveau", compréhensible pour l'homme, mais pas pour la machine.Certains langages sont ce qu'on appelle des langages compilés. En toute généralité, la compilation est l'opération qui consiste à transformer un langage source en un langage cible. Dans le cas d'un programme, le compilateur va transformer tout le texte représentant le code source du programme, en code compréhensible pour la machine, appelé code machine. Dans le cas de langages dits compilés, ce qui est exécuté est le résultat de la compilation. Une fois effectuée, l'exécutable obtenu peut être utilisé sans le code source. Il faut également noter que le résultat de la compilation n'est pas forcément du code machine correspondant à la machine réelle, mais peut être du code compris par une machine virtuelle (c'est-à-dire un programme simulant une machine), auquel cas on parlera de bytecode. C'est par exemple le cas en Java. L'avantage est que, de cette façon, un programme peut fonctionner sur n'importe quelle machine réelle, du moment que la machine virtuelle existe pour celle-ci. Dans le cas d'une requête SQL, la requête est compilée en une expression utilisant les opérateurs de l'algèbre relationnelle. C'est cette expression qui est évaluée par le système de gestion de bases de données.D'autres langages ne nécessitent pas de phase spéciale de compilation. La méthode employée pour exécuter le programme est alors différente. La phase de compilation est la plupart du temps incluse dans celle d’exécution. On dit de ce programme qu'il interprète le code source. Par exemple, Python ou Perl sont des langages interprétés.Les avantages généralement retenus pour l'utilisation de langages "compilés", est qu'ils sont plus rapides à l'exécution que des langages interprétés, car l'interprète doit être lancé à chaque exécution du programme, ce qui mobilise systématiquement les ressources. Traditionnellement, les langages interprétés offrent en revanche une certaine portabilité (la capacité à utiliser le code source sur différentes plates-formes), ainsi qu'une facilité pour l'écriture du code. En effet, il n'est pas nécessaire de passer par la phase de compilation pour tester le code source. Il n'est pas non plus nécessaire de disposer d'un autre programme (debugger) afin d’ôter les bugs du programme, c'est l’interpréteur qui permet d'afficher directement le contenu des variables du programme.Il faut noter qu'on parle abusivement de langages compilés ou interprétés. En effet, le caractère compilé ou interprété ne dépend pas du langage, qui n'est finalement qu'une grammaire et une certaine sémantique. D'ailleurs, certains langages peuvent être utilisés interprétés ou compilés. Par exemple, il est très courant d'utiliser Ruby avec un interprète, mais il existe également des compilateurs pour ce langage. On notera toutefois, qu'il peut être important de préciser comment le code source est exécuté. En effet, rares sont les organismes qui proposent à la fois un compilateur et un interpréteur, les résultats du programme peuvent différer à l'exécution, même si la norme du langage est clairement définie. Néanmoins, l'usage qu'on fait des langages est généralement fixé.C'est l'une des étapes les plus importantes de la création d'un programme. En principe, tout programmeur se doit de vérifier chaque partie d'un programme, de le tester. Il existe différents types de test. On peut citer en particulier : Il convient de noter qu'il est parfois possible de vérifier un programme informatique, c'est-à-dire prouver, de manière plus ou moins automatique, qu'il assure certaines propriétés.Un paradigme est un style fondamental de programmation, définissant la manière dont les programmes doivent être formulés.
Dans le domaine de l'informatique, la programmation, appelée aussi codage, est l'ensemble des activités qui permettent l'écriture des programmes informatiques. C'est une étape importante du développement de logiciels (voire de matériel).
xwikis
L'idée que la matière se compose de particules élémentaires date au moins du. À l'époque, elle reposait au fond sur l'incapacité à maîtriser la notion de continu : voir les paradoxes de Zénon d'Élée. La doctrine philosophique de l'atomisme a été étudiée par les philosophes grecs, tels que Leucippe, Démocrite et Épicure. Bien qu'au, Isaac Newton ait pensé que la matière est composée de particules, c'est John Dalton qui, en 1802, énonça formellement que tout est constitué d'atomes minuscules. Cette hypothèse ne devint réellement scientifique qu'à partir du moment où l'on sut estimer la taille des atomes (1865, Loschmidt ; 1870, Lord Kelvin) En 1869, le premier tableau périodique des éléments de Mendeleïev permit d'affermir le point de vue prévalant durant tout le que la matière était faite d'atomes. Les travaux de Thomson établirent que les atomes sont composés d'électrons légers et de protons massifs. Rutherford établit que les protons sont concentrés dans un noyau compact. Initialement, on pensait que le noyau était seulement constitué de protons et d'électrons confinés (afin d'expliquer la différence entre la charge et le nombre de masse), mais ultérieurement il s'avéra qu'il était constitué de protons et de neutrons. Au, les progrès de la physique nucléaire et de la physique quantique, avec les preuves spectaculaires de la fission nucléaire et de la fusion nucléaire, donnèrent naissance à une industrie capable de produire un atome à partir d'un autre, rendant même possible (mais non rentable économiquement) la transmutation de plomb en or. Tout au long des années 1950 et des années 1960, une variété ahurissante de particules ont été trouvées lors d'expériences de collision : un « zoo de particules » (voir dans l'historique). Cette expression perdit de son attrait après la formulation du modèle standard dans les années 1970, car le grand nombre de ces particules put être conçu comme résultant de combinaisons d'un relativement petit nombre de particules fondamentales, encore que le calcul des propriétés des particules composées en soit encore à ses balbutiements, et que les nombreux paramètres du modèle standard n'aient pas trouvé d'explication satisfaisante pour leurs valeurs.Les particules élémentaires peuvent être classées en différentes sous-catégories en fonction de leurs propriétés.Les leptons (du Grec leptos, léger, ainsi nommés parce que leurs masses sont relativement petites) sont caractérisés par les propriétés suivantes : Les trois paires, familles ou générations de leptons connues sont :Les hadrons (du grec "", « gros, épais ») sont caractérisés par les propriétés suivantes : Les hadrons ne sont donc pas des particules fondamentales, mais plutôt des états liés de quarks. On en observe plus de 200. Ils peuvent être classés en deux groupes : les baryons, (du grec "barus", lourd) auxquels on associe un nombre quantique spécial (le nombre baryonique), essentiellement constitués de trois quarks, et les mésons, (du grec "", « moyen ») responsables des interactions fortes « résiduelle » entre hadrons, et auxquels on donne le nombre baryonique 0, car ils sont composés d'un quark et d'un antiquark. Voici les hadrons les plus fréquemment observés (baryons de spin 1/2, mésons de spin 0 et baryons de spin 3/2) – sur ces figures, l'axe vertical, orienté vers le bas, donne l'étrangeté S, l'axe horizontal I la composante d'isospin, et l'axe oblique Q la charge électrique ; les particules sont représentées par les cercles roses, et leur(s) symbole(s) figure à côté ; les cercles divisés en deux représentent les deux particules indiquées en regard, qui diffèrent par diverses propriétés, notamment leur masse, non représentées sur ces diagrammes. Enfin, le contenu principal en quarks est indiqué à l'intérieur de chaque cercle :« Octet » de 8 baryons assez semblables. Ceci correspond à des propriétés de symétrie entre les quarks composants, se reflétant notamment sur la différence de masse entre les deux éléments centraux Λ et Σ.Ce « nonet » de 9 mésons assez semblables se divise en un « octet » de 8 et un « singulet ».Ici, la symétrie entre les membres du décuplet est plus frappante : l'axe de la charge électrique Q correspond bien, à une constante près, au nombre de quarks u, celui de l'étrangeté S au nombre de quarks s, et le troisième axe, non tracé, bissecteur entre les deux précédents, au nombre de quarks d.Les quarks sont les particules fondamentales qui forment les particules observées. On compte six types ou saveurs de quarks : "up", "down", "strange", "charm", "top" et "bottom" (ou "truth" et "beauty" pour des raisons historiques). Comme les leptons, ils peuvent être regroupés en doublets qui sont des copies conformes, sauf pour ce qui est de leurs masses. De façon générale, on soupçonne que les familles de quarks et leptons sont reliées ; il en existe trois de chaque. En 2007, il semble que seuls des arguments de symétrie viennent appuyer cette assertion.Les gluons sont les particules fondamentales qui assurent la cohésion des hadrons en liant les quarks entre eux. On ne compte que huit gluons, qui interagissent avec tous les types ou saveurs de quarks, mais également entre eux, puisqu'ils sont eux-mêmes colorés. Ceci rend les calculs mathématiquement très compliqués, d'où le fait que les progrès sur l'architecture des particules soient très lents, bien que la théorie soit formellement connue. En raison de l'intensité de l'interaction forte, les quarks et gluons, étant colorés, subissent le confinement de couleur, qui fait que l'on ne peut pas les observer isolément. Seules des combinaisons où toutes les couleurs se compensent (combinaisons "blanches") peuvent constituer des hadrons libres.L'ensemble des particules élémentaires semble pouvoir se décomposer en trois familles (ce nombre de trois est un paramètre fondamental du modèle standard, à ne pas confondre avec le nombre de couleurs portées par les quarks, autre paramètre fondamental) :La mécanique quantique introduit la notion de moment cinétique intrinsèque d'une particule, le spin. Il peut prendre des valeurs qui sont des multiples de formula_36. Il détermine également le type de statistique auquel est soumise la particule.La notion d'antiparticule fut proposée par Paul Dirac en 1928. Certaines solutions de l'équation qui porte son nom apparaissent comme portant une énergie négative. Dirac interpréta ces solutions ainsi : en fait l'espace vide est l'ensemble de toutes ces solutions. Si l'on apporte suffisamment d'énergie à une partie du vide représentée par une de ces solutions, elle devient une solution d'énergie positive, et laisse sa place vacante. Le trou laissé vacant par cette solution d'énergie positive apparaît comme une particule d'énergie négative, et dont toutes les propriétés (charge électrique, par exemple) sont opposées à celles des solutions normales. C'est ce qu'on appelle une antiparticule. Une antiparticule se caractérise donc par : Par convention, l'antiparticule est désignée par une barre supérieure, ce qui n'est utile que si on ne peut pas la distinguer par sa charge. Par exemple, on pourrait écrire : formula_41La mécanique classique et la théorie quantique des champs ont des approches différentes lorsqu'il s'agit d'écrire les interactions. formula_42 et formula_43 Les états transitoires sont appelés « virtuels », par exemple, un photon virtuel peut avoir une quadri-impulsion telle que formula_44 : si formula_45 est limité, alors l'énergie n'est conservée qu'à des écarts formula_46 près.L'interaction électromagnétique se caractérise par les propriétés suivantes :Les manifestations typiques de l'interaction faible sont : où formula_53 est le changement du nombre quantique d’étrangeté, formula_54 celui de spin isotopique, et formula_55 est la vie moyenne ou durée des interactions. L'interaction forte doit conserver S et I, l'électromagnétique S, mais pas I, et la faible, aucune des deux. D'où la possibilité pour l'une ou pour l'autre de dominer le processus. Les interactions faibles sont alors caractérisées par les propriétés suivantes : Les interactions électromagnétique et faible (électrofaibles) sont unifiées dans le modèle de Glashow-Weinberg-Salam (1967). Mais à basse énergie, la symétrie est brisée et les deux forces apparaissent bien distinctes. Les interactions faibles mettent en jeu un couplage faible g et l’échange des bosons de jauge W et Z. Les réactions faibles sont caractérisées par une amplitude de probabilité de la forme : Amplitude ≈ g/(q – M) où q est le carré de la quadri-impulsion transférée par l’échange du quantum. Dans la limite q → 0, la théorie de Glashow-Weinberg-Salam se ramène à la théorie des interactions faibles de Fermi (1935), où les interactions impliquant quatre particules sont ponctuelles et de force G, la constante de Fermi : formula_57 formula_58. Le modèle de Glashow-Weinberg-Salam a l’avantage sur la théorie de Fermi d’être renormalisable, c'est-à-dire d'avoir un comportement calculable à haute énergie (aux masses des W et Z et au-dessus). C’est aussi un exemple d’unification de forces (faible et e. m.).L'interaction électrofaible est l'interaction qui unifie l'électromagnétisme et l'interaction faible.L'interaction forte est fréquente dans les collisions de hadrons à haute énergie. Elle implique, au niveau fondamental, les interactions entre quarks et gluons. On les retrouve par exemple dans la collision formula_59 dont la durée est d’environ. Les interactions fortes sont caractérisées par les propriétés suivantes :Il n’existe pas actuellement une théorie de la gravité quantique satisfaisante du point de vue de la phénoménologie, bien que la théorie des supercordes soit un bon candidat (la gravitation quantique à boucles cependant ne propose pas d'unifier la gravitation avec les autres interactions du modèle standard). En revanche, une théorie quantique gravitationnelle devrait posséder les caractéristiques suivantes :L'état actuel de la classification des particules élémentaires s'appelle le « modèle standard ». Il décrit les forces fondamentales : fortes, faibles, et électromagnétiques en utilisant des bosons médiateurs connus sous le nom de boson de jauge. Les bosons de jauge sont respectivement les gluons, les bosons W et Z et le photon. Le modèle contient également 12 particules fondamentales qui sont les constituants de la matière : la famille des fermions qui se compose des quarks, des leptons, et leurs antiparticules. Il prévoit aussi l'existence d'un type de boson connu sous le nom de boson de Higgs.Selon leur nature et leur énergie, les particules interagiront différemment avec la matière. Ces interactions sont les suivantes :Contrairement aux particules chargées qui déposent leur énergie de manière continue le long de leur trajectoire, les interactions des photons sont localisées. Lorsqu'ils traversent un milieu, les photons traversent une certaine distance sans être affectés puis déposent brutalement de l'énergie par les interactions suivantes : La probabilité de produire une interaction est constante le long de la trajectoire, et par suite le nombre de photons survivants décroît en série géométrique (exponentielle) le long de la distance parcourue. La fraction des photons qui subsistent après avoir traversé une distance x est e où μ est le coefficient d'absorption, exprimé en. C'est la somme des coefficients d'absorption des différentes interactions pour les divers composants du matériau. L'absorption peut être paramétrée plus commodément par le coefficient d'atténuation massique μ/ρ exprimé en, sensiblement indépendant de la densité ρ du matériau absorbant, et ne dépendant plus que de sa composition.Les études sur les particules ont débuté par l'étude des rayonnements émis par les substances radioactives, et avec des détecteurs de particules portatifs ou de table permettant de détecter plusieurs particules élémentaires à TPN. Pour détecter d'autres particules, il faut modifier le niveau d'énergie. On a eu tout d'abord recours à l'observation des rayons cosmiques, en altitude pour diminuer la dégradation causée par la traversée de l'atmosphère. Ceci a permis d'améliorer substantiellement les détecteurs, car il fallait augmenter leur surface, compte tenu du faible nombre de rayons cosmiques intéressants. On s'est alors tourné vers la construction des accélérateurs de particules, fournissant un faisceau homogène et bien calibré de particules dont on a progressivement su augmenter le niveau d'énergie. Parallèlement, les détecteurs ont progressé, afin d'étudier les interactions des particules ainsi produites. Actuellement, les expériences de physique des particules sont menées par des équipes en collaborations internationales, qui se chargent de la construction des détecteurs spécifiques au genre d'expérimentation souhaité, et les installent auprès d'accélérateurs construits également par des collaborations internationales puissantes. Les principaux sites d'accélérateurs internationaux sont : De nombreux autres accélérateurs de particules existent.
La physique des particules ou la physique subatomique est la branche de la physique qui étudie les constituants élémentaires de la matière et les rayonnements, ainsi que leurs interactions. On l'appelle aussi parfois physique des hautes énergies car de nombreuses particules élémentaires, instables, n'existent pas à l'état naturel et peuvent seulement être détectées lors de collisions à hautes énergies entre particules stables dans les accélérateurs de particules.
xwikis
En 1507, Martin Waldseemüller, le cartographe d'une société savante du duché de Lorraine, dénommée Gymnase Vosgien, produisit avec l'aide de l'érudit Mathias Ringmann un planisphère intitulé "Universalis Cosmographia" représentant la région méridionale de l'Amérique. Cette mappemonde est la première carte sur laquelle apparaît le mot « America », prénom féminisé attribué en l'honneur du navigateur florentin Amerigo Vespucci (' est l’équivalent italien du prénom d'origine germanique «'», variante méridionale de « Henri »). Cet explorateur fut en réalité le premier à émettre la thèse d'un nouveau continent lors de son expédition au sud de la Patagonie en 1502. Cette quatrième partie du monde, qui s'ajoutait au supercontinent de l'Afro-Eurasie, venait alors modifier les assertions de Christophe Colomb qui, en 1492, croyant avoir découvert la route des Indes, rencontra plutôt ceux qui, aujourd'hui, sont désignés par métonymie sous l'appellation « Amérindiens » ou « Indiens d'Amérique ».L'Amérique est le deuxième plus grand continent de la planète après l'Asie. Elle a une superficie d'environ et s'étend du nord au sud depuis le cap Columbia (58 ° N, Nunavut, Canada) jusqu'aux îles Diego Ramirez (56 o S, Terre de Feu, Chili). Elle est séparée de la Russie par l'océan Arctique et de l'Antarctique par le passage de Drake. Ses points les plus occidental et oriental correspondent respectivement à l'île Attu (173 ° 11'E) en Alaska (États-Unis) et à la pointe du Seixas (34 ° 47'O) en Paraíba (Brésil). Le continent américain se compose de trois sous-continents : Amérique centrale, Amérique du Nord et Amérique du Sud, ainsi que d'un arc insulaire désigné sous le nom des Antilles et faisant office de connexion continentale entre l'Amérique du Nord et l'Amérique du Sud. De plus, selon la théorie de la dérive des continents et de la tectonique des plaques, ce qui est l'Amérique du Nord et l'Amérique du Sud serait resté séparé pendant des millions d'années. Après la séparation du Gondwana de la Laurasie, deux sous-continents dérivèrent jusqu'à leurs positions actuelles, puis furent unis par l'Amérique centrale. D'abord un arc insulaire, ce pont terrestre émergea entre eux par l'action de la tectonique des plaques et devint plus tard une bande continue de terre. Le point le plus mince de cette union est à l'isthme de Panama, lequel permit le grand échange interaméricain lors de sa formation il y a d'années.Dans leur déplacement du centre de l'océan Atlantique vers l'ouest, les plaques tectoniques (caraïbe, nord-américaine et sud-américaine) forment la cordillère américaine par subduction de la plaque pacifique sur le pourtour oriental de la ceinture de feu. La chaîne de montagnes ainsi formée est essentiellement composée d'une série de crêtes élevées telles que les montagnes Rocheuses, la Sierra Madre occidentale et la Cordillère des Andes. À l'est de l'Amérique du Nord, les Appalaches s'étendent depuis l'Alabama jusqu'à Terre-Neuve sur plus de, alors qu'au nord s'élève la cordillère arctique. Au centre du continent, l'Amérique du Nord est composée de vastes étendues de plaines, dont les basses-terres du Saint-Laurent, le bassin du fleuve Mackenzie et la Prairie. Au nord-est, le plateau Laurentien s'étend sur près de cinq millions de kilomètres carrés et couvrent la majeure partie du Nunavut et du Québec. L'Amérique du Sud est pour sa part composée des basses terres du bassin amazonien au nord-est, du plateau brésilien sur la côte est et des plaines du Gran Chaco et de la Pampa au sud. Pirincipales chaînes de montagnesDu point de vue de la culture, de l'histoire, de la langue et de la sociologie, on distingue sur le continent américain deux aires linguistiques :Avec les religions amérindiennes, la principale religion en Amérique est le christianisme et ses différentes confessions : catholicisme et protestantisme. Selon l'Église catholique, la sainte patronne principale du continent est Notre-Dame de Guadalupe, alors que la patronne secondaire est sainte Rose de Lima.Jusque dans les dernières décennies a prévalu la théorie du peuplement tardif qui soutient que l’être humain aurait migré en Amérique depuis l’Asie par la Béringie pendant la dernière ère glaciaire il y a de cela à. Cependant, des traces indiquant la présence d'humains dans le nord du Yukon il y a ans ont été retrouvés. Ces données suggéreraient la traversée d'humains en provenance de Sibérie qui auraient occupés les territoires aujourd'hui submergés de la Béringie, et seraient restés isolés par les glaciers quelque ans avant de se disperser dans le reste du continent américain. Des scientifiques soutiennent également la thèse selon laquelle le premier peuplement de l'Amérique se serait produit de à plus tôt et serait aussi le résultat d’une migration au cours de laquelle l’être humain aurait emprunté différents itinéraires, tels que la Mongolie, la Sibérie et la banquise de l'océan Arctique. Par la suite, l'humain a rapidement occupé l'ensemble du continent où il a formé des sociétés diverses : en Amérique du Nord, la civilisation du Mississippi et la cité de Cahokia, les villages iroquoiens d’Hochelaga et Stadaconé, ainsi que les cultures inuits, Dorset et Saqqaq. En Amérique du Sud, la ville sacrée de Caral-Supe (la plus ancienne cité américaine) et la vallée sacrée des Incas; en Mésoamérique, les villes mayas de Chichén Itzá et Yaxchilan et la capitale aztèque de Mexico-Tenochtitlan. La colonisation viking de l'Amérique est la première tentative d’établissement de l’être humain en provenance de l’Europe à être bien documentée. Selon la saga d’Érik le Rouge, les premières colonies auraient été implantées au Groenland vers l’an 985 (). Son fils, Leif Ericson, aurait ensuite exploré le Vinland (île de Terre-Neuve) vers l’an 1000 et serait entré en relation avec les Béothuks. Cependant sont présumés d’autres contacts trans-océaniques précolombiens qui se seraient produits avant même les explorations scandinaves.Les Capitulations de Santa Fe ayant été ratifiées par les rois catholiques en 1492, Christophe Colomb débarqua incidemment à l’île San Salvador quelques mois plus tard, alors en quête d’une nouvelle route des Indes, conséquence inéluctable de la chute de Constantinople de 1453. Dès cette découverte et exploration, celui-ci fonda La Navidad sur l’île Hispaniola (Haïti et République Dominicaine) avant que ne soit entamée la colonisation espagnole de la terre ferme d'Amérique, en 1510. Suivant le traité de Tordesillas de 1494, les terres du Nouveau Monde étaient alors partagées entre Isabelle I de Castille, Ferdinand II d'Aragon et Jean II de Portugal. Ainsi, le Royaume d’Espagne établit ses vice-royautés de Nouvelle-Espagne, Nouvelle-Grenade, Pérou et Río de la Plata sur les côtes de l'océan Pacifique, tandis que le Royaume de Portugal implanta les capitaineries du Brésil sur les côtes de l’Atlantique Sud dès 1500. À partir de 1497, le Royaume d'Angleterre s’établit sur les côtes de l’Atlantique Nord, dans la zone Arctique et dans la mer des Caraïbes. Puis à partir de 1534, le Royaume de France établit ses colonies principalement au nord-est et centre de l’Amérique du Nord jusqu’au golfe du Mexique, ainsi que dans les Antilles et sur le plateau des Guyanes. Les Provinces-Unies conquirent des îles caribéennes (Aruba, Curaçao et Saint-Martin), le Royaume du Danemark et de Norvège s’installa au Groenland et l’Empire russe conquit la région de l’Alaska. L'arrivée des colons eu pour conséquence l’introduction d’une série de nouvelles maladies au sein des civilisations précolombiennes, telles que la variole, causant ainsi – de façon similaire à la peste noire en Europe médiéval – le déclin démographique de près de 93 % de la population autochtone. Les Jésuites et coureurs des bois contribuèrent à l’expansion du vice-royaume de Nouvelle-France en Amérique du Nord, grâce à la traite des fourrures, l’évangélisation et l’établissement de relations avec les peuples autochtones. De plus, des missions catholiques furent envoyées au pays des Hurons et, dans les empires espagnol et portugais, chez les Guaranis. Au nord, les guerres franco-iroquoises et intercoloniales furent directement liées aux affrontements entre les colonies des empires français et britannique. Alors qu’au sud, les Conquistadors menèrent une série d’invasions – telles qu'à la conquête des empires aztèque et inca –, néanmoins repoussées en diverses régions par les peuples autochtones. Plusieurs réussirent en fait à maintenir leur domination sur leurs terres jusqu’à la fin du. Par exemple, le Royaume d’Araucanie et de Patagonie, la Pampa, le Mato Grosso et l’Amazonie demeurèrent sous la domination de peuples telles que les Mapuches, les Het, les Ranquel, les Wichi, les Tobas, les Amazoniens et les Comanches, etc. En Amérique du Sud furent aussi créées par marronnage des mocambos et quilombos (exemple : Palmares), dont les habitants avaient réussi à fuir l’état d’esclavage auquel ils étaient réduits par l’effet du commerce triangulaire. De 1754 à 1763 eu lieu la guerre de la Conquête au cours de laquelle les forces armées britanniques s’emparèrent du nord de la Nouvelle-France, s’adonnèrent au siège de Québec en 1759 et se livrèrent à la déportation des Acadiens.Après trois siècles de domination coloniale, les peuples américains commencèrent à déclarer leur indépendance politique des nations européennes, réclamant ainsi le droit de constituer des États nationaux. Les premières tentatives vinrent des Treize colonies britanniques dès 1775 grâce à la révolution américaine au terme de laquelle naissaient les États-Unis. Un nouveau type de société était alors créé sur la base de concepts politiques novateurs tels que le constitutionnalisme, les droits de l’homme, le fédéralisme et l’indépendantisme. De 1791 à 1804, la révolution haïtienne se termina par la libération des esclaves de leur emprise des autorités françaises, créant ainsi le premier État moderne avec un gouvernement de descendants de l’Afrique noire. La bataille de Vertières fut le couronnement de cette guerre héroïquement remportée par les Haïtiens, ouvrant ainsi la voie à divers mouvements diplomatiques de grande ampleur, dont le panaméricanisme. À partir de 1809, les peuples sous domination espagnole menèrent les guerres d'indépendance d'Amérique du Sud qui suscitèrent la naissance de diverses nations : Argentine, Bolivie, Colombie, Costa Rica, Chili, Équateur, Salvador, Guatemala, Honduras, Mexique, Nicaragua, Paraguay, Pérou, Uruguay et Venezuela. Le processus se compléta en 1844, 1883 et 1898 au terme de la guerre d’indépendance dominicaine, de la guerre hispano-sud-américaine et de la guerre d'indépendance cubaine. Alors qu’au Nord, le continent était ravagé par la conquête de l’Ouest, la guerre anglo-américaine de 1812, la rébellion des Patriotes (1837-1838), la guerre de Sécession (1861-1865), la rébellion de la rivière Rouge (1869-1870) et la rébellion du Nord-Ouest (1885). En 1819 fut constitué un vaste pays sud-américain désigné sous le nom de Grande Colombie et qui intégrait les terres des actuels Panama, Colombie, Venezuela, Équateur, ainsi que de régions du Brésil, du Costa Rica, de la Guyane, du Honduras, du Nicaragua et du Pérou. Cette république fut dissoute et scindée en trois pays en 1830 : la République bolivarienne du Venezuela et la République d’Équateur, ainsi que successivement la République de Nouvelle-Grenade, la Confédération grenadine, les États-Unis de Colombie et enfin, la République de Colombie. En 1822, la principauté du Brésil s’organisa en une monarchie indépendante – l’Empire du Brésil –, dissolvant ainsi le Royaume-Uni du Portugal, du Brésil et de l'Algarve, jusqu’en 1889 où la monarchie fut abolie et remplacée par un régime républicain. Pour leur part, le peuple de l'Amérique du Nord britannique négocia à partir de 1864 avec le Royaume-Uni l'organisation de la Confédération canadienne, dont l’indépendance se confirma en 1867, et dont la pleine souveraineté fut définitivement acquise dans un processus qui se termina en 1982. Enfin, au, les dernières colonies, tels les Bahamas, le Suriname, la Guyana, Sainte-Lucie, Trinité-et-Tobago, Antigua-et-Barbuda, Saint-Vincent-et-les-Grenadines et la Barbade obtinrent leur indépendance, achevant de manière définitive la décolonisation de l'Amérique.Alors qu'au début du était franchi le passage du Nord-Ouest, pour la première fois par des explorateurs européens, le canal de Panama ouvrit à la navigation maritime sur l'isthme séparant les océans Atlantique et Pacifique. Puis, pendant la seconde moitié du siècle, les sentiments de décolonisation atteignirent plusieurs peuples. Ainsi, des nations acquirent leur indépendance constitutionnelle du Royaume-Uni de Grande-Bretagne et d’Irlande du Nord : Antigua-et-Barbuda, Bahamas, Barbade, Belize, Grenade, Guyana, Jamaïque, Saint-Christophe-et-Niévès, Sainte-Lucie, Saint-Vincent-et-les-Grenadines, ainsi que Trinité-et-Tobago. De plus, le Suriname obtint son indépendance des Pays-Bas. Actuellement, quelques territoires demeurent sous tutelle de nations européennes (britannique, danoise, française et néerlandaise). Pour sa part, le peuple québécois devint la première collectivité nationale à être animé de façon manifeste par un sentiment et volonté de libération politique d’un État américain. Après leur émancipation, les pays américains se développèrent séparément et de façon dissemblable. Ainsi, pendant le, les États-Unis s'affirmèrent en tant que puissance mondiale, remplaçant l’empire européen sur le continent. Alors que le a vu croître une différence de développement entre les diverses régions du continent. Pendant que les États-Unis se convertissaient en une superpuissance mondiale, les peuples d'Amérique latine et des Caraïbes se constituaient en collectivités nationales où les inégalités sociales en termes de disparité de revenus sont les plus élevées du monde, incluant des pays comme le Brésil, la Colombie et le Chili. Parmi les évènements politiques les plus importants de l’histoire contemporaine de l’Amérique, notons la guerre hispano-américaine (1898), la révolution mexicaine (1910-1917), la guerre froide (1945-1991), les dictatures militaires d’Amérique latine (juntes), le mouvement afro-américain des droits civiques (1955-1968), la révolution cubaine (1959), la révolution tranquille (1960-1966) et la déclaration des droits des peuples autochtones (1982-2007). Depuis la fin du, plusieurs États d’Amérique s'unirent en un système d’unité panaméricaine, résultant en la création de l’Organisation des États américains (OEA) en 1948. D’autre part, depuis la fin du, les États d’Amérique ont intensifié leurs efforts en vue de coopérations mutuelles en diverses instances régionales, telles que l’Accord de libre-échange nord-américain (ALENA), le commandement de la défense aérospatiale de l'Amérique du Nord (NORAD), l’Union des nations sud-américaines (UNASUR), le marché commun du Sud (Mercosur), la communauté andine (CAN), le Parlement centraméricain, l’Alliance bolivarienne pour les Amériques (ALBA), ainsi que la communauté caribéenne (CARICOM).Nouvelle-France (continentale) Antilles françaises (insulaire)Ci-dessous, la liste des s de plus d'un million d'habitants (à distinguer des ), par ordre décroissant de population :Les sites culturels et naturels suivants sont inscrits au patrimoine mondial de l'UNESCO.
L’Amérique est un continent de l'hémisphère ouest de la Terre. Elle s'étend depuis l'océan Arctique au nord, jusqu'au cap Horn dans le passage de Drake au sud, à la confluence des océans Atlantique et Pacifique qui la délimitent à l'est et à l'ouest, respectivement. Avec plus de de, l'Amérique est le deuxième plus vaste continent de la planète, couvrant 8,3 % de la superficie totale et 28,2 % des terres émergées. De plus, l'Amérique concentre environ 13,3 % de la population mondiale avec plus d'un milliard de personnes. Ses habitants sont désignés sous le gentilé "Américains" : ce terme est cependant également employé pour désigner les citoyens des États-Unis d'Amérique ; dès lors, les habitants des différentes parties du continent sont fréquemment distingués en employant des gentilés spécifiques comme "Nord-Américains", "Sud-Américains" ou "Latino-Américains". Le terme "America" est une invention des cartographes allemands Martin Waldseemüller et Mathias Ringmann qui apparaît dans le planisphère qu'ils éditent en 1507, donné en honneur de l'explorateur Amerigo Vespucci au congrès géographique de Saint-Dié.
xwikis
Un kilojoule vaut, et une calorie vaut soit. Un watt-heure vaut, et un kilowatt-heure vaut.On définit cette unité comme étant le travail d'une force motrice d'un newton dont le point d'application se déplace d'un mètre dans la direction de la force : L'expression du joule en unités de base du Système international est donc le kilogramme mètre carré par seconde au carré. Il est facile de retrouver ce résultat à partir de la formule de l'énergie cinétique, étant exprimé en joules (J), en kilogrammes (kg) et en mètres par seconde (m⋅s). Bien que le joule soit homogène au newton-mètre, cette dernière appellation est réservée au moment d'une force afin que l'unité rende compte de la façon dont cette grandeur est définie.Le concept d'énergie étant utilisé dans de nombreux domaines scientifiques, un certain nombre de définitions pratiques du joule sont possibles. Par exemple, un joule est le travail fourni par un circuit électrique pour faire circuler un courant électrique d'un ampère à travers une résistance d'un ohm pendant une seconde : Un joule est aussi l'énergie fournie par une puissance de 1 watt pendant une seconde.D'autres unités d'énergie sont exprimables en joules : Un joule vaut exactement : Un joule est approximativement égal à :On n'utilise en pratique que les multiples et sous-multiples de mille en mille (préfixes milli, micro, nano pour les sous-multiples, kilo, méga, giga pour les multiples).Le térajoule, le pétajoule et l'exajoule sont souvent utilisés dans les brochures relatives aux consommations énergétiques nationales ou mondiales :Dans la vie de tous les jours et approximativement :
Le joule (symbole : J) est une unité dérivée du Système international (SI) pour quantifier l'énergie, le travail et la quantité de chaleur. Le joule étant une très petite quantité d'énergie par rapport à celles mises en jeu dans certains domaines, on utilise plutôt les kilojoules (kJ) ou les calories en nutrition et dans les tableaux de valeur nutritive, et le kilowatt-heure pour mesurer l'énergie électrique ou thermique.
xwikis
Un gaz est un ensemble d'atomes ou de molécules subissant un certain nombre d’interactions, notamment les chocs entre particules et avec la paroi du récipient qui les contient. Ces interactions sont caractérisées par un potentiel comme le potentiel de Lennard-Jones. Les molécules poly-atomiques sont l'objet de mouvements de rotation ou de vibration qui intervient dans la capacité thermique des corps. Dans le cadre de la théorie cinétique, on fait les approximations suivantes : La trajectoire des molécules peut se modéliser avec le mouvement brownien. Supposons que dans un récipient, toutes les molécules aient la même vitesse et la même direction. Ce système est instable parce que la moindre modification de trajectoire d'une seule molécule provoquera le heurt sur une autre molécule qui déviera et heurtera encore une autre avec un effet en chaîne qui établira le chaos donc le mouvement brownien.Considérons une molécule ayant une vitesse de norme "v" et frappant une surface. Elle subit un choc élastique, c'est-à-dire qu'elle repart en faisant un même angle avec la surface, avec une vitesse de même norme "v". Si l'on choisit un repère orthonormé e, e, e, avec e perpendiculaire à la surface, alors cette vitesse se décompose selon les trois axes On appelle "c"(v) "dv le nombre de molécules par unité de volume (la concentration) dont la vitesse est comprise dans un volume infinitésimal "dv autour de la valeur v. La concentration globale est donc : La répartition statistique des vitesses étant isotrope, la moyenne des composantes de la vitesse est nulle : Les moyennes quadratiques ne sont par contre pas nulles, et elles sont égales entre elles par symétrie de rotation. Comme on a toujours, d'après le théorème de Pythagore on a en moyenne avec et On appelle "u" la vitesse quadratique moyenne, telle que : La loi de distribution des vitesses de Maxwell indique que plus le gaz a une température élevée, plus "u" est grande : "k" étant la constante de BoltzmannOn fait l'hypothèse d'une paroi sur laquelle se produisent des chocs parfaitement élastiques. Lorsqu'une molécule de masse "m" rebondit sur cette surface, la composante "mv" normale à la surface de sa quantité de mouvement varie de : D'après les lois de Newton (principe fondamental de la dynamique et théorème des actions réciproques), l'intégrale en temps de la force qu'elle imprime sur la surface est donc :On cherche maintenant, v étant fixé à "d"v près, à savoir combien de molécules frappent une petite surface d'aire "S" durant une durée τ. Les molécules frappant la surface entre l'instant 0 et l'instant τ sont nécessairement dans un cylindre de base "S" et de hauteur "v"τ — les autres molécules sont trop loin ou frappent à côté. Ce cylindre d'axe v a un volume de "S v" τ. La force "d""F" créée par toutes les molécules considérées est donc : La force "F" créée par toutes les molécules s'obtient en intégrant sur "v" > 0 si l'on oriente e du gaz vers l'extérieur (on ne considère que les molécules allant vers la surface, pas celles s'en éloignant). Ceci revient à diviser par deux, en raison de la symétrie de la distribution "c"(v) : En négligeant les fluctuations dans le temps de "F", on peut intégrer sur "t" et simplifier par τ : ou La pression étant la force divisée par la surface, on obtient ou encore, par définition de "C" = "N" / "V" :L'impact que l'on a supposé purement élastique sur une surface définit celle-ci comme un plan de symétrie pour le milieu, ce qui permet de ne pas modifier celui-ci. Ce n'est pas le cas des surfaces réelles pour lesquelles la distribution des vitesses du milieu n'est plus maxwellienne sur une distance de quelques libres parcours moyens, région que l'on appelle couche de Knudsen. L'expression ci-dessus de la pression doit être prise comme une simple définition de la pression thermodynamique pour le milieu situé « loin » de la paroi, c'est-à-dire à une distance formula_16. Le calcul de l'effort pariétal passe par la connaissance de la contrainte formula_17 du tenseur des contraintes dans la couche de Knudsen. On montre que la dérivée de cette quantité varie en formula_18. Pour un milieu suffisamment dense, cette variation est très faible et on pourra donc calculer l'effort sur la paroi à partir de la pression dans le milieu non perturbé. Cette évaluation constitue donc une approximation physique.Si une molécule de masse "m" se déplace à une vitesse "v", son énergie cinétique vaut formula_19 et l'énergie cinétique totale des molécules du gaz vaut, par définition de la température absolue : Où k est la constante de Boltzmann, N le nombre de particules et T la température (en kelvins). Le lien de cette quantité avec la température thermodynamique se fait par l'intermédiaire de l'entropie.Dans le cas d'un gaz parfait monoatomique, on suppose que la totalité de l'énergie est sous forme d'énergie cinétique des molécules (énergie thermique), donc l'énergie interne "U" du système vaut : On a doncDans le cas plus général du gaz parfait de Laplace, on suppose que les molécules ont une énergie interne de rotation ou d'oscillation, proportionnelle à formula_23. Le nombre de degrés de liberté passe de 3 à formula_24 et dans l'hypothèse d'équipartition, on a formula_25, et donc En modifiant adiabatiquement le volume du gaz, on fournit un travail formula_26 égal à la variation d'énergie interne formula_27. Donc on a formula_28 ou formula_29. Traditionnellement, pour retrouver la loi de Laplace du gaz parfait en régime adiabatique formula_30, on introduit Pour le gaz parfait de Laplace, on a donc
La théorie cinétique des gaz a pour objet d'expliquer le comportement macroscopique d'un gaz à partir des caractéristiques des mouvements des particules qui le composent. Elle permet notamment de donner une interprétation microscopique aux notions de :
xwikis
Le mot français vient du latin vulgaire "", lui-même issu du grec ancien /. Ce terme grec originel signifie « force en action », par opposition à / signifiant « force en puissance » ; Aristote a utilisé ce terme, pour désigner la réalité effective en opposition à la réalité possible. C'est en 1717 que le terme d"énergie" est employé pour la première fois par Jean Bernoulli dans un sens qui s’oriente vers l’acception physique contemporaine. En 1807, Thomas Young emploie lui aussi le terme'pour désigner un concept encore vague. Malgré ce flou, son adoption constitue une avancée significative dans la précision expressive. En effet, précédemment c’est le mot "force" qui est employé pour désigner indifféremment les concepts contemporains de force, d’énergie et de puissance. Cet usage s’était notamment répandu avec le "Philosophiae naturalis principia mathematica" d'Isaac Newton qui emploie le mot force dans sa formulation des équations de la dynamique. Le terme de travail sera lui proposé en 1829 par Gaspard-Gustave Coriolis, participant à préciser encore davantage les concepts distincts utiles à la physique. Cependant, les termes et leurs distinctions conceptuelles mettront encore du temps à se répandre. Ainsi encore en 1847 tout en soulignant la généralité et l'importance de la conservation de l'énergie, Helmholtz en développera l’idée dans un livre intitulé'(Sur la conservation de la force). En 1850, William Thomson propose explicitement d’adopter le terme'plutôt que '. Une autre avancée importante est la formulation en termes modernes de la conservation de l'énergie mécanique réalisée par William Rankine en 1853. Malgré ce progrès significatif, il faudra encore attendre 1875 pour voir "énergie" apparaître dans la littérature scientifique française.Il existe en fait plusieurs définitions de l'énergie. Elles sont considérées comme équivalentes. D’une façon usuelle, l’énergie est aujourd’hui définie comme la. Dans un cadre plus formel, elle est définie comme. Elle est sous-tendue par le principe de conservation de l'énergie. Les qualificatifs "fermé" ou "isolé" sont précisés pour éviter une interprétation qui créditerait la possibilité d’un mouvement perpétuel. Robert Mayer, médecin et naturaliste d'Heilbronn est le premier à formuler correctement le principe de conservation d'énergie dans un système fermé, sans en référer aux sommités de la physique de l'époque. Les querelles qui s'ensuivent sur l'antériorité de la découverte du principe affectent Mayer, qui sombre dans la dépression, et fait une tentative de suicide. Il s'en remet, et les honneurs finissent par arriver longtemps après. Il est fait docteur "honoris causa" de l'université de Tübingen. Ainsi Richard Feynman, dans ses cours de physique, obtient par exemple à partir de cette définition l'expression de l'énergie potentielle gravitationnelle à partir de considérations sur des dispositifs divers constitués de leviers, poulies et autres mécanismes.L'énergie est un concept créé pour quantifier les interactions entre des phénomènes très différents ; c'est un peu une monnaie d'échange commune entre les phénomènes physiques. Ces échanges sont contrôlés par les lois et principes de la thermodynamique. L'unité de l'énergie définie par le Bureau international des poids et mesures (BIPM) dans le Système international (SI) est le joule. Lorsqu'un phénomène entraîne un autre phénomène, l'intensité du second dépend de l'intensité du premier. Par exemple, les réactions chimiques dans les muscles d'un cycliste lui permettent de provoquer le déplacement du vélo. L'intensité de ce déplacement (c'est-à-dire la vitesse) dépend de l'intensité des réactions chimiques des muscles du cycliste, qui peuvent être quantifiées (la quantité de sucre « brûlée » par la respiration, le métabolisme du muscle). Prenons un autre exemple. Un moteur à explosion fonctionne grâce à une réaction chimique : la combustion qui a lieu à l'intérieur d'un cylindre. La réaction du combustible (l'essence) - appelé aussi carburant dans le cas d'un moteur thermique - avec le comburant (l'oxygène de l'air) produit du gaz avec émission de chaleur et de lumière, ce qui se traduit par une augmentation de la température et de la pression dans le cylindre ; la différence de pression entre ce gaz et l'atmosphère de l'autre côté du piston déplace ce dernier, qui va, à travers une transmission mécanique, faire tourner les roues ainsi qu'un alternateur qui va produire de l'électricité. Au passage, il y aura des frottements mécaniques qui produiront un échauffement et une usure. On a donc un réarrangement des molécules (rupture et recréation de liaisons chimiques) qui provoque une augmentation de la quantité de mouvement des molécules (ce qui se traduit par une augmentation de la température du gaz et donc une augmentation de sa pression). Cette dernière provoque le mouvement d'un solide (le piston), qui va entraîner un système de transmission, et pouvoir ainsi d'une part faire tourner un axe, qui peut être par exemple relié aux roues d'une voiture ou bien à un alternateur. L'entraînement de la pièce mobile de cet alternateur va faire tourner un aimant qui, par induction au sein d'une bobine, va provoquer un déplacement d'électrons (courant électrique). Le concept d'énergie va permettre de calculer l'intensité des différents phénomènes (par exemple la vitesse de la voiture et la quantité d'électricité produite par l'alternateur) en fonction de l'intensité du phénomène initial (la quantité de gaz et la chaleur produite par la réaction chimique de combustion).Le concept d'énergie est fondamental pour l'étude des phénomènes de transformation (comme la chimie et la métallurgie) et de transmission mécanique, qui sont la base de la révolution industrielle. Le concept physique d'énergie s'est donc logiquement affirmé au. En 1686, Leibniz montre que la quantité m v, appelée « force vive », se conserve. En 1788, Lagrange montre l'invariance de la somme de deux quantités, que l'on appellera plus tard « énergie cinétique » et « énergie potentielle ». Au, on parvient par une série d'expériences à mettre en évidence des constats ou "lois" : Ainsi, grâce à l'énergie, on peut mettre en relation des observations aussi différentes qu'un mouvement, une rotation, une température, la couleur d'un corps ou d'une lumière, une consommation de sucre ou de charbon, une usure, etc. Il apparaît également que si l'énergie se conserve et se transforme, certaines transformations sont faciles ou réversibles et d'autres non. Par exemple, il est facile de transformer de la hauteur de chute en échauffement, on peut le faire intégralement, en revanche l'inverse est difficile (il faut des appareils complexes) et une partie de l'« énergie » devra être diffusée et donc perdue. Cette observation sera à la base de l'idée d'entropie. À partir du concept de conservation de l'énergie (en quantité), on pourra regarder d'un œil différent des systèmes complexes (notamment biologiques et chimiques) qui violent apparemment cette loi et, on parviendra, moyennant de nouveaux progrès scientifiques, à toujours valider le postulat ou principe de conservation de l'énergie. L'énergie est un concept essentiel en physique, qui se précise depuis le. On retrouve le concept d'énergie dans toutes les branches de la physique :Dans le Système international d'unités, l'énergie est une grandeur exprimée en joules (formula_1). En science physique, un échange d'énergie est une manière d'exprimer l'intensité des phénomènes ; c'est de fait une quantité mesurable, et qui s'exprime de manière différente selon les transformations que subit un système (réaction chimique, choc, mouvement, réaction nucléaire, etc.). L'énergie se définissant de manière différente selon les phénomènes, on peut de fait définir diverses « formes d'énergie » (voir plus loin). Par ailleurs, à l'échelle macroscopique, tout phénomène possède une cause ; c'est la variation d'intensité du phénomène-cause qui provoque la variation de l'intensité du phénomène-effet. Si les intensités des phénomènes cause et effet sont exprimées sous la forme d'une énergie, on voit alors que l'énergie se conserve (voir ci-après). L'unité du Système international pour mesurer l'énergie est le joule (J). Certaines activités utilisent d'autres unités, notamment l'électron-volt ( = ), le kilowatt-heure ( = ), la tonne d'équivalent pétrole ( = ), la calorie ( = ), la grande calorie (en diététique : = = ), et le kilogramme en physique relativiste. La thermodynamique est la discipline qui étudie les transformations de l'énergie qui font intervenir l'énergie thermique. Le premier principe affirme que l'énergie se conserve, le second principe impose des limitations au rendement de la transformation de l'énergie thermique en énergie mécanique, électrique ou autre.Le travail est un transfert ordonné d'énergie entre un système et le milieu extérieur.La chaleur est un transfert désordonné d’énergie entre le système et le milieu extérieur. La chaleur est un transfert d’agitation thermique. L’agitation des particules se propage au gré des chocs dans toutes les directions, de façon désordonnée. C’est pour cette raison que l’on ne peut jamais transformer intégralement de l’énergie thermique en travail alors que l’inverse est possible (ex: travail électrique transformé en chaleur par effet Joule dans un radiateur électrique). On dit encore que la montée en température correspond à une dégradation de l’énergie. Ce transfert thermique, appelé chaleur, s'effectue du système le plus chaud vers le plus froid, c’est-à-dire celui dont les particules sont statistiquement les plus agitées, va transmettre son agitation thermique au gré des chocs plus ou moins énergétiques, au milieu extérieur ou au système statistiquement le moins agité, c’est-à-dire le plus froid. Cette constatation intuitive est formalisée par le second principe de la thermodynamique.Le travail et la chaleur ne sont pas des fonctions d’état. Leur quantité, mise en jeu au cours d’une transformation, dépend de la façon dont on procède.La conversion d'énergie d'une forme à une autre n'est en général pas complète : une partie de l'énergie présente au départ est dégradée sous forme d'énergie cinétique désordonnée (on dit parfois qu'elle est transformée en chaleur). On nomme rendement le quotient de l'énergie obtenue sous la forme désirée par celle fournie à l'entrée du convertisseur Prenons l'exemple d'un moteur thermique. Ce qui intéresse son utilisateur, c'est le mouvement mécanique produit. Le reste de l'énergie est au mieux considéré comme perdu (la part extraite sous forme de chaleur dans les gaz d'échappement), au pire nuisible (la part qui correspond à un travail d'usure physique ou chimique du moteur). Un moteur électrique idéal, qui convertirait toute l'énergie du courant électrique en mouvement mécanique, aurait un rendement de 1 (ou de 100 %). En réalité, s'il est proche de 95 % pour les machines les plus puissantes, il est en moyenne aux alentours de 80-85 % seulement pour un moteur à courant alternatif de quelques kilowatts un peu plus faible encore pour les moteurs à courant continu, du fait, entre autres, des frottements des balais sur le rotor et d'une moins bonne répartition du champ magnétique dans la machine. Le rendement réel d'un convertisseur est donc toujours inférieur à 1 sauf dans le cas des convertisseurs dont le rôle est de produire de l'énergie thermique pour lesquels il est unitaire (chauffage électrique). Dans certains cas, il peut apparaître un « rendement » apparent supérieur à 1 :L'énergie ne peut ni se créer ni se détruire mais uniquement se transformer d'une forme à une autre ou être échangée d'un système à un autre (principe de Carnot). C'est le principe de conservation de l'énergie : l'énergie est une quantité qui se conserve. Cette quantité est composée d'éléments divers (énergie cinétique, énergie thermique, énergie potentielle, énergie de masse, etc.), qui s'échangent dans un jeu à somme nulle. Ce principe empirique a été validé en 1915, bien après sa découverte, par le théorème de Noether. La loi de la conservation de l'énergie découle de l'invariance dans le temps des lois de la physique. Ce principe est tellement fort en physique qu’à chaque fois qu'il a semblé ne pas être vérifié cela a conduit à des découvertes importantes. Chaque fois qu'il a semblé que l'énergie n'était pas conservée, il s'agissait en fait de sa transformation en une nouvelle forme. Par exemple, la radioactivité a un temps été interprétée comme la ré-émission de quelque chose qui était reçu de l'extérieur et l'explication est venue de l'équivalence masse-énergie.En pratique, on distingue souvent différentes « formes » d'énergie. Toutefois, il faut être conscient que l'énergie sert à mesurer l'intensité d'un phénomène, cette division n'est qu'une manière de faire correspondre l'énergie au phénomène qu'elle mesure. Par ailleurs, cette distinction n'a rien d'absolu, mais dépend uniquement de la position de l'observateur : le principe de relativité s'applique aussi à l'énergie, de sorte que le même phénomène pourra être analysé en termes d'énergie « cinétique », « électromagnétique », ou « potentielle »... Les formes d'énergie classiquement considérées sont : Dans la théorie de la relativité, Einstein établit l'existence de deux formes d'énergie seulement : L'énergie fatale est l'énergie inéluctablement présente ou piégée dans un processus ou un produit, qui parfois et pour partie peut être facilement récupérée et valorisée ; par exemple, à la suite de retards dans la mise en place du recyclage, la France produisait dans les années 2000 plus de de tonnes par an de déchets ménagers dont 40 % étaient encore traités par incinération. Le pouvoir calorifique de ces déchets est une forme d'énergie fatale. Sans récupération (récupération de chaleur, méthane, hydrogène et/ou électricité, etc., éventuellement avec cogénération ou trigénération, cette énergie serait perdue dans l'environnement (dans les décharges) ou rejetée dans l'atmosphère. La combustion de déchets peut produire de la vapeur qui peut alimenter des serres, des usines ou un réseau urbain de chaleur. La méthanisation des déchets organiques peut produire de substantielles quantités de méthane, et un compost valorisable en agriculture.L'énergie dépensée pour créer un phénomène mesure l'ampleur du phénomène final. Cette énergie est fournie par un autre phénomène, appelé « phénomène moteur ». Certains phénomènes moteurs vont faire le travail rapidement, d'autres plus lentement ; par exemple, un manutentionnaire gringalet mettra longtemps avant de monter des parpaings un par un en haut de l'échafaudage, alors qu'un manutentionnaire musclé en portera plusieurs à la fois et sera plus rapide (en revanche, le résultat final sera exactement le même). Cette capacité à mobiliser beaucoup d'énergie en un temps donné est appelée puissance du phénomène moteur : La puissance se mesure en watts ( = ).Les transferts thermiques font partie d'un domaine de la thermodynamique appelé "thermodynamique irréversible", c'est-à-dire, pour simplifier, que le phénomène ne peut pas revenir en arrière. L'énergie transférée se présente essentiellement sous forme de chaleur qui va spontanément d'une zone chaude vers une zone froide (Second principe de la thermodynamique). Ce transfert de chaleur peut être accompagné d'un transfert de masse. Ce phénomène se présente sous trois formes différentes : Chacun de ces trois modes est prépondérant dans son univers de prédilection : la conduction dans les solides, la convection dans les fluides en mouvement (liquides, gaz), le rayonnement dans le vide (où c'est le seul mode possible).La conduction thermique est le phénomène par lequel la température d'un milieu s'homogénéise. Il correspond à la transmission de l'agitation thermique entre molécules et se produit dans un solide, un liquide ou un gaz. Exemple : la température d'un barreau chauffé à une extrémité a tendance à s'uniformiser par conduction thermique.La convection est le transfert de chaleur provoqué par le mouvement des particules d'un fluide. Il se produit dans un fluide en mouvement. Exemple : l'air chaud, moins dense, monte, transportant la chaleur du bas vers le haut.Le rayonnement est le transfert de chaleur par propagation d'ondes électromagnétiques ou par désintégration radioactive. Il peut se produire dans tous les milieux, vide y compris. Exemple : la Terre est chauffée par le rayonnement du soleil.
En physique, l'énergie est une mesure de la capacité d'un système à modifier un état, à produire un travail entraînant un mouvement, un rayonnement électromagnétique ou de la chaleur. Dans le Système international d'unités (SI), l'énergie s'exprime en joules.
xwikis
Le terme anglais « "software" » a été utilisé dès 1953 pour distinguer la partie modifiable de l'ordinateur, par opposition au « "hardware" » qui est la partie matérielle permanente. Il apparut dans la littérature pendant les années 1960. En français, le mot logiciel est formé en 1969 à partir des mots "logique" et "matériel" comme traduction par la Délégation à l’informatique chargée du Plan Calcul. Ce terme a été adopté par l'Académie française en 1972. Cette traduction est officialisée par un arrêté publié au Journal officiel le et confirmé par l'arrêté du.Un ordinateur est composé de matériel et de logiciels. Le matériel est constitué des musiciens et des instruments, tandis que le logiciel est la partition. Sans logiciel l'ordinateur ne fait rien parce qu'il n'a pas reçu les instructions lui indiquant ce qu'il doit faire. Les logiciels sont composés de programmes informatiques, qui indiquent à l'ordinateur comment effectuer les tâches. Le logiciel détermine les tâches qu'un appareil informatique peut effectuer. Alors qu'à la vente d'un appareil informatique, l'accent est souvent mis sur le matériel informatique, c'est avant tout le logiciel qui donne à l'ordinateur sa valeur ajoutée. Le mot anglais "" (en français : "logiciel") était à l'origine utilisé pour désigner tout ce qui est immatériel dans un ordinateur : des programmes, des données, des documents, des photos... Logiciel n'est pas synonyme de programme informatique. Un logiciel est un ensemble typiquement composé de plusieurs programmes, ainsi que tout le nécessaire pour les rendre opérationnels : fichiers de configuration, images bitmaps, procédures automatiques. Les programmes sont sous forme de code binaire ainsi que parfois sous forme de code source. Les deux principales catégories de logiciels sont les logiciels "applicatifs" et les logiciels de "système". Le logiciel applicatif est destiné à aider les usagers à effectuer une certaine tâche, et le logiciel de système est destiné à effectuer des opérations en rapport avec l'appareil informatique. La plus importante pièce de logiciel est le système d'exploitation. Il sert à manipuler le matériel informatique, diriger le logiciel, organiser les fichiers, et faire l'interface avec l'utilisateur. Les logiciels disponibles dans le commerce sont toujours destinés à être utilisés avec un ou plusieurs systèmes d'exploitation donnés.Les logiciels sont couramment classifiés en fonction de : Les deux principales catégories de logiciels sont le logiciel "applicatif" et le logiciel de "système" : Les autres types de logiciels sont les applications, les utilitaires, les programmes et les pilotes (anglais "driver") : Il n'y a pas de distinction claire entre un logiciel standard et un logiciel spécifique, et il existe un continuum entre ces deux extrêmes : Selon les droits accordés par le contrat de licence, on parle de :Les principaux procédés de commercialisation des logiciels sont la production sur mesure de logiciels spécifiques pour les entreprises, la vente de logiciels standard destinés aux entreprises et la vente de ces derniers aux particuliers. En 1990 les plus grands éditeurs de logiciels aux États-Unis sont IBM, Microsoft, Computer Associates, Digital et Oracle. Les États-Unis sont à la fois le premier consommateur et le premier producteur mondial de logiciels, concurrencé principalement par l'Europe et le Japon (SAP, Dassault Systèmes et Sony) : dans les années 1980 la production / consommation des États-Unis représente 60 % de la production mondiale de logiciels, et 52 % de la consommation. 50 % des logiciels "standards" mis sur le marché sont des logiciels "applicatifs". Les activités des entreprises du secteur du logiciel sont, outre de créer des logiciels, d'assurer l'installation du logiciel chez le client ainsi que son exploitation. Pour une entreprise comme SAP (numéro un du logiciel en Europe) l'installation de leurs logiciels et la formation des utilisateurs est une part non négligeable de leur activité. Les logiciels libres sont distribués comme des commodités produites en coopération entre les utilisateurs et les entreprises du secteur. Les entreprises qui les distribuent vendent parfois des contrats d'assistance dans l'utilisation et la modification de ces logiciels. Dans les années 1950 les logiciels étaient souvent créés par les fabricants de matériel informatique et vendus avec le matériel, parfois des sociétés d'ingénierie créaient sur demande des logiciels applicatifs selon les besoins de l'utilisateur, cependant les systèmes d'exploitation étaient exclusivement le fait de fabricants de matériel. Les éditeurs de logiciels - sociétés spécialisées dans le logiciel - sont devenus courants dès les années 1960. Trente ans plus tard il existe plusieurs milliers d'éditeurs de logiciels aux États-Unis. Pour les produits numériques tels que les logiciels, la création de la première copie coûte très cher, tandis que les copies subséquentes coûtent très peu. Pour un logiciel, la création du code source demande un investissement important, sans aucune garantie de succès. Une fois créé, un logiciel peut être copié sans perte de qualité, la copie étant strictement identique à l'original. Des outils de partage de fichiers en pair à pair sont utilisés pour copier, parfois illégalement, des logiciels, comme ça se fait dans le marché de la musique. Les logiciels couramment copiés illégalement sont ceux qui peuvent être utilisés tels quels par les particuliers - logiciels de bureautique ou jeux vidéo. Les éditeurs de ces logiciels disent que ces copies illégales entraînent des manques à gagner et ceux-ci incluent dans leurs produits des mécanismes de protection. Les situations de monopole sont caractéristiques du secteur du logiciel : il arrive souvent qu'une seule technologie ou un seul vendeur contrôle un pan du marché. Le marché du logiciel est sujet à l'effet réseau : la popularité élevée d'un logiciel le rend d'autant plus intéressant pour l'acheteur. Ce phénomène renforce les fortes et grandes entreprises et fragilise les fragiles petites entreprises. Ce qui explique que les petites entreprises peu populaires doivent se battre pour survivre, et explique les situations de monopole. L'adhésion des logiciels aux standards technologiques permet aux producteurs de profiter de l'effet réseau : le fait que plusieurs produits adhèrent au même standard facilite les échanges d'informations ce qui les rend plus intéressants pour l'utilisateur.Le logiciel libre est un mouvement social basée sur la philosophie formulée par Richard Stallman dans les années 1980. Richard Stallman, à l'origine de cette mouvance, se décrit lui-même comme étant. Selon le livre de Steven Levy, les "hackers" sont une communauté et une culture née en 1960 à l'institut de recherche en intelligence artificielle du MIT et presque disparue dans les années 1980. Dans cet institut de jeunes hobbyistes passent leur temps à étudier les ordinateurs et explorer les possibilités qu'offre la programmation de ces machines. Dans ce milieu les programmes informatiques sont traités de la même manière que n'importe quelle information scientifique : mis à la disposition de tout un chacun pour étude, exploitation et amélioration. Il y règne un fort esprit de coopération et de partage, le code source des programmes est utilisé comme moyen de communication, et le fait de restreindre l'accès au code source limite les interactions de la communauté. En 1984 Richard Stallman, selon sa philosophie "libre" - héritée du milieu hacker, lance la création d'un système d'exploitation (GNU) et fait appel à un conseiller juridique de la Free Software Foundation pour créer une nouvelle licence de distribution, la GNU General Public License (abr. "GPL"), qui garantit que le code source d'un logiciel, initialement publié par son auteur, ne sera jamais mis sous secret industriel en application des lois de copyright par quiconque le récupère et le redistribue. Dans son ouvrage "GNU Manifesto", Richard Stallman suggère aux producteurs de logiciels de changer leur manière de travailler, et, au lieu d'acheter et vendre du logiciel, de le considérer comme une commodité produite en coopération entre les utilisateurs et les entreprises du secteur. Il suggère que même si le logiciel est libre, les utilisateurs auront besoin d'assistance dans l'utilisation et la modification du logiciel, services que les entreprises peuvent vendre. La GPL est la licence la plus fréquemment appliquée aux logiciels libres. En 2002 plus de 50 % des projets de SourceForge.net sont sous licence GPL, et c'est également la licence appliquée à la plupart des distributions GNU/Linux. Certains comme Eric S. Raymond considèrent que la supériorité des logiciels libres est avant tout technique. Pour promouvoir cet aspect du logiciel libre ils ont créé l'Open Source Initiative en 1998.En Europe de l'Ouest les logiciels sont protégés par la loi en tant qu’œuvres littéraires auxquelles s'applique la convention de Berne. Convention qui prévoit qu'un accord explicite de l'auteur est obligatoire avant de retoucher, de modifier, de publier le logiciel, ou de s'en servir comme base pour réaliser un autre logiciel. Un contrat de licence fixe les droits et les obligations du fournisseur et de l'utilisateur du logiciel. Ce contrat formalise également les biens et les services qui devront être offerts par le fournisseur. Lorsque les logiciels ont commencé à être vendus en grande distribution, ce contrat - auparavant signé par l'acheteur - a été remplacé par une "licence sous emballage" (anglais "shrink wrap"), qui lie automatiquement et tacitement le fournisseur avec l'utilisateur du moment que ce dernier ouvre l'emballage du logiciel. Les logiciels sont également protégés par les lois du secret industriel, destinées à empêcher la concurrence de se servir des caractéristiques techniques du logiciel dans ses produits. Pour les logiciels vendus en grande distribution sous "licence sous emballage", cette protection est assurée en gardant secret le code source du logiciel et en commercialisant uniquement le code objet : la découverte des caractéristiques techniques à partir du code objet nécessite des outils spécialisés et un gros effort de réflexion. La licence GNU General Public License (abr. "GPL") a été créée en 1984 comme outil de soutien de la philosophie "libre". Cette licence garantit à quiconque recevant une copie du logiciel d’obtenir les mêmes droits, c’est-à-dire le droit d’exécuter le logiciel dans n’importe quel but, de le copier, de l’étudier, de le modifier et d’en distribuer des copies exactes ainsi que des copies modifiées.Les logiciels peuvent être distribués dans le commerce de détail, téléchargés en libre-service, incorporés dans un appareil informatique, ou mis en ligne sur un ordinateur du fournisseur. La distribution peut être gratuite, peut faire l'objet de commerce et peut être complétée par des contrats de service concernant par exemple de la maintenance ou de l'assistance technique. En plus de la distribution publique, des techniques permettent la distribution automatisée de logiciels aux employés d'une entreprise. La majorité des logiciels continuent d'appartenir à leur producteur après avoir été distribués. Les logiciels sont « emballés » sous une forme qui facilite le transport avant d'être distribués aux utilisateurs. Pour un logiciel vendu en grande distribution, le colis (anglais "package") est conçu pour permettre l'utilisation immédiate du logiciel sans l'intervention d'un informaticien. Il contient généralement le code objet des programmes, le nécessaire pour les installer et la documentation. Le colis est rarement vendu, et généralement mis à disposition assorti d'une licence d'utilisation. Le fournisseur peut y ajouter des services de formation, de maintenance, de mise à jour et de garantie, souvent sur paiement additionnel. Le "déploiement" est effectué en plusieurs étapes qui visent à placer le logiciel dans son environnement cible de manière qu'il soit prêt à être utilisé. La première étape consiste à emballer (anglais "package") un logiciel en vue de faciliter son envoi vers l'environnement cible. Puis une étape dite d ́"installation" consiste à effectuer les opérations nécessaires pour placer le logiciel dans son environnement cible, ceci peut nécessiter une modification de la configuration des logiciels déjà en place. L'opération de "désinstallation" consiste à effectuer les opérations inverses de l'installation, en vue de retirer le logiciel. La procédure d'installation est typiquement automatisée par des logiciels - qui sont essentiellement des outils de décompression. Un logiciel évolue durant toute sa vie, et est typiquement distribué plusieurs fois, à plusieurs stades de son évolution, appelés "versions" ou "release". Le secteur public a été l’un des secteurs d’activité le plus moteur dans la diffusion et appropriation de l’open source et des logiciels libres. À titre d’exemple, en 2011, près de 19 % du budget informatique de l’administration française est affecté à des projets à composantes open source ou incluant des logiciels libres, générant ainsi un marché de plus de 1,2 milliard d’euros en 2011 (logiciels et services). Il faut aussi tenir compte des évolutions en cours dans les modèles de distribution des logiciels avec la montée en puissance de l’informatique en nuage, et notamment du mode SaaS ("Software as a Service"). Celui-ci change les modes de rémunérations associés et la facturation en regard. Même si en 2011, la part du mode SaaS dans l’ensemble du marché des logiciels est encore marginale, sa progression est rapide et devrait devenir un mode à ne pas négliger parmi les différentes formes couramment acceptées. Plusieurs indicateurs confortent l’évolution progressive vers des services applicatifs à la demande via le réseau.Créer un logiciel est une activité intellectuelle et prend du temps. La construction d'un logiciel comporte généralement différentes activités telles que l'étude de faisabilité, l'analyse des besoins, la conception, la programmation, les tests, le déploiement et la maintenance. La construction d'un logiciel modérément complexe dans un délai raisonnable n'est généralement pas réalisable par une personne seule. La construction nécessite alors d'être découpée en tâches qui seront réparties entre plusieurs personnes d'une entreprise ou d'une équipe. L'étude de faisabilité permet de déterminer si le logiciel peut être réalisé : s'il est possible d'apporter une solution technique au problème posé, en tenant compte du système informatique à disposition. L'analyse des besoins permet de produire la spécification fonctionnelle qui servira de référence pour la conception et la programmation. La conception consiste à choisir les technologies et les outils qui devront être utilisés, tandis que la programmation consiste à créer des programmes exécutables en se servant des langages de programmation. Les tests consistent à simuler des scénarios d'utilisation en vue de vérifier le fonctionnement correct du programme. La maintenance est des travaux de modification effectués "a posteriori", après la distribution du logiciel. La construction doit suivre une démarche logique et réfléchie en vue d'éviter des produits de piètre qualité, qui donnent des résultats incorrects et tombent en panne. L'utilisation systématique d'une démarche réfléchie fait du travail de programmation une discipline d'ingénierie. Si créer un logiciel simple, répondant à un problème simple, peut être effectué de manière informelle par une personne seule, plus le logiciel est complexe plus sa construction est complexe, coûteuse en temps et vouée à l'échec. Les principales causes d'échec sont : la construction prend plus de temps que prévu, ce qui peut augmenter considérablement le coût de construction. Le logiciel ne donne pas les résultats attendus ou est abandonné par l'utilisateur parce qu'il tombe trop souvent en panne. L'évolution du matériel informatique, les nouveaux domaines d'utilisation des ordinateurs tels que la science, l'image et le son, l'industrie ou la communication ont augmenté l'importance du logiciel et la complexité moyenne de celui-ci. Les logiciels simples ne sont alors plus que des exercices ou des résolutions théoriques de problèmes, tandis que la résolution de problèmes concrets nécessite des logiciels complexes où le travail discipliné de construction est une nécessité. Un logiciel en version bêta (ou bêta-test) est un logiciel non finalisé, pour lequel on effectue une série de tests jusqu'à ce qu'une stabilité relative soit atteinte. Les personnes qui cherchent les dernières erreurs de ces versions de logiciels sont appelés des bêta-testeurs. Un logiciel qui est opérationnel sera maintenu. La maintenance du logiciel désigne les modifications apportées à un logiciel, après sa mise en œuvre, pour en corriger les fautes, en améliorer l'efficacité ou autres caractéristiques, ou encore adapter celui-ci à un environnement modifié (ISO/IEC 14764). Eric S. Raymond, dans son livre "La Cathédrale et le Bazar", compare la démarche de construction utilisée pour les logiciels "" Linux et fetchmail — le bazar — avec la démarche traditionnelle des éditeurs de logiciels — la construction de cathédrales : Dans la démarche ", les usagers sont co-développeurs du logiciel et ont un intérêt personnel pour le produit. Le code source est public et accessible à tout le monde. On considère que plus il y a d'yeux et plus les bugs sont aisés à repérer. Une nouvelle version du logiciel est publiée chaque jour, voire plus, ce qui permet aux utilisateurs de constater une évolution constante. Dans la démarche classique des éditeurs de logiciels, les développeurs sont des employés qui, la plupart du temps, ne vont jamais utiliser le logiciel qu'ils ont construit. C'est une petite équipe très spécialisée qui s'occupe également de trouver et corriger des bogues éventuels, ce qui peut exiger des mois de travail. Les périodes entre chaque version de logiciel sont relativement longues. D'où de fréquentes déceptions quant aux imperfections du produit publié. Dans la démarche dite ", les développeurs ne sont pas choisis, mais sont le résultat d'une sélection naturelle : pour que le développeur participe il faut qu'il soit intéressé au produit, qu'il ait pris le temps de l'étudier, qu'il ait réussi à en comprendre suffisamment pour arriver à y apporter des modifications au code source. Un individu qui a réussi à aller si loin a forcément le profil adéquat pour devenir co-développeur du logiciel.L'évaluation de la qualité d'un logiciel tient compte de : Un logiciel est un produit qui ne se détériore pas. Les facteurs de qualité peuvent être directement observables par l'utilisateur, ou alors constatable par les ingénieurs lors des revues de code ou des travaux de maintenance. Un consortium s'est créé le aux États-Unis pour établir un standard mondial de la qualité des logiciels. Ce consortium s'appelle le Consortium for IT Software Quality (CISQ).Les bogues, ou bugs, sont des erreurs de conception ou de programmation dans les logiciels, qui peuvent causer des comportements incorrects. La gravité du dysfonctionnement peut aller de très mineure (apparence légèrement incorrecte d'un élément d'interface graphique), à des événements catastrophiques (explosion de la fusée Ariane lors du vol 501, irradiation incorrecte de patients par une machine de traitement...) en passant par des pertes plus ou moins grandes de données, et, rarement, par une détérioration du matériel. Il est difficile, pour des raisons fondamentales, de produire des logiciels sans bogue. Cependant, il existe des mécanismes par lesquels on peut limiter la quantité de bogues, voire les supprimer. Citons d'une part des préceptes d'organisation des équipes de programmation et leur méthodologie, d'autre part les techniques de recherche de bogues dans les logiciels. La recherche en informatique a développé un domaine d'étude, la vérification formelle, dont l'objectif est de certifier la qualité des logiciels et de garantir leur fiabilité. Dans l'ensemble, l'obtention de logiciels complexes peu bogués est coûteuse en temps et en main d'œuvre. Plus les anomalies sont détectées tôt au long du développement du logiciel, moins leur correction est difficile.Pour la sécurité globale des systèmes d'information d'une entité, il peut être nécessaire de définir des profils d'application, afin d'identifier les logiciels critiques sur lesquels il est nécessaire de porter une attention particulière du point de vue de la sécurité.
En informatique, un logiciel est un ensemble de séquences d’instructions interprétables par une machine et d’un jeu de données nécessaires à ces opérations. Le logiciel détermine donc les tâches qui peuvent être effectuées par la machine, ordonne son fonctionnement et lui procure ainsi son utilité fonctionnelle. Les séquences d’instructions appelées programmes ainsi que les données du logiciel sont ordinairement structurées en fichiers. La mise en œuvre des instructions du logiciel est appelée exécution, et la machine est appelée ordinateur ou calculateur.
xwikis
Les limites de ce qui est nommé l'Amérique du Nord diffèrent selon les points de vue. Pour l'Organisation des Nations unies, l'Amérique du Nord comprend uniquement le Canada, les États-Unis, les Bermudes ainsi que Saint-Pierre et Miquelon. Cependant, le Mexique est membre de l'Accord de libre-échange nord-américain et communément admis dans le sous-continent. Le nord du continent américain regroupe donc les pays suivants : De 1907 à 1934, Terre-Neuve fut également un dominion (état indépendant membre de l'Empire britannique). Au sud du Mexique, on retrouve un certain nombre de pays que l'on regroupe sous le nom d'Amérique centrale : On peut dans certains cas ajouter à ces pays les Antilles. Cet archipel est divisé en deux grands ensembles :Héritage des différentes vagues d'immigration qui ont marqué son histoire, l'Amérique du Nord présente deux groupes ethno-culturels bien différenciés:Sur le continent la langue principale est l'anglais (aux États-Unis et au Canada), suivi de l'espagnol (aux États-Unis et au Mexique) et du français (au Canada et minoritairement aux États-Unis). D'autres langues locales, issues des civilisations amérindiennes, subsistent, quoique faiblement.L'Amérique du Nord est le deuxième continent le plus riche du monde après l'Europe en ce qui concerne la richesse par habitant. Pour ce qui est de la richesse totale, l'Amérique du Nord se classe troisième après l'Asie et l'Europe. Les États-Unis et le Canada font partie des pays les plus développés au monde.Outre la colonisation viking des Amériques, il est très probable que les Mélanésiens de Polynésie aient eu un contact ancien avec l'Amérique du Sud, hypothèse attestée entre autres par l'analyse génétique de la patate douce, originaire d'Amérique du Sud mais présente depuis longtemps en Océanie (voir Amérique du Sud et peuplement de l'Océanie pour plus de détails). En 2005, des analyses linguistiques (sur des mots en chumash et en gabrielino) et archéologiques plaidèrent également en faveur d'un contact entre les populations polynésiennes de Hawaï et la Californie.La culture populaire retient couramment la découverte de Christophe Colomb comme le premier contact des européens avec le continent américain. Pourtant, l'ensemble continental avait déjà été atteint depuis le, puisque c'est à cette époque que le Groenland, île américaine (au sens géographique), a été découvert par une expédition de Vikings (menée par le célèbre Erik le Rouge). De plus, selon de récentes avancées de la recherche archéologique, ils furent aussi les premiers Européens à atteindre le Canada : au tournant du, des expéditions partirent du Groenland et tentèrent une colonisation de Terre-Neuve. Cependant, certaines thèses postulent des contacts épisodiques remontant jusqu'à l'Antiquité. Chronologie :Voir les articles : Colonisation européenne des Amériques, Colonisation britannique des Amériques, Colonisation espagnole de l'Amérique, Colonisation française des Amériques, Nouvelle-France, Nouvelle-Espagne, Nouvelle-Néerlande, Amérique du Nord britannique.Dans le cas d'un découpage de l'Amérique en 2 continents, la limite historique avec l'Amérique du Sud est le canal de Panama, mais il est plus généralement admis aujourd'hui que ce soit le bouchon du Darién, zone située de part et d'autre de la frontière entre le Panama et la Colombie. Si l'Amérique est considérée comme constituée de 3 sous-continents, l'Amérique du Nord est séparée de l'Amérique centrale par l'isthme de Tehuantepec.La disposition du relief nord-américain est longitudinale : la région se décompose en ensembles différenciés qui se succèdent d’est en ouest. La partie orientale est dominée par des plaines littorales étroites au nord (Canada et Nouvelle-Angleterre) et plus larges au sud (Floride). Derrière ces espaces plats se trouvent des chaînes de montagnes peu élevées, de formation ancienne et érodées : les Appalaches ne dépassent guère les d’altitude. Le plateau des Laurentides constitue l’essentiel de la presqu’île du Labrador. En allant vers l’ouest, on rencontre des espaces relativement plats et peu élevés, parsemés de lacs (lac de l’Ours, grand lac des Esclaves, lac Winnipeg et les Grands Lacs). Plus au sud, la vallée du Mississippi représente l’épine dorsale du centre de l’Amérique du Nord. Ensuite, la région des Grandes Plaines puis le piémont des Rocheuses se succèdent à des altitudes de plus en plus hautes. L’ouest de l’Amérique du Nord est une succession de chaînes plus ou moins parallèles qui constituent un obstacle à la circulation. Cet ensemble montagneux, plus large aux États-Unis qu’au Canada, est entrecoupé de hauts plateaux et de fossés d’effondrement. Les derniers espaces avant l’océan Pacifique se caractérisent par une grande activité volcanique et sismique : il s’agit d’une portion importante de la ceinture de feu du Pacifique.Selon une étude publiée en septembre 2019 par des chercheurs de l’université Cornell (New York), l’American Bird Conservancy et le Centre de recherches national de la faune du Canada, le nombre d’oiseaux en Amérique du Nord a diminué de depuis les années 1970. L'étude montre que, outre les espèces en voie de disparition, les oiseaux communs considérés comme abondants subissent également une « disparition massive ». Les causes seraient la disparition de leur habitat ainsi que l’utilisation massive de pesticides.L’Amérique du Nord a perdu 15 % de ses forêts intactes (paysage « naturel » considéré comme à la fois non artificiellement morcelé et non dégradé) entre 2000 et 2013.
L’Amérique du Nord est un continent à part entière ou un sous-continent de l'Amérique suivant le découpage adopté pour les continents.
xwikis
L'histoire de la musique est une matière particulièrement riche et complexe, principalement du fait de ses caractéristiques : la difficulté tient d'abord à l'ancienneté de la musique, phénomène universel remontant à la Préhistoire, qui a donné lieu à la formation de traditions qui se sont développées séparément à travers le monde sur des millénaires. Il y a donc une multitude de très longues Histoires de la musique selon les cultures et civilisations. La musique occidentale (musique classique ou pop-rock au sens très large) ne prenant qu'au l'allure de référence internationale, et encore très partiellement. La difficulté vientIl existe alors deux « méthodes » pour définir la musique : l’approche intrinsèque (immanente) et l’approche extrinsèque (fonctionnelle). Dans l'approche intrinsèque, la musique existe chez le compositeur avant même d’être entendue ; elle peut même avoir une existence par elle-même, dans la nature et par nature (la musique de la rivière, des oiseaux..., qui n'a aucun besoin d'intervention humaine). Dans l'approche extrinsèque, la musique est une fonction projetée, une perception, sociologique par nature. Elle a tous les sens et au-delà, mais n'est perçue que dans un seul : la musique des oiseaux n'est musique que par la qualification que l'on veut bien lui donner. L'idée que l'être est musique est ancienne et semble dater des pythagoriciens selon Aristote. Dans la "Métaphysique" il dit :.Cette définition intègre l'homme à chaque bout de la chaîne. La musique est conçue et reçue par une personne ou un groupe (anthropologique). La définition de la musique, comme de tout art, passe alors par la définitionLa musique est généralement considérée comme un pur artefact culturel. Certains "prodiges" semblent néanmoins disposer d'un don inné. Les neuropsychologues cherchent donc à caractériser les spécificités des capacités musicales. Le caractère plus ou moins inné des talents artistiques est scientifiquement discuté. Pour beaucoup, la musique serait propre à l'humain et ne relèverait que peu de la biologie, si ce n'est par le fait qu'elle mobilise fortement l'ouïe. Un débat existe pourtant sur le caractère inné ou acquis d'une partie de la compétence musicale chez l'Homme, et sur le caractère adaptatif ou non de cette « compétence ».Plusieurs arguments évoquent une origine et des fonctions culturelles ou essentiellement socio-culturelles. De nombreux animaux chantent instinctivement, mais avec peu de créativité, et ils semblent peu réceptifs à la musique produite par les humains. Une rythmique du « langage » et du chant existe respectivement chez les primates et chez les oiseaux, mais avec peu de créativité. Chez l'humain, le chant et le langage semblent relever de compétences cérébrales en partie différentes. L'alphabet morse est une sorte de codeLes neuropsychologues ont dès le début du mis en évidence une composante génétique à certains troubles de l'élocution. Ils ont aussi démontré que certaines structures du cerveau (aires cérébrales frontales inférieures pour l'apprentissage de la tonalité, et l'hémisphère droit notamment) dont l'intégrité est indispensable à la perception musicale, révèlent l'existence d'un substrat biologique. Ce substrat neuronal peut d'ailleurs être surdéveloppé chez les aveugles (de naissance ou ayant précocement perdu la vue) ou être sous-développé chez les sourds. Certains auteurs estiment que tout humain a une compétence musicale. Ceci ne permet cependant pas d'affirmer que la compétence musicale est biologiquement acquise. La musique, ou plus exactement la « capacité musicale », la « dysmélodie » et l"'amusie congénitale" (incapacité à distinguer les fausses notes, associée à une difficulté à faire de la musique, ou à « recevoir » la musique), qui toucherait 4 % des humains selon Kalmus et Fry (1980),La musique aurait-elle une fonction biologique particulière?... même si elle ne semble pas avoir une utilité claire en tant que réponse adaptative (tout comme la danse qui lui est souvent associée). Quelques auteurs comme Wallin estiment que la danse et la musique pourrait avoir une valeur adaptative en cimentant socialement les groupes humains, via la « contagion émotionnelle » que permet la musique. Les résultats de l'étude de la compétence musicale du bébé et du jeune enfant (ex : chantonnement spontané), et de l'émotion musicale et du « cerveau musical » dans le cerveau, apportent des données nouvelles. Hauser et McDermott en 2003 évoquent une « origine animale » à la musique, mais Peretz et Lidji en 2006 proposent un point de vue intermédiaire : il existe une composante biologique, mais. Si la musique produit des effets sur les groupes, c'est parce que dès qu’on entendSelon Claude Debussy,.Selon cette définition, la musique est l’« art desParmi les œuvres musicales on distingue la composition musicale, produite avant son interprétation, et l'improvisation musicale, conçue auLa musique, comme art allographique, passe par l'œuvre musicale. Chacune est un objet intentionnel dont l'unité et l'identité est réalisée par ses temps, espace, mouvement et forme musicaux, comme l'écrit Roman Ingarden. Objet de perception esthétique, l'œuvre est certes d'essence idéale, mais son existence hétéronome se concrétise par son exécution devant un public, ou par son enregistrement y compris sa numérisation. Comme toute œuvre, l'œuvre musicale existe avant d'être reçue, et elle continue d'exister après. On peut donc s'interroger sur ce qui fait sa pérennité : combien d'œuvres survivent réellement à leurs compositeurs? Et sont-elles vraiment toutes le reflet de son style, de son art? On entend surtout par œuvre musicale le projet particulier d'uneDans son essai sur les « célibataires de l'art », Jean-Marie Schaeffer estime que, dans l’art moderne (et "a fortiori" dans l’art technologique du ), la question-clé : « Qu’est-ce que l’art? » ou « Quand y a-t-il art? » s’est progressivement transformée en : « Comment l’art fonctionne-t-il? ». En musique, ce déplacement d’objet a posé le problème des éléments que l’on peut distinguer "a priori" dans l’écoute structurelle d’une œuvre. En 1945 apparurent les premières formes d'informatique, et en 1957 on a assisté, avec l’arrivée de l'électronique musicale, à un point de bifurcation. D'abord une nouvelle représentation du sonore qui, bien que difficile à maîtriser, a en fait ouvert des perspectives nouvelles. Ensuite, ces techniques ont remis en cause certaines réflexions théoriques sur la formalisation de la pensée créatrice, renvoyant le compositeur à laL'utilisation de musique dans d'autres œuvres (qui sont donc des œuvres de collaboration tel qu'un film, un dessin animé ou un documentaire) pose la question des fonctionnalités de la musique, en particulier dans les contenus audiovisuels. La musique remplit des fonctions lorsqu’elle est utilisée (ou incorporée, synchronisée). La musicologue polonaise Zofia Lissa présente douze fonctions principales, la plupart n’étant pas mutuellement exclusives. Elle cherche à en comprendre la façon dont la musique est utilisée dans les films et l'effet qu'elle produit : par exemple la fonction de Leitmotiv qui contribue à tracer la structure formelle d'un film :Le temps gouverne la musique comme il gouverne la perception du son : depuis le micro-temps, qui est l'échelle de la vibration sonore car le son est une mise en vibration de l'air, jusqu'à la forme musicale, construction dans un temps de l'écoute. Comme la forme musicale ne nous est révélée qu’au fur et à mesure, chaque instant est en puissance un moment d’avenir, une projection dans l’inconnu. C’est le sens du titre d’une œuvre d’Henri Dutilleux qui propose de nous plonger dans le « mystère de l’instant ». Le théologien suisse Hans Urs von Balthasar livre cette métaphore judicieusement musicale de la condition humaine : « Faites donc confiance au temps. Le temps c’est de la musique ; et le domaine d’où elle émane, c’est l’avenir. Mesure après mesure, la symphonie s’engendre elle-même, naissant miraculeusement d’une réserve de durée inépuisable ».Dans cette composante temporelle, la musique peut se déployer selon trois dimensionsGrâce au développement des recherches de l'acoustique musicale et de la psychoacoustique, le son musical se définit à partir de ses composantes timbrales et des paramètres psychoacoustiques qui entrent en jeu dans sa perception. D'objet sonore, matériau brut que le musicien doit travailler, ce matériau devient objet musical ; la musique permet de passer à une dimension artistique qui métamorphose le « donné à entendre ». Le silence n'est plus « absence de son ». Même le fameux "4′33′′" de John Cage, est un « donné à entendre ». Mais ce « donné à entendre » englobe désormais un matériau de plus en plus large. Depuis le début du, cet élargissement s’opère vers l’intégration des qualités intrinsèques de notre environnement sonore (concerts bruitistes, introduction des sirènes chez Varèse, catalogues d’oiseaux de Messiaen). Comment distinguer alors bruit et signal, comment distinguer ordre et désordre, création musicale etAvec la composition assistée par ordinateur, première expérimentation musicale à utiliser l’ordinateur, les théories musicales se sont tour à tour préoccupées d’infléchir ou de laisser l’initiative à la machine, et, parallèlement, de libérer totalement l’homme de certaines tâches de régulation ou de lui laisser une part importante de création. La problématique oscille ainsi, de façon quasi paradoxale mais finalement foncièrement dialectique, entre déterminisme et aléatoire, entre aléa et logique, entre hasard et nécessité. Le formalisme aléatoire (mathématisé) « calcule » sans qu’il n’empiète sur les atouts sensibles du compositeur. Les objets mathématiques qui se sont développés créent véritablement un intermédiaire vers des paradigmes esthétiques que l’expérimentation musicale essaie petit à petit de mettre à jour, intermédiaire qui se situerait entre une ordre régulier, périodique, et un chaos incontrôlé, aléatoire et singulier. Hiller, le père de la composition assistée par ordinateur, sans juger qui pourrait effectuer les compromis, considéraitUn « système musical » est un ensemble de règles et d'usages attachés à un genre musical donné. On parle parfois de « théorie musicale ». La conception de la musique comme système peut aller très loin, et les anciens Grecs comptaient la musique comme une des composantes des mathématiques, à l'égal de l'arithmétique, de la géométrie et de l'astronomie. Voir l'article « Harmonie des sphères ». Plus près de nous, Rameau dans son "Dictionnaire de la Musique" arrive à considérer la musique comme étant à la base des mathématiques. Certaines musiques possèdent en outre un "système de notation". La musique occidentale, avec son solfège, en est un exemple notoire. Dans ce cas, il est difficile de séparer le système musical du système de notation qui lui est associé. Certaines musiques traditionnelles sont uniquement de transmission orale, et développent des systèmes musicaux différents.En occident, la musique s'écrit avec des signes : les notes de musique, les clés, les silences, les altérations Les notes de musique s'écrivent sur une portée, composée de 5 lignes parallèles. La portée comporte aussi des barres verticales. L'espace entre deux barres de mesure est une mesure. Il existe aussi des doubles barres. Les sept notes de musique sont : do (ou ut), ré, mi, fa, sol, la et si. Les notes s'écrivent sur la portée ou sur des lignes supplémentaires placées au-dessus ou en dessous de la portée. La portée va du plus grave (en bas) au plus aigu (en haut). Une même note peut être jouée de façon plus ou moinsUne succession de notes voisines (ou conjointes) forme une gamme. Celle-ci est donc une succession de sons ascendants (de plus grave au plus aigu) ou descendants (du plus aigu au plus grave). Lorsqu'elle respecte la loi de la tonalité, il s'agit d'une gamme diatonique. Une succession de notes qui ne sont pas voisines (ou disjointes) forme un arpège, un arpège est souvent le jeu égrainé d'un accord du plus aigu au plus grave ou l'inverse. Les notes de la gamme (alors également appelées des degrés), sont séparées par des tons ou des demi-tons. On distingue les demi-tons diatoniques situés entre deux notes de nom différent et demi-tons chromatiques situés entre deuxLa mesure est la manière d'ordonner les notes et les silences. La mesure se lit sur la portée par la barre de mesure (verticale). Toutes les mesures doivent avoir une durée égale. La double barre de mesure indique la fin d'un morceau, la césure indique la fin d'une partie et la simple double barre indique un changement d'armure de la clé ou un changement de manière de compter les mesures lors d'un changement de mesure. Certains temps sont dits temps fort etLa musique peut être réalisée avec des objets de la nature (bout de bois par exemple) ou de la vie quotidienne (verres à eau et couverts parIl existe plusieurs manières de classer la musique, notamment :Un genre musical désigne desEn France, les bibliothèques municipales suivent les catégories des principes de classementCette définition considère la musique comme un fait de société, qui met en jeu des critères tant historiques que géographiques. La musique passe autant par les symboles de son écriture (les notes de musique) que par le sens qu’on accorde à sa valeur affective ou émotionnelle. En Occident, le fossé n’a cessé de se creuser entre ces musiques de l’oreille (proches de la terre, elles affirment une certaine spiritualité et jouent sur le parasympathique) et les musiques de l’œil (marquées par l’écriture, le discours, et un certain rejet du folklore). Les cultures occidentales ont privilégié l’authenticité et inscrit la musique dans une histoire qui la relie, par l’écriture, à la mémoire du passé. Les musiques d’Afrique font plus appel à l’imaginaire, au mythe, à la magie, et relient cette puissance spirituelle à une corporalité de la musique. L’auditeur participe directement à l’expression de ce qu’il ressent, alors qu’un auditeur occidental de concerts serait frustré par la théâtralité qui le délie de participation corporelle. Le baroque constitue en occident l’époque charnière où fut mise en place cette coupure. L’écriture, la notation, grâce au tempérament, devenait rationalisation des modes musicaux.Chaque époque est tributaire des rapports entre l’art et la société, et plus particulièrement entre la musiqueLa libération esthétique du compositeur par rapport à certaines règles et interdits, fondés au cours de l’histoire de la musique, et celle, concomitante, des liens qu’il noue avec l’auditeur est un facteur d’évolution. Elle va rarement sans heurts. L’évolution historique des courants stylistiques est jalonnée de conflits exprimés notamment à travers la question classique :. L’histoire évolue également par alternance de phases de préparations et de phases de révélation intimement liées entre elles. Ainsi, la place prépondérante qu’occupe Jean-Sébastien Bach dans le répertoire de la musique religieuse, conséquence du génie créatif de ce musicien d’exception, ne peut nous faire oublier tous les compositeurs qui l’ont précédé et qui ont tissé ces liens avec le public en le préparant à des évolutions stylistiques majeures. L’œuvre de Bach concentre de fait un faisceau d’influences allemandes (Schütz, Froberger, Kerll, Pachelbel), italiennes (Frescobaldi, Vivaldi), flamandes (Sweelinck, Reincken) et françaises (Grigny et Couperin), toutes embrassées par le Cantor. Ce type d'évolution incite Nikolaus Harnoncourt à considérer que « Mozart n’était pas unLa musique peut également être définie et approchée dans une perspective de recherche esthétique. Cette vision esthétique de la musique, peut être, du côté de l’auditeur, définie par la définition du philosophe français Jean-Jacques Rousseau :. De la Renaissance jusqu’au, la représentation des sentiments et des passions s’est effectuée par des figures musicales préétablies, ce que Monteverdi a appelé la "seconda prattica expressio Verborum". La simultanéité dans la dimension des hauteurs (polyphonie, accords), avancée de l’"Ars nova" au (Ph. De Vitry), a été codifiée aux ("Traité de l’harmonie universelle" du père Marin Mersenne, 1627, "Traité de l’harmonie réduite à ses principes naturels" de Jean-Philippe Rameau, 1722). Depuis, la représentation de la musique affiche des tendances plus personnalisées. Cette traduction de la personnalité aboutit tout naturellement au aux passions développées par la musique romantique. Certains estiment que les grandes écoles de style ne sont souvent qu’un regroupement factice autour de théories "a priori". La musique passe autant par les symboles de son écriture que par les sens accordés à sa « valeurPendant longtemps la musique fut considérée comme une science au même titre que l’astronomie ou la géométrie. Elle est très liée aux mathématiques. De nombreux savants se sont penchés sur les problèmes musicaux tels que Pythagore, Galilée, Descartes, Euler. Pythagore étudie la musique comme mettant en jeu des rapports arithmétiques au travers des sons. L'harmonie qui en procède se retrouve pour lui et gouverne l'ordonnancement de ses sphères célestes. Ainsi Platon dans "La République", VII, 530d, rappelle que la Musique et l'Astronomie sont des sciences sœurs. Au, Martianus Capella présente la musique comme un des sept arts libéraux. Avec Boèce, la théorie musicale est distinguée de la pratique musicale. La musique entendue comme activité ("praxis"), qui est la musique des musiciens, sera alors déconsidérée et considérée comme un art subalterne, un « art mécanique », de la musique entendue comme savoir ("théoria") qui seule sera reconnue comme vraie musique, et enseignée comme un desLa musique est utilisée pour ses effets thérapeutiques pour des personnes atteintes de la maladie d'Alzheimer. Elle est également une aide pour réveiller des patients d'un coma à l'écoute d'une musique familière (plusieurs cas avérés). LaL'écoute de musique à très fort niveau sonore lors d'un concert, baladeur, par un musicien... sans protection auditive peut aboutir à un traumatisme sonore. Il se manifeste soit par des pertes auditivesLa musique que les compositeurs créent peut être entendue par le biais de nombreux médias ; la manière la plus traditionnelle étant par la présence des musiciens eux-mêmes. La musique en direct peut être écoutée par radio, à la télévision ou sur Internet. Certains styles musicaux se focalisent plus sur la production d'un son pour une performance, tandis que d'autres se focalisent plus sur l'art de « mélanger » des sons lorsqu'ils sont joués en direct. Le rapport entre la musique et les médiasDe nombreux philosophes ont développé des théories de la musique. C'est en particulier le cas d'Arthur Schopenhauer (joueur de flûte) pour qui la musique est l'art métaphysique par excellence. Sa philosophie eût une influence déterminante sur Richard Wagner. Friedrich Nietzsche, ami de Wagner et compositeur à ses heures, accorde également une place de choix à la musique dans sa pensée. Dans les religions, de nombreuses traditions de musiques sacrées existent, à l'instar de la musique chrétienne, de la musique bouddhique ou de la musique juive. Dans l'islam, les interprétations traditionnelles prévalant notamment dans le sunnisme tendent à considérer que la religion musulmane prohibait la musique, en exceptant certaines occasions comme les mariages. Aucun consensus entre autorités religieuses musulmanes n'existe cependant sur ce point, et la musique est présente dans les sociétés musulmanes. De riches traditions de musiques islamiques existent dans certaines branches de l'islam, comme le soufisme.
La musique est un art et une activité culturelle consistant à combiner sons et silences au cours du temps. Les ingrédients principaux sont le rythme (façon de combiner les sons dans le temps), la hauteur (combinaison dans les fréquences), les nuances et le timbre. Elle est aujourd'hui considérée comme une forme de poésie moderne.
xwikis
L'Amérique du Sud constitue la majeure partie australe des terres émergées de ce qui est généralement désigné comme le Nouveau Monde, l'hémisphère ouest, les Amériques, ou simplement l'Amérique (qui est parfois considérée comme un seul continent et l'Amérique du Sud un sous-continent). Il se trouve au sud et à l'est du canal du Panama, qui traverse l'isthme de Panama. Géographiquement, presque tout le territoire sud-américain est situé sur la plaque sud-américaine. Géopolitiquement, tout le Panama – y compris le segment à l'est du canal de Panama de l'isthme – est souvent considéré comme faisant partie de l'Amérique du Nord et un pays d'Amérique centrale. Géologiquement, le continent n'est rattaché à l'Amérique du Nord que tout récemment avec la formation de l'isthme panaméen il y a environ d'années, ce qui provoqua le Grand échange américain. De même, les Andes sont des chaînes de montagnes relativement jeunes et sismiquement instables, descendent du nord au sud en suivant la bordure occidentale du continent ; le territoire à l'est des Andes est principalement occupé par la forêt tropicale humide, le vaste bassin de l'Amazonie. Le continent présente aussi des régions plus sèches telle la Patagonie orientale ou l'Atacama. Le continent sud-américain comprend aussi de nombreuses îles, dont beaucoup appartiennent aux pays du continent. Beaucoup d'îles des Caraïbes (les Antilles) – par exemple, les Grandes Antilles et les Petites Antilles – sont situées au-dessus de la plaque caraïbe, une plaque tectonique avec une topographie diffuse. Aruba, les Barbades, Trinité-et-Tobago sont situées sur le plateau continental sud-américain. Les Antilles néerlandaises et les dépendances du Venezuela sont situées au nord du continent. Géopolitiquement, les îles-États et les territoires d'outre-mer des Caraïbes sont généralement regroupés et considérés comme une partie ou une sous-région d'Amérique du Nord. Les nations d'Amérique du Sud qui bordent la mer des Caraïbes – dont la Colombie, le Venezuela, le Guyana, le Suriname et la Guyane – forment l'Amérique du Sud caribéenne. Les autres îles sont les Galapagos, l'île de Pâques (en Océanie mais qui appartient au Chili), l'île Robinson Crusoe, l'île de Chiloé, la Terre de Feu, et les îles Malouines. L'Amérique du Sud est la terre des plus hautes chutes d'eau, Salto Ángel, du fleuve au débit le plus important, l'Amazone, de la chaîne de montagne la plus longue, les Andes, du désert le plus aride, le désert d'Atacama, de la voie ferrée la plus élevée, Ticlio, de la capitale la plus haute, La Paz, du plus haut lac commercialement navigable, le lac Titicaca, et de la ville la plus australe, Puerto Toro. Les ressources naturelles de l'Amérique du Sud sont l'or, le cuivre, le minerai de fer, l'étain et le pétrole. L'Amérique du Sud abrite de nombreuses espèces d'animaux uniques comme le lama, l'anaconda, les piranha, le jaguar, la vigogne et le tapir. La forêt tropicale humide d'Amazonie possède une biodiversité élevée, contenant une fraction importante des espèces de la planète. Le plus grand pays d'Amérique du Sud est de loin le Brésil, à la fois du point de vue de sa superficie et de sa population. En Amérique du Sud, on distingue plusieurs sous-régions : les États andins, les Guyanes, le cône Sud et le Brésil.Le nord de l'Amérique du Sud abrite une grande partie de la biodiversité planétaire des terres émergées. Les forêts y sont cependant en forte régression au profit des prairies d'élevage (bovin notamment, destiné à l'exportation) et cultures industrielles (de soja notamment, pour partie transgénique). Les feux de forêts, la dégradation des sols, et l'élevage et l'agriculture industrielle sont à l'origine d'émissions importantes de gaz à effet de serre (qui font par exemple du Brésil un des premiers émetteurs mondiaux). Par ailleurs le sud du continent est situé sous le trou de la couche d'ozone de l'antarctique, qui a conduit à une forte hausse des taux d'UV (cancérogènes, mutagènes).L'agriculture reste le secteur d'activité le plus important de l'Amérique du Sud, même si le chômage rural et la pauvreté chassent la population vers les énormes villes côtières. Les ressources minières et pétrolières, bien que substantielles, sont inégalement réparties selon les pays. Pour limiter l'importation de matières premières, relancer la production et renforcer les infrastructures, les gouvernements se sont lourdement endettés auprès de la Banque mondiale dans les années 1960 et 1970. Aujourd'hui, le Brésil est la première puissance économique, suivie de loin par l'Argentine, qui est, à son tour, suivie de près par la Colombie et le Venezuela. L'ouest de l'Amérique du Sud, moins développé, a récemment su tirer parti de sa position géographique. Ainsi, le Chili exporte de plus en plus de matières premières vers le Japon.Les langues les plus utilisées en Amérique du Sud sont l'espagnol et le portugais, qui est la langue officielle du Brésil. L'Amérique du Sud présente un très grand nombre de langues minoritaires : on dénombre près de 600 langues qui appartiennent à linguistiques. Par exemple, les 32 langues de Bolivie sont de différentes, y compris 6 isolats. Les 68 langues de Colombie appartiennent à différentes, dont 10 sont des isolats. Toutefois, le contraste est marqué entre les « grandes » langues (andennes et guarani) et les petites langues amazoniennes.Les cinq langues d'origine coloniale de l'Amérique du Sud sont le portugais, l'espagnol, l'anglais, le néerlandais et le français.La population amérindienne, chiffrée par millions, a été progressivement refoulée vers l'intérieur du continent. Paradoxalement, l'importance de cette population locutrice ne garantit en rien la pérennité des langues amérindiennes, qui sont pour la plupart menacées d'extinction. On distingue habituellement les langues d'Amérique du Sud selon l'importance recensée de la population locutrice. On dénombre ainsi habituellement quatre « grandes » langues : Les langues amazoniennes sont parlées par des groupes minoritaires dans les neuf pays du bassin amazonien : Beaucoup de ces langues sont parlées à cheval sur les frontières, en zones marginales des pays, pour beaucoup parce que les populations indigènes des côtes et du centre, exploitées par les européens, ont été exterminées. Ce sont dans leur ensemble des langues très menacées. La région amazonienne constitue un «trou noir » linguistique, au même titre que la Nouvelle-Guinée. Le travail linguistique sur ces langues, qui se sont révélées être très intéressantes dans leur diversité pour le développement de la linguistique, est encore très limité.La religion principale en Amérique du Sud est le catholicisme. Cependant, les églises protestantes (principalement évangéliques) se développent rapidement en nombre de pratiquants, notamment au Brésil (voir Religion au Brésil) et au Suriname. Dans de nombreux pays la pratique de ces religions, en particulier le catholicisme, se mêlent avec des rites et pratiques de religions précolombiennes.Les groupes ethniques et indigènes de l'Amérique du Sud incluent :Les pays (et territoires dépendants) dans cette table sont catégorisés d'après le schéma pour les régions et subrégions géographiques utilisé par les Nations unies. Les douze pays indépendants du tableau ci-dessus ont lancé le (déclaration de Cuzco) un projet de Communauté sud-américaine de nations (CSN), devenu Union des nations sud-américaines (UNASUD), sur le modèle de l'Union européenne.
L’Amérique du Sud est un continent ou un sous-continent et la partie méridionale de l'Amérique. Il est situé entièrement dans l'hémisphère ouest et principalement dans l'hémisphère sud. Il est bordé à l'ouest par l'océan Pacifique et au nord et à l'est par l'océan Atlantique. L'Amérique centrale, qui relie le sous-continent à l'Amérique du Nord, et les Caraïbes sont situées au nord-ouest.
xwikis
Considérons la fonction altitude A lors d’une randonnée en montagne. L'« état » du groupe de randonneurs peut être défini par exemple, par ses coordonnées GPS permettant de le situer sur le chemin de randonnée. Supposons que pour aller d’un sommet (1) à à un sommet (2) à, deux chemins s’offrent au groupe : La variation d’altitude ΔA est la même pour les deux chemins : La fonction altitude pourrait être considérée comme une fonction d’état de la randonnée. En revanche, les efforts consentis, travail et chaleur dégagée par les randonneurs ne seront pas identiques! Ces grandeurs ne seraient donc pas des fonctions d’état mais des grandeurs liées au chemin suivi.Certaines fonctions d’état jouent un rôle particulier dans la définition des états d’équilibre d’un système. Ce sont des grandeurs accessibles, à l’échelle macroscopique, directement ou indirectement grâce à des instruments de mesure : Ces fonctions d’état particulières sont appelées variables d’état d’équilibre d’un système thermodynamique. Certaines de ces variables d’état sont des grandeurs intensives, comme la température et la pression. Cela signifie qu’elles ne dépendent pas de l'extension du système, en d'autres termes de la quantité de matière du système. "Exemple" : si on mélange deux bouteilles contenant d’eau chacune, à la température de, la température finale est et non pas. Il en serait de même avec la pression qui ne présente pas non plus la propriété d’additivité. En revanche, le volume V final sera égal à. Le volume n’est pas une grandeur intensive mais une grandeur extensive qui dépend de l'extension du système et donc de la quantité de matière. La quantité de matière n, possède elle-même cette propriété d'additivité et est donc également une grandeur extensive. Les variables intensives sont importantes pour définir l'état d'équilibre d'un système physico-chimique. En effet l'équilibre est atteint lorsque la valeur des variables intensives est homogène dans tout le système et ne varie pas au cours du temps. "Remarque": Dans le cas des systèmes chimiques comportant plusieurs espèces chimiques en réaction, une autre variable doit être prise en compte. Il s'agit de la variable de composition ξ qui permet de déterminer la composition du système chimique pour un avancement donné de la réaction.Les variables d’état définissant l’état d’équilibre d’un système, p, V, T, n, ne sont pas indépendantes. Elles sont liées par une relation appelée équation d’état du système, plus ou moins complexe. Par exemple, l’équation d’état la plus simple est celle du gaz parfait. C'est le modèle idéalisé d'un gaz constitué de particules suffisamment éloignées les unes des autres pour considérer qu'il n'y a aucune interaction d'ordre électrostatique entre elles ; cela implique que la pression est faible. Dans ces conditions, l'équation d'état est indépendante de la nature chimique du gaz considéré comme parfait. De nombreux gaz réels dans les conditions normales de température et de pression vérifient, avec une excellente approximation, le modèle du gaz parfait; c'est le cas des gaz constituants de l'air : le diazote (N) et le dioxygène (O). Elle s'exprime par la relation: En mesurant T et p pour n (mol.) de gaz parfait on peut alors calculer le volume et définir parfaitement son état d'équilibre : Pour définir l’état d’une quantité donnée d'un gaz parfait (n fixé), 2 variables indépendantes suffisent (cette propriété peut être étendue à tous les corps purs, qu'ils soient solides, liquides ou gazeux).La différentielle d'une fonction d'état, fonction de plusieurs variables indépendantes, est une différentielle totale exacte. Cela signifie qu'elle est égale à la somme de ses différentielles partielles par rapport à chaque variable. Pour une fonction de deux variables notée formula_9 : formula_10 formula_11 est la dérivée partielle de F par rapport à x et de même pour y. Application : si F est fonction de plusieurs variables au cours d'une transformation, on peut décomposer cette transformation en plusieurs étapes de telle manière que pour chaque étape une seule variable indépendante varie, ce qui rend l'étude plus simple. La variation globale de F sera égale à la somme des variations partielles de chaque étape et sera bien évidemment identique à la variation obtenue au cours de la transformation effectuée en une seule étape; toutes les variables variant simultanément. Considérons une transformation définie par l'état initial A : F(A); x(A); y(A) et l'état final C : F(C); x(C); y(C). On définit un état intermédiaire B : F(B); x(B) = x(C); y(B) = y(A). On dit alors que la variation de la fonction d'état ne dépend pas du chemin suivi. Calculons la variation de la fonction : formula_12 formula_13 Remarque : L'ordre de variation des variables indépendantes x et y n'a aucune incidence sur le résultat. Cela se traduit mathématiquement par le fait que les dérivées secondes croisées de la fonction F par rapport à x et y sont égales. formula_14On considère un gaz parfait dont l'état est donné par sa température T et sa pression p. Pour effectuer une transformation, on fait varier la pression ou la température du gaz de valeurs initiales notées formula_15 et formula_16 à des valeurs finales formula_17 et formula_18. La quantité de matière est considérée comme constante.L'équation d'état du gaz parfait nous donne une expression explicite du volume en fonction de ces deux paramètres : formula_19. Le volume apparaît donc comme une fonction d'état. On peut calculer à partir de cette expression la variation de volume du gaz pendant la transformation de l'état initial vers l'état final : formula_20 On peut vérifier qu'on retrouve la même variation en suivant deux chemins différents pour la transformation. Pour le premier chemin, on fait varier la pression de formula_16 à formula_18 en maintenant la température constante et égale à formula_15, puis on fait varier la température de formula_15 à formula_17 en maintenant la pression constante et égale à formula_18 puis l'inverse. Dans le second chemin, on procède de la même manière, mais en faisant varier la température avant la pression. Pour une petite variation infinitésimale de la pression et de la température, on peut écrire : formula_27 soit, en utilisant l'équation d'état : formula_28 On considère les deux chemins différents définis par l'ordre de variation de p et T formula_29 ce qui donne formula_30 formula_31 formula_32 formula_33 On retrouve le même résultat que pour le premier chemin, qui est évidemment le même que celui obtenu directement à partir de l'équation d'état. Pour que la forme différentielle dV de la fonction V(T, p) soit une différentielle exacte, il faut que l'ordre de la dérivation de V par rapport à T et p soit indifférent ou encore que les dérivées secondes croisées soient égales, ce qui est le cas : formula_34En revanche, le travail des forces de pression dépend du chemin suivi, il ne peut donc pas être écrit comme la variation d'une fonction d'état, et le travail fourni au cours d'une transformation infinitésimale formula_35 n'est pas une différentielle exacte. Nous avons établi précédemment la différentielle du volume d'un gaz parfait : formula_36 or le travail des forces de pression formula_37 donc la forme différentielle du travail associé à un gaz parfait, est égale à : formula_38 On peut démontrer que formula_35 n'est pas une différentielle exacte en remarquant que les dérivées secondes croisées ne sont pas égales. formula_40 Ceci est confirmé par le calcul du travail fourni au cours de la transformation en suivant les deux chemins différents décrits précédemment. On trouve alors pour le premier chemin un travail fourni formula_41 formula_42 et pour le second formula_43 Le travail total obtenu dans les deux cas envisagés est différent. Il dépend donc du chemin suivi et ne peut pas être écrit sous la forme de la variation d'une fonction d'état. "Remarque:" Cette propriété est similaire à celle concernant la chaleur mise en jeu à pression constante égale à une variation d'enthalpie (ΔH = Q) ou à volume constant, égale à une variation d'énergie interne (ΔU = Q). Dans ces deux cas, la chaleur ne dépend plus du chemin suivi puisqu'elle est égale à la variation d'une fonction d'état. Précisons qu'à volume constant le travail des forces de pression est nul.Les transformations réelles sont irréversibles et leur déroulement dépend de la façon de procéder. Elles ne sont donc pas modélisables mathématiquement et le calcul des grandeurs thermodynamiques qui leur sont associées, est impossible. Néanmoins, si cette grandeur est une fonction d'état, sa variation ne dépend que de l'état final et de l'état initial d'équilibre. Pour calculer cette variation il suffit alors d'imaginer une transformation réversible, partant du même état initial pour aboutir au même état final que pour la transformation réelle. Cette transformation réversible est caractérisée par une succession d'états d'équilibres. Elle est modélisable mathématiquement et sa variation est donc calculable. Cette variation est identique à celle observée pour la transformation irréversible et le problème est résolu. En outre si la fonction d'état est fonction de plusieurs variables, on pourra décomposer la transformation en autant d'étapes intermédiaires réversibles qu'il y a de variables; chaque étape étant caractérisée par la variation d'une seule variable indépendante. Cela simplifie grandement les calculs.
Une fonction d'état est une fonction de grandeurs appelées variables d'état, qui définissent l'état d'équilibre d'un système thermodynamique. Les variables d'état sont par exemple la température formula_1, la pression formula_2, le volume formula_3 ou le nombre de moles formula_4. Une telle fonction possède donc la propriété de ne dépendre que de l'état d'équilibre dans lequel se trouve le système, quel que soit le chemin emprunté par le système pour arriver à cet état. En particulier, au cours d'une transformation entre deux états d'équilibre, la variation d'une fonction d'état ne dépend pas du chemin suivi par le système pendant la transformation, mais uniquement des états d'équilibre initial et final. Ceci permet de déterminer cette variation pour n'importe quelle transformation, y compris une transformation irréversible, en imaginant un chemin réversible pour lequel le calcul est possible.
xwikis
Après avoir primitivement utilisé un calendrier de 10, puis de 12 mois lunaires, les Romains, vers -450, adoptèrent un calendrier de 355 jours, comprenant 12 mois de 29 ou 31 jours (à l'exception de février qui en comprenait 30). Ce calendrier pré-julien, dit « de Numa » ou « de Tarquin », était approximativement lunaire, mais se décalait de 2/3 de jour par an par rapport aux lunaisons. Il était en revanche trop court de 10 jours pour suivre l'année solaire. Les Romains décidèrent donc d'ajouter un mois, alternativement de 22 ou 23 jours, tous les deux ans. Ce calendrier alternait ainsi des années communes de 355 jours, et des années de 377 ou 378 jours. Il resta en vigueur jusqu'aux dernières années de la République, et Jules César y mit fin en -45. La composition d'une année commune était : L'année commençait en mars et les mois de septembre, octobre, novembre et décembre portaient un nom conforme à leur rang (septième, huitième, neuvième et dixième). Ainsi les mois avaient tous un nombre impair de jours, les nombres pairs étant tenus pour néfastes par les Romains, sauf février, le mois des morts. Le mois intercalaire, nommé "mensis intercalaris", était curieusement entièrement placé entre le 23 et le 24 février et il était intercalé tous les deux ans. Il était également appelé "Mercedonius" parce que les mercenaires recevaient leurs salaires (en latin : "merces") à ce moment-là. Selon les sources, on considère parfois que les derniers jours de février s'ajoutaient aux 22 ou 23 jours insérés pour former le mois "Mercedonius", le mois de février étant alors tronqué de quelques jours. Ainsi les années comptaient les nombres de jours suivants : Ce calendrier n'est cependant pas en accord avec le soleil puisqu'il donne une année moyenne de 366,25 jours [(355 + 378 + 355 + 377) / 4], soit environ un jour de plus que l'année tropique. La durée moyenne des mois était de 29,59 jours, assez proche de la durée d'une lunaison (intervalle entre deux pleines lunes), soit 29,53 jours. Les semaines dites "nundinae" (Nundines) duraient alors huit jours. Selon Censorinus et Macrobe, ce cycle d'intercalation était le meilleur possible. Macrobe décrit un raffinement, pour une période de huit ans tous les 24 ans, ne comprenant que trois années intercalaires, toutes de 377 jours. Ce principe permettait de ramener la longueur moyenne de l'année calendaire à 365,25 jours sur 24 ans, proche de l'année tropique.En pratique, le système n'était pas appliqué rigoureusement ; les intercalations étaient effectuées de façon hasardeuse ; celles-ci étaient déterminées par les prêtres responsables du calendrier, ordonnées par les pontifes et appliquées par les consuls. Négligence, concussion aussi (le calendrier déterminait les dates de résolution des crédits, d'exigibilité des loyers), les documents montrent qu'elles furent très irrégulières, parfois omises plusieurs années de suite et, à l'occasion, mises en œuvre plusieurs années consécutives. Lorsqu'il était utilisé correctement, ce système permettait à l'année romaine de rester grossièrement alignée sur l'année tropique. Cependant, lorsque trop d'intercalations furent omises, comme lors de la Deuxième guerre punique ou des Guerres civiles romaines, le calendrier se décala rapidement. De plus, comme les intercalations étaient déterminées assez tardivement, un citoyen romain ordinaire ne connaissait pas la date officielle, particulièrement s'il se trouvait loin de Rome. Ainsi, le calendrier devint peu à peu incompréhensible ; les années précédant la réforme julienne furent appelées les « années de la confusion ». Pendant les années où Jules César exerça la charge de "pontifex maximus", avant la réforme, entre 63 av. J.-C. et 46 av. J.-C., seules cinq intercalations furent pratiquées au lieu de huit, et entre 51 av. J.-C. et 46 av. J.-C. aucune ne se produisit. La réforme julienne avait donc pour objet de corriger définitivement ces défauts en créant un calendrier qui resterait de façon simple en correspondance avec le soleil, sans intervention humaine.En tant que "pontifex maximus", César avait la charge de fixer le calendrier. La réforme julienne fut introduite à son initiative en 46 av. J.-C. (708 depuis la fondation de la Ville (Rome), ab Urbe condita, AUC) et entra en application en 45 av. J.-C. (709 AUC). Elle fut établie après consultation de l'astronome Sosigène d'Alexandrie et probablement conçue pour approcher l'année tropique, déterminée depuis au moins Hipparque.La première étape de la réforme fut le réalignement du début de l'année romaine avec l'année tropique. Du fait des intercalations absentes, le calendrier romain avait pris 90 jours d'avance. L'année 46 av. J.-C. dura donc 445 jours, elle est appelée année de la confusion. Cette année avait déjà été étendue de 355 à 378 jours par l'insertion d'un mois intercalaire régulier en février. Lorsque César décréta la réforme, probablement après son retour de sa campagne africaine à la fin de "quintilis" (juillet), il ajouta 67 autres jours en intercalant deux mois intercalaires exceptionnels entre novembre et décembre. Cicéron nomme ces mois "intercalaris prior" et "intercalaris posterior" dans une lettre écrite à cette époque ; leur longueur respective est inconnue, tout comme la position des nones et des ides lors de chacun de ces mois. L'année 45 av. J.-C. fut la première année d'application régulière du nouveau calendrier julien.Censorin décrit la réforme comme suit : Macrobe dit de même : Ainsi, pour résumer ces modifications : Macrobe prétend que ces jours additionnels furent ajoutés immédiatement après le dernier jour de chacun de ces mois pour éviter de déplacer des fêtes établies. Cependant, comme les dates romaines après les ides d'un mois étaient comptées à rebours relativement au début du mois suivant, ces jours supplémentaires eurent pour effet d'augmenter le compte initial du jour situé juste après les Ides. Les Romains de l'époque nés après les Ides d'un tel mois réagirent différemment à ce changement sur leur date d'anniversaire. Marc Antoine le conserva au de "januarius", ce qui le fit passer de "a.d. XVII Kal. Feb." (c'est-à-dire : « ante diem XVII », « avant jour 17 », « avant (les Calendes de février) »), à "a.d. XIX Kal. Feb.", une date qui n'existait pas auparavant. Livie la conserva à "a.d. III Kal. Feb.", ce qui la décala du au de "januarius", un jour qui là encore n'existait pas auparavant. Auguste conserva la sienne au de "september", mais les deux dates, l'ancienne "a.d. VIII Kal. Oct." et la nouvelle "a.d. IX Kal. Oct.", étaient célébrées à certains endroits.Un jour intercalaire est inséré tous les quatre ans afin de mieux approcher l'année tropique (environ 365,2422 jours). L'année où un jour supplémentaire est intercalé compte 366 jours. En moyenne, une année du calendrier julien dure donc 365,25 jours. L'ancien "mensis intercalaris" fut aboli. Le nouveau jour intercalaire fut inséré en février. La position exacte du jour bissextile dans le calendrier julien original n'est pas connue avec certitude. En 238, Censorinus déclarait qu'il était inséré après les Terminalies (23 février). Il était donc suivi des cinq derniers jours de février, c'est-à-dire "a. d. VI", "V", "IV", "III" et "prid. Kal. Mart." (ces jours correspondent aux 24 à 28 février dans une année commune et aux 25 à 29 février dans une année bissextile). Il est vraisemblable que ce jour intercalaire ne remplaçait pas le 24 février mais redoublait le 23 février (sixième jour des calendes de mars), afin de ne pas modifier les commémorations des cinq derniers jours de février. Il fut ainsi appelé "ante diem bis sextum Kalendas Martias", généralement abrégé en "a.d. bis VI Kal. Mart." (c'est-à-dire « sixième double (bis) jour / sixième jour doublé, avant les calendes de mars » ; l'année qui le contenait fut appelée "annus bissextus". Tous les auteurs ultérieurs, comme Macrobe vers 430, Bède en 725, et les computistes médiévaux, suivirent cette règle. Le calendrier liturgique de l'Église catholique romaine suivit cette règle jusqu'en 1970. Les jours des mois ne furent numérotés de façon consécutive qu'à la fin du Moyen Âge. Le jour bissextile fut alors considéré comme le dernier jour de février, c'est-à-dire le 29 février.Bien que l'intercalation julienne soit plus simple que celle du calendrier romain, elle fut, semble-t-il, mal appliquée au début. Apparemment, les pontifes comprirent mal la méthode et ajoutèrent un jour intercalaire tous les trois ans, et non tous les quatre. Auguste, "Pontifex Maximus", corrigea cette erreur en omettant plusieurs années bissextiles pour réaligner l'année civile sur le Soleil. La suite des années bissextiles de cette période n'est donnée explicitement par aucune source ancienne, même si l'existence d'un cycle triannuel est confirmée par une inscription datant de 9 ou 8. Le chronologiste Joseph Scaliger établit en 1583 que la réforme d'Auguste fut instituée en 8 et en déduisit que les années bissextiles furent : -42, -39, -36, -33, -30, -27, -24, -21, -18, -15, -12, -9, 4 ap. J.-C., 8 ap. J.-C., 12 ap. J.-C.., etc. Cette proposition est toujours la plus acceptée. Il a parfois été suggéré que la première année de la réforme julienne, -45, était également bissextile. D'autres solutions ont été proposées. En 1614, Kepler émit l'hypothèse que la suite correcte était : -43, -40, -37, -34, -31, -28, -25, -22, -19, -16, -13, -10,4 ap. J.-C., 8 ap. J.-C., 12 ap. J.-C., etc. En 1883, le chronologiste allemand Matzat proposa : -44, -41, -38, -35, -32, -29, -26, -23, -20, -17, -14, -11, 4 ap. J.-C., 8 ap. J.-C., 12 ap. J.-C., etc. sur la base d'un passage de "Dion Cassius" mentionnant un jour intercalaire en 41 prétendument « contraire à la règle [de César]. Dans les années 1960, Radke argumenta que la réforme fut instituée lorsque Auguste devint "pontifex maximus" en 12, suggérant la suite : -45, -42, -39, -36, -33, -30, -27, -24, -21, -18, -15, -12, 4 ap. J.-C., 8 ap. J.-C., 12 ap. J.-C.., etc. Dans tous les cas, selon Radke, le calendrier romain fut à nouveau aligné avec le calendrier julien à partir du 26 février 4 ap. J.-C. En 1999 fut découvert un papyrus égyptien donnant une éphéméride de l'année -24 pour les dates romaines et égyptiennes, suggérant la séquence : -44, -41, -38, -35, -32, -29, -26, -23, -20, -17, -14, -11, -8, 4 ap. J.-C., 8 ap. J.-C., 12 ap. J.-C. etc, proche de celle proposée par Matzat.César est assassiné en 44 av. J.-C. Pour perpétuer son souvenir, Marc Antoine, alors consul, ordonne de renommer "quintilis" en "julius", car il s'agissait du mois de sa naissance et que les mois précédents portent ceux de divinités (Ianuarius, Februarius, Martius, Aprilis, Maius et Iunius). Après la réforme augustine, le Sénat décida, en 8 av. J.-C., d'honorer Auguste en renommant "sextilis" en "augustus". Selon un sénatus-consulte cité par Macrobe, ce mois fut choisi car Auguste était le successeur de César et que de nombreux événements liés à son accession au pouvoir s'étaient produits ce mois-là. D'après une théorie de Joannes de Sacrobosco, "sextilis" ne comportait que 30 jours, Auguste n'aurait su être honoré par un mois plus court que celui dédié à César ("julius" comportant 31 jours). On modifia donc la durée de "sextilis" pour la porter à 31 jours et la durée des mois suivants fut modifiée pour respecter l'alternance des mois. Enfin, pour conserver la durée de l'année normale à 365 jours, un jour fut enlevé à "februarius". Cette théorie est contredite par les écrits de Censorin et Macrobe, ainsi que d'autres sources comme celle d'un papyrus égyptien de donnant un mois de "sextilis" de 31 jours. Mais il paraît plus vraisemblable que le calendrier julien fut officiellement mis en place lorsque Auguste devint Pater Patriae, c'est-à-dire le Père de la Patrie. Grâce à ce statut lui offrant le pouvoir nécessaire de réformer la société romaine, Auguste à l'instar de la tradition égyptienne qui s'illustrait par l'adaptation du calendrier solaire au début du règne d'un pharaon, instaura le calendrier solaire en l'an 753 du calendrier romain (lunaire). Auguste qui s'était énormément endetté pour constituer son armée lorsqu'il revint de son exil pour reprendre le pouvoir contre Marc-Antoine, Auguste devenu le premier empereur romain, trouva plus judicieux d'annuler le treizième mois lunaire afin d'économiser un mois d'intérêt par an sur la somme empruntée. C'est ainsi qu'apparut la mention A.J.C. ; soit A pour Augustus, J pour Julius et C pour Caesar, lorsqu'on évoquait le Calendrier romain lunaire devenu solaire. Plus tard à partir du pape Grégoire XIII, la lettre A fut remplacée par le Clergé par le A des mots « avant » et « après » et les lettres J et C par Jésus-Christ.D'autres mois furent renommés par d'autres empereurs, mais aucun changement n'a survécu à leur mort. Charlemagne renomma également les mois en vieux haut-allemand, mais cette opération fut plus pérenne que celle des empereurs romains. Ces noms furent utilisés jusqu'au en Allemagne et aux Pays-Bas, et jusqu'au avec quelques modifications. De janvier à décembre : "Wintarmanoth" (mois de l'hiver), "Hornung" (pousse des cornes), "Lentzinmanoth" (mois du printemps), "Ostarmanoth" (mois de Pâques), "Wonnemanoth" (mois des merveilles), "Brachmanoth" (mois des jachères, c'est-à-dire où on laboure les champs précédemment laissés en jachère), "Heuvimanoth" (mois des foins), "Aranmanoth" (mois des épis / des moissons), "Witumanoth" (mois du bois), "Windumemanoth" (mois des vendanges), "Herbistmanoth" (mois de l'automne) et "Heilagmanoth" (mois saint).Le décompte des ides et des calendes, comportait une « semaine » commerçante de huit jours ou nundines. La semaine de sept jours apparaît déjà sous Auguste, au Chaque jour est placé sous la tutelle d'un astre: Saturne, Soleil, Lune... Le cycle hebdomadaire est un héritage oriental – Perse, Babylone, Chaldée, Syrie – transmis par la coutume juive. Il s'impose progressivement sous l'influence du christianisme et est adopté définitivement au Constantin introduit en 312 le dimanche comme jour férié.Divers systèmes d'identification des années ont été employés avec le calendrier julien. Pour les Romains, la méthode dominante consistait à nommer chaque année d'après les deux consuls (dits consuls éponymes) qui depuis l'an 153 av. J.-C. prenaient leur office le janvier de chaque année. Les Romains utilisèrent aussi parfois l'année de règne de l'empereur ; vers la fin du, les documents étaient de plus datés selon le cycle de 15 ans de l'indiction. En 537, Justinien imposa la mention du nom de l'empereur et de son année de règne, combinée avec la mention de l'indiction et du consul éponyme, tout en autorisant l'usage d'ères locales. En 309 et 310, ainsi qu'à certaines dates ultérieures, aucun consul ne fut appointé. Dans ce cas, la date consulaire était donnée en indiquant le nombre d'années depuis le dernier consul (datation post-consulaire). Après 541, seul l'empereur dirigea le consulat, typiquement pendant une seule année, et la datation postconsulaire devint la norme. Le système, obsolète, fut formellement aboli par Léon VI en 888.La datation "ab Urbe condita" ("AUC", « à partir de la fondation de la Ville ») ne fut que rarement utilisée pour désigner les années. Cette méthode servait aux historiens romains pour déterminer le nombre d'années entre deux événements et différents historiens pouvaient utiliser différentes dates.L'adoption du calendrier julien conduisit à plusieurs ères locales, comme l'ère d'Actium ou ère hispanique qui prend pour origine l'établissement de la "Pax romana" en Hispanie, le, et certaines furent utilisées pendant un temps certain. L'ère des Martyrs, également nommée "anno Diocletiani", commence avec l'intronisation de Dioclétien, le Grand Persécuteur, le. Elle fut utilisée par les chrétiens d'Alexandrie pour dater leurs Pâques pendant le et le, et continue de l'être par les Églises copte et éthiopienne. Dans l'est de la Méditerranée, les efforts des chronographes chrétiens tel qu’Anien d'Alexandrie pour dater la création du monde d’après la Bible conduisirent à l’introduction de diverses ères "Anno Mundi" fondée sur cet événement. La plus importante est l’"Etos Kosmou", utilisé dans le monde byzantin à partir du et en Russie jusqu'en 1700, qui fixe son origine à la date supposée de la Création, leEn Occident, aux alentours de 527, Denys le Petit proposa le système de l’"anno Domini", c'est-à-dire « année du Seigneur », qui s'est graduellement répandu dans le monde chrétien : les années étaient numérotées à partir soit de la date supposée de l'annonciation du Christ, (ou Incarnation), le 25 mars de l'an 753 AUC ou soit à partir de la date supposée de sa naissance, le 25 décembre de l'an 753 AUC. Pour des raisons pratiques, le début de l’Ère de l'Incarnation fut reporté à l'année julienne commençant le janvier de l'an 754 AUC, comptée comme An 1 de l'Ère de l'Incarnation. La suprématie mondiale des nations « chrétiennes », ou les plus tôt marquées par le christianisme, a imposé universellement l'« ère de l'Incarnation » pour les usages civils et constitue la norme actuelle de datation (à l'exception de la date julienne utilisée dans certains domaines scientifiques).L'année consulaire du calendrier romain débutait le depuis et ne fut pas modifiée par la réforme julienne (d'autres calendriers pouvaient débuter un autre jour, comme l'année religieuse ou l'année traditionnelle). Des calendriers locaux alignés sur le calendrier julien conservèrent une date de début d'année différente. En Égypte, le calendrier alexandrin débutait le 29 août (le 30 août après une année bissextile), suivant en cela la tradition du calendrier pharaonique (début de l'année fixée au lever de Sothis marquant le début de la crue du Nil). Plusieurs calendriers provinciaux locaux alignèrent le début d'année sur l'anniversaire d'Auguste, le 23 septembre. L'indiction provoqua l'adoption du comme début d'année dans l'Empire byzantin ; cette date est toujours utilisée dans l'Église orthodoxe pour le début de l'année liturgique. Lorsque Vladimir de Kiev adopta le calendrier julien en 988, l'année fut numérotée "Anno Mundi" 6496 et débuta le, six mois après le début de l"Anno Mundi" byzantine de même millésime. En 1492 ("Anno Mundi" 7000), Ivan III réaligna le début d'année au ; l"Anno Mundi" 7000 ne dura donc que six mois en Russie, du mars au 31 août 1492. Pendant le Moyen Âge, dans les régions d'Europe de l'Ouest affiliées à l'Église catholique romaine, les calendriers, pour des nécessités civiles, continuèrent à afficher les mois en 12 colonnes de janvier à décembre, en débutant au mars ("style vénitien") ou janvier ("style de la Circoncision" de Jésus), l’Église y ajoutant une année lunaire pour déterminer les fêtes religieuses. Cependant, la plupart de ces pays commencèrent la numérotation de l'année à une fête religieuse importante, comme le 25 décembre ("style de la Nativité" de Jésus), le 25 mars ("style florentin" ou "style de l'Annonciation", d'où une des hypothèses d'origine de la tradition du poisson d'avril commémorant l'usage de s'échanger des cadeaux en début d'année de ce style), voire à Pâques ("style de Pâques") comme dans certaines régions françaises. Au, le 25 mars fut utilisé comme début d'une nouvelle année dans le Sud de l'Europe. Cette pratique s'étendit à la plus grande partie du continent à partir du et en Angleterre à la fin du. Par exemple, les archives parlementaires anglaises enregistrèrent l'exécution de Charles le, même si la date correspond à ce qui serait actuellement considéré comme le 30 janvier 1649. La plupart des pays d'Europe de l'Ouest déplacèrent le jour de l'an au avant leur adoption du calendrier grégorien (voire avant sa création en 1582), principalement pendant le. La liste suivante en donne quelques exemples :Le calendrier julien fut d'utilisation commune en Europe et en Afrique du Nord depuis l'époque de l'Empire romain jusqu'en 1582, lorsque le pape Grégoire XIII promulgua le calendrier grégorien. Cette réforme était rendue nécessaire par l'excès de jours intercalaires du système julien par rapport aux saisons astronomiques. En moyenne, les solstices et les équinoxes avancent de 11 minutes par an par rapport à l'année julienne. Hipparque et peut-être Sosigène avaient déjà pris conscience de ce décalage, mais il ne fut probablement pas jugé important à l'époque de la réforme julienne. Cependant, le calendrier julien se décale d'un jour en 134 ans. En 1582, il était décalé de dix jours par rapport au Soleil. Il en résultait un déplacement de plus en plus important vers l'été de la date de Pâques, fête du printemps et du renouveau, fondamentale dans le calendrier liturgique romain. La réforme grégorienne eut pour objet de :Si, pour les usages civils, tous les pays de culte majoritairement orthodoxe (essentiellement en Europe de l'Est et du Sud-Est) adoptèrent le calendrier grégorien avant 1927, ce n'est pas le cas de leurs Églises nationales. En mai 1923, le congrès panorthodoxe de Constantinople proposa un calendrier julien révisé, constitué d'une partie solaire identique au calendrier grégorien (et qui le restera jusqu'en 2800) et d'une partie lunaire calculant la date de Pâques par observation astronomique à Jérusalem. Les Églises orthodoxes refusèrent toutes la partie lunaire. Presque toutes les Églises orthodoxes continuent de célébrer Pâques selon le calendrier julien (seule l'Église orthodoxe de Finlande utilise le calendrier grégorien). La partie solaire du calendrier julien révisé ne fut acceptée que par quelques Églises orthodoxes, : le patriarcat œcuménique de Constantinople, les patriarcats d'Alexandrie et d'Antioche, les Églises orthodoxes de Grèce, Chypre, Roumanie, Pologne, Bulgarie (en 1963) en Amérique (certaines paroisses y ont toujours le droit d'utiliser le calendrier julien). Les Églises orthodoxes de Jérusalem, Russie, Macédoine, Serbie, Géorgie et Ukraine continuent d'utiliser le calendrier julien (ainsi que certaines Églises schismatiques, vieilles-calendaristes) ainsi que le Patriarcat arménien de Jérusalem et l'Ancienne Église de l'Orient. Elles fêtent par exemple la Nativité le 25 décembre julien, c'est-à-dire le 7 janvier grégorien (jusqu'en 2100). Certaines paroisses occidentales de l'Église orthodoxe russe célèbrent la Nativité le 25 décembre grégorien, ainsi que celles des orthodoxes bulgares d'Amérique, avant et après le transfert en 1976 de ce diocèse de l'Église orthodoxe russe hors frontières à l'Église orthodoxe en Amérique. Une variante du calendrier julien est utilisée en Égypte, en matière liturgique, par le calendrier copte.Outre les Églises déjà citées, le calendrier julien demeure utilisé en Afrique du Nord dans le monde rural en particulier : il a toujours été utilisé dans un but agricole, c'est pourquoi il est appelé « calendrier agricole », "assana alfilahiya" en arabe. Depuis la fin du, il a aussi un but festif car il fixe la fête de Yennayer, premier du mois et de l'année. Les noms des mois ont été arabisés du latin tel qu'on le prononçait en Espagne pendant la période arabo-espagnole : "ianuarius" devint "yanâyer" ; "februarius": "fabrâyer" ; "martius" : "mâris" ; "aprilis": "abrîl" ; "maius" : mây ; "iunius" : "yônyô" ; "iulius" : "yôlyôz" ; "augustus" : Ou"ghoustous" (le son "g" ayant été remplacé par "gh" qui se prononce comme le "r" français ; le "ch" vient de l'espagnol où le "s" se prononce comme "ch") ; "september" devint "chotambir" (le "ch" vient de la prononciation espagnole du "s") ; "october" : "oktôbar" ; "november" : "nowanbir" ou "nofambar" (le son "v" n'existant pas en arabe, il a été remplacé par "w" comme le "w" anglais ou "f") ; "december" : "dojambir" (le son "c" en espagnol est proche du "j" français). Le premier jour de l'année correspond actuellement au 14 janvier du calendrier grégorien mais il est fêté le 12 en Algérie. Utilisé par les populations rurales d'Afrique du Nord, berbérophones et arabophones, en même temps que le calendrier grégorien et le calendrier musulman, ce calendrier julien localisé est parfois qualifié aujourd'hui de calendrier berbère (en accord avec une renaissance identitaire culturelle berbère).
Le calendrier julien est un calendrier solaire utilisé dans la Rome antique, introduit par Jules César en pour remplacer le calendrier romain républicain. Il a été employé en Europe jusqu'à son remplacement par le calendrier grégorien à la fin du. Il reste utilisé dans la République monastique du mont Athos, ainsi que par quatre Églises orthodoxes : les Églises orthodoxes de Jérusalem, de Russie, de Géorgie, de Serbie, trois églises orthodoxes non reconnues par le synode : les Églises orthodoxes de Macédoine, du Monténégro et d'Ukraine, et marginalement par plusieurs régions du Maghreb, surtout Berbères en Afrique du Nord et dans le calendrier "rûmi" en Turquie.
xwikis
Science dont les bases remontent à l'Antiquité, étudie au l'acoustique musicale, notamment les intervalles. Le théâtre d'Épidaure témoigne que dès le les Grecs maîtrisaient les propriétés sonores des matériaux pour construire des amphithéâtres : l'agencement périodique des rangées de sièges du théâtre d'Épidaure permet de filtrer les basses fréquences (inférieures à ) du bruit de fond (bruissement des arbres, auditoire).L'origine de l'acoustique est attribuée à Pythagore (), qui étudia le fonctionnement des cordes vibrantes produisant des intervalles musicaux plaisants à l'oreille. Ces intervalles sont à l'origine de l'accord pythagoricien portant aujourd'hui son nom. Aristote () anticipa correctement que le son se générait de la mise en mouvement de l'air par une source. Son hypothèse était basée sur la philosophie plus que sur la physique expérimentale. D'ailleurs, il suggéra de manière erronée que les hautes fréquences se propageaient plus rapidement que les basses fréquences, erreur qui perdura plusieurs siècles. La spéculation que le son est un phénomène ondulatoire doit son origine à l'observation des ondes à la surface de l'eau. En effet, la notion d'onde peut être considérée, de manière rudimentaire, comme une perturbation oscillatoire qui se propage à partir d'une source et ne transporte pas de matière sur des grandes distances de propagation. Le philosophe grec Chrysippe au et l'architecte et ingénieur romain Vitruve, environ 25 av. J.-C., évoquèrent la possibilité que le son présente un comportement analogue. Vitruve contribua par ailleurs à la conception de l'acoustique de théâtres antiques. Le philosophe romain Boèce (470-525 ap. J.-C.) formula aussi l'hypothèse d'un comportement similaire aux ondes sur l'eau, de même qu'il suggéra que la perception humaine de la hauteur était liée à la propriété physique de la fréquence.Un premier résultat expérimental important a été obtenu au début du, dont la découverte est due principalement à Marin Mersenne et Galileo Galilei : le mouvement de l'air généré par un corps vibrant à une certaine fréquence est aussi un mouvement vibratoire de fréquence identique à la fréquence de vibration du corps vibrant. Dans l'Harmonie Universelle (1637), Mersenne décrivit la première détermination absolue de la fréquence d'un son audible (à ). Cette description impliquait que Mersenne avait déjà démontré que le rapport de fréquences absolues de deux cordes vibrantes, l'une créant une première note musicale et l'autre la même note une octave au-dessus, était de 1/2. La consonance harmonique qui était perçue par l'oreille à l'écoute de ces deux notes ne pouvait s'expliquer que si le rapport des fréquences d'oscillation de l'air était lui aussi de 1/2. L'histoire de cette découverte, qui est le fruit des réflexions antérieures menées sur le sujet, dont certaines remontent à Pythagore (550 av. J.-C.), s'entrelace donc avec le développement des lois de fréquences naturelles des cordes vibrantes et de l'interprétation physique des consonances musicales. Galiléi, dans ses discours mathématiques concernant deux sciences nouvelles (1638), dévoile les discussions et les explications les plus lucides données jusque-là sur la notion de fréquence.L'acoustique physique (encore appelée acoustique fondamentale ou bien acoustique théorique) détermine les principes de la génération et de la propagation des sons et en développe le formalisme mathématique. Son domaine n'est pas nécessairement limité par la perception humaine ; elle s'intéresse aussi bien aux ultrasons et infrasons, qui obéissent aux mêmes lois physiques. L'acoustique théorique a de nombreux domaines d'application spécialisés. L'acoustique non linéaire étudie les cas où les écarts à la linéarité postulée dans les équations de l'acoustique générale sont trop importants pour qu'on puisse, comme dans le cas général, les négliger. L'acoustique sous-marine étudie la propagation du son dans l'eau et l'interaction des ondes mécaniques constituant le son avec l'eau et les frontières avec d'autres milieux. L'aéroacoustique étudie la génération d'un bruit par un écoulement turbulent (ex : turbulence d’un jet libre), ou interagissant avec une surface (profil d’aile, pales de rotor d’un hélicoptère, roues de compresseur ou de turbine, cavité,...).L'acoustique théorique détermine les principes de la génération et de la propagation des sons et en développe le formalisme mathématique. Comme la physique théorique, elle constitue un champ d'études intermédiaire entre l'acoustique expérimentale et les mathématiques, au développement desquelles elle a également contribué. La théorie ondulatoire des phénomènes acoustiques constitue la pierre angulaire de l'acoustique théorique. Elle démontre notamment que la propagation des sons satisfait l'équation des ondes, et s'intéresse aux hypothèses effectuées afin de délimiter son domaine de validité : on distingue par exemple l'acoustique linéaire d'un fluide parfait, de l'acoustique linéaire d'un fluide dissipatif, de l'acoustique linéaire d'un solide ou encore de l'acoustique non linéaire qui s'attache à étudier les effets non linéaires dans la propagation des sons. L'acoustique théorique s'intéresse aussi à l'étude d'autres phénomènes en relation avec la propagation des ondes acoustiques, tels que la réflexion, la transmission, la diffusion et la diffraction de celles-ci. D'autres thématiques étudiées dans le cadre de l'acoustique théorique sont les sources acoustiques (type, directivité), l'étude des fonctions de Green associées à un problème acoustique déterminé, la formulation intégrale des champs acoustiques (intégrale de Kirchhoff-Helmholtz, extension du principe de Huygens pour les ondes acoustiques, intégrale de Rayleigh), les circuits acoustiques et les guides d'onde acoustiques.Les trois lois fondamentales de l'acoustique en milieu fluide sont l'équation d'Euler, l'équation de conservation de la masse et l'équation d'état (thermodynamique) du fluide. Ce système d'équations met en relation les paramètres caractérisant le fluide, tels que la pression, la masse volumique et la vitesse. Lorsque ce système d'équation est manipulé afin d'éliminer deux des trois paramètres mentionnés précédemment, on aboutit à l'équation des ondes, qui régit la propagation du son en milieu fluide.L'équation d'Euler s'obtient en appliquant le principe fondamental de la dynamique à un volume élémentaire de fluide. Son expression est la suivante (en l'absence de sources de force extérieure) : formula_1 Dans cette équation, formula_2, formula_3 et formula_4 désignent respectivement les champs de la masse volumique, de la vitesse et de la pression associées au fluide, à la position repérée par le vecteur position formula_5, à l'instant formula_6. Il est à noter que ces grandeurs dénotent les grandeurs totales considérées : par exemple formula_4 est la somme de la pression qui existerait sans l'existence d'une onde acoustique formula_8 (qui est généralement prise égale à la pression statique formula_9) et d'une fluctuation de pression due à l'onde acoustique formula_10 : formula_11. L'équation d'Euler utilise une description eulérienne pour le fluide, utilisant des variables formula_5 et formula_6 attachées au point géométrique du référentiel considéré ; elle n'utilise pas la description lagrangienne, utilisant des variables liées à une particule du fluide suivie dans son mouvement. La notation formula_14 désigne la dérivée particulaire ou dérivée totale, attachée à une particule suivie dans son mouvement, par opposition à la dérivée en un point géométrique fixe du référentiel ou dérivée locale, notée formula_15.L'équation de conservation de la masse s'écrit (équation valide en l'absence de sources de débit) : formula_16 ou encore formula_17Quatre variables thermodynamiques permettent de caractériser le fluide : la pression formula_4, la température formula_19, le volume formula_20 (ou bien la masse volumique formula_21) et l'entropie formula_22. Les différentielles associées à ces grandeurs sont respectivement notées formula_23, formula_24, formula_25 (ou bien formula_26), et formula_27. Il est possible de démontrer l'identité thermodynamique suivante : où formula_29 désigne la capacité calorifique massique à volume constant, formula_30 le coefficient d'augmentation de pression isochore (formula_31)et formula_32 le coefficient de compressibilité adiabatique (formula_33). Les transformations acoustiques peuvent généralement être considérées comme adiabatiques (formula_34 dans l'équation précédente) dans le cas où le fluide est supposé ne pas être le siège d'effets dissipatifs (viscosité, transferts thermiques et phénomènes de relaxation moléculaire négligeables). Cela conduit à la loi suivante caractérisant la compressibilité du fluide (valide uniquement en l'absence de sources de chaleur) : formula_35 avec formula_36 La grandeur formula_37 est homogène à une vitesse.Il est possible de manipuler le système d'équations précédent (équation d'Euler, équation de conservation de la masse, et loi de compressibilité du fluide) afin d'obtenir une équation ne faisant intervenir que la pression formula_38. Les autres paramètres (vitesse et masse volumique) peuvent être obtenus en reportant la pression dans l'une quelconque des équations précédentes. L'équation suivante est obtenue pour la pression : formula_39 Cette équation est appelée équation d'onde, équation de d'Alembert, ou encore parfois équation de propagation. Elle est valide en dehors des sources, dans l'hypothèse où le fluide est homogène (ses caractéristiques thermodynamiques sont indépendantes du point considéré) et invariant (ses caractéristiques thermodynamiques sont indépendantes du temps). \frac{\mathrm D}{\mathrm D t} \left( \frac{1}{\rho \left( \vec{r}, t \right)} \frac{\mathrm D \rho \left( \vec{r}, t \right)}{\mathrm D t} + \mathrm{div} \vec{v} \left( \vec{r}, t \right)\right) = 0 \end{cases}</math> En utilisant la loi de compressibilité du fluide, et en tenant compte du fait que les opérateurs divergence et dérivée totale sont commutables, la deuxième équation devient : Finalement, en retranchant la première équation de la deuxième équation modifiée, il s'ensuit que : Si le fluide est supposé homogène et invariant, les termes en formula_42 et en formula_43 peuvent être considérés comme négligeables dans l'équation précédente. L'équation de propagation obtenue pour la pression est donc :La loi fondamentale caractérisant le déplacement au sein d'un solide est donnée par l'équation de Navier : formula_47 où formula_48 et formula_49 sont les coefficients de Lamé et formula_50 le champ des déformations. Via le théorème de Helmholtz-Hodge, il est alors possible de décomposer cette équation en deux équations d'ondes : formula_51 correspondant à la propagation des ondes longitudinales et formula_52 correspondant à la propagation des ondes transversales. Dans les deux équations ci-dessus, formula_53 représente le potentiel scalaire de la déformation due à l'onde longitudinale et formula_54 le vecteur potentiel de la déformation due à l'onde transversale. Donc contrairement au cas du fluide, il existe deux types d'ondes acoustiques pour un matériau solide. Ces deux ondes se propagent à des vitesses distinctes, ce phénomène s'expliquant par la différence entre les interactions des atomes du solide pour une onde de cisaillement et pour une onde de compression-traction. Ces ondes sont plus connues sous le nom d'onde élastiques. \,(\mathrm{div}(\vec{u}))-C_T^2\overrightarrow{\mathrm{rot}}\,(\overrightarrow{\mathrm{rot}}(\vec{u}))=\frac{\partial^2 \vec{u}}{\partial t^2}</math> Utilisons maintenant le théorème de Helmholtz-Hodge, on peut alors décomposer le champ des déformations : formula_55 avec formula_56 et formula_57. Nous avons ainsi séparé la déformation due à l'onde longitudinale (formula_58) de celle due à l'onde transversale (formula_59). Il vient alors formula_60 et formula_61, avec formula_53 le potentiel scalaire de la déformation due à l'onde longitudinale et formula_54 le vecteur potentiel de la déformation due à l'onde transversale. Comme seul le rotationnel de formula_54 nous intéresse, nous fixerons arbitrairement formula_65. En réinjectant la décomposition du champ des déformations dans l'équation de Navier, on obtient : formula_66 En utilisant les propriétés des composantes du champ des déformations : formula_67 L'unicité de la décomposition d'Helmholtz nous donne : Les solutions recherchées ne dépendent pas des fonctions formula_72 et formula_73, nous les fixerons donc à 0. Et finalement nous obtenons les équations des ondes régissant les propagations des ondes longitudinale et transversale dans un solide isotrope : formula_74L'oreille est un organe très particulier, et l'ouïe est considérée comme le plus fin des sens. L'acoustique explore donc la physiologie, qui va du pavillon de l'oreille jusqu'aux corrélations synaptiques dans le cerveau, et la psychoacoustique les interprétations de ces perceptions au niveau cortical et cérébral. On peut définir l'acoustique par la propagation dans l'air d'un son constitué par un mouvement d'air rapide qui vient à l'oreille humaine.En appliquant la théorie de la propagation des ondes aux vibrations sonores, on touche à un domaine déjà fort bien maîtrisé depuis l'Antiquité, celui de l'acoustique des salles. Pour amplifier un son, les Grecs se servaient des propriétés physiques des matériaux, de la connaissance qu'ils avaient acquise sur les phénomènes de résorption et de réfraction des sons, et construisaient des amphithéâtres en leur donnant une forme particulière. Ainsi, les constructions où devaient se produire des orateurs ou des musiciens avaient une acoustique très étudiée. Le théâtre d'Épidaure en Grèce est le témoin de l'avancement des connaissances en acoustique dès l'Antiquité. Les connaissances en acoustique des salles au temps de la Grèce antique étaient cependant avant tout empiriques. Ce domaine de connaissance restera très longtemps presque entièrement basée sur l'expérience, se développant par suite d'essais aboutissant parfois à des échecs, parfois à de grandes réussites pouvant ensuite servir de modèle pour les salles suivantes. Le physicien américain Wallace Clement Sabine est généralement considéré comme le père de l'acoustique des salles en tant que domaine scientifique. C'est en 1900 qu'il publie l'article "Reverberation" qui pose les bases de cette science toute jeune. "Voir aussi : Isolation phonique"Jusqu'au dix-neuvième siècle, la fabrication des instruments de musique est l'affaire d'artisans qui font appel à un savoir-faire qui doit peu aux modèles scientifiques, bien que les théoriciens de la musique rattachent les principes de leur art à ceux de la physique. Les sons instrumentaux, stables et répétables, se prêtant le mieux aux expériences scientifiques, les instruments qui les produisent, soit à partir de la vibration de cordes, soit à partir de celle d'une colonne d'air, vont servir à l'établissement des modèles physiques sur lesquels se construit l'acoustique. De l'étude des modes de vibration des cordes et colonnes d'air qui donnent la note, l'acoustique musicale est passée à celle des couplages qui transmettent l'énergie emmagasinée dans la partie vibrante à l'air, afin de créer le son. Le volume sonore de l'instrument dépend de ce couplage. Pour des instruments à cordes frappées ou pincées, ce couplage détermine la durée pendant laquelle une note peut tenir. L'énergie est emmagasinée dans la corde au moment de l'attaque, et plus on transfère de puissance à l'air, plus la vibration faiblit vite. On étudie donc l'impédance acoustique des éléments et les transferts d'énergie entre eux. Pour les instruments à cordes : violon, guitare, piano..., ce sont principalement les caisses de résonance ; pour les instruments à vent : flûte, pipeau, trompette... ce sont les extrémités libres des tuyaux. Ces couplages ont aussi un rôle important dans la compréhension des caractéristiques du timbre des instruments. Enfin, la qualité musicale des instruments attire l'attention de chercheurs, qui à partir de modèles de préférences de musiciens, examinent les possibilités d'utiliser de nouveaux matériaux et de nouvelles technologies pour la fabrication d'instruments et la synthèse de leur son.La Société Française d'Acoustique (SFA), association de type "loi de 1901" fondée en 1948 par Yves Rocard, regroupe des acousticiens francophones, praticiens et universitaires. Son but est de favoriser la circulation des informations scientifiques et techniques entre les différents acteurs de l'acoustique ainsi que les contacts entre les laboratoires de recherche et les industriels. Elle est structurée en deux sections régionales et neuf groupes spécialisés. Elle organise tous les deux ans un Congrès Français d'Acoustique.L'acoustique, définie en 1770 par l'Académie française comme, est un néologisme que le physicien Joseph Sauveur a construit à la fin du à partir du grec ancien ἀκουστικός [akoustikos] signifiant « de l'ouïe », lui-même dérivant de ἀκούειν [akouein], signifiant « entendre ».
L’acoustique est la science du son. La discipline a étendu son domaine à l'étude des ondes mécaniques au sein des gaz, des liquides et des solides, quelles que soient les fréquences, audibles ou non (infrasons, sons et ultrasons). On parle de "vibroacoustique" quand l'étude se porte particulièrement sur l'interaction entre solides et fluides.
xwikis
L'euro est géré par la Banque centrale européenne (BCE) qui siège à Francfort et par l'Eurosystème, composé des banques centrales des États de la zone euro. En tant que banque centrale indépendante, la BCE est l'unique instance ayant le pouvoir de fixer une politique monétaire pour l'ensemble de la zone euro. L'Eurosystème participe à l'impression, la frappe et la distribution des billets et pièces dans tous les États membres ; il veille également au bon fonctionnement des systèmes de paiements au sein de la zone euro. Le traité de Maastricht, signé en 1992, oblige la plupart des États de l' à adopter l'euro dès qu'ils respectent certains critères monétaires et budgétaires, dits de convergence. Le Royaume-Uni et le Danemark ont cependant obtenu des options de retrait, tandis que la Suède (qui rejoint l' en 1995, soit après la signature du traité de Maastricht) refuse d'introduire l'euro, après un référendum négatif en 2003, et contourne au surplus l'obligation d'adopter l'euro en ne respectant pas un des critères de convergence. Néanmoins, tous les pays qui adhérent à l' depuis 1993 se sont engagés à adopter l'euro en temps voulu.La gestion de l'euro dépend du contrôle de la Banque centraleToutes les pièces en euro possèdent une face européenne commune (1, 2 et : "l'Europe dans le monde" ; 10, 20 et : "l'Europe comme une alliance d'États" ; 1 et : "l'Europe sans frontière") et une face spécifique au pays émetteur (y compris Monaco, Saint-Marin, le Vatican et Andorre, États en union monétaire avec leurs voisins immédiats qui sont autorisés à frapper leurs propres pièces). Une nouvelle série de pièces est frappée depuis fin 2007 avec un décalage d'un an pour la monnaie italienne (qui frappe aussi les pièces du Vatican et de Saint-Marin). Se calquant sur la pratiqueLes billets, quant à eux, ont une maquette commune à toute la zone euro. Les ponts, portes et fenêtres des billets symbolisent l'ouverture de l'Europe sur le reste du monde et les liens entre les peuples. Le choix du graphisme des billets est de la compétence de la Banque centrale européenne alors que celui des pièces est de la compétence des États membres de l'Eurogroupe. La prochaine face commune a ainsi été décidée lorsL'euro n'est pas la première monnaie à vocation européenne (et internationale). En effet, l'Union latine, née en 1865 à l'initiative de, marque une union monétaire, ou supranationale, signée et partagée par la France, la Belgique, la Suisse, l'Italie, la Grèce et, plus tard, l'EspagneLa décision de créer l'euro est officialisée lors du traité de Maastricht. Lorsque les négociations sont engagées, les responsables savent qu'économiquement la constitution de la zone euro est un défi. En effet, lesL'euro est créé par les dispositions du traité de Maastricht, en 1992. Pour participer à la monnaie commune, les États membres sont censés répondre à des critères stricts tels qu'un déficit budgétaire de moins de 3 % de leur PIB, un endettement inférieur à 60 % du PIB (deux critères qui sont régulièrement bafoués après l'introduction de l'euro), une faible inflation et des taux d'intérêt proches de la moyenne de l'. Lors de la signature du traité de Maastricht, le Royaume-Uni et le Danemark obtiennent des options de retrait pour ne pas participer à l'union monétaire quiL'adhésion à l'euro est obligatoire pour les nouveaux membres de l', mais chaqueDes trois membres de l' (à quinze) non participants, seuls le Royaume-Uni et le Danemark obtiennent une clause dite d’", leur permettant de rester en dehors de la monnaie commune, même s'ils venaient à remplir les conditions d'adhésion, clause confirmée par le traité de Rome de 2004. Cette clause ne leur interdit toutefois pas d'adhérer ultérieurement. Aussi le Royaume-Uni, contrairement au Danemark, ne fait pas partie du mécanisme de change (), bien que remplissant les conditions du traité de Maastricht car il ne souhaite pas lier le taux de change de la livre sterling à l'euro ; depuis que la livre sterling a quitté le défunt SME (fondé sur l'ancienne unité de compte européenne, ou ECU), son cours par rapport à l'euro connaît des variations plus importantes que les autres monnaies des pays membres non adhérents, notamment durant les deux premières années de l'introduction de l'euro, qui s'est temporairement fortement déprécié par rapport au dollar américain, à la livre sterling et au franc suisse.Au, 19 pays de l'Union européenne utilisent l'euro comme monnaie nationale. À ceux-ci s'ajoutent quatre états hors ayant des accords officiels et utilisant donc l'euro de façon officielle, ainsi que deux autres états l'ayant adopté unilatéralement. Le cas des bases britanniques à Chypre est particulierEn 2018, au sein de l'Union européenne et des pays candidats à l'entrée dans l'Union, se trouvent les monnaies suivantes qui ont toutes intégré le : Toutefois, les phases préparatoires avant l'introduction de l'euro sont actuellement considérablement raccourcies, tous ces pays négociant déjà l'euro sur les marchés internationaux et disposant même de stocks de pièces et billets pour le marché des changes aux particuliers (notamment dans les zones touristiques). Dans certains de ces pays, de nombreux commerces acceptent les paiements en euro (parfois même aussi en pièces et billets), certains pratiquant même le double affichage sur un taux voisin du cours central défini dans le (qui autorise une variation de 15 % du cours, mais qui, en pratique, varie dans des marges très inférieures, le marché des changes étant déjà très stabilisé, ce qui permet même à certains pays de garantir unilatéralement leur taux deUn certain nombre de devises, hors Union européenne, sontLes monnaies suivantes des pays membres de l'UnionQuatre micro-États enclavés dans l'Union européenne, sans en être membres, ont obtenu le droit d'utiliser l'euro : Andorre, Monaco, Saint-Marin et le Vatican ; ces États sont également autorisés à frapper un certain nombre de pièces de monnaie (officiellement depuis le pour Andorre, effectif à compter du ). Deux autres États, ou entités européennes, non membres deLa valeur de l'euro, exprimée dans les anciennesNotesL'ECU, qui était un panier, contenait des monnaies comme la livre sterling, qui n'ont pas été intégrées dans l'euro. Les deux devises européennes ne coïncident donc que brièvement, pendant les heures de fermeture des marchés entre la fin de 1998 et le début de 1999 et, si l'ECU existait encore, il aurait maintenant une valeur tout autre que celle de l'euro. Afin de reconstituer la valeur qu'aurait eue l'euro par rapport au dollar américain avant sa cristallisation du, il convient d'utiliser les taux de change face au dollar d'une monnaieÀ partir de l'introduction de l'euro, l'inflation perçue en France a été nettement plus élevée que l'inflation réelle. Pourtant, l'inflation dans la zone euro n'a pas augmenté à partir de 2002, date d'introduction. Entre 2000 et 2006, elle a fluctué entre 1,9 et 2,3 %. En 2003, l'augmentation moyenne des prix à la consommation due au basculement à l'euro ne représente qu'environ 0,1 à 0,3 % du taux normal d'inflation de 2,3 % pour l'année en question. Ainsi, l'indice des prix au sein de la zone euro est resté inférieur à celui des pays européens qui n'ont pas introduit la monnaie commune. La Banque de France a montré que l'introduction de l'euro s'est produite simultanément à une hausse importante des prix deSi la Banque centrale européenne a un objectif d'inflation de 2 %, il s'agit d'une moyenne : sur les 12 premières années, l'inflation est, en moyenne, de 1,5 % en Allemagne, de 1,8 % aux Pays-Bas mais de 3,3 % en Grèce, de 2,8 % en Espagne et de 2,5Depuis la crise de 2007, la zone euro est confrontée à un problème de déflation dans la plupart des pays qui la compose ce qui a amené la BCE à agir et à utiliser les outils de politique monétaire dont elle dispose pour tenter de faire remonter l'inflation. Certains sont habituels, comme la baisse du taux directeur (ce qui permet en théorie de relancer le crédit), d'autres exceptionnels comme l'achat d'actifs par le biais de l'assouplissement quantitatif (QE). Les résultats de cette politique sont, en 2017, insuffisants, et certains analystes plaident pour joindre à la politique anti-déflation de la BCE une politique de relance budgétaire de la part des États qui compose la zone euro, mais cette option suscite de vives controverses au sein de l'Eurogroupe, en particulier une opposition de l'Allemagne, qui plaide pour l'orthodoxie budgétaire partout dans la zone Euro.La politique monétaire menée (au moins jusqu'au QE) conduit à un « euro fort », ou qualifiée par ses détracteurs d'« euro cher ». À terme, selon le centre de recherche économique CEE "", le maintien de l'orthodoxie financière, prôné par le gouvernement allemand et la BCE, et la politique de rigueur généralisée qui en découle, nécessiteront une révision du traité de Lisbonne, car ils pourraient avoir pour conséquence de réduire les prérogatives budgétaires et fiscales des états-membres, au-delà des dispositions du traité dans sa forme actuelle. Le CEPII soulignait en 2012 que, par construction, l'euro empêche les taux de change de s'ajuster pour compenser les déséquilibres des balances commerciales des pays membres. En l'absence de ce canal, l'ajustement doit se faire par des taux d'inflation différenciés entre pays, ce qui suppose des dévaluations internes (baisse des salaires) pour les pays les moins compétitifs, ou par une montée en gamme des produits. Paul Krugman souligne à ce propos que l'Allemagne bénéficie d'un Euro légèrement sous-évalué par rapport au DM (si celui-ci était toujours en circulation), contrairement aux autres pays d'Europe, en particulier au sud, qui ontUn sondage est effectué à la demande du "", durant l'été 2010. À la question, si une majorité de Néerlandais a répondu oui, 53 % des Allemands et des Espagnols ont répondu non, ainsi que 60 % des Français. Pourtant, à cette même date, un autre sondage indiquait que seuls 38 % des Français étaient en faveur d'un retour au franc. En 2015, dans un sondage "Eurobaromètre", 61 % des citoyens des pays du zone euro ont répondu, à la question, que l'euro était une bonne chose pour leur pays, alors que 30 % ont dit que c'était une mauvaise chose le niveau de soutienNombre d'économistes pointent le fait que les pays de la zone euro ne constituaient pas, en 2002, une zone monétaire optimale, et qu'un défaut de convergence des politiques économiques, et l'absence d'outils de gestion commune (trésor, budget fédéral) ne les rapprochent pas de cette configuration. Les économistes Milton Friedman et Martin Feldstein ont également exprimé leur doute à ce sujet. L'absenceL'euro est la deuxième monnaie de réserve dans le monde, loin derrière le dollar américain ; cependant, petit à petit, l'euro commence à augmenter comme monnaie de réserve dans leUne étude montre que l'introduction de l'euro a eu un effet positif surL'euro est actuellement présent dans les documents électroniques et les bases de données de nombreux pays, non seulement de l'Union économique et monétaire, mais aussi de nombreux pays du monde. Il faut signaler que cette devise, comme toutes les autres, ne fait pas encore partie d'une norme internationale de métadonnées (voir ""), en raison de laDu fait d'alphabets différents les noms et divisions nationales de l'euro ne s'orthographient et ne se prononcent pas de la même façon dans tous les pays de la zone. Du fait de la diversité des règles grammaticales au sein de la zone euro, le mot sur les pièces et billets est invariable et ne prend donc pas de. Toutefois, dans la langue française, selon la règle, le pluriel se forme par l'ajout d'un « s » en fin de mot. L'Académie française s'est prononcée en ce sens dans une note publiée auEn France, deux imprimeries fabriquent des billets de 5, 10 et : l'imprimerie de la Banque de France, à Chamalières (Puy-de-Dôme) et l'imprimerie de François-Charles Oberthur Fiduciaire, à Chantepie (Ille-et-Vilaine). Ces billets sont destinés à remplacer
L'euro (€) est la monnaie unique de l'union économique et monétaire, formée au sein de l'Union européenne ; elle est commune à dix-neuf États membres de l'Union européenne qui forment ainsi la zone euro.
xwikis