text
stringlengths 1
100k
| summary
stringlengths 3
4.99k
| dataset
stringclasses 11
values |
|---|---|---|
"L'As de pique" relate les premières déceptions amoureuses d'un adolescent timide et gauche ainsi que ses difficiles rapports avec le monde des adultes.Dans une ville tchécoslovaque au début des années 1960, Petr Vanek, qui tente d'échapper à un père moralisateur et à une mère possessive, entre dans la vie active en tant qu'employé dans un petit magasin en libre-service. Alors qu'il pensait être engagé comme vendeur, sa mission sera en réalité la surveillance de la clientèle et l'interception des voleurs. Seul homme au milieu de vendeuses n'ayant pas leur langue en poche, il se montre maladroit et inefficace dans sa tâche. Soupçonnant un client de vol, Petr le suit en ville avant de décider de ne pas revenir travailler après une vaine poursuite. Il préfère ensuite aller nager en compagnie de deux jeunes apprentis maçons qui le méprisent. Il rencontre une fille de son âge qu'il courtise tout aussi gauchement et inefficacement qu'il a entamé son entrée dans le monde du travail. Pendant un bal, il découvre ensuite les effets de l'alcool. Petit à petit, il tente de trouver sa place dans cet univers parmi les adultes et leur vie routinière.Miloš Forman forme avec ce film, "Concours" et "Les Amours d'une blonde" une sorte de trilogie humoristique dont un des sujets est la jeunesse tchécoslovaque des années 1960. Petr mène finalement une vie plus qu'ordinaire soulignée par le peu d'action du film qui présente une succession de tableaux apparemment sans liens cohérents. Forman joue sur le comique de situation, la présentation de personnages extrêmement bien typés et leur positionnement des uns envers les autres. La vie quotidienne des Tchèques sert de filigrane au film qui est ainsi un témoignage éloquent de cette période. Les personnages du film font leurs courses dans les premiers magasins libres-services, s'amusent, boivent, dansent, emploient des expressions comme pour dire bonjour, les jeunes se saluent par un "oiil" sur lequel ils dissertent longuement. Les jeunes que Forman nous montre se trouvent inadaptés dans un monde qu'ils espèrent moins conformiste que celui dans lequel vivent les adultes. Malgré leurs antagonismes, ils finissent par se retrouver solidaires. Cependant, ils ont pioché la mauvaise carte, l'as de pique.
|
L'As de pique (titre original ) est un film tchécoslovaque réalisé par Miloš Forman, sorti en 1964 et situé dans la mouvance de la Nouvelle Vague.
|
xwikis
|
Il existe différentes disciplines en astrophysique : L’astrophysique étant un sujet très vaste, les astrophysiciens utilisent généralement plusieurs disciplines de la physique, dont la mécanique, l’électromagnétisme, la mécanique statistique, la thermodynamique, la mécanique quantique, la relativité, la physique nucléaire, la physique des particules, la physique atomique et moléculaire.Aussi loin que remontent les données historiques, on trouve des preuves de l’existence de l’astronomie. Pendant longtemps, l’astronomie était une discipline bien distincte de la physique. Dans la pensée aristotélicienne, le monde céleste tendait à la perfection, avec les corps célestes qui semblaient être des sphères parfaites circulant sur des orbites parfaitement circulaires, alors que le monde terrestre semble condamné à l’imperfection. Ces deux mondes ne pouvaient donc pas être liés. Aristarque de Samos (310 av. J.-C. - 230 av. J.-C.) fut le premier à mettre en avant l’idée selon laquelle le mouvement des corps célestes pouvait s’expliquer par la rotation des planètes du système solaire (dont la Terre) autour du Soleil. À l’époque, la vision géocentrique de l’univers prévalait et la théorie héliocentrique d’Aristarque fut déclarée farfelue et hérétique. Cette vision resta en place jusqu’à ce qu’un astronome nommé Nicolas Copernic ressuscite le modèle héliocentrique au. En 1609, grâce à la lunette astronomique qu'il avait adaptée, Galilée découvrit les quatre lunes les plus brillantes de Jupiter, et démontra qu’elles tournaient toutes autour de cette planète. Cette découverte était en complète contradiction avec le dogme de l’Église catholique de l’époque. Il n’échappa à une peine sévère qu’en prétendant que son œuvre n’était que pur travail mathématique et donc purement abstrait, contrairement à la philosophie naturelle (la physique). À partir des données précises d’observations (principalement en provenance de l’observatoire de Tycho Brahe), des recherches ont été menées pour trouver une explication théorique au comportement observé. Dans un premier temps, seules des lois empiriques ont été formulées, telles que les lois de Kepler sur le mouvement planétaire au début du. Quelques années plus tard, Isaac Newton réussit à faire le lien entre les lois de Kepler et la dynamique de Galilée. Il découvrit en effet que les mêmes lois régissaient la dynamique des objets sur Terre et le mouvement des astres dans le système solaire. La mécanique céleste, application de la gravité newtonienne et des lois de Newton pour expliquer les lois de Kepler sur les mouvements des planètes, fut la première unification de l’astronomie et de la physique. Après qu’Isaac Newton eut publié son livre, "Philosophiae Naturalis Principia Mathematica", la navigation maritime changea radicalement. À partir de 1670, le monde entier était mesuré à partir d’instruments modernes donnant la latitude et d’horloges. Les besoins de la Marine poussaient à l’amélioration progressive des instruments et des observations astronomiques, donnant ainsi davantage de données aux scientifiques. En 1814, Joseph von Fraunhofer découvrit que la lumière du Soleil pouvait se décomposer en un spectre de lignes colorées, appelé depuis raies de Fraunhofer. Des expériences avec des gaz chauffés montrèrent par la suite que les mêmes lignes étaient présentes dans leur spectre. Ces lignes spécifiques correspondaient à un élément chimique unique. Ceci fut la preuve que les éléments chimiques présents dans le Soleil pouvaient être trouvés sur Terre. En effet, l’hélium fut d’abord découvert dans le spectre du Soleil, d’où son nom, et seulement ensuite sur la Terre. Au, la spectroscopie (l’étude de ces lignes spectrales) se développa, notamment grâce aux avancées de la physique quantique qui pouvait expliquer les observations expérimentales et astronomiques.La majorité des observations en astrophysique sont effectuées en utilisant le spectre électromagnétique. Mis à part les radiations électromagnétiques, seulement très peu de choses situées à grande distance peuvent être observées depuis la Terre. Quelques observatoires d’ondes gravitationnelles ont été construits mais ces ondes sont très difficiles à détecter. On trouve également quelques observatoires de neutrinos pour l’étude du Soleil (astronomie neutrino), principalement. Les rayons cosmiques sont des particules de haute énergie qui sont observées lorsqu'elles heurtent l’atmosphère terrestre. Les observations diffèrent également sur l'échelle de temps qu’elles considèrent. La plupart des observations optiques s'étalent sur plusieurs minutes, voire sur plusieurs heures, de sorte que les phénomènes qui évoluent plus rapidement que cet intervalle de temps ne sont pas visibles. Cependant, les données historiques de quelques objets s’étendent sur des siècles ou des millénaires. D'autre part, les observations radio se focalisent sur des événements à l’échelle de la milliseconde (pulsar milliseconde) ou combine les données de plusieurs années (études de la décélération des pulsars). Les informations obtenues à ces différentes échelles permettent d'accéder à des résultats différents. L’étude de notre propre Soleil tient une place particulière dans l’astrophysique observationnelle. Du fait de l'énorme distance à laquelle se trouvent les autres étoiles, les détails que l’on peut acquérir sur le Soleil sont sans commune mesure avec ce que l’on pourrait observer sur les autres étoiles. La compréhension du Soleil sert ainsi de guide à notre connaissance des autres étoiles. L’évolution stellaire, le sujet qui étudie comment changent les étoiles, est souvent modélisée en plaçant les différents types d’étoiles à leur position sur le diagramme de Hertzsprung-Russell. Ce diagramme représente l’état d’un objet stellaire, de sa naissance à sa disparition. La composition matérielle des objets astronomiques peut souvent être étudiée en utilisant :Les astrophysiciens utilisent une grande variété d’outils comme les modèles analytiques (tels que les polytropes pour obtenir le comportement approximatif d’une étoile) ou la simulation numérique sur ordinateur. Chaque outil a ses avantages. Les modèles analytiques d’un processus sont généralement meilleurs pour obtenir le fonctionnement interne. Les modèles numériques, eux, peuvent révéler l’existence de phénomènes et d’effets qui ne pourraient être vus autrement. Les théoriciens en astrophysique essayent de créer des modèles théoriques et de comprendre les conséquences observables de ces modèles. Ceci aide les observateurs à rechercher les données qui peuvent réfuter un modèle ou aider dans le choix entre plusieurs alternatives ou modèles contradictoires. Les théoriciens essayent également de produire ou modifier des modèles pour tenir compte de nouvelles données. En cas de contradiction, la tendance générale est d'essayer de faire des modifications minimes du modèle pour l'adapter aux données. Dans certains cas, une grande quantité de données incohérentes à répétition peut mener à l'abandon total d'un modèle. Les sujets étudiés par les théoriciens en astrophysique incluent l’évolution et la dynamique stellaire, la formation des galaxies, les structures matérielles à grande échelle de l’Univers, l’origine des rayons cosmiques, la relativité générale et la cosmologie physique, avec l’aide de la théorie des cordes et la physique des particules. L’astrophysique relativiste sert d’outil pour évaluer les propriétés des structures à grande échelle. Pour ces structures, la gravitation joue un rôle important dans les phénomènes physiques étudiés et sert de base pour la physique des trous noirs et l’étude des ondes gravitationnelles. Parmi les théories étudiées et les modèles reconnus en astrophysique, on peut trouver le modèle lambda-CDM qui inclut le Big Bang, l’inflation cosmique, la matière noire et les théories fondamentales de la physique. Quelques exemples de processus : L'énergie sombre et la matière noire sont actuellement les principaux sujets de recherche en astrophysique, étant donnée que leur découverte et la controverse sur leur existence est issue de l'étude des galaxies.
|
L’astrophysique (du grec : étoile, astre et : science de la nature, physique) est une branche interdisciplinaire de l'astronomie qui concerne principalement la physique et l'étude des propriétés des objets de l'univers (étoiles, planètes, galaxies, milieu interstellaire par exemple), comme leur luminosité, leur densité, leur température et leur composition chimique.
|
xwikis
|
On note : La loi d'Ohm établit que (en convention récepteur) :formula_1 Un dipôle électrique vérifiant la loi d'Ohm est appelé un "conducteur ohmique".Dans la loi d'Ohm, la tension est exprimée en volts (), l’intensité en ampères () et la résistance en ohms ().La loi d’Ohm indique que la tension aux bornes d’une résistance est proportionnelle à l’intensité du courant. Ce coefficient de proportionnalité est la valeur de la résistance. La valeur de la résistance est une constante et ne varie donc pas lorsque l'on modifie la tension ou l'intensité.Selon son expression et les grandeurs connues, la loi d’Ohm permet d’obtenir différentes grandeurs :Lorsque l'on trace la caractéristique d'un conducteur ohmique (c'est-à-dire le graphe de la tension en fonction de l'intensité), on obtient une droite passant par l'origine. La pente de cette droite est la valeur de la résistance.La différence de potentiel ou tension (en volts) aux bornes d'un résistor de résistance (en ohms) est proportionnelle à l'intensité du courant électrique (en ampères) qui la traverse, ou la d'un dipôle est égale au quotient de sa par l' du courant : avec et orientées en sens opposés (dipôle en convention récepteur). N.B. : si et sont orientées dans le même sens (dipôle en convention générateur), la loi devient alors : On peut en déduire : Cette loi porte le nom de Georg Ohm qui a travaillé sur le comportement des conducteurs métalliques. Elle s'applique de manière satisfaisante aux conducteurs métalliques "thermostatés". Lorsque la température varie, la valeur de la résistance varie également de manière plus ou moins simple, ce qui impose d'introduire des termes correctifs. Par convention, on conserve la loi et on introduit les termes correctifs dans la valeur de la résistance du conducteur.La loi précédente se généralise au cas des courants sinusoïdaux en utilisant les notations complexes. On note et respectivement la tension et le courant complexes. La loi d'Ohm s'écrit alors : où est l'impédance complexe du dipôle considéré, qui peut être constitué de dipôles linéaires (résistances, condensateurs et inductances).Par application de la loi des mailles, Avec :D'un point de vue local, c'est-à-dire mésoscopique, la loi (locale) d'Ohm s'énonce en disant que la mobilité des porteurs de charge est indépendante de formula_8. À noter que la loi d'Ohm doit respecter certaines conditions : Si on note la mobilité des porteurs de charge, leur vitesse s'écrit alors formula_9 (la direction du mouvement dépend du signe des porteurs) ; la densité de courant formula_10 associée à une densité de porteurs vaut quant à elle : où est la charge électrique du porteur (en valeur absolue). On note la conductivité électrique du matériau (pour un seul type de porteur). On a alors la loi locale d'Ohm pour un seul type de porteur : Si on a plusieurs types de porteurs, comme les électrons et les trous dans un semi-conducteur ou des ions différents dans un électrolyte, la densité de courant devient : avec formula_14, donc formula_15. On a alors la conductivité totale : "Voir aussi Loi de Nernst-Einstein."Considérons une portion de conducteur d'un point "A" à un point "B" et de section droite "S", on a alors la différence de potentiel qui vaut : et l'intensité : Multiplions par une constante la différence de potentiel, alors les conditions aux limites sont inchangées ainsi que les lignes de champ de formula_19, et l'expression formula_20 est multipliée par la même constante. Par conséquent le rapport est indépendant de cette constante, c'est une « constante » (il dépend quand même de divers paramètres tels la température) appelée "résistance électrique" et notée. Elle se calcule comme suit : Cette formule permet de calculer la résistance de diverses géométries de matériaux (filiforme, cylindrique, sphérique).
|
La loi d'Ohm est une loi physique empirique qui lie l'intensité du courant électrique traversant un dipôle électrique à la tension à ses bornes. Cette loi permet de déterminer la valeur d'une résistance. La loi d'Ohm a été ainsi nommée en référence au physicien allemand Georg Simon Ohm qui la publie en 1827, dans son œuvre "".
|
xwikis
|
Dans le cas général, le symbole normalisé de la tension électrique est U mesuré en volts, unité dont le symbole est V.Sur un schéma électrique, la tension peut être complétée par des flèches, ou des + et − pour indiquer son sens. Ces différences sont uniquement des différences de convention (cf. image 1).Pour distinguer les différentes tensions dans un circuit, le U majuscule peut être accompagné d'une lettre en indice décrivant à quel élément du circuit cette tension est rattachée. Dans un circuit RLC, il a donc 4 tensions : U (tension aux bornes du générateur), U (tension aux bornes de la résistance), U (tension aux bornes de l'inductance) et U (tension aux bornes de la capacitance). (cf. image 2)En triphasé, on note les tensions composées (tensions entre phases) U et les tensions simples (tensions entre phase et neutre) V. Dans le cas du courant triphasé, il y a donc 6 tensions : U (tension entre la phase A et la phase B)<br> U (tension entre la phase A et la phase C)<br> U (tension entre la phase B et la phase C)<br> V (tension entre la phase A et le neutre)<br> V (tension entre la phase B et le neutre)<br> V(tension entre la phase C et le neutre) - (image 3).On peut mesurer la tension à l'aide d'un voltmètre branché en parallèle/ dérivation sur le circuit. Cette mesure fut découverte par Alessandro comte de la Volta.La tension électrique aux bornes d'un dipôle est toujours égale à la circulation du champ électrique à l'intérieur de ce dipôle. En d'autres termes, la tension électrique représente le travail de la force électrique (qui règne au sein du dipôle) sur une particule chargée, divisé par la valeur de la charge (dans le cas d'un générateur de tension continue, une pile par exemple, la tension électrique à vide de cette pile, appelée force électromotrice (fem), est le travail de la force électrostatique de propulsion sur les électrons). On parlera donc d'énergie échangée par unité de charge, qui peut être comparée, si l'on ne tient pas compte des unités, à l'énergie échangée pour une charge de. Son unité est donc celle d'une énergie divisée par une charge électrique, c'est-à-dire le joule par coulomb, lequel équivaut au volt. Tout dipôle d'un circuit électrique développe une tension à ses bornes, ce qui revient à dire qu'il échangera une certaine énergie avec les charges en mouvement le traversant, qui sont, dans un nombre important de cas, des électrons. Cette tension est égale à l'énergie par unité de charge, échangée entre chaque particule chargée qui traverse le dipôle et le dipôle lui-même. Dans le cas de la traversée d'un générateur d'énergie, l'énergie reçue par les charges est convertie en un déséquilibre électrostatique (densité volumique de charge différente d'un point à un autre) qui crée la tension aux bornes du générateur. Autrement dit, l'énergie gagnée par une charge dans le générateur est convertie en énergie potentielle qui sera transformée dans le reste du circuit. W/q reçu dans générateur = tension générateur Dans le cas de la traversée d'un récepteur d'énergie, l'énergie prise aux particules chargées par le dipôle a pour effet de « retenir » aux bornes du récepteur une partie (plus ou moins grande suivant le nombre de récepteurs) de la tension du générateur. Cette tension a pour effet de fournir l'énergie nécessaire aux charges pour la traversée du dipôle récepteur. W/q perdue dans le récepteur = tension récepteur Si on note e la charge électrique d'un électron en coulombs et u la tension d'un dipôle en volts, alors chaque électron traversant ce dernier y gagnera ou y perdra (suivant le signe de u) une énergie égale à W = u * e joules.D'après la seconde loi de Kirchhoff, également appelée loi des mailles, et valable dans l'approximation des régimes quasi stationnaires (c'est-à-dire lorsque le temps de propagation de la tension d'un bout à l'autre du circuit est négligeable devant le temps caractéristique de la variation de la tension du générateur), on peut dire que la somme des tensions (avec leur signe suivant la nature du dipôle) dans une maille d'un circuit est nulle. On désigne ici par maille, un chemin permettant aux charges électriques libres de se déplacer, d'effectuer un tour complet (c'est-à-dire de partir d'un point et de pouvoir y revenir). Pour l'application de cette loi, on attribue un signe aux tensions du circuit : positives pour les générateurs et négatives pour les récepteurs. L'important est de bien discerner que le passage par un générateur donne de l'énergie alors que le récepteur en retire. L'énergie reçue par les différents récepteurs du circuit est bien sûr égale à celle fournie par le ou les générateur(s). En toute rigueur, la loi des mailles n'est plus applicable en régime rapidement variable, les tensions n'étant plus conservatives et leur somme sur un circuit fermé n'étant plus nulle.La tension électrique des centrales thermiques ou nucléaires est élevée à l'aide de transformateurs. L'énergie électrique est alors transportée en haute tension, à des tensions supérieures à, jusqu'à. Elle est ensuite abaissée. Les ménages sont alimentés en basse tension ( par exemple en France, Belgique et Allemagne ou 120 V/ 240 V au Canada).Le décret de 1988 a été remplacé par un décret de 1995. La nouvelle classification des domaines de tension ne fait plus la différence entre le BTA et BTB. Seul le domaine BT existe depuis pour couvrir les domaines de à en alternatif et de à en tension continue.
|
La tension électrique est la circulation du champ électrique le long d'un circuit électrique mesurée en volts par un voltmètre. Elle est notée "U" aux bornes d'un dipôle.
|
xwikis
|
Le calendrier grégorien reprend en grande partie la structure du calendrier julien de la Rome antique en vigueur jusqu'alors : les subdivisions en mois et en semaines sont identiques, et le décompte des années se fait également à partir de l"'Anno Domini", point de départ de l'ère chrétienne. La différence majeure réside dans la détermination des années bissextiles.Le calendrier grégorien est un calendrier solaire divisé en douze mois, de durée inégale : Une période de sept jours forme une semaine. Les jours d’une semaine ont chacun un nom : en français, lundi, mardi, mercredi, jeudi, vendredi, samedi et dimanche. Une période de 28, 29, 30 ou (soit un peu plus de quatre semaines) forme un mois, et une période de douze mois, une année.L’ère ordinairement utilisée avec le calendrier grégorien est l’ère chrétienne, c’est-à-dire « après Jésus-Christ » ("Anno Domini" en latin, locution encore utilisée en anglais et le plus souvent notée après l'année sous sa forme abrégée "AD", et autrefois désignée en français comme « an de grâce » ou « an du Seigneur »). L’ère qui précède est l’"ère pré-chrétienne" ; elle est décomptée en sens opposé, là aussi à partir d'une référence théorique à Jésus-Christ. On est dans la "direction" « avant Jésus-Christ » souvent abrégée en français « av. J.-C. ». Les années « av. J.-C. » sont souvent notées négativement. Il n'y a pas d'année zéro, l'année 1 « après Jésus-Christ » succède à l'année 1 « avant Jésus-Christ », parfois notée -1. En conséquence, le premier siècle comprend l'année 100, le deuxième siècle débute le janvier 101, et ainsi de suite. Ainsi, le s'est achevé le 31 décembre 2000 et non le 31 décembre 1999, jour où se sont déroulées les festivités de toute nature pour le « passage à l'an 2000 », par confusion entre année en cours et année échue. Le a débuté le janvier 2001.Le calendrier julien établi par l'astronome Sosigène insérait une journée bissextile tous les, et attribuait donc à l’année une durée moyenne de. Or, l'année tropique moyenne dure (soit environ ). Ces calculs induisaient un décalage d’environ par millénaire par rapport au temps vrai, décalage déjà perceptible lors du premier concile de Nicée, en 325, où l’on arrêta la règle de calcul de la date de Pâques. L'équinoxe de printemps tombait alors le 21 mars au lieu du 25 mars, référence initiale du calendrier julien, mais cette différence fut imputée à une erreur de calcul de Sosigène. À cause de ce décalage, l'équinoxe de printemps "légal" glissait progressivement en s'éloignant de l'équinoxe de printemps "réel" et ce dernier « remontait » lentement dans le calendrier pour se situer aux alentours du 10 mars (julien) au. La date de Pâques, fixée par les règles du comput au dimanche suivant la première pleine lune de printemps en fonction de cet équinoxe théorique (21 mars), dérivait lentement vers l'été, et avec elle une partie du calendrier liturgique. Il faudra attendre 1800 pour que le mathématicien allemand Carl Friedrich Gauss établisse des formules permettant d’obtenir aisément la date de Pâques dans les calendriers julien et grégorien.Le calendrier grégorien reste un calendrier solaire, qui se fonde non sur la révolution de la Terre autour du Soleil (hypothèse non validée à l'époque), mais sur le retour du Soleil au point vernal à chaque printemps, permettant le calcul du début de l'année quelques jours après le solstice d'hiver, en de. Le calendrier grégorien donne un temps moyen de l'année de. Pour assurer un nombre entier de jours à l'année, on y ajoute tous les (années dont le millésime est divisible par 4) un jour intercalaire, le 29 février (voir "année bissextile"), à l'exception des années séculaires, qui ne sont bissextiles que si leur millésime est divisible par 400. On considéra donc comme années communes (années de ) les millésimes qui sont multiples de 100 sans être multiples de 400. Ainsi 1600 et 2000 furent bissextiles, mais pas 1700, 1800, 1900 qui furent communes. De même, 2100, 2200, 2300 seront communes, alors que 2400 sera une année bissextile. En appliquant cette règle, on arrive à une année de au lieu de soit un excès de en, ou 26,8 secondes par an. Il a été proposé d'amender la règle pour considérer les années multiples de comme normales. Mais du fait du raccourcissement de l'année tropique évalué à par siècle et de l'allongement du jour de par siècle, il est illusoire d'arriver à ce niveau de précision, les incertitudes sur la durée de l'année sur étant du même ordre de grandeur.La réforme principale et suffisante éliminant cette dérive (et qui a été appliquée facilement dans les autres pays par la réforme limitée du calendrier julien) était celle du mode d’application des années bissextiles lors des années séculaires. La différence principale entre le calendrier grégorien et son ancêtre, le calendrier julien non réformé, repose dans la distribution des années bissextiles. L'introduction du calendrier grégorien comprend aussi une deuxième réforme d’application plus délicate, le décalage grégorien qui supprima du calendrier. Ces permettaient de rattraper d’un coup le retard croissant pris par l’ancien calendrier julien sur les dates des équinoxes depuis le concile de Nicée, plus de avant, et de retrouver la concordance entre l'équinoxe de printemps et le 21 mars calendaire. Neuf années bissextiles ont été comptées en trop : en 500, 600, 700, 900, 1000, 1100, 1300, 1400 et 1500 suivant les nouvelles règles de calcul.L’introduction du calendrier grégorien commença le vendredi, qui fut le lendemain du jeudi dans les États pontificaux et certains pays catholiques : Espagne, Portugal, États de la péninsule italienne. Pour les pays ayant immédiatement suivi Rome, cela permit de fixer de nouveau l’équinoxe de printemps le 21 mars, comme ce fut le cas au début de l’ère chrétienne, au premier concile de Nicée en 325. Dans la France d'alors (sans l'Artois, sans les Trois Évêchés, sans la Lorraine, sans l'Alsace, sans la Franche-Comté, sans la Savoie, sans le Roussillon...), le passage se fit dès décembre 1582; il est à noter que dans la région d'Alsace et à Strasbourg le passage ne se fit même pas à la même date. Dans ses "Essais", Montaigne, homme cultivé s'il en est, mentionne les difficultés que ses contemporains ont éprouvées pour passer progressivement au nouveau calendrier et qu'il éprouve lui-même pour calculer son âge.Cependant, certains pays ont tardé à appliquer l'ajustement grégorien des années séculaires, et ont donc compté l'année 1700 comme bissextile (selon l’ancien calendrier julien non réformé), ce qui a accru le décalage de date à. Johannes Kepler aurait dit que les protestants préféraient être en désaccord avec le Soleil plutôt que d'être d'accord avec le pape, en référence à leur rejet de la réforme du calendrier, mais la citation semble apocryphe et doit plutôt être attribuée à Voltaire. La Suède qui utilisait le calendrier julien a tenté une première fois d'appliquer seule la règle d'ajustement grégorien en 1700 (non bissextile), sans appliquer le décalage de, puis s’est reprise en 1712 en ajoutant au mois de février (année doublement bissextile) pour revenir à l'ancien calendrier julien encore utilisé en Angleterre ou dans les pays protestants et orthodoxes voisins. Une congrégation est nommée en 1700 par le pape pour étudier le calendrier grégorien. Le cardinal Enrico Noris a été nommé président et Francesco Bianchini, camérier d'honneur du pape Clément XI et chanoine de la basilique Sainte-Marie-Majeure, secrétaire. L'objet de cette congrégation était de voir quelle réforme il faudrait faire au calendrier grégorien pour ôter aux États protestants tout sujet pour ne pas le recevoir et répondre aux critiques des États allemands. La Suède et l'Angleterre appliqueront complètement le calendrier grégorien plus tard, sous l'influence de l'Allemagne, des Pays-Bas et de la Suisse qui utilisaient simultanément les calendriers julien et grégorien suivant qu'ils étaient de confession protestante ou catholique, et qui lors de leur unification ont voulu uniformiser les calendriers. Jusqu'à la Révolution bolchevique, la Russie utilisait le calendrier julien ; de fait, au, il retardait de 12 jours et de 13 jours à partir de 1900. En 1918, les Bolcheviks imposèrent le calendrier grégorien : le février correspondit au 14. Mais on continua politiquement en URSS comme en Occident à désigner la révolution à partir de la datation du calendrier julien : la « révolution d'Octobre », tout en la fêtant le jour correspondant au calendrier grégorien : le 7 novembre et non le 25 octobre. De même a-t-on gardé l'habitude de désigner la première révolution russe de 1917 d'après le calendrier julien : la « révolution de Février » (23 – 28 février) qui eut lieu dans le calendrier grégorien le mois suivant (8 – 13 mars). La troisième réforme du calendrier grégorien était de commencer les années en janvier et non au mois de mars comme auparavant (le début de l'année dans le calendrier julien a lui-même varié ). Cette réforme permettait de faire coïncider les fêtes païennes du Nouvel an dans le temps de Noël, et non plus avant la période sainte de Pâques. Dans bien des pays, cette dernière réforme a été appliquée des années ou même plusieurs siècles après celle de l’ajustement et du décalage grégorien. Cependant, cela n'a pas été le cas des pays orthodoxes, dont l'année commençait en septembre.Sept pays n'utilisent pas le calendrier grégorien :Le calendrier grégorien est rarement utilisé de façon rétroactive. En effet, le basculement entre les deux calendriers a eu lieu à des dates différentes selon les pays. Deux dates identiques dans deux pays différents (entre 1582 en France et 1918 en Russie, par exemple) peuvent correspondre à des moments différents. Des problèmes de datation se posent parfois quand il s'agit d'événements internationaux. Par exemple, Isaac Newton est né soit en 1642 (25 décembre) soit en 1643 (4 janvier) selon que l'on utilise le calendrier julien alors en usage en Angleterre, ou le calendrier grégorien. Shakespeare et Cervantès sont morts à la même date (23 avril 1616), mais pas le même jour, l'Angleterre n'ayant pas tout de suite adopté le calendrier grégorien. En Histoire, on se réfère donc au calendrier julien pour la période précédant 1582. Les jours juliens sont un moyen commode d'établir la correspondance de date entre le calendrier grégorien et les calendriers julien, musulman et juif.Si le principe de l'ajustement grégorien n'a pas été remis en cause, il n'en est pas de même de son caractère religieux et de sa structure interne.En France, les critiques portèrent sur ses liens avec le christianisme, au travers de l'ère chrétienne, des fêtes religieuses et des références aux saints dans les agendas. Cela a motivé quelques projets de calendriers laïques, comme le calendrier républicain de la Révolution française, qui était un "remplacement" du calendrier grégorien, et non pas une réforme. À la différence du système métrique, le calendrier républicain avorta rapidement. Un autre projet de calendrier laïc (le calendrier fixe) a été proposé par Auguste Comte : le calendrier positiviste. Celui-ci n'a presque pas été utilisé en dehors de son promoteur et de quelques disciples.Les mois sont de longueur variable (de ), ce qui complique par exemple l'analyse des statistiques économiques. L'alternance entre des mois à et des mois à est nécessaire pour obtenir une année de et de ( pour = par mois). Le nombre de mois lui-même découle d'une contrainte sur la durée des mois, qui avait été choisie de façon à correspondre approximativement à un cycle lunaire. Ainsi, même une population non lettrée pouvait savoir à peu près, en observant le changement d'aspect de la lune, quand un mois s'était écoulé ; la référence à la lune était importante pour les marins (pour connaître les marées) et pour les agriculteurs (travaux nocturnes dans les champs) d'une population majoritairement rurale. Aujourd'hui ce lien n'est plus évident dans une civilisation urbaine. Par ailleurs, la référence lunaire dans les calendriers n'est pas universelle, comme en témoigne le calendrier badīʿ, utilisé dans le bahaïsme. S’il se base également sur l'année solaire, celle-ci débutant à l’équinoxe du printemps le 21 mars, son originalité tient à l’abandon de la référence lunaire pour la durée du « mois ». Une année de ce calendrier comporte en effet de (soit ). Les supplémentaires nécessaires pour compléter une année sont intercalés entre le et le, et sont nommés les « jours intercalaires ». Cependant, la grande majorité des réformes du calendrier tente de conserver un mois d'environ une lunaison.Dans le calendrier grégorien, il n'y a pas de correspondance entre le nom des jours et leur numéro dans le mois : on pourrait souhaiter, par exemple, que le premier jour du mois tombe toujours un lundi, le deuxième un mardi, etc. C'est ce que permettaient les propositions de calendrier universel et de calendrier fixe, qui résolvaient à l'aide de jours épagomènes placés « hors-semaine », rompant ainsi la continuité de la semaine. Or, cette continuité de la semaine est en fait le seul lien commun avec les autres calendriers : les calendriers islamique et hébraïque par exemple.Dans le calendrier grégorien, le deuxième trimestre est plus court que le troisième. Cette particularité découle du caractère solaire du calendrier : en effet, l'été astronomique est plus long d'environ quatre jours que l'hiver astronomique. Les longueurs irrégulières des trimestres permettent de maintenir une date fixe pour les solstices et les équinoxes. Comme la durée variable des mois, cette irrégularité complique la lecture des statistiques.Ni le nombre de semaines par mois (4,33), ni le nombre de semaines par an (52,14) ne sont des entiers. La seconde difficulté a amené de nombreuses propositions de réformes à utiliser le principe du jour épagomène. Il s'agit d'un jour blanc qui n'entre pas dans le décompte de la semaine. En ajoutant un jour épagomène à l'année (ou deux les années bissextiles), on arrive à obtenir l’égalité 365 = 7 × 52 + 1. On retrouve la même idée avec les jours complémentaires dans le calendrier républicain de la Révolution française.Les critiques visant la nature religieuse du calendrier grégorien, ou la construction même du calendrier, donnèrent lieu à des projets de réformes au cours des trois derniers siècles. La Convention fit adopter un système calendaire décimal, dit républicain, les semaines étant remplacées par des "decadi" (décades, c'est-à-dire dix jours) et les mois ayant tous trente jours. Le repos hebdomadaire était remplacé par un repos décadaire. Napoléon fit abroger cette mesure tout en confirmant l'usage du système métrique pour les autres unités que le temps. D'autres réformes furent les propositions de calendrier universel et de calendrier fixe. Au cours du, la Société des Nations puis l'Organisation des Nations unies menèrent des études pour réformer le calendrier. Celles-ci furent abandonnées sous la pression de pays comme les États-Unis, le Royaume-Uni, les Pays-Bas ou l'Indonésie, officiellement pour ne pas désorganiser les traditions religieuses.
|
Le calendrier grégorien est un calendrier solaire conçu à la fin du pour corriger la dérive séculaire du calendrier julien alors en usage. À la demande de Grégoire XIII, des mathématiciens et des astronomes jésuites des universités de Salamanque et de Coimbra préparent les bases d'un nouveau calendrier depuis 1579. Adopté par le pape Grégoire XIII, dans la bulle pontificale « "Inter gravissimas" » du, il est mis en application dans les États catholiques quelques mois plus tard. Le lendemain du jeudi est le vendredi en Espagne, Portugal et les États pontificaux. Son usage s'est ensuite progressivement répandu dans les pays protestants, et à l'ensemble du monde jusqu'au milieu du. Le calendrier grégorien s'est imposé dans la majeure partie du monde pour les usages civils ; de nombreux autres calendriers sont utilisés pour les usages religieux ou traditionnels. Ce calendrier porte le nom de son instigateur, le pape Grégoire XIII.
|
xwikis
|
Un objet peut posséder une charge électrique. Placé dans un champ électrique, un tel objet chargé subit une force. Si l'objet est chargé positivement, la force s'exerce dans le sens du vecteur champ électrique à l'endroit où se situe l'objet ; si sa charge est négative la force s'exerce dans le sens opposé. La force subie est égale au produit de la charge par le champ électrique. Le "potentiel électrique" (ou plus simplement "potentiel") en un point d'un champ électrique correspond au travail à fournir pour transporter une charge positive unitaire depuis l'infini jusqu'à ce point (le potentiel électrique à l'infini étant par définition égal à 0). La force et le potentiel sont directement liés. Quand un objet se déplace dans la direction de la force qui le met en mouvement, son énergie cinétique augmente ; par exemple, l'énergie potentielle gravitationnelle d'un objet au sommet d'une tour est plus élevée qu'au sol. Durant la chute de l'objet, son énergie cinétique augmente et est transformée en chaleur, ou énergie thermique. Un champ électrique (en l'absence de champ magnétique variable) partage avec un champ de force gravitationnel (gravité) cette propriété que l'énergie potentielle ne dépend que de la position dans le champ : la force s'exerçant sur un objet ne dépend que des propriétés intrinsèques de cet objet (par exemple masse ou charge) et de sa position, et obéit à des règles mathématiques. On dit que la force électrique est conservative. C'est pourquoi on utilise habituellement pour illustrer la notion de potentiel électrique l'analogie avec le cours d'eau d'une rivière ; le potentiel de chaque point correspond à son altitude, alors que la différence d’altitude (dénivellation) correspond à la différence de potentiel. La différence de potentiel (ou tension en l'absence de phénomènes d'induction d'origine extérieure) est une valeur algébrique (elle peut être positive, négative ou nulle) ; elle est souvent notée. On peut donc écrire : où : On la représente sur les schémas électriques par une flèche allant du point vers le point.Sa mesure s'effectue en physique comme en biologie grâce à un voltmètre ou à un oscilloscope qui sont toujours placés en dérivation ou en parallèle, par rapport au circuit ou à l'objet bipolaire à mesurer. Le potentiel est toujours défini à une constante près. En électricité il est fréquent que l'on prenne comme référence pour les potentiels (c'est-à-dire le potentiel qui sert de "zéro") le potentiel de la terre (que l'on abrège par terre), même si cela n'est pas une obligation. Quel que soit le choix opéré, le point de référence dans le circuit dont le potentiel est fixé à 0 volt est appelé point froid. Selon les dispositifs il peut être relié soit à la masse (carcasse métallique du dispositif), soit à la terre, soit aux deux. Pour des explications plus pratiques concernant la notion de potentiel électrique, on se référera à l'article tension.Le potentiel électrique en un point de l'espace est un concept du domaine de l'électricité. Il est défini à partir de la distribution des charges électriques dans l'espace à l'aide de l'application de la loi de Coulomb à une distribution volumique de charge et en utilisant le principe de superposition : Le champ électrique qui dérive de ce potentiel est alors donné par la formule suivante : Inversement, la connaissance du champ électrique en un point permet le calcul du potentiel dont il découle :Le potentiel électrique créé par une charge ponctuelle dans l'espace qui l'environne est : Comme mathématiquement : pour une distribution de charges quelconques, l'équation devient : Noter que V est un scalaire.La variation d'énergie potentielle électrique d'une particule chargée se calcule à partir de la différence entre les potentiels à chacun des points. Il est possible de faire une analogie entre la hauteur et le potentiel. Lorsque la particule diminue en potentiel, son énergie potentielle diminue proportionnellement. Toutefois, à la différence de l'énergie potentielle gravitationnelle, l'énergie potentielle électrique dépend de la charge électrique de la particule et non de sa masse (qui est la « charge gravitationnelle ») : où :
|
Le potentiel électrique, exprimé en volts (symbole : V), est l'une des grandeurs définissant l'état électrique d'un point de l'espace. Il correspond à l'énergie potentielle électrostatique que posséderait une charge électrique unitaire située en ce point, c'est-à-dire à l'énergie potentielle (mesurée en joules) d'une particule chargée en ce point divisée par la charge (mesurée en coulombs) de la particule.
|
xwikis
|
Dans un milieu fluide compressible une variation de pression se propage sous forme d'une onde. Le son ne se propage pas dans le vide : il faut de la matière dont la vibration puisse se propager en ondes sonores. L'air, dans lequel vivent les humains, est un tel milieu, dont les variations de la pression constituent le son. L'amplitude de la variation de pression est faible par rapport à la pression statique (pression atmosphérique) ; pour qu'elle soit perceptible, il faut qu'elle soit suffisamment rapide et répétée. On appelle source sonore un objet vibrant, comme un instrument de musique ou un haut-parleur, à l'origine d'une vibration de l'air. La perturbation se propage, mais les particules d'air oscillent seulement de quelques micromètres autour d'une position stable, de la même façon que lorsqu'on jette une pierre dans l'eau, les vagues se déplacent en s'éloignant du point de chute, mais l'eau reste au même endroit, elle ne fait que se déplacer verticalement et non suivre les vagues (un bouchon placé sur l'eau reste à la même position sans se déplacer). Dans les fluides, l'onde sonore est longitudinale, c'est-à-dire que les particules vibrent parallèlement à la direction de déplacement de l'onde. Les solides, en vibrant, peuvent transmettre un son. La vibration s'y propage, comme dans les fluides, avec une faible oscillation des atomes autour de leur position d'équilibre, résultant en une contrainte du matériau, équivalent à la pression dans un fluide, mais plus difficile à mesurer. La rigidité du matériau permet la transmission d'ondes de contraintes transversales. De même, quoique dans une moindre mesure, la viscosité d'un fluide peut modifier, particulièrement dans des conditions extrêmes, les équations de propagation calculées pour un gaz parfait.La vitesse du son ou célérité du son du son dépend de la nature, de la température et de la pression du milieu. Le modèle mathématique du gaz parfait donne un résultat approximatif pour la propagation dans l'air sec. Il aboutit à une formule où la vitesse est proportionnelle à la racine carrée de la température absolue, en kelvins : Pour des températures ordinaires dans les lieux habités la formule permet un calcul rapide. Le résultat de ces deux approximations s'éloigne de moins de de la vitesse du son dans l'air sec à la pression atmosphérique normale entre calculée avec plus de précision. L'assimilation de l'air sec à un gaz parfait aboutit à des divergences avec les valeurs mesurées, particulièrement à haute pression et à basse température. Des calculs plus précis ou valides sur un plus large intervalle doivent considérer les relations plus complexes qui existent dans un gaz réel. L'humidité de l'air augmente légèrement la vitesse du son. L'air chaud peut contenir plus de vapeur d'eau ; la variation, exponentielle est insensible en dessous de. À, la vitesse du son dans un air à une humidité relative de 85% est supérieure de à celle de l'air sec. La variation de la vitesse du son dans l'air a parfois une importance pratique considérable. En acoustique musicale, cette vitesse détermine la fréquence de l'onde sonore qui sort d'un tuyau résonnant comme un tuyau d'orgue. Dans les laboratoires, la mesure de la vitesse du son dans diverses conditions est un moyen d'accéder à des caractéristiques d'un matériau. La vitesse du son augmente : Dans l'eau, à la fois beaucoup plus dense et beaucoup moins compressible que l'air, la vitesse du son est d'environ. Dans d'autres milieux, les vibrations peuvent se propager encore plus rapidement. Dans l'acier, les vibrations se propagent de 5600 à.La puissance d'une onde sphérique se répartit sur une sphère dont la superficie est proportionnelle au carré du rayon. En conséquence, la puissance sonore par unité de surface diminue en proportion du carré de la distance à la source, si aucun obstacle ne vient dévier le son. La plupart du temps, l'atténuation par absorption dans le milieu de propagation varie selon la fréquence. Dans l'air, en, l'amplitude d'une onde à est dix fois plus affaiblie qu'une onde à basse fréquence. On n'en connait que certaines causes. La viscosité de l'air provoque une atténuation proportionnelle au carré de la fréquence ; des échanges thermiques causent un affaiblissement supplémentaire, proportionnel à la fréquence et variable selon la composition de l'air, notamment selon son humidité. La mesure montre une atténuation supplémentaire, qu'on n'a pas intégrée aux modèles théoriques. L'étude de la propagation dans un endroit donné s'effectue à partir de la pression acoustique, qui exprime la puissance sonore, qu'on exprime souvent en décibels par rapport à la limite de perception, ou à partir de l'intensité acoustique, qui exprime la quantité et la direction de la puissance qui se transfère par la vibration du milieu. On construit ainsi un modèle mathématique du champ acoustique.Les conditions atmosphériques et météorologiques influent sur la propagation acoustique locale et à grande distance. Pour prévoir la propagation du son, il convient de connaître la température moyenne, mais aussi la structure thermique et l'hygrométrie de la masse d'air traversée ainsi que la direction du vent.La présence de gouttelettes d'eau dans l'atmosphère, comme dans les nuages et les brumes, comme celle de cristaux de glace, en cas de neige, change considérablement la propagation du son. Elle se traduit par une diminution et une dispersion de la vitesse et une atténuation d'autant plus marquée que la fréquence est basse. Dans des milieux hétérogènes, le son subit des réflexions et des réfractions sur les interfaces, qui aboutissent à des diffusions et des absorptions qui sont à la base de l'isolation phonique.On peut arrondir la vitesse du son à un kilomètre toutes les trois secondes afin de calculer assez facilement, bien qu'approximativement, la distance qui sépare l'observateur d'un éclair pendant un orage. En effet, les éclairs sont suffisamment proches pour qu'on puisse considérer en percevoir la lumière instantanément. Chaque période de trois secondes qu'il faut ensuite attendre pour entendre le tonnerre représente donc à peu près un kilomètre. Ainsi, pour une attente de 8 secondes, la distance qui sépare l'observateur de l'éclair est de 8 × 340 ; ou, plus simplement 2 kilomètres deux tiers. Étant donné la méthode d'estimation, plus de précision est illusoire. Même sans tenir compte du temps de réaction humaine (si on comptait, par exemple, le temps écoulé sur un enregistrement vidéo), il est improbable que dans une atmosphère perturbée par des vents violents et des différences de température et d'humidité considérables l'onde sonore se déplace toujours en ligne droite et à la même vitesse.Tout être vivant doté d'une ouïe peut définir un spectre sonore ; de nombreuses espèces utilisent le son pour la communication entre individus. La plage de fréquences audible varie selon les espèces. Tandis que les humains entendent les sons jusque vers, parmi les mammifères : Certains animaux utilisent leur aptitude à couvrir une large bande de fréquences à des fins diverses : Les sons que perçoivent les oiseaux recoupent largement ceux qu'entendent les humains, et ils l'utilisent pour la communication. Les poissons perçoivent les vibrations de l'eau. Pour plusieurs espèces, la perception de la direction d'origine est améliorée par une longue rangée de récepteurs placés sur la ligne médiane. Le son est utile tant aux prédateurs qu'aux proies, pour chasser ou s'échapper. Les fréquences concernées sont souvent imperceptibles aux humains.Comme pour tous les phénomènes perçus, le temps joue un rôle fondamental. Le son étant une variation de la pression, et l'information sonore une variation de cette variation, l'impression sonore dépend à plusieurs égards du temps. Le son étant aussi une onde qui se propage dans l'espace au cours du temps, il existe des relations étroites entre l'espace et le temps, tant dans l'étude du son que dans sa perception. On distingue plusieurs caractères du son : Il suffit qu'un de ces caractères varie, les autres restant inchangés, pour qu'on perçoive une différence. La répétition d'une forme dans le temps entraîne la notion de rythme. Par ailleurs, les êtres humains sont capables de distinguer et de suivre une émission sonore dotée d'une certaine continuité de caractères au milieu d'une quantité d'autres (effet cocktail party).La psychoacoustique étudie l'intensité sonore ressentie en présence d'un son physique donné. Cette impression de son fort ou doux (les musiciens disent "forte" ou "piano") dépend "principalement" de la valeur efficace de la pression acoustique, qui est la petite variation de pression atmosphérique qui définit le son. On peut utiliser deux grandeurs, liées entre elles, pour exprimer le niveau sonore : l'intensité acoustique, en watts par mètre carré, ou la pression acoustique, en pascals (newton par mètre carré, N.m). On mesure la pression acoustique en un point avec un sonomètre ; l'intensité acoustique, qui inclut la direction de propagation de l'onde, est moins directement reliée à la perception. Moins accessible à la mesure, elle sert pour les calculs d'acoustique. Cependant, on utilise rarement ces unités physiques dans la communication courante : La pression sonore et l'intensité s'expriment souvent en décibels (dB). C'est une grandeur sans dimension, dix fois le logarithme décimal du rapport de puissance entre une grandeur caractéristique du son étudié et celle d'un son de référence. Ces valeurs de référence sont, pour l'intensité acoustique, I = (un picowatt par mètre carré) et pour la pression acoustique P = (20 micropascals). Un décibel correspond à peu près à la plus petite variation de volume sonore perceptible par un humain. Le niveau correspond à un son pratiquement imperceptible. Tous les niveaux sonores sont donc des nombres positifs. Les décibels se réfèrent au logarithme décimal de la puissance. L'intensité acoustique est une puissance par mètre carré, donc multiplier l'intensité acoustique par 10, c'est augmenter le niveau sonore de, la multiplier par 100, c'est augmenter le niveau de, etc. La puissance acoustique est proportionnelle au carré de la pression : multiplier la pression acoustique par 10, c'est multiplier la puissance par 100, donc augmenter le niveau de, et multiplier la pression acoustique par 100, c'est multiplier la puissance par dix mille, et ajouter au niveau. Le niveau de pression acoustique ne donne qu'une première idée de la sonie ou "bruyance" (sensation sonore perçue). La sensibilité de l'oreille varie selon la fréquence du son ; l'oreille est plus sensible aux fréquences moyennes. Pour se rapprocher de cette sensibilité, le signal électrique qui représente la pression acoustique peut être filtré. De nombreuses lois et règlements imposent un filtre à pondération « A ». On parle alors de décibel pondéré A (). Le volume d'un son, c'est-à-dire la sensation sonore, dépend de la puissance transmise aux oreilles des auditeurs. Pour l'évaluer, on utilise un microphone qui transforme la pression acoustique en un signal électrique que l'on mesure. La grandeur qui reflète le niveau sonore est la valeur efficace de la pression acoustique ou de la tension électrique qui la représente, qui est la valeur continue qui produit la même puissance que le signal. La valeur efficace est la racine carrée de la moyenne quadratique des valeurs du signal, dite aussi valeur RMS ("Root Mean Square"). Dans les études de protection contre les bruits, on considère : Toutes ces mesures se réalisent sur un point avec un sonomètre. Mais le son se propage en ondes dans l'atmosphère dans toutes les directions. L'étude d'un son inclut l'étude de sa propagation dans les trois dimensions, et pour un point donné, la mesure peut inclure celle de la direction de propagation (voir Intensité acoustique).Les physiologistes s'accordent à dire que l'oreille humaine moyenne ne perçoit les sons que dans une plage de fréquences allant d'environ pour les basses ou graves profondes à 15 à pour les aiguës les plus fines et élevées. La sensibilité diminue progressivement aux fréquences extrêmes et varie selon les individus, la perception des aiguës diminue notamment avec l'âge, et celle des graves se confondant finalement avec celle des vibrations, on ne peut désigner de limite absolue : Le spectre sonore est directement lié à la sensation d"'acuité" d'un son, qui s'exprime en disant que le son est plus « aigu », quand le spectre est centré sur les hautes fréquences, ou plus « grave » ou « sourd » dans le cas contraire. Cette sensation relativement imprécise s'étend des sons les plus graves, vers, aux plus aigus, vers. Si le son est harmonique, c'est-à-dire qu'il contient principalement des fréquences approximativement multiples d'une fondamentale audible, cette fréquence, telle qu'elle s'exprime en hertz (Hz), détermine sa hauteur tonale. La perception d'une hauteur tonale s'exerce pour des fréquences fondamentales comprises entre environ et. Elle s'exprime par la possibilité de reproduire la note en la chantant ; une personne entraînée au solfège peut en dire le nom. Les humains identifient assez bien la répartition des fréquences, et dans les sons harmoniques, celle-ci est un élément important du timbre musical. La tonie discrimine finement des fréquences proches, bien que, si le spectre est riche en harmoniques, les erreurs d'une octave soient plus fréquentes que les autres. On peut créer des illusions auditives comme celle de la gamme de Shepard, qui semble monter éternellement ses degrés, en jouant sur ces deux aspects de la perception des fréquences sonores.Le timbre est. Les éléments physiques du timbre comprennent : La sélection des éléments pertinents est une question psychoacoustique.Tous les signaux peuvent être définis et analysés soit dans l'espace temporel, soit dans l'espace fréquentiel. Dans le premier cas, on étudie l'histoire de la valeur du signal. On a une idée précise du temps, mais aucune de la fréquence. Définir un signal dans l'espace fréquentiel, c'est dire quel est son spectre, calculé au moyen de la transformation de Fourier. Le spectre d'un signal représente les fréquences des différentes sinusoïdes ou « sons purs » qui, si on les ajoutait, le reconstitueraient. Ces composantes d'un son complexe sont appelés partiels. Lorsque ces fréquences sont des multiples d'une même fréquence, appelée fondamentale, les autres sont des harmoniques. Si les fréquences présentes sont parfaitement connues, on n'a aucune idée de la valeur de la pression acoustique à un moment donné. Le spectre présente chaque valeur sous forme d'une « raie » dont la hauteur ou la couleur varie avec son amplitude. Le spectre d'un son pur présente une seule raie. Dans ces études, on fait comme si le signal était commencé depuis toujours et continuait à l'infini. Mais les signaux sonores réels commencent et finissent, et on s'intéresse en pratique à la fois aux fréquences qu'il contient et au moment où on peut les détecter. Un sonagramme représente les fréquences présentes et leur intensité en fonction du temps. La représentation fait l'objet d'un compromis. On ne peut calculer les fréquences avec précision, et donc discriminer deux fréquences proches, qu'avec une durée suffisamment longue ; mais on ne peut situer les événements sonores dans le temps avec précision que si la durée est courte. Le produit des incertitudes temporelle et fréquentielle est constant. On étudie le son soit comme support d'une transmission d'information comme la parole ou la musique, soit comme nuisance (bruit). Pour ce faire, on génère des signaux acoustiques, dont on connaît bien les caractéristiques à l'émission, et on examine ce qu'ils deviennent en passant par le système qu'on étudie, qui pourrait être par exemple un mur anti-bruit, ou un hall où des messages doivent être diffusés, une salle de concert, un studio d'enregistrement. On étudie la réponse acoustique des systèmes en analysant leur réponse à trois grandes classes de signaux : L'électronique numérique a permis de créer des signaux qui participent de ces trois catégories, les "chirps" ( pépiements), qui permettent l'étude automatisée des caractéristiques d'un local ou d'un matériau. Connus et répétables précisément, l'étude de leur modification par le passage dans le milieu étudié donne rapidement des données sur des propriétés acoustiques qui vont de l'amortissement et la bande passante à la réverbération.
|
Le son est une vibration mécanique d'un fluide, qui se propage sous forme d"'ondes longitudinales" grâce à la déformation élastique de ce fluide. Les êtres humains, comme beaucoup d'animaux, ressentent cette vibration grâce au sens de l'ouïe.
|
xwikis
|
Le système d'exploitation offre une suite de services généraux facilitant la création et l'utilisation de logiciels applicatifs. Les services offerts sont en rapport avec l'utilisation des ressources de l'ordinateur par les programmes. Ils permettent en particulier d'exécuter des programmes, de lire et écrire des informations, de manipuler les fichiers, de communiquer entre ordinateurs et de déceler des erreurs. Ces services permettent à plusieurs usagers et plusieurs programmes de se partager les ressources de l'ordinateur. Le principal rôle du système d'exploitation est alors de gommer les différences entre les différentes architectures informatiques, et d'organiser l'utilisation des ressources de façon rationnelle : La palette des services offerts et la manière de s'en servir diffère d'un système d'exploitation à l'autre. Le standard industriel POSIX du IEEE définit une suite d'appels systèmes standard. Un logiciel applicatif qui effectue des appels système selon POSIX pourra être utilisé sur tous les systèmes d'exploitation conformes à ce standard. Le système d'exploitation assure la réservation des différentes ressources pour les besoins des programmes exécutés simultanément. Les réservations peuvent être inscrites dans des journaux d'activités à des fins de statistiques ou de dépannage et le système d'exploitation peut refuser une réservation à un utilisateur n'ayant pas reçu d'autorisation préalable. Le matériel informatique peut exécuter des instructions, celles-ci sont rarement plus que des copies ou des additions. La traduction d'opérations complexes en suite d'instructions est une tâche fastidieuse qui incombe au système d'exploitation. Le système d'exploitation prend en charge toute la manipulation du matériel, le logiciel applicatif ne peut donc pas voir de différence entre une machine simple, rudimentaire et une machine riche et complexe : les mêmes services sont offerts dans les deux cas. Le système d'exploitation facilite le travail de programmation en fournissant une suite de services pouvant être utilisés par les logiciels applicatifs. Du point de vue du programmeur, son logiciel applicatif s'oriente en direction du système d'exploitation et du matériel, et les programmes sont considérés comme fonctionnant sur le système d'exploitation. Un système d'exploitation peut ainsi être vu comme une machine virtuelle. L'ensemble composé du matériel et du système d'exploitation forme la « machine » qui exécute le logiciel applicatif, une machine en partie simulée par du logiciel. Un système d'exploitation est composé d'une large palette de programmes. La composition exacte dépend de l'usage cible et du type d'appareil informatique auquel le système est destiné (ordinateur personnel, serveur, superordinateur ou encore système embarqué).Il existe cinq générations de systèmes d'exploitation : "par lots (batch)", multi programmés, en temps partagé, temps réel, et distribués. Chacun des principes mis en œuvre dans une génération se retrouve dans les générations suivantes. À partir de la génération des systèmes d'exploitation multi-programmés, plusieurs programmes sont exécutés simultanément par planification ("scheduling"). Dans ces systèmes d'exploitation multitâches, plusieurs programmes résident dans la mémoire centrale et le système d'exploitation suspend régulièrement l'exécution d'un programme pour continuer l'exécution d'un autre. Chaque système d'exploitation est conçu pour fonctionner avec une gamme particulière de machines (type de processeur, constructeur, architecture). Si un système d'exploitation est disponible pour plusieurs gammes de machines différentes, alors le même code source est compilé et adapté à chaque gamme de machines. La palette de pilotes inclus dans le système d'exploitation est adaptée au matériel informatique disponible sur le marché pour cette gamme de machines.Les systèmes d'exploitation basés sur le traitement par « lots » (suites d'instructions et de données dans un ensemble de cartes perforées) sont apparus dans les années 1950. Un programme (avec ses données) n'est rien d'autre qu'une pile de cartes avec des indicateurs de début et de fin de lot. L'exécution d'un programme consiste à demander à un opérateur de placer la pile de cartes dans le lecteur, puis l'opérateur lance la lecture séquentielle des cartes. Le processeur central est au repos, durant les manipulations de l'opérateur. Un "batch" est un lot de travaux à effectuer. L'opérateur compose un "batch" en posant les unes sur les autres les piles de cartes des différents programmes (avec leurs données) demandés par les utilisateurs. Il forme une grande pile de cartes séparées par des marque-page, en général une carte de couleur particulière, qu'il place ensuite dans le lecteur. Le regroupement de plusieurs programmesLes systèmes d'exploitation multi-programmés sont apparus dans les années 1960. Le but recherché par de tels systèmes est d'augmenter l'efficacité de l'utilisation du processeur et des périphériques en utilisant la possibilité de les faire fonctionner en parallèle. Plusieurs programmes sont placés en mémoire centrale, et lorsque le programme en cours d'exécution attend un résultat de la part d'un périphérique, le système d'exploitation ordonne au processeur d'exécuter un autre programme. Dans les systèmes d'exploitation multi-programmés, l'utilisation du processeur est partagée par planification ("scheduling") : à chaque utilisation d'un périphérique, leLes systèmes d'exploitation en temps partagé sont apparus dans les années 1970. Ils sont utilisés dans des dispositifs interactifs où plusieurs utilisateurs sont simultanément en dialogue avec l'ordinateur. Un système d'exploitation en "temps partagé" est destiné à répondre rapidement aux demandes de l'utilisateur, et donner à chaque utilisateur l'impression qu'il est le seul à utiliser l'ordinateur. Un système en temps partagé met en œuvre des techniques sophistiquées de multiprogrammation en vue de permettre l'utilisation interactive de l'ordinateur par plusieurs usagers et plusieurs programmes simultanément. L'arrivée, en 1970, de cette nouvelle génération de systèmes d'exploitation résulte d'une forte demande des consommateurs, et de la baisse du prix du matériel informatique ayant rendu possible sa réalisation. Dans les systèmes d'exploitation en temps partagé laLes systèmes d'exploitation temps-réel sont apparus au milieu des années 1970, notamment chez Hewlett-Packard. Ils sont destinés aux dispositifs devant non seulement donner des résultats corrects, mais les donner dans un délai déterminé. Ces systèmes d'exploitation sont souvent utilisés par des ordinateurs reliés à un appareil externe (pilotes automatiques, robots industriels, applications vidéo et audio) pour lequel un retard de réponse de l'ordinateur entraînerait un échec de l'appareil. Dans ces systèmes d'exploitation, l'accent est mis sur la durée nécessaire pour effectuerLa baisse des prix du matériel informatique a permis, dans les années 1990, la création de systèmes informatiques composés de plusieurs ordinateurs, et donc plusieurs processeurs, plusieurs mémoires, et de nombreux périphériques.L'histoire des systèmes d'exploitation est fortement liée à celle des ordinateurs. Les premières générations d'ordinateurs, dans les années 1945 à 1955, ne comportaient pas de système d'exploitation. Dans ces ordinateurs équipés de tubes à vide, les programmes manipulaient les ressources matérielles de l'ordinateur sans passer par un intermédiaire. L'ordinateur était utilisé par une seule personne à la fois : la tâche de l'opérateur consistait à placer des piles de cartes perforées dans le lecteur, où chaque carte comportait des instructions d'un programme ou des données. Les ordinateurs à tube à vide de cette génération n'avaient qu'une faible puissance de calcul, ils étaient volumineux, peu commodes et peu fiables (les tubes à vide grillaient souvent).Dans les années 1960, avec l'arrivée des circuits électroniques à semi-conducteurs, la puissance de calcul des processeurs a augmenté de manière significative. Cela a permis la réalisation de systèmes d'exploitation rudimentaires : les ordinateurs ont été équipés d'un "spooler". L'utilisation des ressources matérielles par les programmes se faisaient alors par l'intermédiaire d'une bibliothèque logicielle. Il a alors été possible de placer en mémoire plusieurs programmes simultanément et de les exécuter simultanément ; un programme dit "resident monitor" résidait continuellement dans la mémoire centrale et contrôlait l'exécution des différents programmes. En 1965 le Massachusetts Institute of Technology se lance dans la création du premier système d'exploitation multitâche et multi-utilisateurs : Multics (pour "MULTiplexed Information and Computing Service", ou service multiplexé d'information et de calcul). Sur le principe de la "multiprogrammation", le système d'exploitation autorisait le chargement de plusieurs programmes en mémoire et gérait le passage de l'unDès 1980, les circuits électroniques à transistor ont été remplacés par des circuits intégrés, plus petits, ce qui a permis de réaliser des appareils plus compacts et moins coûteux et lancé le marché des ordinateurs personnels. De nombreux concepteurs de système d'exploitation qui se sont lancés sur ce marché n'avaient pas d'expérience, ce qui a donné de nouveaux produits, fondés sur des nouvelles idées, sans héritage ou influence de ce qui se faisait jusqu'alors. CP/M, mis sur le marché en 1974, a été le premier système d'exploitation pour micro-ordinateur, son caractère très "sympathique", facile à aborder et commode ("user-friendly") l'a rendu très populaire et influencé le marché des systèmes d'exploitation. En 1980, IBM prendEn 1983, Richard Stallman du Massachusetts Institute of Technology lance l'idée d'un système d'exploitation sous licence libre : "GNU". Il développe des outils de programmation, des logiciels utilitaires, et crée la GNU General Public License — un contrat de licence autorisant une utilisation sans restrictions ainsi que la publication du code source, sa modification, et sa redistribution. Le succès est immédiat, mais le système ne possède toujours pas, en 1990, de noyau libre, et les tentatives pour en développer un sont loin d'être abouties. En 1987, Andrew Tanenbaum, professeur à l'université libre d'Amsterdam créé le système d'exploitation Minix, clone d'UNIX dont le code source est destiné à illustrer son cours sur la construction des systèmes d'exploitation. Mais Minix, dont la vocation est pédagogique, comporte alors de trop nombreuses limitations techniques et ne permet pas une utilisation poussée. En 1989 un « "systèmeUn système d'exploitation est essentiellement événementiel - il est exécuté lorsque quelque chose s'est passé, typiquement lors d'un appel système, une interruption matérielle ou une erreur. C'est un logiciel étendu et complexe, qui offre de nombreuses fonctions. Il est construit comme une suite de modules, chacun ayant une fonction déterminée. Le noyau (en anglais : "kernel") est la pièce centrale du système d'exploitation. C'est le second programme chargé en mémoire (juste après le bootloader) et il y reste en permanenceNée en 1985, la gamme des systèmes Windows de Microsoft équipe en 2008 près de 90 % des ordinateurs personnels, ce qui la place en situation de monopole notamment auprès du grand public. En 2008, ses parts de marché sont descendues en dessous de 90 % pour la première fois depuis 15 ans. Puis à la suite de la croissance très rapide du marché des smartphones, et du retard pris par Microsoft sur ce marché, ses parts de marché sur les appareils personnels sont passées de 95 % en 2005 à 20 % en 2013. Amorcée en 1969, la famille de systèmes d'exploitation Unix compte plus de. GNU/Linux, BSD et Mac OS X sont aujourd'hui les systèmes d'exploitation les plus populaires de la famille Unix. La famille Windows équipe aujourd'hui 38 % des serveurs tandis que la famille Unix équipe 31 %, dont à peu près la moitié avec GNU/Linux. La famille Unix anime 60 % des sites web dans le monde. La famille GNU/Linux équipe 100 % des du monde. En, la famille Unix anime plus de 98 % des smartphones. Né en 1990, Symbian OS est en 2007 le système d'exploitation le plus répandu sur les téléphones mobiles et assistants personnels, avec 67 % de part de marché. En 2012, les quatre systèmes d'exploitation Android de Google, Symbian, iOS de Apple et Blackberry de Research In Motion occupent ensemble 95 % du marché des smartphones. Android, le plus populaire (75 %), est en progression, tandis que les autres sont en recul. Les parts de marché de Symbian ne sont plus que de 2,3 %. Du côté des tablettes tactiles, iOS de Apple était le premier système d'exploitation largement diffusé avec plus de 80 % de part de marché en 2010. Trois ans plus tard sa part de marché est de 20 % et celle de Android est de plus de 56 %. Les serveurs et super-ordinateurs sont majoritairement équipés de systèmes d'exploitation de la famille UNIX.De nombreux logiciels applicatifs sur le marché sont construits pour fonctionner avec un système d'exploitation en particulier, ou une famille en particulier et un système d'exploitation est construit pour fonctionner avec une gamme de machines donnée. Pour l'acheteur le choix de la famille de machine limite le choix du système d'exploitation, qui lui-même limite le choix des logiciels applicatifs. Chaque système d'exploitation, selon la palette de programmes qu'il contient, est construit pour fonctionner avec certains réseaux informatiques. Pour l'acheteurLa compatibilité d'un système d'exploitation est sa capacité à être utilisé à la place d'un autre, en particulier à exécuter les logiciels applicatifs de l'autre. Le système d'exploitation est dit « compatible » avec l'autre. La compatibilité au niveau source est la capacité pour un système d'exploitation A d'exécuter un logiciel applicatif créé pour B après avoir compilé le code source du logiciel pour la machine A. Et la compatibilité binaire est la capacité pour un système d'exploitation A d'exécuter un logiciel applicatif créé pour B tel quel, sans avoir à le recompiler. L’interopérabilité est la capacité pour plusieurs systèmes à être utilisés ensemble, par exemple dans un même appareil, ou dans un réseau informatique. Pour être compatibles, deux systèmes d'exploitation doivent avoir des points communs, notamment sur l'interface de programmation. La compatibilité binaire n'est possible qu'entre deux systèmes d'exploitation qui fonctionnent avec la même famille de processeur. La compatibilité et l'interopérabilité entre les systèmes d'exploitation sont assurées, par les éditeurs, par alignement de leur produit sur des normes industrielles ainsi que des technologies rendues publiques. Le système d'exploitation Unix, créé en 1969, a servi de source d'inspiration pour toute une famille de systèmes d'exploitation. Le jeu de la concurrence, très vif dans les années 1980, a conduit les différents membres de la famille Unix à s'éloigner, et perdre la compatibilité les uns avec les autres. Des organismes de normalisation tels que Open Group se sont penchés sur le problème et ont édicté des normes garantissant la compatibilité à travers toute la famille Unix. Entre 1995 et 2007, Microsoft, éditeur de la suite de systèmes d'exploitation Windows a été l'objet de plusieurs procès pour des pratiques anticoncurrentielles nuisant à la concurrence et à l'interopérabilité. La société a été condamnée par le département de la justice des États-Unis pour violation du Sherman Antitrust Act, ainsi que par la Commission européenne pour violation des traités relatifs à la concurrence dans l'Union européenne. La popularisation d'Internet dans les années 1990 a contribué à améliorer l'interopérabilité entre les systèmes d'exploitation.Le système d'exploitation Unix a été développé par "American Telephone & Telegraph" (AT&T). Jusqu'en 1975, un accord avec l'État fédéral américain lui interdisait de commercialiser Unix, ayant le monopole de la téléphonie aux États-Unis, le code source du système d'exploitation était par conséquent public. Mais en 1975, ce monopole fut attaqué en justice et en 1982, la société était démembrée par décision de justice. AT&T, née de la fragmentation des activités d’American Telephone & Telegraph, put enfin commercialiser Unix : les ingénieurs de la société partirent du code source de la version 7 (ouverte) pour aboutir à UNIX System V. Simultanément, d'autres éditeurs s'inspirèrent de la version 7 pour créer des systèmes Unix, notamment l'université de Berkeley, avec sa Berkeley Software Distribution (BSD, 1979). Puis ceux-ci ont servi de source d'inspiration pour d'autres systèmes d'exploitation, et ainsi de suite. En 2009, la famille Unix comptait plus de 25 systèmes d'exploitation. Le jeu de la concurrenceEn 1995, conformément au Sherman Antitrust Act — une loi des États-Unis pour la prévention de l'abus de position dominante, le département de la justice des États-Unis interdit à Microsoft certaines de ses pratiques considérées comme nuisibles à la concurrence. Deux ans plus tard, un procès est ouvert pour non-respect des interdictions de 1995 : Microsoft obtient l'annulation du procès sur l'argument que. Entre 1999 et 2001, une enquête est ouverte concernant la position de Microsoft. L'enquête, menée par les juges Thomas Jackson et Richard Posner, amène à la conclusion que Microsoft abuse deChaque système d'exploitation comporte une palette de programmes relatifs aux protocoles réseau. La composition de la palette dépend du choix de l'éditeur et diffère d'un système d'exploitation à l'autre. Toutefois, deux ordinateurs ne peuvent communiquer ensemble qu'à la condition unique d'utiliser les mêmes protocoles. La popularisation d'Internet dans les années 1990 a poussé de nombreux éditeurs à inclure dans leur système d'exploitation des programmes relatifs aux protocoles TCP/IP (les protocoles d'Internet), améliorant ainsi l'interopérabilité entre les systèmes d'exploitation.
|
En informatique, un système d'exploitation (souvent appelé OS — de l'anglais "") est un ensemble de programmes qui dirige l'utilisation des ressources d'un ordinateur par des logiciels applicatifs. Il reçoit des demandes d'utilisation des ressources de l'ordinateur — ressources de stockage des mémoires (par exemple des accès à la mémoire vive, aux disques durs), ressources de calcul du processeur central, ressources de communication vers des périphériques (pour parfois demander des ressources de calcul au GPU par exemple ou tout autre carte d'extension) ou via le réseau — de la part des logiciels applicatifs. Le système d'exploitation gère les demandes ainsi que les ressources nécessaires, évitant les interférences entre les logiciels.
|
xwikis
|
Le mot "soleil" est issu du gallo-roman, forme du latin populaire "*soliculus" (non attesté), diminutif du latinPour le philosophe Théophraste (), le Soleil est fait de petitesLe Soleil est une étoile naine jaune qui se compose de 74 % d’hydrogène, de 24 % d’hélium et d’une fraction d’éléments plus lourds. Les observables à la surface duLe Soleil est de type spectral G2. « G2 » signifie qu’il est plus chaud ( en surface environ) et plus brillant que la moyenne, avec une couleur jaune tirant sur le blanc. Son spectre renferme des bandes de métaux ionisés et neutres,Il existe dans la Voie lactée plus de d’étoiles de type spectral identique, ce qui fait du Soleil une étoile assez ordinaire, bien qu’il soit en fait plus brillant que 85 % des étoiles de la Galaxie, qui sont en majorité des naines rouges. Le Soleil gravite autour du centre de la Voie lactée dont il est distant d’environ. Sa période de révolution galactique est d’environ d’années, et sa vitesse de, équivalente à une année-lumièreLe Soleil tourne également sur lui-même, avec une période de terrestres environ. En réalité, n’étant pas un objet solide, il subit une rotation différentielle : il tourne plus rapidement à l’ () qu’aux pôles (). Déduite des modes de vibration de gravité, la vitesse de rotationLa plus ancienne éclipse solaire répertoriée date de 1223, elle est représentée sur une table d’argile dans la cité d’Ougarit (aujourd’hui en Syrie). Vers 800, a eu lieu la première observation plausible d’une tache solaire en Chine. Environ après, les premières civilisations pensaient que la Terre était plate et que le Soleil était un dieu. Le philosophe grec Anaxagore avance l’idée que le Soleil est un corps grand, éloigné de la Terre. Il estime son rayon à. Ses idées vont à l’encontre des croyances de son temps, ce qui lui vaut d’être menacé puis finalement exilé d’Athènes. La première tentative de calcul mathématique de la distance Terre-Soleil est faite en 250, par Aristarque de Samos. Claude Ptolémée déclare en 150, que la Terre est un corps stationnaire au centre de l’Univers. Selon lui, ce sont le Soleil, la Lune et les autres planètes qui tournent autour de la Terre. Plus proche de notre époque, en 1543 ("Des révolutions des sphères célestes"), Copernic présente son modèle d’Univers dans lequel le Soleil est au centre et les planètes tournent autour de lui. En 1610, Scheiner et Galilée observent indépendamment les taches solaires avec leurs lunettes astronomiques. Peu de temps après, en 1644, Descartes énonce une théorie selon laquelle le Soleil est une étoile parmi bien d’autres. EntreLe Soleil est une étoile âgée d'environ d’années, soit un peu moins de la moitié de son chemin sur la séquence principale. L'hypothèse des années 1970, qu'une supernova serait à l'origine de l'effondrement de la nébuleuse qui a donné naissance au Soleil, n'est plus crédible. Une modélisation récente (2012) propose un scénario en trois étapes pour expliquer la formation du Soleil et l'abondance de magnésium 26 et de nickel 60 dans les météorites. Ces éléments sont les produits de la décomposition de deux isotopes radioactifs (à la demi-vie relativement courte), nés dans les étoiles : l'aluminium 26 (demi-vie de ) et le fer 60 (demi-vie de ). Pour comprendre la présence de ces éléments dans la chimie du Soleil, il fallait imaginer une étape pour le fer 60 et une autre pour l'aluminium 26.Actuellement, dans le cœur du Soleil, chaque seconde, environ de tonnes d'hydrogène fusionnent pour produire environ de tonnes d'hélium. La différence de masse de de tonnes (une masse de l'ordre de celle de la pyramide de Gizeh) équivaut à l'énergie lumineuse produite (). Cette énergie migre lentement, par rayonnement et par convection, vers la surface solaire et est émise dans l’espace sous forme de rayonnement électromagnétique (lumière, rayonnement solaire) et de flux de particules (vent solaire). Le Soleil est dans sa "phase linéaire", durant laquelle le Soleil épuise petit à petit ses réserves d’hydrogène, sa luminosité augmentant d’environ 7 % par milliard d’années, à la suite de l’augmentation du rythme des réactions de fusion par la lente contraction du cœur. Cette phase linéaire a débuté quand leBien que le Soleil soit une étoile de taille moyenne, il représente à lui seul environ 99,854 % de la masse du Système solaire. Sa forme est presque parfaitement sphérique, avec un aplatissement aux pôles estimé à neuf millionièmes, ce qui signifie que son diamètre polaire est plus petit que son diamètre équatorial de seulement dix kilomètres. Contrairement aux objets telluriques, le Soleil n'a pas de limite extérieure bien définie. La densité de ses gaz chute de manière à peu près exponentielle à mesure que l'on s'éloigne de son centre. Par contre, sa structure interne est bien définie. Le rayon du Soleil est mesuré de son centre jusqu'à la photosphère. La photosphère est la couche en dessous de laquelle les gaz sont assez condensés pour être opaques et au-delà de laquelle ils deviennent transparents. La photosphère est ainsi la couche la plus visible à l'œil nu. La majeure partie de la masse solaire se concentre à du centre. La structure interne du Soleil n'est pas observable directement. De la même façon que la sismologie permet, par l’étude des ondes produites par les tremblements de terre, de déterminer la structure interne de la Terre, on utilise l'héliosismologie pour mesurer et visualiser indirectement la structure interne du Soleil. La simulation informatique est également utilisée comme outil théorique pour sonder les couches les plus profondes.On considère que le noyau (ou cœur) du Soleil s’étend du centre à environ. Sa masse volumique est supérieure à ( celle de l’eau) et sa température approche les de kelvins (ce qui contraste nettement avec la température de surface, qui avoisine les ). C’est dans le cœur que se produisent les réactions thermonucléaires exothermiques (fusion nucléaire) qui transforment, dans le cas du Soleil, l’hydrogène en hélium (pour les détails de ces réactions, voir l’article chaîne proton-proton). Chaque seconde, environ de tonnes d'hydrogène ( ou noyaux d’hydrogène) sont converties en de tonnes d'hélium, ce qui libère une énergie correspondant à l'annihilation de de tonnes de matière, et produit () par seconde, soit l’équivalent de l’explosion de de TNT. Le taux de fusion nucléaire est proportionnel à la densité du noyau, aussi est-elle un processus auto-régulé : toute légère augmentation du taux de fusion provoque un réchauffement et une dilatation du cœur qui réduit en retourLa zone de rayonnement ou zone radiative se situe approximativement entre 0,25 et. La matière solaire y est si chaude et si dense que le transfert de la chaleur du centre vers les couches les plus extérieures se fait par le seul rayonnement thermique. L’hydrogène et l’hélium ionisés émettent des photons qui voyagent sur une courte distance avant d’être réabsorbés par d’autres ions. Les photons de hauteLa zone de convection ou zone convective s’étend de du centre à la surface visible du Soleil. Elle est séparée de la zone radiative par une couche épaisse d’environ, la tachocline, qui d’après les études récentes pourrait être le siège de puissants champs magnétiques et jouerait un rôle important dans la dynamo solaire. Dans la zone de convection la matière n’est plus ni assez dense niLa photosphère est une partie externe de l’étoile qui produit entre autres la lumière visible. Elle est plus ou moins étendue : de moins de 0,1 % du rayon pour les étoiles naines, soit quelques centaines de kilomètres ; à quelques dizaines de pourcent du rayon de l’étoile pour les plus géantes, ce qui leur donnerait un contour "flou" contrairement au Soleil aux bords nets. La lumière qui y est produite contient toutes les informations sur la température, la gravité de surface et la composition chimiqueLa structure du Soleil au-delà de la photosphère est généralement connue sous le nom d’"atmosphère solaire". Elle comprend trois zones principales : la chromosphère, la couronne et l’héliosphère. La chromosphère est séparée de la photosphère par la "zone de température minimum" et de la couronne par une "zone de transition". L’héliosphère s’étend jusqu’aux confins du Système solaire où elle est limitée par l’héliopause. Pour une raison encore mal élucidée, la chromosphère et la couronne sont plus chaudes que la surface du Soleil. Bien qu’elle puisse être étudiée en détail par les télescopes spectroscopiques, l’atmosphère solaire n’est jamais aussi accessible que lors des éclipses totales de Soleil.La "zone de température minimum" qui sépare la photosphère de la chromosphère offre une température suffisamment basse () pour qu’on y trouve des molécules simples (monoxyde de carbone, eau), détectables par leur spectre d’absorption. La chromosphère proprement diteLa "zone de transition" entre la chromosphère et la couronne est le siège d’une élévation rapide de température, qui peut approcher de kelvins. Cette élévation est liée à une transition de phase au cours de laquelle l’hélium devient totalement ionisé sous l’effet des très hautes températures. La zone de transition n’a pas une altitude clairement définie. Grossièrement, elle forme un halo surplombant la chromosphère sous l’apparence de spicules et de filaments. Elle est le siège d’un mouvement chaotique et permanent. Difficile à percevoir depuis la Terre malgré l’utilisation de coronographes, elle est plusDébutant à environ () du centre du Soleil, l’héliosphère s’étend jusqu’aux confins du Système solaire. On admet qu’elle débute lorsque le flux de vent solaire devient plus rapide que les ondes d’Alfvén (le flux est alors dit "superalfvénique") : les turbulences et forces dynamiques survenant au-delà de cette frontière n’ont pas d’influence sur la structure de la couronne solaire, car l’information ne peut se déplacer qu’à la vitesse des ondes d’Alfvén. Le vent solaire se déplace ensuite en continu à travers l’héliosphère, donnant au champ magnétique solaire la forme d’une spirale de Parker jusqu’à sa rencontre avec l’héliopause, à plus de du Soleil. Le, est devenue la première sonde à franchir l’héliopause. Chacune des deux sondes a détecté d’importants niveaux énergétiques à l’approche de cette frontière.Le Soleil est une étoile magnétiquement active. Le soleil étant une boule de gaz et de plasma, sa rotation n'est pas contrainte à une rotation solide. On peut ainsi observer une rotation différentielle selon la latitude. Cela signifie que la surface du Soleil tourne à une vitesse différente autour de son axe selon la latitude. Cette rotation est plus rapide à l'équateur qu'aux pôles. Différents effets magnétohydrodynamiques régissent cette rotation différentielle, mais il n'y a de consensus parmi les scientifiques pour expliquer la cause de cette rotation. On appelle cycle solaire l'alternance de minima et de maxima d'activité solaire (apparition de taches solaires, intensité et complexité du champ magnétique). Le cycle solaire reste inexpliqué. On évoque certains modèles de dynamo pour y apporter des explications, mais aucun modèle auto-consistant n'est aujourd'hui capable de reproduire les cycles solaires. LeBien que tous les détails sur la genèse des taches solaires ne soient pas encore élucidés, il a été démontré (par l’observation de l’effet Zeeman) qu’elles sont la résultante d’une intense activité magnétique au sein de la zone de convection. Le champ magnétique, qui en est issu, freine la convection et limite l’apport thermique en surface à la photosphère, le plasma de la surface se refroidit et se contracte. Les taches solaires sont des dépressions à la surface solaire. Elles sont ainsi moins chaudes de à que les régions voisines, ce qui suffit à expliquer pourquoi elles apparaissent, en contraste, bien plus sombres que le reste de la photosphère. Cependant, si elles étaient isolées du reste de la photosphère, les taches solaires, où règne malgré tout une température procheLes effets terrestres de l’activité solaire sont multiples, le plus spectaculaire étant le phénomène des aurores polaires (également appelées aurores boréales dans l’hémisphère Nord et aurores australes dans l’hémisphère Sud). Une prévision de l'activité solaire est particulièrement importante en vue des missions spatiales. Une méthode reposant sur des relations entre plusieurs périodes consécutives a été établie par Wolfgang Gleissberg. La Terre possède une magnétosphère qui laÀ lui seul, le Soleil représente environ 99,854 % de la masseLe philosophe grec Anaxagore fut un des premiers occidentaux à proposer une théorie scientifique sur le Soleil, avançant qu’il s’agissait d’une masse incandescente plus grande que le Péloponnèse et non le chariot d’Hélios. Cette audace lui valut d’être emprisonné et condamné à mort pour athéisme, même s’il fut plus tard libéré grâce à l’intervention de Périclès. Au, Copernic émit la théorie que la Terre tournait autour du Soleil, renouant par là avec l’hypothèse formulée par Aristarque de Samos au Au début du, GaliléeLes premières sondes conçues pour observer le Soleil depuis l’espace interplanétaire furent lancées par la NASA entre 1959 et 1968 : ce furent les missions ", 6, 7, 8" et "9". En orbite autour du Soleil à une distance similaire à celle de l’orbite terrestre, elles permirent les premières analyses détaillées du vent solaire et du champ magnétique solaire. resta opérationnelle particulièrement longtemps et envoya des informations jusqu’en 1987. Dans les années 1970, deux missions apportèrent aux scientifiques des informations capitales sur le vent solaire et la couronne solaire. La sonde germano-américaine "" étudia le vent solaire depuis la périhélie d’une orbite plus petite que celle de Mercure. La station américaine, lancée en 1973, comportait un module d’observationRegarder le Soleil à l’œil nu, même brièvement, est douloureux et même dangereux pour les yeux. Un coup d’œil vers le Soleil entraîne des cécités partielles et temporaires (taches sombres dans la vision). Lors de cette action,Regarder le Soleil à travers les dispositifs optiques grossissants — par exemple des jumelles, un téléobjectif, une lunette astronomique ou un télescope — dépourvus de filtre adapté (filtre solaire) est extrêmement dangereux et peut provoquer des dommages irréparables à la rétine, au cristallin et à la cornée. Avec des jumelles, environ plus d’énergie frappe la rétine, ce qui peut détruire les cellules rétinales quasiment instantanément et entrainer une cécité permanente. Une méthode pour regarder sans danger le Soleil est de projeter sonLes éclipses solaires partielles sont particulièrement dangereuses car la pupille se dilate en fonction de la lumière globale du champ de vision et non selon le point le plus brillant présent dans le champ. Durant une éclipse, la majeure partie de la lumière est bloquée par la Lune, mais les parties non cachées de la photosphère sont toujours aussi brillantes. DansDurant l’aube et l’aurore, le rayonnement solaire est atténué par la diffusion de Rayleigh et la diffusion de Mie dues à un plus long passage dans l’atmosphère terrestre, à tel point que le Soleil peut être observé à l’œil nu sans grand danger. En revanche, il faut éviter de le regarder lorsque sa lumière est atténuée par des nuages ou la brume, car sa luminosité pourrait croître très rapidement dès qu’il en sortirait. Un temps brumeux, les poussières atmosphériques et la nébulosité sont autant de facteurs qui contribuent à atténuer le rayonnement.Le Soleil est un symbole très puissant pour les hommes. Il occupe une place dominante dans chaque culture. D’une façon générale, il est un principe masculin et actif. Toutefois, certains peuples nomades d’Asie centrale le considéraient comme un principe féminin (la Mère soleil) ; c’est aussi le cas des shintoïstes, pour qui le Soleil est le kami Amaterasu, la grande déesse, sœur de Tsukuyomi, le kami de la Lune. Même dans la langue allemande, le Soleil est féminin selon son article (). Dans la mythologie nordique, les enfants de Mundilfari et Glaur sont Sol (déesse du Soleil) et Máni (dieu de la Lune), une idée que J. R. R. Tolkien a reprise dans son œuvre. Souvent, le Soleil représente le pouvoir. Cet astre donne la vie et si le Soleil venait à disparaître, ou même si ses rayons ne nous parvenaient plus, la vie s’éteindrait sur Terre, d’où le symbole de vie (donneur de vie). Dans l’Égypte antique, Râ (ou Rê) est le dieu Soleil et Akhénaton en fera son dieu unique sous le nom d’Aton. Dans le Panthéon grec c’est Apollon, fils de Zeus et de la titane Léto. Le dieu Hélios personnifie le Soleil dans la Rome et la Grèce antiques. Les Aztèques l’appelaient Huitzilopochtli, dieu du Soleil et de la guerre, le maitre du monde. S’il n’est pas associé à un dieu, des gens l’ont associé à eux-mêmes comme le roi de France surnommé le Roi-Soleil (couronné de Dieu). La famille impériale japonaise descendrait d’Amaterasu, déesse du Soleil. Le Japon est aussi connu sous le nom de « Pays du Soleil Levant ». En alchimie, le symbole du Soleil et de l’or est un cercle avec un point en son centre : (caractère Unicode U+2609 : ). Il représente l’intérieur avec tout ce qui gravite autour. En astronomie comme en astrologie, le symbole est le même. "Soleil" est aussi employé par métaphore en poésie pour et par analogie aux sens de, de et de (voir le Roi Soleil). Ces différents sens se retrouvent dans de nombreuses périphrases qui le caractérisent : "l’œil du ciel", "le maître des astres", "l’âme du monde", "le seigneur des étoiles", "le père du jour", "le fils aîné de la nature", "le grand flambeau"
|
Le Soleil est l’étoile du Système solaire. Dans la classification astronomique, c’est une étoile de type naine jaune d'une masse d'environ, composée d’hydrogène (75 % de la masse ou 92 % du volume) et d’hélium (25 % de la masse ou 8 % du volume). Le Soleil fait partie de la galaxie appelée la Voie lactée et se situe à du centre galactique, dans le bras d'Orion. Le Soleil orbite autour du centre galactique en 225 à d'années (année galactique). Autour de lui gravitent la Terre (à la vitesse de ), sept autres planètes, au moins cinq planètes naines, de très nombreux astéroïdes et comètes et une bande de poussière. Le Soleil représente à lui seul environ 99,854 % de la masse du Système solaire ainsi constitué, Jupiter représentant plus des deux tiers du reste.
|
xwikis
|
Depuis la décision prise le par l'Union astronomique internationale, les objets ou corps orbitant directement autour du Soleil sont officiellement divisés en trois classes : planètes, planètes naines et petits corps. Les 175 satellites naturels, aussi appelés lunes, sont les objets en orbite autour des planètes, des planètes naines et des petits corps du Système solaire plutôt qu'autour du Soleil. Les statuts ambigus de la Lune et de Charon - à partir de ces définitions - ne sont d'ailleurs pasLe principal corps céleste du Système solaire est le Soleil, une étoile naine jaune de la séquence principale de type G2 qui contient 99,86 % de toute la masse connue du Système solaire et le domine gravitationnellement. Jupiter et Saturne, les deux objets les plus massifs orbitant autour du Soleil, regroupent à eux deux plus de 90 % de la masse restante. La plupart des grands objets en orbite autour du Soleil le sont dans un plan proche de celui de l’orbite terrestre, nommé écliptique. Typiquement, le plan d’orbite des planètes est très proche de celui de l’écliptique tandis que les comètes et les objets de la ceinture de Kuiper ont pour la plupart une orbite qui forme un angle significativement plus grand par rapport à lui. Toutes les planètes et la plupart des autres objets orbitent dans le même sens que la rotation du Soleil, c’est-à-dire dans le sens inverse des aiguilles d’une montre du point de vue d’un observateur situéLe Soleil, au sein de notre galaxie, est une étoile de type naine jaune parmi tant d'autres : la Voie lactée contient entre 200 et 400 milliards d'étoiles, dont 20 à 40 milliards seraient des naines jaunes. Comme toute étoile selon les lois de la physique actuelle, sa masse permet à la densité en son cœur d’être suffisamment élevée pour provoquer des réactions de fusion thermonucléaire en continu. Chaque seconde le cœur du Soleil fusionne 620 millions de tonnes d'hydrogène en 615,7 millions de tonnes d'hélium. Cette masse que le Soleil perd vient simplement du fait qu'un noyau d'hélium produit a une masse inférieure à celle des quatre noyaux d'hydrogène ayant servi à le fabriquer. La puissance rayonnée par le Soleil dans l'espace sous forme d'ondes électromagnétiques, environ, n'est autre que celle qui correspond à ce différentiel de 4,3 millions de tonnes par seconde. Le Soleil est une naine jaune modérément grande, mais le nom est trompeur, puisque le Soleil est plus massif et plus lumineux que la majorité des étoiles de la Voie lactée (la plupart des étoiles de la Voie lactée étant desEn plus de la lumière, le Soleil rayonne un flux continu de particules chargées (un plasma) appelé vent solaire. Ce flux s’étend à la vitesse approximative de 1,5 million de kilomètres par heure, créant une atmosphère ténue, l’héliosphère, qui baigne le Système solaire jusqu’à environ 100 unités astronomiques (marquant l’héliopause). Le matériau composant l’héliosphère est connu sous le nom de milieu interplanétaire. Le cycle solaire de onze ans et les fréquentes éruptions solaires et éjections de masse coronale perturbent l’héliosphère et créent un climat spatial. La rotation du champ magnétique solaire agit sur le milieu interplanétaire pour créer la couche de courant héliosphérique, la plus grande structure du Système solaire. Le champ magnétiqueLe Système solaire interne désigne traditionnellement la région située entre le Soleil et la ceinture d’astéroïdes. Composés principalement de silicates et de métaux, les objets du Système solaire interne orbitent près du Soleil : le rayon de la région tout entière est plus petit que la distance entre Jupiter et Saturne.Très récemment des nuages de poussières intramercuriens ont été détectés entre le Soleil et Mercure. DesLes quatre planètes internes possèdent une composition dense et rocheuse, peu ou pas de satellites naturels et aucun système d’anneaux. De taille modeste (la plus grande de ces planètes étant la Terre dont le diamètre est de ), elles sont composées en grande partie de minéraux à point de fusion élevé, tels les silicates qui forment leur croûte solide et leur manteau semi-liquide, et de métaux comme le fer et le nickel qui composent leur noyau. Trois des quatre planètes (Vénus, la Terre et Mars) ont une atmosphère substantielle ; toutes présentent des cratères d’impact et des caractéristiques tectoniques de surface comme des rifts et des volcans.Les astéroïdes sont principalement de petits corps du Système solaire composés de roches et de minéraux métalliques non volatils. La ceinture d'astéroïdes occupe une orbite située entre Mars et Jupiter, à une distance comprise entre 2,3 et 3,3 UA du Soleil. On pense qu'il s'agit de restes du Système solaire en formation qui n'ont pas pu s'accréter en un corps plus gros à cause des interférences gravitationnelles de Jupiter. Les astéroïdes varient en taille, depuis plusieurs centaines de kilomètres à des poussières microscopiques. Tous les astéroïdes, sauf le plus grand, Cérès, sont considérés comme des petits corps, bien que certains tels Vesta ou Hygie pourraient être reclassés comme planètes naines s'il est démontré qu'ils ont atteint un équilibre hydrostatique. La ceinture d'astéroïdes contient des dizaines de milliers, éventuellement des millions, d'objets de plus d'un kilomètre de diamètre. Malgré ceci, la masse totale de la ceinture ne dépasse probablement pas un millième de celle de la Terre. La ceinture est très peu densément peuplée ; les sondes spatiales l'ont traversée régulièrement sans incident. Les astéroïdes d'un diamètre compris entre 10 et 10 m sont appelés météoroïdes.Au-delà de la ceinture d'astéroïdes s'étend une région dominée par les géantes gazeuses. De nombreuses comètes à courte période, y compris les centaures, y résident également. La zone ne possède pas de nom traditionnel correctement défini. Il est fait souvent mention du Système solaire externe, par opposition au Système solaire interne, mais le terme a récemment commencé à être utilisé exclusivement pour la zone située après l'orbite de Neptune. Les objets solides de cette région sont composés d'une plus grande proportion de « glaces » (eau, ammoniac, méthane) que leurs correspondants du Système solaire interne.Les quatre planètes externes sont des géantes gazeuses qui regroupent 99 % de la masse qui orbite autour du Soleil. L'atmosphère de Jupiter et Saturne est principalement constituée d'hydrogène et d'hélium ; celle d'Uranus et de Neptune contient un plus grand pourcentage de glaces. Il a été suggéré qu'elles appartiennent à une catégorie distincte, les « géantes glacées ». Les quatre géantes gazeuses possèdent des systèmes d'anneaux, mais seuls ceux de Saturne peuvent être facilement observés depuis la Terre. En outre, le nombre de leurs satellites naturels est élevé voire très élevé (On en a détecté plus de soixante autour de Jupiter et de Saturne).Les comètes sont de petits corps célestes du Système solaire, généralement de quelques kilomètres de diamètre, principalement composés de glaces volatiles. Elles possèdent des orbites hautement excentriques, avec un périhélie souvent situé dans le Système solaire interne et un aphélie au-delà de Pluton. Lorsqu'une comète entre dans le Système solaire interne, la proximité du Soleil provoque la sublimation et l'ionisation de sa surface, créant une queue : une longue traînée de gaz et de poussière. Les comètes à courte période (comme la comète de Halley) parcourent leur orbite en moins de 200 ans et proviendraient de la ceinture de Kuiper ; les comètes à longue période (comme la comète Hale-Bopp) ont une périodicité de plusieurs milliers d'années et tiendraient leur origine du nuage d'Oort. D'autres enfin ont une trajectoire hyperbolique et proviendraient de l'extérieur du Système solaire, mais la détermination de leur orbite est difficile. Les vieilles comètes qui ont perdu la plupart de leurs composés volatils sont souvent considérées comme des astéroïdes.Les astéroïdes troyens sont deux groupes d'astéroïdes situés aux points de Lagrange L ou L de Jupiter (des zones gravitationnellement stables en avant et en arrière de son orbite). Neptune et Mars sont également accompagnés par quelques astéroïdes troyens.La zone au-delà de Neptune, souvent appelée région transneptunienne, est toujours largement inexplorée. Il semble qu'elle consiste essentiellement en de petits corps (le plus grand ayant le cinquième du diamètre de la Terre, et une masse bien inférieure à celle de la Lune), composés de roche et de glace.La ceinture de Kuiper, la principale structure de la région, est un grand anneau de débris similaire à la ceinture d'astéroïdes, mais composée principalement de glace. La première partie de la ceinture s'étend entre 30 et 50 UA du Soleil et s'arrête à la « falaise de Kuiper », la seconde partie va au-delà (100 UA voire plus). On pense que la région est la source des comètes de courte période. Elle est principalement composée de petits corps, mais plusieurs des plus gros objets, comme Quaoar, Varuna, ou Orcus, pourraient être reclassifiés comme planètes naines. OnLes objets épars s'étendent bien au-delà de la ceinture de Kuiper. On pense qu'ils proviennent de cette ceinture mais en ont été éjectés par l'influence gravitationnelle de Neptune lors de sa formation. La plupart des objets épars possèdent un périhélie dans la ceinture de Kuiper et un aphélie pouvant atteindre 150 UA Soleil. De façon typique, leur orbite est fortement inclinée, souvent presque perpendiculaire à l'écliptique. Certains astronomes les considèrent comme d'autres éléments de la ceinture de Kuiper et les appellent d'ailleurs des « objets épars de la ceinture de Kuiper ».L'héliosphère est divisée en deux régions distinctes. Le vent solaire voyage à sa vitesse maximale jusqu'à environ 95 UA, trois fois la distance moyenne entre Pluton et le Soleil. Ensuite, le vent solaire entre en collision avec les vents opposés en provenance du milieu interstellaire. Il ralentit, se condense et subit des turbulences, formant une grande structure ovale appelée l'héliogaine qui ressemble et se comporte de façon assez similaire à la queue d'une comète, s'étendant encore sur 40 UA dans un sens et sur plusieurs foisLe nuage de Hills est une zone hypothétique, intermédiaire de la ceinture de Kuiper et du nuage d'Oort. Le nuage d'Oort est une zone hypothétique regroupant jusqu'à un trillion d'objets glacés et dont on pense qu'il est la source des comètes à longue période. Il entourerait le Système solaire vers UA, peut-être même jusqu'à UA. On pense qu'il serait composé de comètes qui ont été éjectées du Système solaire interne après des interactions avec les géantes gazeuses. Les objets du nuage d'Oort se déplacent très lentement et peuvent être affectés par des évènements peu fréquents comme des collisions, les effets gravitationnels d'une étoile proche ou une marée galactique.La limite entre le Système solaire et l'espace interstellaire n'est pas précisément définie. On pense que le vent solaire laisse la place au milieu interstellaire à quatre fois la distance entre Neptune et le Soleil. Cependant, la sphère de Hill du Soleil, c'est-à-dire sa zone d'influence gravitationnelle, s'étendrait plus de fois plus loin, jusqu'à plus de 2 années-lumière (la moitié de la distance à l'étoile la plus proche) ; des objets ont été détectés jusqu'à () avec C/1992 J1 (Spacewatch). Certaines comètes ont une orbite calculée à une distance bien plus grande. C'est le cas de la comète C/2008 C1, qui d'après le site Jet Propulsion Laboratory de la NASA, affichait une distance de (près de ), ce qui la situerait en-dehors du Système solaire. Cependant, la marge d'erreur des paramètres orbitaux est très importante et sa distance maximale du Soleil est très incertaine. Malgré des découvertes récentes comme celle de Sedna, la zone située entre la ceinture de Kuiper et le nuage d'Oort est globalement inconnue. Par ailleurs, celle située entre le Soleil et Mercure fait toujours l'objet d'études.Les paramètres orbitaux des planètes et des planètes naines sont très stables à l'échelle des siècles et des milliers d'années, mais ils évoluent à des échelles de temps supérieures en raison de leurs interactions gravitationnelles. Les orbites tournent elles-mêmes autour du Soleil et divers paramètres oscillent. L'excentricité de l'orbite terrestre, par exemple, oscille avec une période de. L'évolution passée et future peut être calculée, mais pas au-delà d'une durée de en raison du caractère chaotique de la dynamique du Système solaire (les incertitudes du calcul sont multipliées par 10 tous les. On peut cependant retrouver des caractéristiques plus anciennes de l'orbite terrestre (et d'autres planètes) grâce à l'enregistrement géologique du climat, via les cycles de Milanković. On obtient notamment qu'il y a, la période des oscillations de l'excentricité orbitale terrestre était de seulement, contre aujourd'hui.Selon l'hypothèse la plus couramment acceptée, le Système solaire s'est formé à partir de la nébuleuse solaire, théorie proposée pour la première fois en 1755 par Emmanuel Kant et formulée indépendamment par Pierre-Simon de Laplace. Selon cette théorie, la nébuleuse (nuage de gaz et de poussière) qui a donné naissance au Soleil s'est formée il y a d'années par effondrement gravitationnel. Ce nuage était large de plusieurs années-lumière et a probablement donné naissance à plusieurs étoiles. Les études de météorites révèlent des traces d'éléments qui ne sont produits qu'au cœur d'explosions d'étoiles très grandes, indiquant que le Soleil s'est formé à l'intérieur d'un amas d'étoiles et à proximité d'un certain nombre de supernovas. L'onde de choc de ces supernovas a peut-être provoqué la formation du SoleilLa chaleur dégagée par le Soleil augmente au fil du temps. On peut extrapoler qu'à très long terme (plusieurs centaines de millions d'années) elle atteindra un niveau tel que la vie sera impossible sur Terre. Dans plus de cinq milliards d'années, le Soleil aura épuisé ses réserves d'hydrogène, qui se seront transformées en hélium, et changera de structure. Son noyau se contractera mais l'étoile entière deviendra beaucoup plus volumineuse. Il devrait se transformer en géante rouge, 100 fois plus grande qu'à l'heure actuelle. Les planètes les plus proches,Le Système solaire est situé dans la Voie lactée, une galaxie spirale barrée d'un diamètre d'environ contenant 200 milliards d'étoiles. Le Soleil réside dans l'un des bras spiraux externes de la galaxie, le bras d'Orion, à entre et années-lumière du centre galactique. Il y évolue à environ par seconde et effectue une révolution en 225 à 250 millions d'années, une année galactique. La situation du Système solaire dans la galaxie est probablement un facteur de l'évolution de la vie sur Terre. Son orbite est quasiment circulaire et est parcourue à peu près à la même vitesse que la rotation des bras spiraux, ce qui signifie qu'il ne les traverse que rarement. Les bras spiraux hébergeant nettement plus de supernovas potentiellement dangereuses, cette disposition a permis à la Terre de connaitre de longues périodes de stabilité interstellaire. Le Système solaire réside également en dehors des zones riches en étoiles autour du centre galactique. Près du centre, l'influence gravitationnelle des étoiles proches perturberait plus souvent le nuage d'Oort et propulserait plus de comètes vers le Système solaire interne, produisant des collisions aux conséquences potentiellement catastrophiques. Le rayonnement du centre galactique interférerait avec le développement de formes de vie complexes. Même à l'endroit actuel du Système solaire, certains scientifiques ont émis l'hypothèse que des supernovas récentes ont affecté la vie dans les derniers ans en émettant des morceaux de cœur stellaire vers le Soleil sous forme de poussières radioactives ou de corps ressemblant à des comètes.Le voisinage immédiat du Système solaire est connu sous le nom de nuage interstellaire local, une zone relativement dense à l'intérieur d'une région qui l'est moins, la Bulle locale. Cette bulle est une cavité du milieu interstellaire, en forme de sablier d'environ 300 années-lumière de large. La bulle contient du plasma à haute température de façon très diluée, ce qui suggère qu'elle est le produit de plusieurs supernovae récentes. On compte relativement peu d'étoiles distantes de moins de 10 années-lumière du Soleil. Le système le plus proche est celui d'Alpha Centauri, un système triple distant de 4,4 années-lumière. Alpha Centauri A et B sont deux étoiles proches ressemblant au Soleil, Alpha Centauri C (ou Proxima Centauri) est une naine rouge orbitant la paire à 0,2 année-lumière d'elle. On trouve ensuite les naines rouges de l'étoile de BarnardLe concept de Système solaire n'existait pas de façon répandue avant une époque récente. En règle générale, la Terre était perçue comme stationnaire au centre de l'Univers et souvent de nature intrinsèquement différente à celui-ci. Un cosmos héliocentrique fut cependant postulé à plusieurs reprises, par exemple par le philosophe grec Aristarque de Samos, le mathématicien et astronome indien Aryabhata ou l'astronome polonais Nicolas Copernic. Néanmoins, les avancées conceptuelles du, conduites par Galileo Galilei, Johannes Kepler et Isaac Newton, popularisèrent l'idéeLes premières observations du Système solaire en tant que tel furent réalisées à partir de la mise au point de la lunette astronomique, puis du télescope, par les astronomes. Galilée fut parmi les premiers à découvrir des détails physiques sur d'autres corps : il observa que la Lune était couverte de cratères, que le Soleil possédait des taches et que quatre satellites orbitaient autour de Jupiter. Christian Huygens poursuivit les découvertes de Galilée en découvrant Titan, le satellite de Saturne, et la forme des anneaux de cette planète. Jean-Dominique Cassini découvrit ensuite quatre autres lunes de Saturne, la division de Cassini dans ses anneaux et la grande tache rouge sur Jupiter. Edmond Halley réalisa en 1705 que les apparitions répétées d'une comète concernaient le même objet, revenant régulièrement tous les 75 à 76 ans. Ce fut la première preuve qu'autre chose que les planètes orbitait autour du Soleil. En 1781, William Herschel observa ce qu'il pensa être une nouvelle comète, mais dont l'orbite révéla qu'il s'agissait d'une nouvelle planète, Uranus.Depuis le début de l'ère spatiale, de nombreuses missions d'exploration par sondes spatiales ont été mises en œuvre. Toutes les planètes du Système solaire ont été visitées à divers degrés par des sondes robotisées : au minimum, des photographies en furent prises, et dans certains cas des atterrisseurs ont effectué des tests sur les sols et les atmosphères. Le premier objet humain lancé dans l'espace fut le satellite soviétique "Spoutnik 1" en 1957, qui orbita la Terre pendant trois mois. La sonde américaine "Explorer 6", lancée en 1959, fut le premier satellite à renvoyer une image de la Terre prise de l'espace. La première sonde à voyager avec succès vers un autre corps fut "Luna 1", qui dépassa la Lune en 1959 ; à l'origine, elle devait la percuter, mais manqua sa cible, et devint le premier objet artificiel à entrer en orbite solaire. "Mariner 2" fut la première sonde à survoler une autre planète, Vénus, en 1962. Le premier survol réussi de Mars fut effectué par "Mariner 4" en 1964 ; Mercure fut approchée par "Mariner 10" en 1974. La première sonde à explorer les planètes externes fut "Pioneer 10", qui survola Jupiter en 1973. "Pioneer 11" visita Saturne en 1979. Les deux sondes "Voyager" réalisèrent un survol de toutes les géantes gazeuses à partir de leur lancement en 1977. Elles survolèrent Jupiter en 1979 et Saturne en 1980 et 1981. "Voyager 2" continua par un survol d'UranusL'exploration humaine du Système solaire est pour l'instant limitée aux environs immédiats de la Terre. Le premier être humain à avoir atteint l'espace (défini comme une altitude de plus de) et à orbiter la Terre fut le cosmonaute soviétique Youri Gagarine le 12 avril 1961. Le premier homme à marcher sur uneLe mouvement des objets de la ceinture de Kuiper pourrait être en réalité expliqué par l'influence d'une neuvième planète. En 2016, deux astronomes américains Mike Brown et Konstantin Batyguine, du California Institute of Technology, pensent avoir apporté les preuves de
|
Le Système solaire (avec majuscule), ou système solaire (sans majuscule), est le système planétaire auquel appartient la Terre. Il est composé d'une étoile, le Soleil, et des objets célestes gravitant autour de lui : les huit planètes confirmées et leurs 185 satellites naturels connus (appelés usuellement des « lunes »), les cinq planètes naines et leurs neuf satellites naturels connus et les milliards de petits corps (la grande majorité des astéroïdes et autres planètes mineures, les comètes, les poussières interplanétaires). Le système solaire fait partie de la galaxie appelée Voie lactée. Il est situé à du centre galactique et effectue une révolution en d'années.
|
xwikis
|
Au le nom désigne à l'origine une partie seulement de ce qu'est maintenant l'Italie du Sud. Selon Antiochos de Syracuse, c'est la partie du sud de la péninsule (Bruttium), l'actuelle région italienne de la Calabre habitée par les "Italos" (et plus précisément l'isthme de Catanzaro). Au, l'historiographe grec Polybe appelle Italie le territoire compris entre le détroit de Messine et les Apennins septentrionaux, bien que son contemporain romain Caton l'Ancien étende le concept territorial de la péninsule jusqu'à l'arc alpin. C'est sous le règne de l'Empereur Auguste () que leAvant le développement de Rome, l'Italie était composée de plusieurs cultures et civilisations, pour la plupart indo-européennes ("Italiotes" ou "italiques"), sur un substrat ligure du Néolithique. Sur ces cultures qualifiées d'autochtones, empiétaient : Sous la République romaine, la limite nord de l'Italie s'arrête à laSelon la légende, la fondation de Rome est due à Romulus et Rémus au milieu du. La civilisation de Rome connut une première phase d'expansion sous le gouvernement des rois de Rome, qui sont également les fondateurs symboliques de nombreuses institutions romaines. L'unification de la péninsule est conduite à l'époque de la République. Après la victoire de Rome contre Carthage lors de la première guerre punique, les principales îles de la Méditerranée occidentale passèrent également sous le contrôle de Rome. Les deuxième et troisième guerres puniques lui assurèrent le contrôle de tout le pourtour du bassin occidental de la Méditerranée. Au, Rome domine une grande partie du bassin méditerranéen, mais après la mort de Jules César, le, la République sombre dans la troisième guerre civile de son histoire. Son successeur, fils adoptif par testament et petit-neveu, Octave, futur empereur Auguste, d'abord fort mal préparé à mener sa conquête du pouvoir arrive à éliminer progressivement ses rivaux : en -42, une coalition des forces octaviennes et antoniennes détruisent les forces des tyrannicides dans la plaine de Philippes en Macédoine, en -36 il soumet Sextus Pompée alors maître des îles tyrrhéniennes et se débarrasse de son ancien collègue triumvir Lépide. Enfin en -31 il affronte et défait la flotte de Marc Antoine et à la bataille d'Actium, ce qui fait de lui le maître de l'empire. À partir de, faisant mine de restaurer la République dans son fonctionnement traditionnel, il la transforme progressivement en Empire (son "règne" est une période nommée par les historiens le Principat) etL'Italie médiévale est le théâtre d'une grande rivalité entre les villes du nord de la Péninsule, qui deviennent des centres textiles et des centres financiers et monétaires pour certaines d'entre elles. Florence, Gênes, Venise créent des monnaies en or, en créant chacune une pièce fabriquée dans ce métal, plusLa Renaissance italienne, qui culmine au, prend racine en Toscane (Italie Centrale), concentrée autour de Florence et Sienne, puis a des répercussions importantes à Venise puis s'installe à Rome, où fleurit une architecture à la mode antique. La péninsule se distingue par les œuvres littéraires de Pétrarque, Castiglione et Machiavel ou les travaux d'artistes comme Michel-Ange etDu, c'est la Renaissance en Italie avec des artistes tels que Michel-Ange ou Raphaël, et des scientifiques comme Galilée qui font littéralement l'art et la science, d'abord dans la péninsule puis dans l'Europe tout entière. À l'époque de Léonard de Vinci, l'Italie reste très morcelée sur le plan politique. Elle est constituée d'une mosaïque de principautés (duchés, cités-États...). Les princes italiens organisent chacun leur propre cour et se livrent souvent à des guerres sanglantes avec de multiples interventions extérieures, notamment de la France et de l'Espagne (guerres d'Italie). Les guerres incessantes du dues aux ingérencesBien qu'ayant adhéré secrètement à la Triple-Alliance en 1882, l'Italie reste neutre au début de la Première Guerre mondiale, puis décide de s'allier à la Triple-Entente. Le, l'Italie déclare la guerre à l'Autriche-Hongrie. La guerre s'avère plus difficile que prévu : les armées autrichiennes et italiennes ne parviennent pas à prévaloir l'une sur l'autre. En 1917, après la défaite russe, les Allemands concentrent sept divisions sur le front italien pour aider leurs alliés autrichiens. Dans la bataille qui suit, à Caporetto, les Italiens subissent une très grave défaite et reculent de plus de sur la ligne du Piave. En, s'engage la bataille du Piave au cours de laquelle, les Autrichiens essayent sans succès de briser la ligne nord du front italien. LeLe, un référendum met fin à la monarchie, la République italienne est proclamée et la famille royale est exilée. L'Italie s'installe alors dans un régime parlementaire, dominé par la Démocratie chrétienne et des partis laïques antifascistes, qui favorise, malgré de fréquentes crises ministérielles, à la fois la reconnaissance internationale, l'intégration européenne et un développement économique sans précédent. Vedette de la bourse italienne milanaise, Fiat est le symbole du miracle italien, dont la période va des élections d' aux Jeux olympiques de Rome en 1960 : en 1955, cinq ans après. Le fabricant de scooters Vespa n'est pas en reste. Entre 1945 et 1965, il s'en vendra. Un Parti communiste italien de plus en plus fort, et relativement modéré, empêche toute alternance électorale jusqu'en 1976, moment du mais aussi des années de plomb, marquées par le terrorisme d'extrême gauche et d'extrême droite. Peu à peu, la démocratie chrétienne, tout en restant incontournable, laisse une partie du pouvoir à desLa Constitution italienne date de 1947 et a établi la Première République, (). Elle consacre le principe de la séparation des pouvoirs exécutif, législatif et judiciaire (respectivement confiés au Gouvernement, au Parlement et à la Justice) et fonde un régime parlementaire bicaméral : Le Parlement est élu au suffrage universel. La loi électorale a été substantiellement modifiée à la suite d'un référendum abrogatif en 1993 pour introduire une part de scrutin majoritaire (75 %) afin d'éviter l'instabilité gouvernementale chronique du début de la République due, entre autres, à un multipartisme excessif et à l'absence d'alternance. Elle a été à nouveau modifiée à la fin de l'année 2005, pour rétablir un scrutin proportionnel de listes bloquées, de façon à réduire l'échec probable de la Maison des libertés. Critiquée, y compris par le ministre qui en a présenté le projet, elle est qualifiée de "Porcellum" (de "porcata", une cochonnerie) contrairement à la précédente, le "Mattarellum" (en réalité, la "loi Mattarella", du nom de son rapporteur). Une certaine présidentialisation de la vie politique italienne s'est opérée dans les années 1990 et 2000, incarné par la rivalité entre deux personnalités autour desquelles ont convergé plusieurs partis réunis en vastes coalitions, aboutissant à la formation du premier véritable bipartisme italien : Silvio Berlusconi qui crée un parti personnel, "Forza Italia", en 1994 qui réunit autour de lui une coalition successivement appelée Pôle des libertés - Pôle du bon gouvernement ("Polo delle Libertà" - "Polo del Buon Governo", au pouvoir de mai à ), Pôle pour les libertés ("Polo per le Libertà", principale formation d'opposition de 1996 à 2000), Maison des libertés ("Casa delle libertà", au pouvoir de 2001 à 2006, principale force d'opposition de 2006 à 2007) et Peuple de la liberté ("Popolo della Libertà", transformé en parti politique en 2009, au pouvoir de 2008 à 2011) au centre droit ; Romano Prodi qui forme successivement les coalitions de L'Olivier ("L'Ulivo", au pouvoir de 1996 à 2001, principale force d'opposition de 2001 à 2006) puis de L'Union ("L'Unione", qui se transforme en en parti politique appelé Parti démocrate, au pouvoir de 2006 à 2008) au centre gauche. Le président de la République italienne ("Presidente della Repubblica Italiana") est le chef de l'État, élu par les députés et les sénateurs ainsi que des représentants de régions pour un mandat de sept ans. Bien qu'ayant un rôle considéré comme symbolique, il est le garant de la Constitution, et pour cela, dispose d'une aura reconnue par la classe politique. Il nomme le président du Conseil des ministres et les ministres du gouvernement ; il dispose, également, du droit de dissolution du Parlement. S'il ne peut assumer ses fonctions, c'est le président du Sénat qui devient président de la République par intérim, jusqu'à ce qu'un successeur soit trouvé au chef de l'État sortant. Il s'agit depuis le de Sergio Mattarella, désormais sans étiquette après avoir été membre du Parti démocrate. Le gouvernement de la République est présidé par le président du Conseil des ministres ("Presidente del Consiglio dei ministri") et constitué des ministres et secrétaires d'État, lesquels sont responsables devant le Parlement. Une réforme avortée de la Constitution, adoptée par le Parlement en 2005, aurait dû aboutir à la création d'une dans laquelle l'organisation territoriale aurait été de type fédéral et où le Premier ministre (nouveau nom donné au chef du Gouvernement) aurait eu des pouvoirs très étendus tandis que la Chambre des députés n'aurait plus compté que (-100)) et le Sénat de la République (-50). Les sénateurs auraientL'Italie est une péninsule de l'Europe du Sud située au centre du bassin méditerranéen. D'une superficie de, elle est longue de du nord au sud et couvre à 92 % la superficie de la région géographique italienne. Ouverte sur la mer Adriatique au nord-est, la mer Tyrrhénienne au sud-ouest, la mer Ionienne au sud-est et la mer de Ligurie à l'ouest-nord-ouest, elle englobe de nombreuses îles dont les principales sont la Sicile et la Sardaigne. Au sud, l'Italie est séparée de l'Afrique de par la Tunisie par le détroit de Sicile et au nord les Alpes constituent une frontière naturelle avec le reste de l'Europe. Dans le sud de l'Italie, on trouve les derniers volcans en activité d'Europe (si on exclut l'Islande), le Vésuve près de Naples, l'Etna en Sicile et le Stromboli dans les îles Éoliennes. Le Centre de la péninsule et le Nord du pays sont occupés par des chaînes de montagnes, les Apennins et la face interne de l'arc alpin. Ces zones sont un réservoir d'eau très important et donc un grand fournisseur d'énergie hydroélectrique. Pour faciliter les liaisons nationales et internationales, les autorités ont fait de gros efforts d'aménagement. Huit mille kilomètres d'autoroute ont été construits. L'équipement des cols et le percement de grands tunnels comme ceux du Mont-Blanc ou du Fréjus relient l'Italie au reste de l'Europe. Au nord de l'Italie la plaine du Pô est une riche zone agricole. Le méthane présent dans son sous-sol est la seule source d'énergie fossile présente en Italie. Les autres plaines sont situées sur le littoral. Longtemps marécageuses, elles ont été drainées et amendées pour permettre le développement de l'agriculture et du tourisme. La botte italienne connaît un climat méditerranéen, avec des nuances. Plus on va vers le sud, plus les étés sont longs et secs. Dans le Sud des Pouilles et de la Calabre, la sécheresse estivale est supérieure à cinq mois. Dans les Apennins, les hivers sont plus froids. Le nord de l'Italie connaît un climat de type subtropical humide avec des hivers plutôt froids mais des étés très chauds et humides et des précipitations plus abondantes que dans la péninsule. Les montagnes les plus hautes sont le mont Blanc, le mont Rose, le Cervin et le Grand Paradis. Les fleuves et rivières les plus importants sont : le Pô, le Tanaro, le Tessin, l'Adige, l'Adda, l'Arno, le Tibre, en italien Tevere. Les lacs les plus importants sont : le lac Majeur, le lac de Côme, le lac de Garde et le lac Trasimène. Le point culminant est le mont Blanc () ou le mont Blanc de Courmayeur () selon le regard que l'on porte au litige entre l'Italie et la France sur la frontière du mont Blanc. Madesimo est la commune italienne la plus éloignée de la mer, soit par la route jusqu'à Gênes.L'organisation territoriale deEn 2018, l'Italie comptait. La densité est de. Longtemps réservoir démographique de l'Europe et de l'Amérique, elle est devenue une terre d'immigration. En effet l'indice de fécondité est particulièrement bas depuis de nombreuses années. Il était en 2008 de par femme. Le taux d'accroissement naturel est négatif. Le vieillissement de la population commence déjà à grever le budget social (financement des retraites). La longévité des Italiens est cependant la plus forte d'Europe et une des plus élevées au monde : les hommes y vivent en moyenne tandis que les femmes vivent. En, l'ISTAT publie une étude intitulée "Il futuro demografico del Paese" (le futur démographique du pays) dont il ressort une forte chute prévisible de la population italienne qui va passer des plus de actuels à en 2025 et en 2065. Avec un pic négatif jusqu'en 2045, quand seulement 54,3 % de la population sera en âge de travailler. Les prévisions démontrent toutefois une Italie toujours plus déséquilibrée, avec un Nord qui croît et attire les migrants et un Sud qui se dépeuple et où ne restent que les vieux. Le nombre d'étrangersL'Italie est membre du G7. Elle est la huitième puissance économique du monde en 2018 et est avec la France l'un des plus grands exportateurs mondiaux de produits de luxe. L'économie italienne a des dimensions européennes : produits agricoles (huile, fruits, vinaigre balsamique, fromages, pâtes), produits industriels (voitures), vêtements (deuxième rang mondial), services (tourisme : avec de touristes l'Italie se classe comme le quatrième pays le plus visité). L'Italie est la quatrième puissance européenne, son produit brut étant de de dollars (USD). Les régions du nord, notamment la Lombardie et l'Émilie-Romagne, ont un des PIB par habitant les plus élevés de l'Union européenne ( par habitant en 2004) et comparable à celui de l'Île-de-France ou de la région de Londres. En revanche, les régions méridionales accusent toujours un retard économique notable par rapport aux régions du nord. Le taux de chômage en 2007 était de 5,6 % mais varie selon les régions, notamment entre le nord (3 %) le centre (6 %) et le sud (15 %) du pays. En décembre 2017, le chômage était à 10,8 %. La pension des retraités italiens se calcule depuis 1996 au prorata des cotisations versées tout au long de la carrière, et indexée sur l'espérance de vie. Depuis 2001 et à la suite de la crise financière de 2008, les pensions ont été revues à la baisse et l'âge donnant droit à la retraite a été repoussé à. L'Italie a une longue tradition de fabrication de qualité et de dynamisme commercial (les premières banques furent Italiennes, la puissance des cités-État médiévales reposaient déjà sur leur puissance commerciale). Encore aujourd'hui, son économie est tirée par le dynamisme entrepreneurial, que ce soit grâce aux grands groupes industriels comme Fiat (qui connaît aujourd'hui un renouveau), Olivetti, Fincantieri, Prysmian, Saipem ou Benetton, à des sociétés d'État largement privatisées comme l'Eni, Enel, Leonardo et à l'existence d'un dense réseau de PME constitué de sous-traitants ou de petites structures tournées vers l'excellence, la qualité, le design et constituant la force d'exportation de l'économie italienne. Les grands noms du luxe italien comme Ferrari, Maserati dans l'automobile, Gucci, Dolce & Gabbana, Armani, Alberta Ferretti, Prada, Max Mara dans la mode et Ferretti, Azimut et Riva dans le yachting font de l'Italie une référence mondiale dans le domaine de l'élégance et design. Parallèlement, il existe une économie souterraine surtout présente dans le sud de l'Italie. Le travail au noir représenterait 20 % du PIB. Les grandes organisations criminelles comme la "mafia" sicilienne, la "camorra" napolitaine et la "'Ndrangheta" calabraise pratiquent l'extorsion de fonds, le trafic de stupéfiants, de cigarettes, d'armes, les paris clandestins et l'usure. La plupart des entreprises ainsi que les réseaux de PME dynamiques sont implantés dans le centre et le nord ou dans les régions méridionales. Le triangle industriel Milan-Gênes-Turin fait partie de la mégalopole européenne. Il en représente la partie sud. Avec l'Émilie-Romagne et la Vénétie, il compose le cœur industriel de l'Italie, fortement ancré vers l'Europe et les exportations. On y trouve des industries puissantes comme Fiat et l'Eni mais aussi des PME dynamiques. Les PME de la troisième Italie sont elles aussi fortement tournées vers l'exportation. Cette partie de l'Italie est beaucoup plus riche que le Sud et ne compte que 2 % de chômage alors que le sud atteint les 15 %. Entre les deux, il existe une région que les géographes ont appelé la troisième Italie. Elle base son développement économique sur des réseaux de PME dynamiques dans des secteurs diversifiés comme le textile, le cuir, les industries métalliques et mécaniques. L'Italie est le deuxième fabricant et exportateur de machines-outils après l'Allemagne. Ce pays est le premier partenaire économique de l'Italie, le suivant étant la France. Concernant les échanges commerciaux, 60 % sont effectués en Europe. L'Italie dispose d'infrastructures de communication vers l'Europe (lignes ferroviaires, autoroutes, cols aménagés) ainsi qu'une ouverture sur l'Europe Centrale et de l'Est grâce à la Slovénie et l'Autriche. L'allègement des prélèvements obligatoires, l'assouplissement du marché du travail, la réforme du système de retraites, avancent lentement du fait de l'opposition des syndicats qui craignent une précarisation des conditions de travail des employés et un appauvrissement des futurs retraités. Le gouvernement de Silvio Berlusconi dispose de plus de latitude pour engager ces transformations car il ne repose pas sur une coalition trop hétéroclite. Toutefois, l'Italie ayant une situation financière (dette publique) délicate, ses marges de manœuvres sont réduites. En 1991, la dette publique dépassait les 100 % du PIB. En 2011, cette proportion a atteint 120 %, puis 135 % en 2019. En 2019 la production industrielle est en baisse et le chômage en hausse. Selon la Commission européenne et le FMI, la croissance prévue pour 2019 est proche de zéro. Pour l'OCDE, elle serait même négative. Le déficit (2, 4 % en 2019) est dû à la charge de la dette (3,8 % du PIB). Si l'on exclut cette dernière, les recettes fiscales dépassent les dépenses publiques de 1,4 % du PIB. Le ressentiment est élevé en Italie à l'égard de l'Union européenne. Depuis l'adoption de d'euro, le revenu par habitant de l'Italie n'a quasiment pas augmenté (le salaire moyen brut est passé, à prix constants, de en 2001 à en 2017). En 2018, le gouvernement promet des privatisations massives à la Commission européenne. Les actifs cessibles devraient être essentiellement immobiliers, les gouvernements précédents ayant déjà privatisé la plupart des entreprises publiques. Une amnistie fiscale, mesure défendue par la Ligue du Nord, est adoptée afin d'éponger les contentieux dans la limite de. Une baisse de la fiscalité pour le petit patronat et les travailleurs indépendants est également décidée. Elle devrait par la suite concerner l'ensemble de l'impôt sur les sociétés, selon un mécanisme de "flat tax" (système d'imposition à taux unique) tout en avantageant principalement les revenus les plus élevés.L'Italie est située au Centre du bassin méditerranéen. Sa position géographique centrale a permis à ses cités de jouer un rôle majeur dans le commerce entre l'Orient et l'Occident au Moyen Âge. La Méditerranée est traversée par des routes maritimes mondiales via le canal de Suez. Le port de Gioia Tauro est devenu le premier port de conteneurs de la Méditerranée bien que mal desservi et ne disposant pas de plateforme logistique adéquate ; il reste donc un port de transbordement. L'Italie cherche à renforcer ses liaisons avec l'UE : l'aéroport international de Milan Malpensa, achevé en 2001, permet de relier plus facilement le cœur économique de l'Italie au reste du monde, intention relayée par les projets ferroviaires Berlin-Palerme et Lyon-Turin-Budapest qui accentueront le rôle central de l'Italie du Nord. On note aussi un réseau de ports très efficace, aussi bien dans le trafic de marchandises que dans le trafic de passagers/touristes. Malgré un arc alpin très marquant, les flux économiques entre le nord de l'Europe et l'Italie ne sont pas limités grâce aux bonnes relations entretenues avec ses voisins et les nombreuses coopérations.Le pays compte en tout internationaux. Rome avec de passagers par an est le hub le plus important du pays, deux aéroports se partagentIl y a d'autoroute parcourant le pays du nord au sud (y compris la Sicile). La plupart de ces autoroutes sont payantes, sauf, par exemple, reliant Naples à Reggio Di Calabria. La première autoroute mise en service au monde fût celle reliant Milan à Varese et ne comptait qu'une seule voie dans chaqueLe TAV, équivalent du TGV français, utilise le réseau AV/AC italien (Alta Velocità/Alta Capacità) qui est composé de deux axes principaux : l'axe Turin-Milan-Verone-Venise et l'axeL'unité nationale italienne a été tardive, assez peu d'Italiens maîtrisaient la langue italienne il y a encore cinquante ans. Elle s'est opérée sur fond d'une réelle diversité culturelle et linguistique qui est encore sensible aujourd'hui. L'italien doit composer avec les langues minoritaires et dialectes locaux : en 2002, si 6,7 % de la population parlent comme langue maternelle une autre langue, le taux des dialectophones monte à 52 % si on englobe ceux qui l'utilisent alternativement avec l'italien. Au niveau local, les langues suivantes sont co-officielles ou protégées : frioulan (ou ladin oriental), ladin dolomitique (ou ladin occidental), allemand, slovène, occitan, français, francoprovençal, albanais, grec, sarde, catalan et croate. Outre l'italien, les langues les plus parlées sont : anglais 29 %, français 14 %, langues régionales 6 %.Le français est une langue co-officielle dans la région de la Vallée d'Aoste. Il est compris par environ 19 % de la population italienne. Ce pourcentage fait de l'Italie, avec presque de personnes, le deuxième foyer officieux de la francophonie en Europe, juste après la France. Par contre, même s'il occupe une place qu'il partage avec plusieurs autres langues, aucune autre langue n'a le même impact que le français en Italie. Tout d'abord, il s'agit d'un héritage des zones frontalières que l'Italie partage avec la France. De plus, il s'agit aussi d'un métissage qui découle des intrusions françaises sur le territoire italien à différents moments de l'histoire. À cela, il faut ajouter l'influence culturelle générale de la France, séculaire, qui remonte jusqu'au Moyen Âge, et a aussi contribué au développement du français en Italie. Cette situation se traduit par : Enfin, l'importance particulière du français en Italie, grâce aux communes origines linguistiques latines, qui le rendent plus compréhensible que toute autre langue étrangère, est aussi palpable à la présence d'une littérature franco-italienne riche, diversifiée et historique.La plus grande association du culte en Italie est l'Église catholique romaine (qui a son siège mondial dans la Basilique Saint-Pierre à Rome), suivie deUn décret de 1985 fixe les fêtes religieuses (catholiques), en application de l'accordLa littérature italienne naît avec les œuvres poétiques écrites en diverses langues régionales de l'Italie, issues du latin, et qui se développent aux environs du, mais c'est seulement au que débute la tradition littéraire en langue italienne, c'est-à-dire dans le dialecte toscan, de Florence, Pise et Sienne, qui s'est imposé et enrichi, sous l'influence et les apports romans, principalement de la langue d'oc et de la langue d'oïl, même si certains considèrent le "Cantique des créatures" de saint François d'Assise, écrit dans le dialecte italien de l'OmbrieL'histoire du cinéma italien a commencé quelques mois après que les frères Lumière eurent présenté au public leur appareil original, le Caméra Cinématographe, le à Paris : ce sont eux qui l'introduisent en Italie au cours de l'année 1896. À la fin de l'après-guerre, le cinéma italien était l'un des cinémas nationaux les plus influents et reconnus au niveau mondial, avec des mouvements très forts comme celui du néoréalisme. Certains remarquables réalisateurs italiens sont Vittorio De Sica, Federico Fellini, Sergio Leone,L'histoire de la musique écrite en Italie remonte au avec des pièces composées pour le luth par Francesco Canova da Milano. La période de la Renaissance voit s'imposer le compositeur Palestrina (1525-1594) qui par ses messes et motets renouvelle l'art de la polyphonie religieuse. Gregorio Allegri (1582-1652) quant à lui compose de nombreux motets et son célèbre Miserere à neuf voix. La période classique du voit la naissance de l'opéra en Italie avec les chanteurs-compositeurs Jacopo Peri et Giulio Caccini qui composent en 1597-1600 deux drames en musique "Dafné" et Euridice. Premier maître de l'opéra italien Claudio Monteverdi (1567-1643) compose l'Orfeo en 1607 et "Ariane" en 1608. Pour la musique instrumentale Arcangelo Corelli (1653-1713)La cuisine italienne se caractérise par la variété des produits utilisés et des saveurs ainsi que par une grande diversité régionale. Parmi les plats les plus célèbres on peut citer laLe sport le plus populaire en Italie est le football, dit "calcio" en italien. L'équipe nationale a remporté la Coupe du monde de football à quatre reprises, soit autant que l'Allemagne et derrière le Brésil au niveau mondial. Les autres sports populaires sont le cyclisme, l'escrime, le volley-ball, le basket-ball, le, la pêche sportive, l'athlétisme, le tennis, le sport motocycliste et le sport équestre. En Formule 1, l'Italie accueille le Grand Prix automobileCette section présente des œuvres ne se déroulant pas que dans une seule ville italienne, mais plutôt dans plusieurs lieux du pays.Quand on pense aux récits de voyage, on imagine réellement à des contrées lointaines dans lesquels une bonne partie d'entre eux s'y déroulent. Pourtant, fait méconnu, l'Italie est un pays qui a beaucoup servi de décors à ces récits. Il semble que ce soit surtout sa voisine la France où les auteurs voyageurs aiment à décrire ce pays dans leurs écrits.L'Italie a pour codes :
|
L'Italie (en ), en forme longue la République italienne (en ), est un pays d'Europe du Sud correspondant physiquement à une partie continentale, une péninsule située au centre de la mer Méditerranée et une partie insulaire constituée par les deux plus grandes îles de cette mer, la Sicile et la Sardaigne, et beaucoup d'autres îles plus petites (hormis la Corse, française depuis 1769). Elle est rattachée au reste du continent par le massif des Alpes. Le territoire italien correspond approximativement à la région géographique homonyme.
|
xwikis
|
De la Renaissance au :La distance de Vénus au Soleil est comprise entre, avec une période orbitale de. Vénus est une planète tellurique, comme le sont également Mercure, la Terre et Mars. Elle possède un champ magnétique très faible et n'a aucun satellite naturel. Elle et Uranus sont les deux seules planètes du Système solaire dont la rotation est rétrograde. De plus, elle est la seule ayant une période de rotation supérieure à sa période de révolution. Vénus présente en outre la particularité d'être quasiment sphérique — son aplatissement peut être considéré comme nul — et de parcourir l'orbite la plus circulaire des planètes du Système solaire, avec une excentricité orbitale de 0,0068 (contre 0,0167 pour la Terre). Vénus est presque aussi grande que la Terre — son diamètre représente 95 % de celui de notre planète — et a une masse équivalente aux quatre cinquièmes de celle de la Terre. Sa surface est dissimulée sous d'épaisses couches de nuages très réfléchissants qui lui confèrent un albédo de Bond de 0,75 et une magnitude apparente dans le ciel pouvant atteindre -4,6, valeur dépassée uniquement par la Lune et le Soleil. Étant plus proche du Soleil que la Terre, elle présente des phases au même titre que la Lune et Mercure selon sa position relative par rapport au Soleil et à la Terre, son élongation ne dépassant jamais 47,8°. L'atmosphère de Vénus est la plus épaisse de celle de toutes les planètes telluriques, avec une pression au sol atteignant () au niveau de référence des altitudes vénusiennes. Cette atmosphère est composée d'environ 96,5 % de dioxyde de carbone et 3,5 % d'azote, avec de faibles concentrations de dioxyde de soufre et de divers autres gaz. Elle contient d'épaisses couches nuageuses opaques constituées de gouttelettes de dioxyde de soufre et d'acide sulfurique surmontées d'une brume de cristaux de glace d'eau qui donne à la planète son aspect laiteux lorsqu'on l'observe depuis l'espace. Ces nuages réfléchissent l'essentiel du rayonnement solaire, de sorte que la puissance solaire parvenant au sol sur Vénus représente moins de 45 % de celle reçue au sol sur Terre, et est même inférieure d'un quart à celle reçue à la surface de la planète Mars. L'atmosphère de Vénus est près de cent fois plus massive que celle de la Terre et possède une dynamique propre, indépendante de la planète elle-même, avec une super-rotation dans le sens rétrograde en quatre jours terrestres, ce qui correspond à une vitesse linéaire au sommet des nuages d'environ () par rapport au sol. Compte tenu de sa composition et de sa structure, cette atmosphère génère un très puissant effet de serre à l'origine des températures les plus élevées mesurées à la surface d'une planète du Système solaire : près de en moyenne à la surface — supérieures à celles de Mercure, pourtant plus proche encore du Soleil, où les températures culminent à — et ceci bien que l'atmosphère ne laisse passer que le quart de l'énergie solaire incidente. À cette pression () et à cette température (), le n'est plus un gaz, mais un fluide supercritique (intermédiaire entre gaz et liquide), d'une masse volumique voisine de. La topographie de Vénus présente peu de reliefs élevés, et consiste essentiellement en de vastes plaines "a priori" volcaniques géologiquement très jeunes — quelques centaines de millions d'années tout au plus. De très nombreux volcans ont été identifiés à sa surface — mais sans véritables coulées de lave, ce qui constitue une énigme — ainsi que des formations géologiques, parfois uniques dans le Système solaire telles que "coronae", arachnoïdes et "farra", attribuées à des manifestations atypiques de volcanisme. En l'absence de tectonique des plaques identifiée à la surface de la planète, on pense que Vénus évacue sa chaleur interne périodiquement lors d'éruptions volcaniques massives qui remodèlent entièrement sa surface, ce qui expliquerait que celle-ci soit si récente. Entre ces épisodes de volcanisme global, le refroidissement de la planète serait trop lent pour entretenir un gradient thermique suffisant dans la phase liquide du noyau pour générer un champ magnétique global par effet dynamo. Par ailleurs, des mesures d'émissivité à réalisées en ont suggéré une relative abondance des granites et autres roches felsiques sur les terrains les plus élevés — qui sont généralement les plus anciens — de la planète, ce qui impliquerait l'existence passée d'un océan global assorti d'un mécanisme de recyclage de l'eau dans le manteau susceptible d'avoir produit de telles roches. À l'instar de Mars, Vénus aurait ainsi peut-être connu, il y a plusieurs milliards d'années, des conditions tempérées permettant l'existence d'eau liquide en surface, eau aujourd'hui disparue — par évaporation puis dissociation photochimique dans la haute atmosphère — au point de faire de cette planète l'une des plus sèches du Système solaire.Dans la culture populaire, la planète Vénus est surnommée l’« étoile du berger » car elle peut être facilement visible dans le ciel du matin (à l'est), avant l'aurore, ou dans le ciel du soir (à l'ouest), après le crépuscule. Au XXe siècle, le terme « étoile » est bien évidemment impropre car il s'agit d'une planète, mais pour les Anciens, elle faisait partie des cinq astres dits « errants » (grec ancien πλανήτης, planêtês « errantes »). On lui attribua ce nom car les gardiens de troupeaux dans les temps anciens en tenaient compte pour aller dans les pâturages ou en revenir.Vénus est souvent décrite comme une « sœur jumelle » de la Terre en raison de ses caractéristiques globales très proches de celles de notre planète : son diamètre vaut 95 % de celui de la Terre, et sa masse un peu plus de 80 %. Néanmoins, si sa géologie est sans doute proche de celle de la Terre, les conditions qui règnent à sa surface diffèrent radicalement des conditions terrestres. Vénus est notamment la planète la plus chaude du Système solaire. Les phénomènes géologiques affectant la croûte vénusienne semblent également spécifiques à cette planète.L'atmosphère de Vénus est extrêmement dense. Elle se compose majoritairement de dioxyde de carbone (CO) et d'une faible quantité de diazote. Cette atmosphère est occupée par d'épais nuages de dioxyde de soufre. Ce mélange crée le plus fort effet de serre du Système solaire, permettant d'atteindre des températures de surface tournant autour des. La température de surface de Vénus est supérieure à celle de la face de Mercure exposée au soleil le plus longtemps (), bien que Vénus se situe à près de deux fois la distance Mercure-Soleil et ne reçoive donc qu'environ 25 % de l'irradiance solaire de Mercure. Il n'y a que très peu d'ozone présent dans l'atmosphère vénusienne et donc aucune stratosphère. L’atmosphère vénusienne peut se diviser sommairement en trois parties : la basse atmosphère, la couche nuageuse et la haute atmosphère.La basse atmosphère se situe entre d’altitude et est relativement transparente. La composition de la basse atmosphère est décrite dans le tableau ci-dessous. Le dioxyde de carbone y domine largement, le gaz secondaire étant l'azote. Tous les autres sont des constituants mineurs ( en tout).Il y a plusieurs couches de nuages situées entre et. Cette couche nuageuse opaque réfléchit la lumière solaire, ce qui explique la brillance de Vénus et empêche d'observer directement le sol vénusien depuis la Terre. La couche nuageuse présente notamment du dioxyde de soufre et de l’eau (à l’état solide comme gazeux) ainsi que de l’acide sulfurique sous forme de gouttelettes. Le dioxyde de carbone y domine toujours. Cette couche se subdivise en trois sous-couches :La haute atmosphère se situe entre d’altitude. Elle est principalement composée de dioxyde de carbone, qui y est majoritaire à plus de 96 %, le reste étant principalement du diazote (~3,5 %). Il s'y trouve aussi des traces de monoxyde de carbone. On y retrouve des nuages formés de gouttelettes d'acide sulfurique à.Vénus ayant un aplatissement nul, les altitudes y sont définies par rapport au rayon moyen volumétrique de la planète, qui vaut. C'est une planète au relief assez peu accidenté : les quatre cinquièmes de sa surface sont recouverts de plaines volcaniques à faible pente. La surface vénusienne est principalement occupée à hauteur de 70 % par de vastes plaines sans grand relief. Baptisées "planitiae" en géomorphologie planétaire, les principales d'entre elles ont reçu un nom dans le cadre de la nomenclature maintenue par l'UAI, comme Atalanta Planitia, Guinevere Planitia ou encore Lavinia Planitia.. Ces plaines, de nature "a priori" volcanique, se creusent par endroits jusqu'à sous le niveau moyen de la surface, au niveau de dépressions couvrant environ un cinquième de la surface de la planète. Les reliefs élevés couvrent environ le dixième de la surface de Vénus, sous forme de plateaux et de montagnes. Deux vastes régions élevées, très différentes l'une de l'autre et qui seraient en quelque sorte l'équivalent vénusien des continents terrestres, sont particulièrement remarquables par leurs dimensions et leur relative cohérence topographique : D'autres régions élevées, de moindre importance, existent également. C'est le cas d’Alpha Regio, une série de cuvettes, d'arêtes, et de plis qui s'agencent dans toutes les directions avec une altitude moyenne de ; ou encore de Beta Regio, remarquable puisqu'on y aurait trouvé de hautes formations volcaniques dont certains sommets, récents, dépasseraient d'altitude. Vénus possède également des structures planétaires rares, les couronnes. Ce sont d'énormes ravins circulaires entourant une sorte de plateau.Vénus ressemble à la Terre par sa taille ( de rayon contre pour la Terre) et par sa densité (5,26 contre 5,52). Plusieurs auteurs supposent que les deux planètes ont une structure interne comparable.La croûte silicatée, de d'épaisseur environ, serait plus épaisse que la croûte océanique terrestre (moyenne de ), mais plus fine que la croûte continentale terrestre (moyenne de ). La taille de la croûte vénusienne a été déduite des nombreux épanchements de lave constatés autour des cratères d'impact. Cette croûte ne représenterait que 0,34 % du rayon de la planète et les analyses faites par les différentes sondes Venera ont prouvé que le matériau extérieur de Vénus est semblable au granite et au basalte terrestre (roches riches en silice et ferromagnésiennes). Le système de plaques continentales y serait moins complexe que sur Terre : les roches plus plastiques absorbent fortement les effets de la dérive des continents. Ainsi, Vénus n'a pas de plaques tectoniques comme celles de la Terre. Cette différence fondamentale entre la géologie des deux planètes telluriques les plus ressemblantes peut être attribuée à leur évolution climatique divergente. En effet, le climat vénusien empêche l'eau de se conserver à la surface, desséchant irréversiblement les roches de la croûte. Or, l'eau interstitielle des roches joue un grand rôle dans la subduction sur Terre où elle est conservée dans ses océans. Les roches terrestres contiennent toutes un minimum d'eau résiduelle, ce qui n'est pas le cas dans les conditions du climat à hautes températures de Vénus.Il reste sur Vénus un volcanisme résiduel, entraînant parfois la présence de lave en fusion au sol. D'ailleurs, la surface de Vénus semble jeune, affichant moins d'un milliard d'années du fait d'un volcanisme actif relativement récent. Un épisode généralisé aurait eu lieu il y a. Émergeant d'un plateau accidenté situé dans l'ouest d'Eistla Regio, le volcan bouclier Gula Mons atteint une altitude de. Dans la vaste région des hautes terres de Beta Regio, il est dominé par deux monts imposants. Le premier, Rhea, est situé à du deuxième, nommé Theia Mons. "Rhea" est un massif soulevé, entaillé par une vallée axiale,, longue de, alors que "Theia" est un volcan. Les reliefs auraient à 80 % une origine volcanique et certaines montagnes seraient des coulées de lave. Les sondes soviétiques Venera 15 et Venera 16 ont répertorié plusieurs cratères à la surface de cette planète.Vénus possèderait un manteau rocheux représentant environ 52,5 % du rayon de la planète<ref name="pioneer-astro/Vénus">.</ref>, composé essentiellement de silicates et d'oxydes de métaux. Ce manteau pourrait comporter encore aujourd'hui (comme la Terre pendant ) un, d'une épaisseur de. Le noyau de Vénus serait constitué de deux parties : un noyau externe constitué de fer et de nickel liquides qui représenterait environ 30 % du rayon de la planète ; un noyau interne composé de fer et de nickel solides qui représenterait environ 17 % du rayon de Vénus. Mais cette précision est spéculative en 2009, car contrairement à la Terre, il n'y a pas eu de mesures sismiques. Il n'est pas impossible que le noyau de Vénus soit entièrement liquide. Certains indices pourraient aller dans ce sens, comme l'absence de champ magnétique.Vénus possède un champ magnétique très faible et traîne dans son sillage une queue de plasma longue de 45 millions de kilomètres, observée pour la première fois par la sonde SoHO en. L'existence d'un noyau externe de fer liquide (conducteur) tournant sur lui-même crée normalement un champ magnétique par effet dynamo, comme c'est le cas pour la Terre et Mercure. Cependant, Vénus ne possède pas de champ magnétique intrinsèque. En effet, le champ magnétique de Vénus est très faible et ne résulte que de l'interaction directe de l'ionosphère avec le vent solaire. L'absence de dynamo s'expliquerait par un manque de convection dans le noyau de Vénus. Cette absence serait due d'une part à la rotation très lente de la planète, mais aussi au faible gradient thermique d'un manteau moins refroidi que celui de la Terre, ce qui empêcherait la solidification du noyau vénusien, limitant grandement la séparation des divers constituants et impuretés, et de là les mouvements internes du fluide métallique du noyau, qui génèrent le champ magnétique. Malgré son faible champ magnétique, des aurores ont été observées.L'un des faits les plus remarquables des paramètres orbitaux de Vénus est sa rotation rétrograde : elle tourne sur elle-même, de façon très lente, dans le sens indirect, alors que les planètes du Système solaire ont le plus souvent un sens direct. Vénus fait donc exception à la règle (on peut citer également le cas d'Uranus). Sa période de rotation n'est connue que depuis, date à laquelle des observations radar menées par le "Jet Propulsion Laboratory" ont permis d'observer la surface de la planète au travers de l'épaisse atmosphère. Cette rotation très lente, et qui plus est rétrograde, produit des jours solaires bien plus courts que son jour sidéral, alors qu'ils sont plus longs pour les planètes avec une rotation dans le sens direct. Le jour solaire est l'intervalle (moyen) entre deux passages consécutifs du Soleil au méridien. Par exemple, la Terre a un jour solaire (moyen) de et un jour sidéral de. Sur Vénus, le jour solaire est de 116,75 jours terrestres (), alors que le jour sidéral est de 243,023 jours terrestres. On a donc un peu moins de 2 jours solaires complets pendant la durée d'une année vénusienne. Les journées et les nuits vénusiennes s'étendent tout de même sur près de deux mois terrestres :. Par ailleurs, une année vénusienne est légèrement plus courte qu'un jour sidéral vénusien, dans un rapport de 0,924.Les causes de la rotation rétrograde de Vénus sont encore mal comprises. L'explication qui a été le plus souvent avancée est une collision gigantesque avec un autre corps de grande taille, pendant la phase de formation des planètes du Système solaire. Une autre explication met en jeu l'atmosphère vénusienne qui, du fait de sa forte densité, a pu influencer la rotation de la planète. Des travaux de Jacques Laskar et Alexandre C. M. Correia prenant en compte les effets de marée thermique atmosphérique montrent le comportement chaotique de l'obliquité et de la période de rotation de Vénus. Vénus aurait donc pu évoluer naturellement vers une rotation rétrograde, qui est un état d'équilibre des différents effets de marée, sans avoir à faire intervenir de collision avec un corps massif. Il n'est cependant pas possible de savoir si l'obliquité de Vénus est passée brusquement de 0° à 180° au cours de son histoire ou si sa vitesse de rotation s'est ralentie jusqu'à une vitesse nulle pour ensuite devenir négative. Les deux scénarios sont possibles et aboutissent au même état d'équilibre actuel.Les jours solaires vénusiens sont tels que Vénus présente la même face aux observateurs terrestres lors de chaque conjonction inférieure : Vénus dans l'axe Terre-Soleil ; la Terre en opposition vénusienne. En effet, la période entre deux conjonctions inférieures se déroule sur cinq jours solaires vénusiens (une « semaine vénusienne » en quelque sorte). Cette révolution synodique de Vénus (vue de la Terre) fait 584 jours (583,92108 j exactement), ce qui est effectivement très proche de cinq jours solaires : 5 × 116,7505 j (583,7525 j exactement). Il a été discuté de cette synchronisation Terre-Vénus (les deux principales planètes telluriques)..Vénus est la deuxième planète du Système solaire en partant du Soleil et le troisième objet naturel le plus brillant du ciel (après le Soleil et la Lune) avec une magnitude apparente variant entre -4,6 et -4,7, et un diamètre apparent compris entre 9,7 et 66 secondes d'arc. Il est possible, à certaines périodes de l'année, d'apercevoir la planète en plein jour. Comme Vénus est sur une orbite plus proche du Soleil que celle de la Terre, elle ne semble jamais loin du Soleil vue depuis la Terre. Son élongation atteint un maximum de 47,8°. Elle n’a pas de satellite naturel connu. On peut observer, comme avec la Lune, des phases de la planète selon leur moment d'apparition dans l'année. Leur observation a été faite pour la première fois au début du par Galilée à l'aide de sa lunette astronomique. Elles ont été un argument utilisé par ce dernier pour se rallier à la théorie héliocentrique de Copernic.Par sa taille et sa masse, Vénus est très similaire à la Terre et a souvent été décrite comme la "sœur jumelle" de cette dernière. Les deux planètes sont semblables, autant par des aspects physiques qu'orbitaux : Du fait de ces similitudes, des spécialistes ont longtemps pensé que, sous ses nuages denses, Vénus pourrait être très similaire à la Terre et peut-être même abriter la vie. Des études proposent même qu'il y a quelques milliards d'années, Vénus ait été beaucoup plus semblable à la Terre qu'elle ne l'est actuellement. En effet, il a été découvert qu'il y avait probablement des quantités importantes d'eau à sa surface. Cette eau se serait évaporée à la suite d'un important effet de serre créant ainsi un niveau de gaz à effet de serre critique dans l'atmosphère.En, l'astronome italien Francesco Fontana déclara avoir découvert un satellite autour de Vénus. Cassini affirma l'avoir observé deux fois (en et en ). Lagrange, lui, l'aperçut en, et Johann Heinrich Lambert calcula son orbite en. Jusqu'à la fin du, la communauté astronomique semblait persuadée de l'existence de ce satellite qui reçut un nom, Neith. On sait depuis qu'il n'existe pas. Cependant, le quasi-satellite, découvert en, (et qui n'a rien à voir avec Neith) exerce autour d'elle une révolution en orbite en fer à cheval. Il ne s'agit pas d'un satellite car il n'est pas gravitationnellement lié à Vénus, mais sa révolution autour du Soleil l'amène à avoir une trajectoire qui fait dans le même temps un tour autour de Vénus, selon une trajectoire en U (d'où le nom de quasi-satellite). Vénus possède un autre quasi-satellite :. Les recherches afin de trouver un satellite naturel de Vénus sont toujours en cours.On appelle « transit de Vénus » le passage de la planète Vénus entre la Terre et le Soleil, où l'ombre de Vénus apparaît devant le disque solaire. En raison de l'inclinaison de l'orbite de Vénus par rapport à celle de la Terre, ce phénomène est extrêmement rare à l'échelle de temps humaine. Il se produit deux fois à 8 ans d'intervalle, ces doubles passages étant séparés les uns des autres de plus d'un siècle (105,5 ou 121,5 ans). Historiquement, l'observation du transit de Vénus était la méthode la plus commode pour déterminer la valeur de la distance Terre-Soleil (l'unité astronomique). Le notamment a ainsi vu de grandes expéditions de la part des astronomes européens pour mesurer les deux transits de et, auxquels le nom de l'astronome français Guillaume Le Gentil est resté attaché en raison de la malchance qui l'empêcha d'effectuer les observations auxquelles il avait consacré des années de préparation. Au cours du transit de Vénus, il apparaît un effet d'optique appelé « phénomène de la goutte noire ». Lors du deuxième contact et juste avant le troisième contact, une petite larme noire semble connecter le disque de la planète avec la frontière du limbe solaire, rendant impossible de dater précisément lesdits contacts. Le dernier transit de Vénus a eu lieu le 6 juin 2012. Le prochain transit aura lieu le 11 décembre 2117.La lumière cendrée de Vénus, une réalité discutée parce que la source de la lumière est scientifiquement inconnue, est un phénomène lumineux évanescent qui se présenterait sous la forme d'une lueur diffuse à peine discernable éclairant la partie sombre du disque de Vénus lorsque cette planète apparaît depuis la Terre comme un fin croissant.L'exploration de Vénus à l'aide de sondes spatiales a débuté au début des années. Une vingtaine d'entre elles ont depuis visité la planète, que ce soit pour de simples survols, pour des séjours plus longs en orbite autour de Vénus, ou encore pour larguer des modules d'observation dans l'atmosphère et à la surface de Vénus. L'année marque un pas important dans la connaissance de Vénus. La sonde américaine Mariner 2 réalise cette année-là le premier survol de la planète et permet de découvrir sa température de surface, infernale, autour de (), ainsi que la température de la couche nuageuse. La sonde ne détecte pas de champ magnétique au voisinage de la planète et met en évidence la quasi-absence d'eau dans l'atmosphère vénusienne. Les informations envoyées par Mariner 2 complètent admirablement les observations radar réalisées depuis le sol terrestre la même année, notamment à l'observatoire Goldstone en Californie, qui ont permis d'estimer la période de rotation de la planète, inconnue jusqu'alors. En, les missions soviétique Venera 4 et américaine Mariner 5 continuent l'exploration de la planète, fournissant des données précises sur la composition atmosphérique et la pression élevée à la surface de Vénus. La sonde Venera 4 parvient à lancer une capsule vers le sol vénusien, et celle-ci transmit des données sur la composition de l'atmosphère vénusienne jusqu'à une altitude de. Dans les années, plusieurs sondes du programme "Venera" parviennent à atteindre la surface et les capsules transmettent des données à la Terre depuis le sol de Vénus. En, les premières photos couleur de la surface sont réalisées par Venera 13 et Venera 14 à quelques jours d'intervalle. Afin d'utiliser la gravité de Vénus dans un effet de fronde gravitationnelle, la sonde "Galileo" passe autour de cette dernière en, prenant des observations en proche infrarouge. En orbite pendant 4 ans autour de Vénus, entre et, la sonde "Magellan" réalise une cartographie complète et très précise (avec une résolution horizontale inférieure à ) de la surface de la planète. La sonde spatiale a utilisé pour cela un radar, seul instrument capable de percer l'épaisse atmosphère de Vénus. Un relevé altimétrique est également effectué. Cette cartographie détaillée montre un sol remarquablement jeune géologiquement parlant (de l'ordre de 500 millions d'années), la présence de milliers de volcans et une absence de tectonique des plaques telle qu'on la connait sur Terre mais de nouvelles analyses suggèrent que la surface est divisée en blocs rocheux, « ramollis » par la chaleur intense de l'environnement et semblent se déplacer entre eux à la manière des blocs de glace de la banquise terrestre. La sonde "Vénus Express" de l'Agence spatiale européenne a observé Vénus depuis jusqu'au et réalisé plusieurs découvertes importantes : Lancée en mais arrivée avec cinq ans de retard à cause d'une panne de propulseur lors de son insertion initiale, la sonde japonaise "Akatsuki" est présentement (en ) la seule en orbite autour de Vénus et doit permettre de mieux comprendre ce qui a mené la planète à son état actuel (très chaude et sèche avec un effet de serre important). L'engin a permis de découvrir la présence, à d'altitude, d'une onde de gravité longue de et de large, stationnaire par rapport au sol et pouvant perdurer plusieurs jours (contrairement aux ondes de gravité sur Terre qui disparaissent très vite). "Akatsuki" a également pris des clichés dans l'infrarouge de la face nocturne de Vénus. Plusieurs missions d'envergure, dont des vols habités vers Vénus, ont été proposées mais sont restées à l'état de projet ou de concept. La mission européenne "Venus Entry Probe" devait être lancée en et permettre l'exploration "in situ" de l'atmosphère vénusienne grâce entre autres à un ballon naviguant à une altitude de. À la fin des années, la étudie la possibilité d'utiliser des éléments du programme "Apollo" afin de réaliser un survol habité de Vénus avec un équipage de trois astronautes qui auraient effectué le voyage aller-retour en une année environ. En, des chercheurs de la NASA présentent le projet qui vise à établir une colonie humaine installée dans des dirigeables à d'altitude où la température n'est que de et la pression proche de celle de la Terre.La planète Vénus doit son nom à la déesse Vénus, déesse de l'amour et de la beauté dans la mythologie romaine (assimilée à l'Aphrodite de la mythologie grecque). Cythère étant une épiclèse homérique d'Aphrodite, l'adjectif « cythérien » ou « cythéréen » est parfois utilisé en astronomie (notamment dans astéroïde cythérocroiseur) ou en science-fiction (les Cythériens, une race de Star Trek). L'adjectif « vénusien » a remplacé « vénérien » qui avait fini par ne qualifier que les « maladies de l'amour » (les MST, maladies sexuellement transmissibles). En Europe, Vénus est traditionnellement appelée l’« étoile du berger ». En Afrique, les Dogons l'appelle l'« étoile des chevriers ». Moins fréquemment, on parle de la « planète ardente » à cause de la température élevée qui règne à sa surface. Son symbole astronomique est un cercle avec une croix pointant vers le bas (unicode 0x2640 : )Vénus est représentée dans la fiction depuis le. Ses nuages impénétrables ont entraîné les auteurs de science-fiction à spéculer sur les conditions de vie à sa surface. Plus près du Soleil que la Terre, Vénus était souvent décrite comme plus chaude, mais quand même habitable ; les écrivains imaginent alors des extraterrestres qu'ils nomment les Vénusiens. Le genre atteint son apogée entre les années 1930 et 1950. Même si cette planète a été explorée et que l'on sait à présent qu'aucune forme de vie n'y est possible à la surface (certains chercheurs pensent à une possible forme de vie bactérienne entre 40 et 60 kilomètres de sa surface, dans ses nuages où les températures et les pressions sont plus favorables), elle continue à fasciner les auteurs et les lecteurs. Plusieurs auteurs se sont inspirés de cette planète, par exemple :
|
Vénus est une des quatre planètes telluriques du Système solaire. Elle est la deuxième planète par ordre d'éloignement au Soleil, et la sixième par masse ou par taille décroissantes.
|
xwikis
|
Saturne a la forme d'un sphéroïde aplati : la planète est aplatie aux pôles et renflée à l'équateur. Ses diamètres équatoriaux et polaires diffèrent de près de 10 % ( pour le premier, pour le second, soit un diamètre moyen volumétrique de ), conséquence de sa rapide rotation sur elle-même et d'une composition interne extrêmement fluide. Les autres géantes gazeuses du Système solaire (Jupiter, Uranus et Neptune) sont également aplaties, mais de façon moins marquée. Saturne est la deuxième planète la plus massive du Système solaire, 3,3 fois moins que Jupiter, mais plus que Neptune et plus qu'Uranus. En comparaison avec la Terre, Saturne est plus massive. Son diamètre étant environ plus grand que celui de la Terre, son volume est 900 fois supérieur. Saturne est la seule planète du Système solaire dont la masse volumique moyenne est inférieure à celle de l'eau :. Cela vient à dire que si on trouvait un océan assez grand pour la contenir (et que sa cohésion soit maintenue, ce qui n'est donc que pure spéculation), elle flotterait. Ce chiffre masque d'énormes disparités dans la répartition de la masse à l'intérieur de la planète : si son atmosphère, essentiellement composée d'hydrogène (le gaz le plus léger), est moins dense que l'eau, son noyau l'est considérablement plus.La haute atmosphère de Saturne est constituée à 93,20 % d'hydrogène et à 6,7 % d'hélium en termes de molécules de gaz (96,5 % d'hydrogène et 3,5 % d'hélium en termes d'atomes). Des traces de méthane, d'éthane, d'ammoniac, d'acétylène et de phosphine ont également été détectées. Les nuages les plus en altitude sont composés de cristaux d'ammoniac, tandis que les nuages plus bas semblent être constitués soit d'hydrosulfure d'ammonium soit d'eau. Par rapport à l'abondance des éléments du Soleil, l'atmosphère de Saturne est sensiblement plus pauvre en hélium. La quantité d'éléments plus lourds que l'hélium n'est pas encore connue avec précision, mais on suppose que leurs proportions correspondent aux abondances initiales lors de la formation du Système solaire. La masse totale de ces éléments est estimée à 19 à 31 fois celle de la Terre, une fraction significative étant située dans la région du noyau de Saturne.La structure interne de Saturne serait similaire à celle de Jupiter, avec un noyau rocheux de silicates et de fer, entouré d'une couche d'hydrogène métallique, puis d'hydrogène liquide, puis enfin d'hydrogène gazeux. Des traces de glaces diverses seraient également présentes. Les transitions entre ces différentes couches seraient progressives et la planète ne comporterait pas de surface à proprement parler. La région du noyau posséderait entre 9 et 22 fois la masse de la Terre. Saturne a une température interne très élevée, atteignant probablement dans le noyau, et dégage, à l'instar de Jupiter, plus d'énergie qu'elle n'en reçoit du Soleil. La majeure partie de cette énergie provient d'un effet de compression gravitationnelle (mécanisme de Kelvin-Helmholtz), mais cet effet ne suffit pas à lui seul à expliquer la production thermique. Une explication proposée serait une « pluie » de gouttelettes d'hélium dans les profondeurs de Saturne, dégageant de la chaleur par friction en tombant dans une mer d'hydrogène plus léger. Bien que Saturne soit composée majoritairement d’hydrogène et d’hélium, les gaz ne représentent qu’une faible partie de sa masse car l’hydrogène devient liquide lorsque la densité dépasse. Cette frontière est atteinte sur une sphère correspondant à 99,9 % de la masse de Saturne. En s’approchant du cœur de la planète, la densité continue de croître jusqu’à transformer l’hydrogène en métal. Le noyau rocheux est comparable à celui de la Terre si ce n’est qu’il est plus dense. En 2004, la masse de ce noyau a été estimée entre 9 et 22 fois la masse de la Terre par une équipe d’astronomes français. Cette estimation a été effectuée à partir du champ gravitationnel et des modèles géophysiques des planètes gazeuses. De plus, on estime que le diamètre du noyau est de. Ce noyau est entouré d’un épais manteau d’hydrogène liquide puis, à mesure que l’on s’écarte du centre, d’hélium liquide saturé en hydrogène avant que l’hydrogène et l’hélium deviennent gazeux sur environ.Saturne, bien que calme en apparence, possède un climat violent. Au pôle sud de la planète se trouve un ouragan dont la taille est supérieure à celle des États-Unis avec près de de large. À la différence de la Grande tache rouge de Jupiter, cet ouragan possède un œil qui le rend proche des ouragans terrestres. La vitesse du vent sur Saturne peut atteindre, une valeur supérieure à celles relevées sur Jupiter mais moindre que sur Neptune. La composition des nuages de Saturne varie avec l’altitude. Dans les régions les plus hautes, où les températures évoluent entre 100 et et la pression entre 0,5 et, les nuages se composent de glace d’ammoniac. Entre 2,5 et se trouve de la glace d’eau à des températures de 185 à. Ces nuages s’entremêlent à des nuages de glace d’hydrosulfure d’ammonium à partir de. Ces derniers se maintiennent jusqu’à. La dernière couche contient des gouttes d’ammoniaque (ammoniac en solution aqueuse) pour des pressions de 10 à entre 270 et. De manière similaire à Jupiter, l'atmosphère de Saturne est organisée en bandes parallèles, même si ces bandes sont moins visibles et plus larges près de l'équateur. En fait, le système nuageux de Saturne ne fut observé pour la première fois que lors des missions Voyager. Depuis, les télescopes terrestres ont fait suffisamment de progrès pour pouvoir suivre l'atmosphère saturnienne et les caractéristiques courantes chez Jupiter (comme les orages ovales à longue durée de vie) ont été retrouvées chez Saturne. En 1990, le télescope spatial Hubble a observé un énorme nuage blanc près de l'équateur de Saturne qui n'était pas présent lors du passage des sondes Voyager. En 1994, un autre orage de taille plus modeste a été observé. Le nuage de 1990 est un exemple de grande tache blanche, un phénomène saturnien éphémère qui se reproduit environ tous les 30 ans (c'est-à-dire environ chaque année saturnienne). Des grandes taches blanches ont été observées en 1876, 1903, 1933 et 1960. Si la périodicité se maintient, une autre tempête devrait se produire vers 2020. Dans les images transmises par la sonde "Cassini", l'atmosphère de l'hémisphère nord apparaît bleue, de façon similaire à celle d'Uranus. Cette couleur est probablement causée par diffusion Rayleigh. L'imagerie infrarouge a montré que Saturne possède un vortex polaire chaud, le seul phénomène de ce type connu dans le Système solaire. Un système ondulatoire hexagonal existe autour du pôle nord, vers 78° de latitude. Il a été remarqué pour la première fois lors du passage des sondes "Voyager". Les bords de l'hexagone mesurent environ. La structure tourne sur elle-même avec une période de. Le système ne se décale pas en longitude comme les autres structures nuageuses de l'atmosphère visible. Son origine n'est pas connue. La plupart des astronomes semblent penser qu'il s'agit d'un ensemble d'ondes stationnaires. Parmi les autres théories, il pourrait s'agir d'un type inconnu d'aurore polaire. Des formes polygonales ont été reproduites en laboratoire à l'intérieur de seaux de fluides en rotation. Les images prises par le télescope spatial Hubble indiquent la présence au pôle sud d'un courant-jet, mais pas d'un vortex polaire ou d'un système hexagonal analogue. Cependant, la NASA a signalé en novembre 2006 que "Cassini" a observé une tempête analogue à un ouragan, stationnant au pôle sud, et qui possède un œil clairement défini. Il s'agit du seul œil jamais observé sur une autre planète que la Terre. De 2004 à 2009, la sonde Cassini a également pu observer la formation, le développement et la fin de 9 violents orages. Les orages de Saturne sont particulièrement longs. Un orage s'étala de novembre 2007 à juillet 2008. De même, un très violent orage débuta en janvier 2009 et dura plus de 8 mois. Ce sont les plus longs orages observés jusque-là dans le Système solaire. Ils peuvent s'étendre sur plus de de diamètre autour de la région appelée « Allée des tempêtes » située à 35° au Sud de l'équateur. Les décharges électriques provoquées par les orages de Saturne émettent des ondes radio dix mille fois plus fortes que celles des orages terrestres.La magnétosphère de Saturne est une cavité créée dans le vent solaire par le champ magnétique de la planète. Découverte en 1979 par la sonde "Pioneer 11", la magnétosphère de Saturne est la deuxième plus vaste au sein du système solaire, après celle de Jupiter. La magnétopause, frontière entre la magnétosphère de Saturne et le vent solaire, se trouve à environ vingt fois le rayon de Saturne depuis le centre de la planète, tandis que la queue magnétique s'étire derrière sur des centaines de fois le rayon de la planète. La magnétosphère de Saturne est rempli de plasma originaire de la planète et de ses satellites, notamment Encelade qui éjecte jusqu’à de vapeur d’eau par ses geysers au pôle sud. Le champ magnétique se charge ainsi de d’ions par seconde. Ce plasma se déplace de l’intérieur du champ vers la magnéto-queue. L’interaction de la magnétosphère et des vents solaires crée des aurores polaires sur les pôles de la planète dans le domaine du visible, de l’infrarouge et de l’ultraviolet. À l’intérieur de la magnétosphère se trouve une ceinture de radiation qui contient des particules d’énergie pouvant atteindre la dizaine de mégaélectronvolts. Ces particules ont alors une forte influence sur la surface des lunes glacées de Saturne. Saturne génère un champ magnétique bipolaire et symétrique de () à l’équateur, ce qui est légèrement plus faible que le champ magnétique terrestre. Le rayon de la magnétosphère est 19 fois plus grand que celui de Saturne, soit, d’après Voyager 2. L’origine de cette magnétosphère est probablement l’effet dynamo des courants d’hydrogène métallique liquide. C’est la magnétosphère qui rejette les particules des vents solaires. Le champ magnétique de Saturne est plus faible que celui de Jupiter et sa magnétosphère est plus petite.L'atmosphère de Saturne subissant une rotation différentielle, plusieurs systèmes ont été définis, avec des périodes de rotation propres (un cas similaire à celui de Jupiter) : Ce dernier système, mesuré lors du passage des sondes "Voyager", était celui généralement utilisé pour parler de la rotation de la planète. Cependant, lors de son approche de Saturne en 2004, la sonde "Cassini" mesura que la période de rotation radio s'était légèrement accrue, atteignant (± 36 s). La cause exacte du changement n'est pas connue. En mars 2007, il a été annoncé que la rotation des émissions radio ne rend pas compte de la rotation de la planète, mais est causée par des mouvements de convection du disque de plasma entourant Saturne, lesquels sont indépendants de la rotation. Les variations de période pourraient être causées par les geysers de la lune Encelade. La vapeur d'eau émise en orbite saturnienne se chargerait électriquement et pèserait sur le champ magnétique de la planète, ralentissant sa rotation par rapport à celle de Saturne. Si ce point est vérifié on ne connaît aucune méthode fiable pour déterminer la période de rotation réelle du noyau de Saturne.Étant donnée sa distance au Soleil, Saturne est une planète très froide en surface :Les anneaux de Saturne sont les anneaux planétaires les plus importants du Système solaire. Bien qu'ils semblent continus vus depuis la Terre, ils sont en fait constitués d'innombrables particules de glace (95 à 99 % de glace d'eau pure selon les analyses spectroscopiques) et de poussière dont la taille varie de quelques micromètres à quelques centaines de mètres ; ils ont chacun une orbite différente. Les anneaux forment un disque dont le diamètre est de (les anneaux principaux s'étendent de à ) comportant plusieurs divisions de largeurs variées et dont l'épaisseur va de 2 à 10 mètres. À la différence de ceux des autres géantes gazeuses, ils sont extrêmement brillants (albédo de 0,2 à 0,6) et peuvent être vus depuis la Terre à l'aide de simples jumelles. Ils ont été aperçus en 1610 par le savant italien Galilée grâce à une lunette astronomique de sa conception. Celui-ci interpréta ce qu'il voyait comme de mystérieux appendices. Bénéficiant d'une meilleure lunette que Galilée, le néerlandais Christian Huygens va découvrir qu'il s'agit en fait d'un anneau entourant Saturne. Il y règne une agitation permanente : vagues, collisions et accumulations de matières. "("" désigne le rayon équatorial de Saturne (), pris ici comme unité de longueur.)" En 2009, un anneau a été mis en évidence par le satellite Spitzer en infrarouge. Ce nouvel anneau, très peu dense, a été trouvé à l'endroit même où évolue un des satellites de Saturne, Phœbé, qui en serait peut-être à l'origine.Saturne possède un grand nombre de satellites naturels. Il est difficile de dire combien, dans la mesure où tout morceau de glace des anneaux est techniquement un satellite et qu'il n'est pas possible de faire la distinction entre une grande particule et une petite lune. De nouveaux satellites sont régulièrement découverts. En 2019, 82 satellites ont été identifiés. La plupart des lunes connues sont petites : 13 mesurent moins de de diamètre et 31 autres moins de. Seules sept sont suffisamment massives pour avoir pu prendre une forme sphéroïdale sous leur propre gravité. Titan, la plus grande d'entre elles, plus grande que Mercure ou Pluton, est le seul satellite du Système solaire à posséder une atmosphère dense. Tous les satellites pour lesquels la période de rotation est connue, à l'exception de Phœbé et d'Hypérion, sont synchrones. Les orbites des trois paires Mimas-Téthys, Encelade-Dioné et Titan-Hypérion sont en résonance : Mimas et Téthys sont en résonance 1:2 (la période de révolution de Mimas est exactement la moitié de celle de Téthys) ; Encelade et Dioné sont également en résonance 1:2 ; Titan et Hypérion sont en résonance 3:4. Traditionnellement, la plupart des lunes de Saturne ont été nommées d'après des Titans de la mythologie grecque. En octobre 2019, une équipe d'astronomes du Carnegie Institution for Science observent 20 nouveaux satellites, ce qui fait de Saturne la planète du Système Solaire avec le plus de satellites connus.Saturne, comme les autres planètes géantes gazeuses du système solaire, se serait formée au-delà de la ligne des glaces. Cette ligne désigne la zone au-delà de l’orbite de Mars, où la matière est suffisamment froide pour que ses composés de glace volatile restent à l'état solide. Les glaces qui formèrent les géantes gazeuses étaient plus abondantes que les métaux et les silicates qui formaient les planètes telluriques. Ceci permit aux géantes de devenir suffisamment massives pour capturer l'hydrogène et l'hélium, les plus légers mais aussi les plus abondants des éléments de l'univers. Les planétésimaux formés par-delà la ligne des glaces accumulèrent jusqu'à plus de quatre masses terrestres sur une période de d'années. La masse significativement plus réduite de Saturne par rapport à Jupiter s'expliquerait par le fait qu'elle se serait formée quelques millions d'années après Jupiter, alors qu'il y avait moins de gaz disponible dans son environnement.Le nom de Saturne correspond à "Cronos" () dans l'astronomie grecque, à "Zohal" () dans l'astronomie arabe ainsi qu'à "Tǔxīng" ( / ) dans l'astronomie chinoise. Elle est ainsi désignée, à la suite d'un usage antique, d'après Saturne, un dieu de la mythologie romaine, assimilé au titan Cronos de la mythologie grecque. Son symbole « », d'origine ancienne représenterait la faucille du dieu Saturne ou serait dérivé de la lettre grecque "kappa" minuscule, initiale du grec ancien. Néanmoins, l'Union astronomique internationale recommande de substituer au symbole « » l'abréviation, correspondant à la lettre latine S majuscule, initiale de l'anglais "".Saturne est la plus lointaine des cinq planètes visibles à l'œil nu la nuit, des observations étant attestées depuis la préhistoire.En 1610, Galilée, en braquant son télescope vers Saturne, en observe les anneaux mais ne comprend pas ce qu'il en est, décrivant que la planète aurait des « oreilles ». En 1612, la Terre passant dans le plan des anneaux, ceux-ci disparaissent. En 1613, ils réapparaissent sans que Galilée puisse émettre une hypothèse quant à ce qu'il observe. En 1655, Christian Huygens, découvre près de Saturne un astre qui sera nommé plus tard Titan. En 1656, Christian Huygens, en utilisant un télescope bien plus puissant, comprend que la planète est en réalité entourée d'un anneau, qu'il pense être solide. En 1675, Jean-Dominique Cassini détermine que l'anneau est composé de plusieurs petits anneaux, séparés par des divisions ; la plus large d'entre elles sera plus tard appelée la division de Cassini. En 1859, James Clerk Maxwell démontre que les anneaux ne peuvent pas être solides. Il émet l'hypothèse qu'ils sont constitués d'un grand nombre de petites particules, toutes orbitant autour de Saturne indépendamment. La théorie de Maxwell fut prouvée correcte en 1895 par des études spectroscopiques menées par James Keeler à l'observatoire Lick.Dans le dernier quart du, Saturne fut visitée par plusieurs sondes spatiales : Pioneer 11 en 1979, Voyager 1 en 1980 et Voyager 2 en 1981. Pioneer 11 passa à des nuages de Saturne en septembre 1979. La sonde prit des photographies en basse résolution de la planète et de quelques-uns de ses satellites, lesquelles n'étaient pas assez bonnes pour distinguer les caractéristiques de leur surface. Elle étudia l'étalement des anneaux, découvrit l'anneau F et le fait que les divisions ne sont pas vides de matériaux. Pioneer 11 mesura également la température de Titan. En novembre 1980, Voyager 1 visita le système saturnien. La sonde renvoya les premières images en haute résolution de la planète, de ses anneaux et de ses satellites. Les surfaces de plusieurs lunes furent vues pour la première fois. Voyager 1 effectua un survol de Titan, accroissant les connaissances sur l'atmosphère de cette lune. Cependant, elle prouva également que cette atmosphère était imperméable aux longueurs d'onde de la lumière visible. Le survol éjecta la sonde hors du plan du Système solaire. En août 1981, Voyager 2 continua l'étude de Saturne. Elle prit plus de gros plans des lunes et apporta des preuves d'évolution de l'atmosphère et des anneaux. Malheureusement, pendant le survol, la plateforme de caméra orientable resta coincée pendant deux jours et certaines photographies ne purent être prises selon l'angle prévu. La gravité de Saturne fut utilisée pour diriger la sonde vers Uranus (voir cette planète) qui, à son tour, la dirigea vers Neptune. Les sondes découvrirent et confirmèrent plusieurs satellites orbitant près ou à l'intérieur des anneaux de Saturne. Elles découvrirent également la division de Maxwell et la division de Keeler.La sonde "Cassini-Huygens" s'est placée en orbite autour de Saturne le afin d'étudier le système saturnien, avec une attention particulière pour Titan. En juin 2004, elle effectue un survol de Phœbé. L'orbiteur réalise deux survols de Titan et largue le, le module atterrisseur "Huygens". Celui-ci se pose sur Titan le 14 janvier 2005, transmettant un flot de photographies et de données pendant la descente et après l'atterrissage. Pendant l'année 2005, "Cassini" effectue plusieurs autres survols de Titan et d'autres satellites. Le, la NASA annonce que "Cassini" a mis en évidence sur Encelade des réservoirs d'eau liquide s'échappant en geyser. Le, "Cassini" photographie un anneau planétaire non encore découvert, en dehors des anneaux principaux et situé à l'intérieur des anneaux E et G. En juillet 2006, "Cassini" détecte la première preuve de lacs d'hydrocarbures près du pôle nord de Titan, ce qui sera confirmé en janvier 2007. En mars 2007, de nouvelles images du pôle mettent en évidence des mers d'hydrocarbures, la plus grande ayant presque la taille de la mer Caspienne. La mission de la sonde devait en principe s'achever en 2008, après 74 orbites autour de Saturne, elle est dépendante de la réserve de carburant nécessaire à moduler chaque orbite ; mais début 2008, au vu des réserves encore existantes, elle a été prolongée de 2 ans. En avril 2013, "Cassini" enregistre les images d'un vaste ouragan frappant le pôle nord de Saturne dont l'œil, de de diamètre, est 20 fois plus large que celui des ouragans terrestres, avec des vents supérieurs à. Il se peut qu'il soit là depuis plusieurs années. Le 15 septembre 2017, après 15 ans de services, la sonde "Cassini", à court de carburant, est désintégrée volontairement dans l'atmosphère de Saturne pour éviter le risque d'un écrasement sur Titan (et donc d'une possible contamination par des composés chimiques et micro-organismes terrestres). La NASA a transformé en fichier audio et diffusé en 2018 les ondes captées par son instrument Radio Plasma Wave Science (RPWS) lors de sa plongée entre les anneaux de Saturne.
|
Saturne est la sixième planète du Système solaire par ordre de distance au Soleil et la deuxième après Jupiter tant par sa taille que par sa masse.
|
xwikis
|
La Terre s'est formée il y a d'années environ et la vie y est apparue moins d'un milliard d'années plus tard. La planète abrite des millions d'espèces vivantes, dont les humains. La biosphère de la Terre a fortement modifié l'atmosphère et les autres caractéristiques abiotiques de la planète, permettant la prolifération d'organismes aérobies de même que la formation d'une couche d'ozone qui, associée au champ magnétique terrestre, bloque une partie du rayonnement solaire, permettant ainsi la vie sur Terre. Les propriétés physiques de la Terre, de même que son histoire géologique et son orbite, ont permis à la vie de subsister durant cette période. De plus, la Terre devrait pouvoir maintenir la vie (telle que nous la connaissons actuellement) durant encore au moins d'années. La croûte terrestre est divisée en plusieurs segments rigides appelés plaques tectoniques qui se déplacent sur des millions d'années. Environ 71 % de la surface terrestre est couverte par des océans d'eau salée qui forment l'hydrosphère avec les autres sources d'eau comme les lacs, les fleuves ou les nappes phréatiques. Les pôles géographiques de la Terre sont principalement recouverts de glace (inlandsis et banquise). L'intérieurL'âge de la Terre est aujourd'hui estimé à d'années. L'histoire de la Terre est divisée en quatre grands intervalles de temps, dits éons :La formation de la Terre par accrétion était presque terminée en moins de d'années. Initialement en fusion, la couche externe de la Terre s'est refroidie pour former une croûte solide lorsque l'eau commença à s'accumuler dans l'atmosphère, aboutissant aux premières pluies et aux premiers océans. La Lune s'est formée peu de temps après, il y a d'années. Le consensus actuel pour la formation de la Lune est l'hypothèse de l'impact géant, selon laquelle un objet (quelquefois appelé Théia), de la taille de Mars et de masse environ égale au dixième de la masse terrestre, est entré en collision avec la Terre. Dans ce modèle, une partie de cet objet se serait agglomérée avec la Terre tandis qu'une autre partie, mêlée avec peut-être 10 % de la masse totale de la Terre, aurait été éjectée dans l'espace, où elle aurait formé laOn suppose qu'une activité chimique intense dans un milieu hautement énergétique a produit une molécule capable de se reproduire, dans un système particulier, il y a environ d'années. On pense que la vie elle-même serait apparue entre 200 et d'années plus tard. Le développement de la photosynthèse, active depuis bien avant 3 à d'années avant le présent, permit à la vie d'exploiter directement l'énergie du Soleil. Celle-ci produisit de l'oxygène qui s'accumula dans l'atmosphère, à partir d'environ d'années avant le présent, et forma la couche d'ozone (une forme d'oxygène [O]) dans la haute atmosphère, lorsque les niveaux d'oxygène dépassèrent quelques pourcents. Le regroupement de petites cellules entraîna le développement de cellules complexes appelées eucaryotes. Les premiers organismes multicellulaires formés de cellules au sein de colonies devinrent de plus en plus spécialisés. Aidées par l'absorption des dangereux rayons ultraviolets par la couche d'ozone, des colonies bactériennes pourraient avoir colonisé la surface de la Terre, dès ces époques lointaines. Les plantes et les animaux pluricellulaires ne colonisèrent la terre ferme qu'à partir de la fin du Cambrien (pour mousses,Le futur de la Terre est très lié à celui du Soleil. Du fait de l'accumulation d'hélium dans le cœur du Soleil, la luminosité de l'étoile augmente lentement à l'échelle des temps géologiques. La luminosité va croître de 10 % au cours du 1,1 milliard d'années à venir et de 40 % sur les prochains d'années. Les modèles climatiques indiquent que l'accroissement des radiations atteignant la Terre aura probablement des conséquences dramatiques sur la pérennité de son climat « terrestre », notamment la disparition des océans. La Terre devrait cependant rester habitable durant encore plus de d'années, cette durée pouvant passer à 2,3 milliards d'années si la pression atmosphérique diminue en retirant une partie de l'azote de l'atmosphère. L'augmentation deDans le cadre de son évolution, le Soleil deviendra une géante rouge dans plus de d'années. Les modèles prédisent qu'il gonflera jusqu'à atteindre environ son rayon actuel. Le destin de la Terre est moins clair. En tant que géante rouge, le Soleil va perdre environ 30 % de sa masse, donc sans prendre en compte les effets de marée, la Terre se déplaceraitLa forme de la Terre est approchée par un ellipsoïde, une sphère aplatie aux pôles. La rotation de la Terre entraîne l'apparition d'un léger bourrelet de sorte que le diamètre à l’équateur est plus long que le diamètre polaire (du pôle Nord au pôle Sud). Le diamètre moyen du sphéroïde de référence (appelé géoïde) est d'environ, ce qui est approximativement /π, car le mètre était initialement défini comme 1/e (dix-millionième) de la distance de l'équateur au pôle Nord en passant par Paris. La topographieLe rayon de la Terre est d'environ, selon divers modèles sphériques. La Terre n'étant pas parfaitement sphérique, la distance entre sonLa masse de la Terre est estimée à. On la détermine en divisant la constante géocentrique "GM" parLa Terre est une planète tellurique, c'est-à-dire une planète essentiellement rocheuse à noyau métallique, contrairement aux géantes gazeuses, telles que Jupiter, essentiellement constituées de gaz légers (hydrogène et hélium). Il s'agit de la plus grande des quatre planètes telluriques du Système solaire, que ce soit par la taille ou la masse. De ces quatre planètes, la Terre a aussi la masse volumique globale la plus élevée, la plus forte gravité de surface, le plus puissant champ magnétique global, la vitesse de rotation la plus élevée et est probablement la seule avec une tectonique des plaques active. La surface externe de la Terre est divisée en plusieurs segments rigides, ou plaques tectoniques, qui se déplacent lentement sur la surface sur des durées de plusieurs millions d'années. Environ 71 % de la surface est couverte d'océans d'eau salée, les 29 % restants étant des continents et des îles. L'eau liquide, nécessaire à la vie telle que nous la connaissons, est très abondante sur Terre, et aucune autre planète n'a encore été découverte avec des étendues d'eau liquide (lacs, mers, océans) à sa surface.La Terre est principalement composée de fer (32,1 %), d'oxygène (30,1 %), de silicium (15,1 %), de magnésium (13,9 %), de soufre (2,9 %), de nickel (1,8 %), de calcium (1,5 %) et d'aluminium (1,4 %), le reste (1,2 %) consistant en de légères traces d'autres éléments. Les éléments les plus denses ayant tendance à se concentrer au centre de la Terre (phénomène de différenciation planétaire), on pense que le cœur de la Terre est composé majoritairement de ferL'intérieur de la Terre, comme celui des autres planètes telluriques, est stratifié, c'est-à-dire organisé en couches concentriques superposées, ayant des densités croissantes avec la profondeur. Ces diverses couches se distinguent par leur nature pétrologique (contrastes chimiques et minéralogiques) et leurs propriétés physiques (changements d'état physique, propriétés rhéologiques). La couche extérieure de la Terre solide, fine à très fine relativement au rayon terrestre, s'appelle la croûte ; elle est solide, et chimiquement distincte du manteau, solide, sur lequel elle repose ; sous l'effet combiné deLa chaleur interne de la Terre est issue d'une combinaison de l'énergie résiduelle issue de l'accrétion planétaire (environ 20 %) et de la chaleur produite par les éléments radioactifs (80 %). Les principaux isotopes producteurs de chaleur de la Terre sont le, l', l' et le. Au centre de la planète, la température pourrait atteindre et la pression serait de. Comme la plus grande partie de la chaleur est issue de la désintégration des éléments radioactifs, les scientifiques considèrent qu'au début de l'histoire de la Terre, avant que les isotopes à courte durée de vie ne se soient désintégrés, la production de chaleur de la Terre aurait été bien plus importante.Les plaques tectoniques sont des segments rigides de lithosphère qui se déplacent les uns par rapport aux autres. Les relations cinématiques qui existent aux frontières des plaques peuvent être regroupées en trois domaines : des domaines de convergence où deux plaques se rencontrent, de divergence où deux plaques se séparent et des domaines de transcurrence où les plaques se déplacent latéralement les unes par rapport aux autres. Les tremblements de terre, l'activité volcanique, la formation des montagnes et des fosses océaniques sont plus fréquents le long de ces frontières. Le mouvement des plaques tectoniques est lié aux mouvements de convection ayant lieu dans le manteau terrestre. Du fait du mouvement des plaques tectoniques, le plancher océanique plonge sous les bordsLe relief de la Terre diffère énormément suivant le lieu. Environ 70,8 % de la surface du globe est recouverte par de l'eau et une grande partie du plateau continental se trouve sous le niveau de la mer. Les zones submergées ont un relief aussi varié que les autres dont une dorsale océanique faisant le tour de la Terre ainsi que des volcans sous-marins, des fosses océaniques, des canyons sous-marins, des plateaux et des plaines abyssales. Les 29,2 % non recouvertes d'eau sont composés de montagnes, de déserts, de plaines, de plateaux et d'autres géomorphologies. La surface planétaire subit de nombreuses modifications du fait de la tectonique et de l'érosion. Les éléments de surface construits ou déformés par la tectonique des plaques sont sujets à une météorisation constante du fait des précipitations, des cycles thermiques et des effets chimiques. Les glaciations, l'érosion du littoral, la construction des récifs coralliens et les impacts météoriques contribuent également aux modifications du paysage. La lithosphère continentale est composée deL'abondance de l'eau sur la surface de la Terre est une caractéristique unique qui distingue la « planète bleue » des autres planètes du Système solaire. L'hydrosphère terrestre est principalement composée par les océans, mais techniquement elle inclut également les mers, les lacs, les rivières et les eaux souterraines jusqu'à une profondeur de. La Challenger Deep de la fosse des Mariannes dans l'océan Pacifique est le lieu immergé le plus profond avec une profondeur de. La masse des océans est d'environ, soit environ 1/e de la masse totale de laLa Terre est entourée d'une enveloppe gazeuse qu'elle retient par attraction gravitationnelle : l'atmosphère. L'atmosphère de la Terre est intermédiaire entre celle, très épaisse, de Vénus, et celle, très ténue, de Mars. La pression atmosphérique au niveau de la mer est en moyenne de, soit par définition. L'atmosphère est constituée de 78,09 % d'azote, de 20,95 % d'oxygène, de 0,93 % d'argon et de 0,039 % de dioxyde de carbone, ainsi que de divers autres gaz dont de la vapeur d'eau. La hauteur de la troposphère varie avec la latitude entre aux pôles et à l'équateur, avec quelques variations résultant de facteurs météorologiques et saisonniers.L'atmosphère terrestre n'a pas de limite clairement définie, elle disparaît lentement dans l'espace. Les trois-quarts de la masse de l'air entourant la Terre sont concentrés dans les premiers de l'atmosphère. Cette couche la plus inférieure est appelée la troposphère. L'énergie du Soleil chauffe cette couche et la surface en dessous, ce qui entraîne une expansion du volume atmosphérique par dilatation de l'air, ce qui a pour effet de réduire sa densité et ce qui l’amène à s'élever et à être remplacé par de l'air plus dense, car plus froid. La circulation atmosphérique qui en résulte est un acteur déterminant dans le climat et la météorologie du fait de la redistribution de la chaleur, entre les différentes couches d'air qu'elle implique. Les principales bandes de circulations sont les alizés dans la région équatoriale à moins de 30° et les vents d'ouest dans les latitudes intermédiaires entre 30° et 60°. Les courants océaniques sont également importants dans la détermination du climat, en particulier la circulation thermohaline qui distribue l'énergie thermique des régions équatoriales vers lesAu-dessus de la troposphère, l'atmosphère est habituellement divisée en trois couches, la stratosphère, la mésosphère et la thermosphère. Chaque couche possède un gradient thermique adiabatique différent définissant l'évolution de la température avec l'altitude. Au-delà, l'exosphère se transforme en magnétosphère, où le champ magnétique terrestre interagit avec le vent solaire. La couche d'ozone se trouve dans la stratosphère et bloque une partie des rayons ultraviolets, ce qui est important pour la vie sur Terre. La ligne de Kármán, définie comme se trouvant à au-dessus de la surface terrestre, est la limite habituelle entre l'atmosphère et l'espace. L'énergie thermique peut accroître la vitesse de certaines particules de la zoneLe champ magnétique terrestre a pour l'essentiel la forme d'un dipôle magnétique avec les pôles actuellement situés près des pôles géographiques de la planète. À l'équateur du champ magnétique, son intensité à la surface terrestre est de, avec un moment magnétique global de. Selon la théorie de la dynamo, le champ est généré par le cœur externe fondu où la chaleur crée des mouvements de convection au sein de matériaux conducteurs, ce qui génère des courants électriques. Ceux-ci produisent le champ magnétique terrestre. Les mouvements de convection dans le noyau externe sont organisés spatialement selon un mode spécifique de cette géométrie (colonnes de Busse), mais présentent néanmoins une composante temporelle relativement chaotique (au sens de la dynamique non-linéaire) ; bien que le plus souvent plus ou moins alignés avec l'axe de rotation de laLa période de rotation relative de la Terre par rapport au Soleil est d'environ soit un jour solaire. La période de rotation relative de la Terre par rapport aux étoiles fixes, appelé son "jour stellaire" par l'International Earth Rotation and Reference Systems Service (IERS), est de de temps solaire moyen (UT1) ou. Du fait de la précession des équinoxes, la période de rotation relative de la Terre, son jour sidéral est de. Ainsi le jour sidéral est plus court que le jour stellaire d'environLa Terre orbite autour du Soleil à une distance moyenne d'environ de kilomètres suivant une période de solaires ou une année sidérale. De la Terre, cela donne un mouvement apparent du Soleil vers l'est par rapport aux étoiles à un rythme d'environ 1°/jour ou un diamètre solaire toutes les 12 heures. Du fait de ce mouvement, il faut en moyenne 24 heures, un jour solaire, à la Terre pour réaliser une rotation complète autour de son axe et que le Soleil revienne au plan méridien. La vitesse orbitale de la Terre est d'environ (). La Lune et la Terre tournent autour de leur barycentre commun en (par rapport aux étoiles lointaines). En associant ce mouvement à celui du couple Terre-Lune autour du Soleil, on obtient que la période du mois synodique (d'une nouvelle lune àDu fait de l'inclinaison axiale de la Terre, la quantité de rayonnement solaire atteignant tout point de la surface varie au cours de l'année. Cela a pour conséquence des changements saisonniers dans le climat avec un été dans l'hémisphère nord lorsque le pôle nord pointe vers le Soleil et l'hiver lorsque le pôle pointe dans l'autre direction. Durant l'été, les jours durent plus longtemps et le Soleil monte plus haut dans le ciel. En hiver, le climat devient généralement plus froid et les jours raccourcissent. Au-delà du cercle Arctique, il n'y a aucun jour durant une partie de l'année, ce qui est appelé une nuit polaire. Dans l'hémisphère sud, la situation est exactement l'inverse. Par convention astronomique, les quatre saisons sont déterminées par les solstices, lorsque le point de l'orbite où l'inclinaison vers ou dans la direction opposée du Soleil est maximale et les équinoxes lorsque la direction de l'inclinaison de l'axe etLa Terre a un seul satellite naturel « permanent » connu, la Lune, située à environ de la Terre. Relativement grand, son diamètre est environ le quart de celui de la Terre. Au sein du Système solaire, c'est l'un des plus grands satellites naturels (après Ganymède, Titan, Callisto et Io) et le plus grand d'une planète non gazeuse. De plus, c'est la plus grande lune du Système solaire par rapport à la taille de sa planète (même si Charon est relativement plus grand par rapport à la planète naine Pluton). ElleLes modèles informatiques des astrophysiciens Mikael Granvik, Jérémie Vaubaillon et Robert Jedicke suggèrent que des « satellites temporaires » devraient être tout à fait communs et que. Ces objets resteraient en orbite durant en moyenne dix mois avant de revenir dans une orbite solaire. L'une des premières mentions dans laEn janvier 2014, on compte satellites artificiels en orbite autour de la Terre (contre 931 en 2011).La Terre a au moins sept quasi-satellites :Une planète qui peut abriter la vie est dite habitable même si la vie n'y est pas présente, ou n'en est pas originaire. La Terre fournit de l'eau liquide, des environnements où les molécules organiques complexes peuvent s'assembler et interagir, et suffisamment d'une énergie dite « douce » pour maintenir, pendant une durée suffisamment longue, un système de métabolismes. La distance de la Terre au Soleil, de même que son excentricité orbitale, sa vitesse de rotation, l'inclinaison de son axe, son histoire géologique, une atmosphère restée non-agressive pour les molécules organiques malgré une évolution de composition chimique drastique, et un champ magnétique protecteur contribuent également, depuis l'apparition de la vie terrestre, aux conditions d'habitabilité à sa surface.Les formes de vie de la planète sont parfois désignées comme formant une « biosphère ». On considère généralement que cette biosphère a commencé à évoluer il y a environ 3,5 milliards d'années. La biosphère est divisée en plusieurs biomes, habitésLa Terre fournit des ressources qui sont exploitables par les humains pour diverses utilisations. Certaines ne sont pas renouvelables, comme les combustibles fossiles, qui sont difficiles à reconstituer sur une courte échelle de temps. D'importantes quantités de combustibles fossiles peuvent être obtenues de la croûte terrestre, comme le charbon, le pétrole, le gaz naturel ou les hydrates de méthane. Ces dépôts sont utilisés pour la production d'énergie, et en tant que matière première pour l'industrie chimique.D'importantes zones de la surface terrestre sont sujettes à des phénomènes météorologiques extrêmes comme des cyclones, des ouragans ou des typhons qui dominent la vie dans ces régions. De 1980 à 2000, ces événements ont causé environ par an. De même, de nombreuses régions sont exposées aux séismes, aux glissements de terrain, aux éruptions volcaniques, aux tsunamis, aux tornades, aux dolines, aux blizzards, aux inondations, aux sécheresses, aux incendies de forêt et autres calamités et catastrophes naturelles.La Terre compte approximativement milliards d'habitants en 2015. Les projections indiquent que la population mondiale atteindra d'habitants en 2050. La plupart de cette croissance devrait se faire dans les pays en développement. La région de l'Afrique subsaharienne a le taux de natalité le plus élevé au monde. La densité de population humaine varie considérablement autour du monde, mais une majorité vit en Asie. En 2020, 60 % de la population devrait vivre dans des zones urbaines plutôt que rurales. On estime que seul un-huitième de la surface de la Terre convient pour les humains ; trois-quarts de la Terre sont recouverts par les océans et la moitié des terres émergées sont des déserts (14 %), des hautes montagnes (27 %) ou d'autres milieux peu accueillants. L'implantation humaine permanente la plus au nord est Alert sur l'île d'Ellesmere au Canada (82°28′N). La plus au sud est la station d'Amundsen-Scott en Antarctique située près du pôle sud (90°S). La totalité des terresDans le passé, la croyance en une terre plate fut contredite par les observations et par les circumnavigations et le modèle d'une Terre sphérique s'imposa. À la différence des autres planètes du Système solaire, l'humanitéQuelques groupes religieux souvent affiliés aux branches fondamentalistes du protestantisme et de l'islam avancent que leur interprétation des mythes de la création dans les textes sacrés est la véritéLa vision humaine concernant la Terre a évolué depuis les débuts de l'aérospatiale et la biosphère est maintenant vue selon une perspective globale. Cela est reflété dans le développement de l'écologie qui s'inquiète de l'impact de l'humanité sur la planète. Dès 1945, Paul Valéry, dans son ouvrage "Regards sur le monde actuel", estimait que « le temps du monde fini commence ». Par « monde », il n'entendait pas le monde-univers des Anciens, mais "notre monde" actuel, c'est-à-dire, la Terre et l'ensemble de ses habitants. Bertrand de Jouvenel a évoqué la finitude de la Terre dès 1968. Le philosophe Dominique Bourg, spécialiste de l'éthique du développement durable, évoque la découverte de la finitude écologique de la Terre dans "la nature en politique ou l'enjeu philosophique de l'écologie" (2000). Estimant que cette finitude est suffisamment connue et
|
La Terre est une planète du Système solaire, la troisième plus proche du Soleil et la cinquième plus grande, tant en taille qu'en masse, de ce système planétaire dont elle est également la plus massive des planètes telluriques.
|
xwikis
|
Neptune n'est pas visible à l'œil nu et, comme Uranus, elle n'a été découverte qu'après l'invention du télescope. Pourtant, cette découverte se démarque de celle des autres planètes : elle a été faite uniquement par le calcul à partir de la trajectoire et des caractéristiques d'Uranus. Le télescope ne sert par la suite qu'à la confirmation de la découverte. Plusieurs astronomes ont manqué de faire la découverte par les moyens traditionnels (observation au télescope). Les dessins astronomiques de Galilée montrent qu'il a observé Neptune le alors qu'il regardait Jupiter. La planète est alors répertoriée comme une simple étoile de. Il la remarque de nouveau dans le ciel un mois plus tard, le, et constate même qu'elle a bougé par rapport à une étoile voisine. Ce ne peut donc être uneLors d'une réunion de la, George Biddell Airy rapporta que les tables de Bouvard étaient erronées de plus d'une demi-minute d'arc. Cet écart inquiétant devait absolument être résolu. Deux hypothèses s'opposèrent, celle proposée par Bouvard lui-même de l'existence d'une autre planète encore inconnue, et qui pourrait affecter les mouvements d'Uranus, ou celle d'une remise en cause de la loi universelle de la gravitation, proposée par Airy. Selon Airy, la loi de gravitation perdrait de sa validité au fur et à mesure que l'onLe Verrier communique ses résultats définitifs à l'Académie des sciences le. Devant le peu d'enthousiasme des astronomes français, il décide de faire alors appel à une de ses connaissances : l'astronome prussien Johann Gottfried Galle de l'observatoire de Berlin. Galle reçoit la position de Neptune par courrier le. Le soir même, il pointe son télescope de vers l'endroit indiqué et passe au peigne fin toutes les étoiles de la région, pendant que son assistant Heinrich Louis d'Arrest vérifie si l'astre observé est répertorié sur les cartes stellaires récentes de Bremiker. Vers minuit, Galle trouve Neptune, à environ un degré de l'emplacement calculé. Il attend quelques heures pour vérifier si l'astre a bien bougé, avant de confirmer qu'il s'agit bien de la planète recherchée. Outre-Manche, la déception est grande. Challis apprend la découvertePeu de temps après sa découverte, Neptune fut appelée simplement « la planète extérieure à Uranus » ou comme « planète Le Verrier ». La première suggestion pour un nom vint de Galle, qui proposa le nom de Janus, du dieu romain des commencements et des fins, des choix et des portes. En Angleterre, Challis mettait en avant le nom d'Océan, un Titan, fils d'Ouranos (équivalent grec d'Uranus). Revendiquant le droit de nommer sa découverte, Le Verrier a rapidement proposé le nom Neptune pour cette nouvelle planète, tout en déclarant faussement que cela avait été officiellement approuvé par le Bureau des longitudes. En octobre, il a cherché à nommer la planète Le Verrier, en son nom, ayant le soutien fidèle du directeur de l'observatoire, François Arago. Cette suggestion a rencontré une vive résistance hors de France. Wilhelm Struve s'est prononcé en faveur du nom de Neptune, le, à l'Académie des sciences deNeptune est la seule des huit planètes connues à avoir été découverte par le calcul mathématique plutôt que par l'observation empirique. Contrairement aux sept autres planètes, Neptune n'est jamais visible à l'œil nu : sa magnitude apparente de 8,0 en fait un astre environ quatre fois moins brillant que les plus pâles étoiles visibles à l'œil nu, dont la magnitude apparente ne dépasse pas 6,5. Elle n'apparaît comme un disque bleu-vert qu'à travers un télescope. Durant le et le début du, les astronomes pensaient que Neptune était, avec Uranus, une planète tellurique. En 1909, les scientifiques crurent avoir observé, dans le spectre de Neptune, la bande verte caractéristique d'une présence de la chlorophylle, et l’hypothèse de la vie végétale sur cette planète fut émise. On" est la première sonde spatiale, et à ce jour la seule, à avoir survolé Neptune. La trajectoire à travers le système neptunien est mise au point une fois le survol d’Uranus et de ses lunes achevé. Comme il doit s’agir du dernier passage de près d’une planète, il n’existe pas de contraintes sur la manière de sortir du système planétaire et plusieurs choix sont possibles : l’équipe sur Terre opte pour un passage à faible distance du pôle nord de NeptuneTrois images furent prises, le, le et le, lorsque Neptune était à de kilomètres de la Terre, par le télescope spatial "Hubble". S'appuyant sur les découvertes initiales de "Voyager", "Hubble" a révélé que Neptune a une atmosphère remarquablement dynamique, qui change en quelques jours. Durant cette prise, la grande tache sombre n'était plus visible, indiquant aux astronomes qu'elle avait pu être recouverte ou qu'elle avait disparu. LaDepuis sa découverte en 1846 jusqu'à la découverte de Pluton en 1930, Neptune était la planète la plus éloignée connue. Avec la découverte de Pluton, Neptune est devenu l'avant-dernière planète, sauf pour une période de entre 1979 et 1999, lorsque l'orbite elliptique de Pluton était plus proche du Soleil que Neptune. La découverteAvec une masse de, Neptune est un corps intermédiaire entre la Terre et les géantes gazeuses comme Jupiter ou Saturne. Sa masse est plus importante que celle de la Terre, mais elle correspond à un de celle de Jupiter. Le rayon équatorial de la planète est de, environ quatre fois plus grand que celui de la Terre. Neptune a la particularitéNeptune ressemble aussi à Uranus au niveau de sa magnétosphère, avec un champ magnétique fortement incliné par rapport à son axe de rotation à 47° et le décalage d'au moins, soit environ du centre physique de la planète. Avant l'arrivée de la sonde " à proximité de Neptune, il a été émis l'hypothèse que la magnétosphère inclinée d'Uranus était le résultat de sa rotation inclinée. En comparant les champs magnétiques des deux planètes, les scientifiques pensent maintenant que leur orientation extrême peut être caractéristique des flux venant de l'intérieur des planètes. L'onde de choc deLa distance moyenne entre Neptune et le Soleil est de de kilomètres (environ ), et il effectue une orbite complète en moyenne tous les, objet d'une variabilité de l'ordre de. L'orbite elliptique de Neptune est inclinée de 1,77° par rapport à la Terre. Du fait d'une excentricité, la distance entre Neptune et le Soleil varie de de kilomètres entre périhélie et aphélie. L'inclinaison axiale de Neptune est 28,32°, ce qui est relativement similaire à celle de la TerreLa composition interne de Neptune serait similaire à celle d'Uranus. Elle possède très probablement un noyau solide de silicates et de fer d'à peu près la masse de la Terre. Au-dessus de ce noyau, là encore à l'instar d'Uranus, Neptune présenterait une composition assez uniforme (glaces, hydrogène et hélium) et non pas une structure « en couches » comme Jupiter et Saturne. Cependant, plusieurs modèles actuels de la structure d'Uranus et Neptune proposent l'existence de : un cœur de type tellurique, une couche médiane allant de glacée à liquide et formée d'eau, de méthane et d'ammoniac, et une atmosphère d'hydrogène et d'hélium dans les proportions solaires. La pression maximum de la couche médiane est estimée à ( d'atmosphères) et sa température maximum à.L'atmosphère de Neptune, épaisse de plus de, est composée à haute altitude de 84 % d'hydrogène et de 12 % d'hélium avec de l'ordre de 1,5 % de méthane. Des traces d'ammoniac (), d'éthane () et d'acétylène () ont également été détectées. La couleur bleue de Neptune provient principalement du méthane qui absorbe la lumière dans les longueurs d'onde du rouge. Cependant, la couleur azur de l'atmosphère de Neptune ne peut être expliquée par le seul méthane et d'autres espèces chimiques, pour l'heure nonLors du passage de " en 1989, la marque la plus distinctive de la planète était la « Grande tache sombre » (GTS), qui présentait à peu près la moitié de la taille de la « Grande tache rouge » de Jupiter. Les vents y soufflaient vers l'ouest à () ou encore, jusqu'à. Cette tache était un gigantesque ouragan sombre qui pouvait se déplacer à plus de. La grande tache sombre génère de gros nuages blancs, juste en dessous de la tropopause (limite supérieure de la troposphère et la limite inférieure de la stratosphère). Contrairement aux nuagesUne des différences entre Neptune et Uranus est l'activité météorologique. Quand la sonde " passa devant Uranus en 1986, la planète semblait calme. Au contraire, Neptune présentait des phénomènes météorologiques durant son survol en 1989. Le temps sur Neptune est caractérisé par un système nuageux dynamique, avec des vents atteignant les, une vitesse proche de celle du son dans l'atmosphère de Neptune. La vitesse des vents varie de lorsqu'ils vont vers l'est à lorsqu'ils vont vers l'ouest. Au sommet des nuages, les vents vont de à l'équateur à aux pôles. La plupart des vents sur Neptune se déplacent dans la direction opposée au sens de rotation de la planète. Le modèle général des vents a montré une rotation prograde à hautes latitudes contre une rotation rétrograde aux latitudes inférieures. La différence de la direction des vents ne semble pas être due à un processus deNeptune possède des anneaux planétaires peu visibles. Ceux-ci sont sombres et leur composition, ainsi que leur origine, sont inconnues. Les anneaux de Neptune furent détectés sur Terre au Chili, en 1984 grâce à des observations conduites d'une part à l'ESO par Patrice Bouchet, Jean Manfroid, et Reinhold Haefner pour André Brahic, Bruno Sicardy, et Françoise Roques de l'Observatoire de Meudon, et d'autre part par William Hubbard à partir d'observations conduites par Faith Vilas à l'Observatoire inter-américain de Cerro Tololo (AURA, Inc.), lors d'occultations d'étoiles ; on pensait alors que ceux-ci n'étaient pas « complets » mais n'étaientNeptune possède au moins, dont le plus important est Triton, découvert par William Lassell seulement après la découverte de Neptune, le. Le second à être découvert, Néréide, ne le fut qu'en 1949, soit plus d'un siècle après Triton. Avant l'arrivée de la sonde "" dans le système de la planète, seule Larissa fut découvert (en 1981), à la faveur d'une occultation d'étoile ; cette () lune ne put cependant être observée à nouveau avant le survol de Neptune par la sonde spatiale. L'analyse des photographies transmises par "" en 1989 permit de découvrir satellites : Naïade, Thalassa, Despina, Galatée et Protée. Découverts en 2002 par une équipe dirigée par Matthew Holman du et JJ Kavelaars du Conseil national de recherches Canada, S/2002 N1, S/2002 N2 et S/2002 N3 portent le nombre de satellites connus de Neptune. Leur découverte est un exploit du fait de la taille très petite des corps ainsi que leur distance de la Terre. En effet, ces corps ne font pas plus de de large et possèdent une magnitude. Puis l'équipe de Matthew J. Holman découvrit S/2002 N4 qui est la lune la plus éloignée de sa planète de tout leComme Jupiter et Mars, Neptune possède des astéroïdes troyens, partageant son orbite autour du Soleil. Neuf ont été confirmés à ce jour (). fut observé pour la première fois en par l'équipe de Marc William Buie sur le télescope Blanco de de l'Observatoire du Cerro Tololo. Sa position relative oscille autour du point et le long de l'orbite neptunienne avec une période d'environ. Son orbite est très stable, il se situe dans une région qui garantit qu'il co-orbiteraNeptune n'est jamais visible à l'œil nu, ayant une luminosité entre les, or il n'est pas possible d'observer à l'œil nu des objets astronomiques dont la magnitude apparente est supérieure. Elle a été éclipsée par les lunes galiléennes de Jupiter, la planète naine Cérès et les astéroïdes Vesta, Pallas, Iris, Junon et Hébé. Un télescopeLe plus proche passage à proximité de la planète a été effectué par "Voyager 2" le. S'agissant de la dernière planète majeure que la sonde pouvait visiter, il a été décidé de planifier un survol rapproché de sa lune Triton, quelles qu'en soient les conséquences pour la trajectoire, comme il avait été fait pour la rencontre de "Voyager 1" avec Saturne et Titan. La sonde a vérifié l'existence d'un champ magnétique qui entoure laLa formation des géantes glacées, Neptune et Uranus, s'est avérée difficile à modéliser avec précision. Les modèles actuels suggèrent que la densité de matière dans les régions extérieures du Système solaire était trop faible pour permettre la formation de ces grands corps avec la méthode traditionnellement acceptée d'accrétion de base, et différentes hypothèses ont été avancées pour expliquer leur création. La première est que les géantes de glace n'ont pas été créées par accrétion de base, mais des instabilités dans le disque protoplanétaire originaireEn astrologie, Neptune () est la planète associée au signe des Poissons. L'élément chimique neptunium fut découvert par Edwin McMillan et Philip Abelson en 1940. La découverte a été faite au de l'université de Californie, à Berkeley, où l'équipe produisit l' du neptunium, d'une demi-vie de, en bombardant de l' (faisant référence à Uranus) avec des neutrons. C'est l'étape intermédiaire menant à la production du (faisant référence à Pluton). « Neptune, le mystique » est le et dernier mouvement de l'œuvre pour grand orchestre "Les Planètes", composée et écrite par Gustav Holst entre 1914 et 1916. Après l'opération "Uranus", l'opération "Neptune" est le nom de code donné au débarquement en Normandie des troupes alliées en lors de la Seconde Guerre mondiale. Il précède la bataille de Normandie. Jimi Hendrix a écrit et enregistré (pour la première fois en ) "Valleys of Neptune", une chanson qui n'a été publiée (officiellement) qu'en sur l'album "Valleys of Neptune". Le 7ème art et la télévision ont généré de nombreuses œuvres portant le nom de Neptune tant dans leurs titres que dans leurs sujets et leurs personnages. Une partie de l'intrigue du film "Ad Astra" de James Gray en 2019 se déroule en orbite de la planète Neptune.
|
Neptune est la huitième et dernière planète du Système solaire par distance croissante au Soleil. Neptune orbite autour du Soleil à une distance d'environ, avec une excentricité orbitale moitié moindre que celle de la Terre, en bouclant une révolution complète en. C'est la troisième planète du Système solaire par masse décroissante et la quatrième par taille décroissante : Neptune est en effet à la fois un peu plus massive mais un peu plus petite qu'Uranus.
|
xwikis
|
Le substantif féminin « planète » est emprunté, par l'intermédiaire du latin ', au grec ancien, ', pris de l'expression, "", qui désigne un « astre en mouvement » ou « astre errant », par opposition aux étoiles (les « étoiles fixes ») qui apparaissent immobiles sur la voûte céleste. Ce mouvement apparent, repéré en suivant la planète dans le ciel d'une nuit à l'autre, a été observé très tôt par les hommes de toutes les civilisations, mais sa complexité est longtemps restée un mystère pour les astronomes jusqu'à son identification à la résultante des courses elliptiques de la Terre et des autres planètes autour du Soleil. Si les planètes du Système solaire sont visibles la nuit dans le ciel, c'est parce qu'elles réfléchissent la lumière du Soleil, contrairement aux étoiles qui brillent par elles-mêmes.La définition d'une planète telle que reprise ci-dessus dit en substance qu'un corps doit présenter une masse d'au moins 5 × 10 kg et un diamètre d'au moins pour être considéré comme une planète. Pour le dictionnaire, dont les définitions n'ont qu'une valeur académique et non scientifique, une planète est un. En 2003, Sedna avait déjà été décrétée par les médias comme étant la dixième planète du Système solaire, mais beaucoup d'astronomes étaient réticents pour lui accorder ce statut. En fait, les astronomes n'étaient pas unanimes sur la définition d'une planète et l'UAI a donc tranché la question. Jusqu'en 2006, la "National Academy of Sciences" américaine définissait une planète comme étant un corps de moins de deux masses joviennes gravitant autour d'une étoile. Mais cette définition ne tenait pas compte des récentes découvertes, dont celles de (136199) Éris (en 2005), de (90377) Sedna et autres objets de la Ceinture de Kuiper.Classiquement, le terme « planète » s'oppose à celui d'« étoile ». Planète et étoile diffèrent en ceci que l'énergie lumineuse rayonnée par une planète ne provient pas de son sein propre mais de l'étoile autour de laquelle elle gravite (toute planète émet des rayonnements électromagnétiques, généralement dans l'infrarouge en raison de sa faible température). Même si cette opposition entre production et réflexion de lumière garde une part essentielle de sa pertinence, elle pose quelques problèmes conceptuels de définition. Ce qui aujourd'hui distingue le plus utilement le concept de planète et celui d'étoile est le mode de formation :Bien qu'elles n'émettent pas de lumière visible, les planètes produisent un peu d'énergie détectable en infrarouge (IR). Pour la Terre, vu de l'espace, ceci est environ fois moins que ce qui est reçu du Soleil. Le phénomène est plus important pour Jupiter, Saturne et Neptune. Dans l'infrarouge, elles renvoient 2 à 2,5 fois plus d'énergie qu'elles n'en reçoivent du Soleil. Théoriquement, il existe des planètes qui n'orbitent autour d'aucune étoile. Formées autour de ces dernières, elles peuvent être libérées de leur lien gravitationnel par diverses interactions gravitationnelles. De telles planètes, dites « planètes flottantes » ne reflètent la lumière d'aucune étoile. Le, l'Institut de planétologie et d'astrophysique de Grenoble a annoncé la découverte probable d'une planète de cette catégorie, appelée CFBDSIR 2149-0403. Au sein du Système solaire, les planètes ont une orbite elliptique qui est, à l'exception de Mercure, quasi circulaire et dont le Soleil est situé à l'un des foyers. En première approximation, les planètes orbitent toutes dans un même plan nommé écliptique. L'écliptique est inclinée de sept degrés par rapport au plan de l'équateur du Soleil. Les planètes orbitent toutes dans la même direction, dans le sens contraire de celui des aiguilles d'une montre lorsque regardées du dessus du pôle nord du Soleil.Les étoiles les plus petites, les naines brunes, n'ont jamais été assez massives pour engendrer un processus de fusion thermonucléaire en leur sein, à part les plus massives qui brûlent le deutérium de leur enveloppe pendant quelques dizaines de millions d'années avant de se refroidir. Les naines brunes rayonnent un grand nombre de milliards d'années mais pas selon le processus classique (proton/proton ou CNO) ; elles n'appartiennent pas de ce fait à la séquence principale.Tout astronome a besoin de construire une définition scientifique qui peut s'avérer parfois assez éloignée de la définition communément admise. Quatre définitions ont été proposées en 2005 par l'astronome Michael E. Brown qui permettent d'avoir une idée plus claire sur la question : Michael Brown et son équipe reconnaissent qu'il n'existe pas de définition scientifique qui épouse à la fois les conditions rencontrées dans le Système solaire et notre culture. Comme il l'a écrit. Pour lui, la question est donc entendue : en 2005, il existe donc dix planètes dans le Système solaire et une kyrielle d'autres populations de petits corps. À l'inverse, beaucoup d'astronomes préfèrent considérer qu'il existe huit planètes (de Mercure à Neptune), et qu'en raison de leurs caractéristiques, Pluton et les autres corps de la ceinture de Kuiper, qu'ils soient petits ou gros, sont des objets d'un autre type (qu'on désigne d'ailleurs sous le terme générique de transneptuniens).On connaît avec certitude l'existence de huit planètes dans le Système solaire. En Occident elles sont chacune nommées d'après un dieu romain, sauf la Terre, et on leur associe un symbole astronomique, voire astrologique. Par ordre croissant d'éloignement du Soleil, ce sont : Une neuvième planète pourrait également exister, à une distance très supérieure aux autres planètes connues. Les planètes du système solaire peuvent être divisées en trois catégories : Pour se souvenir de l'ordre, une méthode courante est de mémoriser une phrase mnémotechnique comme, les initiales de chaque mot suivant celles des planètes, classées par distance en partant du Soleil. Celle donnée ici est une adaptation de la phrase, écrite à l'époque où on considérait Pluton comme une planète. En effet, historiquement, Pluton, comme (1) Cérès, a été considérée comme une planète depuis sa découverte. Puis les astronomes ont reconsidéré ce statut en constatant qu'il s'agissait d'un objet d'un type relativement courant découvert depuis les années 2000. Ils ont requalifié Pluton le car on a découvert d'autres objets transneptuniens de taille comparable dans la ceinture d'astéroïdes extérieurs, comme (136199) Éris (paradoxalement on hésitait alors à qualifier cet objet de dixième planète, et on le désignait alors par son nom de code Xéna car la décision sur le nom était trop lourde de responsabilité au cas où il serait qualifié de planète).Les deux planètes les plus proches du soleil, Mercure et Vénus, n'ont pas de satellite. Parmi les planètes telluriques, seules Mars et la Terre en possèdent : deux satellites tournent autour de Mars, et la Terre n'a que la Lune comme satellite naturel. Les géantes gazeuses, plus volumineuses et ayant une masse plus importante, sont susceptibles d'attirer des objets célestes. Ainsi, Saturne possède officiellement après la découverte courant 2019 de lunes, ce qui la place devant Jupiter avec ses. Uranus et Neptune, géantes de glace beaucoup moins massives que les géantes gazeuses, possèdent respectivement, aux erreurs d'observation près,.Depuis 1990, année de la découverte des premières planètes extrasolaires par Aleksander Wolszczan, on sait qu'il existe des planètes autour d'autres étoiles. Il est même probable que leur présence soit très courante étant donné le nombre de planètes identifiées depuis lors, alors que les techniques dont on dispose pour le moment ne permettent de détecter que les planètes massives et proches de leur étoile. Même si celles qui ont été détectées jusqu'ici sont presque toutes des planètes géantes (au moins de la taille de Jupiter ou Saturne), les astronomes ne désespèrent pas de mettre en évidence des planètes similaires à la Terre, ce qui pourrait justifier certaines recherches d'une vie extraterrestre. Entre 1995 et 2005, près de 170 exoplanètes ont été ainsi découvertes. En 2005, pour la première fois, des astronomes ont pu discerner la lumière émise directement par deux planètes, malgré la lueur éblouissante et toute proche de leurs étoiles. Jusqu'alors, les découvertes n'étaient qu'indirectes, en constatant les perturbations exercées par les planètes sur leurs étoiles ou en mesurant une baisse de luminosité lors d'une éclipse. Cette fois, deux découvertes presque simultanées ont été faites par deux équipes différentes observant des planètes différentes. Mais comme les deux équipes ont toutes deux utilisé le télescope spatial infrarouge américain Spitzer, la Nasa a décidé de profiter de l'occasion pour annoncer les deux découvertes en même temps. Le, une équipe de scientifiques américains a annoncé la découverte de la exoplanète découverte depuis 1995. Les caractéristiques de cette planète sont : Dans la revue "Nature" du, l'astrophysicien polonais Maciej Konacki du California Institute of Technology (Caltech) a révélé qu'il avait découvert une géante gazeuse, autour de HD 188753, une étoile triple (un système binaire gravitant autour d'une étoile primaire de type solaire). La planète, HD 188753 Ab, gravite autour de l'étoile principale et est du type "Jupiter chaude", c'est-à-dire une géante gazeuse comme Jupiter, mais beaucoup plus proche de son étoile que ne l'est Jupiter du Soleil — plus proche de son étoile que Mercure ne l'est du Soleil, en fait! Les modèles actuels () de formation de telles planètes supposaient une formation à une distance appropriée pour une planète géante, suivie d'un rapprochement vers l'étoile centrale, ce qui n'est pas possible dans le cas particulier de HD 188753. La première photographie optique d'une exoplanète a été publiée le. D'une masse probablement proche de celle de Jupiter, cette planète, baptisée Fomalhaut b, est en orbite autour de l'étoile Fomalhaut dans la constellation du Poisson austral (Piscus austrinus), à une distance d'environ quatre fois celle séparant Neptune du soleil.On considère que les planètes se forment en même temps que leur étoile, par accrétion et condensation d'un nuage de gaz et de poussières sous l'influence de la gravitation. Tous les modèles de formation planétaire commencent donc par la formation d'une, voire de deux ou plus, étoiles au sein d'un effondrement, suivie par l'accrétion des poussières dans le disque résiduel circumstellaire.Une galaxie est un corps autogravitant aplati formé de gaz plus ou moins ionisés (plus ou moins chauds autrement dit) qui se stratifient selon l'épaisseur par gravité. Le plan médian, appelé "plancher galactique", le plus dense, correspond pourrait-on dire à la troposphère terrestre et c'est en son sein que se déroule la formation d'étoiles, assimilables à des précipités de gaz, suivie d'une restitution partielle sous le mode nébuleuse planétaire ou supernova, selon la masse de l'étoile. Le gaz restitué est enrichi en éléments lourds (C, N, O, Si, Al, Mg, Fe, etc.) qui se condensent en poussières, dont le rôle ultérieur est essentiel pour la formation planétaire. Les étoiles naissent en groupe au sein de vastes complexes moléculaires qui parsèment le plancher galactique. Ces complexes (ou nuages) moléculaires sont ainsi nommés en référence au fait que l'hydrogène s'y présente sous forme de molécule de dihydrogène H-H. Ces « régions » sont particulièrement denses (plus de atomes/cm) et froides (typiquement 10 à 100 K) par rapport aux régions voisines HII formées d'hydrogène ionisé (chaudes à K et presque vides avec 10 atomes/cm ou moins). La formation de ces régions nous introduit au phénomène central de la formation stellaire (qui se reproduit ensuite un peu différemment pour les planètes gazeuses, au moment d'accréter) : l'effondrement gravitationnel. Il y a effondrement lorsque la force de gravité créée par le nuage excède la pression thermique résultant du couple température-densité. L'effondrement est typiquement un phénomène auto-entretenu : au fur et à mesure que les molécules du nuage se dirigent vers le centre, sa densité augmente et avec elle la gravité qu'il génère. Mais le processus ne peut perdurer que si l'énergie thermique peut s'évacuer. En se contractant, c’est-à-dire en chutant librement sur lui-même, le nuage convertit son énergie gravitationnelle en énergie cinétique et celle-ci engendre une pression thermique, à l'occasion de nombreux chocs. Il faut donc que le nuage rayonne, phénomène facilité par la densité croissante, qui augmente la probabilité des chocs moléculaires, en partie non-élastiques. Il se forme ainsi au centre un noyau de gaz (« modèle de nucléation »), alors appelé proto-étoile, sur lequel tombe un flux de gaz à une vitesse qui croit avec la gravité de l'astre, c’est-à-dire avec sa masse. Un corps en chute libre percute la surface de l'astre avec une vitesse égale à la vitesse de libération de cet astre. Elle augmente rapidement au-delà de pour la proto-étoile. Au bilan, l'énergie gravitationnelle du nuage (Eg = GM2/r) est convertie en chaleur à la surface du jeune astre et constitue une quantité d'énergie rayonnée considérable. L'étoile naissante, avant même d'entamer le processus de fusion de l'hydrogène possède une température de surface 10 fois supérieure à ce qu'elle deviendra après stabilisation en séquence principale (soit pour le Soleil de l'ordre de contre par la suite). L'intense rayonnement de la proto-étoile, situé dans les UV, permet donc la poursuite du processus, tant que le nuage qui la surplombe reste transparent. Cette transparence est contrecarrée par la présence de poussière en densité croissante avec l'effondrement et qui l'opacifie. Toutefois en même temps que le nuage se contracte, il augmente sa vitesse angulaire de rotation afin de conserver son moment M de rotation. En tout point, M ~ w.r avec w la vitesse angulaire, en rad.s-1 et r la distance au centre de gravité. Si le r moyen diminue, w augmente : les pôles se dépeuplent en conséquence en faveur de l'équateur et ce tournoiement accéléré aplatit le nuage. Les pôles étant déchargés de matière, l'étoile peut rayonner librement sur une moitié de son angle solide. Par contre, la rotation de ce disque (où va se dérouler la formation planétaire) limite le processus d'effondrement et l'arrête complètement en l'absence de mécanisme qui dissipe son énergie de rotation. Ce disque est extraordinairement ténu, par rapport à toute forme d'état de la matière observable sur Terre. Il s'agit pourtant d'une zone très dense de gaz et de poussière, à l'échelle interstellaire. Un corps de taille métrique en orbite en son sein met moins de 10 Ma pour tomber sur la proto-étoile, en dissipant son énergie gravitationnelle par frottements. C'est dans cet intervalle que vont pouvoir se former des planètes.Au départ, le nuage possède une opacité non négligeable sur une épaisseur de l'ordre de 10 à 30 UA. La poussière responsable de cette opacité tombe doucement, à une vitesse de un à dix mètres par seconde, au sein du gaz ténu, vers le plan de révolution. En ans environ, la proto-étoile se dote d'un disque fin de poussières (quelques kilomètres d'épaisseur) enserré dans une galette de gaz qui garde presque son épaisseur initiale. La poussière, durant sa chute au sein d'un gaz turbulent, forme au hasard des flocules qui peuvent atteindre des tailles centimétriques ( fois plus gros que les poussières). L'agrégation résulte des simples forces de contacts entre grains.Avant que ces grumeaux poussiéreux aient atteint une taille kilométrique, ils génèrent une traînée hydrodynamique suffisante pour les faire plonger vers la surface de la jeune étoile en moins d'un siècle (pour un corps d'un mètre situé à une unité astronomique). Il s'agit donc d'une étape critique. La phase de formation allant du centimètre au kilomètre (soit un gain de cinq ordres de grandeur) est une des plus difficilement modélisables, les rencontres au hasard à grande vitesse (plusieurs kilomètres à dizaines de kilomètres par seconde) étant tout autant susceptibles de pulvériser l'agrégat que de former un corps plus massif capable d'encaisser les chocs ultérieurs. En raison de sa masse supérieure, un des corps parvient à attirer par gravitation des poussières du sillon planétaire dans un périmètre qui excède son diamètre. À l'issue de ce stade, il peut atteindre le kilomètre et est à la fois attractif pour ce qui l'entoure et résistant en termes de traînée. Il se forme alors un planétésimal, dont le diamètre peut atteindre cinq à dix kilomètres et la masse est de l'ordre de mille milliards de tonnes. Il deviendra un petit corps (astéroïde ou comète) ou une planète. À ce stade, le système est peuplé de milliards de comètes coexistant avec des corps solides de tailles échelonnées du micromètre au kilomètre.La formation de planète à partir des planétésimaux dure environ ans et a fait l'objet de simulations numériques qui en donnent l'image suivante :Les simulations numériques montrent que les orbites circulaires des cœurs planétaires sont perturbées par les interactions gravitationnelles mutuelles et ont tendance à devenir elliptiques, ce qui favorise la collision des cœurs et leur croissance par agglomération. Cette phase nettoie également le système en formation des innombrables planétésimaux résiduels qui, s'ils frôlent de trop près les planètes en formation sont détruits par la force de marée ou expulsés dans l'espace interstellaire. Dans un disque circumstellaire d'environ un millième de masse solaire, une planète tellurique (ou rocheuse) peut se former en 10 à 100 millions d'années et le scénario qui précède rend compte avec succès de leur formation.Expliquer la formation des planètes gazeuses — quelque ans à 1 million d'années — comme Jupiter ou Saturne dans un disque de masse minimal, tel que précédemment défini est plus problématique. Les planètes géantes sont sans doute constituées d'un cœur solide (métaux + silicates + glaces planétaires) qui doit ensuite capturer par gravité une enveloppe gazeuse, ce qui nécessite l'atteinte d'une masse critique en deçà de laquelle la pression due à l'énergie libérée par les planétésimaux qui entrent en collision avec le cœur planétaire est suffisante pour s'opposer à l'effondrement gravitationnel du gaz environnant, et l'enveloppe gazeuse reste peu importante. À l'emplacement des géantes gazeuses de notre système, la masse critique est de l'ordre de quinze masses terrestres ce qui correspond à peu près à la masse de Neptune ou d'Uranus. Cette masse critique a été atteinte car ces planètes sont au-delà de la ligne des glaces où la quantité de matière solide disponible était plus importante grâce à la condensation de l'hélium et de l'hydrogène qui forment des glaces (méthane CH, ammoniac NH, neige carbonique, glace d'eau HO, etc.). Au-delà de la masse critique l'accrétion ne s'arrête qu'après épuisement du gaz disponible dans la fraction du disque où s'est formée la planète, ouvrant ainsi un sillon dans le disque protoplanétaire. Ainsi se forment des géantes gazeuses de la masse de Jupiter (trois cents masses terrestres) ou de Saturne (cent masses terrestres). Encore faut-il pour cela que tout le disque ne soit pas déjà retombé sur l'étoile. Or sa durée de vie n'est que de un à quelques dizaines de millions d'années. Les simulations montrent que pour former des planètes de la masse de Saturne et de Jupiter le disque doit posséder une masse de trois à cinq fois supérieure à la masse minimale suffisante à la formation des planètes telluriques et doit les former en un temps limité par la durée de vie du disque.Les noms des planètes du Système solaire sont attribués par les commissions de l'Union astronomique internationale (UAI). Celles-ci adoptent de manière cohérente les noms des dieux de la mythologie romaine qui ont été imposés par l'astrolâtrie de la mythologie grecque. En raison de sa couleur rouge, on dénomma la quatrième planète Mars en référence au dieu romain de la guerre (et donc du sang) et, plus récemment, la planète (136199) Éris, déesse de la discorde pour la planète naine dont la découverte a obligé les astronomes à redéfinir la notion de planète au détriment de Pluton, qui ne respecte pas le nouveau critère d'« élimination des rivales ».
|
Une planète est un corps céleste orbitant autour du Soleil ou d'une autre étoile, possédant une masse suffisante pour que sa gravité la maintienne en équilibre hydrostatique, c'est-à-dire sous une forme presque sphérique, et ayant éliminé tout corps « rival » se déplaçant sur son orbite ou sur une orbite proche. Par extension on qualifie parfois aussi de planètes les objets libres de masse planétaire.
|
xwikis
|
D'après Greg Buchwald, Michel DiMario et Walter Wild, Pluton a été photographié le 21 août et le 11 novembre 1909 à l'observatoire Yerkes de l'université dePluton fut découvert en 1930 lors de la recherche d'un corps céleste permettant d'expliquer les perturbations orbitales de Neptune, hypothèse proposée par Percival Lowell comme la planète X. Ayant fait fortune dans les affaires, Lowell se fait construire en 1894 un observatoire à plus de d'altitude dans l'Arizona et entreprend la recherche d'une neuvième planète au-delà de Neptune. Il pense suivre la même méthode que celle qui avait conduit à la découverte de cette dernière en étudiant son orbite, mais la précision des instruments de l'époque ne permettant pas de mesurer de façon précise les anomalies orbitales, il doit se rabattreÀ l'origine, la découverte de Pluton est liée à la recherche systématique d'une planète permettant d'expliquer les perturbations observées dans les orbites d'Uranus et Neptune, mais le doute est très vite jeté sur le fait que Pluton serait bien la planète X que Percival Lowell recherchait. À cette époque, Pluton est si lointaine que son diamètre ne peut pas être déterminé avec précision, mais sa faible luminosité et son absence de disque apparent laissent présager un corps plutôt petit, comparable en taille aux planètes telluriques déjà connues, probablement plus grand que Mercure mais pas plus que Mars, pense-t-on à l'époque. Il devient donc rapidement clair que Pluton ne peut pas être la source des perturbations dans les orbites de Neptune et Uranus. Clyde Tombaugh et d'autres astronomes persévèrent dans la recherche de la planète X pendant 12 ans, mais ne découvrent que des astéroïdes et des comètes. Les astronomes sont amenés à imaginer que de nombreux autres corps similaires à Pluton pourraient orbiter autour du Soleil au-delà de Neptune. On pense alorsDans la dernière décennie du, la découverte de nombreux objets transneptuniens (plus d'un millier), dont certains ont une dimension estimée voisine de celle de Pluton (par exemple Éris), pousse à la remise en question de son statut de planète. Parmi ceux-ci, de très nombreux corps sont découverts qui possèdent une période de révolution égale à celle de Pluton, et sont comme lui en résonance 2:3 avec Neptune. Certains scientifiques proposent alors de reclasser Pluton en planète mineure ou en objet transneptunien. D'autres, comme Brian Marsden du Centre des planètes mineures, penchent pour lui attribuer les deux statuts, en raison de l'importance historique de sa découverte. Marsden annonce le 3 février 1999 que Pluton serait classée comme le objet du catalogue recensant justement mineures.Environ cent-cinquante objets orbitant comme Pluton avec une résonance 2:3 avec Neptune étaient recensés en février 2006, ce qui tend à montrer que Pluton est le plus grand représentant d'une vaste famille de corpsLe télescope spatial "Hubble" a fourni les imagesPluton est un objectif difficile pour l'exploration spatiale, à cause de la grande distance la séparant de la Terre (environ de kilomètres), de la forte inclinaison de son orbite (17°) sur l'écliptique et de sa très faible masse. À titre de comparaison, si la Terre était un ballon de football ( de circonférence), Pluton aurait environ la taille d'une balle de golf. À cette échelle, une distance de séparerait les deux planètes, soit du Circuit Gilles-Villeneuve ou la distance de Paris à Évreux. La sonde "Voyager 1" aurait éventuellement pu l'atteindre, mais l'exploration de Titan (le plus grand satellite parmi les innombrables que comporte Saturne) et des anneaux de Saturne fut jugée plus importante, ce qui eut pour effet de rendre sa trajectoire incompatible avec un rendez-vous avec Pluton. "Voyager 2" n'était pas en mesure de l'atteindre car la trajectoire théorique de la sonde pour réaliser ce rendez-vousL'orbite de Pluton autour du Soleil a été observée pendant plus d'un siècle (le cliché le plus ancien sur lequel on repère Pluton remonte à janvier 1914), durée de parcours d'un peu plus du tiers de sa trajectoire annuelle, mais suffisante pour mesurer avec précision ses caractéristiques orbitales.Le demi-grand axe de l'orbite de Pluton est de, mais du fait de l'excentricité prononcéeEn comparaison des planètes classiques du système solaire, l'orbite de Pluton est fortement inclinée par rapport au plan de l'écliptiqueLe périhélie de Pluton est situé à plus de au-dessus du plan de l'écliptique, soit 1,2 milliard de km, et c'est près de cette position de son orbiteL'orbite de Pluton étant très excentrique, elle croise celle de nombreux autres objets ; parmi les astéroïdes numérotés, ces hadéocroiseurs comptaient (en ) 10 frôleurs intérieurs (dont (5145) Pholos), 24 frôleurs extérieurs (dont (19521) Chaos), 17 croiseurs (dont (38628) Huya) et 37 coorbitaux (dont (20000) Varuna, (28978) Ixion et (50000) Quaoar).Bien que Pluton soit parfois plus proche du Soleil que Neptune, les orbites des deux objets ne se croisent jamais, en raison de la forte inclinaison (environ 17°) de l'orbite de Pluton par rapport au plan de l'écliptique. Les nœuds de l'orbite de Pluton (les points où l'orbite traverse le plan de l'écliptique) sont situés à l'extérieur de l'orbite de Neptune. Pluton est en résonance avec Neptune de rapport 3:2, c'est-à-dire que sur une durée de, Pluton effectue deux révolutions autour du Soleil pendant que Neptune en réalise trois. CetteSi la trajectoire de Pluton a pu être déterminée sans grande difficulté, ses caractéristiques physiques (diamètre, masse, et partant densité, pouvoir réflecteur, état de la surface) sont restées longtemps mal connues et controversées : son diamètre apparent est inférieur à 1⁄4 de seconde d'arc, tandis que les turbulences de l'atmosphère terrestre rendent difficile l'observation de détails inférieurs à une seconde d'arc. La finesse des observations s'est accrue à partir des années 1980, par l'usage de l'optique adaptative, de la spectrométrie, et du télescope spatial "Hubble". La découverte en 1978 d'un satellite de Pluton, Charon, offrit des moyens d'investigation supplémentaires. Néanmoins en 2010, les valeurs publiées diffèrent encore quelque peu selon que l'on se réfère à la NASA ou à des publications récentes. Le survol en 2015 par la mission "New Horizons" et les effets gravitationnels du couple Pluton-Charon sur la sonde permettront d'ajuster les valeurs de son champ de gravité, selon l'observation de l'effet Doppler sur les signaux de la sonde et la déduction qui en résulte des variations de sa vitesse et de son accélération induite par Pluton et Charon.En 1955, on observe que les variations de la luminosité de Pluton sont de l'ordre de 30 % et sont périodiques. On en déduit que Pluton tourne sur elle-même en, soit, et. Son axe de rotation est incliné de 57,5° par rapport à son plan orbital, ce qui est plutôt élevé et inhabituel dans le Système solaire (seule Uranus a une inclinaison comparable). Aux points de solstice de sonPluton, avec sa masse d'un cinq-centième de celle de la Terre et un diamètre de, est plus petite et moins massive que sept satellites naturels dans le Système solaire : la Lune ( de diamètre), les quatre satellites galiléens de Jupiter (Ganymède, ; Callisto, ; Io, ; Europe, ), le plus gros satellite de Saturne (Titan, ) et celui de Neptune (Triton, ).Avant son survol par la sonde "New Horizons", le diamètre de Pluton était l'un des paramètres physiques les moins bien connus et les plus difficiles à mesurer, et la source principale d'incertitude sur les autres paramètres dérivés comme la masse volumique. Sa très grande distance combinée à sa petite taille font qu'il est impossible de résoudre avec précision le disque de Pluton, et empêche donc les mesures « directes » de ses dimensions, que ce soit avec le télescope spatial "Hubble" ou avecLa masse de Pluton, tout comme son diamètre, ont été largement surestimés durant les décennies suivant sa découverte. Percival Lowell espérait trouver une planète comparable à Neptune, de l'ordre de dix fois la masse terrestre. La magnitude observée étant plus faible que prévu, on abaissa l'évaluation à une masse terrestre. Les estimations qui tablaient sur une taille comprise entre celles de Mercure et de Mars ont continuellement été revues à la baisse avec l'amélioration des instruments d'observation. En 1976, l'analyse de la lumière de Pluton fit supputer une surface glacée, donc un éclat fourni par une surface plus petite, et une masse réduite à un centième de celle de la Terre. La découverte de Charon en 1978 a permis, par application de la troisième loi de Kepler, de déterminer beaucoup plus précisément la masse totale du couple planétaire. La masse de Pluton est estimée en 2006 à, soit moins que celle de la Lune ou le cinq centième de la masse terrestre. En extrapolant cette baisse continuelle, deux astronomes facétieux sont allés jusqu'à annoncer la disparition complète de Pluton pour 1984.Pluton ne possède pas d'atmosphère significative. Mais d'après les lois de la physique, les glaces de sa surface doivent être en équilibre thermodynamique avec des phases gazeuses, elle serait donc entourée d'une mince enveloppe de gaz qui serait composée d'azote (N) à 90%, car c'est l'élément le plus volatil parmi ceux détectés à la surface, et de monoxyde de carbone (CO) à 10 %, ainsi que des traces de méthane (CH). En outre, les scientifiques de la mission "New Horizons" ont noté que cette atmosphèreLes variations de luminosité de Pluton témoignent d'une inégale brillance entre les différentes régions à sa surface. Pluton réfléchit la lumière solaire avec un albédo de 58 % en moyenne, ce qui est une valeur élevée (elle est de 31 % pour la Terre, et monte à 72 % pour Vénus grâce à sa couche nuageuse). Le pôle Nord est particulièrement brillant, avec un albédo estimé à 80 %, le pôle Sud est un peu moins lumineux, tandis que l'équateur présente uneLe survol de Pluton par la sonde "New Horizons" a révélé une géographie et une géologie bien plus diversifiées qu'on ne s'y attendait : vastes glaciers d'azote ( pour Sputnik Planitia, le plus grand d'entre eux), terrains chaotiques etL'existence de cryovolcanisme sur Pluton est envisagée. Ainsi, deux structures géologiques à sa surface,La composition interne de Pluton est pour l'instant inconnue. S'il y a eu différenciation planétaire, il pourrait y avoir un noyau rocheux. Si l'on accorde à Pluton une densité de 2, valeur approximative, la densité voisine de 1 des glaces détectées en surface doit être compensée par une masse rocheuse, de densité de l'ordre de 4 ou 5, en proportion égale aux glaces d'eau et d'éléments volatils (azote, méthane, oxyde de carbone). Ces roches pourraient affleurer à la surface sans être visibles car dépourvues de signatures spectralesLes recherches d'un satellite de Pluton partaient du postulat qu'un éventuel satellite devait être beaucoup plus petit que sa planète, comme c'est le cas dans le reste du Système solaire, et donc moins lumineux que Pluton. Des clichés réalisés dans les années 1950 et 1960 très surexposés par des temps de pauses longs ne donnèrent aucun résultat. La théorie de Gerard Kuiper qui proposait de voir en Pluton un ancien satellite de Neptune éjecté de son orbite, impliquait que Pluton ne pouvait probablement pas avoir de lune, ce qui n'incitait pas à sa recherche. La découverte d'un satellite près de après celle de Pluton fut donc fortuite. Pluton possède cinq satellites naturels connus, le plus grand étant Charon qui fut identifié dès 1978. Deux satellites plus petits ont été découverts en 2005 et nommés Hydre et Nix (connus jusqu'en par leurs désignations provisoires S/2005 P 1 et S/2005 P 2). Le cinquième membre du système, nommé provisoirement S/2011 (134340) 1 et informellement P4, fut découvert en 2011. La découverte d'un dernier satellite, provisoirement connu comme S/2012 (134340) 1 et informellement surnommé P5,Charon fut découvert en 1978, lors d'une campagne d'astrométrie destinée à affiner la mesure de position de Pluton. James Christy remarqua sur la tache lumineuse des clichés de Pluton une excroissance placée différemment selon les clichés, dont l'examen révéla une périodicité d'une semaine. Christy annonça sa découverte le 7 juillet 1978 et proposa de la nommer Charon. Comparativement à Pluton, Charon est un très gros satellite (son rayon de environ est la moitié de celui de Pluton, estimé à ), et le barycentre des deux corps se trouve au-delà de la surface de Pluton (à un peu plus de deux rayons plutoniens). Il s'agit du plus grand système de ce genre dans le Système solaire (certains astéroïdes binaires possèdent également ce trait, comme (617) Patrocle ; le barycentre du Soleil et de Jupiter est également situé à l'extérieur du premier) et il y est parfois fait référence comme un système binaire d'astéroïdes. Sous l'effet de marée gravitationnelle, Pluton et Charon sont tous les deux en rotation synchrone, avec une période de 6,387 jours : Charon présente toujours la même face à Pluton et Pluton la même facePluton possède deux autres satellites, qui furent photographiés le lors d'une campagne d'observation du télescope spatial "Hubble", temporairement nommés S/2005 P 1 et S/2005 P 2 puis dénommés Hydre (du nom du monstre l'Hydre) et Nix (de Nyx, mère de Charon). Ils ont été repérés par une équipe du Southwest Research Institute sur des clichés pris pour préparer la nouvelle mission d'exploration lointaine du Système solaire, "New Horizons". Leur existence fut confirmée par l'examen de photographies prises par Hubble et datant du. D'après les premières observations, le demi-grand axe de l'orbite de Nix mesure avec une période de et celui de l'orbite d'Hydre avec une période de.Pluton possède un quasi-satellite nommée (15810) Arawn. Les observations effectuées par le télescope spatial Hubble ont placé des limites quant à l'existence de satellites additionnels dans le système plutonien. Avec une probabilité de 90 %, aucune lune de plus de et d'un albédo similaire à celui de Charon (soit 0,38) n'existe dans une zone de 5" autour de Pluton. Pour un albédo plus sombre de 0,041, cette limite est portée à. Avec une probabilité de 50 %, cette limite descend à. Dans un article publié dans la revue "Nature", une équipe de scientifiques américains conduite par S. A. Stern (du ) a annoncé que Nix et Hydre se sont très probablement formées lors du même impact géant qui a donné naissance à Charon. L'équipe a émis l'hypothèse que d'autres grands objets binaires de la ceinture de Kuiper pourraient également abriter de petites lunes et que celles qui gravitent autour de Pluton pourraient générer des anneaux de débris autour de la planèteDifférentes théories ont été formulées pour expliquer l'origine du système plutonien,
|
Pluton, officiellement désignée par (134340) Pluton (désignation internationale : "(134340) Pluto"), est une planète naine, la plus volumineuse connue dans le Système solaire ( de diamètre, contre pour Éris), et la deuxième en termes de masse (après Éris). Pluton est ainsi le neuvième plus gros objet connu orbitant directement autour du Soleil et le dixième par la masse. Premier objet transneptunien identifié, Pluton orbite autour du Soleil à une distance variant entre 30 et et appartient à la ceinture de Kuiper, ceinture dont il est (tant par la taille que par la masse) le plus grand membre connu.
|
xwikis
|
Le terme de "nébuleuse" est utilisé jusqu'au début du pour désigner tout objet céleste d’aspect diffus. À partir des années 1920, l'astronome Edwin Hubble montre que l'aspect alors nébuleux de certains astres (les galaxies) n'est dû qu'à la résolution insuffisante des instruments utilisés. Depuis cette époque, on entend par "nébuleuse" toute région du milieu interstellaire particulièrement riche soit en gaz (le plus souvent de l'hydrogène), soit en poussière interstellaire, soit des deux. Charles Messier dresse à partir de 1781 un catalogue de 110 objets : des nébuleuses, mais aussi des amas d'étoiles et des galaxies. Elles sont prises en photo depuis l'invention de la technique. On en conserve les premières images à l'Observatoire de Paris.Les nébuleuses peuvent former des systèmes d'étoiles en s'effondrant sous l'effet de la gravitation. Ainsi, le Système solaire se serait formé à partir d’une nébuleuse solaire. Ce scénario a été évoqué pour la première fois au cours de la seconde moitié du par Emmanuel Kant et Pierre-Simon de Laplace.On distingue deux grandes familles de nébuleuses : Les nébuleuses peuvent être subdivisées en six types.Les nébuleuses planétaires sont des nébuleuses en émission qui sont la marque d'une étoile de faible masse en fin de vie et préfigurent le destin du Soleil. Souvent petites, rondes et relativement brillantes, les astronomes les ont longtemps confondues avec des planètes, d'où leur nom. Les astronomes savent maintenant que les nébuleuses planétaires n'ont aucun rapport avec les planètes. Quand une petite étoile (moins de huit masses solaires) vieillit et finit de consommer tout son hydrogène, puis son hélium, son cœur s'effondre pour former une naine blanche, tandis que les couches externes sont expulsées par la pression de rayonnement. Ces gaz forment un nuage de matière qui s'étend autour de l'étoile à une vitesse d'expansion de 20 à 30 kilomètres par seconde. Ce nuage est ionisé par les photons ultraviolets émis par l'étoile qui est devenue très chaude. Elles jouent un rôle crucial dans l'enrichissement de notre univers, transformant l'hydrogène primordial en éléments plus lourds et expulsant ces nouveaux éléments dans le milieu interstellaire. La première nébuleuse planétaire découverte est la nébuleuse de l'Haltère dans la constellation du Petit Renard, observée par Charles Messier en 1764. Ce sont des objets qui évoluent assez rapidement, sont souvent très colorés et leurs images sont parmi les plus spectaculaires.Les rémanents de supernova sont des nébuleuses en émission très étendues et sont le résultat de l'explosion violente d'une étoile de masse élevée. Elles arborent souvent une structure filamenteuse caractéristique qui évoque de la dentelle. Il existe deux voies possibles pour créer une supernova : La première supernova observée depuis l'invention du télescope date de 1885, dans la galaxie d'Andromède (SN 1885A)D'un aspect voisin de celui des vestiges de supernova, ces bulles de gaz résultent de l'expulsion progressive des couches externes d'une étoile extrêmement chaude et massive. Elles comptent parmi les étoiles les plus massives connues. Les deux bulles de Wolf-Rayet les plus célèbres sont certainement la nébuleuse du Croissant (NGC 6888) et la nébuleuse Casque de Thor (NGC 2359).Ces nébuleuses en émission sont caractérisées par l'excitation d'un nuage d'hydrogène et sont souvent associées à un amas ouvert d'étoiles jeunes ou en formation.Identiques en nature aux nébuleuses obscures, elles reflètent partiellement la lumière d'une étoile située à proximité.Constituées de poussières et de gaz nobles, elles absorbent en partie la lumière qui les traverse et voilent donc ce qui se trouve derrière elles. Dans le spectre visible, on ne peut les détecter que par contraste sur un champ d'étoiles ou une nébuleuse.
|
Une nébuleuse (du latin ', nuage) désigne, en astronomie, un objet céleste composé de gaz raréfié, de plasma ou de poussières interstellaires. Avant les années 1920, le terme désignait tout objet du ciel d’aspect diffus. Étudiées par des astrophysiciens spécialisés dans l'étude du milieu interstellaire, les nébuleuses jouent un rôle clé dans la naissance des étoiles.
|
xwikis
|
Le substantif masculin "quasar" est un emprunt à l'anglais américain ', un substantif de même sens, attesté en. Sa plus ancienne occurrence connue se trouve dans un article de l'astrophysicien sino-américain Hong‐Yee Chiu relatif à l'effondrement gravitationnel et paru dans la revue'en. C'est un mot-valise, contraction de l'adjectif'(« quasi-stellaire »), abréviation de'() par adjonction de'à '. En français, le mot "quasar" est employé dès, avec sa première occurrence publique connue dans « Les monstres du Cosmos », un article de Pierre-Charles Pathé paru dans "Le Nouvel Observateur" le.Un quasar est composé de trois grandes parties principales :On recense plus de ( d'après le plus grand catalogue en 2006). Tous les spectres observés montrent des décalages vers le rouge allant de 0,06 à 6,4 (voir la loi de Karlsson). Par conséquent, tous les quasars connus se situent à de très grandes distances de nous, le plus proche de nous étant à et le plus éloigné étant à, aux limites de l’univers observable. Quoique faibles quand ils sont observés optiquement (leur décalage vers le rouge élevé implique que ces objets s'éloignent de nous) les quasars sont les objets les plus brillants connus dans l’Univers. Le quasar qui apparait le plus brillant dans notre ciel est l'hyper-lumineux, dans la constellation de la Vierge. Il a une magnitude apparente d’environ 12,9 (assez brillant pour être vu avec un petit télescope) mais sa magnitude absolue est de −26,7. Cela veut dire qu’à une distance de (~ ), cet objet luirait dans le ciel aussi fortement que le Soleil. La luminosité de ce quasar est donc plus forte que celle du Soleil, ou environ plus forte que la lumière totale d’une galaxie géante, telle que notre Voie lactée. Le quasar super-lumineux APM 08279+5255 avait, lorsqu’on l'a découvert en 1998, une magnitude absolue de −32,2, quoique les images à haute résolution des télescopes Hubble et Keck révèlent que ce système est gravitationnellement grossi. Une étude du grossissement gravitationnel dans ce système suggère qu'il a été amplifié par un facteur d’environ 10. Cela est encore beaucoup plus lumineux que les quasars tout proches tels que. On pensait que HS 1946+7658 avait une magnitude absolue de −30,3, mais lui aussi était mis en valeur par l’effet de grossissement gravitationnel. On a découvert que les quasars variaient en luminosité sur différentes échelles de temps. Certains varient en brillance tous les, semaines, jours ou heures. Cette découverte a permis aux scientifiques de "théoriser" le fait que les quasars génèrent et émettent leur énergie dans une petite région, puisque chaque partie de quasar doit être en contact avec d’autres parties sur une échelle de temps pour coordonner les variations de luminosité. Ainsi, un quasar dont la luminosité varie sur une échelle de temps de quelques semaines ne peut être plus grand que quelques "semaines-lumière". Les quasars montrent beaucoup de propriétés comparables à celles des galaxies actives : le rayonnement est non-thermique et quelques-uns ont des jets et des lobes comme ceux des radiogalaxies. Les quasars peuvent être observés sur de nombreuses régions du spectre électromagnétique : les ondes radio, les infrarouges, la lumière visible, les ultraviolets, les rayons X et même les rayons gamma. La plupart des quasars sont les plus brillants dans le domaine du proche ultraviolet (~, ce qui correspond à la raie d'émission Lyman-α de l'hydrogène) dans leur référentiel propre, mais à cause des décalages vers le rouge considérables de ces sources, le pic de luminosité a été observé aussi loin que, soit dans le très proche infrarouge. Les "quasars de fer" montrent des raies d’émission très fortes résultant du fer ionisé, tel que.Comme les quasars montrent des propriétés communes à toutes les galaxies actives, beaucoup de scientifiques ont comparé les émissions des quasars et celles des petites galaxies actives due à leur similarité. La meilleure explication pour les quasars est qu’ils deviennent puissants grâce aux trous noirs supermassifs. Pour créer une luminosité de (la brillance typique d'un quasar), un trou noir supermassif devrait consumer la matière équivalente de par an. Les quasars les plus brillants sont connus pour dévorer solaires de matière par an. Les quasars sont connus pour s’allumer ou s’éteindre selon leur environnement. Une des implications est qu’un quasar ne pourrait, par exemple, continuer de se nourrir à ce rythme pendant d'années. Ce qui explique plutôt bien pourquoi il n’y a aucun quasar près de nous. Dans ce cas de figure, lorsqu’un quasar a terminé d’avaler du gaz et de la poussière, il devient une galaxie ordinaire. Les quasars fournissent également des indices quant à la fin de la réionisation du. Les plus vieux quasars () montrent une onde Gunn-Peterson et des régions d’absorption devant eux, indiquant que le milieu intergalactique était fait de gaz neutre, à ce moment-là. Des quasars plus récents montrent qu’ils n’ont aucune région d’absorption mais plutôt des spectres contenant une zone avec un pic connu sous le nom de forêt Lyman-α. Cela indique que l’espace intergalactique a subi une réionisation dans le plasma, et que le gaz neutre existe seulement sous la forme de petits nuages. Une autre caractéristique intéressante des quasars est qu’ils montrent des traces d’éléments plus lourds que l’hélium. Cela indique que ces galaxies ont subi une importante phase de formation d’étoiles créant une d'étoile, entre l’époque du et l’observation des premiers quasars. La lumière de ces étoiles a pu être observée grâce au télescope spatial Spitzer de la NASA (quoique fin 2005, cette interprétation demande encore à être confirmée).Les premiers quasars furent découverts avec des radiotélescopes vers la fin des. Beaucoup furent enregistrés comme des sources radio sans objet visible associé. En utilisant de petits télescopes et le télescope Lovell comme interféromètre, on a remarqué qu’ils avaient une très petite taille angulaire. Des centaines de ces objets ont été répertoriés dès 1960 et répertoriés dans le. En 1960, la source radio fut finalement reliée à un objet optique. Les astronomes détectèrent ce qui paraissait être une pâle étoile bleue à l’endroit des sources radios et obtinrent son spectre. Contenant énormément de raies d’émission inconnues — le spectre irrégulier défiait toute interprétation — la revendication de John Bolton parlant d’un grand décalage vers le rouge ne fut pas acceptée. En 1962, une percée fut accomplie. Une autre source radio,, allait subir cinq occultations par la Lune. Les mesures effectuées par Cyril Hazard et John Bolton durant l’une des occultations en utilisant le radiotélescope de Parkes permirent à Maarten Schmidt d’identifier l’objet du point de vue optique. Il obtint un spectre optique en utilisant le télescope Hale () du mont Palomar. Ce spectre révéla les mêmes raies d’émission étranges. Schmidt réalisa que c’étaient les raies de l’hydrogène "redshiftées" (décalées vers le rouge) de 15,8 %! Cette découverte démontra que s’éloignait à la vitesse de. Cette découverte révolutionna l’observation des quasars et permit à d’autres astronomes de trouver des émanant des raies d'émission et venant d’autres sources radio. Comme Bolton l’avait prédit plus tôt, s’avéra avoir un décalage vers le rouge équivalent à 37 % de la vitesse de la lumière. Le mot « quasar » fut inventé par l’astrophysicien dans la revue ", pour désigner ces intrigants objets qui devenaient populaires peu après leur découverte, mais qui se désignaient alors par leur appellation complète () : Plus tard, on découvrit que certains quasars (en fait, seulement ~10 %) n’avaient pas de fortes émissions radio. De là, le nom de « QSO » (") utilisé (en plus du mot « quasar ») en référence à ces objets, comprenant la classe des "radio-fort" et des "radio-silencieux". Le grand sujet de débat dans les était de savoir si les quasars étaient des objets proches ou lointains comme le suppose leur. On suggéra, par exemple, que le des quasars n’était pas dû à l’effet Doppler, mais plutôt à la lumière s’échappant d’un puits gravitationnel profond. Cependant, une étoile avec une masse suffisante pour former un tel puits serait instable. Les quasars montrent également des raies spectrales inhabituelles, auparavant visibles sur une nébuleuse chaude de basse densité, qui serait trop diffuse pour générer l’énergie observée et pour accéder au profond puits gravitationnel. Il y eut également de sérieux soucis en ce qui concerne l’idée de quasars cosmologiques lointains. Un des principaux arguments en leur défaveur était qu’ils impliquaient des énergies qui excédaient les processus de conversion connus, y compris la fusion nucléaire. Ces objections se sont effacées avec la proposition d’un mécanisme de disque d’accrétion, dans les. Et aujourd’hui, la distance cosmologique des quasars est acceptée par la majorité des chercheurs. En 1979, l’effet de lentille gravitationnelle prédit par la théorie de la relativité générale d’Einstein fut confirmée lors de l’observation des premières images du double quasar 0957+561. Dans les, des modèles unifiés furent développés dans lesquels les quasars étaient vus simplement comme une classe de galaxies actives, et un consensus général a émergé : dans beaucoup de cas, c’est seulement l’angle de vue qui les distingue des autres classes, tels que les blazars et les radiogalaxies. L’immense luminosité des quasars serait le résultat d’une friction causée par le gaz et la poussière tombant dans le disque d’accrétion des trous noirs supermassifs, qui peut transformer en énergie de l’ordre de 10 % de la masse d’un objet (à comparer à 0,7 % pour l'énergie produite lors du processus p-p de fusion nucléaire qui domine la production d'énergie dans les étoiles comme le Soleil). Ce mécanisme explique aussi pourquoi les quasars étaient plus communs lorsque l’Univers était plus jeune, comme le fait que cette production d’énergie se termine lorsque le trou noir supermassif consume tous les gaz et toutes les poussières se trouvant près de lui. Cela implique la possibilité que la plupart des galaxies, dont notre Voie Lactée, soient passées par un stade actif (apparaissant comme étant des quasars ou une autre classe de galaxie actives dépendant de la masse du trou noir et de son disque d’accrétion) et soient maintenant paisibles car elles n’ont plus de quoi se nourrir (au centre de leur trou noir) pour générer des radiations.
|
Un quasar (source de rayonnement quasi-stellaire,'en anglais, ou plus récemment « source de rayonnement astronomique quasi-stellaire », ') est un noyau de galaxie extrêmement lumineux (noyau actif). Les quasars sont les entités les plus lumineuses de l'Univers. Bien qu'il y ait d'abord eu une certaine controverse sur la nature de ces objets jusqu'au début des, il existe maintenant un consensus scientifique selon lequel un quasar est la région compacte entourant un trou noir supermassif au centre d'une galaxie massive. Leur taille est de le rayon de Schwarzschild du trou noir. Leur source d'énergie provient du disque d'accrétion entourant le trou noir.
|
xwikis
|
Le concept d'étoiles à neutrons est né immédiatement après la découverte du neutron en 1932 par James Chadwick. Le physicien Lev Landau proposa alors qu'il puisse exister des astres presque entièrement composés de neutrons et dont la structure serait déterminée par un effet de mécanique quantique appelé pression de dégénérescence, à l'instar d'une autre classe d'astres, les naines blanches dont la structure est déterminée par la pression de dégénérescence des électrons. Deux ans plus tard, en 1934, les astronomes Walter Baade et Fritz Zwicky eurent l'intuition que le passage d'une étoile ordinaire hypermassive à une étoile à neutrons libérerait une quantité considérable d'énergie et donc de rayonnement électromagnétique, donnant l'illusion de l'allumage d'un astre nouveau. Ils proposèrent alors le terme de « super-nova » pour décrire ce phénomène, par opposition au phénomène de nova bien documenté et largement moins énergétique, terme finalement transformé en « supernova ». Certaines étoiles plus massives, les hypernovas, génèrent une explosion 100 fois plus puissante et projettent deux jets traversant de matière à la quasi-vitesse de la lumière au niveau des pôles. L'étude des étoiles à neutrons n'a pris son essor qu'à partir de leur phénomène d'émission pulsée les révélant sous la forme de pulsar. Le premier pulsar découvert fut en 1967, par Jocelyn Bell, alors étudiante d'Antony Hewish. Le lien entre pulsar et étoiles à neutrons fut fait presque immédiatement par l'identification d'un pulsar au sein de la Nébuleuse du Crabe, le rémanent de la supernova historique, prouvant ainsi que les étoiles à neutrons étaient effectivement produites lors de l'explosion de supernovæ. Par la suite, de nombreux autres pulsars furent découverts au sein de rémanents de supernova. Cependant, la durée de vie d'un rémanent de supernova avant sa dispersion dans le milieu interstellaire est nettement plus brève que la durée pendant laquelle l'émission pulsée de l'étoile à neutrons est observable. Aussi la plupart des pulsars ne sont pas associés à un rémanent. Près de à neutrons sont connues en 2019, la majeure partie — plus de — étant détectée sous la forme de pulsars, l'autre sous la forme de sources de rayons X (principalement binaires X ou plus rarement par leur émission de surface). Leur étude permet de reconstituer certains aspects de la physique des étoiles à neutrons.Comme dans tout astre, la densité d'une étoile à neutrons augmente à mesure que l'on s'approche du centre. On distingue ainsi dans une étoile à neutrons plusieurs couches, selon la densité et les propriétés de la matière qui les compose. Il n'est bien sûr pas possible d'avoir un accès direct aux régions internes des étoiles à neutrons. Cependant, certaines propriétés peuvent être mises en évidence par l'observation, comme la mesure de la masse, du rayon d'une étoile à neutrons, ou d'une combinaison de ces deux quantités. D'autres phénomènes, comme le ralentissement des pulsars, et de brusques variations de leur vitesse angulaire (appelés "") permettent également de déterminer l'ordre de grandeur de leur champ magnétique, ainsi que de prouver que leur intérieur est superfluide. Les étoiles à neutrons sont des objets extrêmement sphériques. Le champ de gravitation est si intense que les montagnes ne peuvent pas excéder quelques centimètres de hauteur sous peine de s'effondrer sous leur poids. Dans le cas d'étoiles binaires, il est envisagé que des montagnes entre 10 centimètres et 1 mètre de hauteur se forment et soient stabilisées aux pôles magnétiques de l'étoile à neutron.Il est difficile de déterminer la masse d'une étoile à neutrons isolée. En revanche, si celle-ci fait partie d'un système binaire, il est possible de connaître sa masse par l'étude de son orbite. En pratique cela n'est faisable de façon robuste que si l'on a un système très serré de deux étoiles à neutrons et que l'on observe l'émission pulsée de l'une d'entre elles (voire les deux). De tels systèmes sont appelés pulsars binaires, ou pulsars doubles quand on observe l'émission pulsée des deux astres. Dans de telles configurations, il est possible de déterminer la masse des deux astres, en raison d'effets dus à la relativité générale qui dépendent de diverses combinaisons des deux masses. La prise en compte de ces effets relativistes appelés pour des raisons évidentes paramètres post-képlériens est ici indispensable, car en ne tenant compte que des effets de gravitation universelle, un seul paramètre appelé fonction de masse est déterminable, celui-ci ne donnant que peu d'information sur les deux masses. En tenant compte des corrections de relativité générale, les paramètres post-képlériens permettent de contraindre les masses de ces objets.Le phénomène de précession du périastre est dû à la relativité générale. Celui-ci a été la première confirmation observationnelle de la relativité générale quand Albert Einstein le calcula pour la planète Mercure pour laquelle il montra qu'il expliquait les irrégularités alors inexpliquées de son orbite. Pour un système binaire dont les composantes possèdent les masses "M" et "M" et dont l'orbite a une excentricité "e" et une période "P", la précession relativiste du périastre formula_1 s'écrit : où on a introduit la quantité formula_3 correspondant au temps caractéristique associé au rayon de Schwarzschild d'un objet d'une masse solaire, soit : ("G" est la constante de gravitation, "c" la vitesse de la lumière et "M" la masse du Soleil, soit environ.) La précession peut se réécrire : Historiquement, la première mesure de la précession relativiste d'un pulsar binaire fut réalisée au milieu des avec le premier pulsar binaire découvert,, dont la période orbitale est de, l'excentricité de. La précession observée de par an permet alors de déduire une masse totale du système de solaires, soit à une bonne précision près le double de la masse de Chandrasekhar, comme attendue pour deux étoiles à neutrons. L'effet est également observé dans d'autres pulsars binaires comme ( par an), ( par an), ( par an) et ( par an). Dans tous les cas, la masse totale du système est de l'ordre de deux fois la masse de Chandrasekhar, soit dans les solaires. Il est en principe possible que la précession observée ait d'autres causes, du moins pour partie, que l'effet de relativité générale. Cependant, l'analyse des autres sources possibles de précession (effets de marée, aplatissement des astres) indique que ces effets sont négligeables.Une étoile à neutrons vue comme un pulsar se comporte à une excellente approximation comme une horloge dont on observe les pulsations émis à intervalles réguliers. De plus, une horloge située dans le champ gravitationnel d'un astre suffisamment massif est vue comme retardant lentement par rapport à une horloge identique restée sur Terre. Ceci provient du fait que la présence d'un champ gravitationnel affecte l'écoulement du temps. Dans l'hypothèse où une étoile à neutrons est elle-même plongée dans le champ gravitationnel d'un autre astre, l'écoulement du temps y est donc modifié par la présence à proximité de cet autre astre. Si maintenant, l'étoile à neutrons se déplace dans le champ gravitationnel de cet astre, alors cet effet d'écoulement du temps va être modulé du fait de la variation du champ gravitationnel ressenti par l'étoile à neutrons. Cette dernière contribution s'écrit, en notant "T" le temps « vécu » par l'étoile à neutrons (appelé temps propre) et "t" celui d'un observateur loin du champ gravitationnel de l'étoile compagnon : "M" étant la masse du pulsar observé, "M" celle de son compagnon (observé ou non), "a" le demi-grand axe de l'orbite et "E" l'anomalie excentrique. Le premier terme n'est pas directement observable, n’étant pas distinguable de l'effet de ralentissement du temps existant à la surface de l'étoile à neutrons elle-même. Le second terme est, lui, observable dès que l'orbite est non circulaire. Il vaut : L'effet est traditionnellement exprimé en remplaçant le demi-grand axe "a" par sa valeur donnée par la troisième loi de Kepler, soit : Cet effet périodique est d'amplitude faible : même pour une orbite serrée (période de ), l'amplitude est de l'ordre de quelques millièmes de seconde ( pour, bien aidé par la forte excentricité du système).La différence d'écoulement du temps en fonction du champ gravitationnel affecte aussi le temps de propagation des signaux, ce à quoi s'ajoute un effet supplémentaire dû au fait que les signaux lumineux émis par le pulsar ne se propagent pas en ligne droite quand ils passent au voisinage d'un éventuel compagnon. Ceci affecte l'intervalle de temps entre les différentes pulsations reçues du pulsar et est connu sous le nom d'effet Shapiro, du nom d'Irwin Shapiro, qui en fit la prédiction en 1964 avant sa détection grâce aux sondes Viking posées sur Mars. Au cours d'une orbite, les temps d'arrivée des signaux sont modulés de la quantité : où ω est la longitude du périastre, qui est mesuré indépendamment par l'étude de l'orbite. Les quantités "r" et "s" sont appelées respectivement paramètre d'amplitude et paramètre de forme. Ils dépendent des masses par les formules : Le paramètre "s" est en général inutile pour contraindre les masses, car il dépend du sinus de l'angle d'inclinaison "i" qu'il n'est pas possible de déterminer, sauf cas très particulier (par exemple en cas de binaire à éclipses). Par contre le paramètre "r" donne immédiatement la masse du compagnon de l'étoile à neutrons. L'effet Shapiro reste extrêmement faible. Son amplitude est de l'ordre du temps mis par la lumière pour parcourir une distance de l'ordre du rayon de Schwarzschild de l'étoile, soit quelques microsecondes. Il n'est ainsi pas mis en évidence dans, mais l'est dans et, qui incidemment sont tous deux vus quasiment par la tranche ("i" très proche de, son sinus étant très proche de 1).Un système de deux corps massifs en orbite l'un avec l'autre va être le siège de l'émission d'ondes gravitationnelles, à l'instar de deux objets possédant une charge électrique qui sont le siège de l'émission de rayonnement électromagnétique, quand ils se trouvent accélérés l'un par rapport à l'autre. Les ondes gravitationnelles, prédites par Albert Einstein dans le cadre de la relativité générale en 1916, n'ont été observées directement qu'en 2015, mais leur mise en évidence explicite a été réalisée avec des étoiles à neutrons, en l'occurrence au sein du pulsar binaire. L'émission d'ondes gravitationnelles provoque une lente usure de l'orbite des deux corps, qui lentement spiralent l'un avec l'autre. En pratique, cette émission se traduit par l'observation d'une baisse de la période orbitale du système. Un calcul classique permet d'évaluer cette variation selon la formule : L'effet étant cumulatif au cours du temps, il n'est pas difficile à mettre en évidence pour un pulsar binaire en orbite serrée. Par contre, il est très difficile de distinguer cette usure réelle de l'orbite par une variation apparente de la période orbitale qui, elle, est due à des considérations purement cinématiques. Si le système observé accélère ou décélère par rapport à la Terre, une variation supplémentaire de la période du signal émis (quel qu'il soit) se superpose à sa variation intrinsèque par le simple fait que la distance parcourue par le signal entre l'émission et la réception varie de façon non linéaire. En pratique, cela se produit dans deux cas : soit l'objet est effectivement accéléré, par exemple s'il tombe vers le centre d'un amas globulaire, auquel cas on parle d'accélération séculaire, soit il se déplace en ligne droite suivant un mouvement rectiligne et uniforme, mais suffisamment vite pour que sa distance varie de façon non linéaire. On parle alors d'effet Shklovski. Dans les cas où il est possible de contraindre ces effets, on peut utiliser la formule du rayonnement gravitationnel pour contraindre les masses, comme ce fut le cas pour, ce qui valut le Prix Nobel de physique aux découvreurs de cet objet, Russell Alan Hulse et Joseph Taylor, qui mirent en évidence son rayonnement gravitationnel. Le pulsar binaire est un exemple de pulsar binaire, dont on observe une usure de la période orbitale, mais dont l'amplitude ne correspond pas à la valeur attendue, les masses étant connues par ailleurs grâce aux autres paramètres post-képlériens. Il est considéré que ce désaccord provient d'une contribution notable de l'effet Shlovski que l'on contraint ici dans le cas de ce pulsar.Plus d'une douzaine de couples d'étoiles à neutrons sont connus à ce jour, dont six ou sept permettent de déterminer assez précisément les masses des deux astres. Parmi ceux-ci, un seul est un pulsar double,, les autres ne laissant voir qu'un pulsar et un compagnon sombre. La masse déduite du compagnon étant dans la même plage de masse ( solaire), il est interprété comme étant une autre étoile à neutrons : il n'est ni assez massif pour être un trou noir, ni assez lumineux pour être une naine blanche.Il est en principe possible de déterminer le rayon d'une étoile à neutron si l'on observe l'émission thermique en provenance de sa surface. La puissance rayonnée par un objet de rayon "R" et dont la surface est portée à la température "T" s'écrit en effet : σ étant la constante de Stefan. Un certain nombre de pulsars sont suffisamment proches pour que leur émission de surface soit, semble-t-il, visible. C'est, entre autres, le cas de (Geminga), (pulsar de Vela), ou. Malheureusement, il est extrêmement difficile d'exploiter ce genre de relations, pour plusieurs raisons : Finalement, une modélisation complexe est nécessaire pour pouvoir tenter d'extraire le rayon de l'étoile à neutrons, avec un résultat guère efficace. Par exemple, l'hypothèse d'une atmosphère d'éléments lourds ne marche pas du tout pour extraire le rayon des étoiles à neutrons jeunes, ceux-ci s'avérant avec cette modélisation largement trop petits pour être acceptables. C'est le cas de (l'étoile à neutrons du rémanent Puppis A), pour lequel on trouve un rayon compris entre, le pulsar de Vela (entre ), ou (entre ). Pour les étoiles à neutrons plus âgées (plus de ), le modèle s'avère plus satisfaisant, avec des résultats autorisant ou en tout cas s'approchant des valeurs de l'ordre de pour le rayon. C'est le cas de Geminga (entre ), (entre ), (plus de ), ou (entre ). L'incertitude sur la distance est ici extrêmement handicapante : l'incertitude d'un pour la distance de ou explique à elle seule l'incertitude finale sur le rayon. Il est donc à l'heure actuelle impossible de faire une analyse suffisamment précise du rayon de l'étoile pour contraindre sa structure interne et notamment la composition du cœur. À l'inverse, la modélisation des étoiles à neutrons par une atmosphère d'hydrogène permet d'obtenir des valeurs (fort imprécises) plus compatibles avec les valeurs attendues.Dans l'hypothèse où des atomes (éventuellement fortement ionisés) se trouvent à la surface d'une étoile à neutrons, il est en principe possible d'observer des raies d'émission ou d'absorption venant d'eux, et par suite mesurer le décalage vers le rouge d'origine gravitationnelle issu de la surface de l'étoile à neutrons. Celui-ci, noté comme de coutume "z", est donné en fonction de la masse "M" et du rayon "R" de l'étoile à neutron par la formule : "G" et "c" étant respectivement la constante de Newton et la vitesse de la lumière. L'observation du décalage vers le rouge permet donc d'accéder directement au rapport masse-rayon de l'étoile. Or les observations des pulsars binaires contraignant assez directement la masse à une fourchette relativement étroite aux alentours de solaire, on est ainsi en mesure d'obtenir le rayon. De plus, le rapport masse-rayon ne dépend guère de la masse de l'étoile, mais surtout de sa densité centrale, qui est elle-même essentiellement déterminée par la nature de la matière qui s'y trouve. Il est ainsi possible de tester directement certains aspects relatifs à l'équation d'état de la matière des étoiles à neutrons, et, dans l'idéal de contraindre les hypothèses relatives aux étoiles étranges ou étoiles à quarks, dont le cœur est susceptible d'abriter une forme relativement exotique de matière. La raison à cela est que ces deux formes possibles d'étoiles sont notablement plus compactes qu'une étoile à neutrons ordinaire, aussi une valeur élevée du décalage vers le rouge gravitationnel est-elle un bon moyen d'attester leur existence. Par exemple, la binaire X à faible masse, découverte par le satellite artificiel EXOSAT. Lors d'une phase d'activité en 2000, il avait été possible d'identifier de probables raies d'émission de l' et du et, c'est-à-dire d'atomes ne possédant plus qu'un seul ou deux électrons, permettant d'associer à l'astre un décalage vers le rouge gravitationnel de 0,35. D'autres détections de décalage vers le rouge avaient été effectuées auparavant, mais uniquement sur des astres à très fort champ magnétique, qui lui-même influence la position des raies spectrales (voir Effet Zeeman). L'utilisation de, dont le champ magnétique déduit des propriétés du rayonnement X de l'astre est relativement faible, échappe donc à ce type de biais. Le décalage vers le rouge observé est relativement intéressant. Sa valeur est incompatible avec une étoile à neutrons de masse et d'équation d'état usuelles ( solaire et pas d'étoile étrange ou d'étoile à quarks). Si le cœur de l'étoile n'est pas composé de matière exotique, alors sa masse est comprise, selon les équations d'état envisageables, entre solaire, alors que si sa masse est bien de solaire, le décalage vers le rouge pointe assez fortement en faveur d'une étoile à quarks dont le cœur est dit en phase CFL (""). La mesure de la masse de l'étoile à neutrons est ainsi ici indispensable pour discriminer entre ces deux hypothèses. À noter au passage que ce type de mesure est extrêmement sensible aux détails de la phase d'activité de l'astre. Lors d'une autre phase d'activité en 2003, et malgré un temps d'observation considérable (, soit près de ) avec le télescope spatial XMM-Newton, aucune raie précédemment mise en évidence sur cet astre n'a été revue.La croûte d'une étoile à neutrons correspond à la région principalement composée de noyaux atomiques.Un aperçu de la structure de la croûte peut être donné en calculant l'état de plus basse énergie de la matière à haute pression. Tant que celle-ci n'est pas trop élevée (voir ci-dessous), l'état le plus stable est a priori un cristal de noyaux atomiques tous identiques. Sous sa forme la plus compacte, le cristal est de type cubique centré. On sait qu'à pression nulle, ce cristal est composé de noyaux de fer 56 (c'est-à-dire composé de et ). Leur masse volumique est de par centimètre cube. À mesure que l'on augmente la pression la composition du noyau le plus stable est susceptible de changer, principalement pour la raison suivante : si l'on considère une maille élémentaire du cristal, celui-ci contient un noyau, possédant "Z" protons et "A" nucléons, ainsi que "Z" électrons (pas nécessairement liés au noyau, celui-ci étant susceptible d'être ionisé), alors l'équation donnant le potentiel chimique "μ" d'un des "A" nucléons s'écrit : μ étant le potentiel chimique des électrons et "W" l'énergie de noyau, incluant son énergie de masse et son énergie de liaison. Cette équation se réécrit : Les électrons vont assez vite pour ne plus être liés aux noyaux : les électrons étant des fermions, le nombre de ceux-ci ayant une basse énergie est limité, et la pression aidant, la quasi-totalité d'entre eux acquièrent une énergie suffisante pour ne plus être liés au noyau. Les électrons se comportent ainsi comme un gaz de Fermi. Dans un tel gaz, la dépendance du potentiel chimique avec la pression "P" est connue, en l'occurrence on a formula_17. Le phénomène d'enrichissement en neutrons de la matière dense peut alors s'expliquer ainsi : passer d'un noyau ("A", "Z") à un noyau ("A", "Z") peut se faire même si l'énergie de liaison par nucléon du second noyau est moindre, dans l'hypothèse où la baisse du rapport "Z"/"A" en facteur de la contribution au potentiel chimique des électrons la compense. La difficulté de la méthode ci-dessus réside dans celle du calcul de l'énergie "W" du noyau. Celle-ci peut être obtenue expérimentalement pour des noyaux relativement stables, mais nécessite au bout d'un moment de faire appel à l'extrapolation de formules établies, ou alors à des calculs complexes de physique nucléaire. Doit en particulier être pris en compte le fait qu'un noyau atomique peut être décrit par un formalisme appelé modèle en couches, qui révèle que certaines valeurs pour le nombre de protons et de neutrons, appelées nombres magiques confèrent une meilleure stabilité aux noyaux, à l'instar des atomes qui sont chimiquement plus stables quand ils comportent un certain nombre d'électrons (c'est la fameuse série de gaz rares, avec dans l'ordre 2, 10, 18, 26, 54, pour respectivement l'hélium, le néon, l'argon, le krypton et le radon). En physique nucléaire, les nombres magiques sont 2, 8, 20, 28, 50, 82, 126. Il existe également des « sous-couches » relativement stables, notamment celle à ou protons. Les calculs de la configuration la plus stable des noyaux remonte à 1971, avec un travail désormais classique de Gordon Baym, et Peter Sutherland, et a été amélioré par la suite par Pawel Haensel et ses collaborateurs. Les calculs révèlent ainsi qu'à partir d'une masse volumique de par centimètre cube, l'état le plus stable est d'abord composé de noyaux de nickel, à (un des nombres magiques). Ces noyaux de nickel ont au départ (soit ), et s'enrichissent de 2, puis quatre neutrons supplémentaires (nickel 66). Passé, l'état le plus stable est formé de noyaux à, s'appauvrissant progressivement en protons, allant du krypton 86 () au nickel 78 (, ce noyau est stabilisé par le fait que le nombre de neutrons et protons est à chaque fois un nombre magique). Ce noyau est le plus neutronisé à avoir été obtenu en laboratoire. La suite des prédictions, quand la masse volumique dépasse les est plus incertaine, en l'absence de données expérimentales. Il semble que le nouvel état le plus stable fasse appel à des noyaux à, s'appauvrissant progressivement en protons. Le premier de la liste est le ruthénium 126 ( et ), et le dernier le krypton 118 ( et ). Les incertitudes sur cette dernière partie sont non négligeables, Pawel Haensel ayant fait remarquer qu'il était possible que ce soit une configuration avec une sous-couche de (zirconium) qui soit préférée. Le tableau ci-dessous résume la succession des noyaux supposés les plus stables à mesure que la densité de la matière augmente. Ce type de structure cristalline existe jusqu'à environ, moment où l'état le plus stable n'est plus un cristal de noyaux baignant dans un liquide d'électrons, mais un mélange noyau-neutrons libres-électrons. Cette transition est traditionnellement appelée point de fuite neutronique, car c'est le moment où il devient thermodynamiquement avantageux pour les neutrons de diffuser en dehors des noyaux.
|
Une étoile à neutrons est un astre principalement composé de neutrons maintenus ensemble par les forces de gravitation. De tels objets sont le résidu compact issu de l'effondrement gravitationnel du cœur d'une certaine étoile massive quand celle-ci a épuisé son combustible nucléaire. Cet effondrement s'accompagne d'une explosion des couches externes de l'étoile, qui sont complètement disloquées et rendues au milieu interstellaire, phénomène appelé supernova. Le résidu compact n'a d'étoile que le nom : il n'est plus le siège de réactions nucléaires et sa structure est radicalement différente de celle d'une étoile ordinaire. Sa masse volumique est en effet extraordinairement élevée, de l'ordre de mille milliards de tonnes par litre, et sa masse comprise dans une fourchette très étroite, entre la masse du Soleil (voir masse de Chandrasekhar). Ainsi, une étoile à neutrons est une boule de seulement 20 à 40 kilomètres de diamètre.
|
xwikis
|
La première naine blanche a été découverte dans le système stellaire triple. Celui-ci est visuellement dominé par, une étoile de la séquence principale relativement brillante, à une certaine distance de laquelle orbite un système binaire plus serré composé d'une naine blanche et d'une naine rouge de la séquence principale. La paire et C fut découverte par William Herschel le 31 janvier 1783 ; elle fut à nouveau observée par Friedrich Georg Wilhelm von Struve en 1825 et par Otto Wilhelm von Struve en 1851. En 1910, Henry Norris Russell, Edward Charles Pickering et Williamina Fleming découvrirent que bien qu'elle fût une étoile faible, était une étoile de type spectral A, ou encore blanche. En 1939, Russell se remémorait la découverte : Le type spectral de fut officiellement décrit en 1914 par Walter Adams. Le compagnon de Sirius (),, est découvert ensuite. Dans le courant du, les mesures des positions de certaines étoiles deviennent assez précises pour mesurer de petits changements dans leur position. Friedrich Bessel utilise justement cette précision dans les mesures pour déterminer lesLes naines blanches ont une faible luminosité. Néanmoins, au moment de leur formation, leur température est extrêmement élevée à cause de l'énergie emmagasinée lors de l'effondrement gravitationnel de l'étoile. Elles peuplent donc à leur formation l'angle inférieur gauche du diagramme de Hertzsprung-Russell, celui des étoiles peu lumineuses mais chaudes, et dérivent vers la droite avec le temps à mesure qu'elles se refroidissent. Le rayonnement visible émis par une naine blanche peut ainsi présenter une grande variété de couleurs, depuis le bleu-blanc d'une étoile de la séquence principale de type O jusqu'au rouge d'une naine rouge de type M.Les naines blanches sont des objets très compacts, dont la gravité de surface est très élevée. Elles ne présentent pas de phénomène de convection et leur densité les rend très opaques au rayonnement. Ces conditions sont à l'origine d'un phénomène de stratification de la matière au sein des naines blanches, à savoir que les éléments les plus légers se retrouvent seuls à la surface de l'étoile, et sont les seuls détectables par spectroscopie. Ce phénomène, parfois appelé « triage gravitationnel », a initialement été prédit par l'astrophysicien français Evry Schatzman dans les années 1940. Cette situation est fort différente des étoiles de la séquence principale pour lesquelles une convection importante doublée d'un champ gravitationnel bien plus modéré rend l'atmosphère plusL'atmosphère des naines blanches de classe spectrale primaire DA est dominée par l'hydrogène. Elles constituent la majorité (~75 %) des naines blanches observées. Une petite fraction (~0,1 %) ont une atmosphère dominée par le carbone, la classe DQ chaude (plus de ). Les autres catégories pouvant être classifiées (DB, DC, DO, DZ, et DQ froides) ont une atmosphère dominée par l'hélium, en supposant que ne sont pas présents le carbone et lesL'atmosphère est la seule partie d'une naine blanche qui soit visible. Elle correspond soit à la partie supérieure d'une enveloppe résiduelle de celle de l'étoile dans sa phase de la branche asymptotique des géantes (AGB), soit résulte de la matière accrétée en provenance du milieu interstellaire ou d'un compagnon. Dans le premier cas, l'enveloppe consisterait en une couche riche en hélium, d'une masse ne dépassant pas un centième de la masse totale de l'étoile, laquelle, en cas d'atmosphère dominée par l'hydrogène, estPatrick Blackett avait présenté des lois physiques affirmant qu'un corps non chargé en rotation devait générer un champ magnétique proportionnel à son moment angulaire. En conséquence, il avait prédit en 1947 que les naines blanches disposaient à leur surface de champs magnétiques d'une intensité de ~1 million de gauss (soit ~100 teslas). Cette loi putative, parfois appelée l'effet Blackett, ne rallia jamais de consensus, et vers les années 1950, Blackett eut le sentiment qu'elle avait été réfutée. Dans les années 1960, on proposa l'idée que les naines blanches pouvaient avoir des champs magnétiques du fait de la conservation du flux magnétique total de surface durant l'évolution d'une étoile non-dégénérée enLes premiers calculs suggérèrent l'existence de naines blanches à la luminosité variable, ayant une période de l'ordre de 10 secondes, mais les recherches dans les années 1960 ne permirent pas de les observer. En 1965 et 1966, Arlo Landolt découvrit, la première naine blanche variable, avec une période d'approximativement. La raison de cette période plus longue que prévu est que la variabilité de, comme celle des autres naines blanches variables à pulsations connues, provient de modes de pulsation non radiaux. Les types connus de naines blanches à pulsations comprennent lesBien qu'il existe des naines blanches de masse aussi faible que et d'autres aussi élevée que, la distribution de leurs masses forme un pic centré à, et la majorité se trouve dans une fourchette de 0,5 à. Les rayons estimés des naines blanches observées, cependant, sont typiquement de 0,008 à le rayon solaire R ; c'est comparable au rayon de la Terre, approximativement. Une naine blanche renferme donc une masse comparable à celle du Soleil dans un volume qui est typiquement des millions de fois inférieur à celui du Soleil ; la densité moyenne d'une naine blanche doit donc être, très approximativement, un million de fois supérieure à la densité moyenne du Soleil, soit approximativement 1 tonne par centimètre cube. Les naines blanches sont constituées de l'une des plus denses des matières connues, seulement dépassée par celle d'autres étoiles compactes (les étoiles à neutrons et les hypothétiques étoiles à quarks) et les trous noirs, pour autant que l'on puisse parler de «De telles densités sont possibles parce que la matière des naines blanches n'est pas composée d’atomes liés par des liaisons chimiques, mais consiste plutôt en un plasma de noyaux sans liaisons et d'électrons. Il n'y a de ce fait aucun obstacle à placer les noyaux plus près les uns des autres que les orbitales électroniques, les régions occupées par les électrons liés à un atome ne le permettent pas dans des conditions moins extrêmes. Eddington, cependant, se demanda ce qu'il adviendrait lorsque ce plasma se refroidirait et que l'énergie qui maintenait ensemble les atomes ne serait plus présente. Ce paradoxe fut levé en 1926 par Ralph H. Fowler par l'application de laBien que la matière d'une naine blanche soit initialement un plasma, un fluide composé de noyaux et d'électrons, il est prédit théoriquement, dès 1960, qu'à un stade tardif du refroidissement, elle pourrait se cristalliser en commençant par son centre. La structure cristalline serait alors de type cubique centré. En 1995, Winget souligna que des observations astérosismologiques de naines blanches pulsantes conduisait à une vérification possible de la théorie de la cristallisation, et en 2004, Travis Metcalfe et une équipe de chercheurs du "Harvard-Smithsonian Center for Astrophysics" estimèrent, sur la base de ces observations, que la masse de BPM 37093 s'était cristallisée à peu près à 90 %. D'autres travaux estiment la masse cristalliséeLes naines blanches constitueraient la forme résiduelle en fin de vie des étoiles de la séquence principale dont la masse est comprise entre 0,07 à 10 masses solaires ("M"), et qui n'ont pas explosé en supernova. À la fin de leur vie, ces étoiles ont fusionné la plus grande partie de leur hydrogène en hélium. Privées de combustible, elles s'effondrent sur elles-mêmes sous l'effet de la gravitation. La pression et la température du cœur augmentant, la fusion de l'hélium commence, produisant des éléments plus lourds et en particulier le carbone.Une étoile de la séquence principale dont la masse est inférieure à approximativement ne deviendra jamais assez chaude pour amorcer la fusion de l'hélium dans son cœur. Sur une durée excédant l'âge de l'Univers ( d'années), ce type d'étoiles devrait brûlerSi la masse d'une étoile de la séquence principale se situe entre à peu près 0,5 et 8 M, son cœur s'échauffera suffisamment pour permettre la fusion de l'hélium en carbone et en oxygène à partir du processus de « réaction triple alpha », mais il ne parviendra jamais à une température suffisamment élevée pour fusionner le carbone en néon. Vers la fin deSi une étoile est suffisamment massive, son cœur parviendra à une température suffisamment élevée pour amorcer la fusion du carbone en néon, puis du néon en fer. Une telle étoile ne deviendra pas une naine blanche parce que la masse de son cœur central, qui n'est pas en fusion et qui supporte la pression de dégénérescence des électrons, finira par excéder la masse maximum supportable par la pression de dégénérescence. À ce stade, le cœur de l'étoile va s'effondrer et elle va exploser en une supernova de type II par effondrement du cœur, qui laisse comme résidu une étoile à neutrons, un trou noir, ou peut-être encore, uneUne fois formée, une naine blanche est stable et va continuer à se refroidir presque indéfiniment pour finalement devenir une naine noire. En supposant que l'Univers maintienne son expansion, dans 10 à 10 années, les galaxies s'évaporeront, leurs étoiles s'échappant dans l'espace intergalactique. Les naines blanches devraient en général y survivre, bien qu'une collision occasionnelle entre elles puisse produire une nouvelle étoile en fusion ou une naine blanche de masse super-Chandrasekhar qui exploserait en une supernova de type I. La durée de vieLes systèmes stellaire et planétaire d'une naine blanche sont des héritages de son étoile génitrice et ils peuvent interagir avec la naine blanche de façons variées. Les observations en spectroscopie infrarouge du télescope spatial Spitzer de la NASA portant sur l'étoile centrale de la nébuleuse de l'Hélice suggèrent la présence d'un nuage de poussière peut-être causé par des collisions cométaires. Il est possible que des chutes de matière résultantes soient la cause des émissions de l'étoile centrale. Des observations similaires, réalisées en 2004, ont indiqué laLa masse d'une naine blanche isolée, qui ne serait pas en rotation, ne peut excéder la masse de Chandrasekhar d'à peu près. Cependant, les naines blanches dans les systèmes binaires peuvent accréter de la matière de leur compagnon, ce qui augmente leur masse et leur densité. Lorsque leur masse approche la limite de Chandrasekhar, cela peut théoriquement mener à l'allumage explosif des réactions de fusion nucléaire dans la naine blanche, ou à son effondrement en étoile à neutrons. L'accrétion fournit le mécanisme actuellement favori, le « modèle à dégénérescence simple » pour les supernovas de type Ia. Dans ce modèle, une naine blanche à carbone-oxygène accrète de la matière de son compagnon stellaire, en augmentant sa masse et en comprimant son cœur. Le chauffage serait dû à la compression du cœur qui mène à l'allumage de la fusion du carbone lorsque la masse se rapproche de la limite de Chandrasekhar.Dans un système binaire serré, avant que l'accrétion de matière ne pousse une naine blanche aux abords immédiats de la limite de Chandrasekhar, de la matière accrétée riche en hydrogène à la surface peut s'enflammer dans un type moins destructeur d'explosion thermonucléaire animée par la fusion de l'hydrogène. Comme le cœur de la naine blanche demeure intact, ces explosions superficielles peuvent se répéter aussi longtemps que dure l'accrétion. Cette sorteEn 1987, un excès infrarouge est détecté dans le spectre de la naine blanche G29-38. Une analyse des modes de pulsation de cet objet a permis de montrer que cet excès est dû à la présence d'un disque de débris autour de cette étoile. Depuis G29-38, plusieurs systèmes semblables ont été détectés: en 2016, 35 étaient répertoriés. Ces disques de débris ont été formés après qu'un corps rocheux (astéroïde, planétoïde ou planète) a été détruit par les forces de marée exercées par la naine blanche hôte.Cet article étant pour l'essentiel traduit de la
|
Une naine blanche est un objet céleste de forte densité, issu de l'évolution d'une étoile de masse modérée (de 3 à 4 masses solaires au maximum) après la phase où se produisent des réactions thermonucléaires. Cet objet a alors une taille très petite comparativement à une étoile, et conserve longtemps une température de surface élevée, d'où son nom de « naine blanche ».
|
xwikis
|
Le mot vient du grec ancien,, qui signifie « astre chevelu ». Il est employé en ce sens chez Aristote et chez Aratos de Soles dans son poème sur l'astronomie, "Les Phénomènes".Une comète se compose essentiellement de trois parties : le noyau, la chevelure et les queues. Le noyau et la chevelure constituent la tête de la comète. Lors du dernier passage de la comète de Halley en 1986, six sondes spatiales (ICE, Vega-1, Vega-2, Sakigake, Suisei et Giotto) ont frôlé la comète et enregistré des données et des images précieuses pour notre connaissance des comètes.L'hypothèse de constitution du noyau la plus communément admise et confirmée par les récentes expériences spatiales de spectroscopie, est qu'il serait un corps solide constitué pour environ moitié de glaces (essentiellement d'eau, puis de monoxyde de carbone, dioxyde de carbone, méthane, éthane, acétylène) et environ moitié de matières météoritiques agglomérées (modèle dit de la proposé par Fred Whipple en 1950, proposé par Michael J. Belton à la suite de la mission "Deep Impact"). Ces glaces se subliment (lorsque la comète est à une distance de 1 à 3 unités astronomiques du Soleil) sous l'action du rayonnement solaire et donnent naissance à la chevelure, puis aux queues. Le diamètre du noyau (non sphérique, certaines parties étant lisses, d'autres rugueuses) est estimé entre quelques centaines de mètres et quelques dizaines de kilomètres. La période de rotation va de à. Le noyau de la comète de Halley est de forme oblongue, sa plus grande dimension mesure environ, pour un volume estimé à et une masse de, ce qui correspond à une masse volumique moyenne de par mètre cube (un cinquième de celle de l'eau dans les conditions standards à la surface de la Terre). La présence de molécules organiques dans les comètes est un élément en faveur de la théorie de la panspermie. Un scientifique de la NASA,, prétend ainsi en 2011 avoir trouvé des bactéries fossiles extraterrestres dans des comètes, mais la NASA a pris ses distances avec ces travaux, leur reprochant un manque d'évaluation par les pairs. Les noyaux cométaires sont parmi les objets les plus sombres du Système solaire avec un albedo compris entre 2 et 7 %.La chevelure, ou (mot latin de même sens), forme un halo à peu près sphérique entourant le noyau et constitué de particules neutres de gaz et de poussières issus de ce noyau. Ces particules sont libérées sous forme de jets lorsque la comète se rapproche du soleil, provoquant la sublimation des glaces du noyau. Cette chevelure est entourée d'un nuage d'hydrogène atomique produit par photodissociation d'un certain nombre d'espèces, principalement HO et OH. Son diamètre est généralement compris entre et, avec des limites extrêmes de et. La chevelure s'identifie fréquemment avec la tête de la comète, étant donné le faible diamètre relatif du noyau. Les analyses du gaz de la chevelure de la comète de Halley indiquent que celle-ci contient 80 % d'eau, 10 % de monoxyde de carbone, 3 % de dioxyde de carbone, 2 % de méthane, moins de 1,5 % d'ammoniac et 0,1 % d'acide cyanhydrique. Si la comète est suffisamment active, la coma se prolonge par des traînées lumineuses appelées queues.Une comète importante possède en général deux queues visibles : Leurs dimensions sont considérables : des longueurs de 30 à 80 millions de kilomètres sont relativement fréquentes.Comme toute orbite céleste, celles des comètes sont définies à l'aide de six paramètres (éléments orbitaux) : la période "P", argument du périhélie ω, la longitude du nœud ascendant Ω, l'inclinaison "i", la distance du périhélie "q" et l'excentricité "e". Lorsqu'on découvre une nouvelle comète, après au moins trois observations distinctes, on modélise une première orbite en prenant e = 1 : par défaut, l'orbite est supposée parabolique. Lorsque plus d'observations ont pu être effectuées, une meilleure orbite osculatrice est calculée en affinant la valeur de l'excentricité. La majorité des comètes répertoriées ont une orbite elliptique et gravitent autour du Soleil : ce sont les comètes périodiques, leur période pouvant être modifiée par des perturbations gravitationnelles. Les comètes sont dites, par convention, à courte période quand leur période est inférieure à deux cents ans. Celles-ci seraient originaires de la ceinture de Kuiper, passeraient par un stade de centaure avant d'atteindre le Système solaire interne. Les comètes dont la période est supérieure à 200 ans, appelées comètes à longue période, sont supposées provenir du Système solaire externe (objets détachés, objets éjectés dans le nuage de Hills ou le nuage d'Oort par le passage d'étoiles et de nuages moléculaires et réinjectés dans le Système solaire par le même type de perturbation gravitationnelle). Les comètes attachées au Système solaire ont une orbite dont l'excentricité est inférieure à 1 (orbites elliptiques, donc comètes périodiques). Il existe quelques rares cas de comètes dont l'excentricité est supérieure à 1 (orbites hyperboliques, donc comètes non périodiques) : soit il s'agit de comètes provenant de l'extérieur du Système solaire (moins d'une par siècle), soit il s'agit de comètes dont l'orbite a subi des perturbations gravitationnelles telles que, en l'absence de perturbations supplémentaires modifiant leur orbite en sens inverse, elles vont sortir du Système solaire. Les comètes rasantes se caractérisent par un périhélie extrêmement proche du Soleil, parfois à quelques milliers de kilomètres seulement de la surface de celui-ci. Alors que les petites comètes rasantes peuvent complètement s'évaporer lors d'un tel passage, celles de plus grandes tailles peuvent survivre à plusieurs passages au périhélie. Cependant, l'importante évaporation et les forces de marée entraînent souvent leur fragmentation.Lorsqu'une comète passe à proximité des grosses planètes (essentiellement Jupiter), elle subit des perturbations gravitationnelles qui peuvent modifier certains de ses éléments orbitaux. C'est ainsi que la comète Shoemaker-Levy 9, initialement en orbite autour du Soleil, a été capturée par Jupiter puis a finalement percuté cette dernière en 1994 parce que lors de son précédent passage, cette comète était passée suffisamment près de cette planète pour qu'à la fois son orbite soit modifiée et son noyau décomposé en une multitude d'éléments répartis le long de l'orbite. Les éléments orbitaux d'une comète peuvent aussi être modifiés de manière non prévisible par l'activité du noyau (perturbations non gravitationnelles). Pour ces raisons les éléments orbitaux d'une comète ne sont jamais définitifs et doivent être recalculés lors de chaque passage (dans le cas des comètes à courte période).Voici quelques-uns des paramètres de quelques comètes connues.Les essaims d'étoiles filantes (par exemple : Perséides, Orionides, Géminides) sont associés à des comètes. Les poussières perdues par une comète lors d'un passage se répartissent le long de l'orbite de celle-ci en formant une sorte de vaste nuage. S'il advient que la Terre, dans son mouvement orbital annuel, traverse un tel nuage, on assiste alors à une pluie d'étoiles filantes plus ou moins dense suivant l'activité et la nature de la comète. Ces « étoiles filantes » semblent provenir d'un même point du ciel appelé le radiant, un peu comme lorsqu'on est dans un tunnel rectiligne et que l'on a l'impression que les bords de celui-ci convergent vers un même point. L'essaim est nommé d'après la constellation où est situé le radiant (par exemple : Persée pour les Perséides, les Gémeaux pour les Géminides). Les poussières cométaires, lorsqu'elles pénètrent dans la haute atmosphère de la Terre, s'échauffent et s'ionisent, produisant la traînée lumineuse que l'on connaît. L'intensité d'un essaim météoritique est variable et dépend notamment du réensemencement en poussières lors de chaque passage des comètes.Une équipe internationale a pu décrypter, par les données du télescope spatial Herschel, que l'eau de la comète Hartley 2 ressemblait parfaitement, au niveau chimique, à celle des océans de la terre. Jusqu'ici, on croyait que les astéroïdes étaient les sources les plus crédibles qui aient pu amener de l'eau sur notre planète. Lors de sa formation, la Terre était très chaude et ses petites réserves d'eau se seraient évaporées. L'eau que l'on retrouve aujourd'hui serait présente grâce au bombardement de corps célestes, quelques dizaines de millions d'années après la naissance de la Terre. La plupart des comètes viennent du nuage de Oort autour du Système solaire. Les comètes de ce secteur renferment environ 50 % de glaces d'eau, bien que des analyses avaient démontré que cette eau contenait beaucoup plus de deutérium que celle de nos océans. Les chondrites carbonées, astéroïdes issus de la ceinture située entre Mars et Jupiter, similaire à notre eau, s'avéraient alors être les meilleurs candidats. Dorénavant, les comètes de type Hartley 2 rivalisent avec eux, ne provenant pas du nuage de Oort mais de la ceinture de Kuiper. Le postulat que l'eau de la Terre proviendrait des comètes était déjà celui de William Whiston dans sa "Nouvelle Théorie de la Terre", en 1696.Les comètes étaient vues autrefois comme un halo lumineux qui apparaissait épisodiquement dans le ciel, et qui était interprété, selon son aspect et selon le contexte historique, comme un signe de bon ou mauvais augure. En 1696 encore, William Whiston dans sa "Nouvelle Théorie de la Terre", avance que la comète de 1680 est celle qui provoqua le Déluge lors d'un passage juste au-dessus de la Terre. Il soutient que les comètes sont responsables des catastrophes qu'a connues la Terre tout au long de son histoire, et qu'elles sont guidées par la volonté divine :Dans l'Antiquité, les premières traces écrites d'observations de comètes figurent dans des annales chinoises (à l'époque ces chroniques sont essentiellement de la scapulomancie gravée sur carapace de tortues ou omoplates d’animaux) de la dynastie Shang datant de 1059 (le plus ancien passage attesté de la comète de Halley remontant à l'an 240 est consigné dans ces archives chinoises), mais aussi à la même époque sur des tablettes en écriture cunéiforme chaldéennes. Le plus ancien dessin date du : sur un livre de soie découvert en 1974 dans la tombe du marquis de Dai en Chine, sont représentés vingt-neuf types de comètes. Les premières interprétations sur la nature des comètes viennent de la philosophie naturelle grecque. Aristote, dans son traité "Du ciel", divise le cosmos en monde céleste, composé d'éléments sphériques parfaits et monde sublunaire avec ses objets imparfaits. Dans son traité "Meteorologia", Aristote classe les comètes dans le monde sublunaire : elles sont selon lui des phénomènes atmosphériques de la sphère de l'air remontant dans la sphère du feu. Au contraire, les pythagoriciens considèrent qu'il s'agit de planètes rarement observables. Diodore de Sicile y voit des poutres enflammées alimentant le soleil. Chez les Romains, Sénèque reprend la théorie d'Apollonios de Myndos selon laquelle les comètes sont des astres errants revenant à des périodes trop longues à l'échelle d'une vie humaine. Malgré ces interprétations de savants et de philosophes, la croyance populaire en fait à cette époque (et jusqu'au ) des signes annonciateurs, le plus souvent de mauvais augure, plus rarement propitiatoires : ainsi les Chaldéens et les Mésopotamiens leur offrent de l’encens pour infléchir le funeste présage ; certaines femmes grecques et romaines en deuil délient leurs cheveux pour manifester leur chagrin ; certains astrologues égyptiens pensent que sacrifices et prières ne peuvent conjurer leur pouvoir annonciateur ; les astrologues au Moyen Âge les associent à des morts illustres : comète de 451 pour la mort d’Attila, de 632 pour Mahomet, de 1223 pour Philippe-Auguste, comète de Halley pour Henri IV, etc. Outre ces présages funestes, elles sont également associées à des batailles (bon augure pour les Normands, mauvais pour les Anglo-saxons lors de la Bataille d'Hastings). En 1472, l’astronome Johann Müller observe une comète à Nuremberg. Il fonde la cométographie. Paolo Toscanelli observe les comètes de 1433, 1449, 1456 et calcule leur position. Leur nature véritable comme leur périodicité n'ont été trouvées qu'à partir de la Renaissance. En 1531, Petrus Apianus et Girolamo Fracastoro observent indépendamment que la queue des comètes est orientée à l'opposé du Soleil (des astronomes chinois au l'avaient déjà remarqué), mettant ainsi en évidence l'effet des vents solaires. Tycho Brahe (1546-1601) montre en 1577, grâce au phénomène de parallaxe, que les comètes ne sont pas un phénomène sublunaire comme on le croyait couramment à son époque. En 1609, Johannes Kepler suppose, dans son ouvrage "De cometis", que les comètes naissent par génération spontanée et suivent une trajectoire rectiligne à une vitesse variable. En 1652, il est contredit par Pierre Gassendi qui, dans son "Traité sur les comètes", leur attribue une vitesse constante et par Seth Ward (1617-1689) qui comprend qu'elles suivent des ellipses, d'où le fait qu'elles ne soient visibles que lorsqu'elles sont suffisamment proches de la terre et du soleil.Après avoir d'abord réfuté cette théorie, Isaac Newton (1643-1727) prouve que les comètes obéissent aux mêmes lois de mécanique céleste que les planètes, et possèdent une masse. En utilisant certaines de ces observations, dont plusieurs effectuées par lui-même, Isaac Newton élabore la théorie du mouvement des comètes dans le cadre de sa Loi universelle de la gravitation et établit ainsi pour la première fois leur appartenance au système solaire. Dans la première édition de ses "Principia", Newton hésitait à attribuer aux orbites cométaires la forme de paraboles ou celle d'ellipses très allongées, plus apparentées aux trajectoires des planètes. John Flamsteed propose en 1680 une relation d'attraction-répulsion entre comètes et le Soleil. La seconde des hypothèses envisagées par Newton reçoit un appui décisif lorsqu'en 1695 l'un de ses amis, l'astronome et mathématicien Edmond Halley (1656-1742), se persuade de l'identité probable de certaines comètes dont il s'était efforcé de calculer les éléments de trajectoires (Les apparitions cométaires de 1531, 1607 et 1682, ne seraient en fait qu'une seule et même comète). Annoncé par Halley en 1705 et précisé par Alexis Claude Clairaut en novembre 1758, le retour de la « comète de 1682 » observée à l'époque par Halley lui-même et qui sera bientôt appelée « comète de Halley » se réalisa le 13 mars 1759, date du passage de la comète à son périhélie. La valeur symbolique du retour de cet astre - qui n'est pas le plus remarquable ni le plus étudié - et qui lui valut une place privilégiée aussi bien dans les observations des astronomes que dans l'attention d'un vaste public, tient dans le fait qu'il s'agit du premier retour prévu d'une comète et pour le monde scientifique, qu'il s'agit de la plus éclatante vérification de la loi de gravitation universelle, tandis que sont définitivement éclaircis les principes de la théorie des comètes. La dernière version de l'étude de Halley, réalisée en 1717, devait être jointe à des « Tables astronomiques » qu'il venait de calculer, mais le tout n'est publié qu'après sa mort en version latine (1749), en version anglaise (1752) et en traduction française (1759). Toutefois la « prévision » de Halley avait été reprise dans les éditions et traductions successives des "Principia" de Newton ainsi que dans divers traités d'astronomie. En tenant compte des études théoriques de Joseph-Louis Lagrange (1736 - 1813), Pierre-Simon de Laplace (1749-1827), Carl Friedrich Gauss (1777-1855), le retour suivant de la comète de Halley, celui de 1835, sont l'objet de plusieurs prévisions, dont les meilleures se révélèrent exactes à trois ou quatre jours près. La technique actuelle de calcul des orbites cométaires reprend avec de puissants ordinateurs la méthode de variation des éléments de la trajectoire introduite par et Andrew Crommelin (1865–1939) en 1910, mais en ajoutant à l'ensemble des forces de gravitation classiques agissant sur la comète, des forces complémentaires non gravitationnelles de réaction, dues à l'éjection de matière cométaire sous l'action des rayons du Soleil. La prise en compte de ces dernières forces, introduites depuis 1973, à l'instigation de Brian G. Marsden (1937-2010), Z. Sekanina et D. K. Yeomans, permet d'améliorer suffisamment les calculs antérieurs et de reconstituer avec beaucoup de vraisemblance les caractéristiques essentielles des trajectoires cométaires correspondant à 1 109 apparitions de comètes attestées de -239 à mai 1983 Les premiers résultats obtenus par la mission Stardust (1999-2011) ont considérablement modifié les hypothèses concernant la formation des comètes. En effet les grains prélevés dans la coma de la comète Wild 2 par cette mission et ramenés sur Terre contiennent de l'olivine, matériau qui ne peut être synthétisé qu'à de très hautes températures ( K). On est donc amené à penser que les noyaux de comètes ont été formés à proximité du Soleil et ont par la suite été éjectés vers le Nuage d'Oort. Pourtant les premières interprétations données de l'analyse des grains rapportés par Stardust doivent être prises avec circonspection : on soupçonne des interactions entre le matériau qui les contenait (aérogel) avec l'atmosphère terrestre. Cela signifierait que les comètes seraient composées de matière plus ancienne que notre système solaire. Les noyaux de comètes se sont formés par accrétion : les petits grains se collent les uns aux autres pour former des grains plus gros, lesquels se rassemblent à leur tour jusqu'à atteindre la taille d'un noyau de comète, de quelques kilomètres.Selon les scientifiques français, les molécules organiques provoquant les BID, et préexistantes dans les nébuleuses primitives, n'ont donc probablement pas été détruites, mais ont pu faire partie des grains constituant les noyaux cométaires, où elles se trouvent toujours, 4,6 milliards d'années plus tard. La récupération n'est pas l'unique moyen de récupérer de la matière cométaire. La Terre traverse continuellement divers nuages de poussières stellaires et notamment de la matière cométaire lorsque l'orbite de la Terre coïncide avec le sillage d'une comète. C'est ainsi que depuis 1982, la NASA récupère à l'aide d'avion pouvant voler à haute altitude de la poussière cométaire.L'étude des comètes a considérablement progressé avec l'avènement de l'ère spatiale. Dix sondes ont contribué à mieux connaître les noyaux cométaires, les quatre premières s'étant approchées de la comète de Halley en 1986.Avant la publication en 1705 d'Edmond Halley sur la comète portant son nom, ces petits corps du Système solaire étaient considérés comme des phénomènes isolés, uniques et non périodiques, aussi les comètes ne portaient pas de nom. Mise à part la comète de Halley, ou celle de Encke, le nom d'une comète est attribué officiellement par une commission de l'Union astronomique internationale (UAI, IAU en anglais), dont le siège est à Washington, D.C.. Certaines comètes historiques, spectaculaires et aisément visibles à l'œil nu, n'ont aucun nom officiel et sont simplement désignée comme "grande comète". Par exemple la grande comète de 1811. Traditionnellement, on donne aux comètes le nom de son (ou de ses) découvreur(s), jusqu'à trois noms maximum. Dans le cas des comètes Halley, Encke ou Lexell, il s'agit du nom des personnes qui ont déterminé la périodicité de ces astres. Quelques comètes sont nommées d'après le lieu de leur découverte (la comète Lulin) et un nombre de plus en plus important reçoit le nom d'un programme de recherche automatique, comme LINEAR ou NEAT, ou bien celui d'un satellite artificiel, comme SOHO. En plus du nom, les comètes reçoivent une référence officielle dont l'attribution obéit à un nouveau procédé (préfixe selon la période suivie d'une désignation séquentielle suivant l'ordre des découvertes : l'année, puis une lettre majuscule identifiant le demi-mois de la découverte, puis un nombre indiquant l'ordre de la découverte dans ce demi-mois) depuis le.Avant le janvier 1995 les comètes recevaient une désignation provisoire constituée par l'année de la découverte suivie d'une lettre en minuscule correspondant à l'ordre de la découverte. Par exemple, 1965f, sixième comète trouvée pendant l'année 1965. Plus tard, le nom définitif lui était attribué selon les critères suivants : l'année du passage au périhélie, suivie d'un numéro noté en chiffres romains indiquant l'ordre chronologique du passage au périhélie (exemple : 1994, quatrième comète passée au périhélie en 1994). Ce procédé comportait de nombreux inconvénients : la multiplication des découvertes épuisait l'alphabet. Quand on découvrait une dans l'année, il fallait recommencer l'alphabet en faisant suivre la lettre du chiffre 1 (comme 1991a1). Les découvertes de comètes après leur passage au périhélie rendaient difficile une désignation officielle cohérente. Les comètes à courte période multipliaient les désignations, une nouvelle étant attribuée à chacun de leurs retours.Depuis le, une nouvelle nomenclature, inspirée par celle appliquée aux astéroïdes, est attribuée comme ceci : Ainsi pour C/1995 O1 Hale-Bopp : Lorsque plusieurs comètes portent le nom d'un même découvreur, un numéro est parfois ajouté pour les différencier (comète Hartley 2 par exemple). Pour les comètes périodiques dont le retour a été observé au moins une fois, la désignation subit une légère modification. Par exemple la comète P/2001 J1 (NEAT) a été retrouvée en 2008, conformément aux calculs de sa période orbitale. Sa périodicité ne faisant aucun doute, elle a reçu l'appellation définitive 207P/NEAT, indiquant qu'il s'agit de la périodique confirmée.Note : les lettres I et Z ne sont pas utilisées.Le Centre des planètes mineures répertorie à l'heure actuelle. L'une des plus célèbres est la comète de Halley, qui réapparaît tous les 75 ou 76 ans. Parmi les autres comètes les plus connues, on peut citer :Quelques comètes fameuses : Sondes spatiales ayant exploré des comètes :
|
Une comète (stylisé en symbole astronomique ) est, en astronomie, un petit corps céleste constitué d'un noyau de glace et de poussière en orbite (sauf perturbation) autour d'une étoile. Lorsque son orbite, qui a généralement la forme d'une ellipse très allongée, l'amène près de cette étoile (par exemple le Soleil dans le Système solaire), la comète est exposée à diverses forces émanant de cette dernière : vent stellaire, pression de radiation et gravitation. Le noyau s'entoure alors d'une sorte de fine atmosphère brillante constituée de gaz et de poussières, appelée chevelure ou "coma", souvent prolongée de deux traînées lumineuses composées également de gaz et de poussières, les queues (une de gaz ionisé et une de poussières), qui peuvent s'étendre sur plusieurs dizaines de millions de kilomètres.
|
xwikis
|
Attesté dès, le substantif masculin "pulsar" ( ) a été emprunté à l'anglais ', un mot-valise de même sens, créé à partir de la locution'(proprement « étoile pulsante »), composée de'(« vibrant ») et'(« étoile »). Le néologisme a d'abord été attribué à l'astronome et astrophysicien américain qui l'aurait proposé dès, mais il s'avère qu'il est apparu antérieurement, la première fois dans une interview de l'astronome britannique parue dans " du. Ce mot vient de ce que, lors de leur découverte, ces objets ont dans un premier temps été interprétés comme étant des étoiles variables sujettes à des pulsations très rapides. Cette hypothèse s'est rapidement révélée incorrecte, mais le nom est resté. L'abréviation PSR est le sigle de l'anglais ", proprement « source pulsante d'ondes radio ».L'axe magnétique d'une étoile à neutrons n'étant en général, à l'instar de la Terre, pas parfaitement aligné avec son axe de rotation, la région d'émission correspond à un instant donné à un faisceau, qui balaie au cours du temps un cône du fait de la rotation de l'astre. Un pulsar se signale pour un observateur distant sous la forme d'un signal périodique, la période correspondant à la période de rotation de l'astre. Ce signal est extrêmement stable, car la rotation de l'astre l'est également, toutefois il ralentit très légèrement au cours du temps. Les pulsars sont issus de l'explosion d'une étoile massive en fin de vie, phénomène appelé supernova (plus précisément supernova à effondrement de cœur, l'autre classe de supernovas, les supernovas thermonucléaires ne laissant pas derrière elles de résidu compact). Toutes les supernovas à effondrement de cœur ne donnent pas naissance à des pulsars, certaines laissant derrière elles un trou noir. Si une étoile à neutrons a une durée de vie virtuellement infinie, le phénomène d'émission caractéristique d'un pulsar ne se produit en général que pendant quelques millions d'années, après quoi il devient trop faible pour être détectable avec les technologies actuelles. Les pulsars ont été découverts de façon quelque peu fortuite, en 1967, par Jocelyn Bell (maintenant Jocelyn Bell-Burnell) et son directeur de thèse Antony Hewish. Dans le laboratoire Cavendish de l'université de Cambridge, ils étudiaient des phénomènes de scintillation réfractive dans le domaine radio et avaient de ce fait besoin d'un appareil mesurant des variations d'un signal radio sur des courtes durées (une fraction de seconde). L'instrument a permis de détecter la variation périodique d'objets qui, considérés, un temps, pour plaisanter, comme des sources de signaux de communication émanant d'une intelligence extraterrestre, se sont avérés être des pulsars, le premier d'entre eux portant le nom de (ou à l'époque). Sept ans plus tard, le prix Nobel de physique, le premier prix Nobel récompensant des recherches en astronomie, fut attribué à Hewish et à son collaborateur Martin Ryle, pour leurs travaux pionniers dans le domaine de la radioastrophysique. Bien que la Fondation Nobel ait souligné la rôle décisif de Hewish dans la découverte des pulsars, elle n'a pas reconnu Jocelyn Bell comme codécouvreuse du nouvel objet astronomique. Une partie de la communauté des astronomes estimait que Bell n'avait fait que rendre compte, dans son travail de thèse, d'un phénomène qu'elle n'avait pas compris. D'autres scientifiques, dont Fred Hoyle, ont manifesté leur indignation devant ce qu'ils considéraient comme une injustice. La découverte des pulsars a permis le développement important de très nombreuses disciplines de l'astrophysique, depuis les tests de la relativité générale et de la physique de la matière condensée jusqu'à l'étude de la structure de la Voie lactée, en passant bien sûr par les supernovas. L'étude d'un pulsar binaire, le, a pour la première fois permis de mettre en évidence la réalité du rayonnement gravitationnel prédit par la relativité générale, et a également été récompensée du prix Nobel de physique (Russell Alan Hulse et Joseph Hooton Taylor, en 1993). Du fait que l'émission d'un pulsar est cantonnée à un cône, un grand nombre de pulsars sont inobservables depuis la Terre, car celle-ci ne se trouve pas dans le cône balayé par le faisceau de nombreux pulsars. Néanmoins, plus de sont connus à l'heure actuelle (2007), la quasi-totalité d'entre eux étant situés dans la Voie lactée ou certains de ses amas globulaires, les autres, très peu nombreux, étant situés dans les deux Nuages de Magellan. Même un pulsar aussi énergétique que le pulsar le plus énergétique connu (le pulsar du Crabe, aussi appelé ) serait " indétectable s'il était observé depuis la galaxie d'Andromède (M31), aussi la Voie lactée et les Nuages de Magellan sont-elles les seules galaxies où il semble envisageable d'étudier ces objets avec les technologies actuelles. Il existe une grande variété de types de pulsar (pulsars radio, pulsars X, pulsars X anormaux, magnétars, pulsars milliseconde), dont les propriétés dépendent essentiellement de leur âge et de leur environnement.Les pulsars ont été découverts en 1967 par Jocelyn Bell et Antony Hewish à Cambridge alors qu'ils utilisaient un radiotélescope pour étudier la scintillation des quasars. Ils trouvèrent un signal très régulier, constitué de courtes impulsions de rayonnement se répétant de façon très régulière (la période de étant ultérieurement mesurée avec une très haute précision). L'aspect très régulier du signal plaidait pour une origine artificielle, mais une origine terrestre était exclue car le temps qu'il prenait pour réapparaitre était un jour sidéral et pas un jour solaire, indiquant une position fixe sur la sphère céleste, chose impossible pour un satellite artificiel. Ce nouvel objet fut baptisé pour et est nommé aujourd'hui pour. Jean-Pierre Luminet indique que : le premier pulsar a ainsi été baptisé « LGM-1 » pour ""-1 ("litt." « petits hommes verts-1 »). Après maintes spéculations, il fut admis que le seul objet naturel qui pourrait être responsable de ce signal était une étoile à neutrons en rotation rapide. Ces objets n'avaient pas encore à l'époque été observés, mais leur existence comme produit de l'explosion d'une étoile massive en fin de vie ne faisait guère de doute. La découverte du pulsar au sein de la nébuleuse du Crabe (M1), résultat de la supernova historique abondamment décrite par les astronomes d'Extrême-Orient (Chine, Japon) acheva de parfaire l'identification entre pulsars et étoiles à neutrons. La population de pulsars s'enrichit peu à peu de nouveaux objets, dont certains avaient des propriétés atypiques. Ainsi, le premier pulsar binaire, c'est-à-dire faisant partie d'un système binaire fut découvert en 1974. Il possédait la propriété remarquable de posséder comme compagnon une autre étoile à neutrons, formant avec lui un système binaire en orbite extrêmement serrée, au point que la gravitation universelle ne permet pas d'expliquer les détails de l'orbite du pulsar, révélée par les modulations des temps d'arrivée de l'émission pulsée de ces objets. La précision élevée des mesures a permis aux astronomes de calculer la perte d'énergie orbitale de ce système, que l'on attribue à l'émission d'ondes gravitationnelles. Un système encore plus remarquable fut découvert en 2004, le pulsar double. Ce système est composé de deux étoiles à neutrons, qui sont toutes deux vues comme des pulsars. Ils forment le système avec une étoile à neutron le plus serré connu à ce jour, avec une période orbitale d'environ deux heures. Encore plus remarquable, l'inclinaison de ce système est très basse (le système est quasiment vu dans son plan orbital), au point qu'un phénomène d'éclipse se produit pendant quelques dizaines de secondes lors de la révolution du système. Cette éclipse n'est pas due au masquage du pulsar d'arrière-plan par la surface de celui d'avant-plan, mais au fait que les pulsars sont entourés d'une région fortement magnétisée, la magnétosphère, siège de phénomènes électromagnétiques complexes. Cette magnétosphère est susceptible d'empêcher la propagation du rayonnement issu du pulsar d'arrière-plan, offrant l'opportunité unique d'étudier la structure de la magnétosphère de ces objets. Dans les, on découvrit les pulsars milliseconde, qui, comme leur nom l'indique, possèdent des périodes de quelques millisecondes (typiquement ). Depuis 1982, le pulsar possédait la fréquence de rotation la plus élevée. Sa fréquence de rotation s'élevait à. Au cours du mois de, une publication a fait état de la détection d'un pulsar baptisé (ou Ter5ad pour faire plus court, le pulsar étant situé au sein de l'amas globulaire ) et dont la fréquence de rotation s'élève à. La recherche des pulsars à la rotation la plus rapide est d'un intérêt élevé pour l'étude de ces objets. En effet, leur période de rotation maximale est directement liée à leur taille : plus leur taille est petite, plus leur vitesse de rotation maximale peut être élevée, ceci parce que la vitesse de rotation d'un objet est limitée par le fait que la force centrifuge ne peut excéder la force de gravitation, sans quoi l'objet perdrait spontanément la masse située dans ses régions équatoriales. La force centrifuge subie par les régions équatoriales augmente avec la taille de l'objet, alors que sa gravité de surface diminue. Un objet en rotation très rapide est ainsi signe d'un objet intrinsèquement petit, ce qui peut permettre de fixer sa structure interne, une étoile à neutrons très petite étant signe non pas d'un objet peu massif, mais d'un objet très compact.Les pulsars sont en général plus facilement observables en radio. Leur détection requiert par contre un certain soin. En effet, la vitesse de propagation des ondes radio est très légèrement inférieure à celle de la lumière du fait de la densité très faible mais non nulle du milieu interstellaire. Les calculs indiquent que cette vitesse de propagation dépend de la longueur d'onde d'observation. En conséquence de quoi, le train de pulses d'un pulsar va arriver décalé d'une fréquence à l'autre, ce que l'on appelle mesure de dispersion. Si l'on observe sur une bande de fréquence trop large, alors le décalage des temps d'arrivée peut devenir supérieur à la période du pulsar, et l'on perd l'émission périodique de celui-ci. Pour détecter un pulsar, il convient donc d'observer des bandes de fréquences très étroites. Le problème est alors que la densité de flux reçue est très faible. En pratique, l'on contourne le problème en observant plusieurs bandes de fréquence et en regardant si l'on arrive à les combiner en un signal périodique une fois supposée la présence de dispersion. Le tableau ci-dessous liste les principales opérations dédiées sur l'un des grands radiotélescopes terrestres en vue de détecter des pulsars.Les impulsions observées sont produites par un rayonnement issu de l'étoile à neutrons en rotation. Du fait que le rayonnement n'est pas isotrope, la rotation de l'étoile provoque une modulation temporelle de celui-ci. L'interprétation en est que les processus de rayonnement sont liés au champ magnétique de l'étoile à neutrons, et que l'axe du champ magnétique n'est pas aligné avec son axe de rotation. Ainsi, le rayonnement, dont il semble vraisemblablement qu'il soit centré sur les pôles magnétiques de l'étoile, est-il émis à un instant donné sous forme de deux faisceaux dans des directions opposées. Ces deux faisceaux balaient l'espace du fait de la rotation de l'étoile à neutron en décrivant un cône d'une certaine épaisseur. La mise en évidence la plus convaincante du scénario ci-dessus provient de ce que l'étoile à neutrons se comporte ainsi comme un dipôle magnétique en rotation. Une telle configuration est amenée à perdre de l'énergie du fait de sa rotation, aussi la période des signaux du pulsar doit-elle s'allonger avec le temps. Ce phénomène de ralentissement des pulsars est en effet observé de façon quasi systématique dans ces objets. De façon plus précise, il est possible de prédire la forme exacte du ralentissement observé des pulsars. D'une part, il est possible de comparer l'âge déduit de l'observation du ralentissement avec l'âge réel du pulsar quand celui-ci est connu (comme pour le pulsar du Crabe), d'autre part, la loi d'évolution temporelle de la période de rotation du pulsar doit dépendre d'un paramètre appelé indice de freinage dont la valeur attendue. Cet indice est malheureusement assez difficile à mesurer (il ne peut être mis en évidence en quelques années que sur des pulsars jeunes), mais la valeur trouvée est souvent relativement proche, quoique presque systématiquement inférieure à cette valeur. La raison de cet écart n'est pas bien connue à l'heure actuelle.Le phénomène de ralentissement des pulsars provoque une lente augmentation de la période "P" d'un pulsar, qui est vu comme étant lentement croissante au cours du temps. Cet accroissement est traditionnellement noté formula_1 (prononcer "P point", ou "" en anglais), la dérivée temporelle d'une quantité physique étant en général notée avec un point surmontant ladite quantité. Le temps caractéristique avec lequel la période augmente est de l'ordre de l'âge du pulsar. Ces objets étant pour la plupart détectables pendant plusieurs millions d'années, le taux d'accroissement de la période d'un pulsar est extrêmement lent. Même si ce taux d'accroissement est relativement facile à mettre en évidence (en quelques heures d'observation seulement), il n'en demeure pas moins que les pulsars peuvent être vus comme des horloges naturelles extraordinairement stables, dont la stabilité à long terme est comparable à celle des meilleures horloges atomiques terrestres. Le diagramme P-P point révèle plusieurs types de pulsar.Partant d'une période de rotation initiale sans doute très rapide (quelques dizaines de millisecondes, voire quelques millisecondes seulement), les pulsars ralentissent lentement. De temps en temps, on observe de très brusques quoique faibles variations de cette vitesse de rotation, un phénomène appelé glitch. Une interprétation de ce phénomène était que le pulsar devait régulièrement ajuster la forme de sa croûte solide du fait du ralentissement de sa rotation, la croûte devant être de plus en plus sphérique. On parle ainsi de « tremblement d'étoile », bien que le terme de « tremblement de croûte » soit plus opportun (' ou'en anglais, par analogie à "" qui signifie « tremblement de terre »). Cette interprétation est compatible avec les observations pour certains pulsars, mais se heurte au comportement d'autres pulsars, notamment celui de Vela. Il est aujourd'hui établi qu'au moins pour certains pulsars, le phénomène de glitch est dû à un couplage complexe entre la croûte solide de l'étoile à neutrons et son cœur, qui est superfluide. Un modèle naïf décrit ainsi l'étoile à neutrons comme composée de deux couches, la croûte et le cœur, qui voient leur rotation amenée à se désolidariser brusquement avant que par viscosité les deux se synchronisent à nouveau, à l'instar d'un œuf frais auquel on imprime un mouvement de rotation. La rotation de la coquille de l'œuf, au début très rapide, ralentit à mesure que les forces visqueuse entraînent le jaune et le blanc d'œuf à la même vitesse que la coquille (au départ seule la coquille est en rotation et par conservation du moment cinétique, la rotation d'ensemble de la configuration d'équilibre où tout est en rotation synchrone est plus lente que celle où seule la coquille est en rotation).Les pulsars ont été utilisés dans des compositions musicales pour leur aspect métronomique, notamment "Le noir de l'étoile" de Gérard Grisey (1990). La pochette de l'album " (1979) du groupe Joy Division représente les ondes du tout premier pulsar découvert (le pulsar ). Les pulsars sont au cœur du jeu de société " (2017), de Vladimir Suchy.
|
Un pulsar est un objet astronomique produisant un signal périodique allant de l'ordre de la milliseconde à quelques dizaines de secondes. Ce serait une étoile à neutrons tournant très rapidement sur elle-même (période typique de l'ordre de la seconde, voire beaucoup moins pour les pulsars milliseconde) et émettant un fort rayonnement électromagnétique dans la direction de son axe magnétique.
|
xwikis
|
L'expression d'étoile binaire a été utilisée la première fois par William Herschel en 1802 pour désigner, dans sa propre définition, « une véritable étoile double — l'union de deux étoiles qui sont formées ensemble dans un système par les lois de l'attraction universelle ». N'importe quelles étoiles très proches peuvent apparaître comme étant des étoiles binaires, le cas le plus connu étant celui de Mizar et Alcor dans la Grande Ourse. Il est toutefois possible qu'une double étoile ne soit qu'en apparence un système binaire : les deux étoiles peuvent en réalité être très largement séparées dans l'espace, mais apparaître dans la même direction du point de vue de la Terre. Ces fausses binaires sont dénommées « couples optiques », ou « paires optiques ». Avec l'invention du télescope, de nombreuses paires de ce type furent trouvées. En 1780, Herschel mesura la séparation et les orientations de près de 700 paires qui étaient des systèmes binaires, et trouva que près de 50 d'entre elles changeaient d'orientation après deux décennies d'observation. Une véritable binaire est une paire d'étoiles liées entre elles par la gravité. Quand elles peuvent être distinguées avec un télescope suffisamment puissant (ou si nécessaire, à l'aide de méthodes d'interférométrie), elles sont connues sous le nom de binaires visuelles. Dans d'autres cas, la seule indication est l'effet Doppler-Fizeau de la lumière émise. De tels systèmes, connus sous le nom de binaires spectroscopiques, sont des paires relativement proches d'étoiles avec une période d'orbite commune, où les raies spectrales de la lumière de chacune sont déviées vers le bleu quand elles s'approchent, puis vers le rouge, quand elles s'éloignent de nous, pendant leur mouvement autour de leur centre de gravité commun. Si le plan orbital est proche de notre point de vue, les deux étoiles s'occultent partiellement ou totalement de façon régulière, et le système est appelé binaire à éclipses, Beta Persei en étant un bon exemple. Les étoiles binaires qui sont à la fois des binaires visuelles et des binaires spectroscopiques sont rares, mais elles sont aussi une source précieuse d'information (la masse des composantes). Les étoiles binaires visuelles sont en fait souvent très séparées, avec des périodes mesurées en décennies voire en siècles ; elles ont donc en général des vitesses orbitales trop petites pour être mesurées spectroscopiquement. Inversement, les étoiles binaires spectroscopiques se déplacent rapidement sur leur orbite parce qu'elles sont proches l'une de l'autre : en général trop proches pour être détectées comme binaires visuelles. Les seules binaires spectroscopiques pouvant apparaitre aussi comme des binaires visuelles sont donc celles qui sont proches de la Terre. Les astronomes ont découvert que certaines étoiles semblent orbiter autour d'un espace vide. Les binaires astrométriques sont des étoiles relativement proches qui peuvent être vues en train d'osciller autour d'un point, sans compagnon visible. Avec certaines binaires spectroscopiques, il y a seulement une série de lignes allant en avant et en arrière. Les mathématiques utilisées pour les binaires visuelles peuvent dans ce cas être appliquées pour déduire la masse du compagnon invisible. Le compagnon devrait être très faible, pour être masqué par l'éclat de l'autre étoile, ou il pourrait être un objet qui émet peu ou pas de radiations électromagnétiques, par exemple une étoile à neutrons. Dans certains exemples, il y a de nombreuses preuves que le compagnon invisible est un trou noir, un corps avec une gravité telle que même la lumière ne peut s'en échapper. Ce genre de binaires est connu sous le nom de binaires X à forte masse. Le meilleur exemple connu à ce jour est Cygnus X-1, où la masse du compagnon invisible est probablement 9 fois celle du Soleil ; dépassant largement la limite d'Oppenheimer-Volkoff (la masse maximum d'une étoile à neutrons, le seul type d'étoile possible pour ce genre de binaire). De ce point de vue, Cygnus X-1 est le premier objet largement accepté en tant que trou noir.Ce système comporte une « étoile compagnon » et un objet compact (naine blanche ; étoile à neutrons ou trou noir formant un « système binaire de haute énergie »). Il se forme selon 2 possibilités : les 2 étoiles se forment au même moment, l'une étant plus massive devient alors un astre compact ; un objet compact progressant dans l'espace rencontre une autre étoile puis se met en orbite par gravitation. Lorsque l'étoile compagnon est proche de l'objet compact et est une étoile relativement massive, elle évolue naturellement vers le stade d'étoile géante rouge. Son rayon croît alors de manière incroyable (plus d'un facteur 100), et peut alors absorber l'objet compact : c'est la phase d'évolution avec une enveloppe. Si le système est instable, cette enveloppe est éjectée et on aboutit à une étoile Wolf-Rayet. Si le système est stable, l'objet compact se spirale à l'intérieur du cœur de l'étoile compagnon (les modèles d'évolutions stellaires prévoient alors des objets de Thorne-Żytkow ou une étoile symbiotique). L'accrétion de matière de l'étoile compagnon initiée par l'objet compact se fait sous forme de sphère ou de disque d'accrétion. L'étoile à neutrons ou le trou noir peuvent provoquer des jets au niveau du disque d'accrétion de l'étoile compagnon : l'étoile binaire forme alors un microquasar (en 2011, une vingtaine sont répertoriés depuis le Système solaire) ou un microblazar (théorique car jamais encore observé).Le fait qu'il y ait deux étoiles en orbite l'une autour de l'autre a longtemps fait penser qu'il était peu probable qu'un cortège de planètes réussisse à se maintenir de façon stable en orbite autour du couple stellaire. Néanmoins, plusieurs planètes circumbinaires sont maintenant connues.
|
En astronomie, une étoile binaire ou binaire, appelée aussi système (stellaire) binaire ou étoile double physique, est un type de système binaire composée de deux étoiles orbitant autour d'un centre de gravité commun. La composante principale porte le nom de l'étoile suivi de la lettre « A », l'autre de la lettre « B ».
|
xwikis
|
Le mot « galaxie » provient du terme grec désignant notre propre galaxie, / (« laiteux », sous-entendu / « cercle »), dérivé du nom / « lait ». On trouve aussi en grec ancien / « le cercle de lait », ou encore, à cause de son apparence dans le ciel. Dans la mythologie grecque, Zeus plaça son fils Héraclès, né de son union avec la mortelle Alcmène, sur le sein de son épouse Héra lorsqu'elle était endormie afin que le bébé devienne immortel en buvant son lait divin. Lorsque celle-ci se réveilla, elle se rendit compteDes dizaines de milliers de galaxies ont été recensées, parmi d'autres objets, à travers de nombreux catalogues astronomiques, tels que le catalogue Messier et le New General Catalogue, qui référencent également des nébuleuses, mais aussi plus spécifiquement les catalogues PGC, UGC, MCG, CGCG, IC, etc. Ainsi,Une galaxie typique comme la Voie lactée comprend quelques centaines de milliards d'étoiles et a une taille de l'ordre de (une année-lumière équivaut à environ ). De façon remarquable, ces chiffres peuvent s'exprimer uniquement en termes de diverses constantes fondamentales. Plus précisément, un raisonnement simple permet de relier la taille d'une galaxie au phénomène d'instabilité gravitationnelle qui voit un objet plus dense que le milieu ambiant se contracter sous certainesDès l'Antiquité, les philosophes tentèrent de saisir la nature de la bande lumineuse connue sous le nom de Voie lactée. Le philosophe grec Anaxagore (500—428 av. J.-C.) la concevait comme. De la même manière, Démocrite (450—370 av. J.-C.) suggéra qu'elle était due à un grand nombre de petites étoiles. Aristote, cependant, pensait que ce qu'on observait était la combustion d'une partie de l'air, enflammé par le mouvement des astres, impliquant donc qu'elle se trouvât dans la sphère sublunaire. Geminos de Rhodes, probablement vers 55 av. J.-C., décrit la Voie lactée comme L'astronome perse Al-Biruni (973 - 1048 apr. J.-C.) réfuta lui aussi la proposition d'Aristote, en tentant de calculer la parallaxe de la Voie lactée, et en notant que puisqu'elle est nulle, elle doit se trouver à grande distance de la Terre, et donc hors de l'atmosphère. Il proposa également que la Voie lactée était une collection d'innombrables étoiles nébuleuses. Les preuves de cela vinrent en 1610, quand Galilée utilisa sa lunette astronomique pour étudier la Voie lactée et découvritVers la fin du, Charles Messier établit un catalogue contenant 110 « nébuleuses », comme on appelait alors indistinctement les objets diffus observés dans le ciel. Ce catalogue fut suivi d'un plus grand, de, établi par William Herschel. En 1845, Lord Rosse construisit un nouveau télescope qui fut capable de distinguer les nébuleuses elliptiques et spirales. Il essaya également de mettre en évidence des sources ponctuelles à l'intérieur de certaines nébuleuses, donnant ainsi crédit à la conjecture de Kant. En 1917, Herber Curtis observa des clichés de la supernova SN 1885A dans la « grande nébuleuse d'Andromède » (M31, dans le catalogue Messier). En cherchant dans la photographie, il trouva 11 novas de plus. Curtis remarqua que ces novas étaient en moyenne 10 magnitudes plus faibles que celle de notre galaxie. Grâce à ces résultats, il fut capable d'estimer laDans les années 1970, on réalisa que la masse totale visible, dans les galaxies, des étoiles et du gaz, ne pouvait pas expliquer correctement la vitesse de rotation de celles-ci, qui est systématiquement anormalement élevée par rapport à ce qu'elle aurait dû être étant donné la masse visible dont les galaxies étaient composées. Ceci amena à postuler l'existence d'une nouvelle forme de matière, appelée matière sombre. Celle-ci n'émet aucun rayonnement, mais son existence est révéléeIl y a trois grands types de galaxies : les elliptiques, les spirales, et les irrégulières. Une description détaillée des différents types de galaxies basée sur leur apparence est établie par la séquence de Hubble. Puisque la séquence de Hubble est entièrement basée sur la caractéristique morphologique visuelle, il arrive qu'elle ne tienne pas compte de caractéristiques importantes telles que le taux de formation d'étoiles (dans les galaxies starburst) ou l'activité du noyau (dans les galaxies actives). À l'époque de la réalisation de sa classification, Hubble pensait que les différents types de morphologies galactiques correspondaient à un degré d'évolution variable de ces objets, partant d'un état sphérique sans structure (type E0), puis s'aplatissant progressivement (type E1 à E7), avant de produire les bras spiralés (types Sa, Sb, Sc, ou SBa, SBb, SBc). Cette hypothèse d'évolution a depuis été totalement invalidée, mais la dénomination en termes de « galaxie précoce » ("early-type galaxy" en anglais) pour les elliptiques et « galaxie tardive » ("late-type galaxy") pour les spirales est par contre, toujours usitée.Le système de classification de Hubble compte les galaxies elliptiques sur base de leur excentricité (c'est-à-dire de l'aplatissement de leur image projetée sur le ciel), allant de E0 (pratiquement sphérique) à E7 (fortement allongée), le chiffre suivant le « E » correspondant à la quantité formula_7, où "a" et "b" sont le demi grand axe et le demi petit axe de la galaxie telle qu'elle est observée. Ces galaxies ont un profil ellipsoïdal, leur donnant une apparence elliptique quel que soit l'angle de vue. Leur apparence montre peu de structures et elles ne possèdent pas beaucoup de matière interstellaire.Les galaxies spirales forment la classe la plus emblématique des galaxies. Elles sont faites d'un disque en rotation et composé d'étoiles et de milieu interstellaire, avec un bulbe central d'étoiles généralement plus anciennes. De ce bulbe émergent des bras relativement brillants. Dans le schéma de classification de Hubble, les galaxies spirales correspondent au type "S", suivi d'une lettre ("a", "b", ou "c"), qui indique le degré d'enroulement des bras spiraux ainsi que la taille du bulbe central. Une galaxie "Sa" est dotée de bras relativement mal définis et possède une région centrale relativement importante. En revanche, une galaxie "Sc" possède des bras très ouverts et bien tracés ainsi qu'un bulbe de petite taille. Dans les galaxies spirales, les bras spiraux forment une spirale logarithmique approximative, un schéma qui peut être, en théorie, le résultat d'un dérangement dans la masse d'étoiles rotative uniforme. Les bras spiraux tournent autour duLa majorité des galaxies spirales ont une bande d'étoiles linéaire en leur centre, à partir de laquelle émergent les bras spiraux. Dans la classification de Hubble, elles sont désignées d'un "SB", suivi d'une lettre minuscule ("a", "b", ou "c"), indiquent encore une fois la forme et la disposition des bras spiraux (de la même manière que les galaxies spirales non-barrées). On pense que les barres sont des structures temporaires qui peuvent survenir à la suite d'un rayonnement de densité du cœur vers l'extérieur, ou à la suite d'une interaction avec une autre galaxie faisant intervenir la force de marée. De nombreuses galaxies spirales barrées sont actives, cela est peut-être du gaz canalisé le long des bras. Notre propre galaxie est une grande galaxie spirale barrée d'environ de diamètre et de d'épaisseur. Elle contient approximativement 2×10 étoiles et a une masse totale d'environ 6×10 masses solaires.Les galaxies particulières sont des formations galactiques développant des propriétés inhabituelles dues à des interactions gravitationnelles avec d'autres galaxies, les forces de marée, responsables de ces déformations. Les galaxies annulaires, possédant une structure formée d'étoiles et de gaz en forme d'anneau autour du centre galactique, sont de bons exemples de galaxies particulières. Une galaxie annulaire peut se former lorsqu'une galaxie plus petite passe à travers le centre d'une galaxie spirale. Un tel évènement a pu se produire sur la galaxie d'Andromède, qui présente plusieurs anneaux en infrarouge.En dépit de la prééminence des grandes galaxies elliptiques et spirales, il semble que la plupart des galaxies de l'univers sont des galaxies naines. Ces galaxies minuscules ont une taille pouvant descendre à 1 % de celle de la Voie lactée, et contiennent seulement quelques milliards,Un graphique représentant la vitesse de rotation de la matière en fonction de la distance entre celle-ci et le centre galactique peut prendre deux formes, la courbe plate B étant la plus répandue. Analysons de plus près les formes des courbes de rotation. L'article cité en donne un grand nombre. Près du centre galactique, la vitesse estLa distance moyenne séparant les galaxies dans un amas est relativement petite. Par conséquent, les interactions entre galaxies sont assez fréquentes, et jouent un rôle important dans leur évolution. Lorsque deux galaxies se manquent de peu, elles subissent néanmoins des déformations dues à la force de marée, et peuvent échanger une certaine quantité de gaz et de poussière. Les collisions se produisent lorsque deux galaxies passent directement l'une à travers l'autre et ont un moment angulaire relatif suffisant pour ne pas fusionner. Les étoiles de ces galaxies en interactions subiront la traversée sans entrer en collision les unes avec les autres. Cependant, le gaz et la poussière présents dans les deux galaxiesLes étoiles sont créées dans les galaxies à partir du gaz froid qui s'est formé dans les nuages moléculaires géants. Certaines galaxies, les "galaxies starburst", ont un taux de formation d'étoiles vertigineux. Toutefois, si elles continuaient à fonctionner ainsi, ces galaxies épuiseraient leurs réserves de gaz en un laps de temps inférieur à leur durée de vie. Par conséquent, un tel évènement ne dure en général que 10 millions d'années, ce qui est relativement court par rapport à l'histoire de la galaxie. Les galaxies starburst étaient plus communes dans le passé, et contribuent actuellementCertaines galaxies sont dites actives. Cela veut dire qu'une partie significative de l'énergie totale est émise par des sources autres que les étoiles, la poussière, ou le milieu interstellaire. Le modèle standard décrivant une galaxie est basé sur le disque d'accrétion présent autour du trou noir supermassif de la galaxie. Le rayonnement issu des galaxies actives provient de l'énergie potentielle gravitationnelle de la matière lorsqu'elle tombe du disqueL'étude de la formation et de l'évolution galactique permet d'esquisser des réponses aux questions concernant l'évolution des galaxies à travers l'histoire de l'univers. Dans ce domaine, quelques théories sont devenues largement acceptées, mais c'est encore un champ très actif de l'astrophysique. Des travaux récents laissent penser que les premières galaxies se seraient formées plus tôt que prévu (une galaxie lointaine contenant des étoiles âgées de 750 millions d'années se serait ainsi formée 200 millions d'années environ après le Big Bang).Les modèles cosmologiques actuels décrivant la formation de l'univers sont basés sur la théorie du Big Bang, selon laquelle l'espace-temps, et avec lui toute la matière et l'énergie composant l'univers, a jailli dans une expansion sans commune mesure, alors qu'il était comprimé à une taille infinitésimale. Environ après cet évènement initial, la température avait baissé suffisamment pour permettre la formation des atomes d'hydrogène et d'hélium, dans un phénomène appelé Recombinaison. Presque tout l'hydrogène était neutre (non-ionisé) et absorbait donc la lumière, les étoiles ne s'étaient pas encore formées ; pour cette raison, cette période porte le nom d'Âge sombre. C'est à partir des fluctuationsUn milliard d'années après la formation de la galaxie, des structures clés commencent à apparaître : des amas globulaires, le trou noir supermassif central et le bulbe galactique constitué d'étoiles de population II. La création d'un trou noir supermassif semble jouer un rôle majeur car il régule activement la croissance des galaxies en limitant la quantité totale de matière ajoutée. Durant cette époque, les galaxies subissent un sursaut majeur de formation d'étoiles. Durant les deux milliards d'années suivantes, la matière accumulée s'installe dans le disque galactique. Une galaxie continuera d'absorber les matériaux environnants (présents dans les nuages interstellaires rapides et dans les galaxies naines) durant toute sa vie. Ces matériaux se constituent principalement d'hydrogène et d'hélium. Le cycle de naissance et de mort des étoiles augmente lentement la quantité de matériaux lourds, ce qui peut éventuellement mener àÀ présent, la plupart des étoiles se forment dans les petites galaxies, où le gaz froid n'est pas épuisé. Les galaxies spirales, comme la Voie lactée, produisent des étoiles de nouvelles générations tant qu'elles ont des nuages d'hydrogène moléculaire denses. Les galaxies elliptiques déjà en grande partie dépourvues de ce gaz ne forment donc pas d'étoiles. Les réserves de matière créant les étoiles sont limitées : une fois que les étoiles ont converti tout l'hydrogène disponible en éléments plus lourds, la formation de nouvelles étoiles prendraLa plupart des galaxies sont gravitationnellement reliées à un certain nombre d'autres. Les groupes de galaxies sont les types de groupes galactiques les plus courants dans l'univers, et ceux-ci contiennent la majorité des galaxies (et donc la majorité de la masse baryonique) présentes dans l'univers. Ils comportent quelques dizaines de membres. La Voie lactée fait ainsi partie d'un groupe de galaxies appelé Groupe local dont elle est le membre le plus massif avec la Galaxie d'Andromède (M31), ses autres membres étant de masse nettement plus faible. Lorsqu'une concentration de galaxies contient plus d'une centaine de galaxies situées dans une zoneInitialement, la majorité des observations se faisaient en lumière visible. Comme les étoiles rayonnent le gros de leur lumière dans ce domaine du spectre électromagnétique, l'observation des étoiles formant les galaxies externes à la Voie lactée est un composant majeur de l'astronomie optique. En outre, elle est également utile à l'observation des régions HII ionisées et des bras poussiéreux. La poussière présente dans le milieu interstellaire est opaque à la lumière visible. Par contre, elle devient plus transparente dans l'infrarouge lointain ; celui-ci peut donc être utile à l'observation de l'intérieur des nuages moléculaires géants et des noyaux galactiques. L'infrarouge peut aussi être utilisé pour observer les galaxies distantes et décalées vers le rouge qui se sont formées tôt dans l'histoire de l'Univers. Comme la vapeur d'eau ainsi que le dioxyde de carbone absorbent des portions utiles du spectre infrarouge, les observatoires à infrarouges se situent en haute altitude ou dans l'espace. La première étude non-visuelle des galaxies, en particulier des galaxies actives, fut faite en ondes radio. L'atmosphère est en effet presque transparente aux ondes radio situées entre et (l'ionosphère terrestre bloque le signal en dessous de cette plage). De grands interféromètres radio ont été utilisés pour cartographier les jets émis par les galaxies actives. Les radiotélescopes peuvent aussi être utilisés pour observer l'hydrogène neutre (via la raie à 21 centimètres), incluant potentiellement, la matière non-ionisée des débuts de l'univers qui forma les galaxies en s'effondrant. Les télescopes à ultraviolet permettent de mieux mettre en évidence les étoiles chaudes, souvent massives et de durée de vie limitée, mettant ainsi en évidence le phénomène de formation d'étoiles dans les galaxies. Dans le domaine des rayons X, on observe la matière beaucoup plus chaude, notamment la distribution du gaz chaud au sein des amas de galaxies, ainsi que des phénomènes énergétiques au sein du cœur des galaxies où se trouve souvent un trou noir supermassif dont la présence est entre autres trahie par l'existence de volutes de gaz très chaud en train d'être englouties par le trou noir central.
|
Une galaxie est un assemblage d'étoiles, de gaz, de poussières, de vide et peut-être essentiellement de matière noire, contenant parfois un trou noir supermassif en son centre.
|
xwikis
|
La pratique de l'astronomie d'observation remonte à plusieurs siècles avant la naissance de Jésus-Christ. Avant que la lunette astronomique et le télescope ne soient inventés, les observations se faisaient à l'œil nu : c'est ce que l'on appelle l'astronomie pré-télescopique. Aujourd'hui, il y a essentiellement deux types d'observation astronomique : celle pratiquée par les professionnels et celle pratiquée par les amateurs. Le lien entre amateurs et professionnels est assuré par une filière de l'union astronomique internationale, à savoir le bureau des télégrammes astronomiques, ou "Central Bureau for Astronomical Telegrams". Ce rôle de liaison a été par exemple illustré lors de la découverte de la comète Hale-Bopp.Les professionnels disposent des plus puissants télescopes automatisés, qu'ils utilisent à des fins scientifiques. Ils sont à l'origine de la plupart des grandes découvertes astrophysiques. L'utilisation d'instruments automatisés permet d'observer et de détecter avec précision des corps célestes, à différents endroits et différents moments. Ceci peut par exemple permettre de calculer leurs caractéristiques orbitales, comme illustré par l'observation du bolide rasant du 13 octobre 1990.Les astronomes amateurs sont utiles pour la recherche de par leur nombre et leur motivation, dans les domaines de la recherche de supernovae, de comètes, pour le suivi de chaque étoile variable, en spectroscopie, ou durant des phénomènes éphémères, comme une pluie de météorites. Certains amateurs participent ainsi, selon leurs moyens, à des découvertes importantes.<br> La plupart des astronomes amateurs pratique avant tout l'observation des astres pour le pur plaisir des yeux. Équipés de simples jumelles, de lunettes ou de télescopes, un amateur peut observer des astres nombreux et variés. Tout commence généralement par l'apprentissage des constellations, extrêmement utiles pour se familiariser avec le ciel nocturne, et pour localiser précisément des zones sur la voûte céleste, des directions où pointer un instrument. De plus, les planètes du système solaire, brillantes et faciles à repérer, visibles dans les plus petits instruments, sont la cible privilégiée des amateurs. Des phénomènes éphémères, telles que les pluies de météorites et les aurores boréales peuvent par ailleurs être observés. Enfin, certains amateurs observent les objets du ciel profond, autrement dit tous les astres situés au-delà des limites du système solaire. On distingue essentiellement les amas stellaires, les nébuleuses, les étoiles multiples, les étoiles variables, puis les galaxies, voire les amas de galaxies. De nombreux amateurs se lancent également dans l'astrophotographie, à l'aide d'appareils argentiques, de caméras numériques (CCD), ou plus récemment de webcam modifiées.L'astronomie d'observation a conduit à de nombreuses découvertes.
|
L'astronomie d'observation ou astronomie observationnelle est la partie « pratique » de l'astronomie, basée sur des observations astronomiques. Elle est à la base du processus de création et de validation des théories astrophysiques. Elle peut soit confirmer des calculs et modèles déjà établis, soit révéler des phénomènes inconnus, que les théoriciens s'efforcent d'expliquer.
|
xwikis
|
Les géantes rouges ont été identifiées au début du lorsque l'utilisation du diagramme de Hertzsprung–Russell (H-R) mit en évidence qu'il y avait deux types distincts d'étoiles de faible température ayant des tailles très différentes : les naines, appelées maintenant de façon formelle étoiles de la séquence principale, et les géantes. Le terme (RGB) commence à être utilisé dans les années 1940 et 1950 comme un terme général pour faire référence à la région des géantes rouges du diagramme de Hertzsprung–Russell. À la fin des années 1960, le nom de branche asymptotique des géantes (AGB) est donné à une branche d'étoiles légèrement plus lumineuses et plus instables que la majorité des géantes rouges. Ce sont souvent des étoiles variables de forte amplitude telles Mira.Une géante rouge est une étoile de 0,3 à 8 masses solaires (formula_1) qui a épuisé l'approvisionnement en hydrogène dans son et qui a commencé la fusion thermonucléaire de l'hydrogène dans une coquille entourant le noyau. Ces géantes ont des rayons allant de dizaines à des centaines de fois celui du Soleil (formula_2). Cependant, leur enveloppe extérieure est plus froide que leur noyau, ce qui leur donne un pic d'émissivité situé dans une teinte orange rougeâtre. Malgré la densité énergétique plus faible de leur enveloppe, les géantes rouges sont beaucoup plus lumineuses que le Soleil en raison de leur grande taille. Contrairement à leur représentation dans de nombreuses illustrations, l'assombrissement centre-bord des géantes rouges n'est pas clairement défini. Ainsi, en raison de la très faible densité de masse de l'enveloppe, ces étoiles n'ont pas de photosphère bien délimitée. Contrairement aux Soleil, qui possède plusieurs granules, les photosphères des géantes rouges, ainsi que celles des supergéantes rouges n'auraient que quelques grandes cellules. Cela serait la cause de variations de luminosité communes aux deux types d'étoiles. Les géantes rouges sont catégorisées par la manière dont ils génèrent de l'énergie : Les étoiles de la branche des géantes rouges ont des luminosités allant jusqu'à près de trois mille fois celle du Soleil (formula_3). Elles sont de types spectraux K ou M, ont des températures de surface allant de à et ont des rayons pouvant aller jusqu'à 200 fois celui du Soleil (formula_2). Les étoiles situées sur la branche horizontale sont plus chaudes, ayant pour la plupart une luminosité d'environ 75 formula_3. Les étoiles de la branche asymptotique des géantes ont des luminosités similaires à celles des étoiles les plus brillantes de la branche des géantes rouges, mais peuvent être plusieurs fois plus lumineuses à la fin de la phase d'impulsion thermique. Les étoiles carbonées de type C-N et C-R faisant partie de la branche asymptotique des géantes sont produites lorsque le carbone et des molécules carbonées sont déplacés par convection vers la surface lors d'un dragage. Une étoile peut ainsi passer jusqu'à trois fois par la phase de dragage.<br>Le premier dragage se produit lors de la combustion de couches d'hydrogène sur la branche géante rouge. Sous l'effet du mélange convectif, les rapports C/C et C/N sont diminués et les abondances de surface du lithium et du béryllium peuvent être réduites. Ce premier dragage ne fait pas remonter une grande quantité de carbone à la surface.<br>Le deuxième dragage se produit dans les étoiles de 4 à 8 formula_1. Quand la fusion de l'hélium se termine dans le noyau, la convection mélange les produits du cycle CNO. Le troisième dragage se produit après qu'une étoile soit entrée dans la branche asymptotique des géantes et qu'un flash de l'hélium se produit. La convection créée par la fusion de l'hydrogène en couche provoque la remontée en surface de l'hélium, du carbone et des produits du processus s. Après ce troisième dragage, l'abondance du carbone par rapport à l'oxygène présent à la surface de l'étoile lui confère la signature spectrale particulière des étoiles géantes carbonnées.Au cours de sa vie sur la séquence principale, l'étoile fusionne l'hydrogène du noyau en hélium. Le temps de cette fusion au cœur de l'étoile suit une relation de décroissance exponentielle selon la masse de l'étoile. Ainsi, plus une étoile est massive, plus elle brûle rapidement l'hydrogène de son noyau. L'étoile quitte la séquence principale lorsque la concentration en proton d'hydrogène devient trop faible dans le noyau. Une étoile similaire au Soleil ayant 1 formula_1 reste environ 10 milliards d'années sur la séquence principale sous la forme d'une naine jaune, alors qu'une étoile de 3 formula_1 n'y est que pour 500 millions d'années.Lorsque les réserves d'hydrogène sont épuisées, les réactions nucléaires ne peuvent plus continuer et le noyau commence donc à se contracter sous la force de sa propre gravité. Cela amène de l'hydrogène supplémentaire dans une coquille autour du noyau où la température et la pression sont suffisantes pour que le processus de fusion reprenne. Lorsque le noyau approche la limite Schönberg–Chandrasekhar, il s'ensuit une contraction du noyau à l'intérieur de la coquille où l'hydrogène brûle et une contraction de la coquille elle-même. Selon les modèles, on observe un effet miroir ("", qui fait en sorte que les couches à l'extérieur de la coquille se dilatent lorsque celle-ci se contracte et "vice-versa". Les couches externes de l'étoile se dilatent considérablement, car elles absorbent la majeure partie de l'énergie supplémentaire de la fusion de la coquille. Lors de ce processus de refroidissement et d'expansion, l'étoile devient une sous-géante. Lorsque l'enveloppe de l'étoile refroidit suffisamment, elle devient convective et cesse de se dilater. Sa luminosité commence à augmenter et l'étoile commence à monter dans la branche des géantes rouges du diagramme H–R.Le chemin que prend une étoile sur la branche des géantes rouges dépend de sa masse. Pour les étoiles de moins de 2 formula_1, le noyau deviendra suffisamment dense pour que la pression de dégénérescence des électrons l'empêche de s'effondrer davantage. Une fois que le noyau est dégénéré, il continuera à chauffer jusqu'à ce qu'il atteigne une température d'environ 10 K, ce qui est suffisant pour commencer la fusion de l'hélium au carbone via le processus triple-alpha. Une fois que le noyau dégénéré aura atteint cette température, le noyau entier commencera la fusion d'hélium presque au même moment, menant au flash de l'hélium. Dans les étoiles plus massives, le noyau s'effondrant atteindra 10 K avant d'être suffisamment dense pour être dégénéré, de sorte que la fusion de l'hélium commencera beaucoup plus en douceur et il n'y aura aucun flash de l'hélium. Lors de la phase de fusion de l'hélium du noyau, les étoiles de faible métallicité entrent dans la branche horizontale, alors que les étoiles avec une métallicité plus grande se retrouvent plutôt dans le "" du diagramme H–R.Pour les étoiles ayant une masse supérieure à 8 formula_1, un processus similaire se produit lorsque l'hélium du noyau est épuisé et que l'étoile s'effondre à nouveau, provoquant la fusion de l'hélium dans une coquille. En même temps, la fusion de l'hydrogène peut commencer dans une coquille juste à l'extérieur de la coquille où l'hélium fusionne. Cela place l'étoile sur la branche asymptotique des géantes. La fusion de l'hélium entraîne la constitution d'un cœur de carbone et d'oxygène.Tous les processus précédents mènent l'étoile à perdre de la masse, que ce soit en raison de flashs d'hélium qui expulsent les couches supérieures, des vents solaires et de la fusion nucléaire qui transforme la masse en énergie thermique. Le noyau sera fait de cendre d'hélium, ce qui marque une fin de la convection de l'étoile. En conséquence, l'énergie gravitationnelle reprend le dessus, ce qui mène à une diminution du volume de l'étoile. La géante rouge éjectera ensuite toutes ses couches externes, formant une nébuleuse planétaire, et ce qui reste forme une naine blanche. La phase de la géante rouge ne dure généralement qu'un milliard d'années au total pour une étoile de masse solaire, dont la quasi-totalité est consacrée à la branche de la géante rouge. Les phases de branche horizontale et de branche asymptotique des géantes se déroulent des dizaines de fois plus rapidement. Quant à elles, les étoiles très massives se transforment en supergéantes rouges et suivent une trajectoire évolutive qui les fait aller et venir horizontalement sur le diagramme H–R jusqu'à atteindre la nucléosynthèse du fer. Celui-ci étant l'élément le plus stable, il absorbe énormément d'énergie et ne peut fusionner. Dès que le cœur atteint la masse de Chandrasekhar, celui-ci s'effondre sur lui-même en formant des neutrons et un énorme flux de neutrinos à partir des électrons et des protons, ce qui expulse les couches supérieures de l'étoile dans une supernova. Le noyau de l'étoile est au même moment transformé en étoile à neutrons ou en trou noir. La transformation du cœur de l'étoile dépend de facteurs comme la métallicité et la masse de l'étoile. Une étoile entre 10 et 25 formula_1 s'effondre en étoile à neutrons. Tout comme les étoiles de plus de 25 formula_1 avec une faible composition en hélium et hydrogène. Par contre, les étoiles de plus de 25 formula_1 qui ont une faible métallicité finissent en un trou noir.
|
Une étoile géante rouge ou géante rouge est une étoile lumineuse de masse faible ou intermédiaire qui se transforme en étoile géante lors du stade tardif de son évolution stellaire. L'étoile devient ainsi plus grande, ce qui entraîne une diminution de sa température de surface et, conséquemment, entraîne un rougissement de celle-ci. Les géantes rouges comprennent les types spectraux K et M, mais aussi les étoiles de type S et la plupart des étoiles carbonées.
|
xwikis
|
L'origine des constellations est en Mésopotamie. Le Lion, le Taureau et le Scorpion existaient déjà (pas forcément sous ces noms) en Mésopotamie vers avant notre ère. En Grèce, l'une des plus anciennes représentations se trouve sur un vase grec datant de 625 avant notre ère. Près de la moitié des constellations modernes proviennent des astronomes grecs. Homère mentionnait Orion dans l'Odyssée dès le. Le Zodiaque apparaît vers le, divisé en douze constellations. Aratos de Soles fixa au l'essentiel des noms de constellations repris par Ptolémée.Ptolémée, au, dans son "Almageste," groupa en quarante-huit constellations. Cette œuvre sera la base de travail des astronomes occidentaux jusqu'à la fin du Moyen Âge. Cependant, cette liste ne comprend que les étoiles visibles d'Alexandrie où Ptolémée faisait ses observations. En plus des douze constellations du Zodiaque (le Bélier, le Taureau, les Gémeaux, le Cancer, le Lion, la Vierge, la Balance, le Scorpion, le Sagittaire, le Capricorne, le Verseau et les Poissons), Ptolémée en inventorie trente-six : Les quarante-huit constellations inscrites par Ptolémée dans son "Almageste" seront utilisées pendant plus de en Occident. La constellation Antinoüs, inventée sous le règne de l'empereur romain Hadrien à partir d'une partie de la constellation de l'Aigle (Ptolémée), sera supprimée par l'UAI en 1930. Mis à part l'immense Navire Argo, découpé plus tard en trois puis quatre constellations, les constellations de Ptolémée seront toutes adoptées sans modification par l'UAI, qui en définira cependant les contours précis. En effet, les délimitations des constellations n'ont pas été fixées à l'époque antique; seule l'appartenance des étoiles brillantes l'ont été. Par la suite, Johann Bayer puis John Flamsteed recensèrent les étoiles moins brillantes dont ils décidèrent de la constellation d'appartenance (voir Désignation de Bayer et Désignation de Flamsteed). Les délimitations modernes des constellations ont été élaborées afin de préserver les appartenances de l'ensemble des étoiles catalogués par Bayer puis Flamsteed. L"'Almageste" de Ptolémée passa dans les mains des astronomes arabes qui complétèrent ses observations, ajoutant quelques constellations qui ne sont plus utilisées actuellement, rallongeant certaines (comme l'Éridan) afin de mentionner des étoiles visibles depuis les latitudes plus australes que celle d'Alexandrie. En Europe, l"'Almageste" s'était perdu. Ce n'est qu'à la fin du Moyen Âge que les astronomes, à partir de traductions arabes du latin, purent l'étudier, en même temps qu'un certain nombre d'observations des astronomes arabes.À partir du, lorsque les Européens partent explorer les mers de l'hémisphère sud, ils découvrent de nouvelles étoiles qui n'étaient mentionnées dans aucune constellation connue. En 1603, l'astronome allemand Johann Bayer publie l"'Uranometria", le premier atlas astronomique couvrant toute la sphère céleste. Il contient, outre les constellations de Ptolémée, douze nouvelles constellations visibles dans l'hémisphère sud. Ces constellations ont vraisemblablement été cartographiées par les navigateurs hollandais Pieter Dirkszoon Keyser et Frederick de Houtman, qui ont fait bénéficier Bayer de leurs découvertes : Ces nouvelles constellations, aux noms exotiques, arrivèrent les premières sur un planisphère céleste encore vierge et connurent un tel succès qu'elles sont toujours utilisées de nos jours. Elles témoignent également d'un changement de perception dans ce qu'est une constellation. Les Grecs anciens divisaient le ciel en deux parties : les constellations et les espaces entre celles-ci qui étaient censés n'appartenir à aucune. Johann Bayer, en produisant une carte du ciel pour chaque constellation, commence à rattacher tout point du ciel à une constellation donnée. À partir de la publication de l"'Uranometria", les astronomes européens vont tenter d'imposer leurs créations, sans toutefois rencontrer le même succès que Bayer. En 1624, l'astronome allemand Jakob Bartsch définit cinq nouvelles constellations. Les constellations de la "Licorne", de la "Girafe" et de la "Croix du Sud" nous sont restées; celles du "Tigre" et du "Jourdain" ne seront pas retenues. Vers la même époque, Tycho Brahe élève au rang de constellation l'astérisme de la "Chevelure de Bérénice". En 1627, Julius Schiller publie le "Coelum Stellatum Christianum", un atlas stellaire où les constellations sont renommées d'après des personnages ou des événements bibliques. Cette tentative de « christianiser » le ciel restera vaine. En 1643, Anton de Rheita imagine une "Figure de Jésus" entre le "Lion" et l'"Hydre", une "Mouche" près du "Bélier", rebaptisée "Fleur de lys" sous Louis. Les courtisans se prennent au jeu : en France, Augustin Royer utilise un groupe d'étoiles qu'il nomme le "Sceptre" entre "Andromède", "Céphée" et "Pégase". En Prusse, l'astronome royal Gottfried Kirch crée un second "Sceptre" sous l"'Éridan" afin de lui donner la réplique. Ces revendications de prestige ne s'imposent pas dans la communauté des astronomes. Vers 1690, Johannes Hevelius, bourgmestre de Dantzig, propose plusieurs constellations : Ces dénominations, non rattachées à un quelconque souverain, modestes, auront finalement plus de succès que toutes les autres et subsisteront jusqu'à notre époque. Dans son ouvrage "Coelum australe stelliferum" (1763), Nicolas-Louis de Lacaille référence plusieurs nouvelles constellations afin de compléter les espaces de ciel encore vierges de toute dénomination : Les noms choisis reflètent les idées de l'époque, plus portées vers la science et les techniques que vers l'aventure et la mythologie. En outre, La Caille démantèle le Navire Argo en trois constellations plus petites afin de le manier plus facilement. A la même époque (fin ), d'autres constellations ont eu l'honneur des cartes mais n'ont pas été retenues : ainsi l"'Aérostat" de Lalande ou le "Quadrant" qui, bien qu'oublié, a donné son nom à l'essaim d'étoiles filantes des Quadrantides. Ce sont ainsi quarante-quatre constellations éphémères qui ont brièvement figuré sur les cartes.Dans les années 1920, l'Union astronomique internationale décide de mettre de l'ordre dans les constellations et d'en définir rigoureusement les limites. L'atlas officiel des constellations, défini en 1930 par Eugène Delporte, divise le ciel suivant le système de coordonnées équatoriales, divisant le ciel suivant des lignes d'ascension droite et de déclinaison. Déterminées à l'aide des coordonnées de l'époque B1875.0, les limites des constellations ne sont plus parfaitement horizontales et verticales sur une carte du ciel moderne en raison de la précession des équinoxes (cf. #Mouvement et position). Le tracé est fait de manière à respecter les appartenances des différentes étoiles brillantes à leur constellation traditionnelle. Dans la mesure du possible, le rattachement d'étoiles ou d'objets célestes plus faibles, qui avaient été cités dans la littérature scientifique, est également respecté. De ce fait, ces limites sont parfois très tortueuses, poussées d'un côté ou de l'autre pour inclure telle étoile et laisser telle autre dans la constellation voisine.À l'instar des astronomes grecs, les astronomes chinois ont regroupé certaines étoiles en constellations, d'abord sur la zone de l’écliptique, de manière analogue au Zodiaque occidental, puis sur l'ensemble du ciel. Les vingt-huit constellations (ou astérismes) de la zone écliptique sont appelées maisons lunaires. Elles sont divisées en quatre zones de sept astérismes, correspondant aux quatre animaux de la symbolique chinoise (Dragon azur à l'est, Oiseau vermillon au sud, Tortue noire au nord et Tigre blanc à l'ouest). Contrairement au zodiaque, ces astérismes sont de taille extrêmement variable ; leur origine est à l'heure actuelle inconnue. Par la suite, l'ensemble de la sphère céleste visible depuis le monde chinois (soit tout ce qui se trouve à une déclinaison supérieure à -55 degrés environ) a été nanti d'astérismes. Contrairement à la méthode occidentale qui a peuplé le ciel de personnages et créatures mythiques, les chinois ont figuré le ciel à l'image de leur société, avec divers palais ("Ziwei", "Taiwei") habités de différentes classes de la cour et de la société chinoise. Certains détails pittoresques y sont même inclus tels l'astérisme "Ce," représentant des latrines et l'astérisme "Tianshi," représentant les excréments destinés à être utilisés pour l'agriculture. L'origine des maisons lunaires est très ancienne. Leur antériorité manifeste sur le reste du ciel chinois est vraisemblablement due à leur nécessité pour établir un calendrier, la place du Soleil dans ces astérismes étant un moyen de repérer le cycle des saisons. Les autres astérismes ont semble-t-il été bâtis vers la fin du. Trois traités astronomiques les décrivent : le "Shi Shi", le "Gan Shi" et le "Wuxian Shi", qui ont semble-t-il été écrits dans cet ordre. Les astérismes du "Shi Shi" comprennent la quasi-totalité des astres les plus brillants, contrairement à ceux des autres traités qui ont été introduits peu après pour compléter les précédents et peupler les zones encore vides d'astérismes. Le "Wuxian Shi" fait régulièrement référence au "Gan Shi" alors que le contraire n'est pas vrai, ce qui assure l'antériorité de ce dernier. La composition exacte de ces astérismes n'est pas établie avec certitude. En général, seule la position de l'une des étoiles des astérismes, appelée étoile référente, est donnée dans les traités astronomiques, et de façon relativement imprécise parfois. Le reste de l'astérisme est déduit de nos jours à l'aide des cartes du ciel en provenance du monde chinois, cartes dont la précision est approximative et qui fait rarement la distinction entre les différentes magnitudes apparentes des étoiles les composant. Ce sont en tout environ deux-cent-quatre-vingts astérismes qui peuplent le ciel chinois, un nombre notablement plus grand que celui des constellations occidentales. Certains astérismes sont très vastes, notamment ceux représentant les murs d'enceinte des différents palais (tels "Tianshi"). D'autres sont bien plus petits, se restreignant parfois à une seule étoile ("Dajiao", par exemple, correspondant à α Bootis/Arcturus, ou "Tianguan", correspondant à ζ Tauri). Les astérismes à une seule étoile mis à part, les étoiles ne sont pas individuellement nommées à l'exception de celles de certains très grands astérismes, comme celles de "Tianshi" dont les noms correspondent aux différences provinces de l'Empire chinois de l'époque (dynastie Han) où ces astérismes ont été créés.La rotation terrestre entraîne un mouvement des constellations autour des pôles nord et sud célestes, alignés avec l'axe de rotation terrestre. Dans l'hémisphère nord, le pôle coïncide avec la position de l'étoile polaire; dans l'hémisphère sud, avec σ Octantis. C'est pourquoi sur les cartes célestes de l'hémisphère nord telles la carte du ciel mobile, l'étoile polaire figure au centre. Selon la latitude de l'observateur, l'heure du jour et la période de l'année, les constellations se lèvent à l'horizon Est et se couchent à l'horizon Ouest, tout comme le soleil, la lune et les planètes. Les constellations qui ne passent jamais sous l'horizon sont appelées circumpolaires. Plus l'observateur est situé près des pôles, plus il a accès aux constellations circumpolaires. Ainsi, pour la plupart des observateurs de l'hémisphère nord, des constellations telles que la Petite et la Grande Ourse, Cassiopée, Céphée et le Dragon sont circumpolaires. À l'inverse, d'autres constellations, cachées le jour par le soleil et couchées la nuit, ne sont visibles qu'en certaines saisons, comme Orion, visible en hiver, la Lyre, visible en été, le Lion, au printemps, ou encore Andromède, visible en automne. Vues de la Terre, les constellations changent peu à peu de position avec le temps en raison de la précession des équinoxes.Les constellations du Zodiaque se situent dans la bande de ciel, nommée écliptique, contenant les orbites du soleil et des planètes. Elles sont généralement les plus anciennes, de par leur importance pour le repérage et l'observation du mouvement de plusieurs astres. Les douze constellations du zodiaque sont : le Bélier, le Taureau, les Gémeaux, le Cancer, le Lion, la Vierge, la Balance, le Scorpion, le Sagittaire, le Capricorne, le Verseau, et les Poissons qui achèvent le cycle. Certains y ajoutent le Serpentaire (Ophiuchus) entre le "Scorpion" et le "Sagittaire" et le considèrent comme le treizième signe du zodiaque. Astronomiquement, il est exact qu'une petite partie du "Serpentaire" se glisse entre le "Scorpion" et le "Sagittaire".
|
Une constellation est un « groupe d'étoiles voisines sur la sphère céleste, présentant une figure conventionnelle déterminée, à laquelle on a donné un nom particulier »; c'est aussi une « région du ciel conventionnellement délimitée qui inclut ce groupe d'étoiles ».
|
xwikis
|
Le terme de « supernova » provient du terme de « nova », tiré de l'adjectif latin "nova", signifiant « nouvelle ». Historiquement, c'est en 1572 puis en 1604 que le monde occidental découvre que de « nouvelles étoiles » apparaissent parfois, pour un temps limité, sur la voûte céleste. Ces évènements furent décrits respectivement par Tycho Brahe et Johannes Kepler dans des écrits latins utilisant le terme de "stella nova" (voir par exemple "De Stella Nova in Pede Serpentarii", de Kepler, publié en 1606). Par la suite, l'apparition temporaire d'astres nouveaux fut dénommée sous le terme de « nova ». Ces évènements cachent en fait deux classes de phénomènes distincts : il peut s'agir, soit d'une explosion thermonucléaire se produisant à la "surface" d'une étoile après que celle-ci a accrété de la matière issue d'une autre étoile, sans que l'explosion détruise l'étoile qui en est le siège, soit de l'explosion complète d'une étoile. La distinction entre ces deux phénomènes fut faite dans le courant des années 1930. Le premier étant largement moins énergétique que le dernier, c'est le premier qui garda le nom de nova précédemment usité, alors que le second prit le nom de supernova. Le terme lui-même a été employé pour la première fois par Walter Baade et Fritz Zwicky en 1933 ou en 1934 lors du congrès annuel de la société américaine de physique. Il était initialement écrit avant d'être progressivement écrit sans tiret. Les écrits plus anciens parlant de l'observation de supernovas utilisent le terme de nova : c'est par exemple le cas des rapports d'observation de la dernière supernova observée, en 1885 dans la galaxie d'Andromède, SN 1885A (voir les références dans l'article correspondant).Historiquement, les supernovas ont été classifiées en fonction de leur spectre, suivant deux types, notés par les chiffres romains I et II, lesquels contiennent plusieurs sous-types : Parmi les supernovas de type I, on distingue trois sous-classes : Concernant les supernovas de type II, on considère ensuite le spectre environ trois mois après le début de l'explosion : À cela s'ajoute qu'en présence de particularités spectroscopiques, est accolée la lettre minuscule « p » (éventuellement précédée d'un tiret si un sous-type est présent), pour l'anglais "peculiar". La dernière supernova proche, SN 1987A était dans ce cas. Son type spectroscopique est IIp. Cette classification est en réalité assez éloignée de la réalité sous-jacente de ces objets. Il existe deux mécanismes physiques donnant lieu à une supernova :Événement cataclysmique signant la fin d'une étoile, une supernova peut résulter de deux types d'événements très différents :Les astronomes ont réparti les supernovas en différentes classes, suivant les éléments qui apparaissent dans leur spectre électromagnétique. L'élément principal entrant en jeu dans la classification est la présence ou non d'hydrogène. Si le spectre d'une supernova ne contient pas d'hydrogène, elle est classée type I, sinon type II. Parmi ces groupes, il y a des subdivisions par rapport à d'autres éléments.Les supernovas de type Ia (SNIa) ne présentent pas d'hélium dans leur spectre mais du silicium. La variation de la luminosité de l'étoile durant une supernova de type Ia étant extrêmement régulière, les SNIa peuvent être utilisées comme chandelles cosmiques. En 1998, c'est par l'observation de SNIa dans des galaxies éloignées que les physiciens ont découvert que l'expansion de l'Univers s'accélérait. On pense généralement que les SNIa trouvent leur origine dans l'explosion d'une naine blanche approchant ou ayant atteint la limite de Chandrasekhar par accrétion de matière.La phase ultime de la vie d'une étoile massive (plus de 8 masses solaires) commence après que le cœur de fer et de nickel 56 s'est construit par phases successives de réactions de fusion nucléaire. Ces éléments étant les plus stables, les réactions de fusion, comme de fission nucléaire du fer consomment de l'énergie au lieu d'en produire. Entre ~8 et ~10 masses solaires, les fusions successives s'arrêtent alors que le cœur est composé d'oxygène, de néon et de magnésium, mais le scénario décrit ci-dessous reste valable. À la fin de la phase de fusion du fer, le cœur atteint la densité à laquelle la pression de dégénérescence des électrons domine (~ 1 tonne/cm). La couche enserrant directement le cœur, devenu inerte, continue à produire du fer et du nickel à la surface du cœur. Sa masse continue ainsi d'augmenter jusqu'à atteindre la « masse de Chandrasekhar » (environ 1,4 masses solaires). À cet instant, la pression de dégénérescence des électrons est dépassée. Le cœur se contracte et s'effondre sur lui-même. De plus, une phase de neutronisation commence, qui diminue le nombre d'électrons et donc leur pression de dégénérescence. Les électrons sont capturés par les protons, engendrant un flux massif de 10 neutrinos électroniques, et transformant le cœur en une étoile à neutrons de 10-20 km de diamètre et de la densité d'un noyau atomique (> 500 millions de tonnes/cm). C'est cette contraction gravitationnelle du cœur en neutronisation et celles des couches internes adjacentes qui dégagent toute l'énergie de l'explosion de la supernova. C'est une explosion due au dégagement d'énergie du potentiel gravitationnel qui augmente durant cet effondrement, dépassant de plusieurs fois tout le potentiel nucléaire de l'hydrogène au fer (~ 0,9 % de l'énergie de masse). Cette énergie est transmise vers l'extérieur selon différents phénomènes tels que l'onde de choc, l'échauffement de la matière, et surtout le flux de neutrinos. Lorsque la densité dépasse la densité d'un noyau atomique, la force nucléaire devient très répulsive. Les couches externes du cœur rebondissent à 10-20 % de la vitesse de la lumière. L'onde de choc du rebond se propage vers les couches extérieures et entre en compétition avec la matière chutant vers l'intérieur, de telle façon qu'elle se stabilise vers 100-200 km du centre. Les neutrinos diffusent hors du cœur en quelques secondes et une fraction d'entre eux chauffent la zone du manteau située à l'intérieur de l'onde de choc (appelée « région de gain »). Le reste est libéré dans l'espace, emportant 99 % de l'énergie totale de la supernova. On pense de nos jours, que l'apport d'énergie à l'onde de choc par le chauffage de la région de gain dû aux neutrinos est l'élément clé responsable de l'explosion de la supernova. Dans les étoiles massives, pendant les derniers instants de l'explosion, les hautes températures (> 10 K) pourraient permettre une forme de nucléosynthèse explosive appelée « processus r » : une grande densité de neutrons (10 n/cm) fait que leur capture par les noyaux est plus rapide que la décroissance radioactive β, car cela se produit en quelques secondes. C'est ainsi que se produisent des isotopes riches en neutrons de numéro atomique bien supérieur à celui du fer (N = 26) et que s'explique l'existence de noyaux radioactifs lourds dans l'Univers comme le thorium et l'uranium, toujours présents sur Terre puisque leurs demi-vies sont de l'ordre de l'âge du système solaire. Il existe aussi des variantes minimes de ces différents types, avec des désignations telles que "II-P" et "II-L", mais elles décrivent simplement le comportement de l'évolution de la luminosité (II-P observe un plateau alors que II-L non) et non des données fondamentales. Les supernovas de type Ib et Ic ne montrent pas de silicium dans leur spectre et l'on ne connaît pas encore le mécanisme de leur formation. Les supernovas de type Ic ne montrent pas non plus d'hélium dans leur spectre. On pense qu'elles correspondent à des étoiles en fin de vie (comme le type II) et qui auraient déjà épuisé leur hydrogène, de sorte que celui-ci n’apparaît pas sur leur spectre. Les supernovas de type Ib sont sûrement le résultat de l'effondrement d'une étoile Wolf-Rayet. Un lien avec les sursauts gamma longs semble établi.Quelques étoiles exceptionnellement massives peuvent produire une « hypernova » quand elles s'effondrent. Ce type d'explosion n'est cependant connu que théoriquement, il n'est pas encore confirmé par des observations. Dans une hypernova, le cœur de l'étoile s'effondre directement en un trou noir car il est devenu plus massif que la limite des « étoiles à neutrons ». Deux jets de plasma extrêmement énergétiques sont émis le long de l'axe de rotation de l'étoile à une vitesse proche de celle de la lumière. Ces jets émettent d'intenses rayons gamma et pourraient expliquer l'origine des sursauts gamma. En effet, si l'observateur se trouve dans (ou proche de) l'axe des jets, il recevra un signal qui pourrait être capté depuis le fin fond de l'Univers (horizon cosmologique).Les supernovas de type I sont, toutes proportions gardées, considérablement plus "brillantes" que celles de type II. Ceci en "luminosité électromagnétique". Par contre les supernovas de type II sont intrinsèquement plus "énergétiques" que celles de type I. Les supernovas à effondrement de cœur (de type II) émettent la grande partie, voire la quasi-totalité, de leur énergie sous forme d'un "rayonnement neutrinique". La plus brillante supernova observée en 400 ans a été repérée en 1987 au sein des vastes nuées de gaz de la nébuleuse de la Tarentule, dans le Grand Nuage de Magellan.Les découvertes de supernovas sont déclarées au Bureau central des télégrammes astronomiques de l'Union astronomique internationale, qui émet un télégramme électronique avec la désignation qu'il assigne à la supernova. Cette désignation suit le format ou où SN est l'abréviation de supernova, YYYY est l'année de découverte, A est une capitale latine et aa sont deux minuscules latines. Les 26 premières supernovas de l'année ont une lettre entre A et Z ; après Z, elles commencent par aa, ab, et ainsi de suite. Par exemple, SN 1987A, la supernova sans doute la plus célèbre des temps modernes, qui a été observée le dans le Grand Nuage de Magellan, était la première découverte cette année-là. C'est en 1982 que la première appellation à deux lettres (SN 1982aa, dans NGC 6052) fut nécessaire. Le nombre de supernovas découvertes chaque année a régulièrement crû. Il a connu une augmentation considérable à partir de 1997, date de la mise en place de programmes consacrés à la découverte de ces objets, notamment les supernovas thermonucléaires. Les premiers programmes spécialisés de grande envergure étaient le Supernova Cosmology Project, dirigé par Saul Perlmutter, et le High-Z Supernovae Search Team, dont le responsable était Brian P. Schmidt. Ces deux programmes ont permis en 1998 de découvrir l'accélération de l'expansion de l'Univers. D'autres programmes spécialisés ont par la suite vu le jour, comme ESSENCE (également dirigé par Brian P. Schmitt) ou encore SNLS. Des grands relevés, comme le Sloan Digital Sky Survey ont également permis la découverte d'un grand nombre de supernovas. Le nombre de supernovas découvertes est ainsi passé de 96 en 1996 à 163 en 1997. Il était de 551 en 2006 ; la dernière découverte cette année-là était SN 2006ue.Les supernovas sont des événements spectaculaires mais rares. Plusieurs ont été visibles à l'œil nu depuis l'invention de l'écriture, et le témoignage de leur observation est parvenu jusqu'à nous : Quelques autres supernovas remarquables ont fait l'objet de nombreuses études, parmi lesquelles :Vulgarisation
|
Une supernova est l'ensemble des phénomènes qui résultent de l'implosion d'une étoile en fin de vie, notamment une gigantesque explosion qui s'accompagne d'une augmentation brève mais fantastiquement grande de sa luminosité. Vue depuis la Terre, une supernova apparaît donc souvent comme une étoile nouvelle, alors qu'elle correspond en réalité à la disparition d'une étoile.
|
xwikis
|
Les traces les plus anciennes de comptabilité datent de la haute Antiquité et notamment de la Mésopotamie ancienne (sur tablette d'argile, papyrus...). Les villes commerçantes italiennes et flamandes jouent un grand rôle dans l'établissement des pratiques occidentales modernes, naissance de la comptabilité en partie double. La théorie comptable s'est organisée, clarifiée et normée à partir du, lors de la révolution industrielle, notamment sous l'influence de praticiens tels que Pierre-Antoine Godard-Desmarest. En France, c'est la loi fiscale de 1917 qui a donné une dimension supplémentaire à la comptabilité, dans l'objectif de donner nouveau souffle à l'investissement. Elle autorise un véritable amortissement comptable, permettant de déduire chaque année des bénéfices une fraction des investissements. Le souverain Hammourabi de Babylone évoque la comptabilité des marchands dans ses lois. Les Incas utilisaient des rubans de couleurs noués pour tenir les comptes ; un nœud par opération, une couleur par produit. Les Romains utilisaient les termes expensa pour les dépenses et accepta pour les recettes.La "comptabilité" est le moyen de :Les outils d’évaluation issus de la comptabilité sont les états financiers c’est-à-dire le bilan, le compte de résultat, le tableau des emplois et ressources (ou de financement) et les annexes (état annexé).Le bilan comptable est une synthèse de la situation financière d'une organisation à une date donnée. Il est une « photographie» du patrimoine de cette organisation qui permet de réaliser une évaluation d'entreprise, et plus précisément de connaître après retraitement le niveau de sa valeur et de sa solvabilité. En d’autres termes, le bilan traduit la situation patrimoniale d’une organisation à la fin de l’exercice comptable (qui correspond généralement à l’exercice civil – du janvier au 31 décembre). Le mot « bilan » est dérivé du mot « balance » et exprime bien sa substance. D’un côté, il y a les biens de l’organisation (ses actifs), composés par exemple des immeubles dont elle est propriétaire, de son parc de véhicules ou de machines, de ses stocks (matières premières, marchandises), des créances qu'elle possède sur la clientèle, de ses avoirs bancaires, etc. Les actifs ne se composent pas seulement d’éléments matériels : certains avoirs immatériels peuvent également avoir une valeur patrimoniale et se retrouver à l’actif du bilan : les frais de recherche et développement, les licences, les brevets, etc. De l’autre côté de la balance se retrouvent les sources de financement de l’entreprise (ses passifs). Il s’agit, par exemple, des capitaux propres (capital investi par les actionnaires dans des entreprises, fonds associatifs dans des associations), du capital emprunté auprès d’établissements de crédit, de dettes commerciales, mais aussi de réserves et « bas de laine » constitués en vue de faire face à des dépenses attendues. Par exemple, une organisation qui prévoit une restructuration constituera par prudence des provisions pour faire face aux coûts ultérieurement entraînés par cette restructuration. Au bilan, tous ces actifs et ces passifs sont classés dans des rubriques précises.Le compte de résultat est un document comptable synthétisant l'ensemble des charges et des produits d'une organisation pour une période donnée, appelée exercice comptable. Le compte de résultat est donc un document de synthèse, faisant partie des états financiers, et ayant pour fonction d'indiquer la performance de l'organisation. Ce document fournit, par différence entre les recettes et les dépenses, le résultat net de l’exercice concerné, c'est-à-dire ce que l'entreprise a gagné (bénéfice) ou perdu (perte) au cours de la période, lequel s'inscrit au passif du bilan. Il ne s’agit donc plus d’un patrimoine mais des prestations, des recettes et dépenses effectuées au cours d'une certaine période. Ainsi les charges comprennent par exemple les frais de personnel, les achats de matières premières, les charges d’emprunt. Les produits quant à eux se composent, entre autres, des ventes (chiffre d'affaires), des intérêts générés par les actifs financiers, des plus-values réalisées lors de la vente d’un immeuble, etc. Une distinction est opérée, dans le compte de résultat, entre le résultat d'exploitation, le résultat financier et le résultat hors exploitation (aussi appelé « Résultat hors activités ordinaires » (HAO) selon l'Organisation pour l'harmonisation en Afrique du droit des affaires - OHADA). Le résultat d’exploitation et le résultat financier constituent ensemble le résultat de l’activité courante de l’entreprise. Le résultat hors exploitation, en revanche, est étranger à cette activité courante. Le compte de résultat comporte, dans sa version élaborée, des soldes intermédiaires de gestion décrivant de quelle façon s'est construit le résultat. Il donne une vue d’ensemble des produits et des charges de la période donnée.Le tableau des emplois et ressources, aussi appelé tableau de financement, est un outil d'analyse stratégique révélatrice de la politique financière suivie par les dirigeants d'une organisation. Il permet aussi de visualiser les flux de trésorerie au cours de l'exercice. Il fait partie des états financiers annuels obligatoires et retrace les flux financiers de l’organisation durant l’exercice comptable. Il fait apparaître, pour l’exercice, les flux d’investissement et de financement, les autres emplois et ressources financiers et la variation de la trésorerie.Les annexes, ou l'état annexé selon l'Organisation pour l'harmonisation en Afrique du droit des affaires, est en quelque sorte le mode d'emploi et complément nécessaire à la compréhension des autres états financiers dont il est une partie intégrante. Il concourt à donner une image fidèle du patrimoine, de la situation financière et du résultat de l'organisation en indiquant par exemple les modes d'évaluations, l'état des provisions et des amortissements. Dans les annexes, diverses rubriques du bilan et du compte de résultat sont ventilées en détail et expliquées de manière plus approfondie. L’état annexé est également renseigné de toutes autres informations n’ayant pas leur place dans le bilan, le compte de résultat ou le tableau de financement mais dont la connaissance permet de porter une appréciation adéquate sur les états financiers de l’entreprise.La comptabilité a pour objectif de transmettre des informations fiables, cohérentes et sincères aux acteurs internes ou externes de l'organisation. Pour cela, plusieurs principes comptables doivent être respectés :Les applications de la comptabilité sont multiples et variés. Elles ont donné naissance à des domaines et à un vocabulaire très riche, dont :
|
La comptabilité est un ensemble de conventions et de règles qui consistent à recueillir et compiler des données liées aux événements et aux opérations financières, afin de présenter dans une unité monétaire, la situation financière et les activités économiques d'une entité permettant aux utilisateurs de ce système d'information de comparer et analyser ces informations comptables et de prendre des décisions.
|
xwikis
|
L'UNESCO et son mandat pour la coopération intellectuelle sur le plan international trouvent leurs racines dans la décision de la Société des Nations du d'élire une commission chargée d'étudier la question. Cette Commission internationale de coopération intellectuelle (CICI), siégeant à Genève, est créée le comme un organe consultatif composé de personnalités élues pour leurs compétences personnelles. L'Institut international de coopération intellectuelle (IICI) est lui établi à Paris le comme l'agence exécutive de la CICI. Le 18 décembre 1925, le Bureau international d'éducation (BIE) commence son action comme organisation non gouvernementale au service du développement international dans le domaine éducatif. Néanmoins, le travail de ces prédécesseurs de l'UNESCO est interrompu par le déclenchement de la Seconde Guerre mondiale.À la suite des signatures de la Charte de l'Atlantique et de la Déclaration des Nations unies, la Conférence des ministres alliés de l'éducation (CAME) se réunit à Londres, entre le 16 novembre 1942 et le 5 décembre 1945. Le 30 octobre 1943, la Chine, les États-Unis, le Royaume-Uni et l’URSS expriment la nécessité d'une organisation internationale dans la déclaration de Moscou. Elle est suivie par les propositions du 9 octobre 1944 lors de la Conférence de Dumbarton Oaks. À partir de la proposition de la CAME et conformément aux recommandations de la Conférence de San Francisco qui se tient entre avril et juin 1945, la Conférence des Nations unies pour l'établissement d'une organisation éducative et culturelle (ECO/CONF) est convoquée à Londres du au 16 novembre 1945. Elle rassemble les représentants de 44 États. Pendant l'ECO/CONF, l'Acte constitutif de l'UNESCO est introduit et signé par 37 États, cependant qu'une commission préparatoire est également établie. Celle-ci poursuit ses travaux du 16 novembre 1945 au 4 novembre 1946, jour où l'Acte constitutif entre en vigueur avec le dépôt de la vingtième ratification d'un État membre. Dans son préambule, resté célèbre, la charte constitutive de l'UNESCO énonce que « les guerres prenant naissance dans l’esprit des hommes, c’est dans l’esprit des hommes que doivent être élevées les défenses de la paix ». Par la suite, le congrès de Yamoussoukro en Côte d'Ivoire, qui s'est tenu en 1989, a permis à l'UNESCO de s'accorder sur un principe essentiel : « la paix représente bien plus que la fin des conflits armés ».L'UNESCO a été fondée par vingt États, signataires de l'Acte constitutif en 1946 :Tenue entre le 19 novembre et le 10 décembre 1946, la première Conférence générale élit le docteur Julian Huxley au poste de directeur général de l'Organisation. Cette période est marquée par une méfiance plus ou moins discrète des dirigeants de la nouvelle institution envers les religions. En novembre 1954, la Conférence générale révise l'Acte constitutif en décidant que les membres du Conseil devront désormais représenter les gouvernements de leurs États respectifs. Ce changement de gouvernance distingue l'UNESCO de son précurseur, la CICI, compte tenu de la collaboration des États dans les domaines de compétence de l’UNESCO. À mesure que les États membres coopèrent pour réaliser les objectifs de l'UNESCO, des événements historiques et politiques influencent les activités de l'Organisation, notamment lors les périodes de la guerre froide, de la décolonisation et de la dissolution de l’URSS. L'organisation, accusée à ses débuts d'anticléricalisme et d'agnosticisme militant, devient plus ouverte et des références à Dieu sont désormais possible. Parmi les réalisations notables de l'Organisation, on peut citer son travail de lutte contre le racisme. Ainsi, les déclarations autour de la question raciale, notamment celle des anthropologues datant de 1950 (parmi lesquels figure Claude Lévi-Strauss) et la Déclaration sur la race et les préjugés raciaux de 1978. Estimant quelques publications de l'UNESCO comme une ingérence dans les problèmes raciaux du pays, la République d'Afrique du Sud a quitté l'Organisation en 1956, avant de revenir, sous la direction de Nelson Mandela, en 1994. Le projet de l'éducation de base dans la vallée de Marbial en Haïti est un exemple du travail que l'UNESCO mène à ses débuts dans le secteur de l'éducation. Amorcé en 1947, ce projet a été suivi par les missions d'experts dans d'autres pays, comme l'Afghanistan en 1949. En 1948, l'UNESCO a proposé aux États membres d'instituer un enseignement primaire obligatoire, gratuit et universel. En 1990, la Conférence mondiale sur l'éducation pour tous, à Jomtien en Thaïlande, a lancé un mouvement global afin de fournir une éducation de base pour tous, enfants, jeunes et adultes. Dix ans plus tard, lors du Forum mondial sur l'éducation à Dakar, les gouvernements se fixent jusqu'à 2015 pour s'engager à l'éducation de base pour tous. Dans le domaine de la culture, l'UNESCO à ses débuts a lancé la Campagne de Nubie en 1960. Le but de cette Campagne était de déplacer le Temple Abou Simbel pour le sauver des eaux montantes du Nil après la construction du barrage d'Assouan. Pendant cette Campagne de 20 ans, 22 monuments et complexes architecturaux ont été déplacés. Elle était la première campagne, et la plus importante, d’une longue série, parmi lesquelles celles de Moenjodaro (Pakistan), Fès (Maroc), Katmandou (Népal), Borobudur (Indonésie) et l’Acropole d’Athènes (Grèce). Le travail de l'UNESCO dans le domaine du patrimoine a abouti à l'adoption en 1972 de la Convention pour la protection du patrimoine mondial, culturel et naturel. Le Comité du patrimoine mondial est créé en 1976 et les premiers sites sont inscrits sur la Liste du patrimoine mondial en 1978. Depuis lors, quelques instruments juridiques internationaux ont été adoptés par les États membres de l'UNESCO en 2003 (Convention pour la sauvegarde du patrimoine culturel immatériel) et en 2005 (Convention sur la protection et la promotion de la diversité des expressions culturelles). En décembre 1951, une réunion intergouvernementale qui s'est tenue à l'UNESCO a mené à la création du Conseil Européen pour la Recherche Nucléaire (CERN). Le CERN a notamment permis la création en 1989 du World Wide Web et la découverte d'une particule élémentaire communément appelée Boson de Higgs. Dans le domaine des sciences naturelles, l'UNESCO a initié très tôt un projet majeur concernant la zone aride. En 1968, elle organise la première conférence intergouvernementale visant à la réconciliation de l'environnement et du développement, questions toujours d'actualité dans le domaine du développement durable. Le principal résultat de la conférence a été la création du Programme sur l'homme et la biosphère. Dans le domaine de la communication, la libre circulation de l'information reste une priorité de l'UNESCO depuis ses débuts. Lors de l’immédiat après-guerre, ses activités ont été concentrées sur la reconstitution et les besoins des moyens de communication de masse partout dans le monde. L'UNESCO a commencé à organiser la formation et l'éducation pour les journalistes à partir des années 1950. Afin de répondre aux exigences d'un Nouvel ordre mondial de l’information et de la communication à la fin des années 1970, l'Organisation a établi la Commission internationale d'étude des problèmes de la communication qui a abouti au rapport « MacBride » (du nom du Président de la Commission et lauréat du Prix Nobel de la paix Seán MacBride). Après ce rapport, l’UNESCO a introduit les programmes La Société de l'information pour tous et Vers les sociétés du savoir, en anticipant les questions des Sommets mondiaux sur la société de l'information (Genève, 2003 et Tunis, 2005). En 1984, les États-Unis se retirent de l'UNESCO, accusant celle-ci, dans le contexte de la course à l’armement souhaitée par l’administration Reagan, de favoriser la paix à travers l’éducation, la science et la culture, ce qui constitue « les thèmes par excellence de la propagande soviétique », selon les mots de l’ambassadeur américain. En 2011, la Palestine est devenue un membre de l’UNESCO faisant suite au vote avec 107 États membres pour et 14 contre. Des lois passées aux États-Unis en 1990 et 1994 stipulent qu'ils ne peuvent contribuer financièrement à des organisations des Nations-Unies qui reconnaissent la Palestine comme État membre. En conséquence, ils retirent leur financement, qui représente environ 22 % du budget de l'UNESCO. En 2017, la dette cumulée des États-Unis dépassait à 500 millions de dollars. Israël a également réagi à l'admission de la Palestine à l'UNESCO par le gel de ses paiements à l'Organisation et en imposant des sanctions à l'Autorité palestinienne, affirmant que l'admission de la Palestine pourrait être préjudiciable « aux pourparlers potentiels de paix ». Le budget est par conséquent passé de 653 à 507 millions de dollars américains.Depuis l’élection de son directeur général en 1999, et surtout depuis le retour des États-Unis au sein de l’organisation en 2003, l'UNESCO s’est engagée dans un plan sévère de réduction des dépenses, assorti d’une réforme de sa stratégie : furent ainsi décidés le non-renouvellement de nombreux postes subalternes, la suppression du magazine généraliste "Le Courrier de l'Unesco", l’abandon des activités en faveur des logiciels "open source", la réduction nette du budget général au profit de programmes désormais financés, et donc aussi pilotés ou gérés, par des États membres ou des entreprises commerciales, dont Microsoft et L'Oréal. "Le Courrier de l'Unesco" est à nouveau publié à partir de 2017, avec le soutien de la République populaire de Chine, en format papier et en format électronique, dans les six langues officielles de l’Organisation (anglais, français, espagnol, arabe, russe et chinois) ainsi qu'en portugais et en espéranto. Pour tenir un budget en baisse depuis l'arrêt de la contribution américaine en 2011, quelque 300 personnes risquaient de perdre leur emploi en 2013. En 2012, l'agence onusienne employait au siège installé à Paris et 900 à travers le monde. L'action de l'UNESCO dans le domaine patrimonial est par ailleurs aujourd'hui l'objet d'une controverse. Certains universitaires qui étudient le patrimoine culturel, comme António da Silva, reprochent à cette institution onusienne de ne pas dénoncer le racisme envers les réfugiés de guerre en Europe avec la même vigueur que les crimes de lèse-patrimoine perpétués par les fondamentalistes au Proche-Orient. Ils reprochent également à cette organisation de contribuer au processus émergent de fétichisation du patrimoine, oubliant que la protection de l'héritage culturel devrait servir avant tout d'instrument à la lutte contre le racisme, comme le déclare ouvertement la charte constitutive de l'institution de 1945. À la suite du vote du qui fait de la vieille ville d'Hébron, située en Cisjordanie occupée et abritant le Tombeau des Patriarches, une « zone protégée », les États-Unis menacent de réévaluer leurs relations avec l'UNESCO. Israël parle qu'ils qualifient comme étant dans la mesure où les responsables israéliens estiment que la résolution de l’UNESCO sur Hébron, qualifiant cette ville « d’islamique », nie une présence juive de. Le, les États-Unis annoncent leur retrait de l'UNESCO, accusant l'organisation d'être « anti-israélienne ». Conformément aux statuts de l’organisation, cette mesure prendra effet le. Néanmoins, le pays sera toujours représenté au siège de l'organisation puisqu'il conservera un statut d’observateur. Quelques heures plus tard, Israël annonce à son tour son retrait de l'organisation. L'UNESCO intervient dans le monde entier par des expertises et des financements, comme en 2019 en Irak dans la ville de Mossoul, et propose son aide lors de catastrophes touchant des monuments emblématiques dans le monde comme après l'incendie le 15 avril 2019 de la cathédrale Notre-Dame de Paris.L'UNESCO poursuit son action à travers cinq grands programmes : l’éducation, les sciences exactes, naturelles, sociales et humaines, la culture, la communication et l’information. Des périodiques spécialisés sont publiés comme le "Bulletin du droit d’auteur", "Perspectives" (pédagogie), la "Revue internationale des sciences sociales", "Museum" (muséographie). L'UNESCO anime la Décennie internationale pour la promotion d’une culture de la non-violence et de la paix au profit des enfants du monde (2001-2010) proclamée par l’ONU en 1999. Le Portail de la transparence de l'UNESCO permet un accès public aux projets et activités de l'Organisation, à son budget et à de nombreuses informations programmatiques et financières. Ces informations sont publiées sur le registre en suivant les standards IATI.Les missions pour l’éducation de l’UNESCO sont : L'UNESCO a aussi adopté la Convention concernant la lutte contre la discrimination dans le domaine de l'enseignement pour le droit à l'éducation pour tous.L'UNESCO abrite la Commission océanographique intergouvernementale, organe de coordination scientifique. Dans le cadre du programme MAB (), elle a établi un réseau de réserves de biosphères qui se propose de protéger la nature, tout en préservant l’activité humaine sur toute la planète.En agissant dans l’un des cinq secteurs spécialisés de l’UNESCO : éducation, sciences naturelles, sciences sociales et humaines, culture ainsi que communication et information, la mission est de faire avancer les connaissances, les normes et la coopération intellectuelle afin de faciliter les transformations sociales porteuses des valeurs universelles de justice, de liberté et de dignité humaine.La collection Unesco d'œuvres représentatives est un projet de traduction de l'UNESCO qui a été actif de 1948 à 2005. L'UNESCO est connue depuis 1972 pour sa liste du patrimoine mondial pour le patrimoine matériel, culturel et naturel. Une liste du patrimoine culturel immatériel de l'humanité a existé de 2001 à 2006. Avec l’entrée en vigueur de la Convention pour la sauvegarde du patrimoine culturel immatériel, le programme de la proclamation a pris fin. À l’image du patrimoine mondial, ont été créées des listes : une liste représentative et une liste de sauvegarde urgente, où ont été inscrits les chefs-d’œuvre précédemment proclamés, et où de nouveaux éléments sont inscrits annuellement depuis 2006. L'UNESCO a aussi adopté la Déclaration universelle de l'UNESCO sur la diversité culturelle en 2001 pour promouvoir la diversité culturelle. La Bibliothèque numérique mondiale est une bibliothèque numérique lancée par l'UNESCO et la Bibliothèque du Congrès des États-Unis opérationnelle depuis le 21 avril 2009. L'UNESCO constitue également depuis 2004 un Réseau des villes créatives, qui en 2017 rassemble 180 villes qui entendent « promouvoir les industries créatives, renforcer la participation à la vie culturelle et intégrer la culture dans les politiques de développement urbain durable », et s'engagent à échanger des bonnes pratiques pour ce faire.L'UNESCO a également créé en 1992 le programme Mémoire du monde, visant à sensibiliser la communauté internationale à la richesse du patrimoine documentaire, à la nécessité d’assurer sa conservation pour les générations futures et à le rendre accessible à un large public. Il s’est doté pour cela d’un Registre mondial, liste des éléments du patrimoine documentaire identifiés par le Comité consultatif international (CCI) et approuvés par le directeur général de l'UNESCO. L'UNESCO est par ailleurs à l’origine de la création, en, conjointement avec l’Université du Québec à Montréal, du réseau Orbicom, réseau mondial associant des universitaires et des professionnels de la communication et des médias, ayant pour objet de stimuler l’échange d’informations et le développement de projets conjoints, afin d’examiner comment ce domaine en constante évolution peut contribuer à promouvoir la démocratie et un développement durable. Situé au carrefour de l’enseignement, de la recherche et des pratiques professionnelles, il s’est fixé pour mission première de « développer et promouvoir le partage de savoir et d’expertise en communication par l’éducation, la recherche et l’action concrète ». Reliant les spécialistes à travers le monde qui travaillent dans différents secteurs des communications, et soutenu par des institutions internationales, des médias, des gouvernements et des entreprises, il s’inscrit dans le cadre de la nouvelle stratégie de la communication de l'UNESCO, adoptée à l’unanimité lors de la Conférence générale de 1989."Le Courrier de l'Unesco" est une publication trimestrielle de l'Organisation des Nations unies, dont les buts sont de promouvoir les idéaux de l'UNESCO, servir de plate-forme au dialogue entre les cultures et constituer une tribune de débats internationaux. Publiée depuis 1948, la revue a connu une interruption en 2012 en raison des difficultés financières de l'UNESCO. "Le Courrier de l'Unesco" est à nouveau publié à partir de 2017, avec le soutien de la République populaire de Chine, en format papier et en format électronique, dans les six langues officielles de l’Organisation (anglais, français, espagnol, arabe, russe et chinois) ainsi qu'en portugais et en espéranto.Au janvier 2019, l’UNESCO compte 193 États membres, ainsi que 11 membres associés et 2 États observateurs : Membres : Membres associés : Observateurs :La Conférence générale réunit les représentants de l’ensemble des États membres. Elle siège tous les deux ans (les années impaires).Le Conseil exécutif se compose de 58 membres élus pour un mandat de quatre ans. Il est renouvelé par moitié tous les deux ans, les années impaires, lors de la Conférence générale. Le président du Conseil exécutif est choisi parmi ses membres pour un mandat de deux ans. Il siège au moins deux fois par an dans l’intervalle des sessions de la Conférence générale.Le directeur général est élu par le Conseil exécutif dont le choix et ratifié par la Conférence générale pour un mandat de quatre ans renouvelable une seule fois depuis 2005.L'élection de 2009 pour le poste de directeur général a lieu à Paris du 7 au 23 septembre. Huit candidats sont en lice pour recueillir les votes de 58 pays votants. L'élection peut comporter jusqu'à cinq tours, selon que les candidats parviennent, ou non, à obtenir une majorité rapidement. Elle est particulièrement controversée en raison des diatribes antisémites du candidat favori, le ministre égyptien de la Culture Farouk Hosni. En 2001, il avait déclaré que la culture israélienne était « inhumaine » et « raciste », puis dénoncé « l'infiltration des juifs dans les médias internationaux ». En 2008, il avait répondu à un député islamiste au Parlement vouloir « brûler les livres en hébreu » dans les bibliothèques d'Égypte, s'il en trouvait. Des intellectuels, dont le prix Nobel de la paix et survivant d'Auschwitz Elie Wiesel, avaient alors condamné une candidature « dangereuse », termes repris depuis par de nombreux médias, comme le New York Times, la BBC et France24. L'élection est finalement été remportée par la Bulgare Irina Bokova, par 31 voix contre 27 à Farouk Hosni. Cette désignation est confirmée le 15 octobre suivant par le vote de la Conférence générale.En 2017, neuf candidats se présentent dont trois femmes, la Libanaise Vera El Khoury Lacoeuilhe, l'Égyptienne Moushira Khattab et la Française Audrey Azoulay. L’élection se déroule du 9 au 13 octobre et nécessite cinq tours. Le, Audrey Azoulay est élue à l’occasion d’un et dernier tour de vote des 58 membres du Conseil exécutif avec une majorité de 30 voix contre 28 pour le candidat qatari Hamad ben Abdelaziz al-Kawari. Le vote est validé en conférence générale des États membres le et Audrey Azoulay prend ses fonctions le 15 novembre.Le Secrétariat comprend le Directeur général et l’ensemble du personnel qui se répartit en deux catégories : postes du cadre organique et postes du cadre de service et de bureau. Directeur général, secteurs de Programme (Éducation, Sciences exactes et naturelles, Sciences sociales et humaines, Culture, Communication et information), secteurs de soutien (Relations extérieures et de l'information du public (ADG: Eric Falt), Administration) services centraux (Secrétariat des organes directeurs, Office des normes internationales et des affaires juridiques, Service d'évaluation et d'audit, Bureau de l'éthique, Bureau de la planification stratégique, Bureau de la gestion des ressources humaines, Département Afrique), bureaux hors Siège, instituts et centres de l'UNESCO. En 2014, l'UNESCO a un budget de 653 millions de dollars. Ses effectifs sont d’environ internationaux dont un millier d’administrateurs.En 1946 l’UNESCO s’installe dans l’ancien hôtel Majestic situé dans le de Paris. En 1958, l’UNESCO rejoint la maison de l'UNESCO située dans le de Paris, son siège actuel. Construit par les architectes Bernard Zehrfuss, Marcel Breuer et Pier Luigi Nervi, le siège de l'UNESCO est représentatif du style architectural des années 1950. Il renferme des compositions murales de Pablo Picasso et de Joan Miró en collaboration avec Josep Llorens i Artigas, Rufino Tamayo, Afro Basaldella et Roberto Matta ainsi qu’un stabile de Alexandre Calder dans les jardins. Le jardin de la Paix d’Isamu Noguchi se visite lors de la journée parisienne « portes ouvertes » des jardins. Le site possède des œuvres d’art d'artistes renommés, comme Bazaine, "L'Homme qui marche" de Giacometti, Le Corbusier, Henry Moore, Takis, ou Tsereteli. Il y a aussi des points remarquables comme l’ange de Nagasaki, l’Espace de méditation de Tadao Ando, le Square de la Tolérance de Dani Karavan et le Globe symbolique d’Erik Reitzel, "Totes les coses" de Tapies,, "La Liberté : la paix le jour d'après" d'Abelardo Espejo Tramblin. L'UNESCO organise et parraine de nombreuses manifestations culturelles et scientifiques. En 1998, le Palais de l'UNESCO à Paris a ainsi accueilli le Congrès international des sciences administratives organisé par l'Institut français des sciences administratives sur le thème « Le citoyen et l'administration ». L’UNESCO dispose également d’un site annexe, situé rue Miollis dans le quartier Necker du de Paris, à quelques centaines de mètres de son site principal.L’UNESCO entretient des relations officielles avec 373 Organisations non gouvernementales (ONG) internationales et 24 fondations et institutions similaires. En complément de ce cadre officiel, elle entreprend des activités avec des ONG aux niveaux international, régional et national. Les relations officielles sont réservées aux ONG qui exercent un rôle soutenu de coopération en direction, et à partir de l’UNESCO. L’admission pour une reconnaissance officielle n’est accordée qu’aux ONG internationales représentatives et qui agissent en tant qu’experts et représentent le plus largement leur domaine d’activité, grâce à une structure internationale étendue. Les relations officielles sont elles-mêmes sous-divisées en deux groupes, « statut de consultation» ou « statut d’association», selon le rôle et la structure de l’ONG. Les instances du bureau exécutif de l’UNESCO décident de l’admission à l’un ou l’autre groupe sur la base des recommandations du Directeur Général. Ces relations formelles sont établies pour des périodes de six ans renouvelables. La Conférence internationale des organisations non gouvernementales de l’UNESCO se réunit tous les deux ans pour examiner l’état de la coopération entre les ONG et l’UNESCO. Elle élit notamment un comité de liaison et un président qui coordonnent les travaux entre les conférences. Parmi les ONG les plus actives, on trouve :En 2013, l'UNESCO a annoncé que la collection "La vie et les œuvres d'Ernesto Che Guevara" était inscrite au registre « Mémoire du monde ». La députée américaine Ileana Ros-Lehtinen a condamné cette décision, affirmant que l'organisation agit contre ses propres idéaux :Ouvrages Articles
|
LOrganisation des Nations unies pour l'éducation, la science et la culture (, UNESCO, également écrit Unesco) est une institution spécialisée de l'Organisation des Nations unies (ONU) créée le à la suite des dégâts et des massacres de la Seconde Guerre mondiale.
|
xwikis
|
Un trou noir est un objet astrophysique dont la relativité générale dit qu'il est provoqué par une masse suffisamment concentrée pour qu'elle ne cesse de s'effondrer sur elle-même du fait de sa propre gravitation, arrivant même à se concentrer en un point appelé singularité gravitationnelle. Les effets de la concentration de cette masse permettent de définir une sphère, appelée "l'horizon du trou noir", dont aucun rayonnement et aucune matière ne peut s’échapper. Cette sphère est centrée sur la singularité et son rayon ne dépend que de la masse centrale ; elle représente en quelque sorte l’extension spatiale du trou noir. À proximité de cette sphère, les effets gravitationnels sont observables et extrêmes. Le rayon d'un trou noir est proportionnel à sa masse : environ par masse solaire pour un trou noir de Schwarzschild. À une distance interstellaire (en millions de kilomètres), un trou noir n’exerce pas plus d’attraction que n’importe quel autre corps de même masse ; il ne s’agit donc pas d’un irrésistible. Par exemple, si le Soleil se trouvait remplacé par un trou noir de même masse, les orbites des corps tournant autour (planètes et autres) resteraient pour l'essentiel inchangées (seuls les passages à proximité de l'horizon induiraient un changement notable). Il existe plusieurs sortes de trous noirs. Lorsqu’ils se forment à la suite de l’effondrement gravitationnel d’une étoile massive, on parle de "trou noir stellaire", dont la masse équivaut à quelques masses solaires. Ceux qui se trouvent au centre des galaxies possèdent une masse bien plus importante pouvant atteindre plusieurs milliards de fois celle du Soleil ; on parle alors de "trou noir supermassif" (ou trou noir galactique). Entre ces deux échelles de masse, il existerait des "trous noirs intermédiaires" avec une masse de quelques milliers de masses solaires. Des trous noirs de masse bien plus faible, formés au début de l’histoire de l’Univers, peu après le, sont aussi envisagés et sont appelés "trous noirs primordiaux". Leur existence n’est, à l’heure actuelle, pas confirmée. Il est par définition impossible d’observer directement un trou noir. Il est cependant possible de déduire sa présence de son action gravitationnelle : soit par les effets sur les trajectoires des étoiles proches ; soit au sein des microquasars et des noyaux actifs de galaxies, où de la matière, située à proximité, tombant sur le trou noir va se trouver considérablement chauffée et émettre un fort. Les observations permettent ainsi de déceler l’existence d’objets massifs et de très petite taille. Les seuls objets correspondant à ces observations et entrant dans le cadre de la relativité générale sont les trous noirs.Le concept de trou noir a émergé à la fin du dans le cadre de la gravitation universelle d’Isaac Newton. La question était de savoir s’il existait des objets dont la masse était suffisamment grande pour que leur vitesse de libération soit plus grande que la vitesse de la lumière. Cependant, ce n’est qu’au début du et avec l’avènement de la relativité générale d’Albert Einstein que le concept de trou noir devient plus qu’une curiosité. En effet, peu après la publication des travaux d’Einstein, une solutionUn trou noir est un objet astrophysique qui se caractérise par le fait qu’il est très difficile à observer directement (voir ci-dessous), et que sa région centrale ne peut être décrite de façon satisfaisante par les théories physiques en leur état du début du, car elle abrite une singularité gravitationnelle. Cette dernière ne peut être décrite que dans le cadre d’une théorie de la gravitation quantique, manquante à ce jour. En revanche, on sait parfaitement décrire les conditions physiques qui règnent dans son voisinage immédiat, de même que son influence sur son environnement, ce qui permet de les détecter par diverses méthodes indirectes. Par ailleurs, les trous noirs sont étonnants en ce qu’ils sont décrits par un très petit nombre de paramètres. En effet, leur description, dans l’univers dans lequel nous vivons, ne dépend que de trois paramètres : la masse, la charge électrique et le moment cinétique. Tous les autres paramètres du trou noir (par exemple ses effets sur les corps environnants et leur étendue) sont fixés par ceux-ci. Par comparaison, la description d’une planète fait intervenir des centaines de paramètres (composition chimique, différenciation de ses éléments, convection, atmosphère). La raison pour laquelle un trou noir n’est décrit que par ces trois paramètres est connue depuis 1967 : c’est le théorème de calvitie démontré par Werner Israel. Celui-ci explique que les seules interactions fondamentales à longue portée étant la gravitation et l’électromagnétisme, les seules propriétés mesurables des trous noirs sont données par les paramètres décrivant ces interactions, à savoir la masse, le moment cinétique et la charge électrique. Pour un trou noir, la masse et la charge électrique sont des propriétés habituelles que décrit la physique classique (c’est-à-dire non-relativiste) : le trou noir possède un champ gravitationnel proportionnel à sa masse et un champ électrique proportionnel à sa charge. L’influence du moment cinétique est en revanche spécifique à la relativité générale. Celle-ci énonce en effet qu’un corps en rotation va avoir tendance à « entraîner » l’espace-temps dans son voisinage (plus exactement, la géométrie de ce dernier décrit une convergence gravitationnelle dans le sens de rotation du corps massif). Ce phénomène, difficilement observable dans le système solaire en raison de son extrême faiblesse pour des astres non compacts, est connu sous le nom d’effet Lense-Thirring (aussi appelé "", en anglais). Il prend une amplitude considérable au voisinage d’un trou noir « en rotation », au point qu’un observateur situé dans son voisinage immédiat serait inévitablement entraîné dans le sens de rotation du trou noir. La région où ceci se produit est appelée ergorégion.La possibilité de l’existence des trous noirs n’est pas une conséquence exclusive de la relativité générale : la quasi-totalité des autres théories de la gravitation physiquement réalistes permet également leur existence. Toutefois, la relativité générale, contrairement à la plupart de ces autres théories, a non seulement prédit que les trous noirs "peuvent" exister, mais aussi qu’ils seront formés partout où suffisamment de matière peut être compactée dans une région de l’espace. Par exemple, si l’on compressait le Soleil dans une sphère d’environ trois kilomètres de rayon (soit à peu près quatre millionièmes de sa taille), il deviendrait un trou noir. Si la Terre était compressée dans un volume de quelques millimètres cubes, elle deviendrait également un trou noir. Pour l’astrophysique, un trou noir peut être considéré comme le stade ultime d’un effondrement gravitationnel. Les deux stades de la matière qui, en termes de compacité, précèdent l’état de trou noir, sont ceux atteints par exemple par les naines blanches et les étoiles à neutrons. Dans le premier cas, c’est la pression de dégénérescence des électrons qui maintient la naine blanche dans un état d’équilibre face à la gravitation ; dans le second, c'est l’interaction forte qui maintient l’équilibre. Un trou noir ne peut se former à la suite de l’effondrement d’une naine blanche : celle-ci, en s’effondrant, initie des réactions nucléaires qui forment des noyaux plus lourds que ceux qui la composent. Ce faisant, le dégagement d’énergie qui en résulte est suffisant pour disloquer complètement la naine blanche, qui explose en supernova thermonucléaire (dite de ). Un trou noir se forme lorsque la force de gravitation est suffisamment grande pour dépasser l’effet de la pression, ce qui se produit quand le rapport masse/rayon de l’astre progéniteur dépasse une certaine valeur critique. Dans ce cas, plus aucune force connue ne permet de maintenir l’équilibre et l’objet en question s’effondre complètement. En pratique, plusieurs cas de figures sont possibles : soit une étoile à neutrons accrète de la matière issue d’une autre étoile, jusqu’à atteindre une masse critique, soit elle fusionne avec une autre étoile à neutrons (phénomène "" beaucoup plus rare), soit le cœur d’une étoile massive s’effondre directement en trou noir, dans le cas d'une supernova à effondrement de cœur ou d'un "collapsar". L’hypothèse de l’existence d’un état plus compact que celui d’étoiles à neutrons a été proposée dans le courant des. Il se trouverait dans les étoiles à quarks, aussi appelées étoiles étranges, du nom des quarks étranges entrant dans leur composition. Des indications d’une possible détection indirecte de tels astres ont été obtenues depuis les, sans qu'elles aient permis de trancher la question. Au-delà d’une certaine masse, ce type d’astre finirait lui aussi par s’effondrer en trou noir, seule la valeur de la masse limite se trouvant modifiée. En 2006, on distingue quatre grandes classes de trous noirs en fonction de leur masse : les trous noirs stellaires, supermassifs, intermédiaires et primordiaux (ou micro trous noirs). L’existence voire l’abondance de chaque type de trou noir est directement liée aux conditions et à la probabilité de leur formation.Les deux seules classes de trous noirs pour lesquelles on dispose d’observations nombreuses (indirectes, mais de plus en plus précises, voir paragraphe suivant) sont les trous noirs stellaires et super-massifs. Le trou noir supermassif le plus proche est celui qui se trouve au centre de notre Galaxie à. Une des premières méthodes de détection d’un trou noir est la détermination de la masse des deux composantes d’une étoile binaire, à partir des paramètres orbitaux. On a ainsi observé des étoiles de faible masse avec un mouvement orbital très prononcé (amplitude de plusieurs dizaines de km/s) mais dont le compagnon est invisible. Le compagnon massif invisible peut généralement être interprété comme une étoile à neutrons ou un trou noir, puisqu’une étoile normale avec une telle masse se verrait très facilement. La masse du compagnon (ou la fonction de masses, si l’angle d’inclinaison est inconnu) est alors comparée à la masse limite maximale des étoiles à neutrons (environ ). Si elle dépasse cette limite, on considère que l’objet est un trou noir. Sinon, il peut être une naine blanche. On considère également que certains trous noirs stellaires apparaissent lors des sursauts de rayons gamma (ou "GRB", pour "" en anglais). En effet, ces derniers se formeraient via l’explosion d’une étoile massive (comme une étoile Wolf-Rayet) en supernova ; dans certains cas (décrits par le modèle collapsar), un flash de rayons gamma est produit au moment où le trou noir se forme. Ainsi, un GRB pourrait représenter le signal de la naissance d’un trou noir. Des trous noirs de plus faible masse peuvent aussi être formés par des supernovæ classiques. Le rémanent de supernova est soupçonné d’être un trou noir, par exemple. Un deuxième phénomène directement relié à la présence d’un trou noir, cette fois pas seulement de type stellaire, mais aussi super-massif, est la présence de jets observés principalement dans le domaine des ondes radio. Ces jets résultent des changements de champ magnétique à grande échelle se produisant dans le disque d’accrétion du trou noir.L'objet trou noir en tant que tel est par définition inobservable ; toutefois, il est possible d'observer l'environnement immédiat d'un trou noir (disque d'accrétion, jets de matière..) à proximité de son horizon, permettant ainsi de tester et vérifier la physique des trous noirs. La petite taille d’un trou noir stellaire (quelques kilomètres) rend cependant cette observation directe très difficile. En guise d’exemple, et même si la taille angulaire d’un trou noir est plus grande que celle d’un objet classique de même rayon, un trou noir d’une masse solaire et situé à un parsec (environ ) aurait un diamètre angulaire de seconde d’arc. Cependant, la situation est plus favorable pour un trou noir super-massif. En effet, la tailleCygnus X-1, détecté en 1965, est le premier objet astrophysique identifié comme pouvant être la manifestation d’un trou noir. C’est un système binaire qui serait constitué d’un trou noir en rotation et d’une étoile géante. Les systèmes binaires stellaires qui contiennent un trou noir avec un disque d’accrétion formant des jets sont appelés micro-quasars, en référence à leurs parents extragalactiquesLes candidats comme trous noirs supermassifs ont premièrement été les noyaux actifs de galaxie et les quasars découverts par les radioastronomes dans les. Cependant, les observations les plus convaincantes de l’existence de trous noirs supermassifs sont celles des orbites des étoiles autour du centre galactique appelé Sagittarius A*. Les orbites de ces étoiles et les vitesses atteintes ont permis aujourd’hui d’exclure tout autre type d’objet qu’un trou noir supermassif, de l'ordre de de masses solaires à cet endroit de la galaxie. Par la suite, des trous noirs supermassifs ont été détectés dans de nombreuses autres galaxies. En, une étoile géante bleue, appelée fut observée quittant notre galaxie avec une vitesse deux fois supérieure à la vitesse de libération de la Voie lactée, soit la vitesse de la lumière. Quand on remonte la trajectoire de cette étoile, on voit qu’elle croise le voisinage immédiat du centre galactique. Sa vitesse et sa trajectoire confortent donc également l’idée de la présence d’un trou noirUne question cruciale à propos des trous noirs est de savoir sous quelles conditions ils peuvent se former. Si les conditions nécessaires à leur formation sont extrêmement spécifiques, les chances que les trous noirs soient nombreux peuvent être faibles. Un ensemble de théorèmes mathématiques dus à Stephen Hawking et RogerAu centre d’un trou noir se situe une singularité gravitationnelle. Pour tout type de trou noir, cette singularité est « cachée » du monde extérieur par l’horizon des événements. Cette situation s’avère très heureuse : la physique actuelle ne sait certes pas décrire une singularité gravitationnelle mais cela a peu d’importance, car celle-là étant à l’intérieur de la zone délimitée par l’horizon, elle n’influe pas sur les événements du monde extérieur. Il se trouve cependant qu’il existe des solutions mathématiques aux équations de la relativité générale dans lesquelles une singularité existe sansEn 1971, le physicien britannique Stephen Hawking montra que la surface totale des horizons des événements de n’importe quel trou noir classique ne peut jamais décroître. Cette propriété est tout à fait semblable à la deuxième loi de la thermodynamique, avec la surface jouant le rôle de l’entropie. Dans le cadre de la physique classique, on pourrait violer cette loi de la thermodynamique en envoyant de la matière dans un trou noir, ce qui la ferait disparaître de notre univers, avec la conséquence d’un décroissement de l’entropie totale de l’univers. Pour éviter de violer cette loi, le physicien Jacob Bekenstein proposa qu’un trou noir possède une entropie (sans en préciser la nature exacte) et qu’elle soit proportionnelle à la surface de son horizon. Bekenstein pensait alors que les trous noirs n’émettent pas de rayonnement et que le lien avec la thermodynamique n’était qu’une simple analogie et pas une description physique des propriétés du trou noir. Néanmoins, Hawking a peu après démontré par un calcul de théorie quantique des champsEn 1974, Stephen Hawking appliqua la théorie quantique des champs à l'espace-temps courbé de la relativité générale, et découvrit que contrairement à ce que prédisait la mécanique classique, les trous noirs pouvaient effectivement émettre un rayonnement (proche d'un rayonnement thermique) aujourd’hui appelé rayonnement de Hawking : les trous noirs ne sont donc pas complètement « noirs ». Le rayonnement de Hawking correspond en fait à un spectre de corps noir. On peut donc y associer la « température » du trou noir, qui est inversement proportionnelle à sa taille. De ce fait, plus le trou noir est important, plus sa température est basse. Un trou noir de la masse de la planète Mercure aurait une température égale à celle du rayonnementUne question de physique fondamentale encore irrésolue au début du est le fameux paradoxe de l'information. En effet, en raison du théorème de calvitie déjà cité, il n’est pas possible de déterminer "" ce qui est entré dans le trou noir. Cependant, vue d’un observateur éloigné, l’information n’est jamais complètement détruite puisque la matière tombant dans le trou noir ne disparaît qu’après un temps infiniment long. Alors, l’information qui a formé le trou noir est-elle perdue ou pas? Des considérations générales sur ce que devrait être une théorie de la gravitation quantique suggèrent qu’il ne peut y avoir qu’une quantité finie et limitée d’entropie (c’est-à-dire une quantité maximale et finie d’information) associée à l’espace près de l’horizon du trou noir. Mais la variation de l’entropie de l’horizon plus celle du rayonnement de Hawking est toujours suffisante pour prendre en compte toute l’entropie de la matière et de l’énergie tombant dans le trou noir... Mais restent de nombreuses questions. En particulier au niveau quantique, est-ce que l’état quantique du rayonnement de Hawking est déterminé de manière unique par l’histoire de ce qui estLa relativité générale indique qu’il existerait des configurations dans lesquelles deux trous noirs sont reliés l’un à l’autre. Une telle configuration est habituellement appelée trou de ver ou plus rarement pont d’Einstein-Rosen. De telles configurations ont beaucoup inspiré les auteursLa démonstration de l'existence des trous noirs stellaires s'appuie sur l'existence d'une limite supérieure pour la masse des étoiles à neutrons. La valeur de cette limite dépend fortement des hypothèses faites concernant les propriétés de la matière dense. La découverte de nouvelles phases exotiques de la matière pourrait repousser cette limite. Une phase constituée de quarks libres (non liés pour former des protons et neutrons par exemple) à haute densité pourrait permettre l'existence d'étoiles à quarks tandis que des modèles de supersymétrie prévoient l'existence d'étoiles Q. Certaines extensions du modèle standard postulent l'existence de préons qui constitueraient les blocs élémentaires des quarks et des leptons, lesquels pourraient hypothétiquement former des étoiles à préons. Ces modèles hypothétiques pourraient expliquer un certain nombre d'observations de candidats trous noirs stellaires. Cependant, il peut être montré à partir d'arguments généraux en relativité générale que tous ces objets auraient une masse maximale. Étant donné que la densité moyenne d'un trou noir à l'intérieur de son rayon de Schwarzschild est inversement proportionnelle au carré de sa masse, les trous noirs supermassifs sont beaucoupQuand on parle de à propos de trou noir, on pense souvent à la science-fiction. On y trouve, au cinéma ou dans le domaine littéraire, beaucoup d’inspiration.
|
En astrophysique, un trou noir est un objet céleste si compact que l'intensité de son champ gravitationnel empêche toute forme de matière ou de rayonnement de s’en échapper.
|
xwikis
|
Depuis des milliers d'années, l'homme a créé et utilisé des outils l'aidant à calculer. Les plus anciens sont peut-être de simples notations de grandeurs comme les os d'Ishango, mais leur interprétation est très controversée. Au départ, la plupart des sociétés utilisent sans doute la main (d'où le systèmeUn calculateur analogique est un calculateur qui utilise des mesures physiques continues (par exemple électriques, mécaniques ou hydrauliques) pour modéliser un problème à résoudre, comme le passage du temps, le déplacement d'un véhicule ou le déplacement des planètes. C'est un calculateur mais ce n'est pas une machine à calculer dont les touches sont toutes indépendantes bien qu'elles soient toutes liées par les règles de l'arithmétique. Une fois que les conditions initiales d'un calculateur analogique sont entrées il n'est plus modifié que par l'action continue de son stimulateurLes algorithmes les plus anciens sont attestés par des tables datant de l'époque d'Hammurabi (env. ). Vers des algorithmes plus généraux ont été publiés par des mathématiciens grecs de l'Antiquité, notamment Euclide et Ératosthène. Vers le, Mohamed Ybn Moussa al-Khawarezmi passe pour être le père de la théorie des algorithmes ainsi que deUne horloge à calculer a été dessinée en 1623 par Wilhelm Schickard (1592-1635) professeur d'astronomie et de mathématiques à l'université de Heidelberg. Ce dispositif baptisé « horloge à calcul » aurait pu exécuter mécaniquement les additions et les soustractions, et presque aussi facilement les multiplications et les divisions. Mais on ignore s'il a été vraiment construit et, surtout, s'il était assez fiable pour être utilisé au-delà d'une démonstration. Blaise Pascal, indépendamment de Schickard qu'il ne connaissait probablement pas, réalise en 1642, à l'âge de, une machineLeibniz est le premier à réaliser la simplicité du système de numération binaire (vieux de plus de quatre mille ans!) dans les opérations arithmétiques ; Thomas Fantet de Lagny, un contemporain de Leibniz, remarqua qu'en arithmétique binaire les multiplications et divisions s'exécutent par de simples additions et soustractions : « Tout seLa principale marque d'un ordinateur est sa "programmabilité". Celle-ci permet à l'ordinateur d'émuler toute autre machine à calculer en changeant la séquence des instructions disponibles.En 1725, Basile Bouchon, un Lyonnais, met au point le premier système de programmation d'un métier à tisser grâce à un ruban perforé. En 1728, Jean-Baptiste Falcon, son assistant, remplace le ruban par une sérieEn 1833, Charles Babbage, passionné par le métier Jacquard, propose une machine mécanique à calculer, très évoluée, « "la machine analytique"». La machine qu'il conçoit « devait permettre de résoudre n'importe quelle équation et d'exécuter les opérations les plus compliquées de l'analyse mathématique. » C'est un calculateur mécanique programmable, fonctionnant à la vapeur, qui utilise des cartes perforées pour ses données et ses instructions. Bien que la théorie et le projet technique de Babbage aient été remarquablement pensés, bien qu'il en ait confié la réalisation à un atelier capable de produireEn 1885, les calculateurs sont agrémentés de claviers qui facilitent l'entrée des données. ParLe recensement de la population des États-Unis de 1880 prit sept ans (précisément sept ans deux mois et 13 jours) à analyser. Un appel d'offres pour un système d'analyse plus rapide fut lancé avant le recensement de 1890. Des trois offres soumises, c'est la solution d'Herman Hollerith qui fut choisie car elleAvant la Seconde Guerre mondiale, les ordinateurs analogiques, qu'ils fussent mécaniques ou électriques, étaient considérés comme le dernier cri de la technologie et beaucoup pensaient qu'ils seraient le futur de l'informatique. Ces ordinateurs analogiques utilisaient des quantités physiques, telles que la tension, le courant ou la vitesse de rotation des axes, pour représenter les nombres. Ainsi, ilsEn 1936, la publication d'un article de logique mathématique "" constitue, avec d'autres recherches fondamentales menées notamment par A. Church et K. Gödel, un cadre théorique qui intéressera plus tard les fondateurs de la "science informatique". Mais il n'a guère d'influence sur la conception des premiers calculateurs programmables. La machine de Turing est une abstraction modélisant un « être calculant » pour démontrer une proposition de logique pure, et n'a rien à voir avec un projet de machine. L'ère des ordinateurs modernes commença avec les grands développements de la Seconde Guerre mondiale. Les circuits électroniques, tubes à vide, condensateurs et relais remplacèrent leurs équivalents mécaniques et le calcul numérique remplaça le calcul analogique. Les ordinateurs conçus à cette époque forment la "première génération d'ordinateurs". Vers 1954, les mémoires magnétiques (tores de ferrite pour la mémoire vive, bandes, ensuite disques amovibles puis fixes pour la mémoire de masse) supplantèrent toute autre forme de stockage et étaient dominantes au milieu des années 1960. De nombreuses machines électromécaniques furent construites avec des capacités diverses. Elles n'eurent qu'un impact limité sur les constructions à venir.En 1938, Konrad Zuse commença la construction des premières séries-Z, des calculateurs électromécaniques comportant une mémoire et une programmation limitée. Zuse fut soutenu par la Wehrmacht qui utilisa ces systèmes pour des missiles guidés. Le Z1 (ou "Versuchsmodell"), ne fonctionna jamais vraiment correctement, mais donna à son inventeur l'expérience nécessaire pour développer d'autres modèles, désormais avec l'appui de l'industrie et de l'armée. Les séries-Z furent les précurseurs de nombreuses avancées technologiques telles que l'arithmétique binaire et les nombres en virgule flottante. Durant la même période, en 1938, John Vincent Atanasoff et Clifford E. Berry, de l'université de l'État de l'Iowa, développèrent l'ordinateur Atanasoff-Berry, un additionneur à. Cette machine avait pour but deEn septembre 1945, Presper Eckert et John William Mauchly achevèrent l'ENIAC ("Electronic Numerical Integrator and Computer"), gros calculateur entièrement électronique. Il avait été commandé en 1943 par l'armée américaine afin d'effectuer les calculs de balistique. L'ENIAC utilisait des tubes à vide (au nombre de ) et faisait ses calculs en système décimal. Malgré la véhémence de ses détracteurs qui auguraient de sa fragilité (celles des tubes à vide), il était très fiable pour l'époque et pouvait calculer plusieurs heures entre deux pannes. La machine est également célèbre pour ses dimensions physiques imposantes : elle pesait plus de, occupait et consommait une puissance de. Elle tournait àLa deuxième génération d'ordinateurs est basée sur l'invention du transistor en 1947. Cela permit de remplacer le fragile et encombrant tube électronique par un composant plus petit et fiable. Les ordinateurs composés de transistors sont considérés comme la deuxième génération et ont dominé l'informatique dans la fin des années 1950 et le début des années 1960. Toutefois la notion de « génération », qui est à l'origine un argument commercial, est contestée par les historiens : elle ne tient compte que des technologies de l'unité logique, non des mémoires, de l'architecture ou de la programmation. En 1955, Maurice Wilkes inventa la microprogrammation, désormais universellement utilisée dans la conception des processeurs. Le jeu d'instructions du processeur est défini par ce type de programmation. En 1956, IBM sortit le premier système à base de disque dur, le Ramac 305 ("Random Access Method of Accounting and Control"). L'IBM 350 utilisait 50 disques de 24 pouces en métal, avec 100 pistes par face. Il pouvait enregistrer cinq mégaoctets de données et coûtait par mégaoctet. Le premier langage de programmation universel de haut niveau à être implémenté, le Fortran (Formula Translator), fut aussi développé par IBM à cette période (le "Plankalkül", langage de haut niveau développé par Konrad Zuse en 1945 n'avait pas encore été implémenté à cette époque). En 1958, la Compagnie des Machines Bull (France) annonce Le Gamma 60, livré en uneLa troisième génération d'ordinateurs est celle des ordinateurs à circuit intégré qui ont été inventés par Jack Kilby en 1958. C'est à partir de cette date que l'utilisation de l'informatique a explosé. Les premiers ordinateurs utilisant les circuits intégrés sont apparus en 1963. L'un de leurs premiers usages a été dans les systèmes embarqués, notamment par la NASA dans l'ordinateur de guidage d'Apollo et par les militaires dans le missile balistique intercontinental LGM-30. Le circuit intégré autorise alors le développement d'ordinateurs plus compacts que l'on appele les mini-ordinateurs. En 1964, IBM annonça la série 360, première gamme d'ordinateurs compatibles entre eux et première gamme aussi à couvrir l'ensemble des domaines d'applications commerciales et scientifiques. Plus de furent vendus jusqu'en 1970, date où on les remplaça par la série 370 beaucoup moins chère à puissance égale (mémoires bipolaires à la place des mémoires à tores magnétiques). En 1965, DEC lance le PDP-8, machine bien moins encombrante destinée aux laboratoires et à laLe mini-ordinateur a été une innovation des années 1970 qui devint significative vers la fin de celles-ci. Il apporta la puissance de l'ordinateur à des structures décentralisées, non seulement grâce à un encombrement plus commode, mais également en élargissant le nombre de constructeurs d'ordinateurs. En 1972, le réseau Cyclades français est développé à l'IRIA avec le soutien de la Délégation à l'informatique, dans le cadre du Plan Calcul. Parallèlement, la CII présente sa Distributed System Architecture. Ces réseaux numériques permettent de partager les ressources informatiques des centres universitaires et de grandes organisations comme EDF ou le Commissariat à l'énergie atomique : on commence à parler de calcul distribué. À partir de là, la conception du grand système est concurrencé par les mini-ordinateurs en réseau, comme le DEC PDP8, le Mitra 15 puis le Mini 6. Aux États-Unis, IBM et DEC créent les architectures SNA et DECnet, en profitant de la numérisation du réseau d'AT&T (voir Réseau téléphonique commuté). En 1972, Hewlett-Packard lance le HP 3000, mini-ordinateur de gestion fonctionnant en multi-tâches temps réel et multi-utilisateur, suivit en 1974 d'ordinateurs techniques etUne définition non universellement acceptée associe le terme de quatrième génération à l'invention du microprocesseur par Marcian Hoff et Federico Faggin (physicien et inventeur italien, spécialisé en physique du solide). En pratique et à la différence des autres changements de génération, celle-ci constitua plus une évolution (presque passée inaperçue) qu'une révolution : les circuits s'étaient miniaturisés de plus en plus depuis l'invention du circuit intégré. C'est pour cette raison que certains considèrent que les générations sont devenues des questions de "type de logiciel" : On peut aussi considérer que la notion de « générations » est un concept marketing, lancé en 1964 par IBM, et n'a aucun intérêt historique : il ne tient compte ni des technologies de mémoire (tambours magnétiques, tores de ferrite...), ni des périphériques, ni de l'évolution du logiciel. Surtout, il n'explique rien de la logique de développement de ces techniques. Aujourd'hui, on peut considérer que l'immense majorité des ordinateurs relèvent toujours de la "4e génération", qui serait donc à elle seule plus longue que les trois précédentes!Le 15 novembre 1971, Intel dévoile le premier microprocesseur commercial, le 4004. Il a été développé pour Busicom, un constructeur japonais. Un microprocesseur regroupe la plupart des composants de calcul (horloge etLes "superordinateurs" intégrèrent aussi souvent des microprocesseurs. En 1976, le Cray-1 fut développé par Seymour Cray, qui avait quitté Control Data en 1972 pour créer sa propre société. C'était l'un des premiers ordinateurs à mettre en pratique le traitement vectoriel, qui appliquait la même instruction à une série consécutive d'opérandes (évitant ainsi des coûts de décodage répétés). Le Cray-1 pouvait calculer 150 millions d'opérations à virgule flottante parEux aussi bénéficièrent de l'usage des microprocesseurs et l'on peut même dire que la "généralisation des réseaux informatiques" n'a été possible que par l'invention des microprocesseurs. Les contrôleurs 3745 (IBM) utilisaient intensivement cette technologie. Dans leEn janvier 1973 est présenté le premier micro-ordinateur, le Micral conçu par François Gernelle de la société R2E dirigée par André Truong Trong Thi. Basé sur le premier microprocesseur 8 bits d', le i8008, ses performances en font le plus petit ordinateur moderne de l'époque (, mémoire RAM de en version de base), correspondant à son prix :, soit le prix d'un bon portable d'aujourd'hui. La machine a été développée pour un laboratoire d'agronomie qui ne pouvait s'offrir un mini-ordinateur DEC PDP8. Elle est rapidement mise en production industrielle, annoncée dans la presse professionnelle française et américaine, présentée au Sicob et vendue pour équiper des installations chimiques ou des péages d'autoroute. De nouvelles versions seront développées ensuite, au total une vingtaine de machines multi-utilisateurs, parfois multiprocesseurs, sous systèmes d'exploitation temps réel Prologue et CP/M. Le succès nécessitant de nouveaux capitaux, R2E passe sous le contrôle de Bull à partir de 1978. En 1982, la conversion de Bull à la compatibilité IBM provoque le départ de l'ancienne équipe R2E, qui fonde de nouvelles entreprises de micro-informatique. Au Sicob 1973 est également apparu un micro-ordinateur allemand. Le DIEHL Alphatronic utilise lui aussi le microprocesseur Intel 8008.Il comprend une unité centrale équipée d'un Intel 8008 (Les années 1990 ont été marquées par la préparation à la correction du problème de l'an 2000 (ou « bug de l'an 2000 », appelé "Y2K" dans le monde anglo-saxon), qui affectait presque tous les logiciels, système d'exploitation compris, pour cause de place mémoire disponible, codait la date sur soit deux caractères pour les années (99 pour 1999), de sorte qu'au passage à l'an 2000, le codage des dates allait revenir à 00 et être interprétée comme 1900. Ce défaut de conception systémique se manifestait également dans la plupart des logiciels, dont les sous-programmes de gestion de date reprenant la date système le plus souvent sans modification du format. La résolution de ce problème s'est faite soit par la conversion des logiciels, sans changement du matériel, soit aussi par le remplacement complet du matériel et du logiciel, en profitant des progrès techniques de diminution de taille des ordinateurs rendus possibles par la miniaturisation des composants "(downsizing)". Cela a permis de remplacer les logiciels spécifiques affectés par le problème, par des logiciels ou des progiciels le plus souvent sous UNIX avec des ordinateurs de taille réduite. Cette décennie a aussi été marquée bien sûr par l'ouverture de l'Internet au commerce, fin 1992, puis par l'expansion de la Toile. La convergence de l'informatique, de l'Internet, et des télécommunications a été décrite par une nouvelle expression, les « technologies de l'information et de la communication » (TIC), que la DGLFLF préfère appeler techniques de l'information et de la communication, afin d'éviter l'usage abusif du mot technologie. Leur expansion a entraîné une. Avec Internet s'ouvre surtout un nouveau chapitre, non seulement de l'histoire de l'informatique, mais aussi de l'économie mondiale : numérisation de l'économie (biens et services), délocalisation, « uberisation », ces termes expriment à la fois des bouleversements de l'économie et des inquiétudes socio-politiques.Avec les progrès de la miniaturisation, le premier « smartphone », l'IBM Simon, fut conçu en 1992 puis commercialisé en août 1994. Ensuite se sont développés les PDA (Personal Digital Assistants), comme le Psion ou le Palm Pilot et surtout le Blackberry, qui combinaient les fonctions d'agenda électronique, de bloc-note, de téléphone et de terminal Internet. Le terme "PDA" a été ensuite remplacé par "smartphone". L'année 2001 a vu le
|
Lhistoire des ordinateurs commence au milieu du. Si les premiers ordinateurs ont été réalisés après la Seconde Guerre mondiale, leur conception héritait de diverses expériences comme l'Harvard Mark I et le Z3, machines électromécaniques programmables commencées en 1939, et surtout de deux calculateurs électroniques : le Colossus du service de cryptanalyse britannique en 1943, l'ENIAC en 1945. À l'arrière-plan on peut mentionner des théories comme la « machine de Turing », ou des combinaisons de techniques bien plus anciennes comme les premières machines à calculer mécaniques () et les premières machines à tisser automatisées par la lecture de cartes et de rubans perforés ().
|
xwikis
|
Des traces archéologiques révèlent la cueillette et la consommation de champignons comestibles sauvages au Chili il y a. Leur récolte et leur consommation est attestée en Chine il y à 6 à. Les civilisations grecques et romaines pratiquent également la cueillette de champignons forestiers, plus appréciés des classes élevées de la société, comme en témoigne encore le nom de l'amanite des Césars. Les champignons font partie jusqu'au des aliments qui, par le biais de l'autoconsommation, complètent le régime alimentaire des paysans. Ils peuvent même constituer dans les campagnes un aliment de substitution pour faire face aux difficultés et aux menaces de disettes. Leur récolte dans un but commercial se développe depuis la Révolution industrielle. Les macrochampignons récoltés en forêt sont aujourd'hui considérés comme des produits forestiers non ligneux pour l'évaluation des productions forestières de la FAO, et sont, parmi ces produits ceux qui ont le plus de valeur avec un grand potentiel pour l'expansion commerciale. Sur les espèces de champignons répertoriées en 2015,. La récolte et la commercialisation des champignons est une activité traditionnelle importante dans plusieurs pays et représentent aujourd'hui une véritable « myco-économie » pour certaines régions. En 2006, la valeur des récoltes des champignons en milieu naturel est estimée à plus de 2,4 milliards de dollars (valeur approximative en raison de l'autoconsommation difficile à quantifier et de la dispersion des points de vente), plus de la moitié étant des chanterelles. En France, l'Office national des forêts estime la récolte des champignons sylvestres à en bonne année, mais une grande partie (peut-être la moitié) est autoconsommée, échappant ainsi au circuit de la commercialisation, et les volumes commercialisés pourraient être deux fois plus élevés en raison des ventes en direct.Les prélèvements en grande quantité, voire la « sur-récolte », entraînent des atteintes à la biodiversité forestière, des troubles à l’ordre public, voire des infractions plus graves (destruction, dégradation...). La cueillette des champignons, qu'elle soit familiale ou commerciale, peut ainsi être réglementée. En France, la législation du champignon change suivant que celui-ci est cultivé ou accessible à l'état naturel, et dans ce dernier cas, suivant qu'il est forestier ou des champs, par exemple. En particulier, la cueillette des champignons est d'abord subordonnée à l'autorisation du propriétaire, privé comme public, car le champignon est un produit du sol, et donc propriété du propriétaire du sol. Le cueilleur doit se renseigner sur la législation locale s'il s'agit d'une forêt domaniale ou d'une forêt des collectivités territoriales. Dans les forêts publiques, la cueillette pour une consommation personnelle est en général admise par les représentants de l’Office national des forêts. Dans certains département, des limites de cueillette sont fixées selon les dispositions des arrêtés préfectoraux, municipaux, des règlements du parc naturel, et peuvent aller jusqu'à une interdiction totale. Enfin des règles spéciales existent pour des raisons de santé publique pour certains champignons. En Suisse, le code civil permet la cueillette même dans les forêts privées. La législation cantonale peut frapper la cueillette de certaines restrictions de jour, d'heure, de groupe ou de quantité, mais aussi ne pas la réglementer du tout.Les outils du « parfait cueilleur » sont un panier d'osier, en fil grillagé ou un panier en plastique troué, le plus plat possible pour éviter de superposer les champignons, pour les aérer et favoriser la dissémination de leurs spores pendant l'excursion (bannir les sacs en plastique qui entassent les champignons fragiles et induisent des fermentations bactériennes) ; des sacs en papier brun pour y déposer les champignons qu'on souhaite identifier à la maison ; un bâton ou une canne pour écarter herbes, fougères ou branches basses et dénicher les champignons qui pourraient y être cachés ; un couteau, muni si possible d'une brosse, pour couper les pieds ou gratter la terre adhérente ; un guide d'identification des champignons comestibles, non comestibles et vénéneux ; une loupe pliante grossissant dix fois pour approfondir les observations.Il est préférable de récolter les sujets assez jeunes (chair plus ferme, parfum plus agréable et saveur plus délicate), sains et entiers, les vieux étant souvent indigestes, véreux et parfois toxiques (la chair en se dégradant produit sous l'action des enzymes protéolytiques bactériennes, des ptomaïnes, alcaloïdes toxiques de type putrescine, cadavérine). Il est cependant plus prudent d'éviter les sujets trop jeunes, insuffisamment développés et par conséquent difficiles à reconnaître avec sécurité (risque de confusion avec des champignons toxiques). Au sein des cercles mycologiques, il existe deux écoles qui s'opposent sur la manière de prélever les champignons : couper la base du pied au couteau ou cueillir à la main en exerçant une rotation du pied avant de tirer. Les arguments de ces écoles portent principalement sur l'influence de ces deux techniques sur le mycélium souterrain qui peut permettre la repousse ou sur la pourriture de la partie restante au sol pouvant entraîner une contamination. Différentes études ne montrent pas de différences significatives entre ces deux méthodes, notamment en raison des propriétés de forte régénération du mycélium. En pratique, l'emploi de la technique dépend des espèces : il est ainsi recommandé de couper au couteau les champignons au pied profondément enterré (par exemple les bolets, l'arrachage à la main endommageant leur mycélium souterrain), de cueillir à la main ceux qui sont posés sur le substrat, avec un mycélium superficiel (par exemple les chanterelles) voire de les arracher pour facilite leur détermination (critères d'identification au niveau de la base du pied). Quelle que soit la technique, il est préférable de boucher le trou laissé par le prélèvement du champignon avec du substrat pour ne pas laisser le mycélium à nu et éviter sa dessiccation.Généralement les amateurs de champignons ou mycophages se contentent de connaître cinq ou six espèces, rarement plus, et généralement récoltées en automne. Les champignons comestibles d'une région peuvent être identifiés en faisant appel à la connaissance locale et scientifique mais aucun système n'est infaillible : des pratiques locales souvent basées sur la preuve empirique de comestibilité reposent parfois sur des croyances locales qui peuvent faussement exclure des espèces comestibles. Les personnes qui désirent approfondir leurs connaissances peuvent se faire aider d'experts lors des excursions mycologiques ou utiliser des qui ont le défaut d'être trop complets ou trop incomplets, voire de donner des informations contradictoires sur la comestibilité d'une même espèce. La France compterait de macrochampignons (chiffre à rapprocher de celui de la flore française qui compte environ de plantes sauvages) mais le fichier de la société mycologique de France n'en recense en 2010 que, dont (une centaine de comestibles potables et une trentaine d'excellents avec leur goût propre), 240 toxiques, 29 mortels.D'une manière générale, presque tous les mois de l'année permettent de cueillir des champignons. Le calendrier du ramasseur en France est le suivant :
|
La cueillette de champignons, appelée aussi chasse aux champignons ou récolte de champignons, désigne la collecte de champignons « supérieurs » dans la nature, généralement en forêt. Il s'agit principalement de champignons comestibles à usage domestique ou dans un but commercial, plus rarement de champignons hallucinogènes ou médicinaux. La cueillette concerne également les mycologues qui déterminent les espèces au cours d'excursions mycologiques, ou encore la prospection pour la mise en marché de champignons dans des domaines innovants (, pharmaceutique, nutraceutique, etc.).
|
xwikis
|
Le Cobol a initialement été créé en 1959 par le "Short Range Committee", un des trois comités proposés à une rencontre au Pentagone en mai 1959 organisée par Charles Phillips du département de la défense des États-Unis. Le comité a été formé pour recommander une approche à court terme pour un langage commun, indépendant des constructeurs, pour les applications de gestion de l'administration américaine. Il était constitué de membres représentant six constructeurs d'ordinateurs et trois agences gouvernementales. Les six constructeurs informatiques étaient Burroughs Corporation, IBM, Minneapolis-Honeywell, RCA, Sperry Rand, et Sylvania Electric Products. Les trois agences du gouvernement étaient le "US Air Force", le "David Taylor Model Basin", et l’"Institut national des standards". Ce comité était présidé par un membre du NBS. Des comités à moyen et long terme ont également été proposés au Pentagone. En revanche, même si le premier a été fondé, il n'a jamais été opérationnel, et le dernier n'a jamais été fondé. En fin de compte, un sous-comité du "Short Range Committee" a été formé avec six membres : Ce sous-comité a terminé les spécifications de Cobol fin 1959. Elles étaient largement inspirées par le langage FLOW-MATIC inventé par Grace Hopper, surnommée « la mère du langage Cobol », et par le langage COMTRAN d'IBM, inventé par Bob Bemer. Ce langage ayant été conçu aux débuts de l'informatique, sa relative complexité rebute nombre de programmeurs de notre époque, ce qui lui a valu deux interprétations ironiques de son acronyme : "Compiles Only Because Of Luck" ("fonctionne uniquement par chance") et "Completely Obsolete Business Oriented Language" ("Langage orienté gestion complètement obsolète").Ces spécifications furent approuvées par le comité complet, puis par le comité exécutif (CODASYL) en janvier 1960 et envoyées au bureau d'impression du gouvernement qui les édita et imprima en les nommant Cobol 60. Le langage fut développé en moins de six mois de travail, et il est toujours utilisé aujourd'hui, après plusieurs révisions standardisées par l'ANSI et l'ISO, dontLa totalité des variables et des structures de données utilisées sont définies au début du programme, avant la division procédurale contenant les instructions. La manière dont sont définies les variables, c'est-à-dire les espaces de stockage temporaire, est très particulière. C'est une structure arborescente définie par une suite de lignes de code. Chaque ligne commence par un nombre qui définit le niveau d'imbrication du champ ou du groupe de variables. Par exemple : qui définit une structure NomPrenom contenant les champs Prenom et Nom sur 20 caractères. Autre exemple : qui définit un code postal de France, et qui permet d'utiliser le département sans aucun MOVE. Comme défini dans la spécification originale, Cobol possédait déjà les nombreuses fonctionnalités qui ont fait son succès : d'excellentes capacités d'auto-documentation, des méthodes pratiques de gestion des fichiers et des types de données variés, dont le format est précisé par la clause PICTURE. Comme la plupart des autres langages de l'époque, il ne permet pas de définir de variables locales, de fonctions récursives et d'allouer de la mémoire dynamiquement. La gestion des décimales en Cobol (nombres en virgule fixe), et la maîtrise des arrondis et des dépassements, permettent d'éviter les nombreux problèmes qui arriveraient en utilisant des nombres à virgule flottante pour les calculs financiers. Ce sont ses capacités arithmétiques en virgule fixe, notamment pour les traitements par lots où il présente d'excellentes performances, qui ont rendu le Cobol particulièrement populaire pour les traitements comptables. Il intègre également un générateur de rapports, défini de la même manière que les autres structures de données. Sont intégrées des fonctions de tri, de fusion et de communication. Un module optionnel permettait également une forme de communication inter-processus par file de messages. Le parti-pris initial de définir un langage de programmation proche du langage naturel (comme pour FLOW-MATIC) devait faciliter, sinon la programmation, du moins l'audit des programmes Cobol par des gestionnaires non-informaticiens. Ce choix a eu pour conséquence une syntaxe complexe (le langage naturel n'est pas simple), avec de nombreux mots réservés, et de nombreuses options (les opérations de gestion ne sont pas simples non plus) qui valent à Cobol une réputation de verbosité, qui n'est pas forcément fondée sur des faits. Par exemple en Cobol l'instruction s'exprimerait, en C ou autres langages dérivés, par total_jour += montant; total_mois += montant; total_annee += montant; Comme d'autres langages de l'époque (), Cobol offrait la possibilité de modifier du code pendant l'exécution à l'aide de la fameuse instruction ALTER X TO PROCEED TO Y (altérer X pour aller vers Y). Cette possibilité dangereuse, qui transposait une technique courante de la programmation en langage machine, a été éliminée des spécifications du langage. Rendant possible la modification à la volée de l'exécution d'un programme, cette commande permettait d'outrepasser des ordres GO TO, complexifiant ainsi la maintenance. Les versions successives du standard ont modernisé le langage, par exemple en ajoutant des structures de contrôle améliorées et le support de la programmation objet, tout en préservant au maximum la compatibilité avec les versions précédentes, de façon à éviter d'avoir à modifier l'énorme stock de programmes Cobol en service.Le langage Cobol était de loin le langage le plus employé des années 1960 à 1980, et reste très utilisé dans de grandes entreprises, notamment dans les institutions financières qui disposent (et développent encore) de nombreux logiciels et applications en Cobol. Écrites à une époque où les octets coûtaient cher, et où l'an 2000 était encore fort loin, ces applications ont fait craindre le fameux bogue de l'an 2000. Souvent, en effet, par mesure d'économie de mémoire, les services informatiques et programmeurs avaient codé les années et les tests d'année sur deux chiffres plutôt que sur quatre. De sorte que la préparation du passage à l'an 2000 coûta finalement d'énormes moyens humains, matériels et financiers. Pourtant, les banques, assurances et autres institutions financières géraient depuis très longtemps des dossiers sur dix, vingt voire trente ans (prêts, par exemple), mais sans systématiquement prendre en compte dans les tests de date la notion de siècle. En 2005, le Gartner Group estimait que 75 % des données du monde des affaires étaient traitées par des programmes en Cobol et que 15 % des nouveaux programmes développés le seraient dans ce langage. Cependant, en juillet 2017, le Cobol est dans l'Index TIOBE, qui mesure les langages de programmation selon leur popularité, avec une note de 1,135 %.Un programme comporte quatre divisions. La norme Cobol-85 ne rend obligatoire que la première. Chaque division est composée de'sections', formées de 'paragraphes' composés de 'phrases' qui peuvent être des phrases impératives ou des clauses. Chaque phrase doit être terminée par un point. Les six premières colonnes de chaque ligne de programme sont considérées comme une zone de commentaire, servant autrefois à numéroter les cartes perforées (en cas de chute du paquet, il suffisait de les passer sur une trieuse pour reconstituer la version correcte du programme). La septième colonne contient un caractère de contrôle : espace pour les lignes actives, étoile pour les commentaires, tiret comme caractère de continuation. La huitième colonne est le début des titres de paragraphes. La douzième colonne est le début des instructions. Les compilateurs Cobol modernes permettent l'emploi d'un format libre qui n'impose plus le colonnage.Écrit dans le style typique des programmes sur cartes perforées (années 1960-70), avec lignes numérotées 000100 IDENTIFICATION DIVISION. 000200 PROGRAM-ID. SALUTTOUS. 000300 DATE-WRITTEN. 21/05/05 19:04. 000400 AUTHOR UNKNOWN. 000500 ENVIRONMENT DIVISION. 000600 CONFIGURATION SECTION. 000700 SOURCE-COMPUTER. RM-COBOL. 000800 OBJECT-COMPUTER. RM-COBOL. 000900 001000 DATA DIVISION. 001100 FILE SECTION. 001200 100000 PROCEDURE DIVISION. 100100 100200 DEBUT. 100300 DISPLAY " " LINE 1 POSITION 1 ERASE EOS. 100400 DISPLAY "BONJOUR!" LINE 15 POSITION 10. 100500 STOP RUN. Note : ERASE EOS signifie « 'Erase End Of Screen' » La commande ligne 100300 a donc pour effet d'effacer l'écran.Autre version du même exemple en Cobol-85 format libre : Identification division. Program-id. Hello. Procedure division. Display "Hello world!" line 15 position 10. Stop run.Return code 203 : vérifier l'emplacement de l'ordre d'ouverture du fichier.
|
Cobol est un langage de programmation créé en 1959 (officiellement le 18 septembre 1959). Son nom est l’acronyme de COmmon Business Oriented Language qui révèle sa vocation originelle : être un langage commun pour la programmation d'applications de gestion. Aujourd'hui, il est surtout utilisé dans les secteurs de la banque, des assurances, des grandes administrations.
|
xwikis
|
Historiquement, les étoiles sont les points lumineux du ciel visibles uniquement la nuit et fixes les uns par rapport aux autres, par opposition aux planètes qui suivent des trajectoires "errantes" dans le ciel nocturne au cours de l'année. Les anciens avaient une connaissance approfondie de la répartition des étoiles dans le ciel : ils les utilisaient pour la navigation et attribuaient des noms à certaines d'entre elles ainsi qu'auxUne étoile est un objet céleste en rotation, de forme " sphérique, constitué essentiellement de plasma, et dont la structure est modelée par la gravité. Lors de sa formation, une étoile est essentiellement composée d’hydrogène et d’hélium. Durant la majeure partie de son existence, son cœur est le siège de réactions de fusion nucléaire, dont une partie de l’énergie est rayonnée sous forme de lumière ; la matière qui la compose s’en trouve presque complètement ionisée. Le Soleil est l’étoile la plus proche de la Terre, l’énergie qu’il rayonne y permet le développement de la vie. Il apparaît bien plus lumineux que toutes les autres étoiles en raison de sa proximité : la seconde étoile la plus proche de la Terre, Proxima du Centaure, est plus éloignée. Sauf en cas exceptionnel comme une éclipse, les autres étoiles ne sont visibles que la nuit lorsque leur éclat n’est pas noyé par celui du ciel diurne, résultant lui-même de la diffusion de l’éclairement solaire. Les étoiles sont regroupées au sein de galaxies. Une galaxie typique, comme la nôtre, la Voie lactée, contient plusieurs centaines de milliards d’étoiles. Au sein des galaxies, les étoiles peuvent être liées dans des systèmes multiples (quelques étoiles) ou des amas (plusieurs dizaines à quelques centaines de milliers d’étoiles). La sphère céleste fait également apparaître des groupements d’étoiles, les constellations ; il s’agit en fait d’une illusion optique due à l’effet de projection. Les étoiles composant une constellation sont généralement situées à des distances très différentes de la Terre. Une étoile possède une masse comprise entre environ celle du Soleil (elle-même égaleLa nuit, les étoiles apparaissent à l’œil nu sous la forme de points (à cause de leur éloignement) brillants de couleur blanche, parfois aussi rouge, orangée ou bleue — généralement scintillants et sans mouvement apparent immédiat par rapport aux autres objets fixes de la voûte céleste. Le phénomène de scintillation est dû à l’extrême petitesse de la taille angulaire des étoiles (quelques millisecondes d’arc voire moins), qui est inférieure à celle de la turbulence atmosphérique. À l’inverse, les planètes, bien qu’apparaissant comme des points, ont en réalité une taille angulaire suffisante pour ne pas être soumises au phénomène de scintillation. Si les étoiles se déplacent les unes par rapport aux autres, ce mouvement propre est très faible, même pour les étoiles les plus proches, n’excédant pas quelques secondes d’arc par an, ce qui explique leur apparente immobilité les unes par rapport aux autres. Le jour, le Soleil domine et sa lumière, diffusée par la couche atmosphérique, occulte celle des étoiles. Mais l’astre le plus brillant visible depuis la Terre est bien lui-même une étoile. Le Soleil semble beaucoup plus gros que toutes les autres étoiles car celles-ci sont bien plus éloignées : l’étoile la plus proche deLes étoiles sont longtemps restées des points dans le ciel, et ce même vues à travers les plus puissants instruments de grossissement, tels que la lunette astronomique ou le télescope. C'est seulement à partir de la fin du vingtième siècle et du début du vingt-et-unième que la résolution angulaire des meilleurs instruments est devenue inférieure à la seconde d'arc et s'est donc avérée suffisante pour apercevoir des structures autour de certaines étoiles ainsi que pour distinguer ces étoiles comme un disquePour repérer les étoiles et faciliter le travail des astronomes, de nombreux catalogues ont été créés. Parmi les plus célèbres, citons le catalogue HenryUne étoile est caractérisée par différentes grandeurs :La masse est une des caractéristiques les plus importantes d’une étoile. En effet, cette grandeur détermine sa durée de vie ainsi que son comportement pendant son évolution et la fin de sa vie : une étoile massive sera très lumineuse mais sa durée de vie sera réduite. Les étoiles ont une masse comprise entre environ la masse du Soleil, soit (très) près de (deux milliards de milliards de milliards de tonnes). En dessous de la masse minimale, l’échauffement généré par la contraction gravitationnelle est insuffisant pour démarrer le cycle de réactions nucléaires : l’astre ainsi formé est une naine brune. Au-delà de la masse maximale, la force de gravité est insuffisante pour retenir toute la matière de l’étoile une fois les réactions nucléaires entamées. Jusqu’à peu, on pensait que la masse d’une étoile ne pouvait excéder la masse solaire mais la récente découverte d’une étoile ayant une masse supérieure à celle du Soleil a rendu cette hypothèse caduque.La détermination de la masse d’une étoile ne peut se faire de façon précise que lorsqu’elle appartient à un système binaire par l’observation de son orbite. La troisième loi de Kepler permet alors de calculer la somme des masses des deux étoiles de la binaire à partir de sa période et du demi-grand axe de l’orbite décrite et de la distance de la Terre à l’étoile double observée. Le rapport des masses est obtenu par la mesure de la vitesse radiale des deux étoiles de la binaire. La connaissance de la somme et du rapport des masses permet de calculer la masse de chaque étoile. C’est la technique la plus précise. D’autres estimations sont possibles pour des étoiles non binaires (simples) en utilisant la détermination spectroscopique de la gravité de surface et la mesure du rayon de l’étoile par interférométrie. Enfin, si l’étoile est observée de façon précise en photométrie et si sa distance, sa composition chimique et sa température effective sont connues, il est possible de la positionner dans un diagramme de Hertzsprung-Russell (noté HR) qui donne immédiatement la masse et l’âge de l’étoile (théorème de Vogt-Russell).Comparativement à notre planète ( de diamètre), les étoiles sont gigantesques : le Soleil a un diamètre d’environ un million et demi de kilomètres et certaines étoiles (comme Antarès ou Bételgeuse) ont un diamètre des centaines de fois supérieur à ceLa composition chimique de la matière d’une étoile ou d’un gaz dans l’Univers est généralement décrit par trois quantités en nombre de masse : "X" l’hydrogène, "Y" l’hélium et "Z" la métallicité. Ce sont des grandeurs proportionnelles satisfaisant la relation :.La métallicité est la quantité (mesurée en nombre, ou généralement par masse) des éléments plus lourds que l’hélium présents dans l’étoile (ou plutôt sa surface). Le Soleil possède une métallicité () de 0,02 : 2 % de la masse du Soleil est composée d’éléments qui ne sont ni de l’hydrogène, ni de l’hélium. Pour le Soleil, ce sont principalement du carbone, de l’oxygène, de l’azote et du fer. Bien que cela semble faible, ces deux pour cent sont pourtant très importants pour évaluer l’opacité de la matière de l’étoile, qu’elle soit interne ou dans son atmosphère. Cette opacité contribue à la couleur, à la luminosité et à l’âge de l’étoile (voir diagramme de Hertzsprung-Russell et théorème de Vogt-Russell). L’opacité est directement liée à la capacité de l’étoile à produire un vent stellaire (cas extrême des étoiles Wolf-Rayet).La magnitude mesure la luminosité d’une étoile ; c’est une échelle logarithmique de son flux radiatif. La magnitude apparente dans un filtre donné ( le visible noté mv), qui dépend de la distance entre l’étoile et l’observateur, se distingue deLa plupart des étoiles paraissent blanches à l’œil nu, parce que la sensibilité de l’œil est maximale autour du jaune. Mais si nous regardons attentivement, nous pouvons noter que de nombreuses couleurs sont représentées : bleu, jaune, rouge (les étoiles vertes n’existent pas). L’origine de ces couleurs resta longtemps un mystère jusqu’à il y a, quand les physiciens eurent suffisamment de compréhension sur la nature de la lumière et les propriétés de la matière aux très hautes températures. La couleur permet de classifier les étoiles suivant leur type spectral (qui est en rapport avec la température de l’étoile). Les types spectraux vont du plus violet au plus rouge, c’est-à-dire du plus chaud vers le plus froid. Ils sont classés par les lettres O B A F G K M. Le Soleil, par exemple,La rotation du Soleil a été mise en évidence grâce au déplacement des taches solaires. Pour les autres étoiles, la mesure de cette vitesse de rotation (plus précisément, la vitesse mesurée est la projection de la vitesse de rotation équatoriale sur la ligne de visée), s’obtient par spectroscopie. Elle se traduit par un élargissement des raies spectrales. Ce mouvement de rotation stellaire est un reliquat de leur formation à partir de l’effondrement du nuageLe spectre d’une source lumineuse et donc d’une étoile est obtenu par des spectrographes qui décomposent la lumière en ses différentes composantes et les enregistrent par le biais de détecteurs (historiquement, des plaques photographiques et desComme le Soleil, les étoiles sont souvent dotées de champs magnétiques. Leur champ magnétique peut avoir une géométrie relativement simple et bien organisée, ressemblant au champ d’un aimant comme le champ magnétique terrestre ; cette géométrie peut être aussi nettement plus complexe et présenter des arches à plus petite échelle. Le champ magnétique du Soleil, par exemple, possède ces deux aspects ; sa composante à grande échelle structure la couronne solaire et est visible lors des éclipses, tandis que sa composante à plus petite échelle est liée aux taches sombres qui maculent sa surface et dans lesquelles les arches magnétiques sont ancrées. Il est possible de mesurer le champ magnétique des étoiles à travers les perturbations que ce champ induit sur les raies spectrales formées dans l’atmosphère de l’étoile (l’effet Zeeman). La technique tomographique d’imagerie Zeeman-Doppler permet en particulier de déduire la géométrie des arches géantes que le champ magnétique dresse à la surface des étoiles. Parmi les étoiles magnétiques, on distingue d’abord les étoilesÀ partir des différentes grandeurs mesurées et de simulations issues de différents modèles, il est possible de construire une image de l’intérieur d’une étoile, bien qu’il nous soit "presque" inaccessible — l’astérosismologie permettant littéralement de "sonder" les étoiles. En l’état actuel de nos connaissances, une étoile est structurée en différentes régions concentriques, décrites ci-après à partir du centre.Le noyau (ou cœur) est la partie centrale de l’étoile, concentrant une grande partie de la masse de l’astre, dans laquelle se déroulent les réactions thermonucléaires qui dégagent l’énergie nécessaire à sa stabilité. Le noyau est la zone la plus dense et la plus chaude, et, dans le cas du Soleil, atteint la température de de kelvins. Dans ces conditions extrêmes, la matière se trouve sous forme de plasma ; par effet tunnel, les noyaux d’hydrogène (protons) ou d’autres éléments chimiques atteignent des vitessesL’énergie libérée par les réactions de fusions nucléaires dans le noyau de l’étoile se transmet aux couches externes par rayonnement. Dans les étoiles peu massives et évoluant sur la séquence principale, cette zoneAu contraire de la zone précédente, l’énergie se transmet par des mouvements macroscopiques de matière : soumise à un gradient de température décroissant vers la surface, le fluide développe une convection de type Rayleigh-Bénard. Cette zone convective est plus ou moins grande : pour une étoile sur la séquence principale, elle dépend de la masse et de la composition chimique ; pour une géante, elle est très développée et occupe un pourcentage important du volumeLa photosphère est la partie externe de l’étoile qui produit la lumière visible. Elle est plus ou moins étendue : de moins de 1 % du rayon pour les étoiles naines (quelquesLa couronne est la zone externe, ténue et extrêmement chaude du Soleil. Elle est due à la présence d’un champ magnétique, produit dans la zone convective ; on peut l’observer lors des éclipses de Soleil. C’est grâce à l’étude de la couronne au queLe théorème de Vogt-Russell peut s’énoncer ainsi : si en tous points d’une étoile la connaissance des valeurs de la température, de la densité et de la composition chimiqueLa vie d'une étoile peut se décomposer en plusieurs phases principales : Après la phase finale, le résidu de l'étoile est une naine blanche, une étoile à neutrons ou un trou noir. L'analyse spectrale du rayonnement d’une étoile révèle certaines de ses caractéristiques, et par conséquent permet de déterminer le stade d'évolution où elle est parvenue. Le diagramme de Hertzsprung-Russell est souvent utilisé pour situer une étoile au cours de son évolution. Selon leurs masses initiales (souvent exprimées en masses solaires), les étoiles peuvent suivre différentes évolutions.Les étoiles naissent, souvent en groupe, à partir de l'effondrement gravitationnel d’un nuage interstellaire de gaz et de poussière, comme un nuage moléculaire ou une nébuleuse (telle que la nébuleuse d'Orion ou la nébuleuse de l'Aigle). Elles forment ainsi des amas stellaires. Les nuages moléculaires, s'étendant sur des centaines d'années lumières, peuvent atteindre plusieurs millions de masses solaires. La stabilité d'un nuage est maintenue par des champs magnétiques et des mouvements turbulents, qui lui évitent de s'effondrer sur lui-même. Cependant, dans les régions les plus denses et les plus froides (de l'ordre de 10 K), la stabilité du nuage peut être rompue (parfois lors du passage d'une onde de densité venant d'un bras de galaxie ou d'une supernova). Cette instabilité gravitationnelle déclenche la phase d'effondrement. Il s'agit d'une série de fragmentations et de contractions du nuage en plusieurs blocs, de plus en plus petits et denses, quiSous l’effet de la contraction, le noyau de l’étoile (sa partie centrale) atteint des valeurs de pression et de température extrêmes, qui vont jusqu’à l’allumage des réactions thermonucléaires (voir plus haut). L’étoile entre alors dans ce qu’on appelle la séquence principale, période pendant laquelle son noyau, initialement et essentiellement constituéPlus une étoile est massive, plus elle consomme rapidement son hydrogène. Une grosse étoile sera donc très brillante, mais aura une courte durée de vie. Lorsque le combustible nucléaire se fait trop rare dans le noyau de l’étoile, les réactions de fusion s’arrêtent. LaLes astronomes classent les étoiles en utilisant la température effective et la luminosité. Cette classification à deux paramètres permet de définir des types spectraux (luminosité) variant de à. Les naines par exemple (dont le Soleil) sont. Parmi ces classes on distingue différentes catégories liées à la température de surface. On distingue ainsi les naines noires, brunes, rouges, jaunes et blanches, les géantes rouges et bleues, les supergéantes rouges, les étoiles à neutrons et les trous noirs. Si la plupart des étoiles se placent facilement dans l’une ou l’autre de ces catégories, il faut garder en tête qu’il ne s’agit que de phases temporaires. Au cours de son existence, une étoile change de forme et de couleur, et passe d’une catégorie à une autre.Les naines brunes ne sont pas des étoiles, mais des objets substellaires qualifiés parfois d'« étoiles manquées ». Leur masse est située entre celles des petites étoiles etLes naines rouges sont de petites étoiles rouges. On les considère comme les plus petites étoiles en tant que telles, car les astres plus petits comme les naines blanches, les étoiles à neutrons et les naines brunes ne consomment pas de carburant nucléaire. La masse des naines rouges est comprise entre solaire. Leur température de surface entreLes naines jaunes sont des étoiles de taille moyenne — les astronomes ne classent les étoiles qu’en naines ou en géantes. Leur température de surface est d’environ et ellesLa phase géante rouge annonce la fin d’existence de l’étoile, qui atteint ce stade lorsque son noyau a épuisé son principal carburant, l’hydrogène : des réactions de fusion de l’hélium se déclenchent, et tandis que le centre de l’étoile se contracte sous l'effet deSur le diagramme HR, au-delà d'une certaine luminosité, les étoiles prennent successivement les noms de géante, de géante lumineuse, de supergéante et d'hypergéante. Dans le cas des étoiles géantes, lorsque le noyau d’une géante bleue ne contient plus d’hydrogène, la fusion de l’hélium prend le relais. Ses couches externes enflent et sa température de surface diminue. Elle devient alors selon sa masse une géanteUne étoile variable lumineuse bleue est une hypergéante bleue à luminosité variableLes étoiles Wolf-Rayet sont des étoiles très massives en fin de vie qui expulsent de très grandes quantités de matière sous forme de vents solaires à haute vitesse siLes étoiles de sont un type d'étoiles extrêmement massives et lumineuses, observées pour la première fois en 2015 dans laLes naines blanches sont les résidus de l’évolution des étoiles de faible masse (entre ~0,8 et ). Le Soleil ayant (par définition) une masse d’une masse solaire, il finira aussi en naine blanche. Les naines blanches sont des étoiles « mortes » puisqu’elles ne sont plus le lieu de réactions thermonucléaires produisant de la chaleur. Cependant, elles sont initialement très chaudes et de couleur relativement blanche (voir Loi de Wien). Petit à petit, elles se refroidissent par rayonnement, pour devenir des astres froids. Leur taille est environ égale à celle de la Terre. Les naines blanches, comme les étoiles à neutrons sont constituéesComme une plaque chauffante qu’on éteint, les naines blanches se refroidissent inexorablement. Toutefois, cela se fait très lentement, en raison de leur surface émissive fortement réduite (de la taille d'une planète tellurique) comparée à leur masse (de l'ordre de celle duLes étoiles à neutrons sont très petites mais très denses. Elles concentrent la masse d’une fois et demi celle du Soleil dans un rayon d’environ. Ce sont les vestiges d’étoiles très massives de plus de solaires dont le cœur s’est contracté pour atteindre des valeurs de densité extraordinairement élevées, comparables à celles du noyau atomique. Lorsqu’une étoile massive arrive en fin de vie, elle s’effondre sur elle-même, en produisant une impressionnante explosion appelée supernova. Cette explosion disperse la majeure partie de la matière de l’étoile dans l’espace tandis que le noyau se contracte et se transforme en une étoile à neutrons. Ces objets possèdent des champs magnétiques très intenses (pour les plus intenses, on parle de magnétar). Le longAlors que la plupart des étoiles sont de luminosité presque constante, comme le Soleil qui ne possède pratiquement pas deLes étoiles se forment rarement seules. Lorsqu’un nuage de gaz (proto-stellaire) donne naissance à un amas d’étoiles, l’ensemble des étoiles de cet amas ne semble pas se distribuer au hasard, mais semble suivre une loi de distribution dite fonction de masse initiale (abrégé IMF en anglais), dont on sait peu de chose actuellement ; elle rend compte de la proportion d’étoiles en fonction de leur masse. On ne sait pas si cette fonction IMF dépend de la composition chimique du nuage proto-stellaire. La fonction la plus adoptée actuellement a été proposée par Edwin Salpeter et semble donner des résultats satisfaisants pour l’étude des amas de la Galaxie.Les systèmes binaires sont constitués de deux étoiles liées gravitationnellement et orbitant l’une autour de l’autre. L’élément le plus brillant est dit primaire et le moins brillant, secondaire. Lorsqu’un système comporte plus de deux composantes il est qualifié de système stellaire multiple. Les systèmes binaires peuvent être détectés par imagerie, lorsque le télescope parvient à résoudre la paire ; dans ce cas la binaire est dite visuelle. Dans d’autres cas, les deux compagnons ne peuvent être résolus, mais le décalage Doppler-Fizeau des raiesLes amas stellaires sont des regroupements locaux d’étoiles liées gravitationnellement et formées en même temps. De ce fait, ils constituent une population de référence pour étudier la durée de vie d’une étoile en fonction de sa taille (voir diagramme de Hertzsprung-Russell). On peut s’en servir pour déterminer l’âge des plus vieilles populations d’étoiles de notre Galaxie. On distingue les "amas ouverts" (AO) constitués de quelques dizaines à quelques milliers d’étoiles et généralement de forme quelconque et les "amas globulaires" (AG) constitués de plusieurs milliers à plusieurs millions d’étoiles. Les AO sont jeunes, de quelques dizaines à quelques centaines de millions d’années. Parmi les plus vieux, M67Les associations stellaires sont semblables aux amas, à ceci près qu’elles ne constituent pas un système lié gravitationnellement. Aussi les associations se dispersent-elles au bout d’un certain temps. Exemple d’associationUne galaxie est un vaste ensemble d’étoiles. Les galaxies diffèrent des amas par leurEn observant le ciel nocturne, l’être humain a imaginé que les étoiles les plus brillantes pouvaient constituer des figures. Ces regroupements diffèrent généralement d’une époque à une autre et d’une civilisation à une autre. Les figures devenues traditionnelles, souvent en rapport avec laLes étoiles peuvent être accompagnées de corps gravitant autour d’elles. Ainsi, le Système solaire est composé d’une étoile centrale, le Soleil, accompagné de planètes, comètes, astéroïdes. Depuis 1995, plusieurs milliers d'exoplanètes ont été découvertes autour d’autres étoiles que le Soleil, faisant perdre au Système solaire son caractère supposé unique. Tous ces systèmes planétaires sont découverts de façon indirecte. La première étoile autour de laquelle des planètes ont été révélées par des mesures vélocimétriques est (observations réalisées à l’OHP avec le spectrographe ÉLODIE). De nombreux autres systèmes planétaires ont depuis été découverts. En raison des limitations actuelles de détection, ils présentent des caractéristiques semblables, avec des planètes géantes sur des orbites très excentriques : on les nomme des « Jupiter chauds ». La majorité de ces étoiles sont plus riches en métaux que le Soleil. Les statistiques sur ces systèmes planétaires permettent de conclure que le Système solaire n’a pour l’instant pas d’équivalent. Depuis l’espace, la traque des systèmes planétaires par photométrie a commencé avec le satellite CoRoT (CNES). Celui-ci a été relayé en 2009 par le satellite américain Kepler.
|
Le sens premier du mot étoile est celui d'un point lumineux dans le ciel nocturne, et par extension, des figures géométriques représentant des rayons partant d'un centre (voir le symbole de l'étoile). En astronomie, la signification scientifique plus restreinte d'étoile est celle d'un corps céleste plasmatique qui rayonne sa propre lumière par réactions de fusion nucléaire, ou des corps qui ont été dans cet état à un stade de leur cycle de vie, comme les naines blanches ou les étoiles à neutrons. Cela signifie qu'ils doivent posséder une masse minimale pour que les conditions de température et de pression au sein de la région centrale permettent l'amorce et le maintien de ces réactions nucléaires, seuil en deçà duquel on parle d'objets substellaires. Les masses possibles des étoiles s'étendent de 0,085 masse solaire à une centaine de masses solaires. La masse détermine la température et la luminosité de l'étoile.
|
xwikis
|
Věra Chytilová est né à Ostrava le. Elle est la fille de Stěpánka Chytilová et de František Chytil. Elle reçoit une éducation catholique stricte à l'origine des nombreuses questions morales qui seront présentes plus tard dans ses films. Après avoir étudié un temps la philosophie et l'architecture, elle travaille comme dessinatrice, mannequin et retoucheuse de photos avant d'être "clapper girl" aux Studios Barrandov de Prague. Ayant demandé à étudier la production de films, elle se voit refuser cette formation. Quelque temps plus tard, elle a alors 28 ans, elle est acceptée à l'Académie du film de Prague (FAMU). Elle y suit les cours d'Otakar Vávra et est la seule femme a y étudier la réalisation. Elle se fait d'ailleurs remarquer en 1961 avec son film de fin d'année, et est diplômée en 1962 après 5 ans d'études.Après l'obtention de son diplôme, elle tourne en 1963 son premier long métrage "Something Different" ("O něčem jiném"). Trois ans plus tard, elle réalise son film le plus connu, "Les Petites Marguerites" ("Sedmikrásky"). Mettant en scène des personnages antipathiques, caractérisé par une narration discontinue, ce film est, d'après Chytilová elle-même, construit pour. Le film est censuré en Tchécoslovaquie à cause de scènes de gaspillage alimentaire. Elle a souvent été accusée de nihilisme, entraînant un chômage forcé de 7 ans de 1969 à 1976. Elle est aussi considérée comme « la première dame du cinéma tchèque » et était engagée dans des causes telles que l’opposition au projet d’implantation de la base radar militaire américaine en République Tchèque, mais elle s’est également portée candidate aux sénatoriales dans un parti féministe.Věra Chytilová a été mariée dans un premier temps à Karel Ludwig de 1950 à 1953, puis au directeur de la photographie Jaroslav Kučera jusqu’à sa mort en 1991. Avec lui, elle a un fils, Štěpán, qui est par la suite devenu directeur de la photographie pour les tournages de film, ainsi que Tereza Kučerová, devenue actrice. Věra Chytilová, était connue pour avoir une grande force de caractère, elle n’hésitait pas à créer des conflits pour obtenir ce qu’elle voulait, ce qui lui a permis de traverser toutes les épreuves de sa vie.
|
Věra Chytilová, née le à Ostrava, en Tchécoslovaquie, et morte le à Prague, est une réalisatrice et scénariste tchèque. Représentante très importante de la Nouvelle Vague tchécoslovaque, aux côtés de Miloš Forman et Jiří Menzel, Věra Chytilová fait partie de l'aile plus expérimentale du mouvement.
|
xwikis
|
La comédie trouve son origine dans la littérature grecque. Le mot / est formé de / (« fête en l’honneur de Dionysos »), et / (« chant »). Jacques Grévin, dans son "Brief discours" (1561), en donne quant à lui l'étymologie suivante : « "Et quant à moi je suis de cette opinion que la Comédie a pris son nom ἀπὸ τῶν κωμῶν, c’est-à-dire des rues par lesquelles de ce premier temps elles estoyent jouées" ». QuantLa comédie, ainsi que la tragédie, dont la représentation remontent aux VI siècle av. J.-C. et V siècle av. J.-C., ont une origine religieuse, liée au culte de Dionysos. Ces représentations ont lieu lors de fêtes organisées par l'État. Deux fois par an, elles réunissent les citoyens autour d'un concours entre trois auteurs sélectionnés à l'avance. Pendant les trois jours de cérémonies, ceux-ci font représenter plusieurs pièces chacun. Ainsi le public assiste-t-il à une quinzaine de représentations, depuis le matin jusqu'au crépuscule. Cette manière de voir du théâtre est assez éloignée de celle qui est la nôtre aujourd'hui, à part à l'occasion de certains festivals. Le lieu de ces représentations est un édifice à ciel ouvert, pouvant accueillir un public très nombreux, occupant les gradins. Face à lui se trouve laPar fables d'Ésope on désigne un ensemble de fables en prose attribuées à Ésope, écrivain grec qui a vécu vers la fin du et le début du.Au V siècle av. J.-C. sous le siècle de Périclès, en pleine démocratie athénienne, le poète Cratinos crée la "Vieille Comédie" en tant qu'institution d'opposition politique. Ainsi, avec la "Vieille Comédie", le théâtre est transformé en tribune. Si l'on n'a rien conservé de Cratinos, de Phrynichos le Comique, d'Eupolis, de Phérécrate, de Platon le comique, de Cratès, de Phormis et de tant d'autres, en revanche nous avons onze pièces d'Aristophane qui peuvent nous donner une idée suffisante de ce drame fantastique et plein d'imaginationLa comédie nouvelle (également désignée sous le terme de Néa) commence dans la seconde moitié du. Ce n'est guère que sous la monarchie macédonienne qu'unCet autre genre de comédie grecque se développa dans diverses villes doriennes, telles que Mégare, Sparte... La comédie dorienne fut représentée par trois poètes, Épicharme, Phormis et Dinoloque. Elle n'était pas démocratique,Comme à Athènes, le théâtre romain a une dimension religieuse : les représentations sont liées au culte de Bacchus. Comme à Athènes également, la dimension politique est présente, puisque le théâtre se joue lors des Jeux, ou lors de cérémonies importantes réunissant le peuple. Le chant, la danse, la musique accompagnent encore le texte – le théâtre est un « spectacle total ». Les accessoires sont plus nombreux que dans le théâtre grec : le rideau de scène apparaît, les costumes sont parfois somptueux, la machinerie se développe. Les masques sont toujours présents. Sur la scène, pas de « décor » au sens moderne : quelques portes, signifiant une demeure ou un palais, et parfois une machinerie permettant de faire apparaître un dieu récitant une tirade – d'où l'expression « "deus ex machina" ». Dans l'empire romain, la farce, l'Atellane, interprétée par desAprès l'effondrement de la culture antique, le Moyen Âge, qui ignore le mot « comédie », réinvente de nombreuses formes de théâtre comique. Le théâtre se joue dans la rue (théâtre de rue), sous la forme de mystères, fabliaux, farces, soties ou encore mime. Certains de ces genres sont plus ou moins inspirés de survivances de genres antiques comme l'atellane. En effet, la tradition des jongleurs et le goût du divertissement parodique chez les clercs s'expriment au Moyen Âge dans une grande diversité de pièces de caractère satirique et didactique : Dès le, la bourgeoisie (habitants du bourg), a sa propre littérature, véritable satire sociale avant la lettre. Elle est par essence malicieuse, pittoresque, mais le plus souventAu, Rabelais, écrit Gargantua devenant le premier auteur à avoir utilisé le burlesque dans ses œuvres. Ses œuvres majeures, comme "Pantagruel" (1532) et "Gargantua" (1534), qui tiennent à la fois de la chronique, du conte avec leurs personnages de géants, de la parodie héroï-comique, de l'épopée et du roman de chevalerie, mais qui préfigurent aussi le roman réaliste, satirique et philosophique, sont considérées comme une des premières formes du roman moderne. Dans les années 1456-1460 sort l'une des rares pièces de comédie de l’époque "La Farce de Maître Pathelin". Toujours au apparaît la Moralité, mettant en scène des personnages allégoriques, représentant les vices et vertus desAu milieu du, les mystères (c'est-à-dire le genre théâtral le plus prestigieux) sont interdits. En effet, l'Église estime désormais que la foi doit être l'affaire des doctes, et non des acteurs (le théâtre est mis à l'index par l'Église qui l'accuse de mentir sur la réalité). Ainsi, malgré quelques résistances, le théâtre sombre dans le déclin. Il faudra attendre une redéfinition de cet art pour qu'il reprenne consistance.Sous la Renaissance, les auteurs de toute l'Europe veulent retourner aux sources du théâtre et s'approprier la comédie latine. On appelle comédie « régulière » la comédie qui s'inspire de la comédie latine, et qui en respecte les règles formelles, tout en s'opposant aux diverses formes de comédies médiévales. Au (en Italie), apparaissent les premiers modèles de la comédie « régulière », suivis au par l'Arétin, Machiavel ("la Mandragore") et Trissino. Très vite, la comédie italienne s'en détache, avec Giordano Bruno "(le Chandelier)" et Ruzzante, qui compose en dialecte padouan des scènes populaires et trouve son style dans l'improvisation de la commedia dell'arte.La comédie italienne, au, voit apparaître la commedia dell'arteEn Angleterre à la fin du, la comédie élisabéthaine, nourrie d'observations, est dominée par William Shakespeare, mais elle vaut aussi des succès à Ben Jonson, Francis Beaumont et John Fletcher, Thomas Middleton, ThomasLe Siècle d'or espagnol ("Siglo de Oro" en espagnol) est la période de rayonnement culturel de l'Espagne en Europe du. C'est une période de grande vitalité littéraire et artistique en Espagne et dans les pays hispanophones d'Amérique latine La comédie espagnole de la fin du (et principalement la comedia), met en œuvre tous les types d'intrigue avec Cervantès, Lope de Vega, Calderón de la Barca, Moreto y Cabaña, Fernando de Rojas, et inaugure, avec Pedro de Alarcón, la « comédie de caractère », qui inspirera directement Pierre Corneille (avec "le Menteur" en 1652). La comédie en Espagne s'attache à captiver l'imagination par l'intérêt romanesque de l'intrigue, plutôt que par la vérité du cœur humain. Le caractère disparaît et s'absorbe dans la passion dominante. L'imagination prévaut et, aussi, la passion. Le théâtre s'inquiète peu de la vraisemblance du roman et de la vérité du caractère. On y met en scène un jeune cavalier amoureux et la jeune doña dont il est épris; on les sépare par toutes sortes d'obstacles, des parents inflexibles, un tuteur jaloux, des rivaux acharnés, la distance des rangs ; à travers les incidents d'une intrigue compliquée, nous suivons avec un intérêt curieux les ruses et les effortsEn France, au début du apparaissent plusieurs nouveautés. En effet, le métier de comédien, même s'il est méprisé par l'Église et une part de l'opinion, fascine de plus en plus. Et les femmes peuvent quant à elles enfin monter sur scène. En 1629 apparaît "Mélite" de Pierre Corneille, qu'il qualifia dans la première édition de « Pièce comique » et non pas de comédie, forme nouvelle de « comédie sentimentale » fondée sur les déchirements du cœur et une conception nouvelle du dialogue de théâtre qu'il qualifiera lui-même trente ans plus tard de « conversation des honnêtes gens », loin des formes comiques alors connues qu'étaient la farce et la comédie bouffonne à l'italienne. En 1630, le théâtre est reconnu comme un art officiel par Richelieu. Et la règle des trois unités estAu, dans la Cour du Roi Louis XIV qui agit comme mécène, Molière invente avec Jean-Baptiste Lully la Comédie-ballet en 1661, et il recourt fréquemment au burlesque dans le théâtre à partir de 1662 dans "L'École des femmes". Même si le clergé est dans sa majorité hostile au théâtre, et considère que les comédiens doivent être excommuniés, Corneille et Molière réussissent à s'imposer. Corneille s'oriente vers l’écriture de tragédie, tandis que Molière (malgré sa préférence pour la tragédie) s'oriente vers l’écriture de comédie ; à moins que ce ne soit Corneille qui ait tout écrit à la place de Molière (voir la paternité desLes comédies de mœurs et de caractère, imposée par Molière, servirent de modèle sur toute l'Europe, même aux auteurs anglais, qui abandonnèrent la truculence et la bouffonnerie du théâtre élisabéthain pour les comédies de William Congreve et exercèrent également une influence sur tout le théâtre comique européen pendant une partie du (Moratín, en Espagne ; Carlo Goldoni, en Italie).Au en France apparaît le théâtre d'auteur, comme celui de Marivaux et de Beaumarchais. En ce siècle des Lumières, les « unités », reconnues comme essentielles au car elles permettaient (selon Boileau, entre autres) de donner plus de vraisemblance aux pièces, apparaissent peu à peu comme des carcans dont les auteurs cherchent à se défaire. De plus, les philosophes des Lumières prennent violemment parti contre le clergé et son attitude autoritaire envers le théâtre. Les « esprits libres » estiment que le théâtre est non seulement un divertissement innocent, mais aussi un moyen pédagogique : Voltaire et Diderot soutiennent l'idée selon laquelle la représentation des vices et des vertus peut « éclairer » les hommes. Ce siècle des Lumières voit apparaître la satire (Alain René Lesage en France, Sheridan en Angleterre) et l'analyse des sentiments (Marivaux). Chez Marivaux, les personnages ne sont plus des types comiques ou des héros tragiques, mais des individus aux prises avec un questionnement sur leur identité. Ainsi, dans plusieursAu, les règles du (les unités, la bienséance) sont définitivement abandonnées. Les auteurs du romantisme veulent un autre théâtre. Ils souhaitent un type de pièces capable de mettre en scène l'Histoire et le pouvoir, dans un style qui ne soit plus soumis aux bienséances. Victor Hugo parle des unités comme d'une « cage » et déclare, de façon provocatrice :. Alfred de Musset, autre auteur romantique, se distingue en ce qu'il renonce assez vite à faire représenter ses pièces. Après l'échec de "La Nuit vénitienne", il écrit des dramesLe théâtre russe de la Belle Époque (de la fin du au début du ) recourt aux scènes comiques dansÀ la suite du choc de la Première Guerre mondiale et à la montée des fascismes, dans la première moitié du, apparaît plus de tragédie (Jean Cocteau, Jean Anouilh, Jean Giraudoux) que de comédie, et la tragédie apparaît sous forme de mythes antiques.Au, le théâtre emprunte diverses voies – que les auteurs d'aujourd'hui creusent et diversifient encore. Certaines pièces poursuivent dans la veine de la comédie de mœurs, déjà présente au, et qui avait connu un regain de succès à la fin du, avec Georges Feydeau et Eugène Labiche (auteurs de vaudevilles). Apparaît simultanément un théâtre de la « subversion » : Alfred Jarry, avec "Ubu roi", présente une pièce faite pour choquer (la première réplique est un « Merdre! » retentissant). Dans une certaine proximité avec le mouvement Dada ou le surréalisme, ce théâtre rejette toute psychologie des personnages pour préférer uneMarcel Proust, dans "À la recherche du temps perdu",Au, la comédie se diversifie dans la musique (comédie musicale), dans le cinéma (cinéma comique), dans la télévision, et dans de nouvelles formes théâtrales (sketch, stand-up et nouvelles formes d'improvisation)"." Aucune de ces rubriques ne permet de classer les œuvres de Shakespeare, qui dans "Hamlet" montre les limites de ces catégories :. Au, selon M. Lemercier dans son Cours de littérature, il y a six espèces de comédies :Ainsi, de la combinaison des trois genres de comédie (d'intrigue, de mœurs, et de caractère) résulte ce
|
La comédie (du grec κωμωδία) est un genre littéraire, théâtral, cinématographique et télévisuel fonctionnant sur le registre de l'humour. Née dans l'Antiquité grecque, elle est devenue un genre littéraire qui s'est épanoui de manière diversifiée en fonction des époques. Avant Molière, elle était dévalorisée comparée à la tragédie.
|
xwikis
|
Le corps simple or est un métal noble, un métal précieux coloré précisément en "jaune d'or", matière pure dense, très ductile et molle, facile à travailler, parfois simplement à la main et au bâton, connue de toute antiquité, appréciée pour son fort éclat de « petit soleil », en particulier sous forme de diverses parures depuis la fin du néolithique (début du chalcolithique) ou de pièces de monnaie depuis l'Antiquité, et très recherchée, avec l'argent, depuis les temps historiques pour sa fonction monétaire déterminante. Le nom de l'or et le symbole Au viennent du latin "aurum", de même signification, qui a donné l'adjectif "aurifère" qualifiant une matière ou un corps contenant de l'or. Dans les anciens textes français, on le trouve parfois avec l'orthographe « aur ». Dans les langues germaniques on trouve "gold", "geld", "gyld". L'or symbolise souvent une émanation d'une matière céleste et solaire. La Nubie est le pays de l'or "(nub)" conquis par la violence par les anciens Égyptiens. L'or est le troisième élément du premier groupe secondaire p. Sa structure électronique atomique correspond à [Xe] (4f) (5d) (6s). Du point de vue chimique, l'or est un métal de transition susceptible de former des cations mono- et trivalents en solution. Il est moins réactif que la plupart des autres métaux de transition, mais est attaqué par l'eau régale en donnant de l'acide chloraurique, ainsi que par les solutions alcalines de cyanure, mais pas par les acides chlorhydrique HCl, nitrique ni sulfurique. Comme le plomb, il se dissout dans le mercure en formant un amalgame, mais ne réagit pas avec ce métal. L'or étant insoluble dans l'acide nitrique, qui dissout pourtant l'argent et les métaux communs, cette propriété permet de le séparer et de le purifier. L’art du travail de l’or est l’orfèvrerie. L'or trouve des applications industrielles en odontologie et en électronique, en raison de sa très bonne tenue face à la corrosion et de son excellente conductivité électrique, mais sa principale utilisation demeure la thésaurisation. Les banques centrales du monde cumulaient ainsi d'or en, dont près de 40 % détenus dans la zone euro et 30 % par les États-Unis (la Chine ayant exprimé son intention de porter ses réserves à ), tandis qu'environ d'or seraient détenues au titre de l'épargne privée en Inde.Un des plus vieux objets en or a été mis au jour dans la nécropole de Varna, en Bulgarie actuelle. Il est daté du milieu du. En dehors de l'Égypte et du Moyen-Orient qui l'imposent précocement dans un rôle monétaire, l'homme utilise l'or de façon significativement importante en Europe depuis le Les tombes collectives révèlent des pièces d'orfèvrerie ouvragées, sous forme d'enroulement, de perles annulaires et de fils d'or, autant de probables reliquats d'objets luxueux. Au Chalcolithique, à la fin de la Préhistoire, les parures en or des peuples atlantiques, probables symboles de pouvoir, mêlent des perles hélicoïdales, des lunules, des colliers à lamelles découpées aux armes et pointes de flèches. À l'âge du bronze, une diversification des objets est constatée, il existe des diadèmes, des torques et des bracelets avec de la vaisselle. L'essentiel des découvertes est apporté par la fouille de tombes individuelles, par exemple celles des "princes armoricains" à urnes de bronze. Par ailleurs, la thésaurisation de l'or par enfouissement, offrande ou cachette provisoire deLa recherche d'or constitua l'une des raisons de la rapidité de la conquête du continent américain. Ainsi, Hernán Cortés entreprit la conquête de l'Empire aztèque, situé au Mexique notamment pour s’emparer de l’or que possédait l'empereur aztèque. Hernán Cortés envoya une grande quantité de ce précieux métal à Charles Quint, roi d'Espagne, dont une partie sous forme de bijoux, mais la plupart furent fondus pour financer les guerres menées par l’Espagne. Le roi d’Espagne prélevait le "quinto real" (c'est-à-dire un cinquième de l'or extrait). L'or affluant depuis les mines du Nouveau Monde provoqua la richesse de l'Espagne et du Portugal au début de la période moderne, avant de profiter aux autres États européens qui surent mieux le capter,Les ruées vers l'or, en anglais "gold rush" ont marqué l'histoire planétaire de l'économie monétaire bien après le désenclavement du monde au début des Temps modernes. Mentionnons parmi les principales, le Brésil des Minas Gerais vers 1725, la Russie et ses marges de l'Oural en 1750 et de la Sibérie en 1840, l'Australie en 1840, la Californie en 1848, l'Alaska et le Klondike, ainsi que l'Afrique du Sud enLa première nucléosynthèse artificielle de l'or date de 1941. Elle consista à bombarder du mercure avec des neutrons. Mais les isotopes d'or obtenus étaient tous radioactifs. Le coût de production étant bien plus élevé que le prix de l'or, cette méthode de production n'est pas viable commercialement — les atomes de mercure devant être modifiés un à un. L'or a servi d'étalon monétaire exclusif (l'étalon-or), d'abord au Royaume-Uni puis dans le monde entier après l'abandon du bimétallisme or-argent dans les années 1870. La guerre de 1914 met fin à ce système qui ne put jamais être remis en place. Avec les accords de Bretton Woods, en 1944, c'est un étalon de change or ("Gold Exchange Standard") qui est mis en place. Le dollar est défini en un certain poids d'or et les autres monnaies en dollar. En 1971, les États-Unis suspendirent la convertibilité du dollar en or et en 1976, les accords de la Jamaïque entre les pays du FMI démonétisent l'or qui dès lors n'a plus de rôle monétaire officiel. L'or est néanmoins resté à titre de précaution dans les réserves des principales banques centrales. La plus grande réserve mondiale d'or monétaire se trouveL'or possède 37 isotopes connus, de nombre de masse variant entre 169 et 205, et 34 isomères nucléaires. Parmi ces isotopes, un seul est stable et représente la totalité de l'or naturellement présent, Au,L'or est issu de la nucléosynthèse stellaire réalisée par des générations successives d'étoiles depuis une douzaine de milliards d'années. En particulier, deux hypothèses expliqueraient la formation d'or, par processus r, au sein des étoiles : le premier lors de l'explosion d'une supernova, le second lors de collisions ou fusions de deux étoiles à neutrons. Une simulation numérique, réalisée en 2011, corrèle l'abondance mesurée des noyaux d'or à la fusion d'étoiles à neutrons et, en 2016, l'étude de la galaxie naine Réticule II amène également à privilégier cette dernière hypothèse. L'or étant de nature géochimique nettement sidérophile, à l'instar des métaux du groupe du platine, celui-ci se concentre dans le noyau de la Terre. Il devient ainsi très rare dans l'écorce terrestre. Il s'y accumule là où circulent des fluides chauds issus du manteau. Cependant, certaines études montrent que la concentration en or dans la croûte terrestre est entre cent et mille fois trop élevée par rapport à ce qu'elle devrait être ; l'or présent dans la croûte terrestre proviendrait donc du grand bombardement tardif, qui eut lieu il y a d'années<ref name="10.1038/nature10399"> Le clarke s'élève à. En minéralogie, ce métal lourd est le minéral or défini, de système cubique compacte (densité avoisinant 19,3), de faible dureté (2,5 à 3), remarquablement malléable et ductile, il est encore souvent nommé or natif. L'or se présente ainsi à l'état natif, exceptionnellement en cubes et octaèdres, mais communément sous forme d'imprégnations de poussière, de granules et paillettes, grains ou encore nettement moins fréquemment de pépites conséquentes ou en masses informes prises dans une gangue de quartz et de sulfures métalliques. Ces masses diverses peuvent éventuellement avoir été réduites, en poudre ou en paillettes, par érosion mécanique. Sa couleur à reflet métallique brillant est jaune d'or à jaune rouge quand il est très pur, jaune plus pâle du fait de la présence non négligeable d'argent (or argentifère ou électrum)... Les diverses occurrences typiques à l'état natif sont le filon aurifère et souvent argentifère, l'inclusion et la dispersion dans les roches ultrabasiques et en général dans des massifs de roches magmatiques plutoniques (granites, diorites, granodiorites), les différents dépôts alluvionnaires résultant de l'érosion fluviale des roches mères ci-dessus, sous forme de poudres, de sables aurifères, de grains plus ou moins gros jusqu'à des formes massives de centaines de kilogrammes, en passant par la rare pépite. Les minerais d'or existent, mais ils sont plus rares, ainsi les tellurures comme la calavérite ou krinnerite, la sylvanite... L'or est présent dans l'eau de mer, essentiellement sous forme de chlorures, à des teneurs de l'ordre de.L'or pur est un métal noble, malléable et très ductile, le plus ductile des métaux connus, et à la fois dense et tendre. Ce cristal à réseau cubique à faces centrées est un métal jaune plus ou moins brillant, qui acquiert un grand éclat après polissage. Il est relativement chimiquement inerte, très stable car il ne s'oxyde ni à l'air ni dans l'eau dans les conditions normales de température et de pression : le fait qu'il préserve son éclat, perçu comme esthétique par toutes les cultures humaines, lui confère l'essentiel de sa valeur. Il peut néanmoins former de l'oxyde d'or sous haute pression ou en milieu réactif.La densité de l'or pur est 19,3. Sa résistivité est de. L'or est un bon conducteur électrique et thermique. Mais sa conductivité (ou inverse de sa résistivité) électrique n'est environ que 70 % de celle de l'argent.L'or est un excellent conducteur thermique et électrique, mais son coût (lié à sa rareté) limite ses utilisations. Il est le troisième métal le plus conducteur (après l'argent et le cuivre) mais son caractère inoxydable en condition ambiante fait qu'il est utiliséAlors que la plupart des autres métaux purs sont gris ou blanc argenté, l'or présente une couleur jaune métallique à reflets complexes, aspect qu'on définit en français comme "doré". Cette couleur particulière provient de la densité d'électrons de valence faiblement liés qui forment un « plasma » dans le métal au sein duquel leurs fluctuations sont modélisées au moyen de quasi-particules appelées plasmons : la fréquence de ces fluctuations se situe dans l'ultraviolet pour la plupart des métaux, mais se trouve dans le spectre visible pour l'or en raison d'effets relativistes affectant les orbitales atomiques autour des atomes d'or. Un effet semblableLes atomes d'or sont empilés selon une structure dite « cubique à faces centrées » (CFC). Cette structure cristalline présente beaucoup de plans cristallographiques denses. Or, la déformation plastique se fait par glissement des dislocations dans les plans denses. De manière générale, tous les cristaux cubiques à faces centrées sont ductiles (cas du plomb, de l'aluminium...). La malléabilité de l'or est telle qu'avec une once (~) d'or fin, il est possible d'obtenir une feuille de (réduction à ~ d'épaisseur). L'or « pur » se déformeL'or étant un métal noble, son état d'oxydation le plus commun est donc (0). Cependant, il peut former plusieurs composés, son nombre d'oxydation pouvant varier de (-I) à (+V) ; Au(I) et Au(III) sont majoritaires. Toutefois, sa relative inertie chimique le protège des attaques du dioxygène : l'or métallique ne se ternit pas et ne forme pas d'oxyde, à quelque température que ce soit ; et il résiste également à l'action de nombreux produits chimiques, dont la plupart des acides ; seuls le cyanureL'or de joaillerie, c’est-à-dire mélangé à un ou plusieurs autres métaux pour augmenter sa rigidité, peut présenter des teintes blanches (or blanc) ou rouges (or rouge) selon le type d'alliage qui le constitue (argent, pour former l'electrum, ou cuivre). L'argent et le cuivre sont les deux principaux métaux utilisés en alliage avec l'or, mais il y a également le platine, le nickel, le zinc ou encore le manganèse. Le standard des proportions varie d'un pays à l'autre, les États-Unis ou la Grèce utilisant l'or dit « à 14 carats »,Les états d'oxydation les plus communs sont Au(I) et Au(III), alors que Au(-I), Au(II) et Au(V) sont beaucoup plus rares. L'or est attaqué par le gaz chlore, par les cyanures alcalins, par l'eau régale, voire par l'acide sulfurique concentré en présence d'un oxydant. Les trois premières réactions s'expliquent partiellement d'un point de vue thermostatique par la stabilité relative des complexes d'or obtenus, à savoir les complexes de chlorures et de cyanures d'or. Ces complexes à l'instar de ces composés sont assez instables, ils se décomposent simplement par chauffage sous hotte.L'ion "aureux" Au(I) se rencontre sur des ligands doux tels que les thioéthers, les thiolates ou les phosphines tertiaires. Ses composés sont généralement linéaires. Lors du traitement des sables aurifères par cyanuration, l'or est solubilisé sous forme du complexe dicyanoaurate Au(CN), dans lequel se retrouve Au(I). Le dicyanoaurate de potassium est un sel incolore, soluble dans l'eau et très toxique. Il est obtenu par dissolution anodique de l'or dans une solution deL'autre forme courante de l'or oxydé est l'ion "aurique" Au(III). Il entre, par exemple, dans la composition du chlorure d'or(III), AuCl. SonFondu avec du césium, l'or forme de l'aurure de césium CsAu qui n'est pas un alliage, mais un composé ionique. L'atome d'or Au forme alors un ion négatif monochargé. Les propriétés de l'aurure sont similaires à celles d'un halogénure. Par exemple, CsAu cristallise dans le motif du chlorure de césium. Parmi les autres aurures, on compte ceux de rubidium, de potassium et de tétraméthylammonium. Les composés de l'or(II) sont généralement diamagnétiques et présentent des liaisons Au-Au. C'est le cas dans. Un complexe remarquable de Au(II), le complexe tétraxénon-or(II), contient le xénon comme ligand :. Le pentaflurorure d'or est l'unique exemple d'Au(V), l'état d'oxydation le plus élevé pour cet élément. Dans quelques composés de l'or apparaissent des "liaisons aurophiles", qui décrivent l'interaction réciproque d'ions or à une distance trop longue pour constituer une liaison Au-Au covalente, mais plus courte que pour les forces de Van der Waals. La liaison aurophile est comparable à une liaison hydrogène en termes de force.Des oxydes d'or comme peuvent être synthétisés sous de fortes pressions (plusieurs milliers d'atmosphères) ou dans un environnement réactif (en présence de dioxyde d'azote, d'ozone ou d'oxygène atomique).L'or relativement stable est utilisé pour la dorure ou placage-recouvrement à la feuille traditionnelle, le fil d'or textile... Les techniques d'électrolyse ont parfois remplacé ce travail manuel, ainsi les placages électrolytiques pour divers contacts électriques ou les cartes enfichables d'ordinateurs, la dorure des miroirs de précision... L'or est utilisé comme réfléchissant IR dans le vitrage en glace sans tain, les divers réflecteurs IR, de façon à assurer la conservation de la chaleur en hiver ou la réflexion de la chaleur en été, ou sur les panneaux réfléchissants de modules spatiaux. Les alliages sont communs en bijouterie et joaillerie. Allié avec l'argent, le cuivre ou parfois les platinoïdes, il peut constituer la matière des prothèses dentaires de luxe, de monnaies et médailles... Dans les années 1990, la moitié de l'or produit servait à la fabrication d'objet d'art ou de luxe (cuisine), de bijoux. Il est encore parfois utilisé dans l'équipement scientifique, dans certains ustensiles de chimie. Dans le domaine médical, il sert sous forme d'alliages spécifiques comme prothèses en dentisterie (dents en or). À l'état métal et/ou de composés, il a été ou peut encore être employé comme médicament.L'or est principalement utilisé pour la bijouterie (environ 70 % de l'or dans le monde en 1990). De plus, environ d'or ont été travaillées pour la bijouterie, en 1995. L'or « pur » a été utilisé dans certains bijoux asiatiques, qui ont donc la particularité d'être "déformables" (ce qui oblige à se limiter à des formes simples : bracelets en torsades, par exemple). L'or pur reste cependant peu utilisé en joaillerie ; afin d'obtenir une meilleure tenue mécanique ainsi que des couleurs originales, il est allié par exemple à l'argent et au cuivre (or jaune, or rose), au cuivre (or rouge), à l'argent (or vert). En orfèvrerie, l'argent recouvert d'or s'appelle le vermeil. L'or est ainsi utilisé pour créer des bijoux, des médailles, des objets de luxe (montre, stylo). Il peut également être utilisé par des ateliers de dorure ornementale comme l'atelier leonis, sous forme de feuilles pour dorer les boiseries, les livres travaillés par les enlumineurs, les ferronneries par un procédé de dorure au mercure ;Ce métal est recherché par l'industrie à cause de son inaltérabilité et de sa bonne conductivité électrique et thermique. Il est utilisé en connectique et en électronique, afin de réaliser des contacts électriques inoxydables. De nos jours, l'or est fréquemment utilisé dans les techniques de pointe et particulièrementSur le plan médical, la dentisterie consommait d'or par an. L'or a été - et reste, pour qui accepte de faire face à la dépense - un substitut nettement supérieur aux amalgames pour les occlusions dentaires, mais demande l'emploi d'une technique différente des classiques « plombages » : ce sont les inlays. En médecine, certains dérivés organiques de l'or, dits « sels d'or » sont parfois utilisés dans le traitement de certaines affections en rhumatologie ("chrysothérapie"). La feuille d'or ou d'argent a été utilisée comme enrobage des pilules, notamment les plus amères. L'élixir d'or est une ancienne préparation pharmaceutique qui fut utilisée au. Cet élixir a porté de nombreux noms différents et sa composition, d'abord tenue secrète, a varié au cours des époques et des préparateurs. Il s'agissait vraisemblablement à l'origineL"'or alimentaire" « comestible » peut être utilisé en pâtisserie ou dans la gastronomie de luxe. Le plus souvent sous forme de poudre ou de feuille très fine, il est inerte et traverse l'appareil digestif sansL'or est utilisé comme bijou en contact avec la peau depuis plusieurs millénaires, sans problème de santé apparent. Il l'est aussi par la médecine en raison de sa faible propension à l'oxydation pour la fabrication de prothèses dentaires (ou dans certaines prothèses cardiaques) ou via certains sels pour combattre la neuroinflammation (par exemple après un AVC ou un traumatisme crânien), mais avec des effets indésirables possibles, particulièrement au niveau des reins (néphrotoxicité) quand il est dispersé sous forme d'ions dans l'organisme. Sous forme métallique, il a longtemps été réputé biologiquement tout à fait inerte et non-allergène, mais peut-être à tort, des allergies de contact ont pu être étudiées au début des années 1990 en réaction au thiosulfate de sodium d'or (un lixiviant qui peut remplacer le cyanure pour l'extraction de l'or), cette allergie (à un sel et non à l'or métallique pur)Elles peuvent être produites de différentes façon, et ont des propriétés physicochimiques différentes de l'or massif, encore mal connues. Ces nanoparticules produites comme catalyseur, pour leurs propriétés optiques ou pour d'autres usages peuvent se retrouver dans l'environnement et notammentL'extraction de l'or estL'orpaillage est l'exploitation de gisements alluvionnaires nommés « placers » en anglais, caractérisé par des dépôt de particules d'or dans le lit des cours d'eau. Le lavage des sables ou agglomérats aurifères pour obtenir des paillettes (ou pailles comme le nom orpaillage l'indique) grâce à une simple séparation gravimétrique est attesté depuis le dans le monde celte. Il pouvait être amélioré par un concassage de minerai, un mélange du produit fin avec l'eau avant le procédéLes paillettes ou minerai aurifère sélectionné glisse sur un plateau de cuivre dont les surfaces sont couvertes du corps simple liquide mercure. L'or forme un amalgame ou simplement s'amalgame avec le mercure, ce qui en permetLa cyanuration est employée aussi pour l'argent. Le minerai est tout d’abord concassé et broyé, mélangé sous air comprimé et/ou passé dans une unité de flottation fournissant un concentré et des résidus mis en terril (haldes) contenant de l’or et d’autres métaux. Le traitement du concentré est effectué par cyanuration qui consiste à dissoudre le minerai dans une solution, éventuellement recyclé et/ou dilué, de cyanures alcalins. L'or colloïdale est ensuite précipité, par ajout par exemple de la poudre de zinc qui joue un rôle deL'or après séchage peut être grillé, fondu avec un fondant borax sur silicate. Le manipulateur obtient un or brut puisque les métaux voisins de l'or ou résiduels comme le plomb, le fer, le zinc s'oxydent plus facilement et fondent pour donner des silicates ou des borates, qui s'évacuent avec les scories. Pour compléter l'affinage, etLe battage d'or (se dit aussi "orbattage") est la réduction d'or ou d'alliages d'or en feuilles très fines (). Le batteur d'or utilise un alliage au cuivre (pour durcir légèrement le métal) et à l'argent (pour revenirL'usage de détecteurs de métaux est depuis quelques années systématique dans les zones aurifères telles que l'Afrique, l'Australie ou les États-Unis. De nombreux pays africains se sont lancés dans la course aux pépites d'or en utilisant des détecteurs de métaux. Néanmoins, beaucoup de ces appareils sont inutiles, car la terre même où se situent les filons d'or est fortement minéralisée et les appareilsOn estime que depuis la préhistoire, d'or ont été extraites d'après le World Gold Council en 2001. Il ne subsiste que, sous forme de lingots, médailles, bijoux, etc., dont l'essentiel (chiffre 1990) est mis en réserve, le reste ayant disparu au fil du temps. Les réserves d'or sont trente fois moins importantes que celles d'argent. Non renouvelables du fait de leur origine cosmique, lesÉvolution de la production mondiale et des réserves d'orLes banques centrales possèdent environ le quart du stock d'or mondial, à savoir en par l'association mondiale desL'or provient de plusieurs sources distinctes. Selon le World Gold Council, environ 60 % des quelque d'or utilisées annuellement (moyenne sur la période 2004-2008) vient de la production des mines, il s'agit donc d'or « neuf », jamais utilisé auparavant. 28 % provient du recyclage, par exemple la fonte de vieux bijoux. Enfin, 12 % provient de déstockage net des banques centrales (c'est-à-dire qu'elles ont pendant ces cinq années vendu plus d'or qu'elles n'enPar rapport à la plupart des autres marchandises, la particularité du marché de l'or est que les stocks de cette matière inaltérable, accumulés au fil de l'histoire chez les particuliers et différents organismes (banques centrales...), sont estimés à environ 50 fois la production annuelle mondiale. L'or est coté, sous forme physique, à la bourse de Londres et, sous forme de contrats à terme, à New York. Les cours mondiaux sont fixés en dollars américains par once troy d'or. En dehors de ces marchés organisés, qui traitent des grosses quantités, il existe des entreprises de négoce de l'or et de métaux précieux ouvertes aux particuliers et aux divers transformateurs et utilisateurs. Depuis la crise bancaire et financière de l'automne 2008, de nombreuses boutiques de rachat d'or ont vu le jour. Ces entreprises proposent de racheter les anciens bijoux, l'or dentaire, les couverts ou encore les lingots contre de l'argent. Dans un premier temps, les règlements se faisaient fréquemment en espèces, mais l'article L.112-6 du Code monétaire et financier a imposé le règlement par tout autre moyen (chèque ou virement notamment). Malgré le risque de contravention de, le paiement en espèces n'a pas complètement disparu. À la suite du rachat d'or, le métal précieux est ensuite recyclé. Il s'agit alors de le faire fondre puis de le remodeler en lingot ou en pièces pour être de nouveau commercialisé sur le territoire français. Les cours sont particulièrement fluctuants et soumis à divers facteurs : évolution des stocks d'or des banques centrales, demandes en orfèvrerie, notamment en Inde, aux États-Unis et en Chine, demande industrielle (électricité, électronique...), coûts et volumes de production, état des réserves minières, valeur refuge, ou achats et ventes spéculatives en fonction des incertitudes monétaires. Une partie du marché est opaque, en raison d'un orpaillage illégal qui s'est fortement développé à la fin du en Amérique du Sud. L'or est une valeur refuge de par le fait que contrairement aux monnaies courantes qui voient leur quantité en circulation dépendre des politiques des banques centrales, les quantités d'or physique qui peuvent être injectées dans les marchés ne peuvent dépasser celles extraites annuellement. De fait, l'inflation propre de l'or est limitée à ces quantités extraites qui sont relativement faibles et prévisibles en comparaison du volume déjà en circulation. Cette difficulté de production et de reproduction de l'or est aussi ce qui lui valut d'être utilisé directement comme monnaie et c'est parallèlement cela qui pousse certaines personnes à justifier un retour des monnaies courantes à l'étalon-or. À la fin du, dans une période de stabilité monétaire dominée par la livre sterling avec une parité fixe des principales monnaies, l'or sert d'étalon monétaire. Chaque banque centraleEn France, les ventes d'or réalisées dans l'Union européenne par les contribuables français sont soumises à une taxe forfaitaire de 10 % (jusqu'à fin 2017) du prix de cession (article 150 VK du code général des impôts), ainsi qu'à 0,5 % de CRDS (article 1600-0 I du code général des impôts). Cette taxe, instituée en 1976, a causé la fermeture du marché français de l'or, au bénéfice de la place financière de Londres. À la suite de la loi de finances rectificative pour 2005 du, les plus-values peuvent désormais être imposéesConséquence de la crise bancaire et financière de 2008, le marché du rachat d'or a explosé en France. Alors que de nombreuses valeurs boursières se sont effondrées à partir de 2007, le cours de l'or lui est resté solide et n'a fait que grimper durant les années suivant la crise. L'or étant devenu une valeur refuge, de nombreuses entreprises spécialisées dans le rachat d'or sont apparues dans l'hexagone. Profitant du cours élevé du précieux métal, ces magasins proposent de racheter les bijoux et autres débris d'or aux particuliers. Très rapidement, ces entreprises ont connu un succès important, face à la crise de nombreux Français ont vu dans cette pratique une occasion de revendre leurs bijoux en or en échange d'une somme importante d'argent. En plus des comptoirs de rachat d'or ayant pignon sur rue, le développement de cette activité sur internet a rendu ce secteur particulièrement dynamique. Depuis les pièces de collection en or, les débris deDans de nombreuses civilisations (pourtant sans connexion) l'or est le symbole du divin par excellence. Cela peut s'expliquer notamment par deux de ses propriétés : Les Égyptiens de l'Antiquité, donnaient à l'or des propriétés divines en le définissant comme la chair des dieux. L'or était employé pour confectionner les masques funéraires qui avaient pour but de fixer à jamais le visage idéalisé du pharaon et de l'identifier aux étoiles. Le masque d'or du pharaon Toutânkhamon est fait de d'or massif et on estime avoir retrouvé dans son tombeau (l'un des plus petits de la vallée des Rois) plus d'une tonne d'or pur. Le Bouddha d'or de Bangkok, qui mesure plus de de haut pour une masse de, représente la plus importante statue d'or massif au monde. Dans le livre de l'Exode, le Veau d'or symbolise l'idolâtrie. Néanmoins, l'or est aussiParmi les nombreux filmsLa richesse que représente la possession
|
L'or est l'élément chimique de numéro atomique 79, de symbole Au. Ce symbole, choisi par Berzelius, est formé des deux premières lettres du mot latin "" (de même sens).
|
xwikis
|
Le pacte de Varsovie se composait d'un préambule et de onze articles. Il fut établi en quatre exemplaires, dont un en russe, un en polonais, un en tchèque et un en allemand. Le traité de Varsovie se proclamait ouvert à tous les États, « indépendamment de leur régime social et politique ». L'adhésion de nouveaux membres restait toutefois soumise au consentement des États signataires (art. 9). Le traité créait un commandement unifié et un comité consultatif politique, où chaque État était représenté et qui se réunit deux fois par an. Le premier commandant en chef fut le maréchal Koniev. Les forces armées de la République démocratique allemande ne furent officiellement intégrées au pacte qu'en. La République populaire socialiste d'Albanie le quitta en en réaction à l'intervention le mois précédent de l'URSS, de la Bulgarie, de la RDA, de la Pologne et de la Hongrie en Tchécoslovaquie. Elle avait cessé de participer à ses travaux depuis 1961. La République populaire de Chine, dont un observateur participait aux séances du pacte, cessa d'être représentée en 1961. Le traité fut établi pour une durée de vingt ans. Il resta en vigueur pendant les dix années suivantes pour les États qui ne l'avaient pas dénoncé. Il fut reconduit pour vingt ans en 1985. Mais entretemps l'intervention en Tchécoslovaquie modifiait un article du pacte : marxiste-léniniste devenait obligatoire et irréversible.Les huit pays signataires étaient : Un observateur de la République populaire de Chine assistait à la séance. La République fédérale socialiste de Yougoslavie, pourtant communiste, n'a pas pris part à cette alliance en raison de la politique de neutralité observée par Tito depuis la rupture avec Staline en 1948 et l'indépendance politique vis-à-vis de Moscou qui en découlait. Les membres de l'alliance se promettaient un secours mutuel en cas d'agression d'un des pays membres. Le pacte s'acheva le et fut officiellement rompu lors d'une rencontre à Prague le juillet de la même année.En 1955, Nikita Khrouchtchev institua le pacte de Varsovie, prétendument en réaction à l'entrée de l'Allemagne de l'Ouest dans l'Organisation du traité de l'Atlantique nord mais il s'agissait surtout d'un stratagème d'ordre tactique. En proposant le démantèlement simultané des deux alliances, Khrouchtchev croyait pouvoir se débarrasser de l'OTAN tout en maintenant un système d'accords de défense bilatéraux avec les pays de l'Europe de l'Est. Néanmoins, une fois le pacte de Varsovie devenu une réalité, les dirigeants soviétiques ont eu de plus en plus de mal à résister aux efforts de leurs alliés d'Europe de l'Est visant à en faire une alliance authentique, comparable à l'OTAN. Lorsque les premiers essais de réforme n'eurent donné aucun résultat tangible, l'incapacité des Soviétiques d'accorder à leurs alliés une plus grande égalité de statut a refroidi l'enthousiasme de certains pays d'Europe de l'Est pour la nouvelle alliance. Ces pays se sont trouvés de plus en plus dans une situation où ils étaient obligés de partager les risques inhérents aux entreprises de l'Union soviétique sans avoir leur mot à dire dans la gestion de ces risques. Après la crise des missiles de Cuba de 1962, la République socialiste de Roumanie informa secrètement les États-Unis qu'elle comptait rester neutre en cas de guerre nucléaire. Le pacte de Varsovie était dominé par l'URSS. Les tentatives d'abandon du pacte par les autres pays furent écrasées par la force à plusieurs reprises. Ainsi, durant la Révolution hongroise de 1956, la Hongrie projetait de quitter le pacte et de devenir neutre durant la guerre froide, mais en, l'Armée rouge intervint et élimina toute résistance en deux semaines. Les forces du pacte de Varsovie furent également utilisées lors du Printemps de Prague de 1968, quand elles envahirent la République socialiste tchécoslovaque pour mettre un terme à la réforme démocratique que le gouvernement était en train d'implanter. Ces faits mirent en lumière une nouvelle politique que menait l'URSS concernant le pacte. La doctrine Brejnev stipulait, d'ailleurs : « "Quand des forces hostiles au socialisme cherchent à faire dévier des pays socialistes vers le capitalisme, cela devient un problème, non seulement de la nation intéressée, mais un problème commun à tous les pays socialistes." » Il y avait contradiction avec l'article du traité ouvrant le pacte à tout État indépendamment de son régime politique et social. Après l'invasion de la Tchécoslovaquie, l'Albanie se retira le du pacte qu'elle avait déjà cessé de soutenir depuis. Ce retrait fut rendu possible par l'isolement géographique de ce pays par rapport aux autres membres du pacte, puisque l'Albanie ne partageait ses frontières qu'avec la Grèce et la Yougoslavie. Les nations appartenant à l'OTAN et au pacte de Varsovie ne se sont jamais affrontées directement dans un conflit armé, mais se sont combattues indirectement dans le cadre de la guerre froide durant plus de 35 ans. En, Gorbatchev, président de l'Union soviétique, annonça la doctrine Sinatra qui stipulait l'abandon de la doctrine Brejnev et la liberté de choix pour les États est-européens. Le, lors de la réunification de l’Allemagne, l'ex-RDA fut le premier membre du pacte à intégrer à l’OTAN. La RDA s'était retirée du pacte officiellement, le, trois jours avant la réunification allemande. Pour s’assurer de l’accord soviétique à une entrée de l’Allemagne réunifiée dans l’OTAN, il fut décidé qu’aucune troupe étrangère, qu'aucune arme nucléaire ne seraient stationnées à l’Est et, enfin, que l’OTAN ne s’étendrait jamais plus à l’est. Quand il apparut que l'URSS n'emploierait plus la force pour imposer sa politique, il s'ensuivit une série de changements politiques rapides. Les nouveaux gouvernements de l'Europe orientale ne soutinrent plus la politique du pacte et, en, la Tchécoslovaquie, la Hongrie et la Pologne annoncèrent leur retrait du pacte pour le. La Bulgarie, étant un État traditionnellement proche de la Russie, ne se retira, elle, qu'en février 1991 lorsqu'il apparut que le pacte était définitivement mort. L'URSS reconnut l'état de fait et le pacte fut dissous officiellement lors d'une réunion à Prague le.Le dispositif du pacte constitue, encore de nos jours, le plus formidable déploiement de forces militaires en temps de paix et était largement en supériorité numérique sur les forces de l’OTAN. L’armée soviétique est de très loin la plus puissante des forces du Pacte. Elle déploie sur le territoire de ses alliés quatre groupement de forces, le plus important étant le groupement des forces armées soviétiques en Allemagne, les autres Étant le groupe des forces du nord (Pologne), le groupe des forces centrales (Autriche jusqu’en 1955, Tchécoslovaquie, Hongrie) et le groupe des forces du sud (Balkans). Sur les que représentent les superficies du Benelux, de l'Allemagne de l'Ouest, de la RDA, de la Pologne et de la Tchécoslovaquie qui constituent le théâtre Centre-Europe étaient concentrés dans les années 1980 plus de engins blindés de toute nature (dont pour le pacte de Varsovie), plus de pièces d’artillerie (dont pour le pacte de Varsovie), environ avions tactiques (dont pour le pacte de Varsovie), et 130 divisions (dont 95 pour le pacte de Varsovie). En 1991, à la veille de sa dissolution, le pacte de Varsovie alignait dans la seule zone « ATTU » ("Atlantic To The Urals" - de l'Atlantique à l'Oural), militaires, blindés dont chars de combat répartis en 145 divisions et autres unités. Et la défunte "Nationale Volksarmee" de la RDA ne faisait plus partie du pacte.Le, les anciens membres du pacte de Varsovie (Tchéquie, Hongrie et Pologne) rejoignirent l'OTAN. En 2004, l’Estonie, la Lettonie, la Lituanie, la Bulgarie, la Roumanie, la Slovaquie et la Slovénie, cette dernière n’ayant jamais fait partie de la sphère d’influence de l’URSS, rejoignirent l'OTAN. Ces faits furent très mal perçus par Moscou qui y vit une pénétration occidentale dans sa « sphère d'influence ».
|
Le pacte de Varsovie est une ancienne alliance militaire groupant les pays d'Europe de l'Est avec l'URSS dans un vaste ensemble économique, politique et militaire. Il est conclu le entre la plupart des pays communistes du bloc soviétique par un traité d’amitié, de coopération et d’assistance mutuelle. Nikita Khrouchtchev, qui en fut l'artisan, l'avait conçu dans le cadre de la guerre froide comme un contrepoids à l'Organisation du traité de l'Atlantique nord (OTAN) qui avait vu le jour en avril 1949.
|
xwikis
|
En 1912, afin d'établir une organisation nationale apte à définir des standards industriels communs, l’ (AIEE), aujourd'hui l' (IEEE), invite à se réunir les autres instituts professionnels : Le, l’ (AESC) est créée en tant que coordinateur national américain du processus de standardisation. Son rôle est alors de lutter de manière impartiale contre les imprécisions en matière de conception et de niveau d'acceptabilité des produits et matériels. Les départements américains de la Guerre, de la Marine et du Commerce se joignent cette année-là aux cinq organismes fondateurs. En 1921, la première norme américaine en matière de sécurité (), visant la protection des yeux et têtes des travailleurs industriels, est approuvée. En 1926, l'AESC est animatrice du mouvement orchestré par l'Anglais Charles Le Maistre (secrétaire général de la CEI) qui conduit à la création de l’ (ISA) ; c'est une fédération qui rassemble les instituts de normalisation non gouvernementaux d'une quinzaine de pays, pour l'essentiel européens, avec la participation de l'AESC pour les États-Unis et celle du Japon. L'Association française de normalisation (AFNOR), créée en 1926, y joue un rôle très actif. L'ISA adopte ainsi, sur proposition française, la. L'ISA, très active dans les années 1930, doit cesser son activité au début de la Seconde Guerre mondiale. En 1928, l'AESC prend le nom d'American Standards Association (ASA). Dès le début de la Seconde Guerre mondiale, l'ASA développe les standards militaires () pour encadrer la production américaine dans le cadre de l'effort de guerre (on parlait alors de « »). En 1946, juste après la fin de la Seconde Guerre mondiale, l'ASA, l'AFNOR et la British Standards Institution (BSI) participent à Londres avec les instituts de normalisation de 22 autres pays à la création de l'Organisation internationale de normalisation (ISO). Elle est officiellement créée le. L'ISO succède ainsi à l'ISA et à l'UNSCC, organisation mise en place par les Alliés pendant la Seconde Guerre mondiale. La dénomination « ISO » a été retenue en 1946. Le nom « IOS » () n'a pas été choisi : il aurait donné lieu à des acronymes différents selon les langues (« IOS » en anglais et « OIN » en français). Selon le site de l'ISO, le nom d'ISO a été choisi en raison de son rappel du mot grec signifiant « égal ». Toutefois, le témoignage d'un des participants au choix de ce nom démontre le contraire, l'explication a donc été imaginée après coup. Les fondateurs ont décidé de donner à leur organisation le nom « ISO » (évoquant l' mais ne correspondant pas au nom officiel, et donc officiellement considéré comme un faux acronyme) pour qu'il reste « ISO » quels que soient le pays ou la langue. « iso- » est aussi le préfixe dont le français et l'anglais se servent pour former des mots portant le sens d'égalité.L'ISO comporte 164 membres. Il y a trois différentes catégories de membres : Des accords ont été passés avec le Comité européen de normalisation (CEN) afin de créer une sorte de pacte de « non-agression » entre les deux entités concurrentes et d'éviter des normes redondantes. Pour les pays francophones, les membres sont : l'AFNOR pour la France (Comité membre), l'ILNAS pour le Luxembourg (Comité membre), l'IBN pour la Belgique (Comité membre), le SNV pour la Suisse (Comité membre), le CCN pour le Canada (Comité membre), L'ISO coopère avec la Commission électrotechnique internationale (CEI), responsable de la normalisation d'équipements électriques. La marque concrète la plus importante de cette coopération a été, au milieu des années 1980, la création du Comité Technique Commun sur les technologies de l'information (JTC1) qui a réuni la compétence matérielle détenue par la CEI et la compétence logicielle détenue par l'ISO. Le JTC 1 est le producteur de la plus grande partie des normes concernant l'informatique.L'ISO est divisé en 201 comités techniques (TC), chacun chargé d'un domaine particulier. Voici la liste des comités actifs :Les normes font l'objet d'un processus d'élaboration complexe qui se déroule en cinq phases : Dans les années 1990, sous la pression des développements rapides des technologies de l'information, l'ISO a assoupli le processus d'élaboration des normes, en tenant compte de l'activité des consortiums, dont on a considéré qu'elle ne constituait pas une menace contre le système officiel de normalisation. Plusieurs types de documents normatifs sont aujourd'hui disponibles :Le fonctionnement de l'ISO est l'objet de critiques, notamment suite aux forts soupçons d'utilisation de moyens de pression voire de corruption dans certains pays, tels que l'Allemagne, la Norvège ou la Croatie, par la société Microsoft lors du processus de normalisation du format de documents de bureautique OpenXML afin d'amener les votants à changer de position en faveur des intérêts de Microsoft. Il est également reproché à l'ISO de facturer l'accès à nombre de spécifications, ce qui constitue un problème pour les organisations ou projets aux moyens limités qui souhaiteraient s'y conformer.
|
L'Organisation internationale de normalisation ( ; en ), généralement désigné sous son sigle : ISO, choisi pour être le sigle identique dans toutes les langues — un exemple de normalisation, est un organisme de normalisation international composé de représentants d'organisations nationales de normalisation de 165 pays.
|
xwikis
|
Denis Diderot naît à Langres, dans une famille bourgeoise le et est baptisé le lendemain en l'église Saint-Pierre-Saint-Paul de Langres, la cathédrale étant réservée aux baptêmes de nobles. Ses parents mariés en 1712 eurent six enfants dont seulement quatre atteignirent l'âge adulte. Son père Didier Diderot (1675-1759), maître coutelier, était réputé pour ses instruments chirurgicaux, scalpels et lancettes notamment. Son grand-père Denis Diderot (1654-1726), coutelier et fils de coutelier, s'était marié en 1679 à Nicole Beligné (1655-1692), de la célèbre maison de coutellerie Beligné. Sa mère Angélique Vigneron (1677-1748) était la fille d'un maître tanneur. Diderot était l'aîné dePeu intéressé par la carrière ecclésiastique, ni davantage par l'entreprise familiale et les perspectives de la province, il part étudier à Paris en 1728. Il ne reviendra plus guère à Langres que quatre fois, en 1742, à l'automne 1754, en 1759 et en 1770 et essentiellement pour régler des affaires familiales. Ses premières années parisiennes sont mal connues. De 1728 à 1732, il suit sans doute des cours au collège d'Harcourt puis étudie la théologie à la Sorbonne. En tous cas, le, il reçoit une attestation de l'université de Paris qui confirme qu'il a étudié avecEntre 1740 et 1746, Diderot déménage fréquemment sans jamais s'éloigner du Quartier latin. En 1740 on le trouve rue de l'Observance puis rue du Vieux-Colombier et rue des Deux-Ponts. En 1742, il effectue un premier retour à Langres pour solliciter auprès de son père le droit de se marier. Il essuie un refus. Au début de l'année 1743, s'opposant au mariage qu'il projette malgré son refus et sans doute fatigué des frasques de son fils, son père le fait enfermer quelques semaines dans un monastère près de Troyes. Denis s'en échappe et ayant atteint sa majorité matrimoniale (30 ans à l'époque) en octobre, épouse secrètement en novembre Anne-Antoinette Champion (1710-10 avril 1796) en l'église Saint-Pierre-aux-Bœufs le. Le jeune couple s'installe rue Saint-Victor (1743). La clandestinité du mariage peut laisser penser à un mariage d'amour, mais cette union ne sera pas heureuse longtemps. Diderot oublie rapidement son épouse très éloignée sansLes positions matérialistes de sa "Lettre sur les aveugles à l'usage de ceux qui voient", qui paraît en 1749, achèvent de convaincre la censure que leur auteur, surveillé depuis quelque temps, est un individu dangereux. L'œuvre est condamnée et Diderot est arrêté chez lui, rue de l'Estrapade et emmené au château de Vincennes où il sera incarcéré trois moisÀ l’origine, l’"Encyclopédie" ne devait être que la traduction en français de la "Cyclopædia" d’Ephraïm Chambers, dont la première édition date de 1728, mais Diderot, auteur polygraphe dont la pensée philosophique ne cesse de s'accentuer dans le sens de l'athéisme, du matérialisme, mais aussi de l'évolutionnisme, préfère entreprendre l'œuvre d'une vie. L'année 1747 marque le début des pleines responsabilités de Diderot dans le vaste projet éditorial de l"'Encyclopédie". Il s'installe alors rue de l'Estrapade sur la montagne Sainte-Geneviève. Le "" paraît en 1750 et le premier volume l'annéeÀ partir de 1769, Grimm confie plus largement la direction de la "Correspondance littéraire" à Diderot et Louise d'Épinay. Ce sera l'occasion pour Diderot de développer une activité de critique d'une part littéraire et d'autre part artistique par le biais des neuf salons qu'il rédigera entre 1759 et 1781. La "Correspondance littéraire" sera également le premier mode de diffusion, manuscrit et très restreint, de nombreux textes du philosophe. Au printemps 1769, Diderot devient l’amant de Jeanne-Catherine Quinault (dite madame de Maux, du nom de son mari), nièce de la comédienne Jeanne-Françoise Quinault et amie de Louise d'Épinay. Les divergences avec Rousseau s'affirment depuisDepuis plus de 10 ans, Diderot était invité par Catherine II dont les largesses imposaient la reconnaissance. Peu enclin aux mondanités et d'un caractère casanier, ses obligations éditoriales et familiales incitaient Diderot à reporter le déplacement. Ce n'est qu'en 1773, après avoir terminé l"'Encyclopédie" et conclu le mariage de sa fille qu'il entreprit enfin ce voyage. Diderot effectue ainsi l'unique voyage hors de France de sa vie du au. Ce voyage sera marqué d'un séjour à Saint-Pétersbourg, de ses entretiens avec Catherine II et deux longs séjours à La Haye, dans les Provinces-Unies de l'époque. Diderot avait pris avant son départ les dispositions nécessaires en prévision de son décès éventuel avec son ami Jacques-André Naigeon. Il revint indemne, des projets plein la tête, mais très affaibli ; les conditions du voyage et les rigueurs de l'hiver russe ont pu écourter sa vie de quelques années... À l'aller et au retour de son voyage, Diderot passe deux longs séjours à La Haye, dans les Provinces-Unies. Son "Voyage en Hollande" est une synthèse de ses observations et, surtout, de ses lectures sur le pays.Il séjourne une première fois à La Haye du au, chez l'ambassadeur de Russie Dimitri Alexeïevitch Galitzine et sa femme Amélie Galitzine à l'ambassade deLe 20 août, Diderot et le chambellan de l'impératrice, Aleksei Vasilievich Narychkine, quittent La Haye pour Pétersbourg, passant par Leipzig et Dresde, et arrivent le 8 octobre, Diderot, malade, se décrivant. Il est hébergé dans la maison de son ami le sculpteur Falconet, rue Millionaya, près du palais, mais le fils de celui-ci, rentré un peu plus tôt de Londres, occupe la chambre réservée au philosophe. Finalement, Diderot va passer cinq mois dans la maison de Narychkine. La présentation à l'impératrice a lieu le 15 octobre, lors d'une fête costumée : Diderot portait son costume noir et on lui prêta une perruque. Les entretiens avec Catherine commencèrent les jours suivants et ils eurent lieu trois fois par semaine, entre trois et six heures de l'après-midi,Sur le chemin du retour de Russie, il séjourne à nouveau chez Galitzine, du 5 avril 1774 au 15 octobre 1774 — soit 6 mois et 17 jours. C'est lors de ce séjour, qu'il rencontre l'éditeur Marc-Michel Rey et envisage avec lui une édition complète de ses œuvres qui ne verra pas le jour.Dès son retour, il ralentit progressivement sa vie sociale, sa santé se dégrade et il l’accepte mal. Il multiplie et allonge les séjours à Sèvres, dans la maison de son ami le joaillier Étienne-Benjamin Belle où il vient régulièrement pendant les dix dernières années de sa vie et au château du Grandval (Sucy-en-Brie), chez d'Holbach, parfois en famille. En 1781, il collabore un peu à l"'Encyclopédie méthodique" de Charles-Joseph Panckoucke et Jacques-André Naigeon. À partir de 1783, Diderot met de l'ordre dans ses textes et travaille avec Naigeon à établir trois copies deEn juin 1786, sa bibliothèque et ses archives sont envoyées à Saint-Pétersbourg. Elles n'y recevront pas l’attention accordée à celles de Voltaire : les pertes, les disparitions et l'absence de tout inventaire nuiront également à la connaissanceDiderot a touché à tous les genres littéraires, en s'y montrant souvent novateur.En tant qu'écrivain de fiction, Diderot s'est illustré dans le roman et au théâtre. Dans ces deux genres, malgré une production limitée il est parvenu à marquerÀ partir de 1747, à 34 ans, Diderot dirige et rédige, avec D'Alembert, l"'Encyclopédie ou Dictionnaire raisonné des sciences, des arts etL'abondante activité de critique de Diderot a connu la publication principalement dans la "Correspondance littéraire, philosophique et critique", pour laquelle ilOn conserve de Diderot deux importants corpus de correspondance, outre sa correspondance générale. Le premier concerne les 187 lettres conservées adressées à sonDiderot a entamé sa carrière littéraire par desTravailleur infatigable, sans doute éternel insatisfait, relecteur attentif, toujours prêt à rendre service, par amour, amitié ou obligeance, ou à encourager le débutant, Diderot a consacré une grande énergie aux œuvres d'autrui.Loin de la recherche d'un système philosophique cohérent, Diderot rassemble les idées et les oppose. Son œuvre est donc surtout, plus qu'une exposition de ses idées personnelles, une incitation à la réflexion. Cette démarche, volontaire, se retrouve dans la forme dialoguée qu'il donne à ses œuvres principales ("Le Neveu de Rameau", "Le Rêve de D'Alembert", "Supplément au VoyageDiderot développe souvent ses œuvres à partir du canevas de l'œuvre d'un tiers, pour le commenter - ce n'est d'ailleurs qu'un cas particulier de dialogue. C'est le cas du "Paradoxe sur le comédien" où Diderot développe ses idées sur leLa digression est le principe même de "Jacques le Fataliste" que l'on pourrait centrer sur des amours que Jacques ne raconte jamais et autour desquelles gravitent une série deLa mise en abyme est utilisée par Diderot afin de mener de front l'exposition d'une théorie et son application. "Le Fils naturel" en est un exemple flagrant ; s'y trouvent en effet mêlésChez Diderot, les idées s'effacent quelque peu devant la méthode (voir ci-dessus). Il est moins question d'imposer ses vues personnelles que d'inciter à la réflexion personnelle sur la base de différents arguments, donnés, par exemple, par les intervenants des dialogues. Les idées personnelles de Diderot ont de plus évolué avec l'âge. Plutôt qu'un philosophe, Diderot est avant tout un penseur. Il ne poursuit en effet ni la création d'un système philosophique complet, ni une quelconque cohérence : il remet en question, éclaire un débat, soulève des paradoxes, laisse évoluer ses idées, constate sa propre évolution mais tranche peu. Pour autant, des thèmes apparaissent récurrents dans sa pensée et des orientations générales peuvent être dégagées de ses écrits. Selon Andrew S. Curran, questions centrales à la pensée de Diderot sont les suivantes :La position de Diderot à l'égard de la religion évolue dans le temps, en particulier dans sa jeunesse. Ses parents le vouaient à une carrière ecclésiastique et il reçut la tonsure de l'évêque de Langres. Arrivé à Paris, son parcours académique se fait dans des institutions d'obédience catholique, comme la Sorbonne. C'est au gré de ses lectures que sa foi va s'étioler et qu'il semble évoluer versLa morale est une préoccupation récurrente de Diderot. Le thème apparaît dans ses critiques artistiques (voir ci-dessous), dans son théâtre (voir ci-dessus) etLes contacts de Diderot avec les peintres et leurs œuvres lors des salons parisiens l'amènentSynthèseDiderot s'est peu engagé directement dans les débats politiques de son temps et on ne trouve pas non plus chez lui de traité politique ou d'ouvrage qui synthétise ses idées. Les réflexions et ses idées politiques se découvrent donc à travers sa vie et l'ensemble de son œuvre, jusque dans les écrits esthétiques, en particulier à partir des années 1770. À côté des textes personnels, il faut isoler quelques écrits qui portent sur des questions politiques concrètes ou des projets et qui sont des œuvres de commande - comme la "Première lettre d'un citoyen zélé" (1748), écrite pour M.D.M. (parfois identifié avec Sauveur-François Morand).Lors de son incarcération à Vincennes, Diderot s'était engagé à modérer ses écrits ; et dès sa libération, il s'est effectivement appliqué, non à respecterLes préoccupations importantes de Diderot sont le rejet du despotisme, le rôle de l'enseignement non religieux dans le bonheur, le développement de la société et celui du droit d'auteur — sans porter préjudice à la circulation du savoir.Diderot est également auteur ou coauteur de quelques ouvrages scientifiques. En tant queLa réception de l'œuvre Diderot a une histoire particulière car l'image du philosophe a évolué avec le temps, au gré de la révélation progressive de son œuvre. Cette révélation progressive apparait clairement dans le tableau de synthèse de l'article Œuvres de Denis Diderot. Diderot, de son vivant, s'est montré prudent face à la censure. Après son incarcération de 1749, il ne voulait plus prendre de risque ni en faire courir à sa famille. Il va donc lui-même reporter la publication de certains textes, parfois de plusieurs années après les avoir écrits. Par ailleurs, certains textes ne sont parus que dans la Correspondance littéraire de Grimm. La publication manuscrite de ce périodique ne permettait pas d'assurer une connaissance publique de l'œuvre de Diderot. En 1765, Catherine II de Russie, bibliophile, achète à Diderot sa bibliothèque personnelle en viager contre livres et une pension annuelle de trois cents pistoles. Diderot en garda l'usage et perçoit une rente en tant que bibliothécaire, mais l'accord impliquait que le fond et tous ses manuscrits seraient transférés à Saint-Pétersbourg à sa mort. Ce qui fut fait en juin 1786. Cet éloignement n'a pas favorisé la publication des textes soigneusement cachés par Diderot. De plus, sur place, les documents n'ont pas eu les égards de ceux de Voltaire (transférés dans des circonstances similaires), n'ont pas été catalogués et se sont éparpillés. Certains n'ont réapparu qu'au... De son côté, sa propre fille, catholique et conservatrice, a sans doute, malgré l'admiration qu'elle vouait à son père, cherché à orienter la publication de ses œuvres, « corrigeant » si nécessaire les textes qui ne respectaient pas assez ses valeurs, la bienséance ou les intérêts commerciaux de son mari. Un exemple concret est le grattage systématique des noms de personnes dans les manuscrits de "Ceci n'est pas un conte". Dans d'autres textes, certains noms seront remplacés ou ramenés à leur initiale. Même le fidèle secrétaire, Naigeon n'obtiendra pas sa collaboration pour l'édition des Œuvres complètes qu'il préparait avec Diderot à partir de 1782 et qui ne paraitra qu'en 1800 (voir ci-dessous). Les vicissitudes de l'histoire ont également porté atteinte à l'image de Diderot. En 1796 parait l"'Abdication d'un roi de la fève ou Les éleuthéromanes". Le public tient des passages de ce texte pour responsables de certains excès de la Révolution française et les reproche à Diderot. Ces dispositions n'inciteront ni à l'étude, ni à la publication ni à la découverte de textes durant tout le. Dans la première partie du, les œuvres de Diderot sont toujours contestées et interdites à de nombreuses reprises. On notera que le, à Paris, le Tribunal Correctionnel de la Seine, ordonne la destruction du roman de Denis Diderot "Jacques le Fataliste et son maître" et condamne l'éditeur à un mois de prison. D'autres œuvres de Diderot connaîtront la censure étatique pour outrage à la morale publique dont "La Religieuse" (en 1824 et 1826), où encore les "Bijoux Indiscrets" (en 1835). Il faut en fait attendre le bicentenaire de sa naissance, 1913, pour rencontrer un regain d'intérêt et avoir une vision considérée à l'époque comme complète de ses écrits. Cependant, en 1949, Herbert Dieckmann découvre le fonds Vandeul et permet d'apporter un nouvel éclairage complémentaire, ainsi que des inédits. L'image de Diderot a donc évolué avec le temps en fonction de l'idée que l'on pouvait se faire de l'intégralité de son œuvre. Ses contemporains le connaissaient essentiellement comme l'éditeur de l"'Encyclopédie", le promoteur d'un nouveau genre théâtral (le « drame bourgeois »), l'auteur d'un roman libertin ("Les Bijoux indiscrets") et de quelques textes philosophiques critiqués. Après sa mort, il est assez symptomatique de voir les éditions d'« Œuvres complètes » s'enrichir avec le temps. À l'occasion du tricentenaire de la naissance de Diderot en 2013, sa ville natale, Langres, inaugure la "Maison des Lumières Denis Diderot", seul et unique musée consacré à l'encyclopédiste, bien que ce dernier n'y soit revenu que quatre fois après s'être installé à Paris, en raison notamment des relations conflictuelles avec son frère.Voir aussi : et. L'analyse de l'entourage de Diderot souligne, autant que la diversité de son œuvre, son côté éclectique. Les personnages repris ici n'entretenaient bien sûr pas tous les mêmes rapports avec Diderot : si tous ont eu un impact sur sa vie ou son œuvre, ces contacts ont pu n'être alimentés que sporadiquement ou ponctuellement. Diderot et Rousseau sont amis entre 1742 et 1757 - date de la publication du "Fils naturel". Diderot passe son premier séjour à Granval (Sucy-en-Brie), sur son invitation en 1759. Lettres connues à Voltaire : 11 juin 1749 (Lettre sur les aveugles), 19 février 1758, 28 novembre 1760, 29 septembre 1762, 1766.Diderot lui a manifestement adressé un exemplaire de la "Lettre sur les aveugles à l'usage de ceux qui voient". Voltaire lui répond et marque son intérêt pour l'ouvrage. Voltaire collabore à l'Encyclopédie avec quelques articles. Respect mutuel mais l'éventuelle unique rencontre, en 1778,Étienne Maurice Falconet, Anna Dorothea Therbusch, Charles van Loo, Jean-Honoré Fragonard, Claude Joseph Vernet (qui lui offre son tableau "Fin de tempête" en 1768), Allan Ramsay (rencontré en septembre 1765). MalgréIl existerait (ou aurait existé) un portrait d'elle par Jacques Augustin Catherine Pajou et Louis Léopold Boilly. Claveciniste talentueuse, son père lui rapportera des partitions inédites de Carl Philipp Emanuel Bach, rencontré à Hambourg en revenantLe monde politique n'est pas représenté dans les proches de Diderot (voir ci-dessous ses écrits en ce domaine). Toutefois, Diderot a pu profiterN'ayant pas vraiment eu d'ennemis personnels, les opposants de Diderot sont essentiellementBien qu'il ne semble pas avoir été initié, Diderot est entouré de francs-maçons : Louis de Jaucourt, André Le Breton, Montesquieu, Jean-Baptiste Greuze, Claude-AdrienDiderot fut par ailleurs lié à Jacques-Henri Meister, Galiani, Damilaville, d'Holbach, Guillaume Le Monnier, l'abbé Raynal, André Le Breton, madame Geoffrin qui lui offre fin 1768 la trop luxueuse robe de chambre qui lui fera regretter l'ancienne, l'orfèvre Étienne-Benjamin Belle, chez qui il fera quelques séjours (à Sèvres), David Garrick, Roland Girbal (son copiste), la princesse de Nassau-Sarrebruck, Julie de Lespinasse (amie de D'Alembert, qui s'offusquera d'être un personnage du "Rêve de d'Alembert"), Suzanne Curchod, Jacques-André Naigeon, Jean Jodin, Léger Marie Deschamps, moine bénédictin,Diderot était un sédentaire.Devenu célèbre grâce à l"'Encyclopédie", Diderot a souvent été représenté en peinture ou en sculpture à partir des années 1760. Voici une liste chronologique – dont il est difficile de garantir l'exhaustivité – des portraits de Diderot effectués "de son vivant" et parfois, quand l'original fait défaut, les gravures qui en découlèrent. Cet aperçu participe à la connaissance de sa réception. Les références sont complétées par l'avis du modèle sur son image, quand il nous est connu. Jean-Baptiste Garand, 1760. Claude Bornet, portrait, 1763. Carmontelle, "Grimm et Diderot", dessin à la mine de plomb et aquarelle, 1760. Étienne Maurice Falconet, buste, antérieur à 1767. Marie-Anne Collot, différents bustes antérieurs à 1767. Louis Michel van Loo, portrait, 1767. Louis Michel vanOn ne reprend ici que les ouvrages généraux qui évoquent la vie de Diderot ou son œuvre dans une vision transversale ou thématique. Les ouvrages qui évoquent un texte en particulier trouvent leur place dans l'article qui lui est consacré. De nombreux ouvrages du début du ont été réédités dans les années 1960. Les ouvrages qui évoquent l'Encyclopédie sont rassemblés dans la bibliographie de l'article qui lui est consacré. Voir aussi : la bibliographie des Lumières.
|
Denis Diderot, né le à Langres et mort le à Paris, est un écrivain, philosophe et encyclopédiste français des Lumières, à la fois romancier, dramaturge, conteur, essayiste, dialoguiste, critique d'art, critique littéraire et traducteur.
|
xwikis
|
En 1969, Ken Thompson qui travaillait alors pour les laboratoires Bell développa la première version d'un système d'exploitation mono-utilisateur sous le nom de "New Ken's System". Il réalisa ce travail sur un mini-ordinateur PDP-7 ("Programmed Data Processor") de marque DEC animé par General Comprehensive Operating System et rédigea le nouveau logiciel en langage d'assemblage. Le nom Unics fut suggéré par Brian Kernighan à la suite d'un jeu de mots « latin » avec Multics ; « Multi- car Multics faisait la même chose de plusieurs façons alors qu'Unics faisait chaque chose d'une seule façon ». Ce nom fut par la suite contracté en Unix (pour être déposé finalement sous le nom UNIX par AT&T), à l'initiative de Brian Kernighan. Un jugement d'expédient datant de 1956 interdisait à l'entreprise AT&T, dont dépendait Bell Labs, de commercialiser autre chose que des équipements téléphoniques ou télégraphiques. C'est la raison pour laquelle la décision fut prise en 1975 de distribuer le système Unix complet avec son code source dans les universités à des fins éducatives, moyennant l'acquisition d'une licence au prix très faible. En 1971, conscient de la difficulté que représente la maintenance d'un système écrit en langage d'assemblage, Ken Thompson songea à réécrire Unix en TMG, mais il trouva que le TMG n'offrait pas ce dont il avait besoin. Pendant une courte période il songea à réécrire Unix en Fortran, mais finalement conçut le B avec l'aide de Dennis Ritchie dans les années 1969 et 1970, en s'inspirant du langage BCPL. Cependant Unix ne fut jamais réécrit en B ; le B ne supportait pas les types, toutes les variables étaient de la même taille que les mots de l'architecture, l'arithmétique sur les flottants n'était pas implémentée ; de plus, le compilateur B utilisait la technique du. C'est pourquoi Dennis Ritchie entreprit en 1971 d'écrire le "New B", qui fut renommé en C. Le langage C est toujours l'un des langages les plus utilisés aujourd'hui. Ken Thompson et Dennis Ritchie présentent le premier article sur Unix au Symposium on Operating Systems Principles à l'université de Purdue en 1973. Le professeur Bob Fabry de l'université de Californie Berkeley (UCB), alors dans l'auditoire, est immédiatement intéressé et en Keith Standiford, étudiant de, installe la "Version 4" à l'UCB, distribuée sur bande magnétique. Début 1975, Ken Thompson passe une année comme professeur invité à son "alma mater", l'UCB. Avec Jeff Schriebman et Bob Kridle, ils mettent sur pied la. C'est à ce moment qu'Unix commença à être diffusé hors des laboratoires Bell. À l'automne 1975, Bill Joy et Chuck Haley, alors en second cycle, s'intéressent au nouveau système et implémentent l'éditeur en ligne "ex" en Pascal, et finissent par explorer le fonctionnement du noyau au moment du départ de Ken Thompson. Le développement fut également rejoint par Alan Snyder, Steven C. Johnson, Michael Lesk dans cette période allant de 1973 à 1977. Au début de cette dernière année, Bill Joy réalise la première distribution dite "Berkeley Software Distribution" (BSD). Plus tard, avec l'arrivée de nouveaux terminaux, il écrit vi (l'éditeur visuel), une surcouche de "ex". L'été 1978, la "Second Berkeley Software Distribution" ou 2BSD voit le jour. Parallèlement, les concepts de datagramme et d'informatique distribuée émergent, avec Arpanet, le réseau Cyclades et la Distributed System Architecture, devenue en 1978 le modèle OSI-DSA. Plus de communications entre les machines des différents centres de recherche démontre l'utilité de systèmes d'exploitation ouverts et convergents, ce qui deviendra une nécessité avec les premières stations de travail incluant TCP/IP de Sun Microsystems, créée par Andy Bechtolsheim, Bill Joy, Vinod Khosla et Scott McNealy. Puis en, Bill joy distribue 3BSD, la première distribution à supporter les ordinateurs VAX de DEC. C'est également cette année que sort la, qui s'accompagne de nombreuses modifications notables telles que l'extension à de la taille maximale d'un fichier, l'ajout de plusieurs utilitaires, et surtout une plus grande "portabilité" du système, c'est-à-dire qu’il devient plus facile de le modifier afin qu'il fonctionne sur d'autres plates-formes matérielles. C'est à cette époque que le premier grand portage d'Unix, la, fut réalisé, sur un.Dès la fin de l'année 1977, des chercheurs de l'université de Californie apportèrent de nombreuses améliorations au système Unix fourni par AT&T et le distribuèrent sous le nom de Berkeley Software Distribution (ou BSD). Ainsi BSD fut par exemple le premier système Unix à exploiter pleinement le mécanisme de mémoire virtuelle paginée du VAX 11/780. Trois branches principales de développement des sources virent le jour : Ces branches se sont mutuellement empruntées du code et/ou des concepts. Ainsi :Lors de la publication de 3BSD à la fin des années 1970, la Defense Advanced Research Projects Agency (DARPA) prend connaissance des avancées réalisées à l'UCB. Ils ont l'intention d'utiliser Unix pour leurs projets. De nombreux ingénieurs espèrent alors la création de standards innovants face au monopole IBM. En automne de cette même année, Bob Fabry propose à la DARPA une version augmentée de 3BSD pour répondre à leurs besoins. Un contrat de est signé en, et Bob Fabry rassemble une équipe. Bill Joy, qui vient juste de soutenir sa thèse de doctorat, se propose d'y participer. Les versions se succèdent jusqu'à 4.1BSD. Satisfaite, la DARPA signe pour deux ans supplémentaires et le budget est presque multiplié par cinq. Le nombre de personnes impliquées croît vite. Le "steering committee" est formé pour aider à définir l'évolution du système. Ce groupe se réunit deux fois par an entre et, et comprend en particulier Bob Fabry, Bill Joy et Sam Leffler de l'UCB, Dennis Ritchie des Bell Laboratories, Duane Adams et Bob Baker de la DARPA, ainsi que du personnel et des élèves de plusieurs autres universités, en particulier Stanford, Carnegie-Mellon et l’université de Californie à Los Angeles. À partir de, ce sont des ateliers réunissant bien plus de personnes qui prennent le relais. C'est Rob Gurwitz qui publie la première implémentation des protocoles TCP/IP, les protocoles de l'Internet d'aujourd'hui. Bill Joy l'intègre au système et ajuste les performances. Cette implémentation est considérée par beaucoup comme l'implémentation de référence. Elle est reprise plus tard par Microsoft pour le système d'exploitation Windows, ce qui est possible grâce à la licence BSD très permissive sous laquelle BSD est publié. Vers la fin de l'été 1982, Bill Joy annonce qu'il rejoint Sun Microsystems, et Sam Leffler prend la suite du projet. En, 4.2BSD est publié ; c'est la première version qui inclut la nouvelle pile TCP/IP. Sam Leffler quitte l'UCB pour Lucasfilm et Mike Karels le remplace. 4.2BSD est alors très populaire et est plus vendue que toutes les autres distributions réunies, et que le System V d'AT&T, en particulier parce que ce dernier n'avait ni la communication par réseau ni le système de fichiers FFS (Berkeley Fast Filesystem). À la conférence Usenix de 1985, 4.3BSD est annoncé. De nouvelles architectures matérielles deviennent supportées, et, avec la version 4.3-Tahoe, le noyau est scindé en parties dépendantes et indépendantes du matériel.Début 1992, Unix System Laboratories (USL), composante d'AT&T chargée de développer et vendre Unix, commence à poursuivre Berkeley Software Design, Incorporated (BSDI), mise en place pour développer et vendre une version commerciale. Le procès n'aboutit pas comme le souhaitait USL qui lance alors un autre procès contre BSDI et l'UCB. USL est vendu par AT&T à Novell. En, un accord est trouvé : En, FreeBSD 2.0 sort avec les nouveaux fichiers de Net/2, alors appelée 4.4BSD-Lite, et des éléments de 386BSD. Jusqu'à 4.3BSD-Tahoe, la licence AT&T s'applique toujours aux sources, qui sont toujours distribuées. Les utilisateurs ne sont pas des utilisateurs passifs mais participent activement au développement et améliorent progressivement le code original d'AT&T. La licence d'AT&T sur les sources étant devenue excessivement chère, les dernières sources originales ont été nettoyées du code d'AT&T, et en, la première BSD libre, la "Networking Release 1" ou Net/1 est publiée. La licence est volontairement très libérale : le logiciel peut être redistribué ou vendu, avec ou sans modification des sources, sous forme binaire (compilée) ou non. Les notices de copyright dans les sources doivent être laissées intactes, et la documentation doit mentionner l'origine du code (l'université de Californie à Berkeley, UCB). Net/1 alors coûte à l'UCB pour la bande magnétique qui le transporte, et est mis à disposition par connexion FTP (file transfert protocol) anonyme (pas de mot de passe requis). Le système de mémoire virtuelle du système d'exploitation MACH de l'université Carnegie-Mellon est importé, et 4.3BSD-Reno sort début 1990.L'incompatibilité grandissante entre les nombreuses variantes d'Unix proposées par les différents éditeurs pour les différentes machines porte peu à peu atteinte à la popularité et à la diversité des systèmes Unix. De nos jours, les systèmes Unix propriétaires, longtemps majoritaires dans l'industrie et l'éducation, sont de moins en moins utilisés. En revanche, trois systèmes de type Unix basés sur BSD (FreeBSD, NetBSD et OpenBSD) d'une part, et le système GNU/Linux, compatible Unix, d'autre part, ainsi que macOS (anciennement OS X, basé sur Darwin), occupent une part de marché de plus en plus importante, permettant à Unix de concurrencer l'autre grande famille d'OS (propriétaire), Windows NT.Bill Jolitz à partir de "Networking Release 2" publie 386/BSD, destiné à une architecture PC (386), mais est vite débordé quant à sa maintenance. Quelques mois après sa publication, des utilisateurs de 386BSD forment le groupe NetBSD, et rassemblent leurs ressources pour maintenir et améliorer ce système. Leurs objectifs sont alors de faire en sorte que NetBSD fonctionne sous n'importe quel matériel. Le public cible de NetBSD est des développeurs-administrateurs de haute technicité. Encore quelques mois plus tard, le groupe FreeBSD se forme et décide lui de se focaliser sur l'architecture PC. En, grâce au soutien de Walnut Creek CDROM, FreeBSD 1.0 est publié. Le projet OpenBSD est créé en 1995 à la suite d'un désaccord entre l'un des développeurs de NetBSD, Theo de Raadt, et les autres membres du projet. Il se focalise sur la sécurité informatique.GNU est un système d'exploitation lancé en 1983 par Richard Stallman dans le but de fournir un équivalent d'Unix composé uniquement de logiciel libre. Bien que compatible avec Unix, GNU s'en démarque notamment par sa grande utilisation du Lisp. En 1991, alors que le noyau de GNU, le Hurd traînait à être opérationnel, fut créé le noyau Linux "(voir ci-dessous)" qui sortit en 1992. Cela permit d'utiliser pour la première fois un système d'exploitation entièrement libre, une variante de GNU utilisant le noyau Linux connue sous le nom de GNU/Linux, ou plus couramment, simplement Linux. GNU et GNU/Linux sont utilisés sous la forme de distributions qui les accompagnent de logiciels supplémentaires. Parmi les distributions les plus populaires, on compte notamment Debian, Ubuntu, Linux Mint, Red Hat, Fedora et Arch. Parmi ces six distributions, seules deux proposent, à la place de Linux, l'utilisation du Hurd : Debian et Arch. De plus, Debian propose d'utiliser deux noyaux issus de la famille des BSD avec les distributions Debian GNU/kFreeBSD et Debian GNU/NetBSD.En 1991 un étudiant finlandais, Linus Torvalds, décida de concevoir, sur le modèle de Minix, un système d'exploitation capable de fonctionner sur les architectures à base de processeur Intel 80386. Le noyau, qui était alors au stade expérimental, devait être généré sur un système Minix. Le nom de Linux vient de la personne qui hébergeait le projet pour sa diffusion (version 0.0.1) et non d'un choix de Linus. Il voulut un temps rebaptiser son système "Freax", mais il était trop tard, Linux s'était déjà imposé auprès des aficionados. Linux ne contient aucun code provenant de UNIX, il en est juste inspiré, et complètement réécrit. D'autre part, Linux est un logiciel libre.Linux lui-même n'étant qu'un noyau, il nécessite d'être accompagné d'autres logiciels pour former un système d'exploitation. Une des possibilités les plus populaires est l'utilisation de Linux en tant que noyau du système d'exploitation GNU pour constituer un système désigné sous le nom "GNU/Linux" ou simplement "Linux". Plusieurs entreprises ou associations distribuent Linux et GNU accompagnés d'un ensemble cohérent de logiciels ; on appelle distribution Linux un tel système.Android est un système d'exploitation pour terminaux mobiles développé par une startup du même nom et racheté par Google. Il est basé sur le noyau Linux et la machine virtuelle Dalvik ou à partir de Android KitKat: Android Runtime (ART).Unix est à l'origine de macOS (précédemment Mac OS X), l'actuelle version du système d'exploitation d'Apple. macOS, comme Darwin est basé sur le noyau XNU, un dérivé du micro-noyau Mach. En, la version 10.5 ("Leopard") de Mac OS X sur Intel a reçu la certification UNIX 03 de l'Open Group.Dès 1977, AT&T mit les sources d'Unix version 6 à la disposition d'autres entreprises. Ainsi, tandis que l'opérateur téléphonique poursuivait ses développements avec la version 7 puis le System V, un grand nombre de dérivés d'Unix furent développés :Au milieu des années 1980, un professeur américain installé aux Pays-Bas, Andrew Tanenbaum, développa un système d'exploitation minimal, baptisé Minix, afin d'enseigner les concepts des systèmes d'exploitation à ses étudiants ; la première version fut publiée en 1987, et était accompagnée d'un livre détaillant la conception du système. Un projet similaire nommé XINU (pour "Xinu Is Not Unix") fit aussi son apparition dans les années 1980 sous la direction de Douglas Comer.Le grand nombre de variantes d'Unix, chacune ayant ses spécificités, permet aux systèmes Unix d'être utilisés dans un grand nombre d'environnements différents.Plusieurs systèmes d'exploitation pour appareils mobiles (smartphones, tablettes, PDA...) sont des systèmes Unix. On peut citer en particulier iOS et Android, qui se partagent plus de 85 % du marché des smartphones.Depuis, Linux est le seul système d'exploitation utilisé par les 500 supercalculateurs les plus puissants du monde. Les autres systèmes Unix équipaient encore quelques-uns de ces ordinateurs en 2016. Entre 1995 et 2000, les systèmes Unix autres que Linux (notamment Berkeley Software Distribution, Solaris, AIX, UNICOS et HP-UX) équipaient plus de 90 % de ces ordinateurs.Seules quelques versions d'Unix produites par de grands constructeurs de stations de travail et de serveurs subsistent aujourd'hui : La philosophie des constructeurs de stations et serveurs Unix a été au départ de développer un système d'exploitation pour pouvoir vendre leurs machines, en y ajoutant si possible un petit « plus » pour se démarquer de la concurrence. C'était oublier que les parcs Unix sont le plus souvent hétérogènes et que toute différence d'une machine à l'autre, même créée avec la meilleure intention du monde, menace l'interopérabilité donc constitue un risque réel de contre-productivité car contraignent les informaticiens à de nombreuses manipulations fastidieuses afin d'interconnecter les systèmes. C'est une des raisons pour lesquelles nombre de ces constructeurs proposent désormais le système GNU/Linux avec leurs serveurs. Toutefois, les différences entre les différentes distributions Linux posent souvent les mêmes problèmes, quoiqu'à un niveau moindre. Certains logiciels de conception assistée par ordinateur ont longtemps été disponibles pour des stations de travail Unix uniquement, mais, ce marché se réduisant, sont également devenus disponibles pour d'autres systèmes. C'est par exemple le cas de CATIA, utilisé notamment par des grands constructeurs industriels comme Dassault Aviation, PSA Peugeot Citroën ou Boeing, qui fonctionne sous Microsoft Windows depuis la dont la version Unix a été abandonnée depuis la.Les systèmes Unix ont en commun plusieurs concepts développés dès les premières versions d'Unix aux laboratoires Bell.Unix a initialement été conçu pour disposer de nombreux petits programmes, chacun effectuant un nombre limité de tâches, le plus souvent une seule, agissant le plus souvent sur des flux de texte et pouvant être interconnectés par le biais de pipes. Cette idée était relativement novatrice au début des années 1970, et a contribué au succès rapide d'Unix chez les programmeurs. Les systèmes Unix disposent d'un grand nombre d'interpréteurs de commandes, appelés shells Unix. On peut notamment citer sh, bash et tcsh.Une autre particularité d'Unix est de considérer un grand nombre d'objets comme des fichiers : dès les premières versions d'Unix, les périphériques d'entrée-sortie sont gérés comme des fichiers d'un type spécial. Cela permet par exemple, au niveau applicatif, d'écrire sur une bande magnétique de la même façon que sur un fichier standard qui serait stocké sur le disque. Unix dispose d'un système de fichiers hiérarchique, qui supporte certaines fonctionnalités comme les liens symboliques, permettant de rediriger un fichier sur un autre, et un système de permissions permettant de donner des autorisations différentes au propriétaire du fichier, aux utilisateurs de son groupe, et aux autres utilisateurs. Au contraire de nombreux autres systèmes (comme Microsoft Windows ou Mac OS Classic par exemple), qui disposent d'une racine de système de fichiers indépendante par périphérique de stockage ou par partition, le système de fichiers d'Unix a une unique racine, et les autres périphériques de stockage sont accessibles par des points de montage dans le système de fichiers. Par exemple, le dossier /home, qui contient les fichiers personnels des utilisateurs, est fréquemment stocké sur un périphérique ou une partition différente de la racine ; une fois ce périphérique montée sur le dossier /home, les demandes de fichiers situés dans /home seront redirigés vers ce périphérique. L'organisation de l'arborescence du système de fichiers est définie par certaines conventions qui existent depuis la version 7 d'Unix, où est apparue la page de manuel qui la décrit. Le Filesystem Hierarchy Standard tente d'harmoniser les différences qui ont pu se développer, en particulier entre les différentes versions de Linux.Le grand nombre de systèmes Unix développés sur la base du System V de AT&T ou bien de BSD conduisit des membres du groupe d'utilisateurs "/usr/group", qui a pris depuis le nom de UniForum, à forger un standard UNIX dès 1980 afin d'assurer une portabilité maximale entre les différents systèmes : Aujourd'hui, la marque déposée UNIX est détenue par l'Open Group. Pour obtenir l'autorisation d'utiliser officiellement cette marque pour un système d'exploitation, il faut que celui-ci soit conforme à la Single UNIX Specification.
|
Unix, officiellement UNIX (parfois écrit « Unix »), est une famille de systèmes d'exploitation multitâche et multi-utilisateur dérivé du Unix d'origine créé par AT&T, le développement de ce dernier ayant commencé dans les années 1970 au centre de recherche de Bell Labs mené par Kenneth Thompson. Il repose sur un interpréteur ou superviseur (le "shell") et de nombreux petits utilitaires, accomplissant chacun une action spécifique, commutables entre eux (mécanisme de « redirection ») et appelés depuis la ligne de commande.
|
xwikis
|
Václav Havel naît au sein d'une famille de la bourgeoisie praguoise :. Après la libération du pays de l’occupant nazi par l'Armée rouge et l'arrivée au pouvoir des communistes en 1948, sa famille est dépossédée de ses biens et accusée d'avoir collaboré avec les nazis. Ses parents seront obligés de travailler comme ouvriers dans l'usine qu'ils avaient créée. À partir de son adolescence, le jeune Václav s'intéresse beaucoup à la poésie, et écrit de nombreux poèmes, ce qui surprend beaucoup son père. Après la fin de sa scolarité obligatoire, en 1951, le jeune Havel se trouve, comme la plupart des membres de l'élite, taxé d'« ennemi de classe » et donc interdit d'études par le régime. Il ne peut ainsi entrer à l'université pour suivre les études de littérature et de cinéma comme il le souhaitait. À la fin de la guerre, il découvre le scoutisme, qui le marque profondément. Dès ses quinze ans, il forme un groupe avec des amis, tous nés en 1936, qu'ils appellent « les trente-six ». Ils organisent des rencontres et des séminaires dans lesquels ils discutent très librement de l'oppression du régime socialiste, recherchent avidement des ouvrages d'auteurs interdits, et publient une revue dactylographiée, sans avoir conscience que ce qu'ils font est extrêmement dangereux : s'ils avaient eu dix-huit ans et avait été découverts, ils se seraient retrouvés en camp de concentration stalinien ou condamnés à mort. C'est grâce à l'un des membres de ce groupe qu'il découvre Franz Kafka, auteur interdit à l'époque (il sera autorisé à partir de 1963), qui restera durant toute sa vie son auteur préféré et la principale source d'inspiration de son œuvre théâtrale. Cette marginalisation sociale lui est d'ailleurs imposée alors qu'il refusait déjà lui-même d'être reconnu plus pour sa « position sociale favorable » que pour son esprit. Pendant quatre ans, alors qu'il est apprenti-technicien dans un laboratoire de chimie, Havel assiste à des cours du soir, complétant ainsi sa formation pré-universitaire qui lui permet d'entreprendre des études d'économie à l'École technique supérieure de Prague, bien qu'il eût préféré entrer à la Faculté de cinéma de l'Académie des arts de Prague (où enseignait Milan Kundera), ce qui s'est révélé impossible à cause de son origine sociale. Encouragé par tradition familiale à s'intéresser aux valeurs humaines de la République tchécoslovaque, Václav Havel commence dès l'âge de dix-neuf ans à publier articles et nouvelles, en particulier dans des revues liées au théâtre.Pendant son service militaire, Václav monte avec deux de ses amis, Andrej Krob et Karel Brynda (plus tard dramaturge principal du théâtre d'Ostrava), l'ensemble théâtral de son régiment, avec une pièce attribuée à Pavel Kohout (qui en réalité n'existe pas : ce sont les trois amis eux-mêmes qui ont écrit la pièce) intitulée "Les nuits de septembre", dans laquelle Havel joue le rôle d'un brigadier négatif. Cela permet à leur groupe d'amis de fuir la monotonie du service militaire, et d'aller dans des festivals, où ils rencontrent un certain succès. La pièce est jugée trop dangereuse pour l'esprit de l'armée, et le groupe doit renoncer aux médailles et aux prix. Après son service militaire, il travaille comme éclairagiste au théâtre ABC, puis plus tard, dès 1960, au théâtre sur la Balustrade ("Divadlo na zábradlí"). Il y rencontre Olga Havlová, comédienne, qu'il épouse en 1964. Ce deuxième théâtre produit sa première pièce, "la Fête en plein air (Zahradní slavnost)" (1963), une pièce présentant d'une remarquable manière la forte régénération des tendances qui prévalaient dans la culture et la société tchèque dans les années 1960 et qui a culminé lors du Printemps de Prague de 1968. Pour lui, son action dans la vie publique et culturelle est un moyen de promouvoir son idéal démocratique. Pour vivre, il travaille en parallèle comme manœuvre dans une brasserie industrielle. Václav Havel est d'abord inspiré par le théâtre de l'absurde et l'héritage kafkaïen, puis sa parole dissidente prend le dessus. Le grand nom qu'il s'est fait dans les années 1960, grâce à son œuvre dramatique, et à la censure que lui impose le régime politique, font que, dans les années 1970, Havel entre résolument dans la dissidence, pour rédiger un vibrant plaidoyer politique en faveur des droits de l'homme : le manifeste de la Charte 77.Après l'invasion de la Tchécoslovaquie par les troupes soviétiques en 1968, qui marque la fin du processus de libéralisation du Printemps de Prague, Václav Havel n'a pas abandonné ses convictions, dont il trouvait inspiration dans les écrits de Jan Patočka et de Martin Heidegger, comme de nombreux dissidents tchèques de son époque. Il a été président du "Cercle des écrivains indépendants", puis membre actif au sein du club des "Sans-parti engagés". Son engagement lui coûte une censure de ses pièces : en 1971, ses pièces sont interdites. En 1974, il travaille dans une brasserie. La communauté internationale remarque ce dissident, notamment en raison de sa lettre ouverte adressée au président Gustáv Husák, en 1975, où il dénonce la situation de la société et la responsabilité du régime politique. Il est perçu dès lors comme un représentant de l'opposition intellectuelle tchécoslovaque. En tant que citoyen, il proteste contre l'oppression intense qui marque ce que la gauche au pouvoir nomme la « normalisation ». En 1977, il est l'un des cofondateurs, et l'un des trois porte-paroles de la « Charte 77 », une organisation de défense des droits de l'homme en Tchécoslovaquie. Son action le mène en prison à trois reprises : il y passe au total près de cinq ans, entre 1977 et 1989. Il y écrit, en 1978, un essai,, dans lequel il analyse les mécanismes de la mauvaise raison d’État qui prive selon lui les citoyens ordinaires de toute capacité d'influer sur le cours réel de leur vie : mécanismes qui conduiraient à la résignation des individus et aussi à leur démission morale, stérilisant en fait la dynamique sociale. Derrière cette analyse, il veut démontrer la force de la résistance morale et de la vie. Cet essai obtient un impact non seulement chez les dissidents tchécoslovaques, mais aussi dans les mouvements d'opposition des autres pays socialistes. Le il est invité, avec huit autres dissidents, à un petit-déjeuner avec le président français François Mitterrand. Il est arrêté le pour un rassemblement interdit en mémoire de Jan Palach, et est condamné le, à neuf mois de prison. Il est finalement libéré le après avoir purgé la moitié de sa peine.En, à cause de ses séjours répétés en prison pour ses écrits politiques, Václav Havel est un dissident très connu de l'opinion publique et est spontanément placé par la foule à la tête du mouvement « Forum civique », une association unie des mouvements d'opposition et d'initiative démocratique. Sa présence et ses interventions dans les manifestations attirent des foules de plus en plus nombreuses. Il devient alors un personnage clé de la révolution de Velours, qui culmine du au. Ainsi, quand il prend la parole au cours d'une manifestation, la foule crie, soit (siège de la présidence).En, Václav Havel est investi par un courant d'opinion unanime et n'a donc aucune difficulté à évincer l'ancien secrétaire général du PC, Alexander Dubček, qui doit se contenter de la présidence de l'Assemblée fédérale. Après la démission du président Gustáv Husák, en attendant des élections parlementaires, Havel est élu président intérimaire de la Tchécoslovaquie, par l'Assemblée fédérale, composée pourtant à 80 % de députés communistes. Le nouveau président n'envisageait pas du tout l'accès à ce poste les jours précédant la chute du régime et dut se faire un peu prier. Il finit par accepter cette fonction à titre intérimaire : aussi, son mandat devait expirer quarante jours après les premières élections parlementaires libres qui devaient suivre. Mais, comme Havel l'a lui-même rappelé, « l'intérim a duré » : les parlementaires élus démocratiquement le reconduisirent à la présidence de la République en. En tant que président de la République fédérale tchèque et slovaque, il rencontre très vite tous les chefs des États européens, ainsi que les présidents des États-Unis, de l'URSS et de nombreux autres pays. Son action sur la scène internationale permet au pays d'avoir de nouvelles relations avec l'extérieur. En politique intérieure, Václav Havel conduit de grands changements démocratiques dans l'administration du pays et dans la démocratisation de la société. Il est reconnu comme un président non partisan, indépendant de tout parti politique, et une autorité essentielle sur la scène politique ainsi que dans les relations entre Tchèques et Slovaques. Le, Havel démissionne de ses fonctions présidentielles, lorsque la partition entre Tchèques et Slovaques devient inéluctable, partition à laquelle il a été longtemps opposé. Après son retrait, il délaisse la vie publique pendant deux mois. En, il tombe d'accord avec la proposition du gouvernement : que le président soit élu par les deux Chambres du Parlement, qu'il ne puisse pas être révoqué par celui-ci et qu'il ait le droit de le dissoudre. En retour, en, Václav Havel est élu président de la nouvelle République tchèque indépendante, devenant le premier détenteur de cette fonction. Son proche collaborateur est Ivan Medek, qui devient chef du bureau présidentiel. Grand fumeur, il est opéré, en 1996, d'un cancer du poumon, dont il se rétablit. Réélu en 1998, pour un nouveau mandat de cinq ans, il laisse le pouvoir présidentiel à son ancien président du gouvernement, Václav Klaus, en. Václav Havel est partisan de la guerre d'Irak, lancée par George W. Bush. Dans les derniers jours de sa présidence, il signe « la lettre des huit » avec sept autres dirigeants européens, soutenant l'Administration Bush dans sa décision d'envahir l'Irak.Si à l’étranger, il bénéficie d’une grande popularité, dans son pays son étoile pâlit un peu. Les Tchèques lui reprochent son remariage rapide après le décès, en 1996, de sa femme Olga Havlová, avec Dagmar Veškrnová, une actrice de dix-sept ans sa cadette, ainsi que la récupération d'une grande partie de l'important patrimoine immobilier confisqué à sa famille par les communistes. En novembre et, Václav Havel passe huit semaines aux États-Unis pendant lesquelles il donne des conférences et des cours magistraux à l'université Columbia et participe à un entretien public avec l'ancien président Bill Clinton. À la suite de ce séjour, il publie "À vrai dire" ("Prosím stručně"), un recueil d'entretiens avec Karel Hvížďala, qui est présenté comme ses Mémoires. Il y raconte les anecdotes de son quotidien lors de sa présidence et la difficulté pour un homme de lettres de se conformer aux protocoles du pouvoir. Il montre également que, malgré la chute du bloc soviétique et l'arrivée de la liberté politique, son pays n'est toujours pas libéré sur le plan économique ; il est très critique envers le capitalisme financier, qui méprise les hommes, les pays et leur histoire. Pour lui, une société ignorante de son passé, qui ne fait que courir vers la télévision et les grands magasins, court vers l'abîme. Il publie, en 2007, "Partir" ("Odcházení"), une pièce sur l'abandon du pouvoir. D'abord prévue pour le Théâtre national, elle est finalement proposée au théâtre de Vinohrady, dans laquelle joue Dagmar Havlová, l'épouse de l'ancien président. En 2008, en pleine polémique sur le déploiement du bouclier antimissile des États-Unis sur le territoire tchèque, il fait preuve d'atlantisme en déclarant :. De santé fragile, V. Havel connaît des problèmes pulmonaires, à la suite d'une pneumonie mal soignée pendant ses années de prison et de son cancer du poumon en 1996. Il souffre de bronchite chronique et de problèmes cardiaques. En, il est hospitalisé et contraint de rester les mois suivants dans sa maison de campagne, dont il sort peu. Il trouve tout de même la force de rencontrer le dalaï-lama, de passage à Prague, et de signer une pétition pour que l'opposition russe s'unisse contre Vladimir Poutine, après les élections controversées du. Václav Havel meurt dans son sommeil, d'une insuffisance respiratoire, le, dans sa maison de campagne de Hrádeček, commune de Vlčice, située à à l'est-sud-est de Prague. Depuis 2012, le principal aéroport tchèque est nommé aéroport de Prague - Václav Havel.Le gouvernement tchèque a décrété un deuil national de trois jours (les 21, 22 et ), pour que les Tchèques puissent rendre hommage à leur ancien président. Une journée de deuil national a également été décrétée par le gouvernement slovaque le.Des funérailles d'État se sont tenues le 23 décembre, à la cathédrale Saint-Guy du château de Prague, sous la présidence de l'archevêque de Prague, Dominik Duka. Plusieurs ambassadeurs, ministres, chefs d'État et de gouvernement ainsi que d'autres dignitaires nationaux et étrangers furent présents, dont :Il est membre honoraire du Club de Rome et membre d'honneur du Club de Budapest dont il fut le premier à recevoir le prix Conscience planétaire en 1996.Connu pour son sens aigu de l'absurde et de l'autodérision, Václav Havel choisit parmi ses premières décisions, au printemps 1990, de nommer comme ambassadeur à Moscou, le fils de l'ancien secrétaire général du Parti communiste tchécoslovaque, Rudolf Slánský, pendu en 1952, sur pression de Staline, le dissident. La presse de Prague qualifia cette décision de meilleur exemple de l'humour tchèque. Quand le pape Jean-Paul II vint en visite officielle à Prague, juste après la révolution de Velours, le président Havel, pourtant catholique non-pratiquant, se confessa à lui et cette démarche, très personnelle, fut révélée par le communiqué officiel. Le groupe avec Kevin Gilbert et Patrick Leonard lui ont dédié une chanson dans leur premier album sorti en 1991 : "Remember My name". Samuel Beckett, qui fut prix Nobel de littérature, lui dédia sa pièce "Catastrophe", en 1982, alors que le dissident Havel se trouvait en prison pour son engagement anticommuniste. Václav Havel fut proche de Frank Zappa, qui soutint dès le début la dissidence tchèque. Son Premier ministre d'alors et futur successeur, Václav Klaus, lui reprocha d'avoir envoyé des condoléances le jour de la mort du guitariste, alors que des grands hommes tchèques meurent chaque jour sans tant d'honneur. Havel était également un très grand admirateur du groupe Velvet Underground, et est toujours resté culturellement proche du rock.
|
Václav Havel, né le à Prague et mort le à Hrádeček, est un dramaturge, essayiste et homme d'État tchécoslovaque puis tchèque.
|
xwikis
|
L'hydrogène est l'élément le plus abondant de l'Univers : 75 % en masse et 92 % en nombre d'atomes. Il est présent en grande quantité dans les étoiles et les planètes gazeuses ; il est également le composant principal des nébuleuses et du gaz interstellaire. Dans la croûte terrestre, l'hydrogène ne représente que 0,22 % des atomes, loin derrière l'oxygène (47 %) et le silicium (27 %). Il est rare également dans l'atmosphère terrestre, puisqu'il ne représente en volume que des gaz atmosphériques. Sur Terre, la source la plus commune d'hydrogène est l'eau, dont la molécule est constituée de deux atomes d'hydrogène et d'un atome d'oxygène ; l'hydrogène est surtout le principal constituant (en nombre d'atomes) de toute matière vivante, associé au carbone dans tous les composés organiques. Par exemple, l'hydrogène représente 63 % des atomes et 10 % de la masse du corps humain. Sous de très faibles pressions, comme celles qui existent dans l'espace, l'hydrogène a tendance à exister sous forme d'atomes individuels car il n'entre pas en collision avec d'autres atomes pour se combiner. Les nuages d'hydrogène sont à la base du processus de la formation des étoiles.L'hydrogène est l'élément chimique le plus simple ; son isotope le plus commun est constitué seulement d'un proton et d'un électron. L'hydrogène est l'atome le plus léger. Comme il ne possède qu'un électron, il ne peut former qu'une liaison covalente : c'est un atome univalent. Cependant, l'hydrogène solide peut être métallique lorsqu'il se trouve sous très haute pression. Il cristallise alors avec une liaison métallique (voir hydrogène métallique). Dans le tableau périodique des éléments, il se trouve dans la colonne des métaux alcalins. N'étant toutefois pas présent dans cet état sur Terre, il n'est pas considéré comme un métal en chimie. La section efficace de capture de l'hydrogène ( aux neutrons thermiques et aux neutrons rapides) est suffisamment faible pour permettre l'utilisation de l'eau comme modérateur et réfrigérant des réacteurs nucléaires.L'atome d'hydrogène est l'atome le plus simple qui existe. C'est donc celui pour lequel la résolution de l'équation de Schrödinger, en mécanique quantique, est la plus simple. L'étude de ce cas est fondamentale, puisqu'elle a permis d'expliquer les orbitales atomiques, et ensuite les différentes liaisons chimiques avec la théorie des orbitales moléculaires.L’hydrogène est le seul élément dont chaque isotope porte un nom spécifique, car leur différence de masse (comparativement à celle de l'atome d'hydrogène) est significative : du simple au double ou au triple, ce qui explique que, contrairement à ce qui vaut pour les isotopes en général, ces différences peuvent influencer les propriétés chimiques du deutérium ou du tritium par rapport au protium (effet isotopique). L'eau lourde (DO), qui contient des isotopes d'hydrogène lourds, est par exemple toxique (à forte dose) pour de nombreuses espèces. En effet, en raison de la grande différence de masse entre les isotopes la cinétique des réactions en solution aqueuse est considérablement ralentie. Les isotopes les plus notables de l'hydrogène sont :L'hydrogène, présent en grandes quantités dans le cœur des étoiles, est une source d'énergie par les réactions de fusion nucléaire, qui combinent deux noyaux d'atomes d'hydrogène (deux protons) pour former un noyau d'atome d'hélium. Les deux voies de cette fusion nucléaire naturelle sont la chaîne proton-proton, de Eddington, et le cycle carbone-azote-oxygène catalytique, de Bethe et von Weizsäcker. La fusion nucléaire réalisée dans les bombes à hydrogène ou bombes H concerne des isotopes intermédiaires de la fusion (l'hydrogène se transforme en hélium), comme celle qui se déroule dans les étoiles : isotopes lourds de l'hydrogène,, tritium Mais, dans une, les réactions nucléaires ne durent que quelques dizaines de nanosecondes, ce qui permet uniquement des réactions en une unique étape. Or, pour aboutir à la transformation de l'hydrogène en hélium, il faut plusieurs étapes dont la première, la réaction d'un proton, est très lente.Sauf aux pressions extrêmement basses (comme dans l'espace intergalactique) ou extrêmement hautes (comme dans les parties centrales de Jupiter et Saturne), le corps simple hydrogène est formé de molécules H (dihydrogène). Aux pressions extrêmement hautes, l'hydrogène est dans un état dit « sombre », intermédiaire entre un gaz et un métal. Il ne reflète pas la lumière et ne la transmet pas. Il devient aussi très faiblement conducteur d'électricité. Il s'apparente aux métaux alcalins qui le suivent dans le du tableau de Mendeleïev. Aux pressions les plus basses, l'hydrogène est un gaz monoatomique.La molécule de dihydrogène existe sous deux isomères de spin nucléaire: l'hydrogène ortho (spins parallèles) et l'hydrogène para (spins antiparallèles).Dans les conditions normales de température et de pression, comme dans la plupart des conditions qui intéressent la chimie et les sciences de la Terre, l'hydrogène est un gaz moléculaire de formule, le dihydrogène. Le dihydrogène forme aussi de vastes « nuages moléculaires » dans les galaxies, qui sont à l'origine de la formation des étoiles. À très basse pression et très haute température l'hydrogène est un gaz monoatomique (donc de formule H), c'est notamment le cas du gaz interstellaire ou intergalactique. En raison de l'immensité de ces espaces et malgré la très faible densité du gaz, l'hydrogène monoatomique constitue près de 75 % de la masse baryonique de l'univers.L'hydrogène solide est obtenu en abaissant la température en dessous du point de fusion du dihydrogène, situé à (). L'état solide fut obtenu pour la première fois en 1899 par James Dewar.L'hydrogène métallique est une phase de l'hydrogène survenant lorsqu'il est soumis à une très forte pression et à de très basses températures. C'est un exemple de matière dégénérée. D'aucuns estiment qu'il y a un intervalle de pressions (autour de ) sous lesquelles l'hydrogène métallique est liquide, même à de très basses températures.L'hydrogène triatomique est une forme allotropique très instable du corps simple hydrogène, de formule.L'atome d'hydrogène peut perdre son unique électron pour donner l'ion H, désigné couramment par le nom de proton. En effet l'atome qui a perdu son seul électron est réduit à son noyau, et dans le cas de l'isotope le plus abondant H, ce noyau n'est constitué que d'un proton. Cette appellation n'est pas rigoureusement correcte si l'on tient compte de la présence, certes discrète (inférieure à 0,02 %), des autres isotopes. L'appellation "hydron" est plus générale (on dit aussi "ion hydrogène", malgré la confusion possible avec l'anion H). Son rayon est très petit : environ contre pour l'atome. En solution, le proton n'existe pas à l'état libre mais est toujours lié au nuage électronique d'une molécule. En solution aqueuse il est solvaté par des molécules d'eau ; on peut en simplifiant considérer qu'il est capté par une molécule d'eau, formant un ion « hydronium » HO, aussi appelé « oxonium » ou « hydroxonium ». L'atome d'hydrogène peut aussi acquérir un second électron pour donner l'ion « hydrure » H, ce qui lui confère le même cortège électronique stable que l'atome d'hélium.L'hydrogène joue un rôle primordial dans une réaction acido-basique (au sens de la théorie de Brønsted-Lowry) puisque cette dernière correspond formellement à l'échange d'un ion hydrogène H entre deux espèces, la première (l'acide) libérant H par rupture d'une liaison covalente, et la deuxième (la base) captant cet H par formation d'une nouvelle liaison covalente :La liaison hydrogène est une interaction électrostatique entre un atome d'hydrogène, lié chimiquement à un atome électronégatif A, et un autre atome électronégatif B (A et B étant typiquement O, N ou F en chimie organique). Cette liaison joue un rôle important en chimie organique, puisque les atomes d'oxygène O, d'azote N ou de fluor F sont susceptibles de créer des liaisons hydrogène, mais aussi en chimie inorganique, entre les alcools et les alcoolates métalliques.L'atome d'hydrogène peut engager son unique électron pour former une liaison covalente avec de nombreux atomes non-métalliques. Les composés les plus connus sont : L'hydrogène est également présent dans toutes les molécules organiques, où il est lié principalement à des atomes de carbone, d'oxygène et d'azote.L'hydrogène se combine avec la plupart des autres éléments car il possède une électronégativité moyenne (2,2) et peut ainsi former des composés avec des éléments métalliques ou non-métalliques. Les composés qu'il forme avec les métaux sont appelés « hydrures », dans lesquels il se trouve sous forme d'ions H trouvés généralement en solution. Dans les composés avec les éléments non-métalliques, l'hydrogène forme des liaisons covalentes, car l'ion H a une forte tendance à s'associer avec les électrons. Dans les acides en solution aqueuse, il se forme des ions HO appelés ions « hydronium » ou « oxonium», association du proton et d'une molécule d'eau.L'hydrogène corrode de nombreux systèmes d'alliages en les fragilisant. Ceci peut conduire à des défaillances catastrophiques, par exemple de piles à combustible ou de certains processus catalytiques. C'est un problème grave pour les industries qui produisent ou utilisent de l'hydrogène. C'est encore un frein à la production, au transport, au stockage et à un large usage de ce produit. La science des matériaux recherche des matériaux plus résistants à la fragilisation par l'hydrogène, mais ce travail est rendu difficile par la difficulté de mesurer ou d'observer l'hydrogène de manière expérimentale et à l'échelle atomique. Chen ont réussi en 2017 à observer la répartition tridimensionnelle (3D) précise des atomes d'hydrogène dans la matière grâce à une nouvelle approche de la tomographie par sonde atomique basée sur la deutérisation, le transfert cryogénique et des algorithmes appropriés d'analyse de données.Dans un rapport publié en, l'Agence internationale de l'énergie note la polyvalence de l'hydrogène, qui peut être produit à partir de tous les combustibles fossiles, des énergies renouvelables et du nucléaire, peut être transporté sous forme gazeuse ou liquide et être transformé en électricité ou en méthane pour un large éventail d'usages. On peut distinguer trois catégories d'hydrogène, selon leur mode de production: L'hydrogène produit dans la croûte terrestre (par la diagenèse et la radiolyse), ainsi que l'hydrogène primordial (présent depuis la formation de la Terre) sont d'autres sources envisageables, mais qui n'ont pas encore été explorées.L'hydrogène est actuellement presque entièrement produit à partir de gaz naturel et de charbon. Pour ses propres besoins, l'industrie produit de l'hydrogène ( en France, plus de d'hydrogène, notamment pour la désulfurisation de carburants pétroliers et pour fabriquer l'ammoniac des engrais nitratés — l'hydrogène est alors un intrant chimique et non un vecteur énergétique). Le processus industriel le moins cher pour produire cet hydrogène, en 2018, est le reformage d'hydrocarbures, le plus souvent par vaporeformage du gaz naturel (lequel est essentiellement composé de méthane). À une température comprise entre, la vapeur d'eau réagit avec le méthane en donnant du monoxyde de carbone et de l'hydrogène. La purification de l'hydrogène étant plus facile sous forte pression, le reformage est réalisé sous une pression de vingt bars. Le mélange hydrogène/monoxyde de carbone est communément appelé « gaz de synthèse ». Si la réaction est faite en présence d'un excès de vapeur d'eau, le monoxyde de carbone est oxydé au niveau d'oxydation supérieur, conduisant au dioxyde de carbone, ce qui augmente la production d'hydrogène. La production industrielle « traditionnelle » d'hydrogène à partir d'hydrocarbures fossiles a un mauvais bilan carbone et est très émettrice de gaz à effet de serre, avec presque dix millions de tonnes d'équivalent par an vers 2015-2017, soit 7,5 % des émissions de gaz à effet de serre de l'industrie française, d'après l'ADEME en 2018, et des émissions de équivalentes en 2019 à celles de l'Indonésie et du Royaume-Uni réunis. Mais le coût de production de l'hydrogène à partir d'électricité renouvelable, élevé, pourrait baisser de 30 % d'ici 2030 grâce au déclin des coûts des énergies renouvelables et aux économies d'échelle. La société Air liquide possède une maîtrise particulière de ce processus. En 2015, elle a mis en service en Arabie saoudite, sur le site de Yanbu, une unité ayant une capacité totale de production d'hydrogène de aux CNTP. En 2019, l'agence australienne d'énergie renouvelable (ARENA) va aider à hauteur de 9,41 millions de dollars australiens () un projet du Groupe Hazer (compagnie d'énergie renouvelable australienne) visant à convertir du biogaz issu de méthanisation de boues d'épuration en hydrogène et en graphite. Hazer veut construire une usine démonstratrice de 15,8 millions de dollars US à Munster (Australie de l'Ouest).La filière hydrogène produit, stocke, promeut et valorise l'hydrogène et la recherche sur l'hydrogène. En 2015, des expérimentations d'hydrogène vert (décarboné) existent mais ce gaz est encore, avec un mauvais bilan carbone et une contribution conséquente à l'effet de serre. La filière est néanmoins présentée comme intéressante pour le développement durable, car :L'ADEME envisage un mix électrique à 40 % composé de "renouvelables" en 2035, puis à 60 % et 70 % en 2050 (contre près de 18 % en 2017, alors en majorité de source hydroélectrique). La filière cherche à industrialiser ses processus pour diminuer ses coûts (notamment celui de la pile à combustible). Le développement d'une est également freiné par un nombre encore très faible de stations de recharge (et de leur capacité encore faible : à ). L'hydrogène peut améliorer la puissance du véhicule, prolonger son autonomie et améliorer la rapidité de recharge, par rapport aux batteries. L'Ademe juge que l'hydrogène aura un rôle important dans la transition énergétique, comme vecteur d'optimisation des réseaux énergétiques, pour stocker l'énergie dans l'autoconsommation solaire ou photovoltaïque, et pour certains véhicules professionnels, à condition de décarboner sa production grâce à une électrolyse utilisant une électricité verte et à la transformation de la biomasse (vaporeformage de biogaz, pyrogazéification de biomasse solide). Le bilan environnemental de la filière dépendra surtout de « la source primaire utilisée pour fabriquer l'hydrogène ». L'agence invite à limiter à moins de cent kilomètres la distance de transport de l'hydrogène entre le point de fabrication et la station de distribution. Les véhicules à batterie restent à privilégier, lorsque c'est possible (autonomie, disponibilité, etc.), compte tenu du meilleur rendement de ce type de stockage, et les économies d'énergie restent une priorité. L'une des pistes de développement (en cours de test en 2018/2019) est l'injection dans le réseau de gaz, en France via deux démonstrateurs : GRHYD et, pour lever les verrous techniques qui subsistent encore. En, le gouvernement français mandate l'Ademe pour lancer le « plan national de déploiement de l’hydrogène » (ou « plan hydrogène »), afin de donner une impulsion à ce secteur dont le « fort potentiel » est perçu par les acteurs publics. L'objectif du gouvernement est. Un an après, l'agence publique a réalisé de multiples appels à projets, dont « Écosystèmes de mobilité hydrogène », qui a permis de sélectionner des projets et diversifiés, comme. Le CEA, promet une nouvelle technologie d'électrolyse industrielle, baptisée rSOC avec un seul métal précieux : l'Indium (un métal utilisé dans les écrans LCD), avec de moindres températures (de à ) et une moindre consommation électrique. Elle est également réversible, permettant de produire de l'hydrogène ou de restituer de l'énergie électrique telle une pile à combustible. Fin 2019, Air Liquide et Engie s'associent à Durance-Luberon-Verdon Agglomération (DLVA) pour produire, stocker et distribuer de "l'hydrogène vert" (dans le cadre du projet "HyGreen Provence" lancé en 2017, visant 1 300 GWh d'électricité solaire et plusieurs milliers de tonnes:an d'hydrogène produit par électrolyse. Plusieurs dizaines de milliers de tonnes d'hydrogène renouvelable par an pourraient être produites à terme, stockable dans une cavité saline locale. La société française McPhy, qui a déjà installé de capacité de production d'hydrogène par électrolyse sous pression, dont chez Audi en Allemagne, annonce en janvier 2020 la signature du contrat d'ingénierie d'un projet de production d'hydrogène vert industriel de, le plus gros projet à ce jour en Europe, implanté à Delfzijl aux Pays-Bas d'ici 2022. L'usine produira d'hydrogène par an par électrolyse de l'eau au moyen d'électricité éolienne et servira à la fabrication de bioéthanol. Le projet bénéficie de d'euros de subventions de l'Union européenne et d'un fonds néerlandais. Selon McPhy, la bonne échelle sera de pour atteindre un prix compétitif dans l'industrie.Une équipe de la KUL conçoit un prototype de cellule photoélectrochimique de produisant en moyenne 250 litres de dihydrogène par jour à partir de la vapeur d'eau atmosphérique. Le dispositif convertit 15 % de l'énergie solaire en dihydrogène et en dioxygène. Et cette technologie ne fait pas appel à des métaux précieux ou autres matériaux coûteux. Avec vingt panneaux, une maison bien isolée serait autonome en électricité et en chauffage pendant un an. Colruyt Group (acteur belge important de la distribution) veut décarboner ses activités autant que possible. Un de ses centres logistiques est en 2018 équipé de 75 élévateurs alimentés à l'hydrogène « décarboné » et sa flotte de camion doit être convertie d'ici 2030. Avec un acteur gazier, se prépare un projet d'installation de (extensible) de convertion en hydrogène dl'électricité issue de l'éolien en mer, à échelle industrielle..Fin 2017, le Japon, gros importateur d'énergie, confirme vouloir devenir chef de file en tant que « société hydrogène » avec un objectif de « parité coût » avec l’essence et le GNL pour la production électrique. Comme pour le nucléaire autrefois, l'hydrogène est présenté comme un moyen majeur de décarboner l'énergie, mais les projets pilotes donneront leurs conclusions vers 2020. En 2018, le Japon est en tête pour la mobilité hydrogène, avec près de à pile à hydrogène en circulation et plus de cent stations hydrogène (contre 45 en Allemagne, 42 aux États-Unis et une vingtaine en France au même moment). Le pays vise à diviser par plus de trois le coût de production avant 2030, puis de 80 % avant 2050. Entre 2013 et 2017, l'État japonais a déjà investi de dollars dans la R&D et le développement de l’hydrogène.En, la Californie compte à hydrogène immatriculées et les 42 stations publiques américaines.Très peu d'études semblent avoir été menées à ces sujets, probablement parce que les organismes vivants ne sont pas supposés être dans la nature exposés à de l'hydrogène gazeux. En effet, ce gaz étant très léger, il se disperse rapidement vers les très hautes couches de l'atmosphère. En matière de toxicité pour l'homme, l'hydrogène peut être absorbé dans l’organisme par inhalation. En milieu industriel ou en présence d'une fuite importante, une concentration nocive de ce gaz (sans odeur) dans l'air peut être rapidement atteinte (et former aussi un mélange explosif avec l'air, l'oxygène, les halogènes et tout oxydant puissant, surtout en présence d'un catalyseur métallique comme le nickel ou le platine). À concentration élevée, l'hydrogène expose à une aggravation de problèmes pulmonaires préexistant et à une anoxie, avec alors des et une peau pouvant prendre une teinte bleutée, avant asphyxie si l'exposition se prolonge. L'hydrogène n'est pas à ce jour (2019) connu comme étant source de mutagénicité, d'embryotoxicité, de tératogénicité ni de toxicité pour la reproduction.
|
L'hydrogène est l'élément chimique de numéro atomique 1, de symbole H. L'hydrogène présent sur Terre est presque entièrement constitué de l'isotope H (un proton, zéro neutron) ; il comporte environ 0,01 % de H (un proton, un neutron). Ces deux isotopes sont stables. Un troisième isotope H (un proton, deux neutrons), instable, est produit dans les explosions nucléaires. Ces trois isotopes sont respectivement appelés « protium », « deutérium » et « tritium ».
|
xwikis
|
Le GPS comprend au moins vingt-quatre satellites circulant à d'altitude. Ils se répartissent sur six orbites distinctes à raison de quatre satellites par orbite. Ces satellites émettent en permanence sur deux () et L2 () modulées en phase (BPSK) par un ou plusieurs codes pseudo-aléatoires, datés précisément grâce à leur horloge atomique, et par un message de navigation. Ce message, transmis à, inclut en particulier les éphémérides permettant le calcul de la position des satellites, ainsi que des informations sur leur horloge interne. Les codes sont un (acronyme de « " », en français : « acquisition brute ») de débit et de période, et un (pour « précis ») de débit et de période. Le premier est librement accessible, le second est réservé aux utilisateurs autorisés car il est le plus souvent chiffré : on parle alors de. Les récepteurs commercialisés dans le domaine civil utilisent le. Quelques récepteurs pour des applications de haute précision, comme la géodésie, mettent en œuvre des techniques permettant d'utiliser le malgré son chiffrage en. Ainsi, un récepteur GPS qui capte les signaux d'au moins quatre satellites équipés de plusieurs horloges atomiques peut, en calculant les temps de propagation de ces signaux entre les satellites et lui, connaître sa distance par rapport à ceux-ci et, par trilatération, situer précisément en trois dimensions n'importe quel point placé en visibilité des satellites GPS, avec une précision de pour le système standard. Le GPS est ainsi utilisé pour localiser des véhicules roulants, des navires, des avions, des missiles et même des satellites évoluant en orbite basse. Concernant la précision, il est courant d'avoir une position horizontale à près. Le GPS étant un système développé pour les militaires américains, une disponibilité sélective a été prévue : certaines informations, en particulier celles concernant l'horloge des satellites, peuvent être volontairement dégradées et priver les récepteurs qui ne disposent pas des codes correspondants de la précision maximale. Ainsi, pendant quelques années, les civils n'ont eu accès qu'à une faible précision (environ ). Le, le président Bill Clinton a annoncé qu'il mettait fin à cette dégradation volontaire du service. Certains systèmes GPS conçus pour des usages très particuliers peuvent fournir une localisation à quelques millimètres près. Le GPS différentiel (DGPS) corrige ainsi la position obtenue par GPS conventionnel par les données envoyées par une station terrestre de référence localisée très précisément. D'autres systèmes autonomes, affinant leur localisation au cours de huit heures d'exposition parviennent à des résultats équivalents. Dans certains cas, seuls trois satellites peuvent suffire. La localisation en altitude (axe des Z) n'est pas d'emblée correcte alors que la longitude et la latitude (axe des X et des Y) sont encore bonnes. On peut donc se contenter de trois satellites lorsque l'on évolue au-dessus d'une surface « plane » (océan, mer). Ce type d'exception est surtout utile au positionnement d'engins volants (tels les avions) qui ne peuvent pas se reposer sur le seul GPS, trop imprécis pour leur donner leur altitude. Mais il existe néanmoins un modèle de géoïde mondial nommé « "Earth Gravity Model 1996" » ou EGM96 associé au qui permet, à partir des coordonnées, de déterminer des altitudes rapportées au niveau moyen des mers avec une précision d'environ. Des récepteurs GPS évolués incluent ce modèle pour fournir des altitudes plus conformes à la réalité.À l'origine, le GPS était un projet de recherche des Forces armées des États-Unis. Il a été lancé à la fin des années 1960 à la demande du président Richard Nixon. La réalisation a été confiée à qui a conçu le principe d'un groupe de satellites gravitant en orbite et émettant des ondes radio UHF captées par des récepteurs GPS. Il est basé sur des programmes précédents dont SECOR, une série de satellites utilisés pour effectuer des mesures géodésiques. Le premier satellite est lancé en 1978. En 1995, le déploiement des opérationnels (plus 4 en réserve) est achevé. Le système devient alors fonctionnel. En 1983, le président Ronald Reagan, à la suite de la mort des du vol Korean Air Lines 007, propose que la technologie GPS soit disponible gratuitement aux civils, une fois opérationnelle. Une seconde série de satellites est lancée à partir de 1989 en vue de constituer une flotte suffisante. En 1995, le nombre de satellites disponibles permet de rendre le GPS opérationnel en permanence sur l'ensemble de la planète, avec une précision limitée à une centaine de mètres pour un usage civil. En 2000, le président Bill Clinton confirme l'intérêt de la technologie à des fins civiles et autorise une diffusion non restreinte des signaux GPS, permettant une précision d'une dizaine de mètres et une démocratisation de la technologie au grand public à partir du milieu des. Les États-Unis continuent de développer leur système par le remplacement et l'ajout de satellites ainsi que par la mise à disposition de signaux GPS complémentaires, plus précis et demandant moins de puissance aux appareils de réception. Un accord d'interopérabilité a également été confirmé entre les systèmes GPS et Galileo afin que les deux systèmes puissent utiliser les mêmes fréquences et assurer une compatibilité entre eux. Deux autres systèmes ont été mis au point par la Russie, le GLONASS à partir de 1980, et par la Chine, le Beidou initié en 2000.Le GPS se compose de trois groupes d'éléments (appelés segments) : des satellites en orbite autour de la Terre (segment spatial) ; des stations de contrôle au sol (segment contrôle) ; et les récepteurs GPS des utilisateurs (segment utilisateur).Le segment spatial est constitué d'une constellation de en fonctionnement, mais le nombre de satellites en service à une date précise peut varier (cf. tableau) selon les opérations décidées par le segment de contrôle. La constellation est organisée autour de principaux qui assurent la disponibilité mondiale du GPS, ce qui suppose d'avoir au moins quatre satellites visibles du sol partout dans le monde. Il y a toujours plus de satellites en orbite afin de maintenir ces complets même en cas de panne. Depuis 2011, la configuration de la constellation principale est augmentée à afin de fournir une meilleure couverture mondiale. Les satellites évoluent sur six plans orbitaux ayant une inclinaison d'environ 55° sur l'équateur. Ils suivent une orbite quasi-circulaire de rayon environ (soit une altitude de ) qu'ils parcourent en, soit un demi-jour sidéral. Ainsi, les satellites, vus du sol, reprennent la même position dans le ciel au bout d'un jour sidéral. Les générations successives de satellites sont désignées sous le nom de « Blocs » :C'est la partie qui permet de piloter et de surveiller le système. Il est composé de cinq stations au sol du "50th Space Wing" de l'Air Force Space Command, basé à la "Schriever Air Force Base" dans le Colorado (la station maîtresse est basée à Colorado Springs) dans la base de Cheyenne Mountain. Leur rôle est de mettre à jour les informations transmises par les satellites (éphémérides, paramètres d'horloge) et contrôler leur bon fonctionnement.Le segment utilisateur regroupe l'ensemble des récepteurs GPS militaires et civils qui reçoivent et exploitent les signaux des satellites GPS pour calculer des données de position, de vitesse ou de temps. Comme les utilisateurs ne font que recevoir (ils n'émettent pas vers les satellites), le système ne peut être saturé et le nombre maximum d'utilisateurs GPS est illimité. En 2014, le nombre total de récepteur GPS est estimé à. Les smartphones avec GPS intégré sont les plus nombreux avec, suivi par les d'assistants de navigation pour des applications routières. Le nombre restant d'appareils est réparti entre des applications variées : autres transports (aviation, ferroviaire, maritime), topographie, agriculture, infrastructure critique.Le GPS fonctionne grâce au calcul de la distance qui sépare un récepteur GPS de plusieurs satellites. Les informations nécessaires au calcul de la position des satellites étant transmises régulièrement au récepteur, celui-ci peut, grâce à la connaissance de la distance qui le sépare des satellites, connaître ses coordonnées.Les satellites GPS émettent plusieurs signaux codés, à destination civile ou militaire. Le signal civil pour l'utilisation libre correspond au code C/A, émis sur la porteuse de. Sur cette porteuse, le signal de modulation est une séquence résultant de l'addition modulo 2 du code pseudo-aléatoire C/A à et des données à contenant les éphémérides des satellites et d'autres informations de navigation. C'est le code C/A qui sert dans les récepteurs par corrélation avec le signal reçu à déterminer l'instant exact d'émission de celui-ci. Cet instant d'émission de référence du code C/A peut être modulé, à nouveau par un code pseudo-aléatoire, pour dégrader la détermination de position au sol. Ce chiffrement est appelé « "" » (SA), faisant passer la précision du système de environ à. Il a été abandonné en 2000 sous la pression des utilisateurs civils, et en raison du développement du DGPS qui le compensait en grande partie. Cette possibilité est cependant toujours présente à bord des satellites. La SA comporte aussi la possibilité de dégrader les informations permettant de calculer la position des satellites sur leur orbite ; elle n'a jamais été utilisée.Les satellites envoient des ondes électromagnétiques (micro-ondes) qui se propagent à la vitesse de la lumière. Connaissant celle-ci, on peut alors calculer la distance qui sépare le satellite du récepteur en connaissant le temps que l'onde a mis pour parcourir ce trajet. Pour mesurer le temps mis par l'onde pour lui parvenir, le récepteur GPS compare l'heure d'émission à l'heure de réception de l'onde par le récepteur. Cette mesure, après multiplication par la vitesse du signal, fournit une pseudo-distance, assimilable à une distance, mais entachée d'une erreur de synchronisation des horloges du satellite et du récepteur, et de dégradations comme celles dues à la traversée de l'atmosphère. L'erreur d'horloge peut être modélisée sur une période assez courte à partir des mesures sur plusieurs satellites.Connaissant les positions des satellites à l'heure d'émission des signaux, et les pseudo-distances mesurées (éventuellement corrigées de divers facteurs liés notamment à la propagation des ondes), le calculateur du récepteur est en mesure de résoudre un système d'équations dont les quatre inconnues sont la position du récepteur (trois inconnues) et le décalage de son horloge par rapport au temps GPS. Ce calcul est possible dès que l'on dispose des mesures relatives à quatre satellites ; un calcul en mode dégradé est possible avec trois satellites seulement si l'on connaît l'altitude ; lorsque plus de quatre satellites sont visibles (ce qui est très souvent le cas), le système d'équations à résoudre est surabondant : la précision du calcul est améliorée, et on peut estimer les erreurs sur la position et le temps. La précision de la position obtenue dépend, toutes choses égales par ailleurs, de la géométrie du système : si les satellites visibles se trouvent tous dans un cône d'observation de faible ouverture angulaire, la précision sera moins bonne que s'ils sont répartis régulièrement dans un large cône. Les effets de la géométrie du système de mesure sur la précision sont décrits par un paramètre : le DOP (pour « "Dilution of Precision" », en français « atténuation » ou « diminution de la précision ») : le HDOP se réfère à la précision horizontale, le TDOP à la précision sur le temps, le VDOP à la précision sur l'altitude. La précision espérée est d'autant meilleure que le DOP est petit.La résolution de l'équation de navigation peut se faire par la méthode des moindres carrés et la méthode de Bancroft. Elle nécessite quatre équations (quatre satellites). Chaque signal satellite donne au récepteur l'équation suivante : formula_1 avec : En passant au carré, on obtient : formula_13 Puis en développant : formula_14 On peut alors introduire formula_15, formula_16 et le pseudo-produit scalaire de Lorentz défini pour tout quadrivecteur formula_17 et formula_18 par formula_19. L'équation précédente se réécrit en : formula_20 En mettant sous forme matricielle tous les signaux dont on dispose, on obtient : formula_21 avec : Remarque : le nombre de lignes de formula_26, formula_27 et formula_28 doit être le même et supérieur ou égal à 4. En considérant formula_29 comme une constante, on peut résoudre l'équation précédente par la méthode des moindres carrés qui donne pour solution : formula_30 avec formula_31. On peut ensuite utiliser formula_32 et résoudre l'équation ainsi définie dont les solutions sont les racines d'un polynôme du second degré : formula_33La difficulté est de synchroniser les horloges des satellites et celle du récepteur. Une erreur d'un millionième de seconde provoque une erreur de sur la position. Le récepteur ne peut bien entendu pas bénéficier d'une horloge atomique comme les satellites ; il doit néanmoins disposer d'une horloge assez stable, mais dont l'heure n'est "a priori" pas synchronisée avec celle des satellites. Les signaux de quatre satellites au moins sont nécessaires pour déterminer ce décalage, puisqu'il faut résoudre un système d'au moins quatre équations mathématiques à quatre inconnues qui sont la position dans les trois dimensions plus le décalage de l'horloge du récepteur avec l'heure GPS (voir ci-dessus).La plupart des récepteurs sont capables d'affiner leurs calculs en utilisant plus de quatre satellites (ce qui rend les résultats des calculs plus précis) tout en ôtant les sources qui semblent peu fiables, ou trop proches l'une de l'autre pour fournir une mesure correcte, comme précisé ci-dessus. Cependant, le GPS n'est pas utilisable dans toutes les situations. En particulier la géolocalisation par GPS est quasiment impossible à l'intérieur des bâtiments. Les smartphones, par exemple, capables de se géolocaliser en intérieur n’utilisent pas le positionnement GPS dans ces conditions particulières mais les différents réseaux WIFI disponibles pour ce faire. Le signal émis par les satellites NAVSTAR étant assez faible et différents facteurs peuvent affecter la précision de la localisation : la traversée des couches de l'atmosphère avec entre autres la présence de gouttes d'eau, les simples feuilles des arbres peuvent absorber tout ou partie du signal, et l'« effet canyon » particulièrement sensible dans les gorges, en montagne (d'où son nom) ou en milieu urbain (phénomène de ). Il consiste en l'occultation d'un satellite par le relief (un bâtiment par exemple) ; ou pire encore, en un écho du signal contre une surface qui n'empêchera pas la localisation mais fournira une localisation fausse : c'est le problème des multi-trajets des signaux GPS. D'autres erreurs, n'ayant pas de corrélation avec le milieu de prise de mesure ni la nature atmosphérique, peuvent être présentes. Ce sont des erreurs systématiques, telles les décalages orbitaux ou encore un retard dans l'horloge atomique qui calcule le temps auquel la mesure est prise. Un mauvais étalonnage du récepteur (ou autres appareils électroniques du système) peut aussi produire une erreur de mesure.En l'absence d'obstacles, il reste cependant des facteurs de perturbation importants nécessitant une correction des résultats de calcul. Le premier est la traversée des couches basses de l'atmosphère, la troposphère. La présence d'humidité et les modifications de pression de la troposphère modifient l'indice de réfraction "n" et donc la vitesse et la direction de propagation du signal radio. Si le terme hydrostatique est actuellement bien connu, les perturbations dues à l'humidité nécessitent, pour être corrigées, la mesure du profil exact de vapeur d'eau en fonction de l'altitude, une information difficilement collectable, sauf par des moyens extrêmement onéreux comme les lidars, qui ne donnent que des résultats parcellaires. Les récepteurs courants intègrent un modèle de correction. Le deuxième facteur de perturbation est l'ionosphère. Cette couche ionisée par le rayonnement solaire modifie la vitesse de propagation du signal. La plupart des récepteurs intègrent un algorithme de correction, mais en période de forte activité solaire, cette correction n'est plus assez précise. Pour corriger plus finement cet effet, certains récepteurs bi-fréquences utilisent le fait que les deux et L2 du signal GPS ne sont pas affectées de la même façon et recalculent ainsi la perturbation réelle. En 2017, seize années de données de perturbation du systèmes GPS par le rayonnement solaire, enregistrées par une constellation de vingt-trois satellites, ont été ouvertes aux scientifiques de la météorologie par le Laboratoire national de Los Alamos (Nouveau-Mexique).Le GPS différentiel ("Differential global positioning system" : DGPS) permet d'améliorer la précision du GPS en réduisant la marge d'erreur du système.Des systèmes complémentaires d'amélioration de la précision et de l'intégrité ont été déployés (SBAS, "Satellite based augmentation system") comme WAAS en Amérique du Nord, MSAS au Japon, EGNOS en Europe ou GAGAN en Inde. Ils reposent tous sur le même principe : un réseau régional ou continental de stations au sol, une ou plusieurs stations maîtres qui centralisent les données des stations et transmettent aux satellites géostationnaires qui rediffusent vers le sol les informations permettant d'améliorer la fiabilité et la précision des données du GPS et d'alerter l'utilisateur en cas de défaillance d'un des satellites. D'autres pays préparent le déploiement d'un système SBAS : le SDCM pour la Fédération de Russie, le BDSBAS pour la Chine et le K-SBAS pour la Corée du Sud.Les coordonnées terrestre du récepteur sont calculées dans un repère cartésien géocentrique à trois axes (X,Y,Z) qui a pour origine le centre de gravité des masses terrestres (système dit système géodésique). Pour que ces coordonnées soient facilement exploitables, il faut les convertir en coordonnées géographiques (latitude, longitude, altitude), système très largement utilisé en représentation cartographique. C'est le post-traitement du récepteur GPS qui effectue cette conversion en utilisant par défaut le système géodésique ("World Geodetic System 84"). Ce système, le plus utilisé dans le monde, constitue une référence répondant aux objectifs du système mondial de navigation. L'altitude n'est pas toujours directement exploitable, du fait de l'écart entre la hauteur ellipsoïdale calculé dans le système géodésique et l'altitude géodésique. Cette variation peut atteindre localement plusieurs dizaines de mètres. Les récepteurs les plus élaborés disposent de modèles de correction géodésique, et indiquent une altitude similaire à celle des cartes. Les coordonnées obtenues peuvent être exprimées dans d'autres systèmes géodésiques, propres par exemple à une région ou un pays, ou dans un autre système de projection cartographique. En France, le système de référence est encore souvent la NTF, bien que le système géodésique officiel soit désormais le RGF93, qui diffère très peu du.Le calcul des coordonnées géographiques nécessite le calcul du décalage de l'horloge interne du récepteur avec le « temps GPS » et donc le décalage avec le temps UTC. L'horloge du récepteur est synchronisée à celles des satellites à cent milliardièmes de seconde près. Cet accès très précis au temps UTC permet d'asservir très précisément en fréquence une horloge extérieure ou de synchroniser des horloges distantes. Cette possibilité est largement exploitée dans le monde scientifique. Par exemple, l'intégration du temps GPS aux réseaux de surveillance sismique permet aux chercheurs de localiser rapidement l'épicentre des tremblements de terre et d'autres phénomènes telluriques. Dans le monde des transmissions, les grands réseaux de télécommunications nécessitent les équipements parfaitement synchronisés pour fonctionner correctement. les réseaux de téléphonie mobile et de données se servent du temps GPS pour assurer la parfaite synchronisation de toutes leurs stations de base.Les récepteurs GPS terrestre ou les smartphones disposant d'une puce GPS incorporent généralement un module de post-traitement disposant des fonctions de visualisation cartographique. Ces fonctions reposent sur des bases de données géographiques intégrées. Elles s'appuient sur l'utilisation de la théorie mathématique des graphes (nœuds) et sur l'utilisation d'algorithmes tel que Gps-less location, Floyd-Warshall, Dijkstra et permettent, par exemple, de déterminer l'itinéraire le plus court entre deux points. La firme Broadcom annonce pour 2018 la sortie d'une puce GPS affichant la position avec une précision de. Des cartographies peuvent être embarquées dans des Récepteur GPS.Le GPS est l'application concrète la plus courante dont le fonctionnement met en jeu la théorie de la relativité. Si ses effets n'étaient pas pris en compte, la navigation par GPS serait entachée d'erreurs trop importantes. Deux effets principaux de la relativité sont à considérer : la dilatation du temps issue de la relativité restreinte affirme que le temps s'écoule plus lentement pour un objet se déplaçant à grande vitesse, tandis que la relativité générale stipule que le temps s'écoule plus rapidement pour un objet situé plus haut dans un même champ gravitationnel. Ces deux effets expliquent que la même horloge atomique n'a pas la même fréquence au sol ou en orbite. Pour l'horloge d'un satellite GPS, les deux effets sont contraires : se déplaçant à une grande vitesse circulaire, son temps est ralenti de () par jour, alors que située plus haut dans le champ gravitationnel terrestre, son temps est accéléré de par jour (voir calcul en Tests expérimentaux de la relativité générale). La somme des deux fait que le temps de l'horloge d'un satellite GPS vue du sol avance de par jour. Cela correspond donc à une erreur spatiale de où "c" est la vitesse de la lumière et donc une dérive de. Historiquement, en 1977, lors de la première mise en orbite d'une horloge atomique au césium dans le satellite NTS-2, les effets de la relativité avaient été calculés, mais certains doutaient de la véracité des effets relativistes. Les premières émissions du satellite n'incorporaient pas les corrections relativistes, mais il avait été prévu un synthétiseur de fréquence activable à distance qui pourrait le faire. Après vingt jours en orbite, l'horloge atomique en orbite a été mesurée dérivant de par rapport au sol, ce qui était proche du calcul théorique de l'époque donnant. Par la suite, le synthétiseur a été activé de manière permanente. La valeur de la dérive peut paraître faible, mais elle est bien plus importante que la précision d'une horloge atomique au césium qui est de l'ordre de. Ce décalage est depuis pris en compte dans toutes les horloges atomiques des satellites GPS sous différentes formes. Pour les horloges au césium, la correction est réalisée au sol avant la mise en orbite. Le cas des horloges atomiques au rubidium est plus complexe, car elles peuvent subir des sauts de fréquence imprédictibles pendant le lancement. La fréquence est mesurée une fois en orbite, mais elle n'est plus corrigée directement : les corrections nécessaires sont incluses dans le message de navigation. D'autres effets relativistes existent dans le GPS. Certains sont négligeables au vu de la précision recherchée pour les applications de positionnement, d'autres doivent être pris en compte : par exemple, les récepteurs GPS corrigent l'effet Sagnac dû à la rotation de la Terre.Le GPS est un système conçu par et pour l'armée des États-Unis et sous son contrôle. Le signal pourrait être dégradé, occasionnant ainsi une perte importante de sa précision, si le gouvernement des États-Unis le désirait. C'est un des arguments en faveur de la mise en place du système européen Galileo qui est, lui, civil et dont la précision théorique est supérieure. La qualité du signal du GPS a été dégradée volontairement par les États-Unis jusqu'au mois de mai 2000, la précision d'un GPS en mode autonome était alors d'environ. Depuis l'arrêt de ce brouillage volontaire, supprimé par le président Bill Clinton, la précision est de l'ordre de 5 à. Le système GPS est fréquemment utilisé pour la synchronisation de l'heure entre les différents composants des réseaux de téléphonie mobile GSM, UMTS et LTE ; les conséquences d'une dégradation du signal se répercuterait sur une infrastructure critique.Les récepteurs GPS civils sont limités afin qu'ils ne puissent pas être utilisés dans des systèmes d'armement rapides tels que les missiles balistiques. En pratique, un récepteur ne doit plus fournir de données de navigation au-delà d'un maximum de vitesse ou d'altitude. Historiquement, ces limites étaient fixées à une vitesse maximale de () et une altitude maximale de (). Elles étaient appelées "limites CoCom" du nom du "Coordinating Committee for Multilateral Export Controls" (CoCom), qui a été dissous après la chute du bloc soviétique en 1994. Par la suite, les réglementations sur les récepteurs GPS sont restées en vigueur aux États-Unis selon l"'International Traffic in Arms Regulations" (ITAR) qui régule les exportations de technologies sensibles américaines et internationalement selon le Régime de contrôle de la technologie des missiles (MTCR) créé en 1987. Depuis 2013, le MTCR ne limite plus le domaine d'utilisation des GPS civils en altitude et a augmenté la limite de vitesse à. Depuis 2014, les restrictions ITAR aux États-Unis appliquent la même limite.Dans l'esprit du grand public, un lien direct est effectué entre GPS et surveillance abusive, le terme familier péjoratif de « flicage » est généralement employé par les détracteurs de tels systèmes. Toutefois, les outils de surveillance n'incorporent le GPS que comme l'un des éléments technologiques nécessaires à la surveillance abusive. Le dispositif de localisation GPS en lui-même est un système passif qui se contente de recevoir les signaux des satellites et d'en déduire une position. Le réseau des satellites GPS ne reçoit donc aucune information d'éventuels systèmes de surveillance au sol (ou embarqués dans un aéronef ou un navire) et demeure techniquement incapable d'effectuer la surveillance d'un territoire d'une quelconque façon. En revanche, notamment dans le domaine des transports, des systèmes déployés dans les véhicules adjoignent un dispositif de transmission de l'information obtenue avec le GPS. Ce dispositif peut fonctionner en temps réel, il s'agit alors bien souvent d'une liaison de transmission de données par téléphonie mobile ; ou fonctionner en temps différé, les données sont alors déchargées "a posteriori" par un système physique ou de radio à courte portée. Leur application est généralement réservée aux professionnels pour suivre une flotte de camions, véhicules de transports de passagers (y compris les taxis), de véhicules de commerciaux, de dépannage ou d'intervention. Les objectifs de ces outils de suivi de flotte sont pour un employeur de s'assurer que son salarié effectue effectivement le travail demandé ou que le véhicule n'a pas été détourné. Il permet aussi d'améliorer la gestion d'une flotte de véhicules. Les individus peuvent également faire l'objet d'une géolocalisation en continu (par exemple pour les données de trafic). Il existe deux méthodes de collecte d'informations : La première va identifier et remonter l'information à une période constante, par exemple toutes les deux ou cinq minutes. Tandis que la localisation sous demande consiste à n'envoyer l'information qu'en cas de demande du porteur du terminal ou de l'aidant. Dans tous les cas, le porteur du terminal doit être informé et d'accord sur la fonctionnalité de géolocalisation. Les systèmes de localisation automatique de sécurité, comme l'AIS en navigation maritime et aérienne, combinent un récepteur GPS et un émetteur, améliorant la sécurité anti-collision et la recherche des naufragés. L'APRS utilise le même principe, il est géré par des radioamateurs bénévoles.WNRO ou GPS Week Number Roll Over (en français Réinitialisation de la Numérotation du calendrier GPS) provoque l'obsolescence des logiciels usant du système américain, à cause de la remise à zéro de la référence temps toutes les (dû à la limitation du comptage interne de satellites) ; le dernier a eu lieu le et invalide par conséquent les matériels devenus absents des mises à jour des constructeurs.Il existe d'autres systèmes de positionnement par satellite, sans atteindre cependant la couverture ou la précision du GPS :
|
Le (GPS) (en français : « Système mondial de positionnement » [littéralement] ou « Géo-positionnement par satellite »), originellement connu sous le nom de Navstar GPS, est un système de positionnement par satellites appartenant au gouvernement des États-Unis. Mis en place par le département de la Défense des États-Unis à des fins militaires à partir de 1973, le système avec vingt-quatre satellites est totalement opérationnel en 1995 et s'ouvre au civil en 2000.
|
xwikis
|
La séquence d'ouverture montre des images de guerre enregistrées par l'armée américaine dans le théâtre du Pacifique durant la Seconde Guerre mondiale. La Tchécoslovaquie, à cette époque, vit des changements politiques turbulents. Les deux Marie, assises à discuter en bikini avec nonchalance constatent ensemble que le monde entier devient mauvais. Marie (Jitka Cerhová) a une illumination, et Marie (Ivana Karbanová) comprend ce qu'elle a derrière la tête : devenir mauvaises à leur tour. Elles sont ensuite transportées dans un nouveau monde abondant de beauté, cette fois ci les yeux excessivement maquillés de noir. Elles y retrouvent un arbre rempli de fruits. Marie (Ivana Karbanová) cueille une pêche, et la mange. L'action se poursuit soudainement dans leur appartement, dans lequel Marie (Jitka Cerhová) force Marie (Ivana Karbanová) à recracher le morceau de pêche. Elles s'ennuient et décident de sortir - le reste du film montre les deux jeunes femmes commettant une série de mauvaises actions : la violence l'une envers l'autre, séduire des hommes par intérêt, voler, détruire, déranger, brûler, surconsommer de la nourriture etc. Elles tentent de devenir le plus méprisable possible et refusent d'accorder une signification à leurs gestes. À travers le film, les deux Marie ont cet échange à plusieurs reprises : Le film prend un brusque tournant lorsque les deux Marie découvrent un festin dans un entrepôt abandonné. Après avoir mangé de chaque assiette et bu de chaque verre, elles se déshabillent, détruisent la pièce et dansent sur la table, les pieds dans la nourriture. La scène change, et elles sont brusquement jetées à l'eau. La narration explique qu'il s'agit de leur seul destin en tant que malfaitrices. Elles appellent à l'aide, promettant qu'elles ne veulent plus faire de mal. La scène revient à l'entrepôt souillé, et les deux Marie tentent de tout replacer et remettent la porcelaine, maintenant sale et brisée, bien en place sur la table. Il est trop tard, leur destin est scellé. L'énorme chandelier au-dessus d'elles se détache, et les écrase. Le film se termine comme il débute, avec des images de guerre. Sur fond sonore de coups de feu de mitraillette, l'épigraphe du film s'inscrit sur la dernière séquence : "Ce film est dédié à ceux qui s'énervent sur un seul lit de laitue piétiné.Le film a été immédiatement interdit de diffusion par le gouvernement tchécoslovaque.
|
Les Petites Marguerites ("Sedmikrásky") est un film tchécoslovaque réalisé par Věra Chytilová, sorti en 1966. Généralement reconnu comme un chef-d'œuvre de la nouvelle vague cinématographique Tchécoslovaque, "Les Petites Marguerites" ("Sedmikrásky") présente l'histoire de deux jeunes filles, toutes deux appelées Marie (Jitka Cerhová et Ivana Karbanová), qui, en réponse au mal dans le monde, décident de devenir malfaiteurs à leur tour.
|
xwikis
|
Le mot français vient du terme latin "argentum, i" de même signification. L’origine lointaine du mot, par le grec "argyros", viendrait d’un étymon indo-européen commun "*arg-" signifiant « blanc brillant, laiteux et clair » et serait l’équivalent en sanskrit de "ar-jun" signifiant également « brillant ». Ce métal précieux, malléable et très ductile, est blanc et brillant, comme le rappelle son nom. Dédié à la Lune ou à la déesse lunaire Artémis/Diane, il figure depuis l'Antiquité parmi les sept métaux sacrés, bien connus et même survalorisés par l'alchimie médiévale. Il est connu par la fabrication multi-millénaire de bijoux, de monnaies, ainsi que pour ses applications industrielles croissantes au. Il s'agit d'un métal de transition, élément du groupe 11.L'argent possède 38 isotopes connus, de nombre de masse variant entre 93 et 130, et 36 isomères nucléaires. Parmi ces isotopes, deux sont stables, Ag et Ag et constituent la totalité de l'argent naturel, dans un ratio 51,8/48,2 et quatorze radio-isotopes sont instables entre 102 et 117. On attribue à l'argent une masse atomique standard de. Les isotopes de masse 112 et 117 sont des produits de fission de l'uranium.L'argent est un élément rare. Le clarke s'élève à par tonne. L'argent est présent dans le sous-sol à l'état natif, c'est l'argent natif du Mexique, du Pérou, du Chili, de Saxe, du lac Supérieur ou de Norvège, il est assez rare en cristaux isolés, mais fréquent en fils contournés et minces placages, à surface généralement altérée de teinte sombre ou très souvent dispersés en une multitude de structures réticulaire ou filaires. Il forme des amas parfois sous la forme de veines et filons à gangues siliceuse ou carbonatée, plus rarement dispersé en pépites compactes. Il est plus souvent présent sous forme de sulfures comme argentine ou argyrose, acanthite monoclinique ou argentite cubique, parfois mélangés à d'autres sulfures de plomb, de cuivre, d'antimoine..., comme la pyrargyrite sulfure double d'antimoine et d'argent, et son homologue As. Il existe aussi sous forme d'halogénures naturels d'argent, comme la chlorargyrite ou la cérargyrite, ou les bromargyrites, les ou Iodargyrite. Il peut être intimement associé avec l'or, par exemple en alliage dans l'électrum ou en combinaison commune avec le tellure dans la petzite.Il est récupéré depuis l'Antiquité, parfois intensément au Moyen Âge des minerais de galène argentifère. Il peut être extrait avantageusement des minerais argentifères très pauvres, exploité pour le cuivre ou le plomb, par exemple des gisements communs de blende, de galène ou de pyrite, par chloruration et amalgamation. Il s'agit de récupération de sous-produits lors du traitement du cuivre et du plomb. Le chlorure d'argent est dissous dans le chlorure de sodium. L'argent métal pulvérulent précipite, il peut alors être amalgamé par le mercure. L'amalgame chauffé se décompose facilement. Le traitement de la galène donne du « plomb d'œuvre » qui peut contenir des quantités non négligeables d'argent. L'affinage de ce plomb argentifère spécifique s'opérait par cristallisations successives avec l'aide de sept chaudières. Le plomb argentifère est fondu, il refroidit lentement et le plomb presque pur reste au fond du bain. L'écumoire retirait sept huitième du plomb et ainsi de suite pendant trois opérations d'affinage similaire pour obtenir un Pb presque pur. Mais les alliages Pb/Ag communs à faible teneur d'argent, de l'ordre de 0,5 % à 1 %, restent une matière première de la fabrication de l'argent. Il est possible de procéder à des fusions sélectives, éventuellement des fusions de zones, en utilisant le diagramme Pb/Ag. Le zincage ou « désargentation du plomb » par le zinc était une autre technique complémentaire, le zinc, captant dans sa phase dix fois son poids d'argent, s'empare de l'argent du plomb d'œuvre. L'alliage triple Ag Pb Zn se retrouve en écume à la surface du plomb fondu, il est prélevé par une boîte percée de petits trous, lors de trois traitements. Une distillation permet d'éliminer l'essentiel du zinc, le bain étant débarrassé des restes de Zn par des eaux surchauffées sous pression, qui ont comme effet d'oxyder le zinc et les autres métaux les plus électronégatifs. La coupellation permet de séparer l'argent du plomb. Selon l'ancienne méthode, il faut chauffer à l'air l'alliage Pb/Ag en présence de phosphates d'os. Le plomb métal s'oxyde en qui est absorbé par la coupelle poreuse. L'argent précieux et stable reste inaltéré. Voici la réaction de base ː Aujourd'hui, les procédés de cyanuration utilisant les complexes métalliques de l'ion cyanure dans l'eau sont utilisés. L'argent est raffiné par électrolyse.Le corps simple de couleur blanche, apprécié pour son éclat blanc métal particulier et sa réflectance optique rehaussée par un polissage, est un cristal cubique, métal malléable et très ductile, de densité avoisinant 10,5. Il fond légèrement au-dessus de et s'évapore complètement entre et, selon la présence d'impuretés. La corructation est une lumière vive, ponctuelle, émise par ce métal au moment de son refroidissement après fusion lorsque le voile composé d’oxydes et de fondant en surface se déchire emporté par le borax. Cette solidification s'accompagne souvent de rochage (libération des gaz dissous par la phase liquide, composés principalement d'oxygène) qui peut faire gonfler le métal ou provoquer des cloques. Il s'agit du corps métal meilleur conducteur de la chaleur et de l'électricité dans les conditions de température et de pression normales. Ce métal noble présente une résistance chimique aux agents chimiques parfois à températures élevées. Il est insoluble dans l'eau et dans les alcalis. Il peut être inoxydable dans certaines atmosphères contrôlées. Il est attaqué toutefois par les sulfures, par exemple communément par ceux contenus dans les aliments, d'où le noircissement de la vaisselle en argent parfois observé. Les sulfures présents dans l'atmosphère réagissent avec l'argent pour former AgS. Le ternissement est accéléré par la présence de cuivre dans les alliages. On peut éviter le ternissement en le stockant avec du papier imprégné d'acétate de cuivre ou de cadmium, qui ont plus d'affinité pour HS. Traiter l'argent par électrolyse avec une solution de chromate alcalin retarde le ternissement. Il est attaqué par les acides nitrique et sulfurique, le dernier à chaud. Il est soluble dans le cyanure de potassium aqueux, ce qui explique le procédé de cyanuration précédemment décrit.L'acide de choix pour dissoudre l'argent est l'acide nitrique : La dissolution dans l'acide sulfurique concentré chaud est plus économique en acide : ou : L'argent est attaqué par l'eau régale, l'acide chromique, les solutions de permanganate, l'acide persulfurique, l'acide sélénique et les solutions aqueuses d'halogènes libres. Les réactions peuvent être ralenties par la formation d'une couche protectrice (AgCl par exemple). Il est également soluble dans les hydroxydes alcalins fondus en présence d'air et dans les peroxydes fondus.On peut analyser un échantillon en le dissolvant dans de l'acide nitrique et en précipitant l'argent sous forme d'AgCl. Le seuil de détection est de. Contrairement aux autres chlorures, peu solubles, le chlorure d'argent est soluble dans l'ammoniaque. Les halogénures d'argent peuvent être dissous dans NaKCO fondu. L'argent est précipité sous forme métallique et peut être séparé par dissolution dans l'eau.La valence Ag(I) est la principale, à côté des marginales Ag(II) et Ag(III) et des exceptionnelles -II, -I, IV. Le cation Ag qui possède un assez gros rayon ionique est oxydant. Les apprentis chimistes le connaissent pour ces combinaisons simples avec les halogènes, soit les halogénures d'argent comme chlorure d'argent cubique, le bromure d'argent ainsi que le fluorure d'argent et l'iodure d'argent α et β, respectivement de maille hexagonale et cubique. Citons parmi ces composés les plus communs ː Il existe aussi le tellurure d'argent, le permanganate d'argent, le fulminate d'argent, l'hexafluoroarséniate d'argent, le tétrachloroaluminate d'argent, le diéthyldithiocarbamate d'argentL’argent métal et/ou ses principaux alliages sont utilisés par exemple : L'argent est un excellent catalyseur en chimie. Les bromure et iodure d'argent sont employés en émulsions en photographie « argentique », ces sels d’argent étant photosensibles ; l'argent colloïdal a été utilisé comme médicament.Le deuxième domaine avec environ au début des années 1990 est la bijouterie et l’orfèvrerie. L’argent est utilisé pour fabriquer des objets et des bijoux (pendentifs, bracelets, colliers...) tout ceci est possible car l’argent possède une propriété qui permet de concevoir ces œuvres : sa bonne malléabilité. L’argent est souvent allié à de faibles quantités de cuivre pour renforcer ses caractéristiques mécaniques. L'argent le plus courant en bijouterie est l'argent 925. Un poinçon 925 signifie que le bijou est fabriqué avec au moins 92,5 % d'argent pur et authentifie la qualité du métal précieux. Cet alliage est appelé « argent sterling ». On l’utilise aussi allié à l’or, ou en plaquage (de d’épaisseur pour la bijouterie, de pour l’argenterie).Le troisième domaine est la photographie, avec environ au début des années 1990. Les cristaux d’halogénures d’argent sensibles à la lumière sont l’élément essentiel des films et papiers photographiques. Ce secteur est en décroissance constante depuis plusieurs années en raison du développement de la photographie numérique. Le marché de la radiographie est devenu plus important que le marché de grand-public. La photographie était la plus grande consommatrice d’argent avant que les procédés modernes permettent de récupérer l’argent dans les bains de développement, et ainsi de le recycler en bonne partie. La diminution du nombre de pellicules argentiques commercialisées, en raison de l’avènement du numérique, a également contribué à en réduire considérablement le besoin.Différents types morphologiques peuvent être produits en jouant sur les phénomènes de précipitation et cristallisation ; cubes, cubes creux, sphères, particules à facettes, grains pyramidaux dont la réactivité et les propriétés (toxicité notamment) varient. d'une concentration à de nanoparticules d'argent représente milliards de ces particules. Combinées à du phosphate de calcium, l'activité de particules de vingt à cinquante nanomètres de nano-argent peut être jusqu'à 1000 fois supérieure, ce qui laisse présager des impacts environnementaux. Parmi 800 nano-produits répertoriés dans les années 2000 par le Woodrow Wilson Institute, 56 % étaient fabriqués à partir de nano-argent (le plus souvent à partir de nanoparticules d'argent). Des évaluations estiment qu'en 2015, il pourrait en être produit par an, ce qui correspondrait à 1/3 de l'actuelle production mondiale d’argent). Des rats exposés aux nanoparticules de 15 nanomètres inhalées présentent ensuite ces particules dans tout l’organisme (cerveau y compris), avec des effets qu’on ignore. Un article de février 2009 a conclu que des nanoparticules d’argent testées en association avec du cuivre (argent seul et argent colloïdal) pour différentes tailles de nanoparticules interféraient avec la duplication de l’ADN. À forte dose, une argyria est possible. Enfin, une résistance bactérienne au traitement par nano-argent peut apparaître, comme pour les autres traitements antibiotiques.L'argent a une bonne résistance à l'effort, il est utilisé dans les vilebrequins de locomotives diesel. On le retrouve également dans les roulements à billes des turbines, où on fait appel à ses propriétés autolubrifiantes.Enfermé entre deux feuilles de papier mylar, il est utilisé dans les contacts électriques des claviers d'ordinateurs..Une solution de nitrate d'argent, de soude, d'ammoniaque et de sucre (ou de formaldéhyde) est utilisée pour déposer une couche d'argent sur le verre, le verre étant préalablement traité avec SnCl. Ce procédé sert notamment à fabriquer les bouteilles isothermes, les CD ou les décorations de sapins de Noël.Tous les sels d'argent sont toxiques. L'argent est aussi un polluant et un contaminant. Pour des raisons mal comprises, l'être humain en supporte des doses bien plus élevées que ces organismes. L'absorption d'argent dans la circulation du sang de l’organisme humain ne semble pas avoir d’effet direct en dessous d'un certain seuil, mais un excès provoque une maladie dite argyrisme qui donne à la peau et au blanc de l'œil un teint gris-bleuâtre, voire noirâtre.Au-delà de, l'argent est considéré comme un indicateur de pollution (par le nitrate d'argent par exemple).L'argent a été utilisé comme monnaie dans la plupart des civilisations au même titre que l'or. Jusqu'à l'instauration du système de l'Étalon-or à la fin du en Occident, la plupart des pays européens ainsi que les États-Unis ou encore le Mexique fonctionnaient dans le cadre d'un régime monétaire appelé bimétallisme dans lequel une monnaie or et une monnaie argent circulaient conjointement. Le bimétallisme a été accusé par les économistes de favoriser une certaine instabilité des cours de la monnaie et donc de provoquer une instabilité de l'économie. On parlera dans ce cadre de la fameuse loi de Gresham, du nom d'un commerçant et financier britannique du, qui a démontré que la mauvaise monnaie avait tendance à chasser la bonne. Cela signifie que dans le cadre d'un système monétaire où deux étalons monétaires coexistent, l'un finit par chasser l'autre, en l'occurrence l'or qui devient de ce fait rare et recherché. Cette concurrence entre les monnaies peut avoir un impact défavorable sur l'économie en favorisant la spéculation et en bouleversant la hiérarchie des prix. L'abandon du bimétallisme n'a cependant pas sonné la fin de l'argent en tant que monnaie. Ainsi en France jusqu'aux années 1970, des pièces en argent massif ont été frappées. Parmi celles-ci, on peut citer la célèbre pièce de 5 Francs sur laquelle figure en effigie la semeuse, une femme qui sème des grains de blé. Ces pièces font encore l'objet d'une cotation et donc peuvent servir de support d'investissement. Par ailleurs, l'argent en tant que métal précieux peut être utilisé pour placer ses liquidités. Le placement peut se faire sous forme de pièces, mais aussi de lingots ou encore de lingotins (d'une taille plus petite que les lingots). Le cours du lingot varie en fonction du cours de l'once d'argent. L'argent comme l'or fait en effet l'objet d'une double cotation sur le marché de Londres et sur le marché New Yorkais. Dans les deux cas, les mouvements observés sont à la fois liés aux fondamentaux (demande de métaux précieux, volume de production, perspectives macro-économiques...), mais aussi à la spéculation. Il faut d'ailleurs le noter, les cours de l'argent varient davantage que ceux de l'or. On constate généralement que les cours de l'argent amplifient les variations observées sur les cours de l'or à la hausse comme à la baisse.La consommation d’argent en 2004 dans le monde a été de l’ordre de. La consommation dépasse la production depuis plusieurs années. On estime que l'argent risque de devenir un métal rare :L’argent provient de mines ou du recyclage. En 2004 : Selon l’USGS, la production d’argent dans le monde en 2008 était estimée à d’argent soit d’onces. L’argent est extrait soit de mines dont il est le principal métal, soit de mines d’autres métaux dont l’argent est en quelque sorte un sous-produit ; c’est ainsi que : En 2011, la production était de d’argent, soit millions d’onces.Globalement, les Amériques ont produit un peu plus de la moitié de l’argent extrait dans le monde.Le matériau argent, métal ductile et malléable, est connu au Néolithique, avant 5000, par diverses pièces d'ornement, vaisselles et bibelots. La première extraction connue date de 3000, en Anatolie. Ces premiers filons représentaient une ressource de valeur pour les civilisations qui ont fleuri dans le Proche Orient, ainsi que pour la Crète et la Grèce, tout au long de l’Antiquité. Les monnaies les plus anciennes en argent, souvent à valeur d'échange global entre autorités, sont sous forme de trépieds, de vases, d'anneaux, de barres et lingots de tailles uniformes. À la fin du millénaire existent ainsi des barres et autres lingots d'argent de masse constante, munis d'un sceau officiel, parmi le matériel archéologique mis au jour en Cappadoce. Ces formes assez massives peuvent être considérées comme des devises de métal. Vers 2000, des mesures de grains d'argent attestent d'une monnaie de compte existante en Mésopotamie, à côté d'autres outils monétaires sophistiqués adaptés au calcul et au crédit. À peu près en 1200, le centre de production d’argent serait établi aux mines de Laurium, en Grèce, d’où il continue d’alimenter les empires naissants de la région. Dans le bassin méditerranéen, la civilisation créto-mycénienne développe l'art de mise en valeur de l'argenterie, diffusant le ciselage, le bosselage et le damasquinage. Les Phéniciens diversifient les rares sources d'approvisionnement en exploitant les mines de la péninsule ibérique. Les Assyriens au mentionnent sur les pièces et morceaux d'argent leur teneur garantie en argent, ce sont les premières indications explicites du titre. À l'âge classique grec, au, l'argent ou l'électrum des mines du Laurion sert à décorer les statues (thésaurisation) et/ou à fondre de la monnaie en pièces communes, rondes et aplaties. Les Perses achéménides contemporains ont laissé de belles amphores en argent en Asie mineure. Il faut attendre le et le pour que les peuples gaulois, subissant une forte influence de la civilisation méditerranéenne, initient, essentiellement par imitation grecque, leurs propres monnayages d'argent. Bien avant 80 à 100, sous l'apogée de l'empire antonin, l’Espagne s'est imposée à son tour comme la capitale de la production d’argent. Les mines ibériques sont le principal fournisseur de l’Empire Romain au. Jusqu'aux crises du Bas-Empire, l'essor de la production d'argent demeure constante. Outre les monnaies, les vaisselles, les bibelots divers, les lampadaires, les tables et lits ouvragés, les bustes l'attestent. À partir du, l'art de l'argenterie rejoint l'orfèvrerie sacrée. L'ornementation en relief atteint un apogée avec la demande chrétienne, le perforage, la niellure, le ciselage et l'émail argent caractérisent cette technique d'ornement précise, qui apparaît dans toute sa splendeur avec la cassette de l'église San Nazaro à Milan réalisée au et les portes du baptistère du Latran à Rome au. Les plats, patènes et burettes forment une partie du trésor des vieilles cathédrales. La production byzantine, de même que l'occident barbare, n'oublient pas les armes et bijoux d'apparat. À la suite de l’invasion de l’Espagne par les peuples arabo-berbères ou maures, l'extraction d’argent ibérique ne sert plus la péninsule européenne. L'exploitation minière européenne se répartit vers un plus grand nombre de pays miniers déjà localement actifs, dont la plupart se situent en Europe centrale. La plupart des découvertes des plus grandes mines d’argent se sont faites du fait de la demande croissante entre 750 et 1200, incluant celles faites en Allemagne et en Europe de l’Est. La période carolingienne, amenant le faste dans les églises et les monastères bénédictins hégémoniques, favorise l'art de l'argenterie et de l'orfèvrerie. Il s'agit d'une véritable thésaurisation que l'art monastique, notamment l'ordre bénédictin de Cluny, perpétue malgré les risques de pillage jusqu'au. Les évêchés gardent leurs décorations en argent, ainsi l'autel de Vuolvinius recouvert de feuilles et plaques d'argent doré avec ornementation en relief, élevé dans l'église Saint Ambroise de Milan au. L'argenterie sacrée marque indéniablement l'art souvent préservé jusqu'à nos jours des cathédrales et monastères allemands, comme à Aix-la-Chapelle, Ratisbonne, Essen, Bamberg, Trèves, Hilsdesheim. L'argent placé en couverture sert à protéger les manuscrits sacrés de la cathédrale de Trèves. L'essor de l'art gothique en France, puis en Flandres et en Allemagne ne tarit pas l'attrait pour l'argenterie. Reliquaires, tabernacles, objets de culte divers montrent des motifs ornementaux en bosselage et à plat, à l'instar des aiguières et des plats-bassins profanes. L'argenterie italienne connaît un âge d'or au Quattrocento, avec des artistes prolifiques tels que Lorenzo Ghiberti, Michelozzo, Antonio del Pollaido, Andrea del Venochio. L'autel du baptistère de Florence et surtout l'art profane produisant de la vaisselle d'art, des candélabres et de multiples statuettes témoignent de cette profuse création. Le demi-millénaire compris entre 1000 et 1500 est une période significative durant laquelle augmente le nombre de mines qui sont découvertes, ainsi que celui des avancées technologiques et améliorations de production métallurgique médiévale qui en découlent. Cependant, aucun événement historique concernant l’argent ne peut rivaliser avec la découverte du Nouveau Monde en 1492 et sa première exploitation séculaire. Cette importante découverte et les années qui la suivent ont réinventé le rôle de l’argent à travers le monde. L'exploitation des mines du Potosí après 1545-1555 a conduit à une extraction d’argent telle, qu’elle éclipse alors tout ce qui avait pu se produire avant dans ce domaine. Entre 1500 et 1800, la Bolivie, le Pérou et le Mexique ont effectué à eux trois plus de 85 % de la production et du commerce mondial de l'argent. Au, le style et les techniques des argentiers français, un art codifié par Charles Lebrun et placé sous l'égide royale, gagne les autres pays européens. Le goût de l'argenterie commune - vaisselles, éléments de meubles ou ornements d'ameublement - gagne la noblesse et la riche bourgeoisie française. Mais le siècle des Lumières voit apparaître un désintérêt pour l'argent alors que la porcelaine fait fureur, le déclin de l'usage de l'argent pour la vaisselle est rapide, malgré quelques chocolatières d'exception. Le rococo conserve l'ornementation à base d'argenterie, avant que le néo-classicisme anglais, illustré par l'architecte-décorateur Robert Adam (1728-1792) n'influence durablement l'Angleterre et son art de vivre des élites vers une conservation presque hiératique des anciennes pratiques françaises. L'argent métal précieux a été à différentes reprises considéré comme un étalon monétaire. C'est le cas du "Franc en argent", institué par la loi du 7 germinal an XI, le franc germinal comportant d'argent au titre de 900/1000. De facto s'instaure un bimétallisme (or/argent) qui s'impose jusqu'en 1873. Pendant la période révolutionnaire, le rapport de valeur or/argent se fixe à 1 sur 15,5 alors qu'au milieu du, il était seulement de 1 sur 10,75. Au, plusieurs autres pays ont commencé à contribuer plus considérablement, notamment les États-Unis, avec la découverte du filon Comstock au Nevada. La production d’argent mondiale a continué à grandir, passant de 40 à 80 millions d’onces de production annuelle durant les années 1870. La période allant de 1876 à 1920 a représenté une explosion tant dans le domaine de l’innovation technologique que dans l’exploitation de nouvelles régions dans le monde entier. La quantité produite au cours du dernier quart du a quadruplé par rapport à la production moyenne de ses 75 premières années, passant à presque 120 millions d’onces de production annuelle. De même, de nouvelles découvertes en Australie, Amérique centrale et Europe ont considérablement augmenté la quantité mondiale de production d’argent. À la fin du, l'argenterie industrielle s'impose, le placage industrielle cède la place à la galvanoplastie où s'illustre le Français Ruolz avant l'anglais Elkington en 1899. Les deux décennies entre 1900 et 1920 ont abouti à une augmentation de la production mondiale de 50 % et ont élevé son total à environ 190 millions d’onces. Ces augmentations ont découlé de découvertes faites au Canada, États-Unis, Afrique, Mexique, Chili, Japon et bien d’autres pays. La conséquence économique, rendue inévitable par la hausse de la production mondiale malgré la demande soutenue, entraîne une chute radicale de valeur et d'intérêt pour l'argent. En 1914, à la fin de la Belle Époque, le kilogramme d'argent fin équivaut encore environ à or. En 1933, le kilogramme d'Ag fin n'en vaut plus que la moitié en valeur réelle. La chute est à cette époque marquée par le succès du totalitarisme amplifiée par les ventes massives d'argent de l'Allemagne. Au cours du dernier siècle, de nouvelles technologies ont également contribué à une hausse massive de la production mondiale d’argent. Les avancées majeures ont consisté en le forage par machines à vapeur, l’extraction, l’aspiration de l’eau dans les tunnels et l’amélioration des transports. En outre, les progrès techniques dans l’industrie minière ont amélioré la capacité à séparer l’argent du reste des minerais et ont permis de traiter un plus grand nombre de minerais contenant l’argent. De telles méthodes ont été critiques à l’augmentation du volume de production future, puisque de nombreux filons productifs se sont vus épuisés vers la fin du. Le montre que l'argent est encore un métal américain, les Amériques assurant au milieu des années soixante, 60 pour cent de la production mondiale (). La région de Mexico, associée à la sierra Madre et au désert de Mapuni, ont longtemps assuré la première place au Mexique. En 1965, la production de ce pays passait en seconde position, avec, derrière le Pérou assurant. Venait ensuite les États-Unis avec (Idaho en tête), le Canada (Ontario, Colombie britannique), l'URSS, l'Australie, le Japon, l'Allemagne fédérale, la Suède et la France. À ce jour, la production annuelle mondiale atteint en moyenne 671 millions d’onces, soit t.Les réserves d'argent sont de pour une production annuelle mondiale de (en 2008), ce qui correspond à seulement 13 années de production annuelle. Le gisement collectable pour recyclage est constitué par : Il existe des techniques de recyclage pour les principales applications. Le taux de recyclage du métal est de 30 à 50 %. Cependant, l'argent est de plus en plus utilisé dans des applications où le métal est présent en très faibles quantités (électronique principalement, applications photovoltaïques et verrerie dans une moindre mesure). Dans ces nouvelles applications où le métal est présent en quantités dispersées, l’argent est plus difficilement recyclable. En France, le gisement collectable est de, et le gisement collecté est de.
|
L'argent est l'élément chimique de numéro atomique 47, de symbole Ag. Entre le cuivre et l'or, l'argent appartient à la colonne de la classification périodique appelée "colonne des métaux à frapper". Ce sont en effet les trois métaux, peu ou pas oxydable à l'air, utilisés pour frapper la monaie. Le terme "argent" s'est imposé dans la langue française pour parler de l'argent monétaire car il était plus rare que le cuivre mais moins que l'or, ce dernier n'étant pas assez abondant pour que tout le monde puisse avoir de "l'argent".
|
xwikis
|
La sanction de l'auteur d'un crime ou d'un délit nécessite son identification et l'établissement d'un faisceau d'indices graves et concordants qui constituent les preuves de sa culpabilité. Il faut cependant garder à l'esprit que toute personne suspecte ou poursuivie est présumée "innocente tant que sa culpabilité n'a pas été définitivement établie" par une condamnation et que les droits de la défense ont été garantis à toutes les étapes de la procédure. L'autorité judiciaire dispose de divers moyens de preuve : Dans un contexte général, il est utile de rappeler qu'aux moyens de preuve, deux conceptions s'opposent : celle de la preuve légale et celle de la preuve libre. Le code civil fixe et hiérarchise les modes de preuve admissibles puisqu'il distingue les modes de preuve parfaits (l'écrit, l'aveu et le serment décisoire) et les modes de preuve imparfaits (le témoignage, les présomptions et le serment supplétoire). À ce système traditionnel fondé sur des modes de preuve préconstitués s'oppose le système de liberté de la preuve qui laisse aux parties le choix de la preuve sans aucune hiérarchie et qui favorise, à l'évidence, la recherche de la vérité. La Police et la Justice cherchent donc à établir la vérité par tout moyen de preuve. Ce problème de l'administration de la preuve a dominé, de tous temps, les législations. C'est à partir de la preuve scientifique que la Justice pourra se déterminer sur la culpabilité d'un mis en examen. La conviction qui emportera la décision doit alors être la démarche critique d'un examen total des faits. L'imprécision, la fragilité et la relativité du témoignage humain, démontrées amplement dans les annales judiciaires, ont conduit progressivement la Justice à adopter des témoignages plus objectifs tels que les preuves indiciales qui, comme disait Locard, faisant allusion aux indices "s'ils ne disent pas toute la vérité, ne disent que la vérité". L'identification des indices matériels des faits est l'objet de la criminalistique définie comme l'art et la science de découvrir, d'analyser et d'identifier ces indices. Elle démontre, elle établit la vérité d'une chose ou d'un fait, elle doit être convaincante, évidente, formelle. C'est à travers cette démonstration que la Justice procèdera à l'identification de l'auteur d'un délit ou d'un crime. Pour un esprit moderne, la recherche de la preuve indiciale ne saurait se dispenser de la science, d'autant plus que la criminalistique, qui couvre différents domaines, rassemble la police technique, la police scientifique, la médecine légale, telles que présentées ci-dessous.Elle est chargée de fixer l'état des lieux où se sont produits les crimes et les délits, de rechercher et de recueillir d'éventuelles traces ou indices, d'exploiter les éléments découverts par des méthodes comparatives et enfin d'identifier les personnes impliquées dans les faits.Sans être exclue des domaines précédents, sa mission est plus particulièrement destinée à l'étude effective sur la scène de crime et en laboratoire des traces et des indices matériels. Son domaine d'activité est la criminalistique. Cette discipline applique les progrès les plus récents des sciences pour identifier un malfaiteur, innocenter un suspect ou éclairer la Justice dans la reconstitution du fait criminel.Elle examine les dommages physiques du corps humain. Ce secteur ne se confond pas en France avec la "police technique et scientifique", mais ils demeurent proches et souvent imbriqués. Par techniques associées, on entend : l'histologie, la radiologie, la bactériologie, etc. La criminalistique peut être définie comme une activité en profonde mutation qui demande des compétences pluridisciplinaires faisant appel aux : dont la diversité des champs d'application concerne le phénomène criminel. Bien que participant d'un ensemble hétéroclite, elles sont maintenant dénommées « sciences criminelles ». La criminalistique n'a rien d'un domaine figé. Elle se doit d'être à la hauteur des technologies en constante évolution. Électronique, informatique, transmission à distance des données et des images, microscopie de pointe, biologie moléculaire ou rayons lasers font désormais partie du quotidien des experts. On a longtemps pensé que ces services spécialisés s'intéressaient surtout aux homicides et aux crimes de sang. On s'aperçoit pourtant qu'ils interviennent dans les enquêtes les plus diverses, que celles-ci aient trait au terrorisme, au trafic de stupéfiants, aux agressions sexuelles, à la délinquance économique et financière, au banditisme, aux faux documents et aux faux moyens de paiement, aux œuvres d'art et aux fraudes diverses.
|
La criminalistique est l'ensemble des techniques mises en œuvre par la justice, la police et la gendarmerie pour établir la preuve d'un délit ou d'un crime et en identifier son auteur.
|
xwikis
|
Une preuve empirique est une information qui justifie une croyance dans la vérité ou la fausseté d'une allégation. Du point de vue empiriste, on ne peut prétendre avoir une connaissance que lorsque l'on dispose d'une véritable croyance fondée sur des preuves empiriques. Ceci s'oppose au point de vue rationaliste selon lequel la raison ou la seule réflexion est considérée comme une preuve de la vérité ou de la fausseté de certaines propositions. Les sens sont la principale source de preuves empiriques. Bien que d'autres sources de données, telles que la mémoire et le témoignage d'autres, remontent finalement à une expérience sensorielle donnée, elles sont considérées comme secondaires, ou indirectes. Dans une autre acception, la preuve empirique peut être synonyme de résultat d'une expérience. En ce sens, un résultat empirique est une. Dans ce contexte, le terme « semi-empirique » est utilisé pour qualifier les méthodes théoriques qui utilisent, en partie, des axiomes de base ou des lois scientifiques postulées et des résultats expérimentaux. Ces méthodes sont opposés aux méthodes théorique "ab initio", méthodes qui sont purement déductives et fondées sur des principes premiers. Dans les sciences, une preuve empirique est nécessaire pour qu'une hypothèse soit acceptée par la communauté scientifique. Cette validation est normalement réalisée par la méthode scientifique de l'engagement d'hypothèse, un plan d'expériences, une évaluation par les pairs, un examen contradictoire, la reproduction des résultats, des conférences de présentation et des publications scientifiques. Cela nécessite une communication rigoureuse de l'hypothèse (généralement exprimée en termes mathématiques), des contraintes expérimentales et des contrôles (exprimés nécessairement en termes de dispositif expérimental standard) et une compréhension commune de la mesure. Les affirmations et arguments qui dépendent de preuves empiriques sont souvent qualifiés d"a posteriori" (« à la suite de l'expérience ») par opposition à "a priori" (« qui la précède »). La connaissance ou justification "a priori" est indépendante de l'expérience (par exemple « Tous les célibataires ne sont pas mariés »), alors que la connaissance ou la justification "a posteriori" dépend de l'expérience ou de preuves empiriques (par exemple « Certains célibataires sont très heureux »). La notion de distinction entre "a priori" et "a posteriori" comme équivalent à la distinction entre connaissances empiriques et non empiriques provient de la "Critique de la Raison pure" de Kant. Le point de vue positiviste standard de l'information acquise de manière empirique est que l'observation, l'expérience, et l'expérimentation servent d'arbitres neutres entre théories concurrentes. Cependant, depuis les années 1960, une critique persistante souvent associée à Thomas Kuhn fait valoir que ces méthodes sont influencées par les croyances et les expériences antérieures. Par conséquent, on ne peut s'attendre à ce que deux scientifiques lors d'une observation, d'une expérience ou d'une expérimentation sur un même événement fassent les mêmes observations. Le rôle de l'observation comme arbitre indépendant d'une théorie peut ne pas être possible. La dépendance à la théorie de l'observation signifie que, même s'il existait des méthodes d'inférence et d'interprétation convenues, les scientifiques pourraient encore être en désaccord sur la nature des données empiriques.
|
Preuve empirique, données ou connaissance, aussi appelée expérience des sens, est un terme collectif pour désigner la connaissance ou les sources de la connaissance acquise au moyen des sens, en particulier par l'observation et l'expérimentation. Le terme vient du mot grec ancien pour expérience, ἐμπειρία ("empeiría").
|
xwikis
|
Le royaume a couvert les villes actuelles de Prague, Plzeň (en allemand Pilsen), Hradec Králové, Karlovy Vary, Liberec, Ústí nad Labem, Pardubice, Mladá Boleslav, Kladno, České Budějovice, Litoměřice, Most, Havlíčkův Brod, Jindřichův Hradec, Český Krumlov, Strakonice, Teplice, Třeboň, Cheb, Polná, Tábor et Písek.Les textes de l'Antiquité au décrivent la Bohême comme couverte puis entourée de forêts denses et riches en animaux. Ainsi en 1782, l’"Encyclopédie méthodique de géographie moderne" décrit-elle la nature de ce pays comme suit :La Bohême doit son nom aux "Boïens",, mais les sources historiques fiables manquent. Ce peuple en a vraisemblablement été chassé sous Auguste, par les Marcomans, donnant naissance (avec une déformation du nom de la tribu) à la nation germanique des Bavarii.Il est possible que les territoires constituant la Bohême actuelle aient été intégrés au à l'éphémère royaume du Franc Samo, mais cela reste hypothétique. Toutefois, certains chercheurs (essentiellement tchèques) considèrent qu'il est probable que la bataille de Wogastisbourg, livrée par Samo, se soit déroulée près de Prague, même s'il n'y a aucune certitude à ce sujet.Selon les traditions locales, couchées sur papier au début du par Cosmas de Prague, les tribus vivant sur ces territoires eurent tout d'abord pour chefs les souverains légendaires Čech puis Krok. Encore selon Cosmas, Přemysl, qui avait épousé Libuše, fille de Krok, régna après lui et serait à l'origine de la dynastie des Přemyslides, qui s'éteignit en 1306. Après avoir porté la couronne ducale jusqu'à Vratislav II de Bohême, cette dynastie devint royale sous ce prince (1086), par un décret de l'empereur Henri.En 1526, Louis II, roi de Hongrie et de Bohême, dernier roi de la maison de Jagellon, tomba à la bataille de Mohacs. Son beau-frère Ferdinand d'Autriche, frère de Charles Quint, fut élu roi. Avec lui commença la maison autrichienne de Bohême, élective jusqu'en 1547 puis héréditaire jusqu'en 1918 (). La Bohême ne cessa plus d'appartenir aux États de la maison d'Autriche (devenue en 1780 maison de Habsbourg-Lorraine), que pendant quelques instants en 1619 et 1629, jusqu'à la chute de l'Empire d'Autriche au. Au :En 1918, les Tchèques et les Slovaques s'émancipent de la tutelle austro-hongroise et fondent la Tchécoslovaquie. De 1938 à 1945, le pays est démembré. La région des Sudètes est annexée par le Troisième Reich, la Bohême et la Moravie sont intégrées au protectorat de Bohême-Moravie. À la fin de la Seconde Guerre mondiale, la Tchécoslovaquie est recréée. Elle fait partie du "Bloc de l'Est" allié de l'Union des républiques socialistes soviétiques. En 1968, les mouvements du « Printemps de Prague », qui contestent la domination soviétique, sont écrasés par les chars de l'Armée rouge. La Tchécoslovaquie retrouve une totale indépendance politique en 1989. En 1993, cette dernière se scinde pour donner naissance à la République slovaque et à la République tchèque, dont fait partie la région historique de Bohême.
|
La Bohême ("Čechy" en tchèque, "Böhmen" en allemand) est une région historique d'Europe centrale, actuellement l'une des composantes de la Tchéquie avec la Moravie et une petite fraction de la Silésie. Elle tire son nom des Celtes boïens et du germanique "heim" (ancien français "ham" ou hameau).
|
xwikis
|
En 1285, Jacques Bretel dans son "Tournoi de Chauvency" décrit un jeu qui regroupe toutes les caractéristiques de la comédie musicale : c'est une petite pièce théâtrale à thème amoureux, où les acteurs improvisent et s'expriment en chantant, dansant et mimant leurs sentiments. Un ménestrel, une noble dame et un chevalier sont les héros de ce « jeu du chapelet » ou « Couronne de fleurs ». L’appellation « comédie musicale » ("commedia musicale") est apparue "a priori" pour la première fois, au en Italie pour qualifier les rares ouvrages musicaux légers mêlant chant et dialogue (et éventuellement danse), à l’image de l’opéra-comique français. On retrouve cette appellation en France, de l’« Entre-deux-guerres » jusqu’à la fin des années 1960, pour qualifier de petites comédies de boulevard musicales, appelées également « opérettes légères », comme "Couchette n° 3" de Joseph Szulc, Alex Madis et Albert Willemetz créée en 1929 au théâtre des Capucines. Elle n’a alors rien à voir avec la comédie musicale américaine dans sa forme primitive. Le qualificatif de « comédie musicale » refera son apparition dans l’hexagone au milieu des années 1990 pour qualifier (de façon plus ou moins justifiée) différentes formes d’ouvrages musicaux.La comédie musicale américaine, dans sa forme primitive, est née au début du, même si "The Black Crook" (1866) est parfois considérée comme la première comédie musicale. Elle est alors très différente de l'opérette ou comédie musicale européenne. Elle n’est en effet pas née d’une forme théâtrale mais du mélange de deux genres musicaux d’origine britannique, alors très en vogue outre-atlantique : le « "burlesque" », sorte de petite revue née vers 1830 sur les scènes populaires des « beuglants » anglais, plus ou moins construite autour d’une trame très légère, d’un thème ou d’un simple fil conducteur dont elle conserve le système de comédie liant des numéros musicaux, et la revue de music-hall, née une vingtaine d’années plus tard dans les grands « caf' conc' » de Londres et qui se développa aux États-Unis jusqu’aux fastueuses productions de Florenz Ziegfeld dans les années 1910-1920. La continuité dramatique n’y est pas alors vraiment respectée. Ses livrets sont plutôt un ensemble de liens autour d’une vague histoire, voire d’un concept, ne servant qu’à donner une cohérence (parfois bien fragile) à l’ensemble. Il arrive alors fréquemment que les numéros musicaux d’une même comédie musicale soient écrits par des compositeurs différents. Irving Berlin, Cole Porter ou George Gershwin s’illustrèrent dans ce genre hybride, avec des ouvrages d'une grande qualité musicale dont bon nombre de « numéros » sont devenus des « standards »" de la chanson américaine. Le genre va néanmoins se théâtraliser rapidement. Cette évolution s’accélère particulièrement au début des années 1930 avec l’arrivée du cinéma parlant (et chantant) qui réclame des scénarios plus cohérents. En 1943, Richard Rodgers démarre une collaboration – qui deviendra légendaire – avec le librettiste Oscar Hammerstein II. Après s’être essayé dans quelques revues, cet excellent compositeur avait commencé, lui aussi, dans la comédie musicale « première formule » avec pour principal collaborateur Lorenz Hart. Déjà, avec des ouvrages comme "The Boys from Syracuse" en 1938 (d’après "La Comédie des erreurs" de William Shakespeare), ou "Pal Joey" en 1940, il avait amorcé une forme plus construite de comédie musicale. La mort prématurée de Hart en 1943 le pousse à chercher de nouveaux collaborateurs, ce qu'il trouve en la personne de Hammerstein, doté d'une solide expérience dans la comédie musicale « classique » (ce dernier est en effet l'auteur de succès comme "Rose-Marie" avec Rudolf Friml en 1924, "The Desert Song" avec Sigmund Romberg en 1926 et "Show Boat" avec Jerome Kern en 1927) et qui venait d'adapter en comédie musicale l'opéra "Carmen" sous le titre de "Carmen Jones". Le nouveau duo va faire évoluer le genre, n’hésitant pas à aborder des sujets graves sur un ton léger et ne négligeant jamais le message social (comme Hammerstein l’avait d’ailleurs déjà amorcé avec "Show Boat" à propos du racisme). Leur collaboration produit des ouvrages dont la plupart vont devenir des « classiques » grâce, en particulier, à leurs adaptations cinématographiques. Parmi ceux-ci : "Oklahoma!" (1943), "South Pacific" (1949), "Le Roi et moi" (1951) et "La Mélodie du bonheur" (1959). Ils ouvrent une nouvelle voie à des compositeurs établis comme Irving Berlin (avec "Annie Get Your Gun" en 1946, "Miss Liberty" en 1949 ou "Call me Madam" en 1950), Frank Loesser ("Guys and Dolls" en 1950) Cole Porter ("Kiss Me, Kate" en 1948, "Can-can" en 1953), Meredith Willson ("The Music Man" en 1957) mais également à de nouveaux venus : Alan Jay Lerner et Frederick Loewe ("My Fair Lady" en 1956), Jule Styne ("Gypsy" en 1959, "Funny Girl" en 1964), Jerry Bock et Sheldon Harnick (Fiddler on the Roof en 1964), Jerry Herman ("Hello, Dolly!" en 1964) ou encore Mitch Leigh et Joe Darion ("Man of the Mancha" en 1965), Mais c’est le chorégraphe Jerome Robbins et le compositeur et chef d’orchestre Leonard Bernstein qui établissent les règles de la comédie musicale américaine que l’on peut qualifier de « contemporaine ». Dans "On the Town" en 1944, Robbins commence à mettre en pratique des idées alors révolutionnaires : réunir étroitement des formes musicales habituellement séparées aux États-Unis, le chant et la danse, en tenant compte du caractère des personnages et fondues dans des dialogues parlés. La « "chorus line" » (danse d'ensemble) est toujours présente comme aux premiers temps mais de façon toujours justifiée et pouvant aussi se diviser en solos. L’aboutissement de cette recherche a pour résultat en 1957 ce qui restera certainement « le » chef-d’œuvre de la comédie musicale américaine : "West Side Story". Les bouleversements culturels et sociaux accompagnant la fin des années 1960 et permettent à de nouveau talents d'émerger. Parmi eux John Kander et Fred Ebb ("Cabaret" en 1966) et bien évidemment Stephen Sondheim. Ce compositeur est certainement le plus original. Il commence sa carrière comme librettiste et auteur de lyrics, notamment pour "West Side Story" et "Gypsy" ou encore pour l’un des derniers ouvrages que Richard Rodgers composa après le décès d’Hammerstein (que Sondheim considérait comme son mentor) en 1960 : "Do I Hear a Waltz?" (1965). Mais il ne peut concevoir un livret et des lyrics sans la musique et voudrait être reconnu également comme compositeur. Ses débuts sont difficiles ("Company" en 1970, "Follies" en 1971 et "A Little Night Music" en 1973 d'après un film d'Ingmar Bergman). Son langage musical ne ressemble en effet pas aux standards de Broadway et déroute le public (certains critiques allant jusqu'à le traiter de « fossoyeur de la comédie musicale ») : aux « numéros », il préfère une continuité musicale dans l'esprit de Puccini ou de Wagner, adaptant son style aux thématiques de ses livrets, dont les sources d'inspiration (notamment puisées dans la littérature européenne et asiatique) sont jugées trop « intellectuelles ». Mais son opiniâtreté finit par payer ("Sweeney Todd" en 1979) et il est aujourd’hui reconnu comme l’un des plus grands noms de la comédie musicale américaine. La révolution hippie frappe aussi la comédie musicale : à la périphérie de la mythique Broadway (d'où leur nom de « "off-Broadway" ») s’installent plusieurs petites salles ou lieux de spectacles de bric et de broc, dans lesquels spectacles d’« avant-garde » et « happenings musicaux » dans l'esprit contestataire du « "Flower Power" » commencent à fleurir. Parmi ces derniers, l’un accède rapidement aux honneurs d’une scène "on" Broadway avant de faire le tour du monde : "Hair", créé en 1967. Les jeunes qui, depuis de nombreuses années, boudaient la comédie musicale, viennent sans le vouloir de la renouveler, mêlant leurs rythmes (à commencer par le rock 'n' roll et la folk) et leurs idéaux dans des spectacles le plus souvent corrosifs et provocateurs. Un autre genre de comédie musicale fait ainsi son apparition et va générer de par le monde de nouveaux jeunes émules. Dans la lignée de "Hair" naissent des ouvrages comme "Jacques Brel Is Alive and Well and Living in Paris" de Mort Shuman et Eric Blau en 1968, "Godspell" de Stephen Schwartz en 1971 ou plus récemment "Rent" de Jonathan Larson, transposition contemporaine de "La Bohème" de Puccini à l’époque du sida. La scène anglaise, berceau de la pop, n'est pas en reste avec "The Rocky Horror Show" en 1973 et surtout un jeune compositeur qui va dorénavant marquer de son empreinte le monde de la comédie musicale, Andrew Lloyd Webber, avec "Joseph and the Amazing Technicolor Dreamcoat" en 1968 et surtout "Jesus Christ Superstar" en 1971. Au cours des années 1980, la qualité des productions a tendance à stagner, souvent sacrifiée au profit d’hypothétiques « recettes » qui ont fait leurs preuves et que l'on n'ose changer, croyant ainsi préserver une certaine rentabilité. Le résultat est une profusion d’ouvrages coulés dans le même moule, dans un style de musique uniformisé, pour ne pas dire aseptisée, et qui finiront par ne plus faire recette. Ce qui n'est pas le cas de l’Angleterre où Andrew Lloyd Webber continue à triompher à Londres avec "Evita" (1978), "Cats" (1981) et "" en 1986 (depuis 2006, c'est la comédie musicale la plus jouée en continu à Broadway et ayant amassé le plus de recettes au guichets, avec des revenus de 3,2 milliards de dollars), rejoint bientôt par un compositeur français, Claude-Michel Schönberg, qui réussit avec un succès éclatant l'adaptation en anglais de sa comédie musicale "Les Misérables" (1985). Depuis 2004, New York accueille à l'automne le qui se déroule sur trois semaines.La plupart des livrets de la comédie musicale américaine sont de nos jours structurés et respectent une continuité dramatique. Il est toutefois à remarquer que le genre a conservé quelques particularités de ses origines. La plus évidente est l’importance de la danse, le théâtre musical européen – à commencer par l’opéra – privilégiant pour sa part le chant et faisant même souvent totalement abstraction du ballet (cette tendance tend à se modifier). Une autre particularité est que l’on trouve encore assez souvent des dialogues en redite avec le numéro musical qui le suit. Contrairement à la France, le succès d'une comédie musicale aux États-Unis et au Royaume-Uni se juge à sa durée. Un spectacle musical qui effectue une tournée en France restera quelques jours dans chaque ville, alors que dans les pays anglo-saxons, les comédies musicales peuvent rester plusieurs mois dans la même ville. "Les Misérables" détient ainsi le record absolu avec 21 années consécutives à l'affiche, de 1985 à 2006. Cette différence s'explique par le fait que les comédies musicales anglo-saxonnes impliquent de gros moyens financiers ne pouvant se rentabiliser que sur des durées d’exploitation importantes. De plus, elles nécessitent souvent un aménagement spécial des théâtres. La salle étant également, dans certains cas, aussi décorée aux couleurs du spectacle.La comédie musicale « à la française » est particulièrement florissante dans les années 1920-1930 où on l'appelle également « opérette légère ». Véritables petites comédies de boulevard musicales, elles restent très différentes de leurs « cousines » américaines. Interprétées tout au plus par une dizaine d’interprètes, elles sont accompagnées par une poignée de musiciens, voire un simple piano. Le théâtre musical « léger » (par opposition à la musique « sérieuse ») subit à partir des années 1970 une longue éclipse. Mais à partir de 1995, un léger frémissement commence à se faire sentir avec quelques reprises de « standards » mais surtout des spectacles de montages musicaux comme "La Java des mémoires", "Les Années Twist" et "La Fièvre des années 80" de Roger Louret. Ces spectacles, qui ne peuvent toutefois être assimilés à du théâtre musical étant réalisés autour d’un concept et non d’un livret, remportent les faveurs du public, bénéficiant d’une promotion très largement relayée par les médias. Leur succès ouvre la voie à "Notre-Dame de Paris", créé le 16 septembre 1998, pour lequel Richard Cocciante a accumulé les « tubes ». On ne peut cependant pas encore le qualifier à proprement parler de « comédie musicale » dans la mesure où Luc Plamondon (qui ne se gêne pas alors pour la critiquer) a plutôt écrit une succession de tableaux sans aucune continuité dramatique, destiné à mettre en images ce qui est à la base un album discographique. C’est néanmoins un succès populaire incontestable qui pose les bases d'une nouvelle forme – improprement appelée « opératique » (contrairement aux "Misérables") – et qui générera de nombreux ouvrages, eux aussi adaptés d'albums musicaux aux réussites très diverses. Autre production à grand spectacle, "Da Vinci : Les Ailes de la lumière", comédie musicale de Christian Schittenhelm inspirée de la vie du peintre florentin et créée durant l'été 2000 au Casino de Paris, utilise la technologie 3D dans son dispositif scénographique. Avec les années 2000, un « retour aux traditions » se fait sentir avec l'éclosion de nombreuses productions plus modestes qui remportent un succès public et critique de par leur originalité comme "Le Cabaret des hommes perdus" (Molière 2007 du théâtre musical) ou "L’Opéra de Sarah" (Molière 2009 du théâtre musical). L'arrivée de la société Stage Entertainment en août 2005 bouleverse le paysage musical en remettant au goût du jour la comédie musicale américaine grâce aux succès éprouvés de "Cabaret" aux Folies Bergère et du "Roi lion" au théâtre Mogador (Molière 2008 du théâtre musical), de solides ouvrages théâtraux accompagnés - comme il se doit - par un orchestre. Détentrice des droits de nombreux grands "musicals", elle rachète dans la foulée le théâtre Mogador afin d'en faire un haut-lieu du théâtre musical équivalent à ceux de Londres et Broadway. Avec le retour du théâtre musical, toute une profession commence à s’organiser et des structures, pour la plupart associatives, se constituent peu à peu. Créé à Béziers en 2005 par le producteur Matthieu Gallou, le festival "Les Musicals" se transporte à Paris au cours de l’été 2007 avant que des difficultés financières conduisent à l'arrêt prématuré de sa sixième édition en 2009. Une autre structure a vu le jour en 2008 : "Diva", une association créée par Cathy Sabroux et Jacky Azencot (déjà à l’origine de "Musique en festival" et de la salle de concerts "Le Sous-Sol"), organisatrice avec le webzine du musical "regardencoulisse.com" en mai 2009 de la « Fête du théâtre musical » au théâtre Comédia et des « Découvertes Diva », lectures publiques d’ouvrages en cours d’écriture ou en recherche de production présentés en avant-première. Une « Fédération des musicals », encore à l'initiative de Matthieu Gallou, a regroupé entre 2006 et 2010 des professionnels (artistes, auteurs, compositeurs, producteurs) dans le but d'aider à la création, la promotion et la diffusion de toutes les formes de théâtre musical. Depuis 2017 existent les Trophées de la Comédie Musicale : des récompenses artistiques décernées à l’occasion d’une cérémonie annuelle. Des journalistes, des blogueurs et des professionnels du spectacle vivant sont à l’initiative de ce projet, tous œuvrent à la promotion de la comédie musicale à travers une des six entités fondatrices suivantes: la chaîne YouTube "Broadway à Paris", les sociétés de production "Kryzensha" et "Musidrama", les sites web "Musical Avenue" et "Regard en Coulisse", consacrés à l'actualité du théâtre musical et enfin l'auteur et conférencier sur l'histoire de la comédie musicale Patrick Niedo. En 2003 naissent les premières écoles consacrées exclusivement à la comédie musicale en France, tels le Centre Rick Odums/Institut supérieur des arts de la scène et l'Académie internationale de comédie musicale (AICOM), fondée par Pierre-Yves Duchesne. D'autres écoles créent leur propre cursus pluridisciplinaire consacré à la comédie musicale comme Choreia à partir de 2001, l'ECM 3 ARTS ouvert en 2002 et devenu l'ECM de Paris, le Studio international Vanina Maréchal ouvert en 2008 ou encore Musidrama depuis 2012.Une comédie musicale est et/ou expliquent la psychologie d'un personnage, notamment lors de soliloques. Le terme anglo-saxon « "musical" » tend à remplacer de nos jours celui de « comédie musicale », tout comme le terme « "musical comedy" » a été supplanté par « "musical play" » dans les pays anglophones au milieu du. La notion de « spectacle musical » est utilisée à partir de "Notre-Dame de Paris" (1998), consistant - comme précédemment mentionné - en une succession de tableaux sans réelle continuité dramatique. Sa conception suit les règles de l'industrie du disque : un album, constitué d'un certain nombre de « tubes » potentiels, sort en premier, afin de familiariser le public avec la musique du spectacle et l'attirer le moment venu dans les salles (le spectacle étant alors déjà en partie rentabilisé), tandis que les comédies musicales attendent le début des représentations pour sortir - si possible - un album.. Parmi les spectacles musicaux bâtis sur ce principe, on peut citer "Les Dix Commandements, Le Roi Soleil, Roméo et Juliette, de la haine à l'amour,, Robin des Bois, La Légende du roi Arthur" ou plus récemment "Les Trois Mousquetaires". La dénomination de « comédie musicale » qui leur est parfois attribuée est donc une erreur communément relayée par la presse française.Note : seules les comédies musicales bénéficiant d'un article ou correspondant aux sont citées ci-dessous (et non les films musicaux). De même, seules les dates de création sont retenues et non les reprises. Sont spécifiés entre parenthèses dans l'ordre : le(s) compositeur(s) / le(s) parolier(s) - le(s) librettiste(s).
|
La comédie musicale est un genre théâtral, mêlant comédie, chant, danse et les claquettes. Apparue au tout début du, elle se situe dans la lignée du mariage du théâtre et de la musique classique qui avait donné naissance aux siècles précédents au ballet, à l'opéra, à l'opéra-bouffe et à l'opérette. Elle s'est particulièrement développée aux États-Unis, se dissociant à partir des années 1910 du genre classique par l'intégration de musiques « nouvelles » comme le jazz. De fait, le terme évoque de nos jours principalement les États-Unis et plus spécialement Broadway.
|
xwikis
|
John Francis, dit Jaco Pastorius, naît en 1951 en Pennsylvanie. Son père, musicien professionnel (batteur et chanteur) est d'origine allemande et sa mère d'origine finlandaise. Il a 7 ans quand sa famille s'installe en Floride. C'est là que Jaco passe son enfance et s'imprègne de toutes les musiques qu'il peut entendre (musique des Caraïbes, jazz, rhythm and blues, rock...). Il va à l'école élémentaire à la St. Clement Catholic School, puis au lycée au Northeast High à Oakland Park. Sportif accompli, il pratique de nombreux sports, dont le football américain, le basket-ball, le baseball. Il semble que son arrogance lui vaille des déboires assez tôt et c'est ainsi qu'à 13 ans, il se casse le poignet en jouant au football ce qui aura pour conséquence d'entraver durablement son aptitude à jouer de la batterie. Il s'initie au piano, à la guitare et même au saxophone. À 15 ans, après une nouvelle opération au bras, il adopte définitivement la basse. Il utilise une basse "fretless" qu'il s'est bricolée à partir d'une Fender Jazz Bass 1962 dont il enlève les frettes, recouvre le manche de plusieurs couches d'un vernis époxy et y adapte dans un premier temps des cordes (pour sonner comme une contrebasse), puis des cordes de marque Rotosound modèle Swing Bass 66 (qui donneront l'originalité de sa sonorité de basse fretless). Il débute dans des orchestres locaux, notamment « La Olas Brass », un groupe de cuivres de neuf musiciens, spécialisé dans les reprises d'Aretha Franklin, Otis Redding, Wilson Pickett, James Brown et le Tijuana Brass. Après le départ de son bassiste David Neubauer, il le remplace et commence son ascension irrésistible de bassiste légendaire. Il joue, un temps, sur des bateaux de croisière (il va croiser les musiciens des Wailers et découvrir le reggae en Jamaïque). Il fait une très longue tournée avec les C.C. Riders (alias Chitlin's Circuit's Riders), le groupe du chanteur Wayne Cochran. Pastorius considérera toujours cette tournée comme la période la plus heureuse de sa vie.Né « John Francis Pastorius III », son nom de confirmation Anthony produit « John Francis Anthony Pastorius III ». Le choix du nom « Jaco » semble avoir été influencé par son admiration pour l'arbitre de la Ligue nationale de baseball Jocko Conlan. Une erreur d'orthographe dans une lettre adressée par le pianiste français Alex Darqui aurait orienté son choix vers « Jaco ».L'une des plus grandes sources d'influence de sa vie fut, selon lui, Herbie Hancock qui lui fit découvrir notamment Gil Evans et la musique du temps de Louis Armstrong. Il a d'ailleurs grandi dans l'entourage de Herbie Hancock en Floride et suivi ses pas. D'autres influences citées par lui : James Brown, les Beatles, Miles Davis, Igor Stravinsky, Jimi Hendrix, Duke Ellington, Charlie Parker, Paul Hindemith, Frank Sinatra, Tony Bennett, The Band, Santana, Frank Zappa, Bob Marley, Rocco Prestia, Ray Charles, Charles Mingus, John Coltrane, Otis Redding, Cannonball Adderley, Jerry Jemmott, James Jamerson et Lucas Cottle (un bassiste néo-zélandais inconnu qui jouait souvent avec lui).Au début des années 1970, installé à Miami, Jaco Pastorius joue dans l'orchestre du multi-instrumentiste Ira Sullivan et donne des cours à l'Université. Là, il rencontre le jeune Pat Metheny qui lui présente le pianiste Paul Bley. En 1974, le groupe de Bley, composé de Metheny, Pastorius et du batteur Bruce Ditmas, enregistre un album (qui, « business oblige », sera réédité ultérieurement sous le titre "Jaco", le bassiste étant entre-temps devenu une vedette). En 1975, Pastorius joue aux côtés du batteur Bob Moses sur le premier disque de Pat Metheny, "Bright Size Life", qui est en fait à l'origine la démo de Metheny pour chercher des concerts. ECM distribuera ce disque comme un album produit par la maison.En 1975, il enregistre pour le label Epic son premier album comme leader, intitulé "Jaco Pastorius". C'est cet album qui lui apporte la célébrité. Il est vrai que ce disque est foisonnant et donne un bon aperçu de la virtuosité et du large spectre musical de Pastorius (jazz, rhythm and blues, rock, musique des Caraïbes). Cet album contient, entre autres morceaux d'anthologie, une reprise du standard bebop "Donna Lee" de Miles Davis (crédité par erreur à Charlie Parker) en duo avec le percussionniste Don Alias, un morceau en solo "Portrait of Tracy" (où Pastorius utilise - largement au-delà de ce qui était alors entendu - la technique du jeu mélodique et en accords en harmoniques et démontre que la basse peut être abordée comme un instrument polyphonique), un thème soul "Come on, come over" avec les chanteurs Sam and Dave, des titres jazz fusion ou latin jazz avec Herbie Hancock et Hubert Laws, etc. Cet album sort en 1976, année de sortie de l'album "Black Market" de Weather Report, sur lequel il joue deux morceaux. La même année, il enregistre avec la chanteuse Joni Mitchell l'album "Hejira" qui le fera connaître dans le monde de la pop music « West Coast ».C'est donc en 1976 qu'il rejoint Weather Report, le groupe de jazz-rock fondé par Joe Zawinul et Wayne Shorter dans lequel Pastorius restera jusqu'en 1982. Avec l'arrivée de Pastorius, et grâce au charisme de ce dernier, Weather Report connaît un succès planétaire dépassant largement le petit cercle des amateurs de jazz. Zawinul et Shorter ne s'y trompent pas et Pastorius est coproducteur dès le deuxième album. On peut entendre Pastorius sur les albums "Black Market" (1976), "Heavy Weather" - qui contient "Birdland" et "Teen Town" - (1977), "Mr Gone" (1978), "8:30" (1979), "Night Passage" (1980) et "Weather Report" (1982). Joe Zawinul le surnomma « Jaco the catalyst » en raison de sa capacité à catalyser l'attention du public. Pour évaluer l'importance de Jaco dans l'univers du jazz-rock, citons la simple phrase publiée quelques années plus tard lors d'un tour d'horizon historique par le magazine Le Monde de la musique :... Entre 1977 et 1979, Pastorius est par ailleurs très actif. Il enregistre comme accompagnateur de la chanteuse Joni Mitchell avec le guitariste Pat Metheny et le percussionniste Don Alias "Don Juan's Reckless Daughter" (1977), "Shadows and lights" et "Mingus" (1979). On peut l'entendre aussi aux côtés du tromboniste Albert Mangelsdorff, d'Airto Moreira, de Flora Purim, d'Herbie Hancock, de Michel Colombier, et même sur le morceau "Une simple mélodie" de Michel Polnareff. C'est à cette époque que Jaco Pastorius commence à avoir des comportements de plus en plus étranges. Il souffre en effet de troubles bipolaires (psychose maniaco-dépressive) où alternent phases d'euphorie et phases de dépression. Par ailleurs, il consomme beaucoup de drogue et d'alcool. Ceci aboutit à des prestations catastrophiques (le concert à La Havane avec John McLaughlin et Tony Williams, en 1979, "Trio of Doom", est resté l'un des pires souvenirs du guitariste britannique), des concerts annulés, des altercations avec des musiciens et des dirigeants de maisons de disques.En 1981, Jaco enregistre pour le label Warner Music Group avec un big band monté pour l'occasion, le Word of Mouth Band, un album, éponyme pour cause de disputes avec les producteurs des nombreux interprètes de premier plan qui interviennent sur celui-ci. On trouve dans cet orchestre des musiciens de premier plan comme Don Alias, Peter Erskine, Jack DeJohnette, Herbie Hancock, Othello Molineaux, Michael Brecker, Howard Johnson, Hubert Laws, Wayne Shorter, Toots Thielemans... plus un orchestre classique très particulier, car seuls les meilleurs de chaque pupitre ont été retenus par Jaco. L'orchestre qu'il avait demandé n'était pas assez performant. L'ensemble des solistes ont donc enregistré leur partie et ils les ont triplées voire quadruplées pour donner l'effet d'un orchestre de 70 personnes. Le tout dirigé par l'arrangeur Michael Gibbs. On peut retrouver une bonne partie du Big Band sur l'album "The Birthday Concert" enregistré en public pour les 30 ans du bassiste. La profondeur du jeu de Pastorius en complément - assez désorientant à prime écoute - des sections de cuivres et de percussions, est alors à son apogée. L'originalité des compositions (notamment "Three views of a secret") et des arrangements (notamment "John and Mary" qui oscille entre ballade western sur fond de steel drum et symphonie classique) est poussée aux extrêmes. Sans compter l'interprétation virtuose d'une fantaisie chromatique de Jean-Sébastien Bach jouée à toute allure. Cet aboutissement donne à l'album un aspect testamentaire. On y trouve beaucoup de directions, à l'instar de son premier album solo de 1975. En 1981 toujours, il enregistre un dernier album avec Weather Report, éponyme, qui sortira en 1982. Pastorius fait une tournée avec le Word of Mouth remonté pour l'occasion. L'orchestre se produit entre autres au Japon (où est enregistré le double album live "Twins", dont sera tiré l'album "Invitation"). Si de nombreux concerts sont merveilleux - comme l'atteste l'écoute des disques -, cette tournée est pour le moins chaotique, à cause du comportement erratique de son leader. Les anecdotes commencent à remplir la rubrique scandales des journaux. De plus, Pastorius est en instance de divorce (qui se passe mal) et en crise avec sa maison de disques (CBS Sony Music) qui le contraint à dissoudre son big band (l'un des plus onéreux de l'époque). Jaco Pastorius enregistre ce qui sera publié après sa mort comme l'album "Holiday for pans". Cet album, assez étrange, contient essentiellement des maquettes consacrées à l'utilisation des steel drums et met en avant Othello Molineaux, spécialiste de l'instrument. À l'époque, le producteur de la maison de disques refuse de sortir l'album, dont la réalisation a pourtant été coûteuse, considérant la musique enregistrée comme trop hermétique et pensant qu'un tel produit n'aurait aucun avenir commercial. Jaco en restera très frustré. L'album sortira donc dans les années 1990, mais Il y a également des parties de guitares qui semblent comme ajoutées.Pastorius se retrouve donc sans maison de disques et sans orchestre. Ses problèmes psychiatriques sont de plus en plus néfastes à sa carrière. Il enchaîne les accidents (comme la chute d'un balcon en Italie) et les scandales (apparitions sur scène nu, couvert de boue, ivre mort)... Les anecdotes sur ses « excentricités » abondent, parfois amusantes (convoqué en urgence pour une répétition au milieu de la nuit, Brian Melvin trouve le bassiste en train de jouer avec un canard en plastique dans son bain), mais le plus souvent tragiques (lors d'une tournée en Allemagne avec Biréli Lagrène, il saute du bus et est retrouvé le lendemain par la police locale dormant dans la neige vêtu d'un seul t-shirt). Il suit un temps un traitement au lithium qui le rend apathique et l'empêche selon lui de jouer. Mais dès qu'il cesse ce traitement, il redevient incontrôlable et prétend que seul l'alcool arrive à le calmer.À partir de 1984, son comportement lui ferme les portes d'une bonne partie de la scène musicale. On peut cependant l'entendre auprès de Mike Stern, Hiram Bullock, Brian Melvin, Biréli Lagrène, etc. En 1984, il fonde avec Derf Scratch, John Densmore et Jeffrey Meek un groupe de rock, baptisé Crime. Ses concerts et ses disques de l'époque ressemblent malheureusement souvent à des jam sessions informelles et bruyantes. Il participe cependant en 1985 à la réalisation d'une vidéo pédagogique "Modern Electric Bass".En 1986, il est devenu sans domicile fixe, dormant à la belle étoile et passant la plupart de son temps à traîner avec des clochards sur un terrain de basket. En juillet, il est interné à l'hôpital psychiatrique Bellevue (New York). En décembre, il retourne en Floride, habite un temps chez son père avant de reprendre une vie de semi-clochard. Il est régulièrement arrêté par la police, et « interdit de séjour » dans de nombreux clubs de jazz. De même, il est fréquemment éjecté "manu militari" de concerts d'autres musiciens durant lesquels il essaie de monter sur scène sans y être invité (concert de Carlos Santana à Fort Lauderdale, par exemple).Le soir du, il est violemment battu par Luc Havan, responsable du Midnight Bottom Club une discothèque de Wilton Manors, Fort Lauderdale. On retrouve Pastorius gisant, un œil et un bras en très mauvais état, le crâne fracturé et atteint d'une pneumonie. Il est conduit au Broward General Medical Center où il meurt 10 jours plus tard en n'ayant jamais repris connaissance. La légende dit que son cœur s'est arrêté 3 heures après que l'on a débranché son assistance respiratoire, alors que son électro-encéphalogramme était plat. Luc Havan, alors âgé de 25 ans, d'abord inculpé de meurtre "(second degree murder)" a finalement été condamné à vingt-deux mois de prison ferme et cinq ans de mise à l'épreuve pour violences ayant entraîné la mort sans intention de la donner "(third degree murder)", après avoir plaidé coupable et passé un accord avec la justice. Libéré pour bonne conduite après quatre mois, il s'installe à Palm Beach County où il exerce la profession d'agent immobilier.Jaco Pastorius est un musicien clé dans l'histoire de la guitare basse. À l'instar de Jimi Hendrix pour la guitare ou de Charlie Parker pour le saxophone, Pastorius a révolutionné l'approche de son instrument. En popularisant le son particulier produit par un manche de basse électrique sans frettes. Par sa virtuosité, son inventivité, son sens du groove, son exploration de toutes les ressources de l'instrument (rythmiques, mélodiques, harmoniques, etc.), mais aussi des spécificités des instruments « amplifiés » : larsen, utilisation de pédales d'effets. Il a inspiré des milliers de bassistes. Il y a un « son Pastorius » qu'on retrouve encore aujourd'hui chez de nombreux musiciens. Plus largement, Jaco Pastorius a apporté au jazz un vent de folie (il n'est pas innocent qu'une de ses compositions soit titrée "Punk jazz"). Il fait une magnifique prestation sur "Black Market" lors d'un concert à la Stadthalle à Offenbach (Allemagne). Pastorius était aussi un compositeur et un arrangeur remarquable. On lui doit des titres aux mélodies lyriques, aux harmonies complexes qui sont devenus des standards de jazz : une reprise de "The Chicken" (de Pee Wee Ellis), "Continuum", "Portrait of Tracy", "Three views of a secret", "Teen town", "Liberty city", "Reza", "Used to be a cha cha", "River people", "Opus pocus", etc. sans oublier des reprises très originales de standards remaniés tels que "Sophisticated Lady" de Duke Ellington, "Donna Lee" de Miles Davis, "Pinocchio" de Wayne Shorter...Jaco Pastorius était connu pour utiliser principalement deux basses Fender Jazz Bass du début des années 1960. Il en possédait une avec frettes, l'autre sans : le modèle fretless ayant été sa basse fétiche. Contrairement aux dires de beaucoup de gens, Jaco a acheté cette basse avec un manche en mauvais état. Et c'est son luthier, Kevin Kaufmann qui aura « sauvé » le manche en y mettant du vernis et de la résine pour coque de bateau... Il fut l'un des premiers bassistes à utiliser les contrôles d'égaliseur pour remonter la puissance des fréquences médiums, accentuant ainsi le rendu déjà très rond de sa Fender fretless. Ses amplis de prédilection étaient des Acoustic 360 (tête + baffle de 18") et à la toute fin, il utilisa aussi des baffles Hartke composés de haut-parleurs de 10", car il appréciait le son net des cônes en aluminium. Il utilisait aussi l'effet Delay MXR (qu'on peut entendre sur son solo avec Weather Report, "Slang", où il met en boucle un petit riff avant de jouer un solo par-dessus). Cet effet lui permettait de créer également un son très particulier, doublant les notes quand il réglait le delay au minimum. Il utilisa vers 1983 une pédale Chorus et un Octaver (que l'on entend notamment dans les sessions avec Biréli Lagrène, en 1986). C'était également un maître unique dans l'utilisation des harmoniques naturelles et artificielles (particulièrement dans "Portrait of Tracy"), ce qui lui permettait d'obtenir des effets sonores proches d'un carillon. Ses deux basses de 1960 et 1962 ont été volées peu après son entrée à l'hôpital de Bellevue, en 1986. Il possédait aussi deux basses Jaydee conçues pour lui peu avant sa mort. En 2002, sa basse frettée, reconnaissable à une grosse marque d'usure sur le haut du corps fut vendue sur eBay. La famille ignore maintenant où elle se trouve. (Source : Ingrid Pastorius). Sa basse fretless fut cassée par Jaco après une violente colère et une chute dans un escalier, puis réparée par son luthier Kevin Kaufman en 1986. Les morceaux furent réassemblés. La basse fut ainsi remise totalement à neuf avec un vernis ne rappelant pas la légendaire « Bass of Doom ». Quelques semaines ou mois plus tard, elle est volée dans un parc alors que Jaco s'était absenté quelques minutes du banc ou il s'était assis. Elle fut retrouvée récemment, et Victor Wooten, Will Lee et Victor Bailey l'ont authentifiée comme étant celle de Jaco Pastorius, bien évidemment après sa rénovation. Anecdote : le jour ou Jaco récupéra sa basse, il alla enregistrer le morceau de Mike Stern, "Mood Swings", de l'album "Uspide Downside", sorti en 1986. C'est a priori le seul enregistrement connu de Jaco, ou l'on peut réentendre la Bass of Doom, après rénovation. Aujourd'hui, son possesseur n'est autre que Robert Trujillo, le Bassiste de Metallica qui a notamment confié la "Bass of Doom" à Felix Pastorius, (L'un des trois fils de Jaco, issu de son union avec Ingrid) pour l'enregistrement de l'album ""A Rise in the Road" du groupe Yellowjackets". Peter Erskine, ancien batteur de Weather Report et sideman émérite avec Don Alias (percussionniste) de Jaco, rapporte sur les commentaires de l'album "30th Anniversary" qu'il travaillait énormément son jeu scénique (cf. son morceau "Slang", où il joue son dernier accord en sautant à pieds joints sur sa basse, également en saupoudrant la scène de talc pour lui permettre de danser en pivotant très vite sur ses pieds, ce qui énervait passablement Joe Zawinul à la longue). Cet épisode démontre que Jaco Pastorius, non content de soigner parfaitement sa virtuosité et la qualité de ses compositions/arrangements, tenait à un jeu de scène remarquable pour mettre en évidence sa musique, à l'instar d'un Jimi Hendrix qu'il allait jusqu'à singer en jouant des solos avec les dents lors de certains concerts de Weather Report.
|
John Francis Anthony Pastorius III, plus connu sous le nom de Jaco Pastorius, est un bassiste de jazz et jazz-rock américain, né le à Norristown (Pennsylvanie) et mort le après avoir été violemment battu dix jours plus tôt à Fort Lauderdale (Floride). Technicien virtuose, il a eu une influence majeure sur le rôle de la basse électrique et sur son passage du rôle de simple accompagnateur à celui de véritable soliste. Établissant sa réputation internationale au sein du groupe Weather Report à partir du milieu des années 1970, il a ainsi imposé à son époque le son "fretless", obtenu en jouant sur un manche de basse électrique sans frettes. Pat Metheny a dit de lui qu'il était « le dernier jazzman du à avoir influencé les générations suivantes ».
|
xwikis
|
Ses parents, Marcel Jorré et Marcelle née Schneider (fille du peintre Émile Schneider), sont professeurs. Issue d'une famille d'universitaires protestants, Claude Jade obtient l'autorisation de se présenter au concours d'entrée au conservatoire de Dijon en septembre 1963 alors qu'elle n'a pas. Elle est reçue première, grâce à son interprétation de la fable de La Fontaine "Le Coq et le Renard" et du poème de Paul Verlaine "Après trois ans". À partir de cette date, elle conjugue études classiques et théâtre. À l'automne 1966, le bac et un de Comédie en poche, elle part à Paris et devient, au théâtre Édouard VII, l'élève de Jean-Laurent Cochet dont elle suit les cours pendant plus d'un an. À cette époque, Jean-Laurent Cochet est secondé par d'autres professeurs : Béatrix Dussane donne, une matinée par semaine, des cours de poésie, Odette Laure des cours d'expression corporelle et de yoga, et Mary Marquet enseigne la poésie.En juin 1967, elle est engagée au théâtre Moderne (aujourd'hui Petit théâtre de Paris) par Sacha Pitoëff, comédien et metteur en scène, pour jouer le rôle de Frida dans "Henri IV" de Luigi Pirandello. François Truffaut l'y découvre (« Danielle Darrieux à ses débuts » dira-t-il) et lui propose le rôle de Christine Darbon dans son film "Baisers volés", qu'il tourne de janvier à avril 1968. Premier des trois films qu'elle tournera avec Truffaut, "Baisers volés" reçoit à sa sortie une avalanche de récompenses : Grand prix du cinéma français, prix Louis-Delluc, prix Méliès, prix Fémina Belge, prix du "British Film Institute" et prix de la "Hollywood Foreign Press Association". Il est sélectionné pour représenter la France à l'Oscar du meilleur film étranger 1969 et marque le début de l'idylle entre l'actrice et le cinéaste. Truffaut, à qui elle doit le surnom de « petite fiancée du cinéma français », songe à l'épouser, et demande très cérémonieusement sa main à ses parents, mais revient sur sa décision au dernier moment. Elle lui pardonne et ils deviennent d'indéfectibles amis. Claude Jade, qui représente aux yeux de la critique la pureté, la grâce, le naturel et la simplicité, devient célèbre du jour au lendemain. Louis Chauvet écrit : Courtisée par Antoine Doinel (Jean-Pierre Léaud) dans "Baisers volés", le personnage de Christine l'épouse dans "Domicile conjugal" (1970) et s'en sépare dans "L'Amour en fuite" (1978). Sage et naïve dans "Baisers volés", douce et amère dans "Domicile conjugal", indépendante et déterminée dans "L'Amour en fuite", son personnage change et évolue au fur et à mesure que les épisodes passent vers plus de gravité et d'amertume. En 1971, Truffaut propose à son co-scénariste Jean-Loup Dabadie sur "Une belle fille comme moi", d'engager Claude Jade pour jouer Camille Bliss mais le scénariste la trouve trop jeune et c'est finalement Bernadette Lafont, de dix ans son aînée, qui est choisie. Hormis le « cycle Doinel », elle ne tournera d'ailleurs pas d'autre film avec Truffaut et dira, non sans humour : « Je crois qu'au fond il n'avait pas envie de me sortir du tiroir Doinel... ».En 1968, Alfred Hitchcock s'apprête à tourner une superproduction américaine, dont une partie de la distribution devait être française. Claude Jade raconte que François Truffaut, qui trouve que « Claude Jade pourrait être la fille clandestine de Grace Kelly » tant la ressemblance est grande, l'a mise en rapport avec lui : « Mes parents étant anglicistes, je n'avais aucun problème pour m'exprimer en anglais. » Hitchcock demande à la rencontrer à Paris : « Il trouva que j'avais l'accent britannique [...] Il était fidèle à un certain type de femme, et ça a aussi joué en ma faveur ». Deux jours plus tard, elle est engagée officiellement et le, Claude Jade commence le tournage de "L'Étau (Topaz)", dans lequel elle incarne Michèle Picard, fille d'un agent secret (Frederick Stafford). Les autres acteurs français engagés dans ce film sont Dany Robin, Michel Subor, Michel Piccoli et Philippe Noiret. Après "L'Étau", Claude Jade revoit Alfred Hitchcock le à Paris lorsque celui-ci est décoré de l'ordre des Arts et des Lettres et reste en relation épistolaire avec lui. Les réponses d'Hitchcock à ses lettres sont toujours étonnantes, parfois déroutantes mais toujours pleines d'humour, telle cette réponse à une carte d'Australie : « Chère Claude... Avez-vous sauté dans la poche d'un kangourou pour faire le tour de ville? Si c'est le cas, vous avez dû avoir une promenade très cahotante. Affectueusement, Hitch » ; ou en réponse à son faire-part de mariage en 1972 : « Chère Claude, mes plus chaleureuses félicitations à l'occasion de votre mariage dont le faire-part vient de me parvenir. Efforcez-vous d'être le plus fidèle possible à votre mari. Cordialement, Hitch. » « Je crois qu'au fond il m'aimait bien » dit-elle. Elle le rencontre pour la dernière fois au Festival de Cannes en 1975. Malgré la « chance extraordinaire » d'avoir pu tourner avec Hitchcock, Claude Jade reconnaîtra plus tard n'avoir pas pu profiter de cette rencontre professionnelle, comme elle l'aurait fait si elle avait eu davantage de métier et d'expérience.Outre Hitchcock et Truffaut, Claude Jade attire l'attention de nombreux réalisateurs comme André Hunebelle qui l'engage dans "Sous le signe de Monte-Cristo" (1968), une version contemporaine très librement adaptée de l'œuvre d'Alexandre Dumas avec Pierre Brasseur, Raymond Pellegrin, Michel Auclair et la jeune Anny Duperey entre autres. De l'aveu même de Claude Jade, ce film est « complètement raté ». Début 1969, elle tourne sous la direction d'Édouard Molinaro le rôle de Manette, la fiancée de Jacques Brel dans "Mon oncle Benjamin", avec, entre autres, Rosy Varte, Bernard Blier, Bernard Alane, Paul Préboist, Lyne Chardonnet, Paul Frankeur, Armand Mestral, Robert Dalban et Alfred Adam. Le scénario du film est adapté du roman de Claude Tillier pamphlétaire bourguignon du. Le film fut tourné en Bourgogne (la région natale de Claude Jade) à Vézelay et aux environs de Corbigny. La toute dernière scène se tournera en forêt de Rambouillet dans la vallée de Chevreuse. En 1972, elle est Laura, fille de notaire (Jean Rochefort) et étudiante en médecine confrontée à une mère suffragette extravagante (Annie Girardot) dans "Les Feux de la Chandeleur" de Serge Korber. Chez Denys de La Patellière, elle joue la pure Françoise aux côtés de Robert Hossein dans "Prêtres interdits" (1973) ; dans "Le Pion" de Christian Gion, elle donne la réplique à Henri Guybet : elle est Dominique Benech, la voisine du pion et mère esseulée d'un de ses élèves, qui nourrit à son égard de tendres sentiments. Heureusement, le modèle classique triomphe encore avec l'amour entre Bertrand et Dominique et les deux se marient même à la fin du film. Si la plupart du temps elle joue les « jeunes femmes sages », elle interprète aussi quelques « garces » : dans "Le Bateau sur l'herbe" (1970), elle est Éléonore, une jeune fille « odieuse » entre deux amis (Jean-Pierre Cassel et John McEnery) ; dans "Le Malin plaisir" (1974), la ravissante Julie, une jolie femme sans scrupules, qui séduit dans son « nid de serpent » un écrivain (Jacques Weber). Ou la "minette" Patricia en compagnie de Chantal Goya et Nicole Jamet, trois filles qui draguent les garçons dans "Trop c'est trop" de Didier Kaminka. Le, elle épouse Bernard Coste, un diplomate français rencontré lors d’un déplacement à Rio au Brésil. En 1976, ils auront un fils, Pierre. Elle tournera par la suite moins régulièrement.À la suite de "L’Étau", Universal Pictures lui offre un contrat exclusif de sept ans qu'elle n'accepte pas, car elle ne veut pas perdre sa liberté et supporter la contrainte de ne travailler que pour les Américains : « Je suis française, je tenais à pouvoir jouer dans ma langue et à vivre chez moi, auprès de ceux que j’aime. J'ai donc refusé. » On lui propose alors un contrat sans exclusivité, par lequel elle ne doit être à la disposition du studio que pour un film par an, sur une durée de sept ans, ce qu’elle accepte. Mais le contrat est annulé, faute de propositions et à la suite d'une crise financière chez Universal, tout comme ceux de Katharine Ross, Joanna Shimkus et de Tina Aumont. L’expérience américaine de Claude Jade demeurera d'ailleurs unique : Tony Richardson l’engage pour le rôle de Romola de Pulszky, femme de Vaslav Nijinski (Rudolf Noureev) mais le projet "Nijinsky's Life", écrit par Edward Albee et produit par Albert R. Broccoli et Harry Saltzman, n’aboutit pas. En 1969, juste après "L’Étau", elle tourne en Belgique dans "Le Témoin" de la réalisatrice Anne Walter ; en 1972, dans "Home, Sweet Home" ("La Fête à Jules") de Benoit Lamy, elle est Claire, une infirmière autoritaire, qui s’humanise au contact d'un jeune assistant social, joué par Jacques Perrin. En 1975, elle joue le double rôle d'Anne et de Juliette dans "Le Choix" de Jacques Faber. Elle tourne trois films en Italie : une jeune détective dans "Number One" de Gianni Buffardi (1973) ; le rôle de Tiffany, une jeune photographe et détective amateur aux côtés (et dans les bras) de Frederick Stafford dans "Meurtres à Rome" de German Lorente (1974) ; Maria Térésa, jeune femme mal mariée à un homme impuissant, dans "Caresses bourgeoises" de Eriprando Visconti (1977). Dans les années 1980 elle tourne un feuilleton italien: "Voglia di volare". Au Japon elle joue, en japonais, dans "Le Cap du nord" de Kei Kumai (1975) le rôle de la sœur Marie-Thérèse, une missionnaire suisse. Pendant les années 1980 à Moscou elle joue dans deux films soviétiques, "Téhéran 43" (1980) et "Lénine à Paris" (1981).Claude Jade tourne également beaucoup pour la télévision. Dans les années 1960, la télévision devient un moyen pour beaucoup de jeunes comédiens de débuter ou d'accéder ainsi au cinéma, voire au théâtre. Claude Jade fait partie de ceux-là. Claude Jade raconte qu'à l'été 1965 (elle a 16 ans et est encore élève au lycée et au conservatoire de Dijon), alors qu'elle est en vacances avec ses parents, elle est contactée par son cousin Guy Jorré, réalisateur à la télévision, pour jouer un petit rôle dans un téléfilm : « C'est ainsi que, à distance, j'ai été engagée pour tourner une journée, le rôle de Lily dans "Le Crime de la rue de Chantilly." ». En novembre 1966, alors qu'elle n'est élève chez Jean-Laurent Cochet que depuis deux mois et avant même de jouer au théâtre, elle est engagée à la télévision pour de petits rôles dans des téléfilms ou des séries télévisées. Claude Jorré devient alors Claude Jade, tout simplement en consultant un dictionnaire à la lettre J : « C'est doux Jade, la sonorité me plaît [...] en prononçant ce nom, on est sûr qu’il s'agit d'une femme... » Elle est Rosette dans "La Prunelle" (1966/1967) ou Liliane dans "Allô Police" (1967) où, comme elle le dit, elle fait surtout « partie du décor », même si elle a un peu de texte. Mais elle-même est surprise par ce départ si rapide : « Je me suis donné trois ans pour faire quelque chose, pas trois mois. » Ses débuts sont suivis par un rôle plus marquant dans le feuilleton "Les Oiseaux rares" (tourné en 1967 et diffusé en 1969) de Jean Dewever, dans lequel elle joue Sylvie Massonneau, une des cinq filles d'Anna Gaylor et Guy Saint-Jean. Après son passage dans la compagnie Pitoëff, puis sa rencontre avec Truffaut, les rôles et les engagements deviennent plus nombreux et surtout plus intéressants. Elle tourne la série télévisée, "Mauregard" (1968) produite par Claude de Givray, co-scénariste de "Baisers volés", qui connaît de sérieux retard, à la suite des événements de mai. Elle y joue l’orpheline Françoise, mariée à Maxence (Richard Leduc). Truffaut lui dit en plaisantant : « Avec tes grands yeux bleus, tu pourrais jouer "Les Deux Orphelines" à toi toute seule. » En 1969, Jean-Christophe Averty lui confie, pour les fêtes de Noël, le rôle d'Héléna dans "Le Songe d'une nuit d'été" de Shakespeare qu'il a lui-même traduit. Fin 1971, elle joue le rôle-titre dans une féerie prévue pour le 31 décembre : "Shéhérazade" de Jules Supervielle, réalisée par Pierre Badel. En 1972, c'est "Le Château perdu" de François Chatel, où elle joue le rôle de Louise de La Vallière, la jeune favorite de Louis XIV. Elle enchaîne la même année avec le téléfilm de Philippe Arnal "La Mandragore", d’après la pièce de Machiavel, où elle incarne la belle Lucrèce, coiffée de la même résille créée spécialement pour Liz Taylor dans "La Mégère apprivoisée". Puis ce sont, entre autres, les rôles d’Hélène, jeune femme sans scrupules, dans "Malaventure" (1974) ; Penny Vanderwood dans "Les Robots pensants" (1975) ; l’infirmière Blanche aux côtés de Michel Bouquet dans "Les Anneaux de Bicêtre" (1976) ; Lucile Desmoulins dans la série "Les Amours sous la Révolution" (1977), etc. Claude Jade obtient une grande popularité avec le feuilleton "L'Île aux trente cercueils", en 1979, réalisé par Marcel Cravenne d’après l'adaptation du roman de Maurice Leblanc. Elle interprète le personnage central de l’histoire, Véronique d'Hergemont, lequel apparaît de façon presque continue dans l’intégralité des six épisodes (« En fait, sur les cinq mois qu'a duré le tournage, il n'y a eu qu’une seule journée où mon nom ne figurait pas au plan de travail. »). L’histoire se déroule en 1917 pendant la Première Guerre mondiale. Ses recherches vont conduire l'héroïne en Bretagne sur la piste de son père et de son fils qui, alors que tout le monde les croit morts, se sont réfugiés sur l’île de Sarek, plus connue dans la région comme l'« Île aux trente cercueils ». Dès son arrivée, le cauchemar commence : des messages énigmatiques, une prophétie effrayante, la terreur superstitieuse des habitants de l’île, des morts brutales... Dans les années 1980, à Moscou puis, plus tard à Nicosie, ainsi qu'à son retour en France, elle continue à tourner séries, feuilletons et téléfilms.Début 1980, Claude Jade, qui a juste terminé l'émission de télévision "Antenne à Francis Perrin" dans laquelle elle est sa partenaire pour des extraits de "Jean de la Lune" et de "On ne badine pas avec l'amour", rejoint son mari nommé en poste à Moscou (« La décision ne fut pas facile à prendre » dira-t-elle.). Peu de temps après son arrivée, le producteur français Georges Cheyko, qui va commencer le tournage d'un grand film, en coproduction avec les Russes, l’engage pour tourner dans "Téhéran 43" des réalisateurs russes Alexandre Alov et Vladimir Naoumov ; ce sera son premier film soviétique. Dans cette histoire d'espionnage complexe, elle joue Françoise, la jeune maîtresse d'un ancien espion travaillant pour les nazis. Le tournage dure et se déroule à New York, Paris, et aux studios de Moscou Mosfilm. Dans la distribution occidentale, on retrouve entre autres Alain Delon et Curd Jurgens. Le réalisateur russe Sergueï Youtkevitch, ayant appris que Claude Jade vit à Moscou, lui propose de jouer le rôle d’Inès Armand, la maîtresse de Lénine, dans son film "Lénine à Paris". Le film est tourné à Moscou et à Paris. Sergueï Youtkevitch lui dédicace sa biographie par ces mots en français : « À une très grande actrice, Claude Jade avec l’admiration, très amicalement. S.Y. Paris-Moscou 1980. » Pendant cet « exil » moscovite, elle n’en continue pas moins de revenir régulièrement en France pour tourner des téléfilms : "Nous ne l'avons pas assez aimée" (elle incarne Gisèle, une femme schizophrène); "La Grotte aux loups" (dans le rôle de Solange, institutrice et détective amateur) ; "Treize" (Claire, la femme de Michel Creton) ; le double rôle de "Lise et Laura", où elle est, à deux époques différentes, l’épouse de Michel Auclair, etc. En 1981, c'est une comédie du réalisateur Michel Nerval "Le bahut va craquer" où elle joue une prof de philo un peu pimbêche, avec, entre autres, Michel Galabru et Darry Cowl. La même année, une réalisatrice allemande, Gabi Kubach, lui confie le rôle d’Evelyn, une jeune femme fragile et fantasque, qui s’éprend d'un Américain dans "Rendez-vous in Paris". Le film est tourné en Tchécoslovaquie, dans les Sudètes et à Prague. Elle effectue également un séjour en Arménie avec un groupe de Français dont l’écrivain Georges Conchon et l’ancien ministre Georges Gorse, qui reste un souvenir mémorable « tant la vodka coulait à flots et les toasts en l’honneur de l’amitié franco-arménienne s’enchaînaient... ».En été 1982, après trois années passées à Moscou, son mari est nommé conseiller culturel à Nicosie (Chypre). C’est lors de cette période qu’elle tourne "L’Honneur d'un capitaine" de Pierre Schoendoerffer. En 1983, reprise par le théâtre (qu'elle n’a jamais abandonné), elle joue "Les Exilés" de James Joyce au théâtre des Célestins de Lyon, mise en scène de Jean Meyer. En février 1984, elle revient à Paris afin de répéter la pièce "Le Faiseur" d'après Balzac, qu’elle crée quelques semaines plus tard (ce sera sa cinquième et dernière pièce avec Jean Meyer aux Célestins de Lyon). Elle en profite pour rendre visite à François Truffaut, déjà très malade. « Il m’a paru très confiant ; ou était-ce une manière élégante de me cacher la vérité sur son état? » Quelque temps après, elle tourne un feuilleton franco-italien, "Ma fille, mes femmes et moi" (quatre épisodes tournés à Rome et dans le nord de l’Italie) avec Gianni Morandi, puis un téléfilm français, "Une petite fille dans les tournesols" (prix de la Société des auteurs), du réalisateur Bernard Férie, tourné à Auch dans le Gers. Elle y joue le rôle de Marelle, une jeune femme recherchant son mari disparu. C'est à Nicosie qu’elle apprend, le 22 octobre 1984, la mort de François Truffaut : « La mort de François fut la première d'une longue liste d'êtres chers à mon cœur, et curieusement ma vie n’a plus été la même. » Invitée par Jeanne Moreau, Claude Jade fait le voyage de Nicosie à Cannes pour l’hommage que le cinéma rend à François Truffaut en 1985. Une grande partie des interprètes de ses films se retrouve sur la scène du palais des Festivals pour la projection du film de Claude de Givray "Vivement Truffaut" et pour une grande photo de famille. Outre Jeanne Moreau et Claude Jade, se trouvent là Delphine Seyrig, Brigitte Fossey, Bernadette Lafont, Fanny Ardant, Marie Dubois, Jacqueline Bisset, Catherine Deneuve, Jean-Pierre Léaud, Gérard Depardieu, Charles Denner, Charles Aznavour, Henri Garcin, Jean-Claude Brialy et Jean-Pierre Aumont.Fin 1985, après six années d’« exil », (« Je suis sûre que ma carrière en a pâti »), elle se réinstalle à Paris. À son retour, elle demeure active tant au théâtre qu'à la télévision. Cependant, elle éprouve des difficultés à retrouver une place dans le cinéma. En 1986, après quatre années d'interruption cinématographique, René Féret, réalisateur et comédien, lui offre le rôle ambigu d'Alice dans un film policier, "L'Homme qui n'était pas là". Elle est entourée par Sabine Haudepin, Valérie Stroh, Georges Descrières, Jacques Dufilho... La même année, elle revient au théâtre et accepte de jouer à Paris une pièce de Vladimir Volkoff, "L’Interrogatoire", mise en scène de Christian Alers ; elle y joue l’épouse d’un officier allemand dont les Américains veulent obtenir les aveux. À la même période, Claude Jade raconte une anecdote plutôt surprenante : elle est contactée par Daniel Cohn-Bendit qui souhaite la connaître. Il s’intéresse à l'œuvre de François Truffaut (qu’il avait rencontré lors de l’« Affaire Langlois » en 1968) et a le projet de réaliser un film avec les interprètes du cycle Doinel dans leur propre rôle. Le projet n'a pas de suite. À l’été 1987, Claude Jade s'envole pour la Guadeloupe ; elle va tourner avec le réalisateur d'origine iranienne Iradj Azimi "Le Radeau de la Méduse" où elle joue le rôle de Reine Schmaltz, l'épouse du futur gouverneur du Sénégal, une mondaine charmante, totalement inconsciente de la tragédie qui se joue. Le titre du film est le nom d'un célèbre tableau du peintre Géricault. La base de ce film a pour origine l'histoire vraie du naufrage de la frégate "La Méduse" en 1816, au large des côtes du Sénégal et des événements dramatiques qui suivirent. Dans ce film, elle est entourée par Jean Yanne, Daniel Mesguich, Philippe Laudenbach, Laurent Terzieff, Rufus et Jean Desailly. Le film rencontre presque autant de malheurs que son sujet : retards liés aux réglages des prises de vues, intempéries multiples (dont le célèbre cyclone Hugo) qui obligent à refaire les décors, problèmes de financement et de distribution qui retarderont la sortie qui ne se fera qu’en 1998. Une version longue pour la télévision (3 × 90 min) aurait été prévue, mais reste à ce jour inédite. Cette même année, elle tourne dans un feuilleton télévisé "Le Grand Secret" de Jacques Trébouta, d’après un roman de René Barjavel et un scénario d’André Cayatte. Elle y incarne Suzan Frend, l’épouse mystérieuse de Claude Rich. Puis un film "Qui sont mes juges?" d’André Thierry (ce film, où elle joue l'épouse d'un camionneur, joué par le rugbyman Jean-Pierre Rives, ne sera pas distribué et demeure inédit). Au printemps 1988, elle tourne dans un feuilleton en trente épisodes "La Tête en l'air" réalisé par Marlène Bertin et diffusé en 1993 ; elle y est Sylvie, une ancienne danseuse, mère d’une fille (Valérie Karsenti) passionnée d’aviation. À la rentrée suivante, on la retrouve dans une pièce de théâtre, écrite par Catherine Decours, pour le bicentenaire de la Révolution française "Régulus 93 ou la Véritable Histoire du citoyen Haudaudine ;" mise en scène de Jean-Luc Tardieu qui dirige l'Espace 44 à Nantes. Elle y est, dans le rôle de la marquise de Bonchamps, entourée de Bruno Pradal, Geneviève Fontanel, Liliane Sorval, Michel Le Royer, Michel Fortin...En 1989, elle tourne le feuilleton "Fleur bleue" de Jean-Pierre Ronssin. La même année, elle se retrouve à Douai, car le réalisateur Charles Bitsch (un ami de jeunesse de Truffaut) lui demande de jouer dans son téléfilm "Au bonheur des autres" le rôle d’Agnès, une petite ménagère mariée à un représentant (Roger Mirmont). Puis, en 1990, elle tourne avec Stéphane Bertin "L'Éternité devant soi" ; enfin dans l'épisode "Windows" de la série américaine "Le Voyageur", elle joue le rôle de Monique, la voisine mystérieuse. En 1991 elle incarne pour le cinéma Gabrielle Martin, la mère de Jules (Guillaume de Tonquedec) et femme trompée par son mari (Philippe Khorsand), dans "Tableau d'honneur" de Charles Némès. La même année, elle accepte de jouer une comédie de boulevard de Julien Vartet "Un château au Portugal" à Paris, au studio des Champs-Élysées, mise en scène de Idriss. Le metteur en scène Jean Maisonnave l’engage en 1992 pour jouer à l’Athénéum de Dijon une pièce de Michel Vinaver "Dissident il va sans dire", qui met en scène, dans un immeuble à loyer modéré, Hélène et son fils drogué. Cette même année, elle joue au cinéma la lesbienne Caroline aux côtés de Michel Serrault et Corinne Le Poulain dans "Bonsoir" de Jean-Pierre Mocky. Jean-Daniel Verhaeghe lui propose en 1993 le rôle de Madame des Grassins, mère empressée d'un des prétendants d"'Eugènie Grandet", adapté du roman de Balzac, avec Jean Carmet, Dominique Labourier, Bernard Haller, Pierre Vernier, Alexandra London... En 1994, elle est engagée par Jacques Richard dans "Porté disparu". Après quelques séries ("Navarro, Julie Lescaut..."), elle joue en 1995 dans un téléfilm écrit d’après le dernier scénario de François Truffaut "Belle Époque" de Gavin Millar. À partir du milieu des années 1990, Claude Jade se fait plus rare sur les écrans, non par choix mais parce que les propositions et les engagements se font moins nombreux : « Quand j’ai débuté, j’ai eu tant de facilité, que je ne pensais pas qu'il pût y avoir des lendemains incertains. Ils existent bel et bien. » Elle connaît des périodes d’inactivité forcée, tant dans le cinéma qu’à la télévision ou au théâtre : « Pour une femme particulièrement, c’est un métier difficile, car, avec l’âge l'emploi change, et les beaux rôles se raréfient [...] Il faut pouvoir et savoir attendre qu'un metteur en scène fasse appel à vous [...] L’âge peut être un handicap... » Si la télévision, le cinéma, le théâtre la boudent momentanément, elle profite du « creux de la vague » pour enregistrer des dramatiques radiophoniques et des contes pour enfants (elle s’y était déjà essayée en 1976), notamment sur France Culture, ou même faire des lectures publiques, à Paris et en Corse. En 1997, elle joue la veuve de la victime, Marquis, dans le téléfilm "Un enfant au soleil" de Gilles Béhat, faisant partie de la série "Inspecteur Moretti" ; en 1998, dans" Mémoire perdue, " un épisode de la série policière "Une femme d'honneur", elle joue Madeleine Trobert, la mère d'une fille enlevée. La même année, elle est nommée chevalier dans l'ordre de la Légion d'honneur. De 1998 à 2000, elle joue dans le très long feuilleton télévisé "Cap des Pins" créé par Nicolas Cohen, dont elle est l’héroïne principale, Anna Chantreuil, mariée à Gérard (Paul Barge) ; en 1999, elle tourne dans un court métrage "La Rampe" de Santiago Otheguy pour le film à sketches "Scénarios sur la drogue" le rôle d’une quinquagénaire, souffrant de dépendance à l’alcool et montant avec difficultés les escaliers pour rentrer chez elle en se cachant de ses voisins. Jean Daniel Verhaeghe lui propose, en 2000, de tourner en République tchèque dans "Sans famille" d’après Hector Malot, qu’il réalise pour les fêtes de Noël. En septembre 2001, elle remonte sur les planches à Paris, au Nouveau Théâtre Mouffetard, pour jouer le rôle de Marie Sodérini, dans "Lorenzaccio, une conspiration en 1537" d'Henri Lazarini d'après Alfred de Musset. En 2003, elle tourne un court-métrage "À San Remo" de Julien Donada puis quelques séries : en 2004 "La Crim'", en 2005 "Groupe flag". Après cinq ans d'absence, elle revient au théâtre en février 2006, dans une pièce de Jacques Rampal, mise en scène de l’auteur, "Célimène et le Cardinal" qu’elle interprète avec Patrick Préjean au théâtre du Lucernaire à Paris. "Le Figaro" du 8 mars 2006 écrit : « Claude Jade, qu’on est heureux de retrouver, est très bien en épouse provocatrice tout en finesse bouscule Patrick Préjean en serviteur de Dieu. » Et "Marianne" du 5 avril 2006 : « L’interprétation des excellents comédiens, Patrick Préjan et Claude Jade, donne à cette pièce résolument moderne, le cachet d’un grand classique. » Pourtant sa santé s'affaiblit et, atteinte d’un cancer de la rétine (rétinoblastome), elle se voit obligée de porter une prothèse oculaire lors de la dernière représentation de "Célimène et le Cardinal" en août 2006. Loin de se laisser aller, elle est bien résolue à reprendre la pièce en 2007, lorsqu'elle meurt soudainement le de métastases hépatiques à. Ses obsèques ont lieu le en l’Église réformée de l'oratoire du Louvre, rue Saint-Honoré, à Paris.Renaud Donnedieu de Vabres, ministre de la Culture, salue « l’incarnation de l’élégance, de la simplicité et du charme à la française ». Selon ses propos, « elle reste en cela un exemple pour des générations de comédiens qui gardent l’envie de croire en ce fichu métier comme elle aimait l’appeler ». « C'est avec une grande tristesse que j'ai appris la disparition de Claude Jade. Grande et belle comédienne, elle a représenté, plus particulièrement dans les films de François Truffaut, qui l’avait découverte, la grâce discrète de la jeune femme française. Aujourd’hui je rends hommage à une comédienne à la douce luminosité, à une femme, qui a toujours gardé intacte sa lucidité sur son métier et je présente mes plus sincères condoléances à sa famille et à ses proches. » (Véronique Cayla, directrice générale du Centre national de la cinématographie) « Elle a fini sa vie sur scène... elle a fini en beauté, donnant une représentation remarquable, c’était le 8 août, c'était hier. [Claude Jade] n'était pas très à l’aise dans un milieu où il faut parfois jouer des coudes. [... Mais], elle n’était ni jalouse, ni amère ». (Jacques Rampal) En 2013, la ville de Dijon a attribué le nom de Claude Jade à une allée."Truffaut et les femmes" par Elisabeth Gouslan (2016) à propos de Truffaut et ses rélations avec Madeleine, Jeanne Moreau, Françoise Dorléac, Claude Jade, Catherine Deneuve et Fanny Ardant. "La Cinematique des muses" par Ludovic Mabreuil (2019), essais de 20 muses du cinéma, entre autres Geneviève Bujold, Mimsy Farmer, Claude Jade, Elsa Martinelli, Ottavia Piccolo, Marie-France Pisier, Edith Scob, Maria Schneider, Joanna Shimkus und Catherine Spaak. Claude Jade a éctrit quelques chapitres dans "Frenchie goes to Hollywood" d'Henri Veyrier et dans "Hitchcock" de Bruno Villien. Dans la biographie "Truffaut" (1996) d'Antoine de Baecque et de Serge Toubiana a été rapporté pour la première fois en 1996 par l'amour entre Truffaut et Claude Jade et leurs projets de mariage.
|
Claude Marcelle Jorré, connue sous le nom de scène Claude Jade, née le à Dijon (Côte-d'Or), et décédée le à Paris-Boulogne-Billancourt (Hauts-de-Seine), est une actrice française, célèbre grâce à ses films de François Truffaut.
|
xwikis
|
François Truffaut naît le de père inconnu chez une sage femme, rue Léon-Cogniet. Au terme d'une grossesse qu'elle a cachée, sa mère, Jeanine de Monferrand, secrétaire au journal "L'Illustration", confie le bébé à une nourrice, à Montmorency puis à Boissy Saint Léger. La position de fille mère, dans le milieu catholique dont elle est issue, est un objet de scandale. Le, sa mère épouse Roland Truffaut, dessinateur dans un cabinet d'architecte-décorateur, qu'elle a rencontré au Club alpin, dont son père est vice président, et qui a reconnu l'enfant à l'état civil le 24 octobre précédent. Au printemps, moins de neuf mois après le mariage, elle met au monde un petit René, qui ne survit pas plus de huit semaines. Le deuil de l'enfant légitime inscrit définitivement le petit François dans la position d'enfant rejeté. À l'âge de trois ans, François est retiré de chez sa nourrice mais, le plus souvent, il est confié à ses grand parents, Jean et Geneviève de Monferrand, qui habitent 21 rue Henry-Monnier, dans le. Ses parents habitent à quarante mètres, dans un immeuble moins bourgeois. Ils gagnent peu, même si RolandEn juin 1943, François Truffaut n'est pas admis en classe de sixième mais il est inscrit à l'examen de rattrapage. En vacances à Juvisy chez les parents de celui qu'il croit son père, il écrit aux siens de venir le chercher le dimanche précédant le jour de l'examen. Ils ne viennent pas. Il est orienté vers le cours complémentaire de l'école communale, 5 rue Milton, mais cesse d'être appliqué. Il trouve un complice de ses premiers « 400 coups » dans le Paris sous Occupation en son voisin de classe, Robert Lachenay, cancre redoublant qui a un an de plus que lui et habite un grand appartement à trois pâtés de maisons de chez lui, 10 rue de Douai. Le vendredi soir ou le samedi, ses parents partent habituellement à bicyclette s'entraîner à l'escalade surEntre 1945 et 1946, François Truffaut voit douze fois "Le Roman d'un tricheur" au cinéma Champollion. Le héros de Sacha Guitry, parricide, asocial, voleur, devient son idéal incarnant une morale Le 13 juin 1946, François Truffaut, en classe de quatrième de l'enseignement primaire supérieur, obtient son certificat d'études primaires et arrête sa scolarité. À la fin du mois de septembre 1946, il est embauché par un grainetier grossiste, 16 avenue de l'Opéra. Magasinier et homme à tout faire, il circule dans Paris entre les différents dépôts. Il reverse à ses parents les deux tiers de son salaire mais habite le plus souvent dans la chambre de bonne où Robert Lachenay s'est installé quand le père de celui ci, secrétaireEn mai 1948, François Truffaut démissionne de son emploi, par lassitude ou à cause d'une prime de départ. Il travaille à la librairie papeterie "La Paix chez soi", à proximité de la Comédie-Française. En octobre 1948, il ouvre lui-même, malgré les avertissements bienveillants d'Henri Langlois, un cinéclub, "Le Cercle Cinémane". Il dispose des douze mille francs de son indemnité de licenciement. Avec Robert Lachenay, il loue à la séance une salle du boulevard Saint-Germain, le Cluny Palace. Dès la seconde séance, Cinémane souffre de la concurrence du cinéclub voisin, où André Bazin donne des conférences. André Bazin, chrétien de gauche proche des personnalistes, anime un "Centre d'initiation cinématographique" dans le cadre du programme gouvernemental de diffusion du cinéma Travail et culture, TEC. En parallèle du programme de formation permanente Peuple et culture et avec l'appui de la CGT, ce sont des séances de cinéma, des achats groupés de billets et des créations de cinéclubs visant le public des ouvriers. François Truffaut va rencontrer le critique à son bureau, rue des Beaux-Arts, pour lui demander de décaler ses conférences du dimanche matin. C'est leur première rencontre. François Truffaut publie sa première critique dans la revue "Cités", que Jacques Enfer vient de fonder. Cependant Cinémane, sans existence légale, a accumulé les dettes. Le 2 décembre le beau père de François Truffaut, par un des prêteurs qui est de ses amis, découvre ces dettes et que, pour y faire face, une machine à écrire lui a été volée. En échange d'une confession écrite humiliante, il les règle sur le champ, soit un peu plus d'un mois de son salaireRassa Rikkers obtient du juge pour enfants la sortie anticipée de son patient et, après avoir consulté Robert Lachenay, convoque André Bazin, qui se souvient à peine d'un sympathique cinéphile. Le 18 mars 1949, après trois mois de maison de redressement, François Truffaut est admis au Centre d'action éducative pour jeunes gens, non mixte, de Versailles. Appelé « foyer Guynemer », c'est un internat privé abrité au sein du Centre hospitalier de Versailles, 65 rue Berthier, géré par l'Association familiale et sociale de Seine-et-Oise et animé par les Filles de la charité, qui proposentQuand, à la Noël 49, André Bazin prend un congé pour soigner une tuberculose dans un sanatorium des Alpes, Robert Lachenay trouve à son ami un poste d'apprentis soudeur à l'acétylène dans une usine de Pontault Combault. Le samedi 19 janvier 1950, François Truffaut se rend à la Cinémathèque, 7 avenue de Messine. À la fin de la séance de seize heures, il aborde une lycéenne de son âge souvent présente et très courtisée, alors qu'elle ne pense que camaraderie. Liliane Litvin est celle qui deviendra le personnage de Colette. Elle accepte de le revoir et devient aussitôt l'obsession de François Truffaut. Dès lundi, celui-ci renonce à retourner à l'usine. Il est reçu à table par les parents de la jeune fille, 24 rue Dulong, comme d'autres. Elle ne montre que de l'indifférence. Il l'épie pendant des heures à sa porte. Le mardi 28 février, il accompagne les parents de Liliane à un débat organisé par le Club du Faubourg au Villiers-Cinéma. Lors des séances suivantes, il prend la parole avec témérité et passion mais assurance et stupéfait les personnalités présentes. Le sénateurÀ l'automne 1950, François Truffaut découvre le "Journal du voleur" et "L'Enfant criminel" de l'ex légionnaire Jean Genet. Il en tire deux critiques, qui sont refusées par la revue "Lettres du monde". Le 29 octobre 1950, il entreprend les démarches pour devancer l'appel. Le 19 décembre, il adresse ses deux critiques à Jean Genet. Le 23 décembre, il signe un engagement de trois ans dans l'idée de se faire tuer en Indochine. Les deux mois de peloton d’élèves-gradés passés au 8 bataillon du 32 régiment d'artillerie, à Wittlich, lui révèlent ses incapacités physiques ne serait ce qu'à remonter un fusil. Les manœuvres dans la boue, les gardes sous la neige, les marches forcées avec un paquetage de trente kilogrammes le guérissent de son enthousiasme initial mais il conserve son admiration pour l'armée, ses Polytechniciens,À Paris du 1 au 18 juin, François Truffaut emploie son séjour à préparer sa désertion, s'équiper en vêtements civils, trouver un emploi et des amis pour le cacher. Certains lui offrent de garder durant la basse saison leur villa à Cannes. Le 13 juillet 1951, il est envoyé seul en train de Wittlich pour Fréjus, où il doit le lendemain commencer un mois de préparation militaire avant d'embarquer de Marseille pour Saïgon et intégrer le Corps expéditionnaire français en Extrême-Orient. Il a une aventure avec une jeune allemande durant le trajet deLe 12 septembre, François Truffaut est extrait de la prison militaire du quartier Dupleix et transféré en fourgon cellulaire à Kehl puis en train à Wittlich, où il est mis au cachot pour douze jours mais le 15, il est admis à l', à Andernach, pour traiter sa syphilis. Le 25, il est incarcéré à Coblence, où sont désormais regroupés les différents bataillons du 32 RA. Unique détenu d'une sinistre prison militaire gardée par quelques gendarmes détachés d'un escadron prévôtal, il lit Pascal. Le 29, il s'enivre avec ses geôliers. Le lendemain matin, on le découvre le visage balafré par un rasoir qu'en infraction avec le règlementDès sa libération, le 20 février 1952, François Truffaut est hébergé par les Bazin, à Bry-sur-Marne, dans une mansarde du trois pièces cuisine que ceux-ci occupent avec leur fils de deux ans et de nombreux animaux au deuxième étage d'une maison entourée d'un parc. Ponctuées de moments de bonheur familial partagé, les disputes interminables entre André Bazin et son hôte, qui refuse un cinéma réaliste engagé mais conçoit l'art comme une critique subversive voire une reconstruction imaginaire, sont si violentes que Janine Bazin ne se sent plus chez elle. François Truffaut se remet difficilement. Il songe de nouveau au suicide mais avec calme et s'interroge sur son caractère. Le samedi 3 mai, il invite Liliane Litvin à dormir à Bry. Elle passe la nuit dans ses bras, chastement. C'est pour lui annoncer qu'elle est enceinte et qu'elle va épouser le père de son enfant.François Truffaut, fort de son expérience chez "Elle", envisage une carrière de journaliste de la presse généraliste. Louise de Vilmorin organise une réunion avec Françoise Giroud, qui est sur le point de lancer "L'Express", et ne donne pas suite. Au début de l'année 1953, André Bazin lui trouve un poste au service cinématographique du ministère de l'Agriculture. Le contrat de quelques mois n'est pas renouvelé. À partir de mars, André Bazin fait publier des critiques rédigées par François Truffaut dans les "Cahiers du cinéma". De plus en plus nombreuses, certaines sous pseudonymes, elles louent le cinéma américain et le tournage en extérieur naturel, si absent du cinéma français. À la fin de l'année 53, François Truffaut est embauché parAndré Bazin introduit son protégé auprès de Maurice Bessy, qui dirige "Cinémonde", revue plus rémunératrice que les "Cahiers du cinéma". François Truffaut s'y montre peu assidu et sa collaboration avec Michel Aubriant, rédacteur chargé de lui apprendre le métier, n'est pas prolongée au delà de deux piges. Il consacre en effet le temps qu'il a de disponible à réaliser un bout d'essai, "Une visite", son premier film. Il conçoit un scénario, qu'il renonce à réaliser et qui deviendra "À bout de souffle". Jacques Laurent remarque son style et lui ouvre les seize pages de son hebdomadaire "Arts-Lettres-Spectacles", vitrine des « Hussards ». Les piges y sont payées cinq fois plusAprès avoir été récusé par un producteur, Ralph Baum, pour assister son ami Max Ophuls, François Truffaut est embauché en 1956 comme assistant du réalisateur Roberto Rossellini, « l'homme le plus intelligent que j'aie connu », pour trois films qui n'aboutissent pas. Il est déjà un lecteur assidu des romans policiers traduits en français de William Irish quand Henri-Pierre Roché, qui le connaît par les Hussards de la revue "La Parisienne", l'invite dans sa maison de Meudon. Le collectionneur et scénariste, ami d'AbelFrançois Truffaut se marie le 29 octobre 1957 avec Madeleine, fille d'Ignace Morgenstern, propriétaire de la société de distribution cinématographique Cocinor. Il l'a rencontrée treize mois plus tôt à la Mostra de Venise. Il en aura deux filles, Laura, née le 22 janvier 1959, qui enseignera le français à Berkeley, et Éva, née le 28 juin 1961, qui deviendra actrice. Avec les fonds de son beau père, il se lance dans la réalisation et fonde une société de production, "Les Films du Carrosse", ainsi nommée en hommage à Jean Renoir et son film "Le Carrosse d'or". Comme par un renoncement à la carrière d'écrivain, qu'il ne cessera d'envier et de célébrer à travers ses films, il adapte une nouvelle d'un autre collègue de la revueEn 1959, Truffaut tourne "Les Quatre Cents Coups". Le film avait d'abord été imaginé comme un court métrage d'une vingtaine de minutes qui se serait intitulé "La Fugue d'Antoine". L'intrigue était alors centrée sur l'épisode où Antoine, après avoir fait l'école buissonnière, raconte à son instituteur que sa mère est morte et prend la fuite après que ses parents ont découvert son mensonge. Pour le scénario du long métrage, Truffaut collabore avec Marcel Moussy. Il recrute Jean-Pierre Léaud dans le rôle d'Antoine Doinel après avoir passé une annonce dans le quotidien "France-Soir". Le film remporte le prix de la mise en scène au Festival de Cannes la même année et reçoit la reconnaissance de la critique. L'événement ouvre la porte au mouvement de la Nouvelle Vague et à sa carrière mondiale. Avec trois millions six cent milleLe succès des "Quatre Cents Coups" en 1959 permet à Truffaut l'année suivante de venir, via Les Films du Carrosse, au secours de Jean Cocteau, à court de producteur durant le tournage du "Testament d'Orphée". En septembre de cette même année 1960, il signe le « Manifeste des 121 ». Lancé par Jean-Paul Sartre, c'est un appel à l’insoumission des hommes du contingent engagés dans la guerre d’Algérie, un soutien aux déserteurs et aux Français arrêtés pour avoir aidé les « terroristes » du FLN. L'ex délinquant déserteur s'attend de nouveau à être jeté en prison et en privé proclame. Après "Les Quatre cents coups", TruffautEn février 1968, Truffaut prend la défense d'Henri Langlois, que les autorités veulent démettre de ses fonctions de directeur de la cinémathèque française. Il se retrouve à la tête du Comité de défense de la Cinémathèque. Truffaut demande au patron de l'agence Dubly, Albert Duchenne, de retrouver son père biologique. L'enquête d'un détective privé lui apprend qu'il s'agit de Roland Lévy, un dentiste né à Bayonne en 1910 de Gaston Lévy et de Berthe Kahn. C'est un descendant, du côté paternel, d'une famille séfarade portugaise réfugiée à Bayonne dès le, les Lévi Alvarès. Durant l'entre deux guerres, Roland Lévy poursuit des études à Paris, où il habite rue de la Tour-d'Auvergne. C'est là qu'il fréquente Janine de Montferrand, qui met au monde leur fils hors mariage. À l'arrivée des troupes allemandes, il part pour Troyes et échappe aux décrets contre les juifs. Il épouse Andrée Blum en juillet 1949. En 1954, il ouvre un cabinet dentaire dans le centre-ville de Belfort, boulevard Carnot. En 1959, le couple se sépare après avoir eu deux enfants. Au moment où il découvre ses origines, printemps de cette même année 1968, Truffaut fait une demande en mariage à la famille de son actrice préférée et sa cadette de seize ans (donc encore matrimonialement mineure), Claude Jade, « la petite fiancée duEn avril 1971, François Truffaut fait partie des hommes qui cosignent le paragraphe de la « déclaration des trois cent quarante trois salopes » appelant à la dépénalisation de l'interruption volontaire de grossesse dans lequel ceux-ci se déclarent complices d'avortements. Il a retrouvé l'œuvre d'Henri-Pierre Roché, dans laquelle la question de la liberté sexuelle et donc celle de l'IVG, subies à plusieurs reprises par Helen Hessel, sont centrales, et porte à l'écran le second roman de l'auteur, "Les Deux Anglaises et le continent", qui sort en novembre en 1971. Le succès est moins grand auprès du public. À la suite de la censure de l'une des émissions de télévision Janine Bazin et André Labarthe, "Vive le cinéma", François Truffaut boycotte les "Dossiers de l'écran" du 5 juillet, au cours desquels il devait participer à un débat sur la liberté de penser illustré par son film "Fahrenheit 451". En septembre sort "Une belle fille comme moi". Il y raconte l'histoire d'un sociologue, incarné par André Dussollier, qui est fasciné par son objet d'étude, la criminelle Camille Bliss, jouée parEn 1977, François Truffaut accède à la demande de Steven Spielberg de jouer dans "Rencontres du troisième type" le rôle du scientifique français Lacombe, qui est un personnage inspiré par l'ufologue Jacques Vallée. Spielberg est un grand passionné de la filmographie de Truffaut et veut absolument ce dernier dans son film. Comme Truffaut n'est pas parfaitement bilingue, Spielberg accepte qu'il parle en français et que les répliques soient traduites par un collègue dans la version originale. Deux ans plus tard, en 1979 le dernier volet de la saga Doinel, "L'Amour en fuite", réunit Jean-Pierre Léaud et Claude Jade, une dernière fois. Truffaut écrit avec Suzanne Schiffman "Le Dernier Métro" (1980), film qui inscrit une histoire d'amour dans le Paris de l'occupation telle que le réalisateur l'a vécue. Le film est notamment inspiré par Margaret Kelly (la danseuse Miss Bluebell), qui avait caché des mois son mari Marcel Leibovici durant la guerre. Truffaut est en proie à un doute permanent sur le film. C'est un immense succès populaire : il fera trois millions trois cent mille entrées et sera salué par dix César, dont ceuxLe sort le dernier film de François Truffaut. "Vivement dimanche!", avec la même Fanny Ardant, est un nouveau succès. Peu auparavant, en juillet, le cinéaste loue la maison que possède en bordure de la ville de Honfleur, en Normandie, Michel Berger, lui-même en pleine composition de la bande originale du film "Rive droite, rive gauche" de Philippe Labro (1984). Il doit y passer tout l'été avec Fanny Ardant, enceinte, et travailler sur ses scénarios, notamment "La Petite Voleuse" etEn octobre 2014, la Cinémathèque françaisePlusieurs rues, divers cinémas sont baptisés François Truffaut. Des lycées portent ce nom,Comme la plupart des protagonistes de la Nouvelle Vague, François Truffaut n'aime pas les studios et a préféré tourner ses filmsFrançois Truffaut n'est pas seulement un grand cinéphile ; il est aussi un grand lecteur. Les personnages de ses films lisent souvent, comme Antoine Doinel plongé dans la lecture du "Lys dans la Vallée", dans "Baisers volés". Sa correspondance, publiée en 1988 par Claude de Givray et Gilles Jacob, révèle de très nombreuses références littéraires ; il semble que l'enfant Truffaut, quand il faisait l'école buissonnière, allait voir de très nombreux films mais passait également de nombreuses heures à lire. Dans sa correspondance avec son ami d'enfance Robert Lachenay, il cite régulièrement Honoré de Balzac, Marcel Proust, Jean Giraudoux, Jacques Audiberti, Jean Genet et Georges Bernanos. Il s'est lié et a correspondu avec de nombreux écrivains, dont, très tôt, Jean Cocteau, Jacques Audiberti et Jean Genet. Dans son attaque contre le cinémaLes personnages masculins de François Truffaut sont souvent isolés et renfermés sur eux-mêmes. Charlie Kohler, dans "Tirez sur le pianiste", finit seul à son piano. Montag, dans "Fahrenheit 451", est isolé du reste de la société. Pierre Lachenay dans "La Peau douce", se retrouve aussi abandonné, par sa maîtresse comme parTruffaut a une sensibilité particulière pour les enfants. Trois de ses longs métrages sont centrés sur des personnages enfants, "Les Quatre Cents Coups", "L'EnfantLa relation aux femmes, l'impossible entre éros et thanatos, est le sujet central de la plupart des films de Truffaut quand il ne s'agit pas de l'enfance. Sept d'entre eux dressent le portrait d'une femme dont la victime est un héros emprisonné dans une relation pathologique. L'héroïne est folle d'amour, folle jusqu'au meurtre, dans "La Peau douce", "La Mariée était en noir" et "La Femme d'à côté". Dans "La Sirène du Mississipi", c'est le héros qui est conduit par sa sirène fatale au crime passionnel. Dans "Une Belle fille comme moi", l'homme, sociologue, est encore la victime de l'objet féminin, mais sujet manipulateur, qui le fascine, comme Empédocle du volcan qu'il étudie de trop près. Dans "L'Histoire d'Adèle H.", l'érotomanie de l'héroïne se retourne contre elle-même. Seule la grande amoureuse jouée par Fanny Ardant dans "Vivement dimanche!" manipule le héros pour son salut.Truffaut revendique l'influence de Jean Renoir. Il dit avoir vu "Le Carrosse d'or" (1953) et "La Règle du jeu" (1939) une quinzaine de fois chacun. C'est àFrançois Truffaut dit que ces films sont à environ 20 % autobiographiques, à 20 %Cinéaste autobiographique, François Truffaut apparaît comme acteur de plusieurs de ses films. Il tient le rôle principal dans "L'Enfant sauvage" (1970), "La Nuit américaine" (1973) et "La Chambre verte" (1978), et apparaît en caméo dans la plupart de ses autres films. Il dit à ce propos : « Je ne peux pas faire une chose qui soit très loin de moi, c’est vrai. J’ai besoin de m’identifier, de me dire :
|
François Truffaut, né le à Paris et mort le à Neuilly-sur-Seine, est un cinéaste français, figure majeure de la Nouvelle Vague et auteur entre 1958 et 1979 d'au moins une douzaine de comédies dramatiques largement autobiographiques regardées à travers le monde comme des œuvres ayant, dans les suites d'Abel Gance, Jean Renoir, Jean Cocteau, Roberto Rossellini, révolutionné la narration cinématographique.
|
xwikis
|
Le jazz regroupe de nombreux styles musicaux, du ragtime de la fin du à nos jours, et s'avère difficile à définir précisément. Certains auteurs ont tenté de le définir en le mettant en perspective avec d'autres genres musicaux — se plaçant du point de vue de l'histoire de la musique européenne ou africaine par exemple —, mais le critique Joachim-Ernst Berendt estime que sa définition doit être élargie. Il définit le jazz comme. Il soutient aussi l'idéeBien que le jazz soit considéré comme un genre musical difficile à définir, l'improvisation en est l'un des principaux traits distinctifs. Le caractère central de l'improvisation peut s'expliquer par son importance dans les genres musicaux à la source du jazz, et notamment dans le blues des origines, qui s'inspire des chants de travail et complaintes des esclaves afro-américains dans les plantations. Ces derniers étaient généralement composés d'un motif répétitif sous forme d'un appel suivi d'une réponse (""), mais le blues comportait une part importante d'improvisation. La musique classique européenne, en revanche, valorisait la fidélité des musiciens à la partition, et rejetait les tentatives d'interprétation personnelle et l'ornementation musicale : l'objectif premier du musicien classique était alors de jouer la composition telle qu'elle est écrite. Le jazz est au contraire le produit des interactions et de la créativité des musiciens au sein du groupe ; bien souvent, ces paramètres déterminent la valeur de l'œuvre du compositeur (s'il y en a un) et des musiciens. Par conséquent, dans le jazz, le musicien expérimenté interprétera une mélodie de manière personnelle, sans pouvoir la rejouer exactement de laDepuis l'émergence du courant bebop, les formes de jazz produites à des fins commerciales ou influencées par la musique populaire ont été critiquées par certains puristes. Selon le critique de jazz Bruce Johnson, une aurait existé dès la naissance du genre. Les amateurs de jazz traditionnel ont rejeté le bebop, le free jazz et le jazz fusion des années 1970 (Miles Davis, Frank Zappa, ou encore Herbie Hancock), estimant qu'il s'agissait d'une dénaturation de la musique et d'une trahison envers les pionniers du jazz. Le critique et producteur de jazz français Hugues Panassié a ainsi considéré le bebop comme un genre musical et distinct du jazz, provoquant la controverse dans le milieu musical et entraînant la scission du Hot Club de France. Une conception opposée veut que le jazz soit un genre protéiforme, capable d'absorber des influences de divers styles musicaux : l'absence de création de normes internes au genre permet l'émergence de nouveaux sous-genres à l'avant-garde du jazz. Un autreAu-delà de la difficulté à définir précisément la musique qu'il désigne, l'origine du mot "jazz" est sujet à controverses. Les hypothèses avancées quant aux origines de ce nom sont multiples et aucune ne semble faire l'unanimité. Le mot jazz pourrait être dérivé : Les recherches de Gerald Cohen indiquent que le mot apparaît pour la première fois sous la plume de E. T. « Scoop » Gleeson dans le "San Francisco bulletin" en. La plupart des historiens penchent cependant sur le fait que ce mot est apparu pour la première fois dans le "Chicago Herald" du 1er mai 1916 Il appartient au jargonLe jazz prend ses sources à la fin du et au début du, à partir de la musique classique européenne et de la, mélangées à des influences culturelles de l'Afrique de l'Ouest. Sa nature, ses sous-genres et sa composition ont évolué au fil du siècle, incorporant les innovations et les interprétations personnelles des différents musiciens.Avant 1808, la traite des esclaves avait déjà provoqué l'arrivée aux États-Unis d'un million d'Africains subsahariens, principalement en provenance d'Afrique de l'Ouest et du bassin du fleuve Congo. Ceux-ci ont importé leurs traditions musicales : la musique africaine utilisait une seule mélodie, des rythmes contre-métriques, et une structure en ("") (exemple : work song). Elle avait essentiellement un but fonctionnel, pour accompagner le travail (chant de travail) ou les rites funéraires. Des rassemblements d'esclaves donnaient lieu à de grandes fêtes urbaines où se mêlaient danses africaines et percussions. Jusqu'enVers 1850, le compositeur blanc Louis Moreau Gottschalk adapte les rythmes de la musique des esclaves et des mélodies des Caraïbes pour le piano de salon. Dans "" (1859) tout comme dans la musique de la culture créole des Caraïbes et de la Nouvelle-Orléans, on retrouve le même motif à trois coups nommé tresillo. Celui-ci est une entité rythmique basique dans la musique d'Afrique subsaharienne et de la diaspora africaine.Au début du, le blues se développe dans le Delta du Mississippi et est largement diffusé à partir de 1920 avec entre autres le premier enregistrement de Mamie Smith. Parallèlement, le ragtime apparaît, style deC'est à La Nouvelle-Orléans que l'on fait en général naître le jazz, en particulier dans le quartier chaud de Storyville, avec les formations orchestrales des « brass bands », mélange de marches militaires revisitées par les noirs américains et les créoles, qui privilégie l'expression collective. Dans les années 1910 apparaissent les premières formes de jazz (« proto-jazz »), notamment sous l'impulsion du chef d'orchestre James Reese Europe, qui créa le "Clef Club". Cette salleConsidéré comme l'âge d'or du jazz, apparu vers les années 1930, le swing (ou "middle jazz") se démarque du jazz Nouvelle-Orléans par un orchestre de plus grande taille sur le modèle des trois sections de trompettes, trombones et anches qui privilégie les solistes prenant des chorus intégrés dans des arrangements écrits au détriment de l'improvisation collective. C'est l'ère des big bands de Duke Ellington, Count Basie, Glenn Miller, Benny Goodman, avec un répertoire marqué par lesVers les années 1950 apparaissent des évolutions au bebop, comme le cool et le hard bop. Le cool et le jazz West Coast regroupent des évolutions du bop moins marquées par le rythme, et généralement faites par des blancs. Les four Brothers de Jimmy Giuffre, les innovations de Lennie Tristano et la collaboration entre Miles Davis et Gil Evans sont généralement regroupées sous cette bannière. Au contraire, le hard bop est plutôt un mouvement noir, visant à réintroduire plus de soul et de blues dans leLe mouvement « » naît vers le milieu des années 1950, en même temps que les premiers frémissements du free jazz, et participe de la volonté des acteurs de la scène jazz d'élargir encore leurs horizonsDès les années 1960 et surtout 1970, s'amorcent des mouvements de fusion entre le jazz et d'autres courants musicaux, le jazz et la musique latine donnent le latin jazz, ou encore le jazz et la funk le jazz-funk, mais c'est surtout la fusion entre le jazz et le rock, le jazz-rock, quiLe jazz est un mélange de courants musicaux très divers. Au cours de son évolution, il a su intégrer de nombreuses influences et se prêter à de nombreux métissages, comme le blues, le rock, la musique latine, le hard rock, et ainsi de suite. Du point de vue de la technique musicale, sa richesse et sa complexité sont aujourd'hui telles qu'il estLes principales figures du jazz sont Louis Armstrong, Benny Goodman, Duke Ellington, GlennLes clubs de jazz ont été l'un des principaux vecteurs de la diffusion de la musique jazz, notamment jusqu'au développement des procédés d'enregistrement du son sur disque microsillon (vinyle). Les premiers sont apparus au début du siècle dans les lieux de naissance du jazz : La Nouvelle-Orléans, Kansas City, puis Chicago, Washington et New York. Cette dernière voit proliférer le nombre de clubs de jazz dans l'entre-deux guerres : la 52e rue de Manhattan en compte plusieurs dizaines à elle seule dans les années 1950. Avec le déclin progressif de l'intérêt du grand public pour le jazz, le nombre de clubs se réduit mais plusieurs lieux du jazz existent encore aujourd'hui.Les clubs de jazz les plus célèbres se trouvaient à New York, devenue la capitale mondiale du jazz dès les années 1940. Le "Savoy Ballroom" et le "Cotton Club" figurent parmi les premiers clubs new-yorkais, fondés à Harlem dès les années 1920. Les deux salles voient se produire des légendes du jazz telles que Louis Armstrong et Duke Ellington, mais le "Cotton Club" refuse l'entrée aux clients noirs. Le "Village Vanguard", crée en 1935 et encore en activité, est leDans ses mémoires publiées en 1938, le marchand d'art Wilhelm Uhde témoigne qu'en 1905 les cafés parisiens d'avant garde, le Bar royal, le Bar Maurice, Le Rat mort, Le Hanneton, le Café de Versailles, sont déjà animés par le jazz. Lors de la Première Guerre mondiale, quelques groupes américains participent à la diffusion du jazz en France en jouant dans les camps et les hôpitaux militaires. James Reese Europe, l'un des chefs d'orchestre de jazz les plus populaires à New York, arrive fin 1917 à Brest et Saint-Nazaire. Il recrute une soixantaine de musiciens, venant principalement de Harlem et deDes clubs de jazz ont été créés dans la plupart des grandes villes aux États-Unis et en Europe. Dans le Vieux carré français de La Nouvelle-Orléans se trouvent notamment le "Preservation Hall", qui a pour vocation de préserver le jazz des origines, et le "". Des clubs célèbres se trouvent également à Chicago ("Friar's Inn"), Los Angeles ("Quality Cafe") et San Francisco ("The Blackhawk"). Le "Ronnie Scott's "est le club de jazz le plus célèbre de Londres, et le Hot Club du Portugal celui de Lisbonne.Le jazz, genre musical initialement conçu pour être joué en public, se prête particulièrement bien au concept de festival. De très nombreux évènements ont été créés à travers le monde, principalement aux États-Unis et en Europe, mais également en Asie et en Afrique depuis les deux dernières décennies. Le Festival de jazz de Montreux (Suisse) est généralement considéré comme l'un des principaux rendez-vous internationaux. Crée en 1967, il a accueilli les plus célèbres artistes de jazz (Nina Simone, Ella Fitzgerald, et Miles Davis, qui y joue à dix reprises entre 1973 et 1991) et a élargi sa programmation à d'autres genres, comme le rock (Pink Floyd, Santana, Deep Purple)La télévision et les radios généralistes accordent généralement une faible place à la musique jazz. Sa diffusion dans les médias est essentiellement l’œuvre de. Les deux principales radios françaises de jazz sont TSF Jazz et Jazz Radio (basée à Lyon et qui n'émet pas sur tout le territoire). Leur programmation s'étend également à la musique afro-américaine (blues, soul, funk). A Brest Radio Neptune diffuse du jazz joutes les nuits de 20h à 9h du matin, sans publicité. Paris Jazz émettait de 1996 à 2002. Radio Jazz International et Radio Swiss Jazz sont les deux principales radios de jazz suisses. Il existe également deLa diffusion du jazz s'effectue également grâce à des magazines périodiques. Les références mondiales sont les magazines américains "JazzTimes" et "Down Beat", fondé en 1934 et qui accorde également une place au blues. Le magazine "Jazziz" aborde quant à lui le jazz dans sa grande diversité de styles. Plusieurs publications existent également en français, dont "Jazz Hot", fondé parL'enseignement du jazz dans un cadre formel s'est développé à partir de la décennie 1940. L'exceptionLe jazz a influencé certains compositeurs de musique classique du, qui ont emprunté des rythmes et instruments de jazz dans leurs œuvres. Citons Maurice Ravel et ses "Bolero" et "Concerto pour la main gauche", Darius Milhaud et la "Création du monde", Francis Poulenc et son "Concerto pour deux pianos et orchestre", Dmitri Chostakovitch et sa "Suite pour orchestre de jazz no 1", Igor Stravinsky et son "Ebony concerto", André Jolivet et son "Concerto pour trompette". L'intrusion du jazz dans la musique classique a été aussi initiée par des musiciensDe nombreux auteurs ont fait figurer des musiciens ou des mélodies de jazz dans leurs œuvres. Boris Vian, grand amateur de jazz, membre du Hot Club de France et lui-même trompettiste, fait référence au jazz dans la plupart de ses ouvrages. Un personnage de "L'Écume des jours" (1947), Chloé, a été nommée d'après le standard de jazz "Chloe (Song of the Swamp) "de DukeLes rythmes et les couleurs du jazz, ainsi que l'atmosphère de ses clubs, ont été une source d'inspiration pour des artistes peintres, sculpteurs ou photographes. Piet Mondrian, dans ses derniers tableaux, essayait de rendre la vivacité du swing et du boogie-woogie. Henri Matisse a publié en 1947 un livre de gouaches découpées intitulé "Jazz". Bien que les dessins ne soient pas à proprement parler liés au jazz (il y est plutôt question de cirque et de théâtre), Matisse se reconnaissait dans la démarche de l'improvisation jazz. Nicolas de Staël a peint plusieurs tableaux représentant des "jazzmen" ou des clubs de jazz. Amateur de Sidney Bechet, dont il admire le jazz « coloré », il réalise un ensemble de deux toiles en son honneur, nommé "Les Musiciens, souvenir de Sidney BechetDe nombreux films ont pour sujet principal le jazz ou les musiciens de jazz. Le premier film parlant de l'histoire du cinéma est "Le Chanteur de jazz", sorti en 1927, qui raconte l'histoire d'un pianiste juif qui tente de devenir une vedette de jazz en se déguisant en noir ("blackface"). Des "jazzmen" et des "jazzbands" apparaissent fréquemment dans des films, comme Paul Whiteman dans "La Féerie du jazz" (1930) ou Lester Young dans "Jammin' the Blues" (1944). "Paris Blues" témoigne de l'effervescence de la scène jazz parisienne de la fin des années 1950, et le documentaire "L'Aventure du jazz", réalisé entre 1969 et 1972 par Louis Panassié, fait figurer plus de, dont Louis Armstrong et Duke Ellington. Le film "Whiplash", sorti en 2014, est l'un des rares à évoquer la batterie jazz. En outre, plusieurs biographies de personnalités du jazz ont été réalisées. James Stewart incarne Glenn Miller dans "Romance inachevée" d'Anthony Mann (1954), et la chanteuse Diana Ross incarne
|
Le jazz est un genre musical originaire du Sud des États-Unis, créé à la fin du et au début du au sein des communautés afro-américaines. Avec plus de cent ans d'existence, du ragtime au jazz actuel, il recouvre de nombreux sous-genres marqués par un héritage de la musique euro-américaine et afro-américaine, et conçus pour être joués en public. Il émerge à partir d'autres genres musicaux, dont le ragtime, la marche, le "negro spiritual" et le blues, et comporte des caractéristiques telles que l'utilisation fréquente de l'improvisation, de la polyrythmie, de la syncope, du "shuffle", du "scat" et des notes bleues. En route, il emprunte de nombreux éléments à la et à la tradition des "brass bands". Couramment associé aux cinq instruments emblématiques du jazz — le saxophone, la trompette, le trombone, la clarinette et le piano —, le jazz mobilise cependant un grand nombre d'instruments différents, dont la guitare, la batterie, et la contrebasse.
|
xwikis
|
Carlo Lorenzini est le troisième des cinq enfants du cuisinier et d'une femme de chambre du marquis de, propriétaire florentin de la célèbre manufacture de porcelaine Ginori de Doccia. Son père, Domenico, est né en 1795 à Cortone, un village des Apennins. Sa mère, née Angiolina Orzali à Veneri, près de Collodi, également dans les Apennins, est fille de fermier. Ses parents le font baptiser à la basilique San Lorenzo de Florence et peuvent, dans un premier temps, le garder près d'eux, au. À l'âge de trois ans, l'enfant est confié à son oncle maternel Giuseppe et sa tante Teresa, qui habitent Collodi. Le journaliste prendra en 1856 pour pseudonyme le nom de ce souvenir d'enfance, en hommage, dira-t-il, à sa mère, avec laquelle il habitera durant le veuvage de celle-ci, de 1848 à 1862, c'est-à-dire durant presque toute sa vie d'adulte. Ce séjour champêtre ne dure que deux années. En 1831, l'oncle est embauché comme peintre par le marquis de. Il vient habiter avec sa femme et son neveu dans un hôtel particulier que le marquis possède à Florence, mais le jeune Lorenzini continue d'être élevé par sa tante. Promis, en raison de ses dispositions intellectuelles, à la prêtrise, il est inscrit à onze ans, par le marquis, au petit séminaire de Colle di Val d'Elsa.Renonçant à l'aube dès l'été 1842, il fait sa rhétorique et sa philosophie à Florence dans un établissement piariste, le. Libre, il habite, non loin du domicile d'alors de sa tante, un petit appartement du quartier du monastère Sainte-Appolonie. Tout en suivant les cours, il rembourse son inscription et paie son loyer grâce à quelques menus emplois à la principale librairie de la ville, la maison Piatti, via Vacchereccia, mais interrompt son cursus en 1844 quand il est embauché pour travailler au catalogue de son employeur, dans l'imprimerie que celui possède via Calimala. La maison Piatti est aussi l'éditeur de Jean-Baptiste Niccolini, écrivain patriote et libéral, c'est-à-dire favorable à l'indépendance italienne et à un régime laïc, que le jeune homme admire. Sa tâche amène Carlo Lorenzini à la, où il lie une amitié indéfectible avec l'archiviste Giuseppe Aiazzi, qui est aussi administrateur de la librairie. Celui-ci lui obtient dès 1845 l'autorisation d'accès à l'Index et l'introduit à l'écriture journalistique. L'aspirant journaliste publie une première critique musicale, intitulée "La Harpe", le dans lItalie musicale", revue milanaise que dirige, en marge de la "Rivista Europea", le révolutionnaire mazzinien Carlo Tenca. Il commence sa carrière en animant la rubrique Théâtre de ', laquelle soutiendra au début d' le coup d'état avorté de Francesco Domenico Guerrazzi. Il accompagne ainsi la faveur du public pour le théâtre, que, un pharmacien enrichi par son sirop de « longue vie » "Centherbes", baryton à ses heures, gratifie de ce qui deviendra en quelques années le.En, l'Europe se soulève contre l'absolutisme. À Paris, Louis Philippe renversé par la Révolution du 24 février, un Gouvernement provisoire met en place la Deuxième République. En Allemagne, la Révolution de mars l'imite par des gouvernements libéraux. À Vienne, les émeutes conduisent le Chancelier Clément de Metternich à démissionner le 13 et le 17, Lajos Kossuth obtient la création d'un gouvernement autonome hongrois. Le 18, Milan dresse les barricades. Le 20, les Polonais de Silésie se soulèvent. À Turin, la première guerre d'indépendance italienne commence le 23. À Florence, Carlo Lorenzini est enrôlé avec son frère aîné, Paolo, par son patron, Giulio Piatti, dans un corps expéditionnaire de quatre cent cinquante étudiants toscans. Avec les volontaires napolitains, ils rejoignent à Curtatone, près de Mantoue, les et régiments d'infanterie des Abruzzes de l', face au verrou défensif des troupes autrichiennes, le « quadrilatère des forteresses ». Le à, le général De Laugier donne un coup d'arrêt à l'offensive du maréchal Radetzky, qui dispose de cinq fois plus de canons, quatre fois plus d'hommes, et fait mil deux cents prisonniers, dont cinq cents blessés. Le sacrifice héroïque des étudiants à la défense en rase campagne du pont sur le Mincio permet, le lendemain à Goito, aux bersaillers du général La Marmora de faire reculer les Autrichiens et diffère de douze jours la contre offensive qui conduira à la défaite de Custoza mais Carlo Lorenzini a perdu cent soixante-huit camarades toscans et cent quatre-vingt-trois napolitains.Quelques mois après l'armistice signé par Salasco, Giuseppe Aiazzi trouve au soldat Carlo Lorenzini un poste de coursier au Sénat du Grand Duché. Le père de celui-ci est emporté en septembre par la maladie qui frappe toute sa famille et le laisse, ainsi que son frère ainé Paolo, en position de soutien de famille. Pour faire face, il complète sa très modeste pension de fonctionnaire par des piges. Les quelques économies réalisées sont complétées par un des deux oncles paternels, Lorenzo Lorenzini, modeste commerçant de Cortone, et utilisées à la fondation d'un journal satirique, "". Carlo écrit. Paolo gère l'entreprise. Carlo Lorenzini reste très dépendant de sa famille. Hébergé un temps par son aîné,, il s'installe à la fin de l'année 1849 chez son autre frère, Ippolito, lequel travaille avec le second mari de leur sœur, un couturier très en vue de la via Martelli. Outre des articles anonymes, pas toujours exempts d'une certaine misogynie, qui fustigent en particulier, dans la ligne mazzinienne, les communistes, Carlo Lorenzini écrit dans son journal pour la rubrique "Physiologie" des portraits caricaturaux, ébauche d'une typologie balzacienne de la comédie révolutionnaire. Le journal publie deux cent vingt deux numéros mais doit s'arrêter au bout de neuf mois, quand, le, le gouvernement de Francesco Domenico Guerrazzi, dans la confusion qui suit la dafaite de Novare, est renversé.Démission ou renvoi, Carlo Lorenzini quitte son emploi au Sénat le lendemain,, alors qu'une contre révolution rappelle Léopold de Hasbourg sur le trône de Toscane, mais il est réintégré en juin. "" ne reparait pas. Impécunieux, il se consacre à la traduction d'un conte de Michel Masson, qui paraît à l'automne en feuilleton dans lItalie musicale". Il devient critique de spectacles musicaux itinérant pour cette revue spécialisée milanaise. Tout en livrant des critiques littéraires, dramatiques ou artistiques à divers autres journaux, ', "", la "Gazzetta d'Italia", il voyage à travers l'Emilie et la Lombardie jusqu'à ce qu'il soit mis fin à son contrat, en 1852. Il est alors embauché comme le critique en titre de "L'Art", revue qui publient de jeunes auteurs engagés, tel Ippolito Nievo.En 1853, Carlo Lorenzini a acquis suffisamment de reconnaissance pour quitter cette revue et espérer réussir, pour son second essai, dans la sienne propre. "Scaramouche" sera une revue littéraire consacrée au théâtre et, contrairement au "", ne se limitera pas à un registre satirique. Il choisit pour collaborateur, un spécialiste de la langue italienne à l'heure où celle-ci se cherche un nouveau standard et où lui-même ambitionne un Risorgimento littéraire et linguistique, à travers le théâtre populaire florentin de la commedia dell'arte et de la stenterellata. Il donne sa chance à un jeune étudiant, fils d'émigré napolitain,, bientôt connu sous le pseudonyme de "Yorick fils de Yorick", et en fait le correspondant de "Scaramuccia" à Sienne. Dès 1854, il enflamme l'opinion en incendiant le pompeux "Rodolphe" de Giovanni Prati et en dénonçant l'académisme qu'honnissent les « Macchiaioli », ses amis peintres véristes du bar "Elvetichino" et du "Caffè Michelangiolo" avec lesquels il prend l'habitude de boire excessivement. Son style direct marque une étape vers la modernité de la langue italienne. Il est salué par comme celui qui a élevé l'écriture journalistique au rang d'art. Il s'essaie au genre dramatique mais est censuré, puis au roman, et à un nouveau genre burlesque, qui mêle dans une intrigue diffluente des caricatures de voyageurs à un guide touristique pour la nouvelle ligne de chemin de fer Florence Livourne. "Un roman en vapeur" parait en 1856 et est bien reçu. Il continue de publier chez des confrères, tel'qu'a fondé l'historien après avoir été déchu, pour militantisme pro Savoie, de sa chaire de l'Institut de la Très Sainte Annonciade. Il doit prendre un pseudonyme quand, en 1856, il s'offre le plaisir d'écrire dans une revue humoristique, '. Ce sera Collodi, le village de son enfance.Au-delà de son métier de critique dramatique, il s'engage en mars de cette année 1856 pour une troupe de théâtre populaire typique, le "Theâtre picène", et en prend la charge de secrétaire. Les multiples démarches entreprises pour cette compagnie jusqu'en entre Ancône, Bologne et Florence se compliquent d'un amourachement malheureux pour la mezzosoprane Giulia Sanchioli, de huit ans sa cadette. A trente ans, il éprouve ce qu'il n'a jusqu'alors jamais connu au travers de multiples aventures sentimentales de basse qualité. C'est alors qu'il publie une critique sociale acerbe en forme de parodie des "Mystères de Paris" qui frôle le surréalisme, "Les Mystères de Florence". Au printemps 1858, il est de nouveau correspondant pour "L'Italie musicale", prétexte à une errance amoureuse entre La Scala de Milan et le Regio de Turin. Il finit par s'effacer devant un rival avocat quand la cantatrice qu'il poursuit lui signifie ne vouloir entretenir avec lui qu'une relation professionnelle.Le, un plébiscite appelle au rattachement de la Toscane, sur laquelle règne le petit-fils de feu l'empereur d'Autriche, au futur Royaume d'Italie. Le, en réponse aux accords de Plombières signés secrètement entre la France de Napoléon III et la Savoie de Cavour, l'Empire d'Autriche envahit le Piémont. A trente deux ans, Carlo Lorenzini s'engage à Turin comme simple soldat dans l' et combat une seconde fois pour l'indépendance italienne. La bataille de Solférino est la première à faire l'objet de comptes rendus journalistiques qui font prendre conscience aux masses en quelles boucheries finissent les rêves d'héroïsme. C'est un désastre politique pour ceux qui ont vaincu militairement. L'armistice de Villafranca signé le, remet en place le pouvoir hasbourgeois à Florence et renvoient Carlo Lorenzini et ses amis, démobilisés en août, à leurs illusions perdues.Rentré à Florence, Carlo Lorenzini est sollicité en par son ami pour rédiger un pamphlet en réponse au projet néoguelfe que vient de publier. Celui-ci, érudit qui a été proche du Grand Duc Léopold, propose une restauration du pouvoir bonapartiste et appelle, selon les vœux de Napoléon III, Jérôme Bonaparte sur le trône d'une Toscane qui, comme le prévoyait le projet de « » de 1847, ne céderait rien au pouvoir piémontais dans une fédération des États Unis d'Italie soudée par le catholicisme. Avec verve, Carlo Lorenzini, anticlérical, ne manque pas dans sa réponse d'ironiser sur les succès certains de ceux qui flattent le picrocholisme des peuples. Son alcoolisme est devenu assez patent pour que sa mère lui fasse promettre de plus mettre les pieds au "Falchetto", le bar situé en face du plus voyant "", via Martelli, où il a ses habitudes. En, le marquis de obtient de Bettino Ricasoli, chef du favorable aux Savoie, qu'il lui donne un poste, peu rémunérateur, d'aide commis au bureau de la censure. Il y a l'occasion de lire tout le théâtre qui se produit sur scène en Toscane. Son ami Alexandre d'Ancône lui confie une campagne de propagande en faveur du rattachement de la Toscane au Royaume de Sardaigne que doit décider en mars. Elle parait dans les colonnes de l'hebdomadaire "La Nation", qui est le porte voix du baron Ricasoli, c'est-à-dire, au-delà de l'unité italienne, de l'ordre moral et de la censure. Le, 366 571 voix, contre 14 925, votent pour le rattachement. En mai, Carlo Lorenzini devient simple journaliste appointé de "La Nation". C'est, avec sa paie, pour relancer, dès le, son journal satirique " interrompu en 1849. Son frère aîné Paolo, devenu directeur de la manufacture de porcelaine du marquis de Ginori, sert de nouveau de prête-nom. En novembre, il se rend à Milan à la rencontre du cercle des écrivains de la revue " qu'anime Carlo Tenca. Le florentin est adopté et nommé secrétaire d'une commission chargée de préparer « le Panthéon italien », une collection des auteurs majeurs de la littérature italienne, à commencer par Dante. Le projet s'inscrit dans la suite de la publication des manuscrits de Galilée qu'ont réalisé en 1842, à l'initiative du Grand Duc Léopold, et son jeune adjoint. Sur décision du roi Victor Emmanuel, Florence devient capitale d'une Italie sans Rome et sans Pape le. À la fin du mois, lui et son frère abandonnent la direction du "", qui recevra le soutien de Garibaldi, sera aussitôt censuré et s'arrêtera définitivement en 1877. Il collaborera occasionnellement avec son ancien journal. Pour inaugurer la nouvelle capitale, une exposition industrielle est organisée. Carlo Lorenzini se voit confier à cette occasion la rédaction d'un guide historique illustré de la manufacture Ginori, que dirige son frère Paolo. En fait, il ne peut que reprendre un opuscule signé dans des circonstances semblables vingt ans plus tôt par.En 1862, Carlo Lorenzini adhère à la "Société d'encouragement du théâtre". En 1864, il est promu secrétaire de seconde classe de l'administration de la province de Florence. Il lui faudra attendre dix ans pour passer première classe. Son emploi au bureau de la censure, point de vue unique sur le théâtre vivant, n'a plus l'attrait de ses débuts. À l'insatisfaction de la carrière du fonctionnaire, s'ajoute le manque de reconnaissance pour l'écrivain. Ses quelques romans et ses trois pièces de théâtre n'ont pas eu un grand succès. En 1868, le,, le nomme membre à titre extraordinaire du « conseil pour la compilation du vocabulaire en usage dans le florentin », entreprise devant aboutir à un dictionnaire à laquelle il apportera une moindre contribution. L'Italie de la Droite historique, l'abus de décrets, le programme fiscal, le désespèrent. En 1870, il s'insurge par voie de presse contre l'augmentation de la décidée par le ministre des finances Quintino Sella. Les chroniques qu'il donne à divers journaux, "La Nazione", "La Gazzetta del popolo", "", que fonde en 1870 son ami, montrent un observateur de la vie politique toujours plus désabusé. Le projet politique de sa jeunesse tourne en scandales financiers, querelles de personnes, lois absurdes. Il finira par publier, le, une lettre ouverte adressée au président du Conseil Marco Minghetti, "Delenda Toscana", dans laquelle il propose de faire disparaître du monde la Toscane. La « Révolution parlementaire » du ne le dupera pas. L'année suivante, il dénoncera la du Michele Coppino qui rend celle-ci obligatoire mais en confie le financement à des communes indigentes, poussant par là la jeunesse catholique et riche hors de la république, vers des établissements privés.En 1875, le frère aîné de Carlo Lorenzini, Paolo, parvient au sommet de sa carrière de directeur de la manufacture de porcelaine du marquis de Ginori. En plus de l'appartement de vacances qu'il possède depuis une quinzaine d'années à Livourne, il acquiert une maison de campagne dans le quartier du, la villa Rapi. Située en face de la Villa Corsini, ce fut celle du jardinier des Médicis. Carlo Lorenzini y séjourne lui-même souvent. Ce n'est qu'alors que, quinquagénaire, il commence à écrire pour les enfants, avant même la naissance, en 1876, de son neveu, qui deviendra en quelque sorte son successeur. Les, éditeurs de livres scolaires, lui commandent une adaptation en italien des "Contes" de Perrault, de ceux de la comtesse d'Aulnoy et de la marquise de Beaumont. Le recueil, illustré par le jeune Enrico Mazzanti, parait l'année suivante sous le titre "Les Contes de la fée". La réalisation des répond au projet politique d'une instruction publique dans l'Italie nouvelle et à la préoccupation d'une pédagogie à l'adresse des futurs citoyens. Elle ouvre la voie à un jeune confrère de Carlo Collodi, Edmondo De Amicis, et à la littérature enfantine italienne. Lui-même invente en 1877 le personnage de et en 1878 celui de, héros de récits d'aventures moraux auxquels le jeune lecteur puisse s'identifier. Deux ans plus tard, Collodi fait du premier de ces personnages,, le héros de l'équivalent cisalpin du "Tour de la France par deux enfants". Parallèlement, il travaille à se construire une image d'écrivain en recueillant ses meilleurs articles de presse, qu'il publie en 1880 et 1881 en trois volumes distincts.Dès qu'il le peut, en, Carlo Lorenzini demande son droit à la retraite. Le député Ferdinando Martini, une des plumes du quotidien ', vient de fonder un sous titre de ce journal destiné aux enfants, le "Giornale per i bambini", dans l'intention de renouveler la littérature enfantine. Il en a confié la rédaction à un vieil ami de Carlo Lorenzini, Guido Biagi. Celui-ci insiste auprès de celui-là pour qu'il fournisse matière à impression. De mauvaise grâce, pour rembourser des dettes de jeux, dit-on, Carlo Collodi, payé vingt centimes la ligne, soit cinq de moins que le tarif, loin des cinquante qu'offre ', écrit trois premiers chapitres de "L'Histoire d'une marionette",. Le choix d'une marionnette pour servir de personnage principal répond à son intérêt pour le théâtre populaire, intérêt qu'il partage avec son ami, lequel publiera en 1884 une "Histoire des marionnettes", qui fait toujours référence. Le "Journal des enfants" publie la suite de "L'Histoire d'une marionnette" à partir du en feuilleton. Le quinzième et dernier chapitre, publié le, s'achève sur le suicide par pendaison de la marionnette mais, sur l'insistance de Biagi, "Les Aventures de Pinocchio" reprennent, sous ce nouveau titre, de à jusqu'à un ultime trente sixième chapitre. La production n'est pas régulière. Entretemps, Carlo Lorenzini perd sa mère, avec laquelle il vivait. En juin, pour le mettre à l'abri de tout divertissement, il est logé dans le quartier aristocratique du, à côté de l'hôtel Beau repos, 29 rue de la Petraia, qu'il quitte le.La mort de sa mère est un deuil dont il ne se remettra pas. En 1883, il prend pour deux années la direction d""', auquel il avait collaboré dès 1871. En février, le feuilleton "Les Aventures de Pinocchio" est rassemblé par les en un volume. Illustré par le jeune Enrico Mazzanti, l'ouvrage devra, dès 1886, être réédité trois fois, tant le succès est grand, une cinquième édition, elle aussi corrigée, étant confiée en 1890 à un sous traitant. Physiquement amoindri, à cinquante neuf ans, Carlo Lorenzini vit replié sur lui-même, consacrant son temps exclusivement à l'écriture, s'ennuyant durant les deux mois de vacances livournaises. Il publie successivement un nouveau conte, "Le Cadeau de fin d'année", une évocation de sa carrière de journaliste sous titrée "Mémoires d'un tire à la ligne", et, pour les, la série des. Rentré du, où il a, avec son ami, ses habitudes à la table de la, en passant chez le professeur Angelo Zalla pour lui recommander une enseignante candidate à l', Carlo Collodi meurt brusquement au soir du, au moment de franchir le seuil de sa porte. Il est enterré au cimetière des Portes Saintes près de la basilique San Miniato al Monte de Florence dans le tombeau familial des Lorenzini, où un buste lui est dressé. Son neveu écrivain, dit "Collodi Nipote", porté par la notoriété du pseudonyme de son oncle, aura une certaine célébrité, notamment aux États-Unis. Son plus grand succès, "", paru en 1902, exploite la même veine du livre humoristique pour enfants.
|
Carlo Lorenzini (Florence, - ibidem, ), est un journaliste et écrivain italien. Critique dramatique en complément de son métier de fonctionnaire affecté à la censure, il est l'auteur, sous le pseudonyme de Carlo Collodi, du chef-d'œuvre mondial de la littérature enfantine "Les Aventures de Pinocchio".
|
xwikis
|
Jacob Grimm naquit en 1785 dans une famille protestante allemande, ses parents Philip et Dorothea, eurent neuf enfants, dont six survécurent. Jacob et son frère Wilhelm étaient les aînés. Son père meurt à l'âge de 45 ans et sa mère l’envoie avec Wilhelm auprès de leur tante à Cassel. Jacob et son frère étudient le droit dans l'université de Marbourg. Un de leurs professeur, Friedrich Carl von Savigny, leur ouvre sa bibliothèque privée et leur fait découvrir les auteurs romantiques. Savigny travaillait sur l'Histoire de l'Empire romain et se rendit à Paris en 1804 pour ses recherches. En janvier 1805, il invita Jacob à l'y rejoindre. En qualité d'aide, il se pencha pendant plusieurs mois sur la littérature juridique. À la suite de cela il décida de s'éloigner désormais des thèmes juridiques. Il rapporta, dans sa correspondance, vouloir se consacrer à la recherche sur la « magnifique littérature de l'ancien allemand » à laquelle lui et Wilhelm s'étaient déjà intéressés. En 1806, il trouve une place de secrétaire à l'école de guerre de Cassel mais l'abandonne avec la fondation de la Confédération du Rhin. C'est à ce moment que lui et son frère commencèrent à rassembler des contes. Après le décès de leur mère en 1808, il prend en charge toute la famille en qualité d'aîné. Il devient directeur de la bibliothèque privée de Jérôme Bonaparte (frère de Napoléon, et récemment fait roi du jeune royaume de Westphalie) et occupe une place d'assesseur au conseil d'État. Il retrouve son jeune frère en 1810 et fait paraître son premier ouvrage sur les maîtres chanteurs allemands ("Über den altdeutschen Meistergesang"). Après la bataille de Leipzig en 1813, le royaume de Westphalie fut dissous et l'électorat de Hesse restauré. Jacob Grimm y perdit sa place de directeur de la bibliothèque royale, mais retrouva bientôt une situation auprès du prince-électeur en tant que secrétaire de légation. Dans ses nouvelles fonctions diplomatiques, il retourna à Paris en 1814, où il employa ses loisirs à de nouvelles recherches en bibliothèque. Le premier ouvrage commun des deux frères, sur le "Chant de Hildebrand" et le "Wessobruner Gebet", fut publié en 1812. Il fut suivi en décembre de la même année d'un premier recueil de "Contes de l'enfance et du foyer" ("Kinder- und Hausmärchen"), tiré à 900 exemplaires. Les deux frères s'essayèrent aussi à une édition allemande de l'Edda, ainsi que de "Reineke Fuchs" (une version allemande du Roman de Renart), travaux qui restèrent toutefois longtemps inachevés. De 1813 à 1816, les frères contribuèrent également à la revue "Altdeutsche Wälder", consacrée à la littérature allemande ancienne, mais qui ne connut que trois numéros. En 1815, Jacob Grimm assista au congrès de Vienne en tant que secrétaire de la délégation hessoise, puis séjourna de nouveau à Paris en pour une mission diplomatique. Par la suite, il quitta définitivement la carrière diplomatique pour pouvoir se consacrer exclusivement à l'étude, à la classification et au commentaire de la littérature et des usages historiques. Cette même année 1815, à côté d'un ouvrage d'études mythologiques ("Irmenstraße und Irmensäule"), il publia un choix critique d'anciennes romances espagnoles ("Silva de romances viejos"). C'est dans cette période créative que se place le travail de Jacob Grimm sur sa "Grammaire allemande". Le premier tome traitait de la flexion, le second de la formation des mots. Jacob fut un ami très proche du linguiste et écrivain Serbe Vuk Stefanović Karadžić, à ses côtés il apprît le Serbe, lui donnant ainsi accès aux chants héroïques Serbes et aux légendes balkaniques. Et 1824, il traduisit en allemand la grammaire Serbes ("Wuk Stephanowitsch, kleine serbische Grammatik, verdeutscht" (Leipzig et Berlin, 1824). Ce ne fut qu'après le mariage de Wilhelm Grimm avec (dite « Dortchen ») en 1825 que le cours de la vie des deux frères vint à se stabiliser. Ils continuèrent à vivre ensemble, à trois désormais avant que ne naissent bientôt les enfants de Wilhelm et « Dortchen ». En 1829 cependant, après respectivement 13 et 15 ans au service de la bibliothèque de Collase des mers, les deux frères donnèrent leur démission. Après la mort du directeur, le prince électeur Guillaume II de Hesse n'ayant pas attribué le poste à Jacob, les frères répondirent à une proposition de la bibliothèque de l'université de Göttingen, en Hanovre. En 1837, le roi de Hanovre, de Grande-Bretagne et d'Irlande Guillaume IV mourut, et la couronne de Hanovre passa à son frère Ernest-Auguste. De tendances autoritaires, celui-ci révoqua rapidement la constitution relativement libérale accordée par son prédécesseur, à laquelle les fonctionnaires avaient prêté serment. Sept professeurs de l'université de Göttingen signèrent alors une lettre de protestation solennelle, parmi lesquels Jacob et Wilhelm Grimm. Le roi répliqua en révoquant immédiatement les professeurs, et en bannissant trois de ses états, parmi lesquels Jacob Grimm. Cette affaire dite des "Sept de Göttingen" eut un grand retentissement en Allemagne. Jacob devint ensuite membre de l'académie des sciences de Berlin et professeur à l'Université Humboldt. Les deux frères s'étaient installés définitivement à Berlin mais Jacob réalisa plusieurs voyages à l'étranger et fut député au Parlement de Francfort en 1848. Durant cette période berlinoise, les deux frères se consacrèrent principalement à une œuvre colossale : la rédaction d'un dictionnaire historique de la langue allemande, qui en présenterait chaque mot avec son origine, son évolution, ses usages et sa signification. Jacob Grimm laissa en outre son nom à une importante loi de phonétique historique caractérisant les langues germaniques, la loi de Grimm. Jacob mourut quatre ans après son frère, le. Ils furent tous deux enterrés au cimetière de Matthäus, à Berlin-Schöneberg.
|
Jacob Ludwig Karl Grimm (né le à Hanau en Hesse-Cassel et mort le à Berlin en Prusse) est une importante figure littéraire, conteur, linguiste, philologue allemand, connu pour avoir rassemblé des contes européens avec son frère Wilhelm et contribué à la rédaction du "Deutsches Wörterbuch". Son travail lui a valu une reconnaissance de ses pairs en tant que figure importante de la littérature allemande, notamment en appliquant la méthode historique aux travaux littéraires.
|
xwikis
|
Christine Darbon marche dans une rue de Paris. Elle porte un étui à violon. Elle s'arrête pour acheter des fruits. On ne voit que ses jambes et le violon. « Voilà Mademoiselle », lui dit la marchande. « Non pas mademoiselle. Madame! » rectifie Christine. Antoine Doinel a épousé Christine Darbon; toujours instable, il exerce provisoirement un métier inhabituel : il teint des fleurs dans la cour de son immeuble, pour les rendre plus attrayantes. Christine donne chez elle des leçons de violon. Elle est bientôt enceinte et Antoine, qui a perdu son emploi de fleuriste à la suite d’une mauvaise manipulation chimique, entre dans une importante entreprise américaine qui effectue des recherches et expériences hydrauliques. Christine donne naissance à un garçon, qu'elle veut appeler Guylain, mais qui s’appellera Alphonse ; c'est sous ce prénom qu'Antoine le déclare à la mairie. Celui-ci, toujours volage, rencontre une Japonaise, c’est la première fois qu'il trompe Christine. Kyoko envoie à Antoine des petits mots d'amour et les cache dans un bouquet de tulipes. Christine remarque que les tulipes s'ouvrent les unes après les autres laissant tomber les mots sur la table. Christine sent bien qu’Antoine la trompe, et un soir elle l'accueille habillée en Japonaise, de grosses larmes coulant sur ses joues maquillées. Christine et Antoine vont se séparer mais Antoine s'ennuie avec Kyoko. Un soir, au restaurant, alors qu'il dîne avec elle, Antoine quitte la table à plusieurs reprises au cours du repas pour téléphoner à Christine. Antoine retrouve Christine : le couple se reforme. Par ordre alphabétique :Du au à Paris.(La revue des deux mondes, 1971, p.228).
|
Domicile conjugal est un film français réalisé par François Truffaut et sorti en 1970. Suite de "Baisers volés", ce film est le quatrième d'une pentalogie qui se clôt avec "L'Amour en fuite", dans le cadre du cycle "Antoine Doinel" : Antoine (Jean-Pierre Léaud) a épousé Christine (Claude Jade).
|
xwikis
|
Charles Perrault est né dans une famille bourgeoise tourangelle installée à Paris. Son grand-père a été brodeur du roi, son père Pierre († 1652) avocat au Parlement de Paris s'est marié en 1608 à Paquette Le Clerc († 1657) qui lui donne sept enfants. Charles est le dernier de cette fratrie : Jean, l’aîné, avocat comme son père, meurt en 1669 ; Pierre (1611-1680), receveur général des finances, perd pour indélicatesse son crédit auprès de Colbert en 1664 ; Claude (1613-1688), médecin et architecte, membre de l'Académie des sciences et du Conseil des bâtiments, publie des ouvrages d’histoire naturelle et d’architecture, on lui doit notamment la colonnade du Louvre ; Nicolas (1624-1662), amateur de mathématiques et théologien, est exclu de la Sorbonne pour jansénisme en 1656 ; Marie, l’unique fille, meurt à treize ans ; il a également un frère jumeau, François, mort en bas âge, à 6 mois. Charles Perrault est baptisé le en l'église Saint-Étienne-du-Mont à Paris. Son parrain est son frère Pierre et sa marraine est Françoise Pépin, sa cousine. Il fait des études littéraires brillantes au collège de Beauvais à Paris dont il raconte, dans ses "Mémoires", qu’y étant élève de philosophie, il quitta la classe à la suite d’une discussion avec son professeur, en compagnie d’un de ses camarades. Tous deux décident de ne plus retourner au collège, et ils se mettent avec ardeur à la lecture des auteurs sacrés et profanes, des Pères de l'Église, de la Bible, de l’histoire de France, faisant de tout des traductions et des extraits. C’est à la suite de ce singulier amalgame de libres études qu’il met en vers burlesques le sixième livre de "l'Énéide" et écrit "les Murs de Troie ou l’Origine du burlesque". Reçu avocat en 1651 après avoir obtenu sa licence de droit, il s’inscrit au barreau mais, s’ennuie bientôt de « traîner une robe dans le Palais ». En 1653, il publie avec son frère Claude un poème, « Les murs de Troie ou L'origine du burlesque ». Un an plus tard, il entre en qualité de commis chez son frère qui était receveur général des finances. Cette place lui laissant du loisir, il en profite pour se livrer à son goût pour la poésie.Il est chargé par Colbert de la politique artistique et littéraire de Louis XIV en 1663 en tant que secrétaire de séance de la Petite Académie, puis en 1672 en tant que contrôleur général de la Surintendance des bâtiments du roi. Dès lors, Perrault use de la faveur du ministre au profit des lettres, des sciences et des arts. Il n'est pas étranger au projet d’après lequel des pensions sont distribuées aux écrivains et aux savants de France et d’Europe. À 44 ans, il épouse une jeune femme de 19 ans, Marie Guichon, avec qui il a quatre enfants. Perrault contribue également à la fondation de l’Académie des sciences et à la reconstitution de l’Académie de peinture. Il fait partie, dès l’origine, de la commission des devises et inscriptions qui devint l’Académie des inscriptions et belles-lettres mais à la mort de Colbert en 1683, il perd sa charge de contrôleur général et est exclu de cette Académie. Entré à l’Académie française en 1671, il y donne l’idée des jetons de présence, de rendre publiques les séances de réception et de faire les élections « par scrutin et par billets, afin que chacun soit dans une pleine liberté de nommer qui il lui plairait. » C’est lui encore qui rédige la préface du "Dictionnaire de l'Académie" en 1694.Perrault était un touche-à-tout littéraire qui s’essaya au genre galant avec "Dialogue de l’amour et de l’amitié" (1660) et "Le Miroir ou la Métamorphose d’Orante". Toutes ses productions littéraires se bornaient à quelques poésies légères, comme le "Portrait d’Iris", lorsqu’il lut à l’Académie, le, un poème intitulé "le Siècle de Louis le Grand". Ce poème, où Perrault, parlant avec assez peu de respect d’Homère, de Ménandre et des plus révérés d’entre les auteurs classiques, plaça pour la première fois le au-dessus de tous les siècles précédents, tient une place importante dans l’histoire des lettres en ce qu’il inaugure la Querelle des Anciens et des Modernes. Perrault, qui sera le chef de file des partisans des Modernes, y explique l’égalité nécessaire entre les différents âges par une loi de la nature : <poem>À former les esprits comme à former les corps, La nature en tout temps fait les mêmes efforts ; Son être est immuable, et cette force aisée Dont elle produit tout ne s’est point épuisée : Jamais l’astre du jour qu’aujourd’hui nous voyons N’eut le front couronné de plus brillants rayons ; Jamais dans le printemps les roses empourprées D’un plus vif incarnat ne furent colorées. De cette même main les forces infinies Produisent en tout temps de semblables génies.</poem> À cette lecture, Boileau se leva furieux, disant que c’était une honte de la supporter. D’autres académiciens, qui y voyaient une flatterie pour eux-mêmes, applaudirent vivement. Racine félicita ironiquement Perrault d’avoir si bien mené ce jeu d’esprit et d’avoir si parfaitement rendu le contraire de ce qu’il pensait. Ainsi naquit une des plus fameuses querelles littéraires, s’il est vrai, comme on l’a dit, que ce fut pour répondre à Racine que Perrault entreprit une démonstration méthodique de sa thèse et publia le "Parallèle des anciens et des modernes" (Paris, 1688-1698, 4 vol. in-12), ouvrage écrit sous forme de dialogue entre un président savant et un peu entêté, un chevalier léger, agréable et hardi, et un abbé qui représente la modération. Son quatrième tome consacre une part importante à l’architecture, reprenant les idées que son frère Claude Perrault avait développé dans ses ouvrages, en se posant à l’encontre des canons éternels de la notion du beau. Boileau répondit par des épigrammes et dans les "Réflexions sur Longin". Dans cette discussion, où les adversaires avaient à la fois raison et tort à différents points de vue, et où, suivant chacun sa voie, ils se répliquaient sans se répondre, Perrault l'emporta en général par l’urbanité. On l’injuriait, il ripostait d’un ton spirituellement dégagé : <poem>L’aimable dispute où nous nous amusons Passera, sans finir, jusqu’aux races futures ; Perrault se laissa cependant aller à quelques paroles trop vives dans son "Apologie des femmes", qu’il publia en 1694, pour répondre à la satire de Boileau contre les femmes. Les deux ennemis furent réconciliés, du moins en apparence, en 1700 et leur querelle fut continuée par d’autres écrivains. Perrault avait commencé en 1696 et termina en 1701 un ouvrage intitulé "les Hommes illustres qui ont paru en France pendant ce siècle" (2 vol. in-fol.), recueil de cent deux biographies, courtes, précises et exactes, accompagnées de magnifiques portraits gravés. Mais ce qui a fait l’immortelle popularité de Charles Perrault, ce n’est ni cette riche publication, ni ses discussions littéraires, c’est le petit volume intitulé "Contes de ma mère l’Oye, ou Histoires du temps passé" (1697, petit in-12, édition très rare et contrefaite la même année) qu’il publia sous le nom de son jeune fils, Perrault d’Armancourt.Comme Charles Perrault n'a couché par écrit que les versions qu'il avait entendues, et du fait de la forte légitimité de l'écrit, les contes dits « de Perrault » ont souvent pris le pas sur les autres versions des mêmes histoires, issues du patrimoine oral de France et du monde entier. Ainsi, Pierre Dubois pense que Charles Perrault a considérablement modifié la perception de la fée en faisant des mentionnées dans les anciennes croyances des femmes raffinées, délicates et élégantes fréquentant la cour dans ses contes, détruisant ainsi leur symbolisme originel lié au renouveau de la nature. Selon lui, il les fées des saisons avec l'ajout de ses morales. Cependant, le point de vue de cet auteur, Pierre Dubois, est lié à la perception écologique que l'on a des fées en cette fin de et début de, bien que les auteurs de Fantasy (dont il fait partie) dépeignent rarement les fées comme étant des ordonnatrices de la Mère Nature. Pour Perrault les fées sont surtout les instruments du Destin et des magiciennes comme elles l'ont été durant tout le Moyen Âge. Ne disait-on pas "fée" pour désigner un objet magique, alors que tout ce qui était lié à la nature et à son renouveau était selon Paracelse plutôt du domaine des éléments et de leurs représentants, les elfes, les lutins, les trolls. Dans la légende arthurienne de la Table Ronde, Viviane et Morgane ne sont pas des fées des saisons mais bel et bien des magiciennes. Les fées de Perrault ne sont pas les délicates fréquentant la cour comme dit cet auteur de bandes dessinées, le conte "Les Fées" met en scène une magicienne qui tour à tour endosse l'apparence d'une vieille femme puis d'une dame pour rendre justice à la bonté, la fée de Cendrillon transforme une citrouille en carrosse mais nulle part il n'est question d'une femme de cour, elle est une "marraine", une protectrice et quant à la vieille fée dans La belle au bois dormant, elle serait plus proche de la sorcière jeteuse de sorts. Perrault était un écrivain philosophe qui a laissé dans ses contes les traces d'un enseignement hermétique comme le souligne Armand Langlois dans son analyse des contes de Perrault. Il n'était pas un auteur de Fantasy, il n'a jamais prétendu endormir les enfants avec de jolies histoires mais c'était un moraliste qui a utilisé le merveilleux pour éduquer et donner une direction pour l'accomplissement de la personne humaine.En 1691, Perrault publie une « nouvelle » en vers : En 1693, il publie un premier « conte en vers » dans le "Mercure galant" : En 1694, il réunit dans une même édition les deux œuvres précédentes et y ajoute une troisième histoire, deuxième « conte en vers » : En 1696 paraît dans le "Mercure galant" un conte en prose : "La Belle au bois dormant". L’année suivante, sort de chez Claude Barbin un volume intitulé "Histoires ou Contes du temps passé" (1697). Ce volume contient les huit contes en prose suivants : Ce recueil subit deux contrefaçons la même année : l'édition de Jacques Desbordes, à Amsterdam, "Histoire ou Contes du temps passé. Avec Moralitez", et l'édition du Prince de Dombes, à Trévoux, "Histoires ou Contes du temps passé. Avec des Moralitez". La critique moderne retient, outre les publications très importantes des deux contes parus dans "Le Mercure galant", le manuscrit d'apparat de 1695 dédié à Elisabeth-Charlotte d'Orléans, fille de "Monsieur" et de la Princesse Palatine, nièce de Louis XIV. Apparaissent dans une première version les cinq premiers contes du recueil. L'étude des modifications génétiques apportées en 1697 est très intéressante: ajout de Moralités, transformation significative du début des "Fées" qui s'ajuste au sixième conte : "Cendrillon." Le livre de 1697 multiplie quantitativement le volume en multipliant par deux le nombre de pages et multiplie les relations entre les huit contes qui sont trop souvent étudiés de manière individuelle, comme des textes autonomes, au lieu de prendre en compte la logique du recueil, intégrant le frontispice, la vignette qui surplombe la dédicace et l'épître dédicatoire à Mademoiselle.Il fait paraître son recueil sous le nom de son troisième fils, Pierre Darmancour, ou d’Armancour, Armancour étant le nom du domaine que Charles vient d’acquérir et d’offrir à Pierre. Ce dernier, né en 1678, aspirait à devenir secrétaire de « Mademoiselle », nièce de Louis XIV, à qui est dédicacé l’ouvrage. De plus, Perrault voulait éviter une nouvelle polémique entre Anciens et Modernes (il était le chef de file de ces derniers) avec la publication de ses "Contes". Il s’était réconcilié avec Boileau en 1694. Le nom de son fils lui a donc été d’une grande aide pour éviter la reprise de la querelle. Cependant, des avis pour l'attribution des "Contes en prose" au fils subsistent, insistant sur le fait qu'ils étaient trop maladroits et trop immoraux pour être de la main du père. Cette position est aujourd'hui assez largement contestée avec un certain nombre de preuves détaillées, par exemple, par Ute Heidmann et Jean-Michel Adam.En 1683, Perrault, ayant perdu à la fois son poste à l’Académie et sa femme, décide de se consacrer à l’éducation de ses enfants et écrit "Les Contes de ma mère l’Oye" (1697). Il meurt le dans sa maison de la rue de l'Estrapade sur la Montagne Sainte-Geneviève et est inhumé le lendemain en l'église Saint-Benoît-le-Bétourné en présence de son fils Charles Perrault. Le genre des contes de fées est à la mode dans les salons mondains : les membres de la haute société assistent aux veillées populaires et prennent note des histoires qui s’y racontent. Son recueil intitulé "Contes de ma mère l’Oye", où les contes sont à la fois d’inspiration orale (la « Mère l’Oye » désigne la nourrice qui raconte des histoires aux enfants) et littéraire (Boccace avait déjà écrit une première version de Griselidis dans le "Décaméron"). Le travail que Perrault opère sur cette matière déjà existante, c’est qu’il les moralise et en fait des outils « à l'enseignement des jeunes enfants ». Ainsi, il rajoute des moralités à la fin de chaque conte, signalant quelles valeurs il illustre. Perrault conçoit ses contes comme une contestation des positions des Anciens et dans un dialogue avec ses contemporains : La Fontaine et Fénelon, Marie-Jeanne Lhéritier et Catherine Bernard. Il a été largement démontré aujourd'hui qu'il promeut un certain usage des textes latins et s'inspire très massivement de Virgile et d'Apulée, mais aussi de Straparola ("Le Piacevoli Notti") et de Basile ("Locunto de li" ). Marc Soriano dit de Perrault qu’il est « le plus méconnu des classiques » : tout le monde connaît ses contes, mais très peu connaissent "sa" version des contes : ainsi, chez Perrault, le petit chaperon rouge et sa grand-mère finissent mangés par le loup : la version postérieure où le chasseur les sort du ventre est de Grimm. De même, c’est dans Disney que le baiser du prince réveille la Belle au bois dormant (c'est également la version des frères Grimm) : chez Perrault, elle se réveille toute seule après que le Prince se soit agenouillé près d'elle. De même, on a longtemps eu un doute sur la fameuse pantoufle de verre : était-elle en verre ou en vair? C'est en fait Balzac qui, pour rationaliser les "contes" de Perrault, modifia le conte en prétendant qu'il s'agissait d'une pantoufle de vair. Idée reprise par Littré dans son célèbre dictionnaire. Il s'agissait bien d'une pantoufle de verre. Et la postérité a préféré ne garder que ce que Perrault appelait le « conte tout sec », c’est-à-dire le conte de fée, en oubliant les moralités. Or, les moralités de Perrault sont tout aussi essentielles à ses contes que ne le sont les moralités des "Fables" de La Fontaine.Les contes de Perrault inspirèrent plusieurs chefs-d'œuvre du ballet classique, comme :Il existe de très nombreuses adaptations cinématographiques de ses contes, parmi lesquelles :
|
Charles Perrault, né le à Paris et mort dans cette même ville le, est un homme de lettres français, célèbre pour ses "Contes de ma mère l’Oye".
|
xwikis
|
Jacob et Wilhelm sont nés à Hanau, en Hesse-Cassel. Les grands-parents et arrière-grands-parents étaient de confession réformée, les hommes étant traditionnellement pasteurs. Les parents Philip et Dorothea Grimm eurent neuf enfants, dont six survécurent. Dans l'ordre de naissance : Jacob, Wilhelm, Carl, Ferdinand, Ludwig et Charlotte. La maison natale des frères Grimm donnait sur l'ancienne place d'armes de la ville de Hanau près de Francfort-sur-le-Main. En janvier 1791, leur père, Philip, fut nommé bailli ("") dans sa ville natale de Steinau en Kinzig où la famille emménagea. En 1796, leur père mourut à l'âge de. Leur mère, afin d'assurer à l'aîné toutes ses chances d'accéder à une carrière juridique envoya les deux enfants auprès de leur tante dans la ville de Cassel. Jacob fréquenta en 1802 l'université de Marbourg et y étudia le droit tandis que son frère le rejoint un an plus tard pour suivre le même cursus. Un de leurs professeurs, Friedrich Carl von Savigny, ouvrit sa bibliothèque privée aux étudiants avides de savoir et déjà férus de Goethe et Schiller. Il leur fit découvrir les écrivains romantiques Clemens Brentano, le baron Fouqué et Achim von Arnim dont les romans baroques et les Minnesänger éveillèrent chez eux l'intérêt pour les vieux contes populaires qu'ils commencèrent à collecter pour Brentano rencontré à Marbourg en 1803. Von Savigny travaillait à une histoire de l'Empire romain et se rendit à Paris en 1804 pour ses recherches. En janvier 1805, il invita Jacob à l'y rejoindre. En qualité d'aide, il se pencha pendant plusieurs mois sur la littérature juridique. À la suite de cela il décida de s'éloigner désormais des thèmes juridiques. Il rapporta, dans sa correspondance, vouloir se consacrer à la recherche sur la « magnifique littérature de l'ancien allemand » à laquelle lui et Wilhelm s'étaient déjà intéressés.Fin 1805, Jacob Grimm revint à Cassel où entre-temps sa mère était venue s'installer. L'année suivante en 1806, Wilhelm Grimm termina ses études à Marbourg. Ils vécurent ensemble avec leur mère à Cassel. Jacob trouva une place de secrétaire à l'école de guerre de Cassel. À la suite de la guerre napoléonienne contre la Prusse et la Russie, qui commença peu après sa nomination et qui vit l'influence de Napoléon sur Cassel, l'école de guerre fut réformée et Jacob se trouva à nouveau chargé de ravitailler les troupes combattantes, ce qui lui déplaisait et le poussa à quitter son poste. Wilhelm Grimm, d'une constitution fragile, était à cette époque sans emploi. De cette période désargentée mais qui les trouva très motivés, date le début de la compilation des contes et histoires qui nous sont parvenus aujourd'hui. Après le décès de leur mère le 27 mai 1808, Jacob dut prendre en charge toute la famille en qualité d'aîné. Il prit donc à Cassel un poste de directeur de la bibliothèque privée de Jérôme Bonaparte (frère de Napoléon, et récemment fait roi du nouveau royaume de Westphalie). Bien qu'il ne fût pas contraint à cette position et consacrât une grande partie de son temps à ses études, Jacob occupa pendant l'année 1809 une place d'assesseur au conseil d'État. En 1809, Wilhelm en raison de sa maladie, effectua une cure à Halle qui dut aussi être financée par Jacob. Il résida au château de Giebichenstein (qui appartint au compositeur Johann Friedrich Reichardt) et enfin à Berlin où il rencontra Clemens Brentano avec lequel il fit la connaissance d'écrivains et d'artistes berlinois comme Ludwig Achim von Arnim. Lors de son voyage de retour à Cassel, Wilhelm rencontra aussi Johann Wolfgang von Goethe qui l'assura dans ses « efforts en faveur d'une culture longue et oubliée ». Depuis 1806, les frères Grimm avaient rassemblé des contes et depuis 1807 avaient publié dans des revues des articles sur les maîtres troubadours. À partir de 1810, les frères Grimm se retrouvèrent à nouveau ensemble à Cassel et en 1811, Jacob fit paraître son premier ouvrage sur les maîtres chanteurs allemands "(Über den altdeutschen Meistergesang)". Après la bataille de Leipzig en 1813, le royaume de Westphalie fut dissous et l'électorat de Hesse restauré. Jacob Grimm y perdit sa place de directeur de la bibliothèque royale, mais retrouva bientôt une situation auprès du prince électeur en tant que secrétaire de légation. Dans ses nouvelles fonctions diplomatiques, il retourna à Paris en 1814, où il employa ses loisirs à de nouvelles recherches en bibliothèque. S'il aimait les voyages, il regrettait cependant que ces activités le tinssent éloigné de ses recherches littéraires dans son pays.Wilhelm Grimm publia en 1811 son premier livre, des traductions d'anciennes légendes danoises "(Altdänische Heldenlieder)". Le premier ouvrage commun des deux frères, sur le "Chant de Hildebrand" et le "Wessobruner Gebet", fut publié en 1812. Il fut suivi le 20 décembre 1812 de la première édition du premier tome des "Contes de l'enfance et du foyer" ("Kinder- und Hausmärchen"), tirés à, une collection de désormais connues dans le monde entier (notamment Blanche-Neige et Hansel et Gretel). Les deux frères s'essayèrent aussi à une édition allemande de l'Edda, ainsi que de "Reineke Fuchs" (une version allemande du Roman de Renart), travaux qui restèrent toutefois longtemps inachevés. De 1813 à 1816, les frères contribuèrent également à la revue "Altdeutsche Wälder", consacrée à la littérature allemande ancienne, mais qui ne connut que trois numéros. Le professeur de Cologne germaniste et folkloriste a déterminé dans ses éditions critiques des différentes versions de leurs recueils qu'une des principales conteuses dont ils se sont inspirés est la Française Dorothea Viehman, née Pierson, qui fait partie des nombreux protestants d'origine messine qui se sont réfugiés à Berlin après la révocation de l'édit de Nantes. En 1814, Wilhelm Grimm devint secrétaire de la bibliothèque du musée de Cassel et s'installa à la Wilhemshöher Tor, dans un logement appartenant à la maison du prince électeur de Hesse, où son frère Jacob le rejoignit à son retour de Paris. En 1815, Jacob Grimm assista au congrès de Vienne en tant que secrétaire de la délégation hessoise, puis séjourna de nouveau à Paris en septembre 1815 pour une mission diplomatique. Par la suite, il quitta définitivement la carrière diplomatique pour pouvoir se consacrer exclusivement à l'étude, à la classification et au commentaire de la littérature et des usages historiques. Cette même année 1815, à côté d'un ouvrage d'études mythologiques "(Irmenstraße und Irmensäule)", il publia un choix critique d'anciennes romances espagnoles "(Silva de romances viejos)". En 1815, les frères Grimm produisirent le deuxième volume des "Contes de l'enfance et du foyer", réimprimés sous forme augmentée en 1819. Les remarques sur les contes des deux volumes furent publiées dans un troisième en 1822. Une nouvelle publication sous une forme réduite à un volume s'ensuivit en 1825, qui contribua grandement à la popularité des contes. Jacob et Wilhelm Grimm obtinrent que cette édition fût illustrée par leur frère Ludwig Emil Grimm. À partir de 1823 parut une édition anglaise des "Contes de l'enfance et du foyer" par le traducteur Edgar Taylor, illustrées par les gravures de George Cruikshank. Du vivant même des deux frères parurent sept impressions de l'édition en trois volumes des contes et dix de l'édition réduite à un volume. Le grand succès s'opéra à la troisième édition en 1837, coïncidant avec l'émergence de la classe bourgeoise dans laquelle la femme se préoccupait davantage de ses enfants. Dans les années 1816 et 1818 suivirent les deux tomes d'un recueil de légendes "(Deutsche Sagen)". Les deux frères avaient d'abord collecté indifféremment contes et légendes ; il est difficile de les séparer sur des critères thématiques, et les frères ne le firent pas de façon suivie. Toutefois, les contes remontent pour l'essentiel à des sources orales, tandis que les légendes se fondent bien davantage sur des sources écrites. Le recueil des contes comme des légendes fut achevé à peu près en même temps, dès 1812, le délai de publication de six ans s'expliquant par le travail absorbant de composition d'un texte publiable. Le recueil de légendes ne remporta cependant pas un succès remarquable, et ne fut donc pas réimprimé du vivant des frères. À l'âge de, Jacob et Wilhelm Grimm avaient déjà acquis une position éminente de par leurs nombreuses publications. Ils vivaient ensemble à Cassel, sur le seul salaire modeste de Wilhelm pendant un temps. Ce ne fut qu'en avril 1816 que Jacob Grimm devint second bibliothécaire à Cassel, aux côtés de Wilhelm qui exerçait depuis deux ans comme secrétaire. Leur travail consistait à prêter, chercher et classifier les ouvrages. À côté de ces fonctions officielles, ils avaient la possibilité de mener sur place leurs propres recherches, qui furent saluées en 1819 par un doctorat "honoris causa" de l'université de Marbourg. Les frères Grimm n'auraient pas pu publier autant pendant ces années sans encouragements ni protections. Ils furent d'abord soutenus par la princesse Wilhelmine-Caroline de Hesse. Après sa mort en 1820 et celle du prince électeur en 1821, les frères durent déménager avec leur sœur Lotte pour s'installer dans un logement plus modeste, entre une caserne et une forge, non sans conséquences gênantes sur leur travail. Lotte, qui tenait jusque-là le ménage, se maria peu après, laissant ses deux frères. Ceux-ci déménagèrent plusieurs fois et menèrent pendant plusieurs années quasiment une « vie de célibataires », travaillant de concert et vivant toujours ensemble, Wilhelm ne s'étant marié qu'à cette condition.C'est dans cette période créative que se place le travail de Jacob Grimm sur sa "Grammaire allemande". Le premier tome traitait de la flexion, le second de la formation des mots. Jacob Grimm y travailla avec fureur, sans laisser de manuscrit complet, mais en faisant imprimer feuille après feuille au fur et à mesure qu'il avait écrit assez de texte. L'impression du premier tome s'étendit de janvier 1818 à l'été 1819, la durée exacte du travail de Jacob Grimm sur l'ouvrage. Jusqu'en 1822, il retravailla le premier tome de façon à n'y plus inclure que l'étude des sons. Comme auparavant, il écrivit et fit imprimer les pages au fur et à mesure, principe qu'il suivit aussi pour le deuxième tome, achevé en 1826. Wilhelm Grimm avait publié entre-temps plusieurs livres sur les runes, et les "Chants héroïques allemands (Deutsche Heldensage)", considérés comme son chef d'œuvre, parurent en 1829. Jacob fut un ami très proche du linguiste et écrivain serbe Vuk Stefanović Karadžić ; à ses côtés il apprit le serbe, lui donnant ainsi accès aux chants héroïques serbes et aux légendes balkaniques. Et 1824, il traduisit en allemand la grammaire serbe (Wuk Stephanowitsch, "Kleine serbische Grammatik, verdeutscht" (Leipzig et Berlin, 1824). Ce ne fut qu'après le mariage de Wilhelm Grimm avec Henrietta Dorothea Wild en 1825 que le cours de la vie des deux frères vint à se stabiliser. Ils continuèrent à vivre ensemble, à trois désormais avant que ne naissent bientôt les enfants de Wilhelm et « Dortchen ». En 1829 cependant, après respectivement 13 et au service de la bibliothèque de Cassel, les deux frères donnèrent leur démission. Après la mort du directeur, le prince électeur Guillaume II de Hesse n'ayant pas attribué le poste à Jacob, les frères répondirent à une proposition de la bibliothèque de l'université de Göttingen, à Hanovre. Ils y poursuivirent leur vie en commun. Jacob Grimm exerçait comme professeur titulaire, Wilhelm comme bibliothécaire puis à partir de 1835 comme professeur également. Jacob Grimm publia deux tomes supplémentaires de sa grammaire jusqu'en 1837. Il put également terminer en 1834 le travail commencé en 1811 sur "Reinhard" (Reineke) "Fuchs", et composa un ouvrage sur la mythologie germanique ("Deutsche Mythologie", 1835). Wilhelm Grimm s'occupa presque à lui seul de la troisième impression des "Kinder- und hausmärchen" en 1837. En 1837, le roi de Hanovre, de Grande-Bretagne et d'Irlande mourut, et la couronne de Hanovre passa à son frère. De tendances autoritaires, celui-ci révoqua rapidement la constitution relativement libérale accordée par son prédécesseur, à laquelle les fonctionnaires avaient prêté serment. Sept professeurs de l'université de Göttingen signèrent alors une lettre de protestation solennelle, parmi lesquels Jacob et Wilhelm Grimm. Le roi répliqua en révoquant immédiatement les professeurs, et en bannissant trois de ses États, parmi lesquels Jacob Grimm. Cette affaire dite des "Sept de Göttingen" eut un grand retentissement en Allemagne.Les frères s'en retournèrent à Cassel où ils restèrent sans emploi, jusqu'à ce que le roi Frédéric-Guillaume IV de Prusse les invitât comme membres de l'académie des sciences et professeurs à l'université Humboldt. Les deux frères répondirent à cette offre et s'installèrent définitivement à Berlin. Jacob entreprit cependant par la suite plusieurs voyages à l'étranger, et fut député au Parlement de Francfort en 1848 avec plusieurs de ses anciens collègues de Göttingen. Durant cette période berlinoise, les deux frères se consacrèrent principalement à une œuvre colossale : la rédaction d'un dictionnaire historique de la langue allemande, qui en présenterait chaque mot avec son origine, son évolution, ses usages et sa signification. Mais les deux frères avaient sous-estimé le travail à accomplir. Bien qu'ayant commencé cette tâche en 1838 après leur renvoi de Göttingen, le premier tome ne parut qu'en 1854 et seuls quelques volumes purent être édités de leur vivant. Plusieurs générations de germanistes poursuivront cette œuvre, et cent vingt-trois ans plus tard, le le de ce dictionnaire allemand fut enfin édité. En 1957, une nouvelle révision de cette œuvre gigantesque a été entamée et le premier volume de ce travail a été publié en 1965. L'ensemble du dictionnaire a été édité en 2004 sous forme de CD-ROM par les éditions Zweitausendeins (Francfort-sur-le-Main) et est également disponible en ligne. Wilhelm Grimm mourut le. L'Académie de Berlin écrivit en janvier 1860 : Jacob poursuivit seul leur ouvrage, avant de mourir à son tour le. Les deux frères reposent ensemble au cimetière de Matthäus, à Berlin-Schöneberg.Les œuvres communes les plus significatives de Jacob et Wilhelm Grimm sont leur collection de contes pour enfants, leur recueil de légendes ( auxquels sont joints les qu’ils ont supprimés dans la dernière mouture de leur recueil, et pour les enfants, réunis dans la première édition intégrale commentée de José Corti "Les Contes pour les enfants et la maison des frères Grimm" en 2009), ainsi que leur dictionnaire. Jacob Grimm apporta des contributions de première importance à la linguistique allemande alors naissante. Elles contribuèrent à fonder une grammaire historique et comparée. Dans la deuxième édition de sa "Grammaire allemande" Jacob Grimm décrivit les lois phonétiques réglant l'évolution des consonnes dans les langues germaniques, et connues depuis sous le nom de Loi de Grimm. Il est également l'auteur d'une "Histoire de la langue allemande" ("Geschichte der deutschen Sprache"). Le compositeur Richard Wagner s'inspira de plusieurs légendes recueillies par les deux frères pour la composition de ses opéras, ainsi que de la "Mythologie allemande" de Jacob Grimm pour sa "Tétralogie". En 1945, les forces d’occupation alliées en Allemagne interdirent de publication les contes de Grimm. Le motif invoqué était que la violence s’y trouvant aurait été en partie responsable des atrocités commises par les nazis. De plus, ils contenaient quelques textes antisémites comme "Le Juif dans les épines".
|
Les frères Grimm (en allemand ou ) étaient deux linguistes, philologues et collecteurs de contes de langue allemande : Jacob Grimm, né le à Hanau et mort le à Berlin, et Wilhelm Grimm, né le à Hanau et mort le à Berlin.
|
xwikis
|
Charles Dennis Buchinsky, futur Charles Bronson, est le onzième enfant de la famille catholique de Valteris P. Bučinskis (américanisé en Walter Buchinsky), né à Druskininkai (Lituanie), et de Mary Valinsky, née en Pennsylvanie. Les parents de Mary Valinsky (en lituanien : Marija Valinskis), citoyenne américaine de naissance, viennent de Lituanie comme son mari. Charles Bronson est d'origine lituanienne et slave. Toutefois un auteur polonais affirme que Buchinsky pourrait avoir de lointains ancêtres tatares du côté de son père. À cause de cette présomption basée seulement sur certaines de ses caractéristiques physiques, quelques livres des années 2010 ont également évoqué cette ascendance qui n'a jamais été mentionnée par lui-même. Il est d'abord mineur de fond à la tonne de charbon, puis mitrailleur de queue d'un bombardier pendant la Seconde Guerre mondiale. Démobilisé en février 1946, il part pour Philadelphie tenter sa chance et s'inscrit grâce au G.I. Bill l'année suivante dans une école de dessin, il a alors 27 ans. Sur place, il se lie d'amitié avec un dénommé Jack Klugman, dont il partage l'appartement jusqu'en 1949. Durant cette période, il entre dans la troupe de théâtre locale et joue des rôles secondaires dans diverses pièces. Il passe ainsi une audition avec Elia Kazan pour "Un tramway nommé Désir" de Tennessee Williams. Il est garçon de chaises à Atlantic City, où des acteurs de cinéma de passage dans les casinos de la ville lui conseillent, en raison de son physique, de tenter sa chance à Hollywood. En 1949, il épouse à Atlantic City Harriet Tendler, qu'il avait rencontrée au théâtre deux ans plus tôt, avant de partir pour la Californie. La même année, il est admis au célèbre théâtre de Pasadena, puis se fait remarquer dans "La Grand'Route" d'August Strindberg. En 1951, Bronson obtient son premier grand rôle au cinéma dans le film "La marine est dans le lac" de Henry Hathaway. Son nom de scène « Bronson » est inspiré du "Bronson Gate", le nom d'un portail d'entrée des Paramount Studios sur la Bronson Avenue.Avec son premier film, Bronson rencontre Gary Cooper. Ce dernier le conseille et lui sera une aide précieuse pour la suite de sa carrière. Son rôle est celui d'un marin polonais, Wascylewski. Son deuxième film, "Le peuple accuse O'Hara", permet à Bronson de rencontrer le réalisateur John Sturges, qui saura se souvenir de l'acteur neuf ans plus tard lors du film "Les Sept Mercenaires". Poursuivant les rôles, Bronson termine l'année avec "Dans la gueule du loup" où il incarne un docker musclé. Charles Bronson a tourné plus de 150 films pour la télévision, entre 1952 et 1998, dont notamment : En tant qu'artiste invité, l'acteur apparaît souvent en boxeur ("M-Squad" avec Lee Marvin, "Playhouse 90", "Roy Rogers", "One Step Beyond") ou en méchant de western ("Bonanza", "Rawhide" avec Clint Eastwood, "Have Gun - Will Travel", "Gunsmoke"). Il a également interprété un rôle de soldat pacifiste dans la série "La Quatrième Dimension" (épisode "Two", avec Elizabeth Montgomery), et de gangster gitan dans "Les Incorruptibles" (épisode "The Death Tree "). Mais il est aussi quelquefois le partenaire du héros : "Le Fugitif", "Le Virginien". Sa carrière de cinéma débute dans les années cinquante, son service militaire effectué. Il est surtout connu pour ses rôles dans "Les Sept Mercenaires" de John Sturges, "Il était une fois dans l'Ouest" ou encore "Soleil rouge" et des films de guerre ("La Grande Évasion" et "Les Douze Salopards"). Consacré en Europe par Sergio Leone et René Clément ("Le Passager de la pluie"), Bronson trouve le succès aux États-Unis en 1974, grâce à "Un justicier dans la ville", à l'âge de 52 ans. Il tourne quatre suites à ce film de Michael Winner, au fil des années. Le, il épouse l'actrice anglaise Jill Ireland avec laquelle il vivra jusqu'au décès de celle-ci, victime d'un cancer du sein le, et avec qui il tourne de nombreux films. Il succombe à une pneumonie aiguë le à Los Angeles alors qu'il était atteint de la maladie d'Alzheimer.Charles Buchinsky devint l'un des « indiens » les plus célèbres de Hollywood. Robert C. Cumbow dans son ouvrage " The Films of Sergio Leone", indique que le caractère typé du physique de l'acteur, avec ses cheveux noirs épais, son visage buriné et bronzé, et ses yeux bleu-vert, le destinait naturellement à incarner des caractères ethniquement marqués. Dans le film pro-indien "Bronco apache" de Robert Aldrich, Bronson joue un Apache ayant trahi les siens. Il incarne le fameux Captain Jack dans le film de Delmer Daves : "L'Aigle solitaire". Il incarne ensuite un chef dans "Le Jugement des flèches", de Samuel Fuller. Dans "La Bataille de San Sebastian" d’Henri Verneuil, il incarne un métis haineux opposé à l'invasion de son territoire. Entretemps, en 1959, dans le film de guerre "La Proie des vautours", il incarne un militaire métis qu'un autre soldat primairement raciste ne cesse de taquiner en l'appelant "grand-chef peau-rouge". Dans "Les Sept Mercenaires" il est un tireur d'élite mexicano-irlandais, Bernardo O'Reilly : "Irlandais par mon père, Mexicain par ma mère, moi au milieu" s'y définit-il. Sergio Leone exploite cette « ambivalence ethnique » pour le rôle de Harmonica, le tueur silencieux d"'Il était une fois dans l'Ouest", où le flashback le montre sous les traits d'un jeune latino aux yeux marron. Mais c'est explicitement sous les traits d'un Mexicain à part entière que Charles Bronson apparaît en 1968 dans "Pancho Villa", Rodolfo Fierro, lieutenant du célèbre chef révolutionnaire interprété ici par Yul Brynner. Enfin, en 1972, il incarne un Apache vengeur dans "Les Collines de la terreur" de Michael Winner. L'année suivante il interprète, dans "Chino", un éleveur de chevaux rejeté par sa communauté en raison de ses origines amérindiennes.Archie Cash, le héros de la bande dessinée, a été volontairement dessiné sous les traits de l'acteur américain Charles Bronson qui joue dans ses films un rôle similaire de justicier.Il a été marié trois fois : Harriet Tendler, Jill Ireland et Kim Weeks. Il est le père de six enfants.Il meurt d'une pneumonie aiguë, le, à l'âge de 81 ans, soit quelques heures après avoir appris la triste nouvelle du décès de son ami Michel Constantin, avec qui Il avait joué dans le film "La Cité de la violence" (1970), tournage.En France, Charles Bronson n'avait pas de voix française attitrée. Dans les années 1960, 70 et 80, il fut principalement doublé par Claude Bertrand, Marcel Bozzuffi et Edmond Bernard. et aussi :
|
Charles Dennis Buchinsky (en ), dit Charles Bronson, est un acteur américain, né le à Ehrenfeld (Pennsylvanie) et mort le à Los Angeles (Californie).
|
xwikis
|
Le rock instrumental est populaire surtout dans les débuts de l'histoire du rock. On peut même dire que le rock instrumental précède le rock chanté : c'est dès 1945 que l'artiste américain Arthur Smith dicte les canons du genre avec "", resté légendaire. Le rock instrumental se diversifie à la faveur de l'apport de musiciens venus d'autres horizons. À la fois producteur et guitariste virtuose issu de l'univers de la musique country, Chet Atkins rénove ce genre alors vieilli en le rapprochant du rock, et crée le Nashville sound. Un jazzman comme le saxophoniste Earl Bostic relance sa carrière avec des instrumentaux comme'et '. D'autres font de même avec succès, tels Tab Smith et Arnett Cobb. Beaucoup de saxophonistes de rhythm and blues enregistrent des hits instrumentaux, parmi lesquels Big Jay MacNeely, Red Prysock et Lee Allen, dont "Walking With Mr. Lee" fut populaire en 1958 ( du Hot 100 R & B pour l'année). Il y eut plusieurs remarquables titres de blues instrumental dans les années 1950, comme l'exubérant "" de Little Walter, succès majeur en 1952 ( du Hot 100 R & B pour l'année). L'année 1958 voit le succès populaire de deux guitaristes américains, Link Wray (1929-2005) qui décroche la au'avec ', et Duane Eddy, la avec '. Ces deux hits préfigurent des tendances futures en cherchant à sortir des sentiers battus de la guitare électrique : Link Wray produit un son volontairement « sale » où on décèle un début de distorsion, tandis que Duane Eddy privilégie des timbres très travaillés (écho, réverbération) sur les cordes graves. Le groupe Johnny and the Hurricanes, constitué en 1957, met surtout en avant orgue et saxophone et se spécialise dans les reprises d'airs traditionnels revus en style rock ; sa version de'(1959) atteint la des ventes aux États-Unis et même la au Royaume-Uni. Courant 1960, les Ventures s'imposent comme la référence américaine en matière de rock à guitares avec "Walk Don't Run". Sous leur influence se développe en Californie la surf music, genre essentiellement instrumental basé sur de fluides rythmiques rock accélérées et le scintillement caractéristique des notes de guitares. Les représentants les plus caractéristiques de cette école (dont sont issus les Beach Boys) sont les Surfaris et Dick Dale. Il faut citer aussi le batteur Sandy Nelson, qui obtient de beaux succès entre 1959 et 1962 avec des solos de percussions accompagnés par intermittence de riffs succincts de basse et/ou de guitare.Courant 1960, les musiques rock tendent à se normaliser, à s'affadir, elles reviennent dans le lit de la variété. On entre dans l'ère du « doo-wop », du twist, du madison, du style Tamla Motown, qui tous ont en commun de reléguer la guitare électrique à un rôle secondaire, voire de la bannir purement et simplement. En Europe continentale, la vague yéyé, après des débuts tonitruants, suit le mouvement. L'énergie instrumentale véhiculée par la guitare va donc désormais s'exprimer en dehors du rock chanté, faisant du rock instrumental le refuge des puristes et un genre réellement distinct. En Grande-Bretagne, la trajectoire des Shadows est l'illustration de cette scission. Initialement simples accompagnateurs de la star rock locale Cliff Richard, ils enregistrent en 1960 pour leur propre compte "Apache", un gigantesque succès qui fait d'eux des stars mondiales (sauf aux États-Unis). Les trois années suivantes, ils enchaînent les hits. Alors que les chansons qu'ils continuent à enregistrer avec Cliff Richard relèvent désormais de la variété tous publics, ils perfectionnent un style basé sur l'énergie pure (', ') mais aussi sur l'éclectisme, avec des incursions dans le jazz ("Nivram") et les rythmes latinos (', '), tandis que le soliste Hank Marvin définit l'étalon-or du son de la Fender Stratocaster, exerçant sur tous les guitaristes britanniques à venir une influence ineffaçable. En 1961, les Beatles enregistrent à Hambourg un instrumental (composé par George Harrison et John Lennon) dont le titre est un clin d'œil, "Cry for a Shadow". L'exemple des Shadows suscite une intense émulation au Royaume-Uni mais plus encore en Europe continentale, le rock instrumental offrant en théorie la possibilité de percer sur la scène internationale tout en se libérant de la barrière de la langue. Des milliers de clones des Shadows apparaissent (dont en France les Fantômes et les Champions), mais peu connaîtront un succès durable. Seuls les Spotnicks suédois réussiront un temps à faire figure de rivaux opposables aux Shadows, avec un son très personnel basé sur une prédilection pour le suraigu et une réverbération profonde suscitant des évocations sidérales. Le rock instrumental, avec ce penchant pour l'avant-gardisme et la science-fiction, aborde là des domaines fermés au rock vocal (on verra cette tendance refaire surface plus tard avec Pink Floyd ou Yes). À côté des groupes à guitares, venus du monde des amateurs, émergent à cette époque des ensembles composés de professionnels des studios, qui vont valoir sur le marché du rock leur expertise instrumentale acquise dans le rhythm and blues voire le jazz, en mettant en avant les claviers. Le prototype de ces groupes est les Mar-Keys, auxquels succéderont bientôt Booker T. & the M.G.'s comme groupe maison des studios Stax. Des cas similaires sont B. Bumble and the Stingers, les Fencemen aux États-Unis, et l'orchestre de Jacques Denjean en France. En Grande-Bretagne, l'événement de la fin 1962 est la révélation de "Telstar" des Tornados, où le son trafiqué de l'orgue préfigure le synthétiseur. Ce hit anglais devient n°1 aux États-Unis, annonçant ce qui allait bientôt suivre. En France, un groupe venu de Suisse, Les Aiglons, se fait connaître en 1963 avec "", qui reprend une formule sonore similaire. Leur single sera distribué jusqu'aux États-Unis. L'ascendant du rock instrumental sur le rock tout court est alors tel en Europe qu'il arrive qu'on transforme des instrumentaux en chansons, alors que l'inverse était de règle jusque-là. C'est ainsi que Petula Clark reprend les mélodies de'et'des Shadows avec des paroles (françaises) collées dessus. Idem pour "Le Temps de l'amour" de Françoise Hardy, qui était au départ un instrumental composé par Jacques Dutronc pour les Fantômes sous le titre "".L'hiver 1962-1963 voit les morceaux instrumentaux collectionner les premières places en Grande-Bretagne, mais le début de la fin approche. Les Beatles sortent en 1963 leur premier album. Il s'ouvre sur "I Saw Her Standing There" qui réhabilite avec éclat le rock vocal tout en faisant la part belle à l'énergie instrumentale, avec en particulier un solo de guitare qui évoque un peu le style des Shadows. C'est un symbole : la divergence est en train de se résorber, le rock uniquement instrumental perd désormais de sa justification. Cette formule d'un rock vocal régénéré mais nourri aussi d'une verdeur instrumentale assure la primauté des groupes britanniques aux États-Unis dans la période 1964-1966, ce que les Américains appellent la « British Invasion ». Cependant, 1963 révèle aux États-Unis un électron libre, Lonnie Mack, dont la version instrumentale du " de Chuck Berry fait un succès-surprise en révélant un jeu de guitare d'une virtuosité jusqu'alors inusitée dans le rock. Dans le sillage des Beatles, les artistes qui dominent la scène dans les années 1963-1966 donnent de plus en plus priorité aux textes, de plus en plus élaborés (Rolling Stones, Bob Dylan, Kinks) et/ou au travail choral (Hollies, Beach Boys, Byrds), au point que les solos de guitare en viennent à se raréfier dans les chansons. L'instrumental devient totalement hors jeu au milieu de la décennie. Steve Cropper, le guitariste des Mar-Keys puis de Booker T. & the M.G.'s, résume la situation : « On n'arrivait pas à être diffusé à la radio parce que les disc-jockeys ne voulaient plus passer de titres non chantés à l'antenne. C'est allé de mal en pis jusqu'à ce qu'ils mettent tous les groupes instrumentaux au chômage ».La musique pop chantée, après avoir régné un temps sans partage, va vers la fin des années 1960 accorder une place croissante à l'expression instrumentale à travers de longues plages sonores faisant la part belle à l'improvisation. Les Rolling Stones lancent le mouvement au printemps 1966 avec " (sur l'album Aftermath), dont le bref texte est prétexte à de longs développements de guitare et d'harmonica inscrits dans la tradition du blues. Le morceau atteint la longueur sans précédent de 11:35. Cet exemple inspire les Doors qui améliorent le record de 5 secondes avec "The End" (1967), qui consiste pour moitié en solos d'orgue et de guitare dont l'effet hypnotique est un moment fondateur du rock psychédélique. En 1968, deux morceaux encore plus longs, encore plus instrumentaux et encore plus improvisés posent des jalons supplémentaires respectivement dans le psychédélisme et le blues rock. En Grande-Bretagne, Pink Floyd publie ', entièrement instrumental (11:53), tandis que des États-Unis arrive'de Iron Butterfly, qui malgré ses 17 minutes remporte un énorme succès et préfigure l'évolution du blues rock vers le hard rock. Les morceaux largement ou totalement instrumentaux de plus de 10 minutes deviennent dès lors une figure obligée des groupes majeurs, comme l'illustrent Blind Faith avec "" (1969) ou Deep Purple avec "Child in Time" (1970). On est entré dans l'ère des "guitar heroes", qui sur scène font durer leurs improvisations encore plus longtemps que dans les versions albums, mais également dans celle de la musique progressive et du rock symphonique, inaugurés par Pink Floyd et King Crimson avec des compositions où les vocaux sont nettement subordonnés aux parties instrumentales. Parallèlement, Eric Clapton et Jimi Hendrix inaugurent une lignée de chanteurs qui sont avant tout des guitaristes d'exception. Suivront Carlos Santana, Rory Gallagher, Mark Knopfler, Stevie Ray Vaughan etc.Les genres musicaux funk et disco produisent de nombreux succès instrumentaux dans les années 1970. Le jazz fusion des années 1970 mélange les genres du jazz au rock, et des groupes comme Return To Forever, Mahavishnu Orchestra ou Weather Report conquièrent une audience considérable dans le public rock. Un des trois grands guitaristes anglais des années 1960, Jeff Beck, s'oriente ostensiblement vers le jazz-rock dans la décennie suivante, produisant des albums instrumentaux populaires. En France, Magma invente un jazz-rock bien à lui, la musique Zeuhl, où la voix humaine, en solo comme en choral, est traitée comme un instrument et s'exprime à cette fin dans une langue inventée pour produire les sonorités recherchées. L'inclassable Mike Oldfield reste un tenant du tout-instrumental (d'inspiration folk celtique), et y recueille de grands succès. Les années 1970 verront encore The Shadows obtenir deux nouveaux albums instrumentaux classés N°1, vendus chacun à plus d'un million d'exemplaires en Grande-Bretagne, et plusieurs singles à succès. Les musiciens et groupes britanniques de rock progressif apportent leur contribution au rock instrumental, qu'ils pousseront à un haut niveau de sophistication aussi bien dans l'écriture musicale que dans la virtuosité instrumentale et la recherches de sonorités inédites. Ce mouvement, entraîné par des institutions telles que Pink Floyd, Jethro Tull, Genesis, Yes, touchera aussi des groupes inscrits dans la pure tradition rock comme les Who ou Led Zeppelin. D'un autre côté, la vague punk puis les débuts de la new wave s'inscrivent en rupture contre les excès symphoniques de la musique progressive. Leur principale cible, Pink Floyd, au cours des années 1970, abandonne peu à peu les longues plages instrumentales pour revenir au format chanson. La floraison des synthétiseurs au début de la décennie conduit aussi à l'émergence d'une musique purement électronique, à l'initiative de pionniers tels que le groupe allemand Kraftwerk, le Français Jean Michel Jarre ou le Grec Vangelis, tandis que la trance et la house prendront le relais durant les années 1990 avec des artistes comme Moby ou Paul van Dyk.Les Shadows continuent à classer tous leurs albums dans les charts britanniques, recevant de nombreux disques d'or et de platine. Ils fêtent leur 25 ans de carrière en 1983 avec une énorme tournée internationale et vendus en Grande-Bretagne. Le groupe continuera très longtemps à publier une multitude d'instrumentaux de même type qui font le tour du monde jusqu'au début des années 1990, et leurs tournées internationales sont de gros succès. Séparation des Shadows à la fin de 1990 après un nouvel album classé dans le Top 5, et brillante carrière en solo de leur leader Hank Marvin, qui accumule les hits. Les Ventures tournent au Japon avec un succès jamais démenti. Le film "Pulp Fiction" remet au goût du jour la Surf Music en faisant de "Misirlou" de Dick Dale le thème de son générique, et un hit international. En France, la série de films "Taxi" reprend le même thème musical.En Grande-Bretagne, 2004 voit la reformation du groupe de référence du genre, The Shadows. Décorés par la Reine du Royaume-Uni, les Shadows effectuent une imposante et triomphale tournée au Royaume-Uni, et voient leur nouvel album, reprenant standards et inédits, se classer dans le Top 10 des charts anglais et recevoir un disque d'or. 2005 verra ce retour se prolonger par une énorme tournée européenne, et quelques concerts supplémentaires en Grande-Bretagne. 2008 pourrait voir le groupe célébrer leurs 50 ans de carrière sur scène. De son côté, leur leader Hank Marvin continue d'aligner les hits avec ses albums solos, dont le dernier, "Guitar Man", se classe n°6 des charts britanniques en 2007. Marvin semble aussi se diriger vers une carrière parallèle dans le style Gipsy Jazz. Aux États-Unis et au Japon, The Ventures continuent leurs incessantes tournées et font leur entrée au Rock'n'Roll Hall of Fame.
|
Le rock instrumental est un genre de musique rock mettant l'accent sur les instruments et n'ayant que peu de parties vocales, voire aucune. Des exemples de rock instrumental peuvent être trouvés dans pratiquement toutes les catégories de rock. Même si beaucoup de groupes de rock composent des titres instrumentaux, ils ne sont pas pour autant classés en rock instrumental lorsque les parties chantées prédominent dans leurs compositions.
|
xwikis
|
Ce groupe parallèle ne s'est produit en concert que quatre fois. Le show commençait par une improvisation jazzy et se terminait par le morceau "Acid Rain". Leurs deux albums ont été intégralement composés et enregistrés en une semaine chacun. Peu après l'enregistrement du second opus, le claviériste Jordan Rudess est intégré à Dream Theater (dont Mike Portnoy et John Petrucci sont membres), remplaçant Derek Sherinian. Avec trois des quatre membres faisant désormais partie de Dream Theater, le groupe n'a plus de grande raison d'être et décide de mettre un terme à l'expérience d'un commun accord. Les titres de "Liquid Tension Experiment" sont parfois repris entièrement ou en partie par Dream Theater lors de leurs concerts, notamment "Acid Rain" que l'on peut entendre sur l'album "Live Scenes From New York".En 2007 sort "Liquid Trio Experiment - Spontaneous Combustion". Cet album regroupe les jam sessions enregistrées par les autres membres du groupe sans John Petrucci (lequel était parti assister à la naissance de son enfant) durant l'élaboration du second opus. Ceci explique la modification du nom du groupe pour ce nouveau disque. Le, LTE est annoncé en tête d'affiche au NEARfest 2008 en juin. Le, six dates de tournée "Liquid Tension Experiment" sont annoncées pour pour célébrer les dix ans du groupe. Le, lors d'un concert à Chicago, le clavier de Jordan Rudess rencontre un problème technique et n'obéit plus au musicien. Mais rapidement l'attente de sa réparation mène à une série d'improvisations des trois autres membres, que Rudess finit par rejoindre à la guitare. Le concert est enregistré et publié en 2009 sous le titre "Liquid Trio Experiment 2 - When the Keyboards Breaks". Le, au deuxième concert de Dream Theater à Huntington NY, Tony Levin se joint à Petrucci, Rudess et Mike Mangini jouent "Paradigm Shift" sur scène. Ils enregistrent un DVD live à Tokyo.
|
Liquid Tension Experiment est un supergroupe de metal progressif instrumental américain. Il est formé en 1998 par Tony Levin (basse, "chapman stick"), John Petrucci (guitare), Mike Portnoy (batterie) et Jordan Rudess (synthétiseur) à l'initiative de la compagnie de disque américaine Magna Carta.
|
xwikis
|
Les diverses autobiographies de H.C. Andersen donnent peu de détails sur ses parents, mais beaucoup plus sur ses grands-parents, paysans soi-disant aisés, dont les revers de fortune auraient frappé son imagination. Mais il semble que ceci ne soit qu'affabulations de la grand-mère devenue folle. Hans Christian est né dans le bas quartier d'Odense, principale ville de Fionie à une époque où plus de la moitié de la population vit dans la plus extrême pauvreté. La toute première enfance de l'écrivain est heureuse du vivant de son père, car à ce moment-là, sa mère le choyait. Il n'en alla pas de même par la suite. Son père, Hans Andersen, un ouvrier cordonnier. Il appartient à la catégorie la plus humble des artisans, et entre de ce faitAprès de brèves tentatives de travail, dans une fabrique de draps, puis une manufacture de tabac, le garçon qui a alors treize ans, une jolie voix, et une immense envie de devenir célèbre (il a lu toutes les biographies de personnages célèbres), est admis au cours d'éducation religieuse du doyen Tetens, avec des enfants d'une classe sociale très supérieure à la sienne. Ses études terminées, il refuse d'entrer en apprentissage chez un tailleur. Seul le théâtre l'intéresse. En 1818, une troupe du Théâtre royal est venue à Odense, et l'année suivante, après avoir rencontré une comédienne, il part pour Copenhague avec ses maigres économies et une lettre d'introduction pour un membre du Théâtre royal. À son arrivée, le, le garçon tombe en pleine émeute antisémite. Plusieurs troubles du même genre ont éclaté dans d'autres villes du Danemark et durentParmi les personnages influents qui ont aidé Andersen à cette époque, on compte Jonas Collin, membre du comité directeur du Théâtre Royal auquel le jeune écrivain a envoyé un petit poème en 1821. En 1822, Collin sera inondé des pièces de théâtre d'Andersen et les refuse toutes. Notamment " Les Voleurs de Vissemberg" que le jeune homme lui présente le, dont une scène sera publiée dans le journal "La Harpe" le. Mais Monsieur Collin considère le garçon avec bienveillance.Après ces études qui lui paraissent interminables, Andersen rencontre le poète et auteur dramatique Johan Ludvig Heiberg qui fait à l'époque la pluie et le beau temps dans les milieux littéraires. Il s'intéresse au jeune homme et fait paraître quelques-uns de ses poèmes dans son journal "Kjoebenhavns flyvende Post" (Kjøbenhavnsposten) en 1827 et 1828. Andersen a aussi écrit le poème : "L'Enfant mourant" que le poète Ludolph Schley a traduit en allemand à Elseneur. Le texte paraît d'abord sans signature dans un journal allemand, puis avec le nom d'Andersen dans le journal d'Heiberg en 1828. Déjà très observateur, Andersen profite des trajets qu'il doit faire jusqu'à Christianshavn, dans l'île d'Amager, où il prend des cours chez le professeur Müller, pour écrire sonEn 1829 il obtient un succès considérable avec son premier récit d’"Un voyage à pied depuis le canal Holmen jusqu'au point d'Amager", et malgré l'échec de sa farce il commence à avoir une certaine notoriété au moment où ses amis commençaient à désespérer de lui et de ses excentricités. Andersen publie encore un recueil de poèmes sous le titre "Digte" en 1830, et travaille en même temps à l'écriture de "Le Nain de Christian II", roman historique. Mais tout d'un coup, il tombe amoureux d'une jeune fille, Riborg Voigt (1805-1883), qui apprécie les écrits du jeune auteur, mais qui malheureusement a déjà un fiancé, et il laisse tomber son roman historique pour se lancer dans l'écriture de nouveaux poèmes un peu mélodramatiques. Il publie en 1831 "Les Mélodies du cœur", puis encore "Fantaisies et esquisses" la même année. Selon Helge Topsøe-Jensen, Andersen aurait exagéré lesEn 1833, il passe douze jours en Allemagne. Il rend visite au compositeur Ludwig Spohr et à Francfort, il se rend au ghetto juif, dans la rue-même où vit la vieille mère des riches Rothschild. Elle refuse de quitter ces lieux par superstition, elle pense qu'il arrivera malheur à ses fils si elle abandonne sa demeure d'origine. L'un d'eux vit d'ailleurs non loin de là, dans une grande maison, avec valet de pied à l'entrée. Andersen utilise le thème des Rothschild pour son "Livre d'images sans images". Le, l'écrivain danois est à Paris, ville décevante au premier abord, mais qui le séduit bientôt quand le soleil brille et que l'on fête le troisième anniversaire de la Révolution de Juillet. Il y rencontre le tout-Paris littéraire, mais aussi le compositeur Luigi Cherubini et Heinrich Heine qui aura tant d'influence sur ses écrits. Il quitte bientôt Paris pour un périple en Suisse, dans le Jura (Le Locle) où il écrit un nouveau poème dramatique "Agnès et le Triton", peuPendant l'été 1844, Andersen est à Weimar dans la demeure de Freiherr von Beaulieu-Marconnay, grand chambellan du duc de Weimar, en 1846 il est chez le prince Radziwiłł. Mais ce qui le touche le plus, c'est qu'on lui remet cette année-là, dans son pays même, l'importante décoration du Dannebrog, ordre de chevalerie qui remonte au. Toutefois, il lui semble que les Collins n'ont pas pris la mesure de sa célébrité et que "nul dans son pays n'est fier de lui". Ce qui est totalement injuste comme il va le vérifier par la suite. Après une visite inoubliable en Grande-Bretagne (1847) et un accueil merveilleux, notamment de Charles Dickens, il est reçu au Danemark en héros. Malheureusement, le soulèvement du Schleswig-Holstein (qui aboutiraAndersen est maintenant l'homme le plus fêté et le plus choyé du Danemark. Le, qui correspond approximativement au cinquantième anniversaire de son arrivée dans la capitale, ses amis organisent un banquet de deux cent quarante quatre couverts en son honneur. Les voyages lui conviennent moins car il se sent mieux chez lui. Au mois d'octobre deHeureux chez lui, Andersen ne vit pourtant pas dans l'aisance, malgré sa notoriété internationale. Les éditeurs étrangers ne lui versent pas d'argent puisqu'il n'y a pas d'accord international sur les droits d'auteur. Andersen n'est payé que s'il publie son manuscrit directement dans un pays, avant d'être édité au Danemark. Ainsi en 1872, lorsque paraît un volume de treize nouveaux contes, huit d'entre eux sont déjà parus aux États-Unis. On y trouve notamment "Le Grand serpent de mer", une fantaisie inspirée du câble télégraphique qui relie l'Europe à L'Amérique. En novembre de la même année, il publie ses quatre derniers contes : "L'histoire de la vieille Jeanne" (ou " Ce que racontait la vieille Jeanne"), "LaAlors qu'il séjourne au manoir de Bregentved, chez le comte Helmuth Karl Bernhard von Moltke, Andersen reçoit une lettre d'une petite Américaine. Le pli contient un dollar et une coupure de presse où on lance un appel aux enfants d'Amérique pour aider le vieil écrivain à vivre correctement. On y explique que les droits d'auteur qu'on lui verse sont insuffisants. Andersen est très embarrassé, d'autant plus que l'Amérique est le seul pays qui le rémunère. Il cherche à arrêter cette collecte. Mais les lettres d'admiration pleuvent et c'est un véritable raz de marée qui est déclenché aux États-Unis en sa faveur. Andersen, très ému, en perd le sommeil : il veut expliquer qu'il n'est pas dans le besoin, mais ses amis lui conseillent d'attendre. Une souscription nationale est lancée enÀ partir de 1843, l'écrivain s'est défendu d'avoir écrit ses contes seulement pour les enfants. Pourtant les recueils publiés de 1832 à 1842 en six brochures, portent bien le titre : "Contes pour enfants", titre qu'il ne reprendra pas, une fois la gloire venue, dans sa deuxième série de 1843-1848. Tous ses biographes s'accordent à dire que la renommée d'Andersen repose entièrement sur ses histoires et contes deLes cent cinquante-six contes d'Andersen ont tous été traduits en français, mais les titres varient d'une édition à l'autre. Ainsi "Le Stoïque Soldat de plomb", peut devenir "L'Intrépide soldat de plomb" ou " L'Inébranlable soldat de plomb". "La Petite Sirène" porte aussi le titre de "La Petite ondine". "La Petite Fille aux allumettes" a une histoire particulière. Le, alors qu'Andersen est l'hôte du duc d'Augustenborg et vit dans une extrême abondance, il est prié d'écrire un conte dans une lettre où on lui envoie trois illustrations à choisir. Il prend une gravure sur bois représentant une petite fille tenant un paquet d'allumettes soufrées. La petite lui rappelle, par contraste avec la vie princière qu'il mène maintenant, la misérable vie de sa grand-mère enfant, qu'on avait envoyée mendier et qui avait passé toute une journée sous un pontAndersen commence relativement tard (1835) à publier des contes si l'on considère le volume des pièces de théâtre, et autres récits qu'il a écrits auparavant. C'est parce qu'à cette époque-là, le conte n'est pas un genre littéraire. Andersen lui-même ne considère pas le conte comme un genre littéraire puisqu'il le déguise sous forme de poème dans un recueil paru en 1830. Sous le titre "Le Revenant", il publie un texte qu'il remaniera plus tard et qui paraît en 1835 sous le titre "Le Compagnon de voyage" dans son premier recueil de contes. Pourtant il a bel et bienAu théâtre, Andersen connaît de nombreux déboires dès son premier essai en 1828 avec un vaudeville intitulé : "L'Amour dans la Tour Saint-Nicolas" qui est sifflé et ne reste à l'affiche que trois jours. Autre échec retentissant : "La Jeune mauresque" qui n'est acceptée qu'après de longues tractations () avec l'actrice, madame Heiberg, qui refuse le rôle principal. Les années 1839 et 1840 sont particulièrement éprouvantes pour lui. Il décrit ses tribulations dans ses Mémoires : Ses œuvres précédentes ont été pourtant assez bien accueillies : "Séparation et retrouvailles" (comprenant deux pièces distinctes : "Les Espagnols à Odense" et "Vingt ans plus tard"), (1836). Et plus tard son vaudeville "l'Homme invisible de Sprögo", présenté auAndersen avait un don de dessinateur qui reste peu connu du grand public. Bien qu'il n'ait jamais pris de cours de dessins, il faisait de nombreux croquis au crayon ou à la plume. Surtout pendant ses voyages à l'étranger. Les esquisses tenaient lieu de souvenir et lui permettaient de se rappeler les paysages qu'il avaitUn autre talent d'Andersen, plus connu, est son habileté à produire des découpages en papier, notamment des silhouettes dont ont été conservées par Sir Henry Dickens (1849-1933) qui avait huit ans en 1857, quand Andersen a séjourné chez son père Charles Dickens.. Les motifs extrêmement raffinés et fantaisistes sont souvent repris au Danemark. Rigmor Stampe (qui sera la femme du compositeur danois Victor Bendix) écrit au sujet de ces découpages :Bien que la valeur des romans d'Andersen ait été occultée par l'énorme succès de ses contes, et diminuée par les critiques de ses contemporains, une relecture moderneSelon la compilation réalisée par P.G. La Chesnais, AndersenEn juillet 1869, Georg Brandes fait paraître un long essai sur Andersen intitulé : « H.C. Andersen, auteur de contes de fées » dans le journal "Illustreret Tidende" qui commence ainsi : « Il faut du courage pour avoir du talent. On doit oser se fier à sa propre inspiration, on doit accepter l'idée de votre cerveau est sain, on doit s'appuyer sur la forme qui vous vient naturellement, même si elle est nouvelle, elle a le droit d'exister. (...) Cela exprime de façon confiante le droit qu'a un homme de talent de choisir de nouveaux matériaux, d'établir de nouvelles formes, jusqu'à ce qu'il trouve pour sa construction un emplacement tel que, sansEn 1882, August Strindberg dans une dédicace à sa fille Anne-Lise écrit : Andersen a laissé à ses contemporains l'image d'un gaffeur qui est restée longtemps attachée à sa personnalité hypocondriaque, ou maladroite. Dans ses "Mémoires sur Andersen", Jonas Collin rapporte qu'à Londres, Dickens avait conseillé à Andersen de noter le nom de la rue où il habitait sur un morceau de papier. Ainsi, s'il se perdait, il pourrait demander son chemin. (L'écrivain danois parlait très peu d'anglais). Andersen suivit le conseil de son ami, et au coin de la rue, il nota les mots suivants : « Ne rien afficher (Stick no bills) ». Évidemment, il perdit son chemin, montra ses notes à un agent qui le prit pour un fou, et l'emmena au commissariat de police. Il fallut que le consul duLa maison où il a passé son enfance dans sa ville natale d'Odense se visite, et à Copenhague on ne compte plus les statues à son effigie. Sur Rådhuspladsen, la place de l'Hôtel de ville, il a son musée : leLes contes d'Andersen ont donné lieu à de nombreuses adaptations théâtrales, des dessins animés, des comédiesLes médias évoluent et les contes s’adaptent aux nouveaux moyens de"(Liste non exhaustive)" Traduction de David Soldi, 49 contes traduits. Traduction d'Ernest Grégoire et Louis
|
Hans Christian Andersen (Odense, - Copenhague, ) est un romancier, dramaturge, conteur et poète danois, célèbre pour ses nouvelles et ses « contes de fées ».
|
xwikis
|
James Watt est né le à Greenock, petite ville d'Écosse. Son père, charpentier de marine, était aussi propriétaire de bateaux, entrepreneur et occupait une fonction dans la magistrature municipale. Sa mère, Agnes Muirhead, venait d'une famille distinguée et elle était instruite. Tous les deux étaient des presbytériens et des covenantaires convaincus. James Watt était préférentiellement instruit dans la demeure de ses parents par le soin de sa mère. Il faisait montre d'une grande dextérité manuelle et d'une aptitude pour les mathématiques, tandis que les langues grecques et latines lui déplaisaient.James Watt a adapté le régulateur à boules — déjà utilisé pour la régulation des moulins à vent et à eau — pour assurer la régulation de la vitesse d’une machine à vapeur. Il rajoute la jonction à mouvement parallèle qui convertit un mouvement circulaire en mouvement vertical et le diagramme indicateur de vapeur pour mesurer la pression de la vapeur dans le cylindre pendant le cycle de fonctionnement de la machine, montrant ainsi son efficacité. Watt a grandement contribué à la transformation de la machine à vapeur embryonnaire en un moyen de production d’énergie fiable et économique. Il a d'abord mis en évidence que la machine à vapeur de Newcomen gâchait presque trois quarts de l’énergie de la vapeur en chauffant et refroidissant le piston et la chambre à chaque cycle. Watt a développé une chambre de condensation séparée ce qui, en évitant de refroidir les parois de la chambre, a augmenté significativement l’efficacité. Des améliorations supplémentaires (isolation du cylindre de vapeur, la machine à double action, un compteur, l’indicatrice et une soupape de commande de puissance) ont fait de la machine à vapeur l’œuvre de sa vie. Watt était opposé à l’utilisation de la vapeur à haute pression et certains considèrent qu’il a freiné le développement technique de la machine à vapeur par d’autres ingénieurs, jusqu’à ce que ses brevets expirent en 1800. En particulier l’interdiction faite à son employé William Murdoch de travailler avec de la vapeur à haute pression pour ses expérimentations sur la locomotive à vapeur aurait retardé le développement et l’application de cette invention. Avec l’aide de son associé Matthew Boulton (cofondateur de l'entreprise Boulton & Watt), il s’est battu contre des ingénieurs rivaux comme Jonathan Hornblower qui essayait de développer des machines qui échapperaient à ses brevets généraux. Boulton s’est avéré excellent homme d’affaires et les deux hommes ont fini par faire fortune. Il a introduit une unité appelée le "cheval-vapeur" pour comparer la puissance fournie par les machines à vapeur, sa version de l’unité étant équivalente à 550 livres-pied par seconde (environ 745,7 watts). Watt a également inventé plusieurs autres équipements, un appareil pour copier les lettres par procédé offset n’étant pas la moindre.Le statut de Watt comme véritable inventeur de certains des nombreux principes et inventions pour lesquels il a déposé des brevets est sujet à controverse. Il a en particulier bénéficié des recherches des chimistes Joseph Black et John Roebuck (1718-1794). Il avait pour habitude (à partir des années 1780 environ), soit de déposer des brevets vagues, soit de s’approprier, quand il en avait connaissance, les idées d’autres personnes en déposant des brevets avec l’intention que l’invention lui fût créditée, et s’assurant que personne d’autre ne pût travailler dans un domaine particulier. Comme il le dit dans une lettre adressée à Boulton le : Deux exemples de cette pratique sont le dépôt d’un brevet pour l’engrenage soleil et planète en 1781 et le dépôt d’un brevet pour une locomotive à vapeur en 1784, alors que c’est son employé William Murdoch qui est à l’origine de ces deux inventions.La machine à vapeur conçue par James Watt a permis de passer d’une machine d’usage limité à une machine efficace aux nombreuses applications. Ce fut la source d’énergie principale de la révolution industrielle naissante, dont elle a considérablement accru la capacité de production. Avant elle, l’énergie était d'origine humaine ou animale, et, pour certaines activités (mines, travail des métaux, tissages, minoteries), hydraulique ou éolienne. Elle fut également essentielle pour les progrès qui ont suivi dans le domaine des transports, comme le bateau à vapeur et surtout le chemin de fer, avec le quasi-monopole des locomotives à vapeur jusque dans la seconde moitié du.Watt fut enterré près de St. Mary’s Church, Handsworth, à Birmingham. Une extension ultérieure de l’église, par-dessus sa tombe, fait que sa sépulture se trouve maintenant "à l’intérieur" de l’église. L’unité de puissance du SI, le watt, porte son nom. À Birmingham, son souvenir est rappelé par les Moonstones (des mémoriaux), deux statues individuelles, et une statue de William Bloye le représentant en compagnie de Boulton et Murdoch, et par une école portant son nom. Quatre facultés portent son nom en Écosse, la faculté James Watt à Kilwinning (Campus North Ayrshire) et Greenock (deux à Greenock, le Campus Finnart et le Campus Waterfront) et un campus à Largs, ainsi que l’université Heriot-Watt à Édimbourg. En Écosse, se trouve une statue de Watt sur George Square à Glasgow. La demeure de Matthew Boulton est maintenant un musée, le Soho House, commémorant l’œuvre des deux hommes. De nombreuses routes ou rues portent le nom de James Watt dans le Royaume-Uni. Une rue de Paris porte son nom depuis 1867. Une rue porte son nom à Bruxelles. L'astéroïde (11332) Jameswatt a été nommé en son hommage. et ses prédécesseurs :
|
James Watt, né le à Greenock en Écosse et mort le à Heathfield Hall, dans sa maison à (localité maintenant intégrée à Birmingham, en Angleterre) est un ingénieur écossais dont les améliorations sur la machine à vapeur furent une des étapes clé dans la révolution industrielle. Il a animé la Lunar Society de Birmingham. En hommage à ses recherches, le watt (symbole W), a été donné à l'Unité internationale de puissance, ou de flux énergétique (dont le flux thermique).
|
xwikis
|
Les caractéristiques actuelles de cette mémoire sont :Il existe deux types principaux de mémoire : Il y a deux types principaux de mémoire vive :La mémoire informatique est un composant, d'abord réalisé par une technologie magnétique (tores de ferrite), puis par l'électronique dans les années 1970, qui permet de stocker et relire rapidement des informations binaires. Son rôle est notamment de stocker les données qui vont être traitées par l'unité centrale de traitement (UCT) (un microprocesseur dans la plupart des appareils modernes). On peut accéder à la mémoire vive alternativement en lecture ou en écriture. Il existe également des mémoires associatives, largement utilisées dans les techniques de mémoire virtuelle pour éviter des recherches séquentielles de pages et accélérer ainsi les accès.Les informations peuvent être organisées en mots de 8, 16, 32 ou. Certaines machines anciennes avaient des mots de taille plus exotique. Par exemple,En plus, afin d'assurer la fiabilité de l'information enregistrée en mémoire, on ajoute des bits supplémentaires à chaque mot de mémoire. Par exemple, Les fabricants recommandent d'utiliser de barrettes de mémoire avec l'ECC pour celles ayant une capacité d' ou plus, en particulier celles utilisées dans les serveurs, permettant de détecter les erreurs et de les corriger à la volée. Dans la pratique, les ordinateurs domestiques les utilisent très rarement.Le temps d'accès à un mot de la mémoire vive est de quelques dizaines ou centaines de nanosecondes tandis que celui d'un dispositif de disque dur (HDD: hard disk drive) est de quelques millisecondes (c'est-à-dire dix mille à cent mille fois plus lent) et celui d'un dispositif à semi-conducteur (SSD:solid-state drive) est intermédiaire. Par contre, avec ces derniers, on ne peut lire et écrire que par blocs de mots.Un circuit intégré de mémoire ne comporte que le nombre de bits d'adresse mémoire nécessaire pour accéder aux mots de mémoire qu'il contient. L'unité centrale de traitement comporte beaucoup plus de bits d'adresse mémoire qu'un simple circuit intégré de mémoire afin d'adresser davantage de mémoire. Ces bits supplémentaires sont décodés par un circuit spécialisé, nommé décodeur d'adresse ou sélecteur, pour sélectionner le circuit intégré de mémoire approprié grâce à une broche de celui-ci nommé.Une mémoire vive statique est une mémoire vive qui n'a pas besoin de rafraîchissement.Cette mémoire utilise le principe des bascules électroniques pour enregistrer l'information. Elle est très rapide, par contre, elle est chère et volumineuse. Elle consomme moins d'électricité que la mémoire dynamique. Elle est utilisée pour les caches mémoire, par exemple les caches mémoire L1, L2 et L3 des microprocesseurs.Cette mémoire est une variante de la "Static Random Access Memory" ("SRAM") où on utilise un port double qui permet des accès multiples quasi simultanés, en entrée et en sortie.Cette mémoire utilise la charge magnétique de l'électron pour enregistrer l'information. Elle possède un débit de l'ordre du gigabit par seconde, un temps d'accès comparable à de la mémoire DRAM () et elle est non-volatile. Étudiée par tous les grands acteurs de l'électronique, elle a commencé à être commercialisée en 2006.Cette mémoire utilise le changement de phase du verre pour enregistrer l'information. Elle est non-volatile. Elle a commencé à être commercialisée en 2012.Une mémoire vive dynamique est une mémoire vive qui a besoin de rafraîchissement. La simplicité structurelle de la DRAM (un pico-condensateur et un transistor pour un bit) permet d'obtenir une mémoire dense à faible coût. Son inconvénient réside dans les courants de fuite des condensateurs : l'information disparaît à moins que la charge des condensateurs ne soit rafraîchie avec une période de quelques millisecondes, d'où le terme de "dynamique". A contrario, les mémoires statiques SRAM n'ont pas besoin de rafraîchissement, mais utilisent plus d'espace et sont plus coûteuses.
|
La mémoire vive est la mémoire informatique dans laquelle peuvent être stockées, puis effacées, les informations traitées par un appareil informatique. On écrit "mémoire vive" par opposition à la mémoire morte ou mémoire à accès direct par opposition à un accès séquentiel.
|
xwikis
|
La plupart des sources citent 1348 comme l'année de la fondation de l'université Charles, le de cette année le roi Charles I de Bohême (plus connu sous le nom de Charles IV du Saint-Empire) publia une bulle d'or garantissant les privilèges de l'université. On peut néanmoins considérer la bulle du pape Clément VI en date du comme primordiale et celle de l'empereur comme une confirmation de l'exemption de l'autorité séculaire de l'empereur. Il est fort probable que l'anticléricalisme en vogue au soit à l'origine de la préférence pour la date de 1348. Basée sur les modèles des universités de Bologne et de Paris, l'université Charles ouvrit ses portes en 1349. L'archévêque Ernest de Pardubice prit une part importante dans la fondation de l'université en obligeant le clergé à contribuer aux enseignements. Au départ, l'université est divisée en sections bavaroise, tchèque, saxonne et polonaise aussi appelées "nations". En 1407, l'université condamna l'enseignement des théories de John Wyclif mais sa doctrine grandit en popularité. Jan Hus, doyen et recteur de l'université, avait traduit le "Trialogus" de Wyclif en tchèque. Les autres "nations" décidèrent de se ranger auprès du pape Grégoire XII mais Hus sut utiliser l'opposition du roi Venceslas à Grégoire XII et obtint, en 1409, que la "nation" tchèque eut trois voix lors des votes décisifs sur l'administration de l'université, les autres "nations" n'en bénéficiant que d'une voix chacune. Ceci provoqua le départ des professeurs allemands qui fondèrent l'université de Leipzig en. L'université perd alors la majorité de ses étudiants et de sa faculté et décline pour devenir un établissement au rayonnement tout au plus national. Pendant quelques décennies aucun titre n'est distribué. Il faut attendre l'empereur Sigismond puis surtout Rodolphe II qui fait de Prague sa capitale, pour voir l'université renaitre de ses cendres. Dans le cadre des efforts liés à la Contre-Réforme, Ferdinand I demande aux Jésuites de venir à Prague où ils ouvrent une académie, le Clementinum. Après une expulsion temporaire (1618 - 1620), ils reviennent et un décret impérial leur confie, en 1622, l'intégralité du système éducatif en Bohême, Moravie et Silésie. Les quatre derniers professeurs quittent le Carolinum et les neuf collèges restants vont alors aux Jésuites en même temps que le droit de remettre les diplômes et d'appointer des professeurs séculiers. Les étudiants doivent alors, pour recevoir leur diplôme, jurer de défendre l'Immaculée conception. Les réformes administratives et universitaires autrichiennes des années 1752 et 1754 finissent d'abolir les derniers privilèges garantis par la Bulle d'or fondatrice de l'université Charles. Ce n'est qu'à partir des premières années du que les protestants, suivis rapidement des juifs, peuvent être diplômés. Un professorat tchèque est progressivement mis en place et en 1863, sur les 187 cours donnés, 22 le sont en tchèque ; le reste l'étant en allemand. En 1882, suivant la pression de la bourgeoisie tchèque montante et du renforcement du sentiment national, l'université (alors appelée Carolo-Ferdinandea) est divisée en deux entités, l'une tchèque, l'autre allemande, totalement indépendantes l'une de l'autre. En 1909, le nombre des étudiants de la "Karlo-Ferdinandova univerzita" atteint alors que ceux de la "Karl-Ferdinand Universität" est de. Les deux institutions continuent de travailler en parallèle jusque 1939. La partie tchèque de l'université (en même temps que d'autres institutions de l'enseignement supérieur tchèque) est fermée le à la suite de manifestations estudiantines ; certains étudiants, des professeurs sont envoyés en camp de concentration, les leaders estudiantins exécutés. La partie allemande est promue université du Reich. Elle sera liquidée en 1945 à la suite des décrets Beneš qui expulsent les Allemands du territoire de la Tchécoslovaquie. L'après-guerre n'est guère plus propice au développement de l'université Charles. Dès 1948 et la prise de pouvoir par les communistes, l'université passe sous le contrôle idéologique du parti et des purges dans le professorat sanctionnent toute "déviance", elles se répètent avec régularité, en particulier lors de la période de « Normalisation » qui suit le Printemps de Prague. En janvier 1990, à la suite de la Révolution de velours qui débuta par une révolte estudiantine, la direction de l'université est refondue et réunit des personnalités académiques indépendantes et non compromises sous l'ancien régime communiste. Les sciences sociales, jusqu'alors sous l'emprise de l'idéologie communiste, sont regroupées au sein d'une faculté (FSV) nouvellement créée. À l'heure actuelle (2004-2006), l'université Charles compte près de étudiants (dont doctorants), soit un cinquième des étudiants de la Tchéquie.L'université Charles compte à l'heure actuelle 17 facultés : Et trois facultés situées hors de Prague :L'université est dirigée par un recteur, depuis 2014, ancien doyen de la faculté de médecine. Ses prédécesseurs étaient
|
L'université Charles de Prague (en tchèque : "Univerzita Karlova", en latin : "Universitas Carolina Pragensis") est une université tchèque, fondée à Prague le ce qui en fait la plus ancienne université d'Europe centrale.
|
xwikis
|
Issu d'une famille de tailleurs, Ježek est né dans à Prague, capitale de la Bohême austro-hongroise, dans le quartier de Žižkov. Dès son plus jeune âge, sa santé est fragile : il est atteint d'un glaucome à l'œil droit, partiel à l'œil gauche, et la scarlatine le laisse presque sourd à l'âge de trois ans. Il étudie la composition au conservatoire de Prague auprès de Karel Boleslav Jirák de 1924 à 1927 puis à l'école de composition avec Josef Suk (1927-1930) et brièvement avec Alois Hába (1927-1928). Ježek rencontre les dramaturges et comédiens Jan Werich et Jiří Voskovec (alias George Voskovec), les dirigeants du Théâtre libéré de Prague et en devient le principal compositeur et chef d'orchestre. De 1928 à 1938, il compose des musiques de scène, chansons, danses et ballets pour les pièces de théâtre comiques et satiriques de Voskovec et Werich. En 1934, il est devenu membre du groupe tchèque des surréalistes. Forcés de quitter la Tchécoslovaquie après l'invasion nazie, Ježek, Voskovec et Werich s'exilent à New York. Il y travaille comme professeur de piano et chef de chœur et continue à travailler avec Voskovec et Werich. Le, Ježek meurt d'une maladie rénale chronique à New York, deux jours après son mariage avec Frances Bečáková. Il a collaboré avec de nombreuses avant-garde des artistes de la Tchécoslovaquie d'avant-guerre, tels que Vítězslav Nezval et Emil František Burian.Sa musique est généralement divisée en deux périodes. Sa première période est composée de musique de chambre, influencée par Igor Stravinsky, le Groupe des Six ou encore Arnold Schönberg. Plus tard, il trouvera son expression propre, spécifique et moderne. Il est devenu un compositeur de jazz populaire dans la Tchécoslovaquie d'avant-guerre.
|
Jaroslav Ježek, né le à Prague et mort le à New York, est un compositeur tchécoslovaque, également pianiste et chef d'orchestre.
|
xwikis
|
Il naît le dans une modeste pension de famille du 62, Carver Street, à Boston, dans le Massachusetts. Sa mère, Elizabeth Arnold (1787-1811) est la fille de deux acteurs londoniens, Henry (ou William Henry) Arnold et Elizabeth Smith. À la mort de son père, elle avait accompagné sa mère en Amérique, arrivée le à Boston à bord de l’"Oustram". Elle monta sur les planches trois mois plus tard, âgée d'à peine neuf ans. Elle rejoint ensuite, avec sa mère, qui meurt quelque temps après, une petite troupe deEdgar passe son enfance à Richmond, chez ses parents adoptifs, qui l'élèvent avec tendresse. En 1814, à peine âgé de, il commence ses études primaires sous la conduite de Clotilda ou Elizabeth Fisher. L'année suivante, il passe brièvement, à l'école de William Ewing. En 1815, en effet, John Allan (1780-1834), qui est d'origine écossaise, décide de partir au Royaume-Uni pour y étudier le marché et, si possible, ouvrir à Londres une succursale. La Bible occupe une grande place dans la vie d'Edgar, et ce malgré le rationaliste John Allan. Edgar, qui a six ans, quitte l'école de Richmond et embarque avec ses parents et la jeune sœur de Allan, Ann Moore Valentine (appelée Nancy) à Norfolk (Virginie) à bord du "Lothair". Débarqués à Liverpool le 29 juillet, les Allan gagnent d'abord l'Écosse. Mais le marché écossais se révèle mauvais, et la famille s'installe bientôt àComme son beau-père refuse de le renvoyer à l'université, il quitte sa famille adoptive, probablement le, et s'embarque sous le nom d'Henri Le Rennet sur un bateau qui descend la James River jusqu'à Norfolk. Arrivé à Boston en avril, il espère survivre en publiant ses poèmes. Il y passe deux mois, comme acteur ou soldat, on l'ignore. Le 26 mai, sous le nom d'Edgar A. Perry (pseudonyme qu'il réutilisera pour signer certains contes), après s'être vieilli de quatre ans, il s'engage pour cinq ans comme artilleur de secondeDe retour à Baltimore, chez Maria Clemm, il recherche vainement un emploi. Ses articles et ses contes sont tous refusés. Enfin, il envoie cinq nouvelles au concours du "Philadelphia Saturday Courrier", qui promet au gagnant un prix de. Il n'obtient pas le prix, mais ses contes (notamment "Metzengerstein") sont publiés, sans son nom, en 1832 par le "Saturday Courrier" (qui les paie très mal). Ainsi commence sa carrière de journaliste. Dans l'indigence, il pratique aussi le métier de pigiste nègre et continue son travail d'écrivain, consacrant ses loisirs et ses maigres revenus à l'éducation de sa petite cousine Virginia. En 1831, il fait paraître chez Elam Bliss à New York "Poèmes, seconde édition", dédié au « corps des cadets des États-Unis » et précédé du premier manifeste critique d'Edgar, la "Lettre à M..." (reprise par la suite sous le titre "Lettre à B..."), qui bénéficie d'un accueil peu favorable. En 1833, le "New England" refuse de publier son premier recueil : "Contes du club de l'In-Folio". En revanche, en octobre, il gagne le du concours du "Baltimore Saturday Visiter" avec le "Manuscrit trouvé dans une bouteille", qui lui apporte une certaine notoriétéEn 1838, il se fixe à Philadelphie pour reprendre ses activités régulières de journaliste appointé. Il tente d'y vivre de sa plume, mais ses quelques piges ne le sortent pas de la misère. La même année paraissent "Les Aventures d'Arthur Gordon Pym", qui n'ont aucun succès. En, William Burton offre à Edgar la place de rédacteur en chef adjoint au "Burton's Gentleman's Magazine". Il y est encore moins libre qu'au "Southern", car il doit servir l'opportunisme de Burton, qui lui a recommandé de faire preuve d'indulgence dans ses comptes rendus critiques. Toutefois, il s'entend bien avec Burton, et leur collaboration permet au "Gent's Mag", qui publie "La Chute de la maison Usher", "Le Diable dans le beffroi" et "William Wilson", de devenir le mensuel le plus en vue de Philadelphie. En revanche, la publication en volume des "Contes du grotesque et de l'arabesque", en 1840, n'obtient qu'un succès d'estime. La même année, Edgar se livre à une critique de Longfellow, auquel il reproche le manque d'unité de ses textes, et inaugure une série de dénonciations de plagiats. En, il entreprend la publication en livraisons successives d'un roman de l'Ouest, "Le Journal deEn, il se porte candidat à un poste de l'administration qui lui laisserait le temps d'écrire, grâce aux contacts de son ami F. W. Thomas. Toutefois, malgré le soutien de Robert Tyler, le fils du président des États-Unis, il ne peut obtenir aucun poste. Pendant la campagne présidentielle de 1840, il avait rédigé plusieurs pamphlets politiques opportunistes contre le candidat démocrate Martin Van Buren ("Le Diable dans le beffroi") et son colistier Richard Mentor Johnson ("L'Homme qui était refait"), pour obtenir les bonnes grâces du parti whig. De retour à Philadelphie le 13 mars, il vit à nouveau de maigres piges. En 1844, Edgar s'installe dans le nord de Manhattan, à la ferme Brennan, où il travaille avec acharnement à une "Histoire critique de la littérature américaine" qui ne verra jamais leLe 27 septembre, Edgar quitte Richmond en bateau pour Baltimore, où il débarque le lendemain. On perd alors sa trace pendant quatre jours. Le, Joseph W. Walker envoie un message au James E. Snodgrass : « Cher Monsieur, — Il y a un monsieur, plutôt dans un mauvais état, au bureau de scrutin de Ryan, qui répond au nom d'Edgar A. Poe, et qui paraît dans une grande détresse et qui dit être connu de vous, et je vous assure qu'il a besoin de votre aide immédiate. Vôtre,Poe est enterré lors d'une cérémonie réduite à sa plus simple expression et placé dans une tombe non marquée qui progressivement sera recouverte d'herbes. En 1860, sa famille se mobilise pour offrir une pierre tombale de marbre blanc au poète négligé de Baltimore, portant l'épitaphe : « "Hic Tandem Felicis Conduntur Reliquae Edgar Allan Poe, Obiit Oct. VII 1849" » et sur l'autre face l'inscription : « "Jam parce sepulto" », mais la pierre est détruite accidentellement avant même sa mise en place. Grâce à une souscription initiée en 1865 et relayée par les élèves de l'université du Maryland, Poe est réinhumé le sur un nouvel emplacement, et une véritable cérémonie est organisée sur sa nouvelle tombe le 17 novembre qui mentionne cette fois une date de naissance erronée (20 janvier au lieu du 19). Le nouveau monument n'a aucune épitaphe, même si plusieurs suggestions ont été faites, en particulier par Oliver Wendell Holmes. La pierreDoté d'une vaste intelligence, Edgar Allan Poe était un homme très courtois mais d'une férocité sans égale, qui le brouilla avec de nombreuses personnes. Ses amis étaient toujours frappés par sa tenue soignée à l'excès et la clarté de son élocution. De même, ses manuscrits se distinguent par la fermeté, la régularité et l'élégance de son écriture et ne comportent que peu de ratures. Très souvent, il écrivait sur des feuilles de bloc-notes qu'il collait les unes aux autres de manière à former des rouleaux très stricts. Une analyse graphologique de ces manuscrits a été réalisée, qui révélerait une intelligence, une indépendance extrême à l'égard des conventions, et qui contrôle, ou cherche toujours à contrôler, une extraordinaire sensibilité ; somme toute, un « cérébral ». Dans son travail, il se méfiait du premier jet, du spontané. Pressé par le besoin d'argent, il livrait le plus souvent des contes non revus aux journaux ou revues auxquels ils étaient destinés. Toutefois, lors des republications, il apportait à ceux-ci d'importants changements, toujours dans le sens d'un meilleur resserrement du texte. Durant les derniers mois de son existence, il révisa de près ses fictions et ses écrits théoriques ou critiques en vue de la première grande édition de ses œuvres, qui parut à New York en 1850. Très conscient de son intelligence, logicien, il aimait faire montre de ses capacités analytiques. Ainsi, lors de la publication en feuilleton de "Barnabé Rudge" (1841), roman de Dickens, il aurait deviné la fin de l'intrigue avant la parution des dernières livraisons. De même, "Le Mystère de Marie Roget" est inspiré d'un fait réel, l'assassinat de Mary Cecil Rogers à New York en 1841, dont le corps avait été retrouvé dans l'Hudson, près de la rive du New Jersey. Dans une lettre datée du, il explique que, dans son conte, en faisant faire à Dupin, il démontre et a, expliquant que la jeune femme n'a pas été assassinée, comme on le pensait, par une bande de voyous. Sa supériorité dans l'art d'écrire fut aussi marquée par quelques canulars, où il appliqua sa théorie de l'effet. Le, il fit paraître dans un numéro spécial du "New York Sun" un conte, "Le Canard au ballon", présenté comme un fait réel. Par cette adroite mystification, il marquait son retour sur la scène littéraire new-yorkaise. Quant à "La Vérité sur le cas de M. Valdemar", conte paru en 1845, l'éditeur, qui le publia comme un pamphlet, et les journaux qui le reprirent dans les éditions anglaises le présentèrent comme un rapport scientifique (parce qu'ils avaient été dupés). Elizabeth Barrett Browning lui écrivit pour louer « la puissance de l'écrivain et cette faculté qu'il a de transformer d'improbables horreurs en choses qui paraissent si proches et si familières ». Idéaliste, il était aussi très ambitieux, ce qu'il ne cachait pas. Il confia un jour à John Henry Ingram : Dès l'enfance, il lisait Byron, dont l'influence devait marquer ses premiers poèmes, Coleridge et la plupart des romantiques de son époque. Par la suite, il devait se démarquer de ces auteurs et se signala par des critiques assez féroces contre Coleridge. Il connaissait aussi parfaitement la littérature classique et goûtait particulièrement Pope. Il professa une grande admiration pour "Ondine", conte de Friedrich de La Motte-Fouqué, pour Shelley, pour le génie de Dickens (notamment pour "Le magasin d'antiquités"), pour Hawthorne. En revanche, il exprimait de sévères critiques à l'égard de Carlyle, d'Emerson (qu'il considérait comme la du premier), de Montaigne, dont l'emploi de la digression dans ses "Essais" était en contradiction avec ses idées sur la nécessaire unité d'un texte. De même, s'il pouvait dire de John Neal que « son art est grand, il est d'une nature élevée », il mettait en avant ses « échecs répétés [...] dans le domaine de la "construction" de ses œuvres », due, selon lui, soit à une « déficience du sens de la totalité », soit à une « instabilité de tempérament ». Malgré ses efforts, il ne vécut jamais dans une réelle aisance, mais connut souvent la misère, même s'il bénéficia de son vivant d'une réelle célébrité, surtout par ses activités de journaliste et son poème "Le Corbeau".L'ambition d'Edgar Poe était de créer une véritable littérature nationale. En effet, à cette époque, l'influence européenne était prépondérante et la production du vieux continent affluait aux États-Unis dont la littérature ne brillait guère que par ses histoires d'horreur et ses romans sentimentaux. À ce titre, son œuvre de critique littéraire fut marquée par une véritable exigence de qualité, ainsi que la dénonciation des facilités et des plagiats. Longfellow fut la plus illustre de ses victimes ; il ne répondit jamais à ses accusations, encore que ses amis se fissent un plaisir, en réponse, de calomnier Edgar Poe dans les milieux littéraires new-yorkais. Edgar Poe a laissé d'importants écrits théoriques, influencés par August Wilhelm Schlegel et Coleridge, qui permettent de donner sens à son œuvre. Ses réflexions littéraires renvoient à ses conceptions cosmogoniques. Dans, il explique que l'univers, à l'origine, était marqué par l'unicité. Il a éclaté par la suite en quelque chose que l'on pourrait rapprocher de la théorie du Big Bang, mais il aspire à retrouver son unité. C'est dans cet ouvrage, qui date de 1848, qu'est exposée la première solution plausible au paradoxe d'Olbers. De même, en littérature, l'unité doit l'emporter sur toute autre considération. D'où la théorie de l'effet unique qu'il développe dans "Philosophie de la composition" (traduit par Baudelaire sous le titre de "Genèse d'un poème"): le but de l'art est esthétique, c'est-à-dire l'effet qu'il crée chez le lecteur. Or, cet effet ne peut être maintenu que durant une brève période (le temps nécessaire à la lecture d'un poème lyrique, à l'exécution d'un drame, à l'observation d'un tableau, etc.). Pour lui, si l'épopée a quelque valeur, c'est qu'elle est composée d'une série de petits morceaux, chacun tourné vers un effet unique ou un sentiment, qui « élève l'âme ». Il associe l'aspect esthétique de l'art à l'idéalité pure, affirmant que l'humeur ou le sentiment créé par une œuvre d'art élève l'âme et constitue, de ce fait, une expérience spirituelle. Le poème, le conte, le roman ne doit tendre que vers sa réalisation, et toute digression doit être rejetée. De même, le roman à thèse, où l'intrigue est entrecoupée de dissertations sur tel ou tel sujet, est à proscrire. Adversaire du didactisme, Poe soutient, dans ses critiques littéraires, que l'instruction morale ou éthique appartient à un univers différent du monde de la poésie et de l'art, qui devrait seulement se concentrer sur la production d'une belle œuvre d'art. L'univers, dit-il, est un poème de Dieu, c'est-à-dire qu'il est parfait. Mais l'Homme, aveugle aux œuvres de Dieu, ne voit pas cette perfection. C'est au poète, qui a l'intuition de cette perfection, grâce à son imagination créatrice, de la faire connaître à l'humanité. Mais certains poètes mégalomanes, guidés par ce que les Grecs anciens appelaient "hubris", au lieu d'admettre l'impossibilité de l'imitation parfaite de l'intrigue de Dieu par l'Homme, prétendent se livrer à une concurrence sacrilège. Marqués non par l'imagination créatrice, mais par la "fancy", ils ne voient pas la perfection de la création divine ; leur esprit aveuglé interprète le monde en fonction de leur cœur, de leur propre tourment intérieur ; ils sont voués au néant par leur ambition prométhéenne. Dans la première catégorie, on peut citer le chevalier Auguste Dupin ("Double assassinat dans la Rue Morgue",Edgar Poe est un auteur prolifique, qui laisse deux romans, de nombreux contes et poèmes, outre ses essais, ses critiques littéraires et son abondante correspondance. Une partie importante de ses contes et poèmes ont été traduits en français par Charles Baudelaire et Stéphane Mallarmé. D'une très grande qualité littéraire, ces traductions comportent cependant quelques erreurs et libertés par rapport à l'original, parfois graves pour la compréhension de la pensée de Poe. Si les poèmes ont pu faire l'objet de retraductions, le rôle joué par Baudelaire dans la célébrité de Poe en Europe empêche tout travail en ce sens, et seuls les textes qu'il a laissés de côté ont fait l'objet de traductions plus récentes. On trouve plusieurs contes et poèmes de Poe en accès libre sur le web. Pendant longtemps, l'image d'Edgar Poe fut tronquée ; elle l'est encore dans une partie importante du public. Poe fut victime d'un pasteur baptiste bien-pensant, par ailleurs littérateur jaloux, Rufus Griswold (1815-1857), qui s'acharna à détruire son image. Le, déjà, il écrivait dans le "New York Tribune" : « Edgar Poe est mort. Il est mort à Baltimore avant-hier. Ce faire-part étonnera beaucoup de personnes, mais peu en seront attristées. [...] L'art littéraire a perdu une de ses plus brillantes et de ses plus bizarres célébrités. » Par la suite, chargé avec James Russell Lowell et Nathaniel Parker Willis d'assurer l'édition des "Œuvres posthumes " de Poe, il rédigea une notice biographique parue en tête du troisième tome, selon Claude Richard. Il prétendit ainsi qu'il était alcoolique, mélancolique, c'est-à-dire victime d'un déséquilibre mental, et que c'était un personnage sinistre qui avait des. Les légendes qu'il forgea eurent longtemps seules droit de cité, malgré les protestations des amis de Poe (Sarah Helen Whitman, John Neal, George Rex Graham, George W. Peck, Mrs Nichols ou Mrs Weiss). C'est grâce aux travaux de John Henry Ingram (1880), James A. HarrisonDepuis 1917, une statue d'Edgar Allan Poe réalisée par Moses Ezekiel est installée dans le campus de la faculté de droit de l'université de Baltimore, à l'initiative de l"'Edgar Allan Poe Memorial Association of Baltimore", fondée en par le "Women's Literary Club of Baltimore". Une statue en bronze de l'auteur, œuvre de Charles Rudy, a été offerte à la ville de Richmond par le George Edward Barksdale. Installée avec un socle de granit rose sur le square près du Capitole de l'État de Virginie le, elle a été inaugurée le 7 octobre suivant. Une plaque commémorative a été apposée le, pour le anniversaire de sa naissance, sur la façade d'un immeuble près de Carver Street (actuellement, Charles Street South), dans le quartier de Bay Village, à Boston, où il a vu le jour. Puis, le, lors du bicentenaire de sa naissance, le maire de Boston, Thomas Menino, a inauguré avec Paul Lewis, professeur à Boston College, le square Poe, situé dans le même quartier, à l'angle de Boylston Street et de Charles Street, en face du Boston Common. L'université de Virginie, à Charlottesville, conserve la mémoire d'Edgar Allan Poe et de la chambre où il a vécu de à. On a donné son nom à l'allée (Poe Alley) qui borde le bâtiment. La West 84thLa plus ancienne des maisons existant encore où ait vécu Poe se trouve à Baltimore. Elle est conservée sous la forme d’un Musée Edgar Allan Poe. Poe est censé avoir vécu dans cette maison à 23 ans, quand il s’installa une première fois avec Maria Clemm et Virginia ainsi que sa grand-mère et, peut-être, son frère William Henry Leonard Poe. Elle est ouverte au public, de même que le siège de la Société Edgar Allan Poe. Poe, son épouse Virginia et sa belle-mèreAu cinéma la première adaptation est le film français muet en 1928 "La Chute de la maison Usher" réalisé par Jean Epstein. Suit un court métrage muet d'horreur américain la même année :'réalisé par James Sibley Watson and Melville Webber. Il faut attendre 1960 pour voir "La Chute de la maison Usher", film fantastique américain réalisé par Roger Corman. Dans les années 2000 plusieurs films ont été réalisés.'film d'horreur anglais de Ken Russell interprétéLa première adaptation eu lieu en 1914 : "La Conscience vengeresse" (' en anglais) film américain réalisé par D. W. Griffith. Puis "Le Cœur révélateur" (' en anglais) court-métrage américain réalisé par Jules Dassin, sorti en 1941. Un nouveau court métrage américain de moins de dix minutes portant le même'a été adapté six fois au cinéma à commencer en 1915 par un film muet sur la biographie d'Edgar Allan Poe réalisé par Charles Brabin avec Charles Brabin dans le rôle d'Edgar Poe. Puis en 1935 sort le film d'horreur américain Le Corbeau (') de Lew Landers avec BorisVoir laDès son vivant, Edgar Allan Poe a été traduit en de nombreuses langues, et par d'innombrables auteurs ou rédacteurs, célèbres ou inconnus du public, et avec des résultats littéraires comme commerciaux plus ou moins heureux. En langue française nous connaissons essentiellement les traductions faites par Charles Baudelaire, mais contrairement à l'idée répandue une recherche approfondie dans les archives historiques des journaux, gazettes et quotidiens de l'époque, et dans la presse nationale mais aussi régionale, montre que Baudelaire fut loin d'être le premier à tenter de faire connaître Edgar Poe au public français (avant lui il y eut Gustave Brunet dès 1844, Alphonse Borghers dès 1845, Emile Forgues en 1846,
|
Edgar Allan Poe, né le à Boston et mort à Baltimore le, est un poète, romancier, nouvelliste, critique littéraire, dramaturge et éditeur américain, ainsi que l'une des principales figures du romantisme américain. Connu surtout pour ses contes il a donné à la nouvelle ses lettres de noblesse et est considéré comme l’inventeur du roman policier. Nombre de ses récits préfigurent les genres de la science-fiction et du fantastique.
|
xwikis
|
La famille des langues indo-européennes est généralement subdivisée en huit "branches" : Elle possède également deux branches majeures éteintes : À ces branches majeures s'ajoutent un certain nombre de langues attestées uniquement de manière fragmentaires, comme les langues illyriennes ou le phrygien, dont la classification reste incertaine. L'une des théories les plus importantes pour la linguistique comparée concerne l'opposition entre les langues dites "satem" et celles dites "centum", du mot servant à dire « cent ». Cette opposition sépare, selon une isoglosse nette, le groupe "satem" (qui se situe à l'est et au sud-est de l'aire de répartition des langues indo-européennes, et comprend l'albanais, les langues anatoliennes, l'arménien, les langues balto-slaves et les langues indo-iraniennes) du groupe « centum » (qui se situe en majorité au centre et à l'ouest de l'aire de répartition des langues indo-européennes, et comprend les langues celtiques, les langues germaniques, les langues helléniques, les langues italiques et les langues tokhariennes, ces dernières étant les seules du groupe à avoir été parlées en Asie centrale). Par ailleurs les langues germaniques, qui appartiennent au groupe "centum", et les balto-slaves, qui appartiennent au groupe "satem", ont en commun certains traits syntaxiques qui les distinguent de toutes les autres langues de la famille. L'ensemble des langues indo-européennes sont des langues dites flexionnelles. L'arménien est l'unique langue indo-européenne qui soit agglutinante (c'est-à-dire qu'elle se présente sous la forme d'éléments de base, les morphèmes), à la différence des autres langues indo-européennes, lesquelles sont spécifiquement des langues dites synthétiques ou fusionnelles (c'est-à-dire dont les déclinaisons grammaticales fonctionnent par affixes et par suffixes sur un seul élément de base). Ces typologies linguistiques mettent en lumière la complexité de la genèse puis de l'évolution de la famille indo-européenne. Cependant, ces différents postulats typologiques, notamment la différenciation « satem/centum », ont été remis en question, au moins partiellement, durant les années 1980. De nombreux indices laissent supposer que toutes ces langues proviennent d'une unique langue mère ; néanmoins, en l'absence de toute trace écrite de celle-ci, cela demeure une hypothèse. Les racines des langues indo-européennes dateraient vraisemblablement de la fin du néolithique et du chalcolithique. En pratique, l'indo-européen commun est donc, à l'instar de diverses autres langues et idiomes, reconstitué par recoupements (phonétiques, grammaticaux, etc.) entre ses différentes langues filles, par le biais de la linguistique comparée, entre autres. C'est en effet un produit, sans doute le plus achevé, de la linguistique comparée, laquelle est une discipline qui s'est essentiellement développée entre la fin du et le début du. L'existence de cette langue mère avec son vocabulaire propre, conjuguée aux nombreux autres traits culturels, religieux et anthropologiques qui se sont probablement répandus en même temps qu'elle, permettent d'envisager l'existence d'un ancien peuple indo-européen, avec une identité ethnique, culturelle, linguistique, sociale et religieuse qui lui est propre. Ce peuple se serait répandu sur de vastes territoires en Eurasie, diffusant sa langue, ancêtre de toutes les langues indo-européennes, et sa culture, probablement influencée par celles des ethnies autochtones. Il existe différentes hypothèses quant à la localisation du foyer et à la culture archéologique précise qui correspondraient à ce peuple originel. De nos jours c'est l'hypothèse Kourgane qui obtient de loin les plus grandes faveurs des spécialistes.Le terme « indo-européen » pour désigner cette famille de langues est une traduction du terme anglais "Indoeuropean" (ou "Indo-European"), qui fut introduit pour la première fois en 1813 par Thomas Young et qui a supplanté les termes plus anciens comme « japhétique » ou « scythe ». L'équivalent allemand "indogermanisch" est une traduction du français « indo-germanique », proposé en 1810 par le géographe Conrad Malte-Brun, mais qui n'a pas réussi à s'imposer en français malgré un usage relativement fréquent au. D'autres termes attestés historiquement mais aujourd'hui obsolètes incluent «indo-celtique», « aryen » ou encore « sanskritique ».Les tout premiers travaux concernant l'existence d'une langue ancestrale et commune aux différentes langues européennes, ont été réalisés au par Joseph Scaliger. Il mit en lumière des liens évidents entre les langues européennes (langues mortes et vivantes) et établit en outre une classification de ces dernières en quatre groupes par le biais du phonème signifiant dieu : le groupe "deus" (langues romanes), le groupe germanique "gott", le groupe "théos" (dont le grec) et enfin le groupe slave "bog". Au le linguiste Marcus Zuerius van Boxhorn subodore l'existence d'une ancienne langue commune aux langues grecque, latine, perse, germaniques, slaves, celtes et baltes, qu'il baptise du nom de « scythique ». Ses travaux restent cependant sans suite et inaboutis. Au, William Jones identifie à nouveau la famille indo-européenne. Dans son "Troisième discours à la société asiatique de Calcutta", en 1786, il écrivait : C'est à William Jones que revient l'invention de la linguistique comparée. En 1767, l'Anglais, membre honoraire et pair de la Royal Society et de la Society of Antiquaries, publia un livre dans lequel il décrivait ses travaux sur une probable langue commune indo-européenne ; cependant, même si celui-ci fit avancer la théorie indo-européenne, l'ouvrage en question contenait d'importantes erreurs d'interprétation. Les comparaisons systématiques conduites par Franz Bopp sur ces langues confirmèrent cette hypothèse et sa "Grammaire comparée des langues sanscrite, persane (zende d'Avesta), grecque, latine, lituanienne, slave, gothique, et allemande", publiée entre 1833 et 1852, marqua le début des études indo-européennes. Karl Brugmann fonde leur étude comparée. Également au cours du, August Schleicher poussa l'étude comparative en élaborant un procédé de reconstruction linguistique, la "", ou triangulation linguistique, sur la base de mots usuels et familiers, comme le terme « mouton ». Néanmoins, ce nouveau procédé était lui aussi appelé à devenir obsolète, dès lors que les recherches devenaient plus globalisantes. À la fin du, le philologue et linguiste Johannes Schmidt, éclaira les études sur les langues indo-européennes d'un jour nouveau, en s'appuyant non plus sur un tableau de classification par ramifications comme cela avait été antérieurement proposé par ses prédécesseurs, mais sur une classification par « vague ». Cette nouvelle base de travail permit d'intégrer les interactions et les influences réciproques des langues indo-européennes, mais également d'inclure l'ascendance, aussi minime soit-elle, des langues non-indo-européennes. La thèse de Schmidt faisait de l'étude comparative une science plus proche de la réalité des faits ; il mettait ainsi en évidence, par exemple, les liens de causalité entre l'apparition d'éléments ou de termes italiques dans certaines langues celtiques et les répercussions de faits historiques, commerciaux et culturels entre les deux groupes ethniques des celtes et des italiques durant l'Antiquité. La théorie des vagues compétitives ira plus loin que Johannes Schmidt en rejetant entièrement la "Stammbaumtheorie". En 1846, le vieux perse, langue parlée vers le, est déchiffré puis, du fait de ses similitudes et caractéristiques qui le rapproche de la famille linguistique indo-européenne, est intégré à cette dernière. Par la suite, en 1917, la langue hittite subit le même traitement. Enfin, au cours du milieu du, c'est au tour du mycénien d'intégrer la famille indo-européenne.D'après.Un point d'interrogation (?) signale une incertitude sur le regroupement.Répartition tirée en partie de celle de Jean-Louis Brunaux :
|
En linguistique, les langues indo-européennes forment une famille de langues étroitement apparentées ayant pour origine ce qu'il est convenu d'appeler l'indo-européen commun et. Au nombre d'environ un millier, elles sont actuellement parlées par près de trois milliards de locuteurs.
|
xwikis
|
Issue de la zone d'occupation dévolue aux troupes soviétiques lors du partage territorial effectué au terme de la Seconde Guerre mondiale, cette zone correspondait à l'Allemagne centrale par rapport à ses frontières de 1937, mais orientale une fois le pays amputé des territoires situés à l'est de la ligne Oder-Neisse, qui furent rattachés à la Pologne et à l'URSS. Le territoire de la RDA était donc bordé par la Pologne à l’est, la Tchécoslovaquie au sud, la République fédérale d'Allemagne à l'ouest et les côtes de la mer Baltique au nord. En son centre se trouvait l’enclave ouest-allemande de Berlin-Ouest, cernée à partir de 1961 par les du mur de Berlin, dont de parcours intra-berlinois, la séparant de Berlin-Est, la capitale de la RDA. La plus grande partie du territoire de la RDA était constitué par une plaine formée de dépôts glaciaires coupé de collines basses et arrondies, et tributaire du bassin de l'Elbe comprenant notamment des affluents comme la Havel (dont la Spree est elle-même un affluent), la Saale et la Mulde. Le point culminant de la RDA se trouvait alors dans les monts Métallifères, à la frontière tchécoslovaque, au Fichtelberg ( d'altitude).Les de frontière avec l’Allemagne de l’Ouest constituaient une des parties les plus surveillées du « Rideau de fer », suivant aujourd’hui l’exacte limite administrative séparant les Länder de Mecklembourg-Poméranie-Occidentale, de Saxe-Anhalt, de Thuringe et de Saxe, de ceux de Schleswig-Holstein, de Basse-Saxe, de Hesse et deDe 1949 à 1952, le territoire était divisé en cinq "Länder" : Brandebourg, Mecklembourg, Saxe, Saxe-Anhalt et Thuringe. La réforme territoriale de 1952 met un terme à la forme fédérale de l’État et ces "Länder" sont supprimés. Le territoire est-allemand est alors divisé en 15 "Bezirke"En 1950, la RDA compte habitants (Berlin-Est compris). La populationRapidement après le début de l’occupation de l’Allemagne par les Alliés en vertu de la conférence de Potsdam (selon les engagements, l’occupation est temporaire, et précède le rétablissement de la souveraineté de l’Allemagne), la situation se dégrade entre les trois puissances occidentales (États-Unis, Royaume-Uni et France) et l’URSS. Afin de mettre en œuvre leur politique, les Soviétiques n'hésitèrent pas à s'appuyer notamment sur le "Nationalkomitee Freies Deutschland" (« Comité national pour une Allemagne libre » ou NKFD), organisation de résistance anti-nazi fondée à Moscou en 1943 par les membres du comité central du Parti communiste d'Allemagne (KPD) exilé en URSS. Son président, le poète Erich Weinert, était entouré de membres influents du parti, tels Wilhelm Pieck et Walter Ulbricht, qui deviendrontLe contrôle du régime sur la population est exercé à partir de 1950 par la "Stasi", qui surveille la vie des habitants (7 millions de personnes fichées) et élimine les contestataires repérés par son réseau d’informateurs et d’agents ( à collaborateurs non officiels). Le secteur industriel, qui emploie 40 % de la population active en 1950, est soumis à la nouvelle politique de nationalisation qui aboutit à la formation d’« entreprises populaires » ( (VEB)) qui représenteront 75 % du secteur industriel. Le premier plan quinquennal (1951-55) présenté par l'État prévoit de hauts quotas de production pour l'industrie lourde et l'augmentation de la productivité du travail ; les pressions du plan renforcent l’exode de citoyens est-allemands. Le, à la suite d’une augmentation de 10 % des quotas de production des travailleurs construisant le boulevard Staline, les émeutes de juin 1953 éclatent à Berlin-Est, et s'en prennent aux symboles du pouvoir. Dès le lendemain, l'agitation gagne le reste du pays. Walter Ulbricht fait appel aux troupes soviétiques qui rétablissent l’ordre en provoquant la mort de et une vague d’arrestations et de condamnations à la prison de plus de. Les désordres s’arrêtent à partir du 23 juin.La construction du mur de Berlin (ainsi que le renforcement des contrôles sur le rideau de fer dans sa section inter-allemande) commence dans la nuit du 12 au avec la pose de grillages et de barbelés autour de Berlin-Ouest, dispositif progressivement remplacé par un mur de briques, puis de béton. L'objectif de ce dispositif est d'empêcher l'émigration est-allemande par le secteur occidental de la ville. Les soldats est-allemands reçoivent l'ordre d'ouvrir le feu sur toute personne qui tenterait de franchir cette frontière quasi inviolable qui divisera l'Allemagne pendant presque trente ans. Paradoxalement, laEn 1971, Erich Honecker remplace Walter Ulbricht, en partie sur la pression de l’URSS. L'arrivée du nouveau président du Conseil d'État, considéré comme un modéré, marque une certaine ouverture sur le plan culturel (tolérance vestimentaire et vis-à-vis du rock, fin du brouillage des télévisions ouest-allemandes) et un nouvel essor économique. Un programme de logements neufs est également lancé. Toutefois, cette période d'ouverture voit ses limites dans l'affaire Wolf Biermann en 1976. Le est signé à Berlin-Est le Traité fondamental (""), qui régulariseLa situation de crise perdure jusqu'à mettre en péril l'existence même de la RDA à la fin des années 1980. À partir de 1985, Mikhaïl Gorbatchev met en place en URSS une politique de "glasnost" (transparence) et de "perestroïka" (reconstruction) destinée à résoudre les graves problèmes socio-économiques connus depuis plusieurs années. Cet assouplissement idéologique ne tardera pas à franchir les frontières de l'Empire soviétique pour atteindre les unes après les autres les « républiques sœurs », elles aussi en pleine déliquescence. En raison de la crise politique et économique, l’émigration devient très importante en 1989 ; les émigrants passent à l'Ouest par l'intermédiaire de pays « frères » moins regardant en matière d'émigration : la Tchécoslovaquie et surtout la Hongrie (à la suite de l'ouverture de la frontière avec l'Autriche). Les départs de l’élite intellectuelle de la RDA (scientifiques, techniciens, ingénieurs, médecins, cadres, ouvriers spécialisés, etc.) renforcent la crise, ce qui accroît le mécontentement populaire. Mikhaïl Gorbatchev indiquePlutôt que de faire voter une nouvelle Constitution, comme le prévoyait la Loi fondamentale de la RFA, le gouvernement, choisit d'étendre la Loi fondamentale ouest-allemande à l'ex-RDA. Des élections libres qui se tiennent le, consacrent la victoire de la coalition conservatrice (cabinet de Maizière) de l'« Alliance pour l'Allemagne » ('), menée par la CDU est-allemande, l'Union sociale allemande (DSU) et le "Demokratischer Aufbruch" (DA). La nouvelle "Volkskammer" élue opte pour une réunification rapide en utilisant l'article 23 de la loi fondamentale de la République fédérale d'Allemagne qui permettait une adhésion unilatérale d’un "Land" à la RFA. Pour cela, les cinq "Länder" supprimés en 1952Le Parti socialiste unifié ("Sozialistische Einheitspartei Deutschlands", SED) gouverna la RDA de sa création en 1949 à sa dissolution en 1990. À l’occasion des élections, les partis forment une liste unique, sous l'égide de la coalition du « Front national ». Les citoyens votent pour des députés qui ont été préalablement choisis par les instances politiques afin d’assurer une représentation proportionnelle des différents partis. De fait, le Parti socialiste unifié d'Allemagne ("Sozialistische Einheitspartei Deutschlands (SED)") a la primauté. En 1949, la RDA se dote d’une constitution. Le Palais de la République () héberge la Chambre du peuple (), le parlement de la RDA, composé de élus pour quatre ans, qui assure officiellement le pouvoir législatif. Le pouvoir exécutif est tenu par le Conseil des ministres, élu pour quatre ans par la Chambre du peuple et dirigé par un præsidium. Il siège au sein du gouvernement de la RDA. La Constitution prévoit une présidence de la République. En 1960, la fonction sera remplacée par un organe de type collégial, le Conseil d'État de la RDA. Bien qu'étant officiellement construite en opposition au « monde fasciste » en Allemagne de l'Ouest, 32,2 % des employés des administrations publiques étaient d'anciens membres du Parti nazi en 1954. Cet État n'a jamais fait de travail sur son passé nazi avant sa disparition comme à l'Ouest. La fonction de « président de RDA » ("Präsident der DDR") est supprimée à la mort de Wilhelm Pieck, et remplacée par une présidence collégiale du Conseil d'État de la RDA ("Staatsrats der DDR").L’Armée nationale populaire ("Nationale Volksarmee" - NVA) créée en 1956 après la Bundeswehr ouest-allemande, avait enLe service de police politique est le ministère de la Sécurité d’État ("Ministerium für Staatssicherheit"), surnommé la "Stasi", instituée en 1950. Elle est calquée sur le NKVD soviétique, mais est de plus réorganisée par certains anciens membres de la Gestapo : traque des opinions non-conformes, contrôle systématique desSi en Allemagne de l'Ouest, un travail de mémoire sur les résurgences du nazisme a été réalisé, cela n'a pas été le cas à l'Est. En effet, note Axel Dossmann, professeur d'histoire à l'université d'Iéna :. Le, une trentaine de "skinheads" se jettent violemment dans une foule de lorsEn 1945, les Soviétiques exproprient dans leur zone d'occupation les grands propriétaires terriens (les ') possédant plus de, les nazis et les criminels de guerre, afin de redistribuer la terre aux paysans. Ceux-ci garderont leurs titres de propriété obtenus à la suite de cette réforme agraire, et entre 1952 et 1960, ils se regrouperont en coopératives (', LPG) comptant parfois plusieurs milliers d'hectares. À l'issue du conflit mondial, il y avait sur le territoire de la future République démocratique allemande 30 % de l'industrie allemande (détruite à 45 %). Les moyens de production sont socialisés. Le, au référendum dans le "Land" de Saxe où étaient concentrés les deux cinquièmes de la production industrielle de la zone d’occupation soviétique, 77,62 % des électeurs se sont prononcés pour l’expropriation sans indemnisation des meneurs nazis et des criminels de guerre. Dans l’ensemble de l’Allemagne, jusqu’au début de 1948, industrielles et commerciales de meneurs nazis et de criminels de guerre,Le pays met en place la planification et le contrôle du commerce ; la priorité est accordée aux industries lourdes. Après la guerre, les conditions de vie de la population sont très mauvaises ; l’économie a subi une ponction énorme, les habitants voient arriver trois millions d’expulsés. Les paysans qui ont bénéficié de la réforme agraire sont encore mal équipés. En dépit de ces handicaps, la RDA lance un défi : la production industrielle doit doubler en cinq ans, la production agricole augmenter de plus de 50 % par an. Pour aider les agriculteurs, un système d’entraide est créé, chargé de leur trouver des moyens financiers et techniques. Les usines deviennent des « entreprises possédées par le peuple » (", VEB), les commerces s’appellent « coopératives de production de commerce », etc. La production agricole repose sur des coopératives agricoles. De 240 en 1952, leur nombre passe à l’année suivante. Pour arriver à ce résultat, il a fallu procéder à une véritable liquidation de la classe des paysans riches : d’entre eux quittent la RDA au printemps 1953. Ce départ provoque uneLe niveau de vie des Allemands de l'Est était l’un des plus élevés du bloc soviétique, juste derrière la Hongrie réformiste de Janos Kadar. Les HLM sont bien chauffés, et la pénurie, limitée, est supportable. Le centre de Berlin-Est, sans avoir la richesse de l'Ouest, ne donne pas l'impression de misère que l'on peut voir, par exemple, à Bucarest : la circulation est relativement dense, les magasins, contrairement à ce que l'on voit en Pologne, ne sont pas totalement vides. Mais si, après une période de croissance incontestable, la RDA fait illusion à l'aune du COMECON, l'échec de la planification socialiste amorce la crise qui aboutira à la chute du système. L'appareil productif vieillissant, la bureaucratie, le gaspillage, le retard technologique croissant sur l'Ouest se traduira par les mêmes problèmes que dans les autres pays de l’Est : pénurie chronique de biens de consommation, files d'attente devant les magasins, tickets de rationnement, infrastructures vétustes, monnaie au taux de change artificiel, etc. Malgré la modicité des loyers, laLes États-Unis, le Royaume-Uni et la France mirent en place la réforme monétaire du en zone occidentale, en lançant le Deutsche Mark pour remplacer le Reichsmark. Les autorités soviétiques réagirent en créant le Mark est-allemand dans leur zone d'occupation. De 1949 à 1990, la monnaie porte les noms successifs de « "Deutsche Mark" » de 1949 à 1964 (différent du Deutsche Mark de l’Allemagne de l'Ouest, qui circule pourtant clandestinement en RDA), de « "Mark der Deutschen Notenbank" » de 1964 à 1967, et de « "Mark der DDR" » () de 1967 à 1990.Le, l’union monétaire est réalisée avec le Deutsche Mark de la RFA à parité de un pour un et le mark est-allemand est abandonné. Cette décision a impliqué une très nette surévaluation du mark est-allemand. En quelques années, quelque 13.000 entreprises sont vendues et des millions de salariés perdent leur emploi. Deux ans après la réunification allemande, la production industrielle dans l'ex-RDA a chuté de 73 % par rapport à 1989.L’homosexualité est dépénalisée en 1957, puis totalement légalisée en 1967. La RFA dépénalise à son tour l’homosexualité en 1969. En 1972, l’accès à la contraception et à l’avortement devient libre et est pris en charge par le système de santé publique, malgré la campagne d’opposition menée par l’Église catholique. Après une forte chute de la natalité dans les années 1970, la RDA prend des mesures natalistes, notamment à destination des femmes isolées et divorcées. En RDA, les mères, contrairement à celles de la RFA, conciliaient sans difficultés vie familiale et vie professionnelle. En particulier, elles ne connaissaient pas la peur de perdre leur logement ou de ne pas obtenir de place en crèche, car elles pouvaient s’appuyer sur une protection sociale solide et fiable. Le taux d’activité féminin est en 1990 le plus élevé au monde (91 %, contre 60 % en RFA). Cette situation s'expliquait notamment par la quasi-gratuité des crèches et leur nombre, permettantPlus que d'autres États, la RDA recourt au sport pour affirmer son existence sur la scène internationale et renforcer le sentiment national. Les tableaux de médailles obtenues par ses athlètes lors des Jeux olympiques et autres compétitions internationales sont utilisés par les responsables de l'État. Héritière des traditions sportives allemandes, y compris le sport scolaire, la RDA, comme son homologue la RFA, pointe dans le haut des classements mondiaux à partir des années 1970. Comme la plupart de ses homologues du bloc de l'Est, le régime est-allemand utilise le sport comme moyen de propagande pour affirmer la liaison entre son régime social et la réussite sportive. L’État développe des structures méthodiques de détection et formation des jeunes talents dans toutes les disciplines. Dans plusieurs sports olympiques (athlétisme, natation), la « préparation scientifique » des sportifs, dérive dans le dopage pour décrocher médailles et titres. L’image des nageuses est-allemandes aux épaules d'haltérophiles et à la voix grave (« Elles sont ici pour nager, pas pour chanter! »En RDA, la culture et l'éducation étaient très encouragées au sens de la doctrine de l'État et étaient également fortement réglementées. La constitution de 1968 a propagé une culture socialiste, la vie culturelle des travailleurs et un lien étroit entre les travailleurs culturels et la vie du peuple. «La culture du corps, le sport et le tourisme en tant qu'éléments de la culture socialiste servent au développement physique et intellectuel complet des citoyens.» Rien qu'en 1957, il y avait 86 théâtres, 40 orchestres symphoniques, 11.092 bibliothèques, 284 musées locaux, d'art et d'histoire naturelle, 803 centres culturels, 451 clubs, 6 compagnies nationales artistiques populaires et 3078 cinémas. Ainsi, en 1988, on comptait 18.505 bibliothèques d'État, de corporation et scientifiques, 1.838 centres culturels et clubs,Comme dans la plupart des pays communistes, les médias étaient placés sous la tutelle de l'État et soumis au contrôle de la section « agitation et propagande » ("abteilung agitation") du Comité central du Parti socialiste unifié d'Allemagne (SED) jusqu'en 1989, puis du « Secrétariat du Comité central chargé de l'information et de la politique des médias » du SED de 1989 à 1990. Le Allgemeiner Deutscher Nachrichtendienst (Service général allemand d'information) était l'agence de presse officielle de la RDA, et bénéficiait d'un monopole d'État. La télévision d'État, Deutscher Fernsehfunk (rebaptisée "Fernsehen der DDR" de 1972 à 1990 avant de reprendre brièvement son nom d'origine peu avant la réunification) opérait deux chaînes (DFF-1 et DFF-2) au contenu généraliste, mêlant informations (Aktuelle Kamera, journal télévisé diffusé quotidiennement à 19h30 sur la première chaîne et rediffusé à 22h00 sur la deuxième chaîne), culture, émissions pourLe drapeau de la République démocratique allemande était formé de trois bandes horizontales représentant les couleurs allemandes démocratiques traditionnelles (noir, rouge, or) avec les armoiries de la RDA en son milieu rajoutées dès 1959, contenant le marteau et un compas, entourés d'une couronne d'épi de
|
La République démocratique allemande (RDA) ; en ou, parfois traduit par "République démocratique d'Allemagne"), également appelée Allemagne de l'Est, est un ancien État communiste européen qui a existé durant la seconde moitié du. Le projet de république démocratique allemande est développé dans un texte, le Friedensmanifest, publié en.
|
xwikis
|
Le groupe des langues slaves se décompose en trois familles de langues : orientale, occidentale et méridionale. Pour cette dernière, il existe pour le diasystème slave du centre-sud des dénominations politiques conformes aux recensements des pays slaves méridionaux, et des dénominations linguistiques conformes aux classifications des linguistes. La division tripartie des langues slaves ne tient pas compte des dialectes parlés dans chaque langue. Certains d'entre eux, considérés comme des dialectes transitionnels ou, à l'image du sourjyk ou du balatchka, des idiomes hybrides, font souvent le pont entre ces langues en offrant des similitudes qui n'existent pas lorsque l'on compare les langues écrites. Il existe suffisamment de différences entre les nombreux dialectes et langues slaves pour rendre difficile voire impossible la communication entre Slaves de nationalités différentes. À l'intérieur d'une même langue slave, les dialectes peuvent varier relativement peu, comme dans le russe, ou beaucoup plus, comme dans le slovène. Les médias modernes ont toutefois contribué à unifier chacune des langues slaves.Outre la diaspora slave (où des communautés importantes peuvent être trouvées, par exemple russes ou ukrainiennes au Canada, ou croates en Australie) les langues slaves se distribuent principalement comme suit :Les langues slaves descendent du proto-slave. Cette langue offre de fortes similitudes avec le proto-balte, la souche des langues baltes (le lituanien, le letton et le vieux-prussien aujourd'hui éteint). La parenté entre les deux groupes de langues fait que certains linguistes les placent dans le même groupe, les langues balto-slaves, lui-même proche du proto-germanique. prétend que la langue souche commune à ces deux groupes était parlée vers le millénaire av. J.-C. dans les territoires occupés aujourd'hui par la Biélorussie et ses environs. Il existe au moins 289 mots communs à ces groupes pouvant provenir de cette langue hypothétique. Le processus de séparation des gens parlant le proto-slave et le proto-balte s'est effectué vers le. Vers la fin du, on décida de transcrire le glagolitique en caractères grecs, mais comme cet alphabet s'avérait insuffisant pour rendre tous les sons reproduits dans l'alphabet glagolitique, on y rajouta des lettres empruntées à l'alphabet hébreu. Cet alphabet reçut le nom d'« alphabet cyrillique », en l'honneur de saint Cyrille qui fit considérablement avancer la littérature chez les slaves. Pendant plusieurs siècles, dans les territoires méridionaux, on utilisa le slavon d'église comme langue liturgique. Dans les territoires slaves occidentaux, on utilisa l'alphabet latin dès le, ce qui causa la disparition du slavon d'église peu de temps après pour cette région alors qu'on le garda en usage jusqu'au dans l'Est. Les Slovènes furent les premiers à délaisser le slavon au et les Serbes suivirent le mouvement au début du. Vers 1850 apparut le concept de "serbo-croate" ou "croato-serbe" s'appuyant sur la grande proximité entre le croate, écrit en alphabet latin par les Croates catholiques romains, et le serbe que les Serbes orthodoxes écrivaient en cyrillique. Après la disparition de la Yougoslavie, les conflits entre les Serbes et les Croates mirent fin au regroupement de ces langues, et bien que les différences soient relativement minimes, on distingue de nouveau le bosnien, le croate, le serbe et le monténégrin, parfois regroupées et enseignées sous l'acronyme BCMS (bosnien-croate-monténégrin-serbe par ordre alphabétique).La langue utilisée par tous ces peuples avant leur période historique (le proto-slave), conserva la majeure partie du système de cas indo-européen, bien que l’ablatif ait fusionné avec le génitif. En plus des nombres singuliers et pluriels, le slavon d’église possédait un nombre duel, conservé aujourd’hui seulement en slovène et en sorabe, même si des résidus du duel nominal soulignent les substantifs qui suivent les nombres "deux", "trois" et "quatre" en russe et en croate, bosnien, serbe et tous les nombres en bulgare. Les substantifs et les adjectifs slaves sont toujours de genre masculin, féminin ou neutre. L’ordre des mots est relativement libre, contrairement par exemple au français, où le substantif précédant le verbe est généralement le sujet et le substantif suivant le verbe, l’objet.Seuls le bulgare et le macédonien possèdent un article défini, exprimé sous la forme d'un suffixe postposé au substantif ou à l'adjectif (exemple en bulgare : "жена" (žena) - femme, "жената" (ženata) - la femme, "млада жена" (mlada žena) - jeune femme, "младата жена" (mladata žena) - la jeune femme; exemple en macédonien : "брат" (brat) - un frère, "братот" (bratot) - le frère). Les autres langues slaves ne possèdent ni article défini ni article indéfini.Au, les linguistes slaves se rendirent compte que leurs langues possédaient une catégorie grammaticale beaucoup plus richement exploitée que dans les autres langues indo-européennes : l’aspect verbal. La forme de chaque verbe est aujourd’hui classée soit par l'aspect perfectif ou par l'aspect imperfectif. Dans les langues slaves, l'aspect perfectif/imperfectif est construit à l'aide d'affixes. Pour comparer avec le français, on peut dire que les verbes construits avec un affixe perfectif sont ressentis par les Slaves comme l'expression d'une action qui doit parvenir à son terme pour pouvoir avoir lieu (comme "naître" : un mouvement littéraire peut mettre des années à naître, si ce mouvement s'arrête en cours de naissance, alors il n'est pas né). À l'inverse, le même verbe affixé pour être imperfectif sera ressenti comme l'expression d'une action qui, quelle que soit sa durée, n'aura pas besoin d'arriver à son terme pour avoir lieu (comme "manger" en français : si on s'arrête au milieu du repas, on aura quand même mangé). On pourrait alors croire que la différence aspectuelle entre le français et le slave réside dans le fait que le perfectif/imperfectif français dépend du verbe choisi ("naître" et "sortir" seraient perfectifs, "manger" serait imperfectif) alors que le slave pourrait moduler l'aspect (et par là, le sens) du verbe grâce à une simple affixation. Il n'en est toutefois rien : le français peut perfectiver ou imperfectiver un verbe à l'aide d'un contexte adéquat ("sortir de la maison" est perfectif, "sortir en boîte" est imperfectif) et le slave peut effectuer la même opération à l'aide des affixes. La différence est donc non dans le traitement des aspects, mais dans la nature de leurs indices : indices contextuels pour le français, indices morphologiques (affixes) pour le slave. C'est une différence de taille, puisqu'elle modifie et organise toute la morphologie verbale du slave.Des six temps indo-européens (présent, futur, imparfait, aoriste, prétérit et plus-que-parfait), le slave commun a conservé le présent et l’aoriste. On remplaça l’imparfait et le prétérit anciens avec un nouvel imparfait et le futur indo-européen avec la forme du temps présent du verbe perfectif. La nouvelle forme perfective souligne un aspect de l’action verbale qui n’a pas eu lieu avant le moment de l’énoncé et que le narrateur exprime alors ayant lieu plus tard, habituellement quelque part dans le futur. Un futur périphrastique retrouvé dans le slave oriental et occidental exprime une action future sans emphase. Dans les langues slaves méridionales, le futur ne peut se former qu’avec l’aide d’un auxiliaire ou d’une particule. Le slavon d'Église possédait un ensemble élaboré de formes verbales (jusqu’à 236 pour un verbe imperfectif). Tous sauf le croate, le serbe, le macédonien et le bulgare ont perdu les temps aoristes et imparfaits. Dans ces langues, le parfait ancien indiquait une action passée n’ayant pas été vue par le narrateur. On utilisa la forme parfaite dans les autres langues slaves pour indiquer un temps autre que le présent, plus souvent le passé, mais aussi en conjonction avec une forme auxiliaire pour indiquer le conditionnel (comme en russe et en tchèque) ou même le futur (comme en slovène). Le tchèque et le polonais ont aboli l’emphase et la tonalité, le premier ayant une emphase non distinctive sur la syllabe initiale et le dernier sur l’avant-dernière syllabe. Cette règle comporte néanmoins quelques exceptions :Exemples de mots se ressemblant en biélorusse, bosnien, bulgare, croate, macédonien, polonais, russe, slovaque, slovène,serbe, tchèque et ukrainien.
|
Les langues slaves sont des langues indo-européennes, du groupe balto-slave. Les langues slaves forment un groupe de langues important dont les locuteurs se situent majoritairement en Europe centrale, Balkans, Europe de l'Est, Sibérie, Extrême-Orient russe, Asie centrale.
|
xwikis
|
Le roi de Bohême, empereur du Saint-Empire romain germanique, règne alors sur les pays dits « de la Couronne de Bohême », à savoir : la Bohême, la Moravie, la Lusace et la Silésie. Prague est la capitale rayonnante d'un royaume peuplé d'Allemands et de Tchèques ; elle compte environ quarante mille habitants. Le roi gouverne avec la haute noblesse et le haut clergé, et sa cour attire de nombreux artistes italiens, allemands, français ; mais Charles IV meurt en 1378 et, son successeur, s'avère être un prince faible et alcoolique, qui n'échappe à l'influence de son cadet Sigismond qu'en tombant sous la coupe des barons de Bohême. La peste finit de ravager le pays en 1380, qui devient peu sûr. Sous l'influence de clercs formés à l'université de Prague, le peuple des villes réclame désormais une piété plus intériorisée, et les critiques contre l'Église, qui détient un tiers des terres du royaume, se multiplient : elle est devenue trop temporelle et plus assez spirituelle.Prédicateur depuis 1402 à la chapelle de Bethléem de Prague, Jan Hus prêche, avec d'autres, un retour à l'Église apostolique, spirituelle et pauvre. Il pense que la réforme de l'Église doit passer par le pouvoir laïc. Ces propos trouvent des échos dans la haute noblesse qui voit la possibilité de s'attribuer les biens ecclésiastiques. Des mouvements millénaristes apparaissent également, parlant de faux prophètes et d'Antéchrist : les Taborites. L'idée des temps derniers se fait jour de plus en plus, et beaucoup aspirent à retrouver l'Église originelle. Jan Hus est accusé d'hérésie par les professeurs allemands de Prague. Le roi soutient Hus dans un premier temps, puis, quand celui-ci provoque en 1412 un soulèvement contre les indulgences (sur la vente desquelles Venceslas prenait sa part), il lui retire ce soutien. Convoqué au Concile de Constance en 1414 pour se justifier, Jan Hus s'y rend ; emprisonné, convaincu d'hérésie, il est brûlé en 1415. Son disciple Jérôme de Prague, relaps, est brûlé l'année suivante.Hus est considéré comme un saint par ses partisans. Les principaux, dont Jacques de Mies dit Jacobellus, pratiquent la communion sous les deux espèces (pain et vin). Le calice devient leur symbole de ralliement. Les hussites sont divisés en deux groupes : les utraquistes praguois et les radicaux taborites. La Bohême se divise : la majorité devient hussite, mais quelques villes restent catholiques (Plzeň et les villes moraves de Brno et Olomouc, ainsi que la Silésie et la Lusace). Le 30 juillet 1419, une procession de la Nouvelle Ville de Prague, conduite par Jan Želivský, prédicateur à Notre-Dame-des-Neiges, est atteinte par une pierre. Des émeutes éclatent, et les hussites prennent l'hôtel de ville, défenestrant les échevins. Le mois suivant, la mort de provoque des émeutes marquées par des profanations iconoclastes. En juillet 1420, ils élaborent les quatre articles de Prague, qui forment la base de leur programme dont ils exigent la reconnaissance par le pouvoir royal. Ces quatre articles sont : Leur volonté est également de convertir toute la chrétienté à leurs idées ; pour cela, ils envoient des émissaires partout en Europe.Sigismond, l'héritier de Venceslas au trône de Bohême, se heurte aux barons tchèques adeptes de Hus, qui exigent qu'il prenne fait et cause pour la réforme de l'Eglise. Sous-estimant la force du mouvement, Sigismond refuse de transiger : il proclame qu’il est prêt à prendre les armes ; le 17 mars 1420, à Boroszló (en Silésie), il fait proclamer par le légat du pape qui l’accompagne, une bulle papale qui appelle à la croisade contre les hussites. Alors les hussites brûlent les couvents et saccagent les monastères, tel celui d'Osek (district de Teplice), qui subit deux de leurs assauts. Dans l'est de la Bohême, le mouvement donne naissance aux orébites ("Orebité") au terme d'une procession au Mont Oreb, dans les environs de Třebechovice pod Orebem. Leur prêcheur est Ambrož Hradecký. La plupart de la noblesse locale rejoint dès lors les Frères moraves. Parmi les chefs de l'insurrection, il y a Hynek Krušina de Lichtenburg et Diviš Bořek de Miletínek, capitaine des hussites pour le centre et l'est de la Bohême. Les orébites jouent un rôle militaire décisif dans le succès des hussites : ils incendient le puissant monastère de Mnichovo Hradiště, dans le nord du pays, au début de l'été 1420, puis à l'automne ils font la décision à la bataille de Vyšehrad en faisant leur jonction avec le reste de l'armée hussite. En 1423 ils se joignent aux "Sirotci" de Jan Žižka. Conduits par Jan Žižka puis Procope Le Grand, les hussites remportent maintes batailles, ce qui ouvre la voie aux pourparlers qui aboutissent sur un compromis, les "Compactata" (1433), qui autorisent la communion sous les deux espèces. Les dissensions internes au mouvement sont nombreuses. Les adamites, membre d'une secte ultra, sont exécutés. En 1422, Zelivsky est exécuté en secret à l'hôtel de ville. Maîtrisant la Bohême et la Moravie, les hussites font des vers l'extérieur, pour essayer d'exporter leur mouvement : Silésie, Haute-Hongrie, Autriche, Saxe de 1429 à 1430, Pologne (1433). Les taborites, qui refusent toute concession, se soulèvent encore et sont vaincus à la bataille de Lipany en 1434, par les hussites modérés alliés aux catholiques. Ensuite, la diète d'Iglau (actuelle Jihlava) reconfirme les "Compactata" (1436). En 1458, les hussites et les catholiques s'entendent pour élire Georges de Poděbrady, représentant le juste milieu hussite, sur le trône de Bohême. La diète du royaume de Bohême, réunie à Kutná Hora en 1485 confirme une nouvelle fois les "Compactata", qui restent applicables dans le royaume de Bohême jusqu'en 1567.La plupart des hussites de Bohême subiront au l'influence du luthéranisme. Les taborites les plus fervents entreront dans l'Église des Frères moraves (présente surtout aux États-Unis) ou dans celle des Frères tchèques. Après la Première Guerre mondiale, une fraction de l'Église catholique fonde l'Église tchécoslovaque qui se réclame de l'héritage du hussisme. Le hussisme et son interprétation a joué un rôle très important dans l'historiographie tchèque au en particulier, en ce qui concerne les rapports entre les communautés tchèques et allemandes en Bohême et en Moravie. František Palacký, le grand historien tchèque, en fait le sommet du mouvement séculaire de la formation d'une identité nationale tchèque. Josef Pekař (1870-1937) pour sa part, révise les thèses de son prédécesseur en lui reprochant une interprétation parfois erronée des faits pour les faire coller aux débats national et social de son temps. En revanche, et pour des raisons similaires, les hommes politiques de l'entourage de Tomáš Masaryk, le président de la Première République, font de la vision palackienne la "doxa" idéologique et scolaire (à l'instar de l'apport historique de Michelet en France dans la construction idéologico-politique de la République). L'héritage de Jan Hus symbolise alors : Il n'est pas interdit de penser que les décrets Beneš et le nettoyage ethnique qui en découle sont la conséquence directe du premier point de cette idéologie, ni que le fait que la Tchéquie soit le pays le plus athée d'Europe soit également un héritage de cette « guerre de religion », en plus de l'apport idéologique du marxisme. Si les rapports de la société tchèque avec la minorité allemande semblent avoir été réglés, une fois pour toutes, avec les décrets Beneš et l'expulsion définitive des Allemands du pays, ceux avec l'Église catholique sont toujours distants. Les débats sur la restitution des biens confisqués par les communistes en 1948 (faut-il rendre à l'Église et aux ordres monastiques les immenses domaines qu'ils possédaient parfois dans l'ancienne Tchécoslovaquie?) et des procès à haute teneur symbolique, par exemple celui portant sur la propriété (étatique ou religieuse?) de la cathédrale Saint-Guy dans l'enceinte du Château de Prague en sont l'illustration. À cet égard, il faut également tenir compte de la répression autrichienne qui a suivi la défaite de la Montagne Blanche (1620) et qui s'est concrétisée par la dépossession des biens des bourgeois et des citoyens tchèques, au profit de la noblesse et de l'Église. L'église hussite actuelle, au demeurant peu active, apparait donc pour bien des catholiques tchèques comme une création politique délibérée des milieux libres penseurs.
|
Le hussitisme est un mouvement religieux et social inspiré par les doctrines de Jan Hus. Il continue d'inspirer des mouvements religieux actuels : les Frères moraves et l'Église hussite tchécoslovaque.
|
xwikis
|
Ce projet a démarré en réponse à une demande de l'éditeur de Wikipédia Karl Wick, qui souhaitait un espace séparé où il serait possible d'écrire des livres pédagogiques de façon communautaire, pour notamment mettre à disposition les connaissances humaines de façon libre et gratuite et ainsi lutter contre les inégalités devant l'éducation. Vingt jours après sa création, le, il comptait déjà 123 modules créés et 47 utilisateurs enregistrés. Certains des premiers ouvrages étaient originaux, tandis que d'autres ont démarré à partir d'ouvrages sous GNU Free Documentation License trouvés sur Internet. Tout le contenu du site est couvert par cette licence ainsi que la licence Creative Commons BY-SA. Les contributions demeurent la propriété de leurs auteurs, tandis que le copyleft assure que ceux-ci resteront librement redistribuables. L'initialisation du projet en français date de. S'il utilise souvent l'expression « wikilivres » dans les pages d'organisation, l'URL est fr.wikibooks.org. Il existe un projet utilisant « wikilivres » dans son URL, mais celui-ci n'a aucun rapport avec Wikimedia Foundation. Initialement, de nombreux livres ont été projetés pour être écrits d'une façon pleinement collaborative, comme sur Wikipédia, mais de tels livres n'ont en général pas été achevés, sauf s'ils répondaient à une volonté collective clairement affirmée. Les livres achevés ont le plus souvent été écrits par un ou quelques auteurs qui se sont mis d'accord initialement.Le projet a pour but la rédaction de livres pédagogiques. L'une des différences avec Wikipédia est qu'un livre regroupe plusieurs pages, toutes commençant par le même titre : celui du livre. Chacune des pages permet de passer aux autres pages du livre grâce à des modèles de navigation (liste des chapitres, liens vers les chapitres suivants et précédents). Le projet en français possède. Les livres sont classés avec les catégories et utilisent également la classification décimale universelle (voir ). Le travail coopératif sur Wikibooks est différent de celui sur Wikipédia. Lorsqu'un livre a un auteur, ou quelques coauteurs identifiés comme tels, ils sont libres de refuser les modifications proposées. Les auteurs peuvent signer leur livres.est un sous-projet de Wikibooks visant à réaliser des ouvrages pour des lecteurs âgés de 0 à 12 ans. Wikijunior est un projet lancé le dans le cadre du site Wikibooks. Initié avec l'appui d'une fondation privée, la "Beck Foundation", il vise la réalisation de livres spécialement destinés à des enfants, ainsi que la publication de magazines imprimés. Des tentatives plus ou moins similaires ont été amorcées dans plusieurs versions linguistiques du projet Wikibooks, avec notamment des variations par rapport à l'âge des lecteurs ciblés.
|
Wikibooks est un projet de Wikimedia Foundation lancé le pour créer un ensemble d'ouvrages pédagogiques librement accessibles au moyen d'un wiki. Autrefois nommé "Wikimedia Free Textbook Project", son nom officiel est "Wikibooks" en anglais. En français, le nom Wikilivres est parfois utilisé, mais le nom sur le logo est toujours en anglais.
|
xwikis
|
Né de Grazio « Orazio » Maria Forgione (1860–1946), agriculteur et de Maria Giuseppa « Peppa » Di Nunzio Forgione (1859–1929), Francesco Forgione est baptisé le lendemain à l'église "Santa Maria degli Angeli" (Sainte-Marie-des-Anges) de Pietrelcina près de Bénévent. Sa mère, fervente catholique, lui donne le nom de Francesco en hommage à François d'Assise. Il a un frère aîné, Michele (1882), et trois sœurs, Felicita (1889), Pellegrina (1892) et Grazia (1894). Il mène une jeunesse pieuse, durant laquelle il aurait eu des visions mystiques ; dès cinq ans, Jésus-Christ lui serait ainsi apparu. Enfant, il ne veut pas jouer avec les enfants de son âge, car selon lui ils blasphémaient. À quinze ans, il connaît ses premières extases spirituelles.Il se rapprocha des premiers faisceaux et fut un admirateur de Mussolini.(Sergio Luzzato,Padre Pio,Gallimard,2013).Trop maladif pour être cultivateur comme son père, sa mère voit en lui un futur prêtre. Francesco rejoint l'Ordre des frères mineurs capucins le à Morcone. En raison de sa santé fragile, il retourne dans sa famille, puis est envoyé dans divers couvents. Le novice capucin prononce ses vœux solennels le. Au mois de décembre 1908, il reçoit la tonsure, les ordres mineurs et le sous-diaconat dans la cathédrale de Bénévent. Le 18 juillet 1909, il est ordonné diacre dans le couvent de Morcone et prend alors le nom de frère Pio, en hommage au pape Pie V. Il est ordonné prêtre à la cathédrale de Bénévent le et nommé à "Santa Maria degli Angeli" de Pietrelcina. Dès 1911, il signale à son confesseur l'apparition depuis un an de signes rouges et de douleurs vives aux mains et aux pieds. Il est à partir du au couvent de San Giovanni Rotondo. Le Padre Pio se réveillait à l'aube pour lire le bréviaire. Cinq stigmates visibles, qui ont fait l'objet de plusieurs rapports médicaux, lui sont apparus le 20 septembre 1918. Pendant la Première Guerre mondiale, il sert comme infirmier à la compagnie militaire de l'hôpital Sainte-Trinité de Naples (1915–1917). Souffrant d'une bronchite alvéolaire chronique, les médecins lui diagnostiquent une tuberculose et, par peur qu'il ne contamine sa compagnie, le réforment en août 1917.Le, tandis qu'il confessait les jeunes scolastiques de son couvent, le Padre Pio manifeste des symptômes ou des signes faisant référence à la transverbération : son cœur est transpercé par un dard spirituel avec saignement réel. Selon la tradition, sa stigmatisation complète a lieu le, des stigmates (plaies du Christ sanguinolentes aux mains, aux pieds et au thorax comme les cinq plaies du Christ), qu'il cherche à cacher avec des mitaines. Il donne le témoignage suivant des événements : . La description qu'il fait de ses propres transports mystiques ressemble en grande partie à ce qu'a écrit Gemma Galgani. Dans les premiers jours Padre Pio cherche à dissimuler les plaies, mais les femmes qui suivent sa direction spirituelle voient les plaies et ébruitent la nouvelle. De même les jeunes auxquels il prodigue son enseignement perçoivent aussi des cicatrices sur les mains de Padre Pio. Le, le premier journal "" parle de du Padre Pio. Le 25 mai 1919, une revue locale publie la nouvelle en l'intitulant. Au mois de juin 1919, trois journaux dont "Il Mattino", principal journal de Naples, reprennent l'information en parlant des miracles qu'opère le thaumaturge Padre Pio. La notoriété, non voulue par Padre Pio et encore moins par ses supérieurs qui avaient imposé toute discrétion aux frères du couvent, contribue à faire venir de plus en plus de monde auprès du monastère. Les premières interprétations médicales se font autour du cas de Padre Pio, dont le professeur Enrico Morrica, qui n'a pas vu Padre Pio, interprète les miracles de Padre Pio comme du issu de. Face aux nouveaux événements, le supérieur des capucins ainsi que le Saint-Office décident de faire examiner Padre Pio afin de savoir l'origine naturelle ou surnaturelle des prétendus stigmates. Les théories naissantes sur l'hystérie et l'école de l'idéoplastie sont alors mises en avant par les sceptiques pour nier le caractère surnaturel des stigmates. Plus de trois médecins examineront les plaies de Padre Pio : le docteur Luigi Romanelli, chef de l'hôpital de Barletta, le docteur Angelo Maria Merla, maire de la commune, socialiste et agnostique. Les examens conduisent à lever toute idée d'automutilation et arrivent à. Le Saint-Office fait envoyer le 12 et 13 juillet 1919 le professeur Amico Bignami, positiviste qui examine à son tour Padre Pio. Très sceptique, les conclusions qu'il donne sont différentes des deux autres médecins. Même s'il constate que les plaies de Padre Pio ont des caractéristiques, il conclut à la possibilité que les plaies soient. Les soupçons d'imposture sont tels que le Saint-Office tient Padre Pio pour un dont profiteraient ses frères capucins, par le biais d'une crédulité publique, pour attirer des pèlerins et recueillir des fonds considérables. Outre les supposées malversations financières dont sont suspectés les capucins, Padre Pio est accusé d'être l'allié des fascistes qu'il bénit alors que les affrontements entre communistes, socialistes et fascistes lors des élections municipales à San Giovanni Rotondo le provoquent la mort de onze « rouges » par un commando proto-fasciste. À la suite de ces événements, le dirigeant fasciste local apporte son soutien à Padre Pio et les éditions de son parti éditent les premiers ouvrages sur le saint. Le Saint-Office, considérant parfois comme de véritables charlatans les saints vivants stigmatisés (ces superstitions pouvant se retourner contre la foi), rend publique sa méfiance théologique : le 31 mai 1923, il émet un décret exhortant les fidèles à ne pas croire aux faits surnaturels liés à la vie de Padre Pio et à ne pas aller à San Giovanni Rotondo ; le, les "Acta Apostolicae Sedis" écrivent et "L'Osservatore Romano" déclare Padre Pio imposteur de mauvaise foi.De 1924 à 1928, trois visiteurs apostoliques viendront enquêter auprès du Padre Pio. Des médecins et des psychiatres l'examinent, craignant des manifestations hystériques. Il est pourtant déclaré sain et sincère. Il est dès lors très critiqué, non du fait de son état, mais à cause des débordements des fidèles; il est aussi mis en cause par sa hiérarchie qui voit dans sa popularité une menace et une dérive, et l'oblige le 23 mai 1931 à cesser toute activité publique, devant désormais célébrer la messe dans la chapelle intérieure du couvent. Des témoignages persistent cependant concernant des phénomènes surnaturels, notamment des fragrances insolites seraient projetées à distance, en plus de l'odeur de sainteté qui l'accompagnait habituellement : Souvent, dans des confessions, il rappelait lui-même aux pénitents des fautes qu'ils auraient oubliées. Durant toute sa vie, il aurait subi presque quotidiennement les attaques physiques et morales de Satan(sic) dont les « cosaques »,qui sont en réalité des chrétiens orthodoxes, comme il les nommait, seraient venus nuitamment le frapper, faisant tant de bruit dans le monastère que certains moines, terrifiés, auraient demandé leur mutation. Dès cette époque, le Padre Pio est considéré par la ferveur populaire comme un grand saint thaumaturge du, ayant accompli une multitude de miracles de guérison instantanée en présence de nombreux témoins. On lui prête également le don de bilocation (apparition simultanée en deux endroits), en plus de phénomènes particuliers telle l'hyperthermie (température très élevée du corps, au-delà de 48°) ou l'inédie (abstention prolongée de nourriture ou de boisson au-delà de deux mois), ou bien la connaissance de langues qui lui étaient étrangères. La lévitation, bien que relayée par la rumeur, ne reçoit que le seul témoignage du Padre lui-même. Des amis de Padre Pio tentent dès lors de lever l'interdiction du Saint-Office en dénonçant ses calomniateurs et les ecclésiastiques corrompus. Ainsi son ami Emanuele Brunatto menace le Saint-Office de publier "Les Antéchrists dans l'Église du Christ" mettant en cause ces ecclésiastiques, menace qu'il met à exécution en 1933. Puis il construit les archétypes de la sainteté de Padre Pio dans différents ouvrages. Il s'installe en France en 1931. Tout en multipliant les dons aux plus démunis et aux œuvres caritatives (en particulier création de « la boisson chaude », une soupe populaire), il s'enrichit suffisamment pour financer la Casa Sollievo della Sofferenza, hôpital privé de San Giovanni Rotondo fondé par Padre Pio à hauteur de (de 1941). Suspecté de s'être enrichi grâce au marché noir durant l'Occupation, Brunatto sera condamné à mort par contumace en 1948 avant d'être entièrement blanchi par un nouveau procès en 1951.Le le Saint-Office autorise de nouveau le Padre Pio à célébrer des messes publiques et à entendre des confessions. Le, il ébauche les plans pour une "Casa Sollievo della Sofferenza" « Maison pour soulager la souffrance ». L'hôpital ouvre en 1944, mais l'inauguration officielle n'a lieu que le. À la même époque, le Padre Pio fonde des "Groupes de prière" afin de guérir et soulager les âmes. Dès 1947, des mesures sont à nouveau prises à San Giovanni Rotondo à la suite de la visite du père général de l'ordre des Capucins, qui constate un certain désordre liturgique à cause de la piété excessive de certains fidèles. En 1947, le jeune père Karol Wojtyla lui rendit visite. À partir des années 1950 un immense scandale financier secoue le monde catholique italien. Des fonds ont été détournés à des profits personnels et d'autres ont été placés à perte dans les magouilles du banquier Giuffré : les Capucins, comme beaucoup d'autres, sont en faillite. Padre Pio n'est pas mis en cause personnellement dans cette affaire et même il est relevé de ses vœux de pauvreté, afin d'avoir toute liberté de gérer les fonds de ses fidèles pour la "Casa Sollievo della Sofferenza". Il devait alors subir maintes brimades et persécutions de ses pairs qui tentaient de s'approprier son "trésor". En avril 1960, le pape Jean XXIII apprend que des microphones ont été installés autour du stigmatisé dans le couvent et dans son confessionnal. Le souverain pontife ordonne une enquête plus approfondie sur Padre Pio, en envoyant, chef du second bureau du vicariat de Rome. Du 30 juillet au 2 octobre 1960, ce visiteur apostolique examine les troubles et constate une dévotion excessive amenant un commerce d'objets touchant Padre Pio, tels que des morceaux de tissus prétendument imbibés du sang des stigmates. À la suite de cette visite, le Saint-Office entreprend de limiter les apparitions publiques du Padre Pio qui a acquis une renommée en tant qu'ouvrier de miracles, œuvrant jusqu'à 19 heures par jour au sein de son église. En novembre 1961, le supérieur de l'ordre demande à Padre Pio de restituer les fonds des fidèles afin de renflouer les caisses, ce qu'il fit. En 1962, l'archevêque de Cracovie, Karol Wojtyla, le futur pape Jean-Paul II, écrit une lettre en latin au Padre Pio, lui demandant de prier pour une mère de quatre enfants atteinte d'un cancer, Wanda Poltawska. Le Padre Pio répondit qu'il ne pouvait refuser : quatre jours plus tard, on l'aurait considérée guérie. Ce n'est qu'à la demande expresse du pape Paul VI, qu'il est à nouveau pleinement autorisé à effectuer son office sans restriction, à partir du. Le, le Padre Pio est victime d'une attaque. Le, il célèbre la messe solennelle du cinquantenaire de ses stigmates qu'il exprime ainsi : Le soir même il reçoit l'extrême onction et s'éteint quelques heures plus tard, à 2h30 le matin du.Selon Yves Chiron, Selon certains auteurs lors de son enterrement une odeur agréable aurait été présente, considérée comme étant « l'odeur de sainteté ».Sur les 20 millions de personnes ayant assisté à ses messes ou au 5 millions qui se sont confessés à lui, selon des estimations, Padre Pio n'aura choisi que 25 "enfants spirituels", 13 "fils spirituels" et 12 "filles spirituelles", en tout cas connus de l'entourage de celui-ci. Le choix de ces personnes reste assez mystérieux. Comme en témoignera le prêtre français Jean Derobert, lorsque Padre Pio le reçut pour se confesser, il l'embrassa et sentit comme une décharge électrique à son contact. Il vécut une expérience quasi mystique et c'est alors que le capucin lui déclara qu'il l'attendait et le désigna comme son "fils". Par ce privilège, il lui promit sa prière et sa protection continue. Il lui déclara aussi qu'ils communiqueraient par leurs anges gardiens. Quelque peu troublé, Jean Derobert suivit cependant les recommandations de Padre Pio et il témoignera de faits bien exceptionnels. Alors qu'il était en France, Jean Derobert confiera plusieurs intentions à son ange gardien pour Padre Pio. Et lors de ses visites à San Giovanni Rotondo, Jean Derobert ne put que constater avec étonnement que Padre Pio était bien au courant de ses intentions, sans l'intervention de correspondance humaine. Tous ces éléments se retrouvent dans les témoignages qu'effectueront une grande partie des fils et filles spirituels du Padre Pio. En parallèle de ces évènements mystiques, le capucin entretient une intimité et une correspondance riche avec ses "fils" et ses "filles". Autre fait troublant, lors du service militaire de Jean Derobert en Algérie en 1958, celui-ci fut capturé par le FLN et exécuté sommairement avec ses compagnons. Dans son expérience de mort imminente, il voit le Padre Pio et ressortira de là vivant, contre toute attente.L'apogée du culte de Padre Pio a lieu sous la démocratie chrétienne italienne dont le dirigeant Giulio Andreotti déclare « ce qui s'est passé autour de Padre Pio, c'est l’événement le plus important de 1900 à nos jours ». Vingt millions de personnes ont assisté à ses messes, et cinq millions s'y sont confessées. On lui prête des guérisons miraculeuses de paralysies, tuberculoses, fractures, broncho-pneumonies, méningites, cécités et cancers, dont il attribue toujours humblement l'action à Jésus ou Marie. Par ailleurs, de nombreuses personnes déclarent s'être converties à la suite d'une rencontre avec lui. En 2000, le réalisateur Carlo Carlei lui consacre une mini-série télévisée, "". Sergio Castellitto incarne Padre Pio. SAJE Distribution adapte ce téléfilm en 2015 en une version francophone. Plusieurs papes ont manifesté leur dévotion à Padre Pio en se rendant à San Giovanni Rotondo : Jean-Paul II le, Benoît XVI le, le pape François le, pour le centenaire de l'apparition des stigmates et le cinquantième anniversaire de la mort du saint.Le Padre Pio a fait l'objet de deux investigations officielles conduites par les autorités du Saint-Siège dès le, qui conclurent à l'authenticité de certains miracles en 1990, après avoir rassemblé en. À la suite de l'avis favorable donné le par la Congrégation pour la cause des saints, le Padre Pio est déclaré bienheureux par le pape Jean-Paul II, le au Vatican, en présence de plus de. Le, Jean-Paul II le canonise sous le nom de "sanctus Pius de Pietrelcina" (saint Pio da Pietrelcina) tout en ouvrant une procédure de reconnaissance officielle des stigmates par l'Église, des escarres détachés de ses stigmates lorsqu'il était en vie étant utilisées comme reliques à cet effet. Sa tombe est ainsi devenue un haut lieu de pèlerinage.Le 3 mars 2008, pour le de sa mort, le Vatican fait procéder à l'exhumation du corps du Padre Pio. L'Église le déclare en bon état de conservation générale alors qu'il est à l'état squelettique. Des scientifiques travaillent alors à sa reconstruction post-mortem pour pouvoir l'exposer aux fidèles pendant un an, l'ostension du corps attirant finalement près de 9 millions de personnes. Bien que son corps soit recouvert de vêtements et son visage trop décomposé recouvert d'un masque de silicone peint à la main, de nombreux pèlerins proclament avoir vu un corps incorrompu. Le 19 avril 2010, la Congrégation pour les causes des saints autorise la translation de son corps dans l’. Le 21 juin 2010, ayant ouvert l'année du sacerdoce deux jours auparavant auprès des reliques du curé d'Ars, le pape Benoît XVI se rend en pèlerinage à San Giovanni Rotondo pour rendre également hommage au Padre Pio. Il dresse alors un parallèle entre ces deux figures de sainteté, dont la vie fut centrée sur la prière, l'eucharistie et la confession, et les donne comme modèles aux prêtres catholiques, insistant fortement pour que le sacrement de Pénitence soit remis à l'honneur. Depuis le est renouvelée de manière permanente l’ostension du corps du saint dans une nouvelle châsse en verre dans la crypte qui accueillait son cercueil. Du 5 au, dans le cadre du Jubilé de la Miséricorde, sur volonté du pape François qui a choisi Padre Pio comme l'un des patrons de l'Année sainte, la dépouille du saint dans sa châsse est transférée à Rome et exposée à la vénération des fidèles dans la basilique Saint-Laurent-hors-les-murs puis dans la basilique Saint-Pierre. Du 19 au, à l'occasion de la fête de la Pentecôte et dans l'année du centième anniversaire des stigmates du Padre Pio, une ostension de son cœur a eu lieu à Paris et à Chartres : le samedi 19 en la cathédrale Notre-Dame de Paris, le 19 au soir et le 20, en l'église Saint-Eugène - Sainte-Cécile et le 21 en la cathédrale de Chartres.Les « stigmates » du Padre Pio ont été examinés par des médecins à plusieurs reprises, en particulier à la demande officielle de sa hiérarchie. Dès 1919, le Saint-Office mande le L. Romanelli, de l'hôpital de Barletta, qui l'examine cinq fois entre 1919 et 1920 : Certains témoins disent avoir pu voir au travers des trous de ses mains, plaies qui n'auraient donc pas été superficielles. En 1919, un médecin athée, le Bignami, fait poser des scellés sur les bandages, pour écarter l'hypothèse de l'utilisation volontaire d'acide sur les plaies. En 1920 et 1925, le Festa réexamine le Padre et conclut à : Le corps de Padre Pio ne comportait aucune trace de stigmates ou de cicatrices lors de l'examen post-mortem. En 2007, l'historien Sergio Luzzatto a défendu la thèse de la supercherie des stigmates de Padre Pio et de ses miracles. La nouveauté de son argumentation est de prendre appui sur un document jusqu'ici peu connu et présent aux archives du Vatican. Il s'agit d'une lettre en 1919 dans laquelle Padre Pio demande à l’une de ses premières fidèles de passer commande auprès d'une pharmacie, de 4 grammes d'acide carbolique et de vératrine, indiquant qu'il en avait besoin pour désinfecter les seringues utilisées par lui et un autre frère pour vacciner, en l'absence de médecins, les membres du couvent contre la grippe espagnole. Sur cette base et celle des autres dénonciations mentionnées, l'auteur prétend à un truquage des plaies par Padre Pio.Notes Principales sources utilisées Autres références
|
Padre Pio est le nom d'un capucin et prêtre italien né Francesco Forgione, le à Pietrelcina (province de Bénévent, en Campanie, Italie), mort le à San Giovanni Rotondo (province de Foggia dans les Pouilles en Italie). Il avait pris le nom de Pie (en italien "Pio"), en hommage au pape Pie V, quand il rejoignit l'ordre des frères mineurs capucins.
|
xwikis
|
La société est née en sous le nom original de Micro-Soft, à Albuquerque, dans le Nouveau-Mexique, du besoin de deux étudiants américains, Bill Gates et Paul Allen, de formaliser la vente de l’interpréteur de langage informatique BASIC : Altair Basic adapté par eux deux et Monte Davidoff, pour ce qui est considéré comme le premier ordinateur personnel américain, l’Altair 8800, de la société MITS, avec le premier langage de programmation pour micro-ordinateur de l’histoire de l’informatique. La marque Microsoft (originellement, le trait d’union disparaissant quelques années plus tard) fut déposée le. À l’origine, elle a été fondée pour développer et vendre des programmes informatiques BASIC pour l’Altair 8800, puis elle est devenue un des sous-traitants d'IBM. Microsoft a réussi à dominer le marché du système d’exploitation de l’ordinateur personnel avec MS-DOS au milieu des années 1980. Elle a pu ensuite s'affranchir d'IBM. L’introduction en bourse de la société,D’abord simple environnement graphique pour MS-DOS, Windows est devenu entre 1993 et 2001 un système d’exploitation à part entière. Quelques coups de stratégie de marketing ne sont pas étrangers à ce succès, comme l’ajout de trois touches « Windows » sur les claviers afin de marquer celui-ci dans l’esprit du consommateur comme « étant fait pour Windows » et marginaliser ainsi le concurrent potentiel OS/2 développé par IBM, et codéveloppé initialement par Microsoft et IBM, jusqu’au divorce officiel entre les deux sociétés en. Selon Microsoft, un soin particulier a également été apporté aux questions d’ergonomie, et en particulier à la question des polices de caractères typographiques, dès les (Adobe Type Manager) et 3.1 (TrueType) de Windows. Bien des années plus tard, Microsoft affirmera considérer son avance sur le plan de l’ergonomie comme l’atout qui permettra à Windows de survivre face à la concurrence libre de Linux et de KDE/GNOME. DeMicrosoft veut que Windows 10 harmonise l'expérience utilisateur et la fonctionnalité entre les différentes classes de périphériques, par exemple en corrigeant les lacunes de l'interface utilisateur qui ont été introduites dans Windows 8. Ou bien encore centraliser toutes les applications autour de Windows. Cette stratégie, Microsoft la nomme « One Windows » c'est-à-dire créer un seul écosystème regroupant les Windows pour smartphones, Xbox, les objets connectés ainsi que les autres projets de Microsoft comme le casque à réalité augmentée Hololens ou le tableau interactif de réunion Surface Hub. Ces applications universelles sont faites pourÀ l’origine, c’est une suite bureautique de l’éditeur, composée de nombreux logiciels dont le traitement de texte Word, le tableur Excel, le logiciel de présentation PowerPoint, le logiciel de publication Publisher, l’outil de communication et agenda Outlook et la base de données. Depuis 2003, la suite Office s’est largement étendue, avec de nombreux logiciels serveurs comme ou Office est un des logiciels les plus rentables de l’éditeur. Dans les nouvelles versions d'Office, Microsoft axe sa stratégie sur des applications qui hébergent les données dans le Cloud, avec notamment la sortie de la licence Office 365. Cet outil en ligne permet d'avoir accès à de nombreuses ressources, telles que la suite Office 2016Microsoft voulait être influent dans le monde d'internet, comme toute société à l'époque, par exemple avec Internet Explorer qui est un navigateur web équipant un peu plus de 60 % des ordinateurs du monde en (selon StatOwl.com). La version actuelle est la avec Windows 8. Une version d’Internet Explorer est disponible gratuitement pour les systèmes Mac OS d’ mais le développement de cette version a toutefois été arrêté en 2003. Néanmoins, le navigateur perd des parts de marché depuis 2004, avec l’arrivée d’autres navigateurs comme Mozilla Firefox, Google Chrome et Safari. Cette baisse coïncide avec l'ajout du "ballot screen" en Europe, un écran obligeant le consommateur à choisir son navigateur web, une mesure imposée par la Commission européenne. Bing est le moteur de recherche développé par la société Microsoft. Il a été rendu public le. Au moment de sa sortie, en 2008, cela révélait un changement dans la stratégie commerciale de Microsoft, qui séparait son moteur de recherche de sa suite d’applications Windows Live. Dans sa version finale, Bing offre les options de recherches suivantes : sites web, images, vidéos, shopping, actualités, cartes, voyages... Selon Microsoft, ce moteur de rechercheMicrosoft propose aussi plusieurs outils pour les entreprises comme Microsoft SQL Server qui est le système de gestion de base de données (SGBD) phare de Microsoft, codéveloppé avec Sybase jusqu’en 1994. Microsoft Access est le SGBD personnel inclus dans la suite Office, et Extensible Storage Engine est le moteur de SGBD utilisé dans des produits de la marque tels que Exchange ou Active Directory. Plus d'une centaine d'outils périphériques sont disponibles, soit lors de l'installation (SQL Profiler, Database Tuning Advisor, Data Collector...), soit directement sur le site de Microsoft (SQLdiag, SQLioSim, SQL Server Best Practices Analyzer...), soit à travers le site communautaire opensource Codeplex (RML Utilities, PAL, Open DBDiff...). Une instance de SQL Server est une installation de tout ou partie des services SQL Server sur une machine Windows et peut héberger de nombreuses bases de données. Un même OS supportant jusqu'à 50 instances différentes (ce qui n'est pas conseillé en production). SQL Server existe en différentes éditions : CE (Compact Édition : solution embarquée pour les smartphones), Express (plusieurs déclinaisons gratuite), Web (en mode :, auprès d'hébergeurs web), Standard, BI et Enterprise. L'édition Developper, équivalenteMicrosoft est l’éditeur de nombreux jeux vidéo pour PC dont,, Fable ou. Un service communautaire a été lancé en 2006, « ». Cette gamme accueille plusieurs jeux comme ou "", mais est abandonnée par de grands éditeurs tels THQ, qui justifie son retrait par des. En 2013, le service Games for Windows est abandonné par Microsoft, face à la concurrence d'autres plateformes comme Steam, et pour mettre en valeur les nouveaux services de Microsoft comme le Windows Store qui propose lui aussi des jeux. Il propose également DirectX, une API multimédia (vidéo, son, réseau) pour le développement d’application Windows (principalement des jeux vidéo) et aussi qui permet de visionner des animations vectorielles (faisant ainsi concurrence à ), intégrant de l’audio et de la vidéo. Microsoft Studios, créé en 2002 sous la dénomination "Microsoft Game Studios" (aussi appelé "Microsoft Game Division"), est une société détenue par Microsoft qui développe et édite des jeux vidéo pour les plates-formes Microsoft Windows ou les consoles Xbox, Xbox 360 et Xbox One. La société publie notamment les jeux des studios de développement internes comme 343 Industries ou Rare Ltd., mais aussi des studios de développement tiers comme BioWareMicrosoft s’est lancé en 2001 dans ce secteur hautement concurrentiel, en sortant sa propre console de jeux vidéo la Xbox et en 2005 la. Elles proposent toutes les deux des centaines de jeux et un mode de jeu en ligne communautaire, le. La permet également de se connecter à Windows Live Messenger, Facebook et Twitter et d’utiliser d’autres services de Microsoft. Elle peut également lire des DVD, des vidéos, ou de la musique. Depuis une récente mise à jour s'inspirant de l'interface de Windows 8, différentes applications sont arrivées sur la console comme Internet Explorer Xbox 360, YouTube, Dailymotion et différentes télés de rattrapage (TF1, Pluzz, Arte, M6...) La Xbox 360 possède environ 30 % des parts de marché sur le marché des consoles de jeux vidéo en. Elle est de plus rentable depuis 2008 pour l’éditeur. Les consoles Xbox au Japon ont peu de succès, contrairement à l'Amérique du Nord. Au Japon, la peine à atteindre un million d’unités vendues en trois ans, alors que la PS3 s’est vendue à presque trois millions en deux ans,Microsoft Lumia (appelé jusqu'en 2014 "Nokia Lumia") est une gamme d'appareils mobiles conçue et commercialisée par Microsoft Mobile et précédemment par Nokia. Lancée en, cette série de smartphones et d'une tablette tactile est le résultat de la coopération des sociétés Nokia, constructeur des téléphones, et Microsoft, concepteur du système d'exploitation Windows Phone. Le nom Lumia vient du mot finnois "lumi", qui signifie « neige ». À la suite du rachat de la branche mobile de Nokia par Microsoft, celui-ci annonce en que désormais la gamme Nokia Lumia s’appellera Microsoft Lumia. Les appareils Lumia, outre les fonctions élémentaires (téléphonie, SMS et MMS), disposent, comme leurs concurrents, d'un écran tactile capacitif multipoint, d'un appareil photo équipé d'une caméra HD, d'un système de géolocalisation intégré, d'un logiciel de cartographie numérique inclus, d'un système d'écoute et de téléchargement de la musique, d'un client Internet, d'applicationsMicrosoft Surface est une gamme de tablettes PC conçues et commercialisées par Microsoft. Cela comprend les tablettes PC (Surface et Surface Pro), les ordinateurs portables (Surface Book), et les tableaux interactifs (Surface Hub). La gamme Surface est donc concentrée en trois grandes lignes majeures :Microsoft Band est une montre connectée dévoilée le. Disponible dès le lendemain aux États-Unis, elle est l'une des premières à fonctionner aussi bien avec Windows Phone, Android et iOS. L'utilisation de Microsoft Band avec un Windows Phone permet d'interagir avec Cortana, l'assistant personnel présent dans le système d'exploitation de la firme de Redmond, grâce au microphone intégré. L'appareil se synchronise par le biais de l'application Microsoft Health disponible sur Windows Phone, Android, et iOS. Elle se connecte à un smartphone auPrésenté le, HoloLens est un casque de réalité augmentée permettant de simuler des hologrammes qui s’intègrent dans le champ de vision de l’utilisateur. Selon Satya Nadella, dirigeant de la société, le dispositif va faire rentrer l'industrie dans l'ère de. Le développement de Microsoft HoloLens est conduit par l’équipe d’Alex Kipman et s’est fait en partenariat avec la NASA. Le casque est dévoilé par Microsoft lors de la conférence "", le. Le, Microsoft va encore plus loin et montre une démonstration en direct lors d'un événement consacré à l'avenir de Windows 10, baptisé "Build 2015". Le,En 2017, Microsoft réalise sa première acquisition dans le domaine de l'intelligence artificielle avec une entreprise canadienne, Maluuba. L'équipe dédiée à ceListe desLa société est dirigée par un conseil d'administration composé principalement de l'extérieur de l'entreprise, comme il est habituel pour les sociétés cotées en bourse. Les membres du conseil d'administration à partir du mois de sont: John W. Thompson, Dina Dublon, Bill Gates, Maria Klawe, David Marquardt, Mason Morfit, Satya Nadella, Charles Noski, Helmut Panke et John W. Stanton. Les membres du Conseil sont élus chaque année lors de la réunion annuelle des actionnaires en utilisant un système de vote à laD’après les comptes annuels, le chiffre d’affaires de Microsoft s’élevait en 2005 à de dollars. C’est-à-dire une augmentation de 8 % depuis 2004. En 2009, le chiffre d’affaires était de de dollars pour de bénéfices. En 2011, le chiffre d'affaires était de de dollars (+16,04 % par rapport à 2009). Le chiffre d’affaires est réparti en sept segments de produits : client, serveur et outils,,, MSN,,. La partie « Client » regroupe notamment Windows XP. Elle rapporte en 2005 de dollars (+6 %) deMicrosoft possède des infrastructures et des bureaux partout dans le monde, même s'ils sont plus nombreux en Europe, aux États-Unis, en Inde et Chine littorale. Le site de Microsoft France se situe à Issy-les-Moulineaux. Leur Campus d’Issy-les-Moulineaux incarne un engagement pour réduire leur empreinte écologique. À partir de l’été 2012, Microsoft s’est engagé à présenter un bilanEn 2011, Greenpeace a publié un rapport notant les dix premières grandes entreprises de l'informatique dématérialisée sur leurs sources d'électricité pour leurs centres de données. À cette époque la consommation des centres de données représentait 2 % de la consommation électrique mondiale, chiffre en constante augmentation depuis. Phil Radford de Greenpeace a dit « nous sommes préoccupés par cette nouvelle explosion de l'utilisation d'électricité qui pourrait nous enfermer dans des sources d'énergie vieilles, polluantes au lieu de l'énergie propre disponible aujourd'hui Microsoft et d'autres leaders de l'industrie de technologie de l'information doivent embrasser l'énergie propre de faire fonctionner leurs centres de données ainsi que leurs cloud. » En 2013, Microsoft a consenti à acheter la totalité de la puissance produit par un projet éolien de Texas pour faire fonctionner un de ses centres de données. Microsoft est classé à la dans le Guide du "Greenpeace pour l'Électronique Plus verte", qui classe les 18 fabricants d'électronique selon leurs politiques sur les produits chimiques, toxiques, recyclant et sur le changement climatique. Le campus américain principal de Microsoft a reçu une certification d'argent de la Direction(du Leadership) dans l'Énergie et le Design(la Conception) Environnemental (LEED)Microsoft propose également un programme de formation et certification (Microsoft certified systems engineer, Microsoft certified solution developer, Microsoft Certified Professional). Microsoft présente aussi un programme de distribution gratuite de logiciels pour les étudiants du second degré, appelé MSDN Academic Alliance. En France, Microsoft revendique générer avec son écosystème environ. En 2013, 96 % des revenus mondiaux de Microsoft étaient générés par son écosystème de partenaires équivalent à quatorze millions d'employés. Microsoft signe, en 2007, son premier accord de partenariat avec une université française. En France, le nombre de partenaires Gold de l'éditeur a étéréduit de moitié à 239 dont douze grossistes, Microsoft annonce investir une enveloppe de de licences, de formations et de primes sur ses partenaires en 2011. Microsoft a investi treize millions d’euros afin de favoriser la réussite du Plan Numérique à l’École, réforme envisagé par la ministre Najat Vallaud-Belkacem. Cette démarche qui s’étendra sur les 18 prochains mois qui consiste notamment à assurer des formations aux enseignants et autres cadres de l’éducation, la mise enSelon une étude BVA publiée par Capital le, Microsoft est la marque high-tech préférée des Français, juste devant Apple et Samsung. Les opérateurs Virgin Mobile et France Télécom ferment ce classement. En 2004, Microsoft demande à des Institut de recherche de faire des études indépendantes comparant le coût total de possession de Windows Server 2003 pour Linux. Les études ont conclu que les entreprises trouvent plus facile à administrer Windows que Linux ; ainsi, celles sous Windows aurait administré rapidement une baisse des coûts. Cela a entraîné une vague d'études connexes, menée par le Yankee Group qui a conclu que la mise à niveau d'une version de Windows Server à un autre, coûte une fraction des coûts de commutation à partir de Windows Server pour Linux, bien que les entreprises interrogées aient noté la décroissement de la sécurité et la fragilité des serveurs Linux et le souci de se laisser enfermer dans l'aide de produits Microsoft. Une autre étude, publiée par l'Open Source Development Labs, a affirmé que les études de Microsoft étaient « tout simplement pas à jour et unilatérale » et leur enquête a conclu que le coût total de possession de Linux a étéMicrosoft fait l'objet de nombreuses controverses portant sur ses abus de position dominante, et la vente liée de son système d'exploitation dans le commerce. Microsoft est la première entreprise à avoir participé au programme de surveillance PRISM de la NSA, selon les documents obtenus par The Guardian et The Washington Post en. Des critiques sont également soulevées concernant la vente de services et logiciels à des états totalitaires. Microsoft est condamné plusieurs fois par la Commission européenne, entre 2004 et 2013 pour des abus de position dominante, et écope au total de près de deux milliards d'euros d'amende.
|
Son activité principale consiste à développer et vendre des systèmes d’exploitation, des logiciels et des produits matériels dérivés. Les meilleures ventes historiques sont portées par les systèmes d’exploitation MS-DOS puis Windows, et la suite bureautique Office, qui alimentent à présent une politique de diversification. Windows a atteint une position dominante sur les ordinateurs personnels, avec plus de 90 % de parts de marché dans le monde. Microsoft est présent dans l'informatique en nuage (Azure), les sites Web (moteur de recherche Bing, réseau social LinkedIn, messagerie électronique Outlook.com), les consoles de jeu vidéo (Xbox) et les tablettes PC (Surface).
|
xwikis
|
Pour tout système thermodynamique, on peut définir, à une constante près, une fonction U, appelée énergie interne, et ayant les propriétés suivantes : La variation de U au cours d'une transformation infinitésimale d'un système fermé (de composition fixe) vérifie : formula_1 avec :Contrairement aux énergies potentielles et internes, le travail et la chaleur ne sont pas des variations de fonctions d’état. Leurs valeurs au cours d’une transformation, dépendent de la façon dont on procède pour réaliser la transformation et non pas uniquement des états initial et final.L'avancée fondamentale du premier principe de la thermodynamique pour la physique consiste en l'introduction de l'énergie interne. Cette énergie rend compte de l'agitation interne du système au niveau atomique. Comme toute énergie, elle est définie à une constante près. La difficulté de rendre compte de l'état microscopique de la matière la rend souvent impossible à calculer en pratique ; grâce à l'équation du premier principe de la thermodynamique, il est par contre possible de calculer ses variations.Le travail est un transfert ordonné d'énergie entre un système et le milieu extérieur. Il existe plusieurs sortes de transfert ordonné d'énergie : on peut citer par exemple le travail des forces de pression, le travail d'une pompe, le travail électrique fourni lors d'une réaction électrochimique de pile ou par rayonnement... Ce terme comporte tous les travaux appliqués au système résultants d'une force non conservative. Les forces conservatives sont, elles, présentes dans le terme de l'énergie potentielle.Le travail induit par les forces de pression correspond à la forme de travail la plus courante rencontrée en thermodynamique classique, il s'exprime sous la forme différentielle suivante formula_6où : Le signe moins (-) tient compte du fait que lors d'une détente, le volume augmente (dV > 0) et le système fournit dans ce cas du travail au milieu extérieur (compté négativement pour le système, d'après la règle des signes). Une interprétation microscopique du travail peut être effectuée :Le transfert thermique, appelé aussi chaleur, est un transfert désordonné d’énergie entre le système et le milieu extérieur. La chaleur est un transfert d’agitation thermique. L’agitation des particules se propage au gré des chocs dans toutes les directions, de façon désordonnée. C’est pour cette raison que l’on ne peut jamais transformer intégralement de l’énergie thermique en travail alors que l’inverse est possible (ex: travail électrique transformé en chaleur par effet Joule dans un radiateur électrique). On dit encore que la montée en température se traduit par une dégradation de l’énergie. Ce transfert thermique s'effectue toujours du système le plus chaud vers le plus froid. Celui dont les particules sont statistiquement les plus agitées, va transmettre son agitation thermique au gré des chocs plus ou moins énergétiques, au milieu extérieur ou au système statistiquement le moins agité, c’est-à-dire le plus froid. Cette constatation intuitive est formalisée par le second principe de la thermodynamique.La variation de l'énergie d'un système qui subit une transformation peut s'exprimer selon la relation suivante : formula_9Dans le cas d'un système qui échange de la matière ou de la chaleur avec l'extérieur, que l'on appelle "système ouvert", le premier principe de la thermodynamique peut être réécrit sous une forme prenant en compte ces échanges. On divise alors notre système en trois parties distinctes : Faisons le bilan thermodynamique de l'eau d'une baignoire. Le volume de contrôle pourrait être défini comme étant l'eau présente dans la baignoire, le volume d'entrée serait l'eau adjointe via le robinet en un instant dt, et le volume de sortie, l'eau qui s'écoulerait hors de la baignoire (on suppose la baignoire sans fuite) via la bonde en ce même instant dt.Le premier principe thermodynamique en système ouvert s'écrit : formula_20où : La pertinence des signes se vérifie rapidement : si le système perd de l'énergie, la grandeur formula_29 sera négative (transfert d'énergie au milieu extérieur). Cela signifie que, dans le cas où l'énergie du volume de contrôle ne varie pas (cas formula_30), l'énergie présente dans le volume d'entrée à l'instant t était plus grande que celle contenue dans le volume de sortie à t+dt, soit formula_31.Dans le cas des gaz et des fluides, il est utile de décomposer formula_32 : Le premier principe de la thermodynamique peut alors s'écrire en faisant apparaître l'enthalpie : formula_38 avec :En régime stationnaire, il n'y a ni accumulation de matière (formula_45), ni accumulation d'énergie dans le système considéré (formula_46). Le premier principe se met donc sous la forme :formula_47Dans le cas où le fluide serait incompressible, l'équation ci-dessus reste vraie avec des grandeurs volumiques.La loi de Bernoulli peut être démontrée par le premier principe de la thermodynamique. Les hypothèses sur le fluide sont les suivantes : En prenant un tube de courant suffisamment fin pour que les pressions et les vitesses d'entrée et de sortie soient constantes sur les sections du tube, le premier principe peut se développer sous forme volumique, prenant le nom de théorème de Bernoulli : formula_51où :En pratique, beaucoup de réactions thermodynamiques se font en considérant un système au repos (pas de variation d'énergie cinétique ni d'énergie potentielle). seule l'énergie interne formula_58du système varie. Il est alors possible d'introduire la fonction d'état enthalpie : formula_59. Pour une transformation isobare, l'expression du premier principe devient : formula_60 où formula_61 correspond au travail des forces "autres" que celles de pression (par exemple le travail des forces électriques). Dans de nombreuses réactions thermodynamiques, seul le travail des forces de pression intervient. L'expression se simplifie alors en : formula_62 Cette expression simple du premier principe est particulièrement adaptée pour décrire des transformations thermodynamiques se faisant à pression constante, notamment les changements d'état de la matière, ainsi que les réactions chimiques endothermiques et exothermiques.Le statut de principe physique de cette théorie implique qu'elle a toujours été vérifiée par la pratique, mais jamais démontrée formellement de façon théorique. Ce point est par ailleurs discutable compte tenu de la démonstration ultérieure en 1915 par Emmy Noether de son théorème éponyme, qui exprime l'équivalence entre les lois de conservation et l'invariance des lois physiques. Mais ce statut historique donne lieu à des controverses de la part de « chercheurs alternatifs » qui veulent prouver que le Premier principe est faux en tentant de démontrer l'existence dans la pratique du mouvement perpétuel de premier ordre et de l'énergie « libre », parfois qualifiée de « surnuméraire » ou encore « surunitaire ». Parmi ces chercheurs, on peut citer Léon-Raoul Hatem, Fabrice André, ou Michel J. Brady. Leurs réalisations techniques impliquent généralement des moteurs qui transmettent leur mouvement, grâce à des aimants permanents, à un arbre ou à une série de générateurs électriques censés « multiplier l'énergie » reçue. Les aimants agissent en fait comme de simples engrenages sans contact, ce qui donne l'illusion d'une transmission de mouvement sans frottements, et donc, par extension, sans transmission de couple mécanique. Si on ignore la transmission de couple mécanique, on peut donc penser qu'il suffit de connecter plusieurs étages de génératrices à un seul moteur pour multiplier « gratuitement » l'énergie d'entrée. Cependant, pour multiplier l'énergie, en s'en tenant à la définition de la puissance mécanique, il faudrait : La première hypothèse n'est pas vérifiée expérimentalement puisque la transmission est synchrone, et on ne « créée » pas de vitesse entre le moteur actionneur et les génératrices. La seconde hypothèse viole le principe fondamental de la dynamique (équivalence des actions et des réactions) : le moteur ne peut pas fournir plus de couple mécanique que la somme des couples résistants des génératrices, et on ne « créée » donc pas de couple non plus. Léon-Raoul Hatem a déposé deux demandes de brevet pour un « Ensemble moteur semi magnétique producteur d'énergie cinétique supplémentaire », en 2001 et en 2006, la première rejetée définitivement en 2013, la seconde déchue en 2012. Les démonstrations qu'il effectue impliquent un moteur de puissance nominale 2200 W qui alimente 4 générateurs de 2200 W nominaux chacun. En supposant la puissance totale de sortie à 8800 W, il suppose en fait que la puissance réelle du moteur et des génératrices, pendant leur fonctionnement, est toujours égale à leur puissance nominale (ce qu'il ne vérifie pas), or la puissance produite par une machine synchrone ou asynchrone dépend en réalité de la charge électrique ou mécanique appliquée en sortie. En théorie, la charge électrique connectée aux génératrices produit une force contre-électromotrice dans les bobines de la génératrice, qui se traduit par un couple résistant appliqué sur l'arbre des génératrices, et le moteur fournit simplement un couple inverse égal à la somme des couples résistants de toutes les génératrices (principe fondamental de la dynamique). Étant donné que Hatem ne fournit pas de mesures de puissances (avec des wattmètres) en sortie des génératrices et qu'il n'y applique que de faibles charges électriques (projecteurs halogènes) lors de ses démonstrations, il est impossible de valider son hypothèse, et les conclusions qu'il tire sur l'état de la théorie thermodynamique dépassent le cadre expérimental et les preuves qu'il fournit. Jean-Pierre Petit, ingénieur et ancien directeur de recherches au CNRS, a émis en 2014 des critiques sur les résultats du système Hatem, utilisé par Fabrice André au refuge du col de Sarenne, en critiquant notamment des erreurs d'interprétation physique (confusion entre tension et puissance électrique) et en lui proposant un audit par une équipe scientifique, avec des wattmètres, auquel André n'a pas donné suite. En 2011, le 12/13 de France 3 Alpes consacre un reportage à Fabrice André dans lequel il est présenté comme titulaire de « 17 brevets » mais son nom est absent de la base de données des brevets de l'INPI. Le refuge du col de Sarenne a été détruit dans un incendie accidentel en. Entre 2006 et 2010, Michel J. Brady a vendu 61 moteurs « Perendev » (PERpetual ENergy DEVice) à mouvement perpétuel, basé sur des aimants permanents, d'une puissance de 100 à 300 kW, à des clients allemands, et probablement plus dans le monde. Les commandes n'ayant jamais été honorées, il a été arrêté le pour détournement de fonds en Suisse et extradé vers l'Allemagne où il a purgé une peine de prison jusqu'en. La seule preuve de fonctionnement de son système est une vidéo YouTube de mauvaise qualité publiée en. Il s'agit d'un dispositif où les stator et le rotor sont tous deux constitués d'aimants permanents de pôles opposés. Un tel dispositif viole la loi de Lenz-Faraday puisque le champ magnétique des aimants est constant, donc son flux est constant, or la variation du flux magnétique est nécessaire pour créer une force électromotrice, donc un travail mécanique. Dans tous les moteurs à induction, cette variation est forcée en changeant le sens du courant dans des électro-aimants (bobines). En l'absence de variation du flux magnétique, les forces qui s'appliquent sont statiques et aucun travail n'est produit. En théorie, un moteur à aimants permanents ne peut donc pas produire un travail, et s'il tourne, c'est seulement mû par sa propre inertie (à vitesse initiale non nulle) et jusqu'à ce que les frottements l'arrêtent, comme sur certaines démonstrations. Dans la vidéo originale de Brady, la variation de flux magnétique peut être engendrée par la fermeture progressive du stator, ce qui ne supprime pas l'apport d'énergie extérieur et ne contredit donc pas la théorie. Les prototypes de Léon-Raoul Hatem, Fabrice André, et Michel J. Brady n'ont jamais été expertisés, vérifiés et validés par des scientifiques indépendants, malgré leur médiatisation, y compris sur des chaînes de télévision publique. Leurs montages expérimentaux ne s'accompagnent d'aucune explication théorique ni d'aucune modélisation physique susceptible d'expliquer leur fonctionnement ou d'en démontrer la validité physique. Les vidéos qu'ils ont fournies montrent toujours leurs générateurs en fonctionnement à vide ou très faiblement chargés, pendant des temps courts, alors que les puissances de sortie qu'ils annoncent sont très supérieures aux charges électromécaniques appliquées pendant les démonstrations. Ces inventeurs n'ont jamais publié de résultats, d'études ou d'analyses permettant de quantifier les performances réelles de leurs appareils (mesures expérimentales de vitesse, de puissance d'entrée et de sortie). Cependant, leur relative médiatisation ainsi que leurs promesses et ambitions philanthropiques, couplées au désintérêt des industriels pour leur travaux, sont à la source de nombreuses théories du complot, sur des blogs et des forums alternatifs, qui attribuent la non-commercialisation de ces « technologies » à des causes autres que l'absence de prototype fonctionnel et dûment expertisé (par exemple : complot des lobbies pétrolier et/ou nucléaire).
|
Selon le premier principe de la thermodynamique, lors de toute transformation, il y a conservation de l'énergie. Dans le cas des systèmes thermodynamiques fermés, il s'énonce de la manière suivante : Au cours d'une transformation quelconque d'un système fermé, la variation de son énergie est égale à la quantité d'énergie échangée avec le milieu extérieur, par transfert thermique (chaleur) et transfert mécanique (travail).
|
xwikis
|
Accenture est issu du département informatique d'Arthur Andersen, que les Américains Arthur Andersen et Clarence DeLany ont créé en 1913 sous le nom Andersen, DeLany & CoEn 1989, ce département "conseil en informatique" se sépare d'Arthur Andersen (AA) et se renomme Andersen Consulting (AC). Arthur Andersen et Andersen Consulting sont alors des regroupements d'entités locales indépendantes, détenues chacune par leurs associés et les autres entités locales dans le monde. Les entités locales signent un accord contractuel avec une structure de regroupement mondiale, Andersen Worldwide Société Coopérative (AWSC), sous juridiction suisse. En 2000, le chiffre d'affaires d'Andersen Consulting dépasse les 9,5 milliards de dollars, avec plus de employés dans 47 pays, alors que le chiffre d'affaires d'Arthur Andersen est de 9,3 milliards de dollars avec employés dans le monde en 2001. Pendant les années 1990, des tensions croissantes apparaissent entre Andersen Consulting et Arthur Andersen. Andersen Consulting souhaite revoir son obligation de reverser chaque année 15 % de ses bénéfices à Arthur Andersen (une condition de l'accord de séparation de 1989 établit que l'entité la plus profitable - AA ou AC - doit reverser à l'autre cette somme), alors que dans la même période Arthur Andersen entre en compétition avec Andersen Consulting par la création d'un nouveau département dédié au conseil en management, appelé Arthur Andersen Business Consulting. Ce désaccord atteint son paroxysme en 1998 lorsqu'Andersen Consulting dénonce son accord avec AWSC et Arthur Andersen. Andersen Consulting place les 15 % des bénéfices de cette année et des années futures sur un compte bloqué et dépose une plainte pour rupture de contrat. Le, par un arbitrage de la Chambre de commerce internationale, Andersen Consulting obtient la dénonciation de tous ses liens contractuels avec AWSC et Arthur Andersen. En contrepartie, Andersen Consulting paie à Arthur Andersen la somme détenue sur le compte bloqué (1,2 milliard de dollars), et doit changer son nom, ce qui aboutit à la nouvelle identité Accenture. Peut-être révélateur sur l'entité « gagnante » à la suite de cette scission, quatre heures après que l'arbitre a rendu sa décision, Jim Wadia, Chief executive officer d'Arthur Andersen, a soudainement démissionné. Les analystes du secteur et les professeurs d'écoles de commerce aiment à présenter cet évènement comme une complète victoire pour Andersen Consulting. Jim Wadia fournira plusieurs années après des explications sur sa démission, lors d'une analyse de cas sur cette scission au sein de la Harvard Business School. Il indiquera que le comité exécutif d'Arthur Andersen avait voté une résolution stipulant qu'il devait démissionner s'il ne parvenait pas à obtenir un dédommagement minimum de 4 milliards de dollars (que ce soit à travers une négociation ou une décision d'arbitrage) pour la séparation de l'entité de conseil, d'où sa démission rapide une fois l'arbitrage annoncé. Les avis divergent sur les raisons de cette séparation - les dirigeants de chaque partie ont cité la cupidité et l'arrogance de l'autre partie, et la direction d'Andersen Consulting a mis en avant la rupture de contrat que constituait la création par Arthur Andersen d'un deuxième groupe de consultants, AABC (Arthur Andersen Business Consulting), rivalisant directement avec Andersen Consulting sur le marché. Accenture se félicitera plus tard de cette scission, qui lui permettra de ne pas être atteint lorsque Arthur Andersen sera impliqué dans le scandale Enron, puis forcé à la dissolution en 2002. Beaucoup d'entités AABC seront alors rachetées par d'autres sociétés d'experts-conseils, plus particulièrement Hitachi Consulting et KPMG Consulting (renommé depuis BearingPoint).Le, Andersen Consulting devient officiellement Accenture (contraction de ) et lance sa nouvelle marque à grand renfort de publicité. Même si une étude marketing est lancée pour trouver le nouveau nom de la société, le nom Accenture est proposé par un employé danois du bureau d'Oslo (Norvège), nommé Kim Petersen, à la suite d'un concours interne. Le concours lancé par Accenture avait pour objectif de trouver un nom qui représente la volonté d'être le leader mondial du conseil et de la haute performance, et qui ne choque pas dans les pays où le cabinet de conseil opère.Le, l'introduction en Bourse d'Accenture est effectuée au prix de par action au New York Stock Exchange (NYSE). Goldman Sachs et Morgan Stanley dirigent cette opération. L'action Accenture côte en fin de journée, avec un maximum journalier à. Le premier jour de l'introduction en bourse, Accenture a levé près de 1,7 milliard de dollars.Depuis le, le CEO d'Accenture est Pierre Nanterme, diplômé de l'ESSEC, ancien responsable d'Accenture en France. Il est le premier Français à diriger Accenture au niveau mondial. A son arrivée, Pierre Nanterme décide d’une politique d’investissement massif dans les domaines de l’interactivité, de la mobilité, de l’analytique, du "cloud" et de la sécurité (dite « "imacs" »), pour répondre aux besoins grandissants de transformation numérique des entreprises. Celle-ci se traduit par de nombreux rachats d’entreprises : entre 2014 et 2016, Accenture dépense 3 milliards d’euros pour racheter une cinquantaine d’entreprises, principalement dans les activités numériques (internet des objets, intelligence artificielle, réalité immersive, blockchain, informatique quantique, entre autres). Parmi les rachats effectués durant cette période, on note : Cette politique a pour effet une transformation importante d’Accenture, à la fois en termes de croissance et d’activité d’entreprise : en 2017, les nouvelles activités liées au numérique (digital, cloud, sécurité) représentent 50 % du chiffre d’affaires du groupe et font d’Accenture un concurrent des groupes publicitaires historiques. Cette politique de croissance externe s’accompagne aussi d’importants investissements en recherche et développement, en détection des tendances technologiques, en formation des collaborateurs et en relations avec les start-ups. Depuis son entrée en bourse jusqu’à 2017, la taille d’Accenture a été multipliée par 5 pour les effectifs et par 3 pour le chiffre d’affaires.Sans organigramme, Accenture est organisé de façon matricielle, avec d'un côté les secteurs d'activité client ("Operating groups") et de l'autre les métiers ("Businesses").En 2017, Accenture organise ses activités métiers autour de cinq pôles d’expertise : Accenture travaille pour 98 des 100 plus grandes entreprises du monde.Les principales entités d'Accenture en France sont :Le conseil d’administration d’Accenture se compose en 2017 de 12 membres :Le conseil exécutif d’Accenture se compose en 2017 de huit membres :Depuis la séparation d’Arthur Andersen et la création d’Andersen Consulting, l’entreprise a connu quatre présidents-directeurs généraux :En Europe, Accenture est dirigée depuis 2020 par Jean-Marc Ollagnier. En France, Accenture a connu quatre présidents :Dans le cadre de ses efforts de transformation numérique, Accenture a mis en place plusieurs structures pour le développement de l’innovation, de la recherche et du développement : Accenture investit chaque année 600 millions de dollars en recherche et développement et a déposé 5000 brevets.En recherche et développement : 600 millions de dollars chaque année. En formation (chiffres 2016) : 900 millions de dollars en formation des collaborateurs, 160 000 collaborateurs formés en intelligence artificielle, analyse et gestion des données, etc. En acquisitions : 3.4 milliards de dollars investis de 2015 à 2017 ; 70 acquisitions effectuées sur la même période.Accenture a pris plusieurs initiatives remarquées en matière de style de management, comme le fait de ne pas avoir de quartier général : les membres du comité de direction sont dispersés dans le monde, se réunissent physiquement quatre fois par an et par téléprésence une fois par semaine. Accenture est une des entreprises qui utilise des hologrammes pour les conventions managériales, notamment par Pierre Nanterme. En 2015, L'entreprise a également annoncé la fin des entretiens d’évaluation annuels.Accenture a lancé sa fondation d’entreprise en 2009, qui intervient dans les domaines suivants :Pour l'année 2017, Accenture déclare à la Haute Autorité pour la transparence de la vie publique exercer des activités de lobbying en France pour un montant qui n'excède pas.Accenture est inscrit depuis 2009 au registre de transparence des représentants d'intérêts auprès de la Commission européenne. Elle déclare en 2017 pour cette activité des dépenses annuelles d'un montant compris entre.
|
Accenture est une entreprise internationale de conseil et de technologies. Considérée comme une des plus grandes entreprises de conseil dans le monde, elle fait notamment partie du Fortune Global 500 (classement des 500 premières entreprises mondiales), réunit environ salariés et opère dans plus de 120 pays.
|
xwikis
|
La notion de "capacité thermique" est due à Joseph Black (1728-1799). Avant le développement de la thermodynamique moderne, on pensait que la chaleur était un fluide (vision dite "substantialiste") : le "fluide calorique". Les corps étaient susceptibles de contenir une certaine quantité de ce fluide, qu'ils pouvaient emmagasiner ou restituer, d'où l'appellation de "capacité calorifique". Aujourd'hui, l'énergie interne des systèmes est considérée comme constituée des énergies cinétique et potentielle microscopiques des molécules. La chaleur n'est plus un fluide, mais un transfert d'énergie désordonnée à l'échelle microscopique. La "capacité calorifique" est désormais appelée "capacité thermique". L'animation ci-contre montre que les molécules sont des ensembles plus ou moins complexes d'atomes reliés par des liaisons. L'agitation thermique entraîne des mouvements de translation, de rotation et de déformation des liaisons par vibration. Les atomes ont des degrés de liberté supplémentaires dans la possibilité qu'ont leurs électrons de changer d'orbitale atomique. Sauf si elles sont piégées dans un réseau cristallin, ces molécules ont également la possibilité de se déplacer dans l'espace. Chacune de ces possibilités de mouvements intra-atomiques, interatomiques et moléculaires constitue un degré de liberté de la molécule. L'apport ou la soustraction d'énergie à une molécule se fait par intensification ou ralentissement de l'ensemble de ces mouvements, en respectant le principe d'équipartition sur tous les degrés de liberté. La capacité d'une molécule à absorber ou restituer une énergie constitue sa capacité thermique. Elle est donc d'autant plus grande que le nombre de degrés de liberté disponibles est plus élevé. Elle est en outre influencée par les interactions entre molécules, qu'il s'agisse des mêmes molécules pour un corps pur, ou d'espèces différentes dans un mélange.Les capacités thermiques se définissent pour des corps purs comme pour des mélanges, sous une seule phase et en l'absence de transition de phase, à composition chimique (fractions molaires) et quantité de matière globale constantes (c'est-à-dire en l'absence de réaction chimique, d'apport ou d'extraction de matière). Lors d'une transformation impliquant un transfert de chaleur formula_1 et un changement de température formula_2, la capacité thermique formula_3 du corps considéré dans la transformation peut en première approche être définie selon : La capacité thermique dépend cependant des conditions opératoires dans lesquelles elle est déterminée. Il est ainsi nécessaire de préciser dans quelles conditions la transformation a été effectuée, par exemple à pression ou à champ magnétique constant, soit de façon générale à formula_5 constant : De plus la capacité thermique n'est pas une constante, elle varie en fonction de la grandeur formula_5 gardée constante dans la transformation, de la température formula_8 et de la quantité de matière formula_9 (la capacité thermique est une grandeur extensive) : formula_10. Elle est par conséquent définie plus précisément par la variation élémentaire : Dans le cas d'une transformation réversible, la variation élémentaire de chaleur est liée à la variation élémentaire de l'entropie formula_12 du système thermodynamique par : La capacité thermique peut donc être définie dans le cas d'une transformation réversible par : La condition de composition constante étant implicite et générale à toutes les capacités thermiques, il est souvent omis de préciser dans la notation que la dérivée partielle est effectuée à quantité de matière formula_9 constante : La variation de l'entropie peut donc être écrite, "à composition constante", sous la forme : Variation de l'entropie : formula_16Les capacités thermiques les plus employées sont définies en thermodynamique, pour des transformations impliquant des forces de pression.Dans une transformation réversible, la chaleur formula_1 absorbée par un système thermodynamique (corps pur ou mélange) monophasé de composition constante peut être exprimée en fonction de la température formula_8 et du volume formula_19 selon : formula_20 avec : Coefficient calorimétrique de dilatation : formula_28 Si seules les forces de pression sont susceptibles de travailler, avec formula_30 la pression exercée par l'extérieur sur le corps, on peut écrire pour formula_31 l'énergie interne du système : D'où une autre définition de la capacité thermique isochore : Capacité thermique isochore : formula_33 La capacité thermique isochore dépend du volume, de la température et de la quantité de matière : formula_34Dans une transformation réversible, la chaleur formula_1 absorbée par un système thermodynamique (corps pur ou mélange) monophasé de composition constante peut être exprimée en fonction de la température formula_8 et de la pression formula_30 selon : formula_38 avec : Coefficient calorimétrique de compression : formula_46 Si seules les forces de pression sont susceptibles de travailler, avec formula_19 le volume du corps, on peut écrire pour formula_49 l'enthalpie du système : D'où une autre définition de la capacité thermique isobare : Capacité thermique isobare : formula_51 La capacité thermique isobare dépend de la pression, de la température et de la quantité de matière : formula_52En électromagnétisme, d'autres capacités thermiques sont définies dans le domaine de la réfrigération magnétique, qui met en application l'effet magnétocalorique, c'est-à-dire le changement de température d'un matériau magnétique soumis à un champ magnétique externe. La force considérée lors des transformations est la force magnétique. Les matériaux étudiés étant le plus souvent solides, il n'est pas tenu compte des variations de volume du système lors des transformations (la dilatation thermique d'un solide étant faible, le travail des forces de pression est négligé devant celui de la force magnétique). Toutefois, en toute rigueur, les capacités thermiques suivantes, en plus d'être définies à composition constante, sont également définies à pression constante. Trois capacités sont définies : avec formula_49 le champ magnétique, avec formula_54 l'induction magnétique, avec formula_55 l'aimantation. Les trois grandeurs sont liées par la relation générale : avec formula_57 la perméabilité magnétique du vide. Toutefois, dans le domaine de la réfrigération magnétique, les matériaux étudiés sont naturellement très faiblement voire pas du tout magnétiques (soit formula_58) et la relation retenue dans ce domaine est généralement : ainsi formula_60. On appelle "relation de Maxwell-Weiss" la relation : Relation de Maxwell-Weiss : formula_61 La différentielle de l'entropie s'écrit : formula_62 ou : formula_63 L'aimantation formula_55, variable extensive, est le pendant du volume formula_19 en thermodynamique, l'induction magnétique formula_54, variable intensive, est celui de la pression formula_30.La capacité thermique formula_68 est une grandeur extensive : toutes choses étant égales par ailleurs, si l'on double la quantité d'un corps quelconque il faut lui apporter deux fois plus d'énergie pour augmenter sa température d'un kelvin. La capacité thermique dépend en conséquence de la quantité de matière formula_9, ou de la masse formula_70, ou du volume formula_19 occupé par ce corps. On peut ainsi définir plusieurs grandeurs intensives : Si le système contient formula_77 espèces chimiques, chaque espèce formula_76 étant représentée par la quantité formula_79, le théorème d'Euler sur les fonctions homogènes du premier ordre permet d'écrire : formula_80 ou, en introduisant formula_81 la quantité totale de matière dans le mélange et formula_82 la fraction molaire du corps formula_76 dans le mélange : formula_84Une capacité thermique se conçoit intuitivement comme étant positive : un corps emmagasine de la chaleur lorsque sa température augmente, il en restitue lorsque sa température diminue. Ceci répond au deuxième principe de la thermodynamique et correspond à une condition de stabilité de tout système thermodynamique. Condition de stabilité thermodynamique formula_85 formula_86 Soit un système thermodynamique soumis à une température extérieure formula_87 constante. On suppose le système à volume formula_19 constant. La variation de l'énergie interne formula_31 du système vaut : La température extérieure formula_87 étant constante, on a : Le deuxième principe de la thermodynamique implique que le terme formula_94, ou chaleur non compensée de Clausius, ne peut être que positif ou nul et par conséquent : À volume formula_19 constant, lorsque le corps est soumis à une température extérieure formula_87 constante, la fonction formula_98 ne peut donc que décroitre. Ceci implique qu'à l'équilibre stable cette fonction atteint un minimum. La fonction formula_31 ayant pour variables naturelles le volume formula_19 et l'entropie formula_12, la fonction formula_98, à volume formula_19 constant, a pour seule variable naturelle formula_12. Pour que l'équilibre soit stable, la fonction doit donc répondre à : La dérivée seconde doit être positive "strictement". Si la dérivée seconde est nulle, l'équilibre est "métastable", mathématiquement il s'agit d'un point d'inflexion de la fonction ; si elle est négative, l'équilibre est "instable", il s'agit d'un maximum de la fonction. Si l'on considère la dérivée partielle de l'énergie interne : on a à l'équilibre stable : On en déduit qu'un corps à l'équilibre ne peut être stable qu'à la température formula_110 et que si sa capacité thermique isochore est positive "strictement" : Condition de stabilité : formula_111 Un corps ne peut être stable que si son entropie augmente lorsque sa température augmente à volume constant. Autrement dit, un corps ne peut être stable que s'il absorbe de la chaleur lorsque sa température augmente à volume constant. Soit un système thermodynamique soumis à une température extérieure formula_87 constante. On suppose le système et le milieu extérieur à l'équilibre mécanique permanent (même pression) et que cette pression formula_30 est constante. La variation de l'énergie interne formula_31 du système vaut : À pression formula_30 constante, on a, en introduisant l'enthalpie formula_118 : La température extérieure formula_87 étant constante, on a : Le deuxième principe de la thermodynamique implique que le terme formula_94, ou chaleur non compensée de Clausius, ne peut être que positif ou nul et par conséquent : À pression formula_30 constante, lorsque le corps est soumis à une température extérieure formula_87 constante, la fonction formula_126 ne peut donc que décroitre. Ceci implique qu'à l'équilibre stable cette fonction atteint un minimum. La fonction formula_49 ayant pour variables naturelles la pression formula_30 et l'entropie formula_12, la fonction formula_126, à pression formula_30 constante, a pour seule variable naturelle formula_12. Pour que l'équilibre soit stable, la fonction doit donc répondre à : La dérivée seconde doit être positive "strictement". Si la dérivée seconde est nulle, l'équilibre est "métastable", mathématiquement il s'agit d'un point d'inflexion de la fonction ; si elle est négative, l'équilibre est "instable", il s'agit d'un maximum de la fonction. Si l'on considère la dérivée partielle de l'enthalpie : on a à l'équilibre stable : On en déduit qu'un corps à l'équilibre ne peut être stable qu'à la température formula_110 et que si sa capacité thermique isobare est positive "strictement" : Condition de stabilité : formula_139 Un corps ne peut être stable que si son entropie augmente lorsque sa température augmente à pression constante. Autrement dit, un corps ne peut être stable que s'il absorbe de la chaleur lorsque sa température augmente à pression constante. Une capacité thermique négative suppose qu'un corps absorbe de la chaleur lorsque sa température diminue et en dégage lorsque sa température augmente. Un tel corps mis en contact avec un air ambiant plus chaud verrait sa température augmenter pour atteindre l'équilibre thermique, c'est-à-dire l'homogénéité des températures entre les deux milieux. En raison de sa capacité thermique négative cette augmentation de température s'accompagnerait d'une génération de chaleur par le corps. Cette chaleur se transmettrait à l'air ambiant qui, en raison de sa capacité thermique positive, verrait sa température augmenter à son tour. Les températures du corps et de l'air augmenteraient ainsi sans pouvoir atteindre l'équilibre thermique, avec une génération infinie de chaleur par le corps contraire aux premier et deuxième principes de la thermodynamique. Inversement, un tel corps introduit dans un milieu plus froid initierait une production de froid infinie. Toutefois la thermodynamique n'interdit pas qu'une capacité thermique soit négative, mais un tel corps serait instable et donc difficilement observable, à moins que d'autres phénomènes compensent cette instabilité. En physique stellaire la stabilité des étoiles est expliquée par une capacité thermique négative due à l'attraction gravitationnelle entre ses constituants. Une étoile génère par fusion nucléaire plus d'énergie qu'elle ne peut en rayonner, ce qui, avec une capacité thermique positive, induirait une telle accumulation de chaleur, et donc une telle augmentation de température, que l'étoile serait instable et mourrait rapidement. La capacité thermique négative permet d'accumuler la chaleur tout en maintenant une température stable.Les capacités thermiques formula_42 et formula_24 sont liées entre elles et aux coefficients thermoélastiques par la relation de Mayer : et la relation de Reech : avec : Dans le domaine de la réfrigération magnétique, une relation similaire à la relation de Mayer peut être établie : Relation de Mayer en électromagnétisme : formula_147À partir des relations de Mayer et de Reech on peut calculer les capacités thermiques selon : formula_148 formula_149 La relation de Mayer peut aussi s'écrire sous la forme formula_150. On peut par ailleurs montrer qu'un corps ne peut être stable que si sa compressibilité isotherme est positive strictement : formula_151. Par conséquent la relation de Mayer montre que : Relation entre capacités thermiques : formula_152 Pour un corps parfaitement indilatable (dont le volume ne varie pas avec la température, soit formula_153) ou parfaitement incompressible (dont le volume ne varie pas avec la pression, soit formula_154), la relation de Mayer implique également que : Pour un corps parfaitement indilatable ou incompressible : formula_155 Les liquides et les solides peuvent être assimilés avec une bonne approximation à des corps parfaitement indilatables et incompressibles ; ce n'est pas le cas des gaz.La différentielle de l'entropie : donne : Le théorème de Schwarz permet d'écrire : Le terme de gauche étant une dérivée partielle à température constante, on a : La première relation de Clapeyron : permet finalement d'obtenir : Variation isotherme de la capacité thermique isochore : formula_163La différentielle de l'entropie : donne : Le théorème de Schwarz permet d'écrire : Le terme de gauche étant une dérivée partielle à température constante, on a : La deuxière relation de Clapeyron : permet finalement d'obtenir : Variation isotherme de la capacité thermique isobare : formula_171À l'instar des deux capacités précédentes, il peut être démontré pour la capacité thermique à induction magnétique constante que : Variation isotherme de la capacité thermique à induction magnétique constante : formula_172D'une manière générale : Appliquée à un matériau de construction, une paroi, un local ou un bâtiment, la capacité thermique représente la quantité de chaleur que ceux-ci emmagasinent lorsque leur température augmente d'un degré. La "capacité thermique" entre donc dans les calculs de diffusivité thermique et de l'effusivité thermique, les deux grandeurs essentielles pour quantifier l'inertie thermique. La capacité thermique volumique est donc éventuellement renseignée pour les matériaux entrant dans la construction des bâtiments.Pour un gaz parfait, selon la loi des gaz parfaits : on a : La capacité thermique isochore et la capacité thermique isobare d'un gaz parfait ne dépendent que de la température et de la quantité de matière ; ceci est conforme aux lois de Joule : formula_176 formula_177 Pour un gaz parfait monoatomique, type argon, la physique statistique montre que formula_178 "à toute température" ; la relation de Mayer induit que formula_179. On a donc formula_180. Pour un gaz parfait diatomique, type dioxygène ou diazote et leur mélange air, "à température ambiante", il est possible de même de démontrer que formula_181 et formula_182, soit formula_183. Ces valeurs augmentent avec la température.Le tableau suivant donne la capacité thermique isobare molaire, en, des corps simples (par exemple H, N, O, F, Cl, Br, I sont respectivement,,,,, et ) pris dans leur état standard de référence à une température de et une pression de 100 kPa. Les valeurs extrêmes sont : Le tableau suivant donne la capacité thermique isobare massique, en, les valeurs extrêmes étant :
|
La capacité thermique (anciennement "capacité calorifique") d'un corps est une grandeur qui mesure l'énergie qu'il faut lui transférer pour augmenter sa température d'un kelvin. Inversement, elle permet de quantifier la possibilité qu'a ce corps d'absorber ou de restituer de l'énergie par échange thermique au cours d'une transformation pendant laquelle sa température varie.
|
xwikis
|
Il est possible que son nom soit un emprunt à une langue indo-européenne, dont le sens initial pourrait être « Ciel diurne » comme pour Zeus et Jupiter.Tinia est la plus importante divinité du Panthéon étrusque, mari de Thalna ou de Uni. Il est le père de Hercle et des Dioscures (appelés "Tinas clenar" en étrusque c'est-à-dire «les fils de Tinia»). Avec Menrva et Uni, il formait une puissante qui dominait le panthéon étrusque. Son nom apparaît dans trois cases du foie de Plaisance. Il est associée à l'aigle, dont le vol constituait un signe transmettant un message de la divinité. Tinia est le dieu lanceur de foudres ("manubiæ" en latin) par excellence. Elles se distinguaient de celles des autres dieux par leur couleur rouge sang. Sénèque nous apprend qu'on lui en attribue trois sortes : celles qu'il envoyait de sa propre initiative et qui avaient un sens favorable ; celles qu'il envoyait avec l'accord d'un groupe de douze dieux, les "Dii Consentes" (dieux complices) et dont l'effet était bénéfique mais apportait cependant également un malheur ; enfin celles qu'il lançait après avoir consulté les "Dii Involuti" (dieux cachés, enveloppés de mystère) et dont l'effet était terriblement destructeur. Les principales inscriptions à sa gloire proviennent de Tarquinia et de son territoire (Ferento). Celles-ci se trouvent sur des fragments de "buccheri". Sur la patte avant droite de la Chimère d'Arezzo on peut lire ou pouvant être traduit comme « donné à Tins ». Certains l'identifient avec Vertumne, dieu de la Fédération étrusque.Les lieux de culte n'ont pas été identifiés avec certitude, mais à Tarquinia a été mis au jour une partie du trône impérial dédié à Tinia et appartenant au temple dit "Ara della Regina", devant lequel avaient lieu les prières. On retrouve, notamment à Bolsena et Orvieto, des autels (appelés "bothroi" en grec) percés d'un canal les mettant en contact avec le sous-sol et le monde souterrain, portant la dédicace "Tinscvil". Il n'est donc pas étonnant qu'on ait retrouvé dans le temple du Belvédère à Orvieto un vase votif portant l'inscription "Tinia calusna". L'épithète "calusna" (de "Calu", une divinité associée au monde des morts) indique que Tinia apparaît ici sous son aspect chthonien.
|
Tinia (écrit souvent "Tins", qui veut dire « à Tinia », dédié à...) est le nom étrusque du dieu équivalent au Zeus grec (ou Jupiter en latin). Les Étrusques le nommaient ainsi car Tinia vient de "tin" et signifie « le jour ».
|
xwikis
|
Le point, selon Euclide, est "ce qui n'a aucune partie". On peut aussi dire plus simplement qu'un point ne désigne pas un objet mais un emplacement. Il n'a donc aucune dimension, longueur, largeur, épaisseur, volume ou aire. Sa seule caractéristique est sa position. On dit parfois qu'il est « infiniment petit ». Toutes les figures du plan et de l'espace sont constituées d'ensemble de points. Le point étant considéré comme l'unique élément commun à deux droites sécantes, on représente habituellement le point par une croix (intersection de deux petits segments) plutôt que par le glyphe du même nom. Lorsque le plan ou l'espace est muni d'un repère cartésien, on peut positionner tout point par rapport aux axes de ce repère par ses coordonnées cartésiennes ; le point est alors associé à un couple de réels en dimension 2 ou un triplet de réels en dimension 3. Il existe cependant d'autres manières de repérer les points (coordonnées polaires en dimension deux, coordonnées sphériques ou coordonnées cylindriques en dimension 3)Dans un espace affine E associé à l'espace vectoriel V, les éléments de E sont appelés les points et les éléments de V sont appelés les vecteurs. À chaque couple de points (A,B), on associe un vecteur : formula_1 vérifiant les propriétés suivantes :En géométrie projective, les points de l'espace projectif E associé à l'espace vectoriel V sont les droites vectorielles de V. Lorsque l'espace vectoriel V est de dimension n, et qu'il lui est associé un espace affine A, il est fréquent d'associer à l'espace E deux ensembles de points : l'ensemble des points d'un sous-espace affine A' de dimension n-1 d'équation x = 1 (par exemple) et l'ensemble des droites vectorielles du sous-espace vectoriel V' associé à A'. L'espace projectif E est alors assimilé à un espace affine A' auquel on ajoute les droites vectorielles de V'. On distingue alors, dans E, les points de type affine (ceux dans A') et les autres appelés points à l'infini. En particulier, si "K" est un corps, le "K"-plan projectif (l'espace projectif associé à "K") est assimilable au corps "K" auquel s'ajoute un point à l'infini.La notion de point, en mathématiques, a aujourd'hui un sens très large. Historiquement, les "points" étaient les « constituants » fondamentaux, les « atomes », dont étaient faits les droites, les plans et l'espace, tels que les concevaient les géomètres grecs de l'Antiquité. on disait ainsi qu'une "droite", un "plan" ou "l'espace" tout entier étaient des ensembles de points. Depuis la création de la théorie des ensembles par Georg Cantor à la fin du et l'explosion des « structures mathématiques » qui s'en est suivie, on utilise le terme de « point » pour désigner un élément quelconque d'un ensemble que l'on décide arbitrairement d'appeler « espace » : c'est ainsi que l'on parlera d'un point de la droite des nombres réels (alors que les Grecs faisaient évidemment la distinction entre un « point » et un « nombre »), d'un point d'un espace métrique, d'un espace topologique, d'un espace projectif, etc. Bref, il suffit qu'un mathématicien qualifie « d'espace » tel ou tel ensemble, au sens le plus général de ce terme et muni de propriétés particulières régies par des axiomes, pour que ses éléments soient aussitôt qualifiés de « points ». Ainsi, aujourd'hui, le terme « d'espace » étant presque devenu synonyme « d'ensemble », le terme « point » est donc presque devenu synonyme « d'élément ». Ces termes « d'espace » et de « points » sont juste utilisés pour leur pouvoir suggestif, même si ces termes en question n'ont plus rien à voir avec la géométrie.
|
En géométrie, un point est le plus petit élément constitutif de l'espace géométrique, c'est-à-dire un lieu au sein duquel on ne peut distinguer aucun autre lieu que lui-même.
|
xwikis
|
En géométrie classique, la définition d'un plan est axiomatique et vise à "idéaliser" les représentations physiques de surfaces planes (table, tableau, feuille...). On trouve une définition axiomatique du plan chez Euclide, vers 300 ans avant Jésus-Christ, qui définit une surface comme et précise alors dans sa définition 7 : Plusieurs siècles plus tard, Denis Henrion, dans sa traduction et commentaires des "Éléments", tente d'expliciter le sens de « également placée entre ses lignes droites » indiquant que c'est une surface dont toutes les parties du milieu ne sont plus élevées ni abaissée que les extrêmes, que c'est la surface la plus courte parmi celles ayant mêmes extrêmes, que les parties du milieu y ombrage les parties extrêmes. Il explique que, si par un point quelconque d'une surface, on peut faire tourner une droite en restant dans la surface, alors cette surface est plane. Cette même idée transparait dans la définition d'Adrien-Marie Legendre dans ses "Éléments de Géométrie" (1790) : ou bien dans cette définition de "La Petite encyclopédie des mathématiques" (1980) :Au, la géométrie analytique de Descartes et Fermat décrit tous les points du plan par des couples formula_1 de coordonnées. En langage mathématique contemporain, le plan est alors en bijection avec l’ensemble formula_2, de sorte que la distance entre deux points corresponde à la norme euclidienne formula_3 illustrant le théorème de Pythagore. De même, en représentant l’espace comme l’ensemble formula_4 des triplets formula_5 de nombres réels, un plan est l’ensemble des solutions d’une équation cartésienne de la forme formula_6, où les coefficients formula_7 ne sont pas tous nuls. Les plans apparaissent ainsi comme les surfaces de niveau d’une forme linéaire dans l’espace.Le développement de l'algèbre linéaire au permet une définition du plan à l'aide du concept d'espace vectoriel et de dimension sur un corps : C’est le cas, par exemple, de l’ensemble des nombres complexes, l’ensemble des fonctions affines, l’ensemble des suites satisfaisant une relation de récurrence linéaire d’ordre 2 de la forme formula_8 (comme celle de la suite de Fibonacci), ou l’ensemble des solutions d’une équation différentielle linéaire d'ordre 2 de la forme formula_9 sur un intervalle donné. Cette présentation implique l’existence d’un point et de deux vecteurs formula_10 et formula_11 tel que les points du plan soient les points satisfaisant une égalité vectorielle de la forme formula_12, où et décrivent tous deux le corps des scalaires. On dit alors que le triplet formula_13 est un repère cartésien du plan, et on utilisera cette présentation dans la suite de l’article. Le plan de la géométrie classique se réalise dans un espace affine sur le corps des nombres réels. Mais de nombreuses constructions géométriques gardent du sens sur d’autres corps, en particulier sur des corps finis.À la fin du, après la découverte des géométries non euclidiennes, un mouvement se dessine pour axiomatiser encore davantage la géométrie en cherchant à la vider de son contenu ontologique. David Hilbert, dans son "Grundlagen der Geometrie" ("Base de la géométrie"), définit points, droites et plans de l'espace par les relations qui les unissent (les axiomes d'incidences): Une réduction des axiomes de Hilbert permet de fonder la géométrie plane en dehors du contexte de la géométrie dans l'espace : La structure d’incidence ainsi définie est satisfaite par tous les espaces affines de dimension 2 quel que soit le corps sous-jacent, mais aussi par d’autres structures comme le plan de Moulton. Hilbert identifie que le théorème de Desargues de la géométrie classique se déduit d’autres axiomes mais pas de ceux d’incidence dans le plan, alors qu’il se formule uniquement en termes d’incidence. En l’introduisant comme axiome supplémentaire, il caractérise en fait tous les espaces affines de dimension 2. Et en le remplaçant par le théorème de Pappus, on obtient une caractérisation de tous les espaces affines sur des corps commutatifs.Dans un espace affine de dimension 3, il n'existe que deux positions relatives de deux plans : Cette disjonction est particulière à l’espace tridimensionnel. En dimension plus grande, deux plans peuvent avoir un seul point d’intersection, ou être disjoints sans être parallèles. La direction est facile à comparer à partir des équations cartésiennes : Ces vecteurs sont respectivement des vecteurs normaux aux plans dans une base orthogonale, ou encodent dans la base duale des formes linéaires dont les plans sont des surfaces de niveau.Étant donné un plan de l’espace, une droite de cet espace peut être : L’inclusion dans un espace affine de plus grande dimension ne fournit pas d’autre position relative d’une droite et d’un plan.Le théorème du toit stipule que si une droite d’un plan est parallèle à une droite d’un autre plan sécant au premier, alors ces droites sont parallèles à l’intersection des deux plans. Trois plans sécants deux à deux ont des droites d’intersection qui sont nécessairement toutes parallèles ou concourantes.Dans l’espace tridimensionnel euclidien, le produit scalaire permet de définir l’angle entre deux vecteurs non nuls. Étant donnés deux vecteurs non colinéaires formula_14 d’un plan, le produit vectoriel montre l’existence d’un vecteur formula_15 orthogonal à formula_10 et formula_11 (et donc à tout autre vecteur reliant deux points du plan) qualifié de "vecteur normal" au plan. Ce vecteur est unique à multiplication près par un scalaire. Deux plans sécants délimitent des dièdres dont l’angle varie entre l’angle nul et l’angle plat, et qui correspond à l’angle entre leurs vecteurs normaux. Si ces vecteurs normaux sont eux-mêmes orthogonaux, les plans sont dits perpendiculaires. Ils ne sont pas dits orthogonaux, car il existe des vecteurs non nuls représentés à la fois dans l’un et dans l’autre (par exemple, des vecteurs dirigeant leur intersection dans le cas de deux plans sécants).La distance entre deux plans, ou entre un plan et une droite, est la distance minimale entre un point de l’un et un point de l’autre. Ce minimum vaut 0 si les deux ensembles sont d’intersection non vide, et est atteint le long de segment orthogonaux aux deux ensembles dans le cas contraire.Le plan est le support de représentation visuelle et permet d’apprécier une relation entre deux variables numériques. Si chaque valeur de la première variable ne correspond qu’à une valeur (au plus) de la seconde, la relation est dite "fonctionnelle", et le graphe de la relation est une courbe représentative de la fonction. Lorsque les deux variables sont décrites par un échantillon statistique, la relation est représentée par un nuage de points. Lorsque les deux variables sont elles-mêmes fonctions d’une variable tierce, en particulier d’une variable temporelle, leur relation est illustrée par une trajectoire, éventuellement obtenue par une équation différentielle. En particulier, l’étude des relations entre l’évolution d’une grandeur et sa dérivée temporelle donne lieu à la représentation d’un portrait de phase.Une symétrie (orthogonale) par rapport à un plan est une transformation géométrique qui à tout point du plan associe l’unique point tel que le segment soit orthogonal au plan en son milieu. La composée de deux symétries par rapport à deux plans sécants est une rotation autour de leur droite d’intersection, d’angle le double de l’angle dièdre. La composée de deux symétries par rapport à deux plans parallèles est une translation d’un vecteur normal aux deux plans et de norme le double de la distance entre les plans. Une telle symétrie est caractéristique des espèces animales bilatères.Une projection (affine) sur un plan, parallèlement à une droite sécante au plan, est une transformation géométrique qui associe à tout point l’unique point d’intersection entre le plan et la parallèle à passant par. Si la droite est orthogonale au plan, on parle alors de projection orthogonale. Une telle projection idéalise le phénomène de l’ombre sur un support plan dans le cas d’un éclairage à l’infini (qui est une bonne approximation de l’éclairage du Soleil). La projection affine sur un plan régit aussi la représentation en perspective cavalière. On l’utilise également en plus grande dimension pour visualiser un nuage de données, notamment à l’aide de l’analyse en composantes principales.Une section plane d’une figure de l’espace est simplement l’intersection de cette figure avec un plan. Cette notion permet de visualiser des structures mathématiques ou concrètes comme en architecture, en physique, chimie et biologie, notamment avec l’utilisation de scanner tridimensionnel.Les axiomes d’incidence de Hilbert mettent en évidence différentes caractérisations d’un plan dans un espace affine. Il existe un unique plan : La première caractérisation permet d’obtenir simplement chacune des suivantes, et réciproquement. À partir de trois point, non alignés, on peut définir un repère formula_18. Réciproquement, tout repère peut s’écrire sous cette forme. Étant donné un repère formula_19 du plan, on obtient une représentation paramétrique de la forme formula_20. En dimension 3, si l’on note formula_21, formula_22 et formula_23, on obtient les équations paramétriques formula_24 avec formula_25. Réciproquement, toute représentation paramétrique affine permet de retrouver les coordonnées du point origine (en annulant les paramètres) et des deux vecteurs directeurs (facteurs des paramètres dans chacune des trois équations). Enfin, à partir d’un repère formula_19 du plan dans l’espace et un point générique formula_27, l’appartenance du point au plan est caractérisée par l’annulation du produit mixte de vecteurs formula_28, formula_10, formula_11, lequel mesure le défaut de coplanarité. Ces 4 facteurs notés formula_34 définissent alors l’équation cartésienne formula_6. Réciproquement, à partir d’une équation cartésienne s’écrivant formula_6 avec formula_7 non tous nuls, on peut choisir un point solution évidente (par exemple en choisissant une coordonnée associée à un coefficient non nul, en annulant les deux autres coordonnées, et en résolvant l’équation du premier degré restante), puis on détermine une base formula_38 du sous-espace vectoriel d’équation formula_39 dans formula_4.Les caractérisations suivantes reposent sur les notions de distance et d’angle (en particulier d’orthogonalité) qui viennent de la structure euclidienne de l’espace en géométrie classique. Cette caractérisation d’un plan s’obtient très facilement à partir d’un repère formula_41 du plan, en utilisant le produit vectoriel formula_42. Réciproquement, étant donné un point formula_43 et un vecteur normal formula_44, on trouve facilement une équation cartésienne formula_45. D’autres caractérisations se ramènent au choix d’un point et d’un vecteur normal :Un plan est un sous-espace de dimension 2 d'un espace vectoriel sur un corps commutatif formula_46. On parle aussi dans ce cas d'un plan vectoriel. Un plan est toujours engendré par deux vecteurs formula_47 et formula_48 non colinéaires. De la sorte, formula_49 est un vecteur du plan si et seulement s'il est combinaison linéaire de formula_47 et formula_48, à coefficients dans formula_46. Si formula_53 est de dimension finie formula_54, on peut aussi définir un plan par formula_55 formes linéaires indépendantes s'annulant sur tous les vecteurs du plan. Il est particulièrement intéressant de disposer de cette dernière caractérisation, si on veut, par exemple, déterminer les points d'intersection du plan et d'un autre objet, par exemple une courbe ou une surface.Dans le cas où l'espace formula_53 est de dimension 3, il suffit d'une seule forme linéaire pour définir un plan. Connaissant deux vecteurs formula_47 et formula_48 qui l'engendrent, de coordonnées il est utile de savoir fabriquer une forme linéaire donnant l'équation du plan. Le produit mixte de formula_47, formula_48 et formula_62 est nul si et seulement si formula_62 appartient au plan engendré par formula_47 et formula_48. Ce produit mixte s'écrit On a ainsi obtenu la forme linéaire désirée. Réciproquement, si on possède une forme linéaire formula_67 définissant un plan, on peut trouver aisément deux vecteurs engendrant ce plan à partir de la forme linéaire. Il existe forcément un coefficient non nul parmi formula_68 et formula_69. Disons que ce coefficient est formula_70. On peut alors réécrire l'équation du plan sous la forme Alors en substituant au couple formula_72 les couples indépendants formula_73 et formula_74, on obtient deux vecteurs qui sont forcément indépendants puisque leurs projections respectives sur le plan des formula_76 par rapport à l'axe des formula_77 sont des vecteurs indépendants.Supposons qu'on ait dans un espace de dimension formula_54 deux vecteurs formula_47 et formula_48 indépendants. Comment trouver formula_55 formes linéaires indépendantes donnant les équations du plan? Cela revient à chercher une base de solutions du système linéaire Pour ce faire, on sélectionne deux indices formula_83 et formula_84 tels que les couples formula_85 et formula_86 soient linéairement indépendants. Géométriquement, cela revient à sélectionner un plan de coordonnées tel que les projections respectives de formula_47 et formula_48 sur ce plan, parallèlement au sous-espacesformula_89 soient indépendantes. Un tel plan existe toujours parce que formula_47 et formula_48 sont indépendants. Une fois ceci fait, on réécrit le système précédent sous la forme La solution de ce système linéaire est obtenue par les méthodes classiques. Pour obtenir une base de l'espace des solutions, il suffira de substituer à la suite à formula_55 éléments formula_94 les éléments de la base canonique de l'espace vectoriel formula_95, c'est-à-dire Réciproquement, étant données formula_55 formes linéaires indépendantes formula_98, on trouve deux vecteurs indépendants dans le plan défini comme ensemble des points où s'annulent ces formes linéaires, en trouvant une base de l'ensemble des solutions du système formula_99 En pratique, la meilleure manière de procéder est de mettre la matrice formula_100 du système sous forme échelonnée, moyennant d'éventuelles permutations sur les colonnes. Comme formula_101 est de rang formula_55, cet algorithme fournira formula_55 variables par rapport auxquelles on résoudra, et deux variables indépendantes à mettre dans le second membre. La résolution est alors rapide. Il faut absolument éviter les formules de Cramer pour détecter les indices des variables par rapport auxquelles on résout : il faudrait calculer formula_104 déterminants formula_105, pour un nombre total d'opérations de l'ordre de formula_106, si on calcule les déterminants par algorithme de Gauss-Jordan, alors que le passage sous forme échelon permet de conclure pour un nombre d'opérations de l'ordre de formula_107.
|
En géométrie classique, un plan est une surface plate illimitée, munie de notions d’alignement, d’angle et de distance, et dans laquelle peuvent s’inscrire des points, droites, cercles et autres figures planes usuelles. Il sert ainsi de cadre à la géométrie plane, et en particulier à la trigonométrie lorsqu’il est muni d’une orientation, et permet de représenter l’ensemble des nombres complexes.
|
xwikis
|
Le, Charles IV obtient pour son fils la marche de Brandebourg, assortie du titre de Prince-Électeur. En 1376, les princes-électeurs choisissent son fils comme roi des Romains et futur empereur du Saint-Empire. L'autorité de Charles est donc suffisante pour fonder une dynastie remettant en cause les clauses de la Bulle d'or de Metz de 1356. Le, Venceslas succède à son père. Par héritage, la marche de Brandebourg passe à son frère cadet Sigismond ; son autre frère, Jean, obtient la marche de Lusace ; la Moravie échoit à ses cousins Jobst et Procope. En 1378 débute le grand schisme d'Occident. L'Église traverse alors une crise morale, éthique et financière sans précédent. Cette même année, en Bohême, Jean de Jenstein devient archevêque de Prague. Il entre rapidement en conflit ouvert avec Venceslas sur la question des investitures. En 1393, la nomination de l'abbé du riche monastère de Kladruby exacerbe l'antagonisme car le roi réservait ce bénéfice à l'un de ses protégés. Jean de Nepomuk, fidèle soutien de l'archevêque de Bohême, est exécuté par des hommes d'armes du roi. Sa mort entraîne l'union seigneuriale, une rébellion des nobles tchèques qui dure de 1394 à 1402. Ligués, les nobles bohémiens font emprisonner leur roi en 1394 et nomment son cousin Jobst de Moravie régent du Royaume. Grâce à l'intervention de son frère Sigismond, le souverain est libéré et récupère son trône. En échange, Venceslas reconnaît Sigismond comme son héritier. Mais accaparé par la Bohême, Venceslas délaisse les affaires de l'Empire. Une foule en colère l'invective à la Diète de Nuremberg en 1397, puis à celle de Francfort en 1398. On lui reproche ses excès de boisson, son incompétence et surtout son inertie face au Grand Schisme. Fait rarissime, en les princes-électeurs le déposent au profit de Robert, dont il refuse de reconnaître la légitimité. En 1402-1403, Venceslas est emprisonné à Vienne sur décision de son frère Sigismond, soutenu par la noblesse tchèque. Il est libéré par Johann von Liechtenstein. C'est dans cet environnement politique et religieux particulièrement troublé que Jan Hus étudie, prêche et enseigne.Jan Hus naît entre 1369 et 1373 dans la ville éponyme de Husinec (district de Prachatice), en Bohème méridionale. Il vient au monde dans une famille de paysans pauvres. Il étudie à l'université de Prague, où il obtient la licence en 1393 puis la maîtrise ès arts libéraux en 1396. En 1400, il est nommé professeur. Ordonné prêtre, il commence à prêcher à l'église de Saint-Michel. En 1401, il devient (pour une année) doyen de la faculté de philosophie.En 1402, Jan Hus devient prédicateur à Prague. Influencé par Wyclif, il s'interroge sur les conséquences pratiques de l'obéissance au Christ. À la chapelle de Bethléem, il prononce des sermons contre, où il préconise une réforme de l'Église. Avec d'autres, il prêche le retour à une Église apostolique, spirituelle et pauvre. Il soutient que la réforme de l'Église doit passer par le pouvoir laïc. Ces propos trouvent un écho favorable dans la noblesse, qui y voit l'occasion de s'approprier les biens ecclésiastiques. Des mouvements millénaristes annoncent la venue des faux prophètes et de l'Antéchrist. L'idée d'un avènement des temps derniers se répand. Beaucoup de fidèles désirent renouer avec l'Église originelle. Jan Hus se trouve bientôt à la tête d'un mouvement national de réforme. Il prend publiquement la défense des écrits de Wyclif, condamnés par une bulle pontificale du qui ordonne leur destruction et l'interdiction de prêcher leur doctrine. C'est en vain qu'il fait appel au « pape de Pise », l'antipape Alexandre V.Dans son ouvrage de linguistique "De orthographia bohemica" rédigé entre 1406 et 1412, Jan Hus invente une graphie utilisant des diacritiques pour noter ce que les langues slaves considèrent comme des "consonnes molles". Pour noter les voyelles longues, Jan Hus préconise l'usage de l'accent au lieu d'un redoublement des voyelles. À une époque où papier et parchemin coûtent cher, économiser de l'espace lors de l'écriture constitue une économie précieuse. Ce diacritique, adopté par le croate, le slovaque et le slovène, est parfaitement adapté aux langues slaves. Globalement, il correspond, dans l'alphabet latin, aux modifications apportées au grec par Cyrille et Méthode lorsqu'ils créèrent l'alphabet glagolitique.Prague est alors la capitale du Saint-Empire romain germanique. Son université, d'envergure internationale, est divisée en sections appelées « nations » : bavaroise, tchèque, saxonne et polonaise. Lors des votes du Conseil universitaire sur le choix des programmes et leur financement, chacune dispose d'une voix. En 1407, le pape Grégoire XII ordonne à l’archevêque de Prague d'interdire la diffusion des thèses de l’Anglais John Wyclif. L'université condamne comme hérétiques les théories de Wyclif, introduites en Bohême une vingtaine d'années auparavant. En 1381, l'opinion de Wyclif sur l'eucharistie est débattue par Mikuláš Biskupec. En 1393, l'archevêque de Prague Jean de Jenstein réfute dans ses prêches les idées wycliffiennes sur la nécessaire pauvreté de l'Église. Jan Hus traduit en tchèque le "Trialogus". Il louvoie entre son allégeance à l'Église et son idéal wycliffien. Hus rassemble alors autour de lui un cénacle d'érudits acquis à ses vues : Jérôme de Prague, mais aussi Stanislas de Znoyme, Étienne de Páleč, Christian de Prachatice, Jan de Jecenice et Jacques de Mies dit Jacobellus. Le, ces représentants de la « nation » tchèque de l'université de Prague, dirigée par Jan Hus, rejettent publiquement les articles de Wyclif mais soulignent que, replacés dans leur contexte et correctement interprétés, ils ne sont pas totalement hérétiques. L'archevêque de Prague écrit au pape Grégoire XII qu'. Les autres « nations » se rallient unanimement à Grégoire XII. Pour défendre ses convictions, Jan Hus met à profit l'opposition du roi Venceslas à Grégoire XII. Le, Jan Hus est nommé recteur de l'université de Prague. Il obtient alors que la « nation » tchèque dispose de trois voix lors des votes sur l'administration de l'université, les autres nations ne bénéficiant que d'une seule voix chacune. Cette décision, appelée "décret de Kutná Hora", provoque le départ des enseignants allemands qui, en mai de la même année, contribuent à la fondation de l’université de Leipzig. L'université de Prague perd alors la majorité de ses étudiants. Tout au plus national, son rayonnement décline. Pendant quelques décennies, plus aucun diplôme ne sera délivré. Pour voir l'université renaître de ses cendres, il faudra attendre Sigismond et surtout Rodolphe II, qui rétablira Prague comme capitale.Les détracteurs de Jan Hus ne peuvent l'attaquer sur le terrain du patriotisme. Ils cherchent donc à l’atteindre à travers ses positions religieuses. En dénonçant sa proximité théologique avec Wyclif, ils l’accusent d’hérésie. Excommunié le par Grégoire XII, Jan Hus en appelle au jugement du Christ, instance inconnue du droit canonique. Soutenu par les Praguois, il ne réserve pas ses diatribes aux seules autorités ecclésiastiques. Il entre aussi en conflit avec le roi de Bohême Venceslas IV, qui a autorisé des envoyés du pape à vendre des indulgences pour financer une croisade contre le roi de Naples. Il dresse le peuple contre le roi et l’Église, ce qui le rend "persona non grata" à Prague. En 1412, il doit fuir au château de, dans le Sud de la Bohême. Il y rédige "De Ecclesia" et une "Explication des Saints Évangiles" (1413).Le pape Alexandre V meurt en 1410. L'antipape Jean XXIII lui succède. En 1411, il entreprend une croisade contre le roi Ladislas de Naples, protecteur du « pape de Rome » Grégoire XII (Ladislas a envahi Rome et est l'allié des Colonna). Cette croisade nécessite un financement. La vente d'indulgences permet à la papauté de lever des fonds. Dans son « adresse » "Quæstio magistri Johannis Hus de indulgentiis" Jan Hus s'élève contre ce « trafic ». Le pamphlet déclare qu'aucun évêque, aucun prêtre ni même aucun religieux ne peut prendre l'épée au nom du Christ : ils doivent prier pour les ennemis du Christ et bénir ceux qui les combattent. Le repentir de l'homme passe par l'humilité et non par l'argent, les armes ou le pouvoir. Le, Jan Hus, remarquable orateur, provoque une émeute populaire durement réprimée. Un cortège d’étudiants, conduit par le disciple de Hus Jérôme de Prague, cloue au pilori la bulle pontificale puis la brûle. Trois étudiants, qui ont empêché un prêtre de prêcher l’achat d’indulgences, sont exécutés à la hache. Les docteurs de la Faculté de théologie accusent Jan Hus d'avoir fomenté ces troubles.Début, l'antipape Jean XXIII convoque le concile de Constance. Jan Hus souhaite s'y rendre car il y voit l'occasion de défendre publiquement ses thèses. Sigismond veut donner l’apparence d’un soutien à Jean Hus. Il s'engage à l'accompagner mais se contente de lui délivrer un sauf-conduit dont, peu après, il nie la validité. C'est en grand apparat que les représentants des grandes nations catholiques se réunissent à Constance. Le Concile, convoqué sous la pression de Sigismond, vise à mettre fin au scandale du Grand Schisme d'Occident. Trois « papes » se disputent alors le trône de saint Pierre : Grégoire XII, « pape de Rome » ; Jean XXIII, « pape de Pise » ; Benoît XIII, « pape d'Avignon ». Parti le, Jan Hus arrive à Constance le. Le lendemain, un avis placardé sur les portes des églises annonce que Michal de Nemecky Brod sera l'opposant de Hus « l'hérétique ». Le, Jean XXIII nomme trois évêques pour entamer les investigations contre lui. Tout d'abord libre de ses mouvements, Jean Hus est emprisonné le dans un monastère dominicain : on craint qu'il s'échappe. Le sauf-conduit impérial ne lui procure ni aide, ni sécurité. Sous la pression de Sigismond, le mode de scrutin est modifié : on compte dorénavant une voix non pas par cardinal, ce qui avantageait considérablement l'Italie, mais par nation, ce qui apporte une solution inédite aux problèmes nationaux qui déchirent l'Église. Le, comprenant qu'il a perdu le soutien impérial, Jean XXIII s'enfuit. Le, le Concile adopte le décret "Haec sancta", qui affirme sa supériorité sur le pape. Les questions institutionnelles en passe d'être réglées, le procès de Hus peut reprendre.Au premier rang des censeurs de Jan Hus siègent des théologiens éminents : le cardinal Pierre d'Ailly ; son disciple Jean de Gerson, "doctor christianissimus" et chancelier de l'université de Paris ; les grands inquisiteurs, secondés par les plus brillants canonistes romains. Pendant plusieurs semaines, Jan Hus subit d'incessants interrogatoires "ex cathedra". De sa cellule, il entretient une vaste correspondance avec ses amis de Prague. Le, ses écrits sont condamnés comme hérétiques. Le Concile, qui préfère l'emprisonner à vie plutôt que de l'exécuter vu le risque de troubles politiques, lui demande de renier 30 points de ses écrits et tente de lui faire accepter une version simplifiée de ses thèses. Malgré la pression de ses amis, Jean Hus refuse de se soumettre et déclare : « Ces évêques m'exhortent à me rétracter et à abjurer. Mais moi, je crains de le faire pour ne pas être trouvé menteur devant le Seigneur et aussi pour n'offenser ni ma conscience, ni la vérité de Dieu ».Le lundi, un jugement condamne solennellement Jan Hus comme hérétique. Le même jour, dépouillé de ses habits sacerdotaux, il est réduit à l'état laïc puis « livré au bras séculier », c'est-à-dire au pouvoir temporel qui le condamne à être brûlé vif. Avant de mourir, il aurait prophétisé en ces termes la venue de Luther :. On le coiffe d'une mitre de carton peinte de diables où est inscrit "Hérésiarque". Au milieu d'une foule en colère, une escorte armée le conduit au lieu du supplice, un terrain sis hors la ville réservé à l'ensevelissement des chevaux. Selon la tradition, le bourreau lui arrache ses vêtements, le lie au poteau puis l'entoure de paille humide et de fagots. Le feu prenant difficilement, une femme âgée (ou un paysan, selon Luther) serait venue déposer un fagot de branchages dans le bûcher. La voyant, Jan Hus se serait écrié : ( ou, en tchèque, ). Ces mots innocentent celui qui est manipulé, mais raillent aussi sa crédulité. Son disciple Jérôme de Prague, brûlé au même endroit plus tard, pourrait aussi en être l'auteur. Ils sont l'écho des paroles du Christ (). Pour d'autres, ses dernières paroles auraient été, elles aussi inspirées de la premières des sept paroles de Jésus en croix (, rapportée dans ). Les restes du martyr sont jetés dans le Rhin afin de prévenir tout culte de ses reliques.Dès, la diète des seigneurs de Bohême envoie au Concile une protestation indignée. Déjà, le peuple vénère Jan Hus comme un martyr et un saint. La « foi nouvelle » et le sentiment de nationalisme tchèque se confondent dans l’emblème du calice (symbole de la communion sous deux espèces, "sub utraque specie"), derrière lequel les Tchèques résistent à la papauté romaine et à l’empereur germanique. Après l’exécution de Jan Hus, les pères conciliaires envisagent pour les Tchèques « rebelles » le même sort que pour les albigeois, c'est-à-dire l’extermination. La noblesse et le peuple tchèques se rebellent. Après la mort de son frère Venceslas, Sigismond doit prendre position. Les "quatre articles de Prague", principe d’une vraie réforme restaurant le christianisme primitif, deviennent prétexte à des abus et donnent lieu à des affrontements à l’intérieur du camp hussite. Ces quatre articles sont la communion sous les deux espèces, qui autorise les communiants à boire le vin au calice (privilège jusque-là réservé aux seuls membres du clergé) ; la pauvreté des ecclésiastiques ; la punition des péchés mortels sans distinction du rang ou de la naissance du pécheur ; la liberté du prêche. Les croisades contre les hussites commencent. Un peuple révolté s'organise militairement pour tenir tête, vingt-cinq ans durant, aux armées européennes coalisées, avec pour principaux épisodes : Les chefs élus (Jan Žižka puis, à sa mort, le prêtre Procope Le Chauve) livrent de grandes batailles en Allemagne, Autriche et en Hongrie. Ils écrasent les croisés à Tachov en 1427 et à Domažlice en 1431. La supériorité militaire d'une armée de volontaires et les défaites successives des croisés contraignent l’Église à composer avec « l’hérésie » hussite. De 1431 à 1441, le concile de Bâle accepte d'aménager la doctrine officielle de l’Église face aux "quatre articles de Prague". Ce qui a été refusé à Jan Hus est donc accordé à Procope : s’exprimer librement en langue tchèque et pratiquer la communion sous les deux espèces. L’évêque de Tábor expose les "quatre articles" et rappelle qu’aucune autorité religieuse n’a le droit d’ôter la vie, "a fortiori" à des chrétiens. Mais les pourparlers traînent en longueur et les combats reprennent. En mai 1434, Procope est vaincu à la bataille de Lipany, qui marque la défaite des taborites et ouvre la voie du trône à un hussite modéré, Georges de Poděbrady. À l’issue de ces combats, l’Église accorde quelques concessions supplémentaires aux hussites tchèques (accord Jihlava de 1436).Les guerres hussites attisent les déchirements religieux et sociaux de l’Europe centrale. L’Église romaine unifiée et l’Église nouvelle issue des doctrines hussites (Église calixtine), dirigée par des laïcs qui nomment les prêtres et les rétribuent, sont contraintes de coexister. Plus tard, pour demeurer fidèle aux principes de Jan Hus, « l’Unité des frères » se séparera de l’Utraquisme qu’elle juge trop modéré. En Hongrie, deux prédicateurs hussites, Barnabas et Lőrinc Mészáros, dénoncent les nobles et l’Église catholique à laquelle ils reprochent sa corruption, ses richesses (elle possède 12 % du territoire et collecte violemment la dîme), suscitant en 1514 la révolte de György et Gergely Dózsa qui tourne à la guerre civile avant d’être réprimée dans le sang par Jean Zápolya, voïvode de Transylvanie.Le monument à la mémoire de Martin Luther représente Jan Hus en soutien de Luther. La réforme luthérienne trouvera un terrain favorable chez les Tchèques, dont près des deux tiers reconnaissent la confession de 1575 inspirée de celle d'Augsbourg. Le nom de Jan Hus est gravé sur le monument international de la Réformation. En, la répression qui suit le désastre de la Montagne-Blanche, où les Tchèques sont écrasés par les troupes de Ferdinand II du Saint-Empire, anéantit définitivement le courant hussite. Ses disciples le considèrent comme un patriote et un martyr de la nation tchèque et de la foi chrétienne. Sa mort déclenche une révolution religieuse, politique et sociale qui secouera la Bohême et la Moravie pendant plusieurs décennies. Au-delà de la question religieuse, le mouvement hussite entraîne des « effets secondaires » à caractère politique (prise de conscience de l'identité nationale tchèque et volonté de libération de l'emprise allemande) qui se manifesteront, des siècles plus tard, lors de la dislocation de l'Empire austro-hongrois. Le professeur Tomáš Garrigue Masaryk a utilisé le nom de Hus dans son discours à l’Université de Genève le 6 juillet 1915, pour la défense contre l’Autriche et en juillet 1917 pour le titre du premier corps de troupes ses légions en Russie. L'« association Jan Hus », fondée en France en 1981 par les enseignants français Alan Montefiore et Catherine Audard, qui souhaitent venir en aide à leurs collègues tchécoslovaques opposés au processus de « Normalisation du régime communiste » (à l'instar de la Charte 77), est une branche de la. Elle a organisé des voyages d'intellectuels français (Paul Ricœur, Jacques Derrida et Jean-Pierre Vernant) en Tchécoslovaquie pour débattre et enseigner dans des séminaires clandestins.Jan Hus apparaît comme un précurseur de Martin Luther, qui reprendra nombre de ses thèses. Selon Amedeo Molnár, d’« une certaine manière on peut estimer que Jan Hus n’était pas un préréformateur, mais que Luther était un posthussite ».
|
Jan Hus ou Jean Huss, né en 1372 à Husinec (dans le sud de la Bohême) et mort supplicié en 1415 à Constance, est un théologien, universitaire et réformateur religieux tchèque des.
|
xwikis
|
L'éponyme de la constante est le physicien autrichien Ludwig Boltzmann (-). La constante est ainsi désignée à la suite du physicien allemand Max Planck (-) qui l'a introduite en.Lors de sa, le, la Conférence générale des poids et mesures (CGPM) a décidé qu'à compter du, le Système international d'unités, le SI, est le système d'unités selon lequel la constante de Boltzmann, "k", est égale à 1,380 649 ×10 J/K (valeur exacte). Dans les unités SI, le Comité de données pour la science et la technologie (CODATA) recommandait en 2014 la valeur suivante : Avec une incertitude standard de : Soit une incertitude relative de : formula_14Avec une incertitude standard de :Avec une incertitude standard de :La température thermodynamique (unité le kelvin) fait partie des sept unités de base du Système international d'unités (SI). Dans le cadre de la révision du Système international d'unités (SI) en vigueur depuis le 20 mai 2019, la valeur numérique de cette constante fondamentale formula_19 est fixée par le Comité de données pour la science et la technologie (CODATA). La mesure de formula_8 procédait jusque-là de la mesure de formula_4 et de celle de formula_22. La mesure de formula_22 a suivi deux voies : Néanmoins à terme, il était possible que le nombre d'Avogadro soit défini "a priori" (ce qui compte, c'est le rapport des masses des atomes. Or les atomes piégeables dans les "Penning traps" donnent leur masse à 10 près). C'est finalement le choix qui a été retenu, ce qui revient également à fixer formula_4.La dernière mesure de formula_4 (constante des gaz parfaits) est assez ancienne : elle date de 1988 au National Institute of Standards and Technology (NIST). On cherche donc à l'améliorer. On peut comme en astronomie, définir la température de couleur, mais là c'est l'étalonnage du filtre de bande passante qui est limitant :. Mais se posent encore des problèmes non résolus : le tirage par échantillons n'est pas vraiment homogène (erreurs systématiques) : il convient donc de repérer les défauts d'exactitude : alignement optique, rétroaction cuve-banc d'optique, modulation de l'intensité du laser (en fréquence et en puissance) et de sa chaîne de balayage. L'avantage de cette méthode est de pouvoir changer de nombreux paramètres (afin de tester expérimentalement l'exactitude), en particulier changer de gaz, ou, etc. On pourra alors balayer un intervalle de température assez élevé, ce qui améliorera considérablement l'EIT 90 (Échelle internationale de température 1990). Il est possible qu'à terme, on s'aperçoive que d'autres transitions de phase soient meilleures, puis si on prend l'habitude de mesurer les températures en hertz, c'est-à-dire en joules, "via" la donnée imposée de la constante de Planck, (soit en eV, si on a la charge de l'électron avec assez de précision), alors on aura réalisé un thermomètre gradué directement en Hz et eV : la boucle se refermera car beaucoup de physiciens des basses températures utilisent déjà cette "unité". Or formula_8 n'est jamais que le "facteur de conversion" J/K. Ce type de situation a déjà été vécu : il fut un temps où l'unité de chaleur était la calorie et l'unité de travail le joule et la calorie par joule s'appelait J et était tabulée par CODATA : J ~. Ensuite on a décidé de prendre la même unité pour la chaleur et le travail, compte tenu du premier principe de la thermodynamique et de l'expérience de Joule (1845). Alors la constante de Boltzmann se « fossilisera ». L'entropie se mesurera en bits ou en octets et sera ce qu'elle est réellement : une grandeur sans dimension (mais avec des unités puisqu'il s'agit de z → Ln z : unités le néper et le radian).
|
La constante de Boltzmann "k" (ou "k") a été introduite par Ludwig Boltzmann dans sa définition de l'entropie de 1877. Le système étant à l'équilibre macroscopique, mais libre d'évoluer à l'échelle microscopique entre formula_1 micro-états différents, son entropie S est donnée par :
|
xwikis
|
. On définit ainsi le segment de droite limité par ces deux points. Ensuite on dit que trois points sont alignés si et seulement si l'un de ces trois points appartient au segment déterminé par les deux autres. Et enfin on appelle droite définie par deux points A et B l'ensemble des points alignés avec A et B, y compris ces points A et B. Cette définition simple suffit à certaines applications concrètes. Elle permet par exemple au jardinier de tracer ses lignes de semis : en tendant une corde entre deux piquets, il matérialise une ligne « tirée au cordeau ». Une autre image habituelle est celle du fil à plomb. C'est-à-dire, dans les deux cas, un fil tendu dont on néglige l'épaisseur. Différentes limitations de cette définition ont conduit les mathématiciens à lui en préférer d'autres. Par exemple, si on assimile la Terre à une sphère, le chemin le plus court entre deux points n'est plus une ligne droite, mais un arc de cercle. Cependant, à l'échelle d'un être humain, ce cercle est si grand qu'une ligne droite en est une bonne approximation. La notion de « chemin le plus court » est étudiée sous le nom de géodésique.Dans ses "Éléments", Euclide définit les objets relevant de la géométrie dite euclidienne (point, droite, plan, angle) et leur affecte un certain nombre de postulats. À l'aide de ces éléments de base, il construit, par des démonstrations rigoureuses, l'ensemble des autres propriétés. Pour Euclide : Il part d'une droite finie qu'il définit comme un segment. Il a besoin d'un postulat pour la "prolonger au-delà de ses extrémités", d'un autre pour en prouver l'existence ("par deux points distincts passe une droite") et d'un autre appelé le cinquième postulat d'Euclide pour traiter des positions relatives des droites ("si deux lignes sont sécantes avec une troisième de telle façon que la somme des angles intérieurs d'un côté est strictement inférieure à deux angles droits, alors ces deux lignes sont forcément sécantes de ce côté").L'approche d'Euclide est féconde, elle permet de démontrer de nombreux théorèmes considérés comme élémentaires au regard des mathématiques au sens moderne du terme. On peut citer le théorème de Thalès, le théorème de Pythagore ou encore le problème de Napoléon.La définition axiomatique d'Euclide apparaît trop pauvre pour résoudre plusieurs familles de problèmes. On peut citer historiquement ceux associés à la construction à la règle et au compas, par exemple la trisection de l'angle, la duplication du cube ou encore la construction d'un polygone régulier. Une approche algébrique est utilisée pour pallier cette faiblesse. À l'aide de la notion de polynôme cyclotomique, Gauss réalise une percée majeure dans ce domaine en 1801 qu'il publie dans son livre "Disquisitiones arithmeticae". Les progrès de la physique engendrent une nouvelle branche des mathématiques, initialement appelée calcul infinitésimal et maintenant calcul différentiel. Elle obtient comme premier succès la compréhension de la mécanique céleste. Une fois encore, la modélisation d'Euclide est insuffisante pour formaliser convenablement ce domaine. Une nouvelle construction est alors proposée, elle se fonde sur des structures algébriques. Les groupes abéliens et les corps commutatifs sont utilisés pour définir un espace vectoriel puis un espace affine.En géométrie vectorielle, une droite vectorielle est un espace vectoriel de dimension 1. Si "v" est un vecteur non nul, la droite vectorielle engendrée par formula_1 est l'ensemble des vecteurs formula_2 pour lesquels il existe un scalaire "k" (un réel pour un espace vectoriel sur R) "k" tel que On dit alors que les vecteurs formula_1 et formula_2 sont colinéaires.En géométrie affine, une droite est un espace affine de dimension 1, c'est-à-dire dont l'espace vectoriel associé est une droite vectorielle. Si A est un point et formula_1 un vecteur non nul, la droite affine passant par A et de vecteur directeur formula_1 est l'ensemble des points M pour lesquels il existe un scalaire "k" tel que Si A et B sont deux points distincts, la droite (AB), passant par A et B, est l'ensemble des barycentres des points A et B.La notion de droite est alors largement généralisée. En algèbre linéaire, l'espace vectoriel est un ensemble qui n'a plus nécessairement de lien avec la géométrie. L'espace vectoriel peut être une extension de corps comme dans le cadre de la théorie de Galois, l'ensemble des nombres rationnels dans le corps des réels possède les propriétés géométriques d'une droite. Par ailleurs, on peut étendre la notion aux ensembles finis, comme pour les codes linéaires utilisés dans la théorie de l'information, ou en arithmétique. Une droite est alors elle aussi un ensemble fini de points. En analyse, et particulièrement en analyse fonctionnelle une droite est un ensemble de fonctions. Par exemple les primitives d'une fonction continue réelle de la variable réelle forment une droite.L'approche algébrique permet d'enrichir très largement la géométrie et offre des réponses satisfaisantes à bon nombre de problèmes. En revanche une vieille conjecture reste ouverte : comment démontrer le cinquième postulat d'Euclide. Proclos l'exprime de la manière suivante : "dans un plan, par un point distinct d'une droite d, il existe une unique droite parallèle à d". Déjà, les grecs savaient qu'une sphère semble pouvoir définir une géométrie, les droites seraient alors les grands cercles de la sphère. En revanche, la connexion entre une sphère et la définition d'une géométrie reste à cette époque hors de portée.David Hilbert apporte un élément de réponse. La construction d'Euclide n'est pas entièrement rigoureuse : il manque en effet quinze axiomes pour bâtir les fondements d'un système logique à même de supporter la géométrie euclidienne. Une telle formalisation existe, on parle par exemple d'axiomes de Hilbert. La réponse à la question que pose le cinquième postulat est donc de l'ordre de la logique. La base axiomatique d'Euclide constituée des quatre premiers postulats est trop faible pour garantir le cinquième. Si l'approche de Hilbert permet de résoudre cette question, elle est peu opérationnelle pour bâtir la théorie de la géométrie euclidienne. On utilise en général la Peano pour construire l'ensemble des entiers naturels puis les différentes structures algébriques utilisées. L'intérêt des travaux de Hilbert sur cette question est donc surtout de l'ordre de la logique et peu géométrique.Bien avant de comprendre la dimension logique de la problématique, dans le courant du sont nées d'autres géométries dans lesquelles la droite n'avait plus les mêmes propriétés que dans la géométrie euclidienne : les géométries non euclidiennes. En géométrie projective, des droites parallèles se coupent en un point impropre et par deux points ne passe qu'une seule droite. En géométrie hyperbolique, par un point donné, non situé sur une droite donnée, il passe au moins deux droites qui ne coupent pas la droite donnée. En géométrie elliptique, deux droites sont toujours sécantes. Un exemple classique de géométrie elliptique est la géométrie sur une sphère où le plus court chemin pour aller d'un point à un autre est une partie d'un grand cercle. Une droite est alors définie comme un grand cercle. Deux "droites" distinctes se coupent alors en deux points diamétralement opposés qui n'en forment qu'un pour cette géométrie. On retrouve la propriété : par deux "points" distincts passe une seule "droite". De plus on peut aussi définir une droite comme un cercle de rayon infini. Cette définition est incompatible avec celle issue de l'algèbre linéaire. Dans ce contexte, on parle en général de géodésique pour éviter une confusion.Si l'espace vectoriel est muni d'une base, ou l'espace affine d'un repère, la droite peut être caractérisée par des équations.Une droite affine est l'ensemble des points M de coordonnées ("x" ; "y") tels que formula_9, où formula_10. Un vecteur directeur de la droite est le vecteur de coordonnées formula_11. L'équation précédente est appelée équation cartésienne de la droite. Dans cette famille de droites, on rencontre La lettre "m" représente la pente de la droite.En dimension "n", la droite passant par formula_15 et de vecteur formula_16 est l'ensemble des points formula_17 pour lesquels il existe un scalaire "k" tel que Ce système d'équations s'appelle un système d'équations paramétrées de la droite. Cas particulier de l'espace (dimension 3), en :
|
En géométrie, la droite désigne un objet géométrique formé de points alignés. Elle est illimitée des deux côtés, et sans épaisseur. Dans la pratique, elle est représentée sur une feuille par une ligne droite ayant bien entendu des limites — celles de la feuille — et une épaisseur —celle du crayon.
|
xwikis
|
Dans les unités SI, le BIPM indique en 2015 la valeur suivante : c'est-à-dire avec une incertitude standard de, soit une incertitude relative de. Cette incertitude est relativement élevée. Dans le domaine de la détermination des constantes, le défi de déterminer le nombre d'Avogadro avec plus de précision (la mole étant définie à partir du carbone 12) a longtemps été l'un des plus importants. Lors de sa, le 16 novembre 2018, la Conférence générale des poids et mesures (CGPM) a décidé qu'à compter du 20 mai 2019, la constante d'Avogadro serait égale à exactement : ce qui constituera désormais la définition de la mole.La masse de l'atome est pratiquement égale à celle du noyau, pour deux raisons : On obtient par conséquent une mesure assez précise de la masse de l'atome en multipliant son nombre de nucléons (appelé nombre de masse et noté "A") par la masse d'un nucléon, environ. Un gramme de matière contient donc environ six cent mille milliards de milliards de nucléons ( ) ; ce nombre est proche du nombre d'Avogadro, noté "N". Ainsi, la masse de "N" molécules est proche de "A" grammes où "A" est le nombre de nucléons de la molécule. Par exemple, la molécule d'eau (constituée de deux atomes d'hydrogène H et d'un atome d'oxygène O) comporte ( pour chaque H et pour l'O, en négligeant les isotopes), donc d'eau contiennent six cent mille milliards de milliards de molécules. L'isotope du fer, le comporte et, donc de contiennent environ six cent mille milliards de milliards d'atomes. En réalité, les différents isotopes naturels des éléments (qui diffèrent par leur nombre de neutrons, le nombre de protons étant caractéristique d'un élément) font que la masse de "N" atomes d'un élément X peut être assez différente : par exemple une mole de fer a une masse moyenne d'environ, et non.Le tableau de Mendeleïev décrit les éléments et leurs masses relatives respectives. L'intérêt de mesurer le nombre d'Avogadro est d'établir le facteur d'échelle entre le monde microscopique des atomes et le monde macroscopique de la matière à notre échelle. Le choix de tel ou tel élément comme référence pour sa définition n'a pas d'intérêt intrinsèque, c'est une convention directement liée aux plus ou moins grandes difficultés métrologiques. D'ailleurs il a changé, "N" étant d'abord défini à partir de l'hydrogène, puis de l'oxygène 16, et enfin du carbone 12. Le choix le plus naturel aurait sans doute été celui du proton (dont une mole aurait eu la masse d'un gramme), mais à l'époque on ne savait pas que l'atome était sécable. Le silicium a aussi été envisagé comme étalon, il aurait permis de créer une sphère d'une grande pureté. Mais la question est devenue obsolète avec la redéfinition du système d'unités qui est entrée en vigueur à la mi-2019.La difficulté de diffusion des hypothèses d'Avogadro est due à la philosophie scientifique de l'époque : elle interdisait les « hypothèses » non démontrées, ou non démontrables. Il valait mieux faire une théorie qui s'en passât. Elle est aussi due à l'incompréhension de la liaison covalente, qui n'a été réellement comprise par Heitler et London qu'en 1927, grâce à la mécanique quantique (1926). La théorie ionique de Berzelius ne permettait pas l'existence du dihydrogène ou du dioxygène. De ce fait, le langage hésite : avant de comprendre qu'une molécule est composée d'atomes, et pourquoi plutôt que, et pourquoi plutôt que, il faut du temps pour amasser suffisamment de données compatibles, et écarter les « inclassables » (par exemple, les berthollides). Au début du, Avogadro énonça sa loi, dite aussi "loi des gaz parfaits" (1811). Ampère l'encouragea en 1814, mais il se rétracta devant une levée de boucliers. La réaction des anti-atomistes (on disait les équivalentistes), d'inspiration positiviste, se durcit encore avec Dumas en 1836, puis Berthelot et Le Chatelier. Le Congrès de Karlsruhe de 1860 permit aux deux communautés d'enterrer la hache de guerre. Mais les jeunes chimistes en revinrent convertis à la théorie atomique par le rapport de Cannizzaro. Il est alors admis que dans un gaz dit parfait, le volume "V" occupé par "N" particules, sous la pression "P" et la température "T" est le même quel que soit le gaz, ceci étant en fait une définition d'un gaz parfait, théorique. Il restait à mesurer ce nombre "N", ce qui n'était plus qu'une question de métrologie.Le premier texte important de théorie cinétique des gaz est celui, au, de Daniel Bernoulli qui calcula correctement la pression cinétique (1738, "Hydrodynamica"). Mais ce document passa inaperçu. Lorsque Loschmidt trouva la première valeur en ordre de grandeur : 10, cela donnait aux atomes une taille de. Et il fallut toute l'autorité de Maxwell pour que ces résultats fussent considérés comme crédibles. La théorie cinétique des gaz avait acquis « ses lettres de noblesse » (1870).L'existence même des atomes reste contestée jusqu'au début du. Jean Perrin publie en 1913 une synthèse sur le sujet dans laquelle il liste treize protocoles expérimentaux visant à mesurer le nombre d'Avogadro sous l'hypothèse de l'existence des atomes. Dix donnent un résultat compris entre et :Il existe au fond deux problèmes distincts : Gassendi rénove la théorie atomique (1638) ; le premier théorème de théorie cinétique des gaz date de Bernoulli en 1738. Mais il sera oublié jusqu'à Clausius, vers 1855. La raison en est qu'il faut que la chimie se dépêtre de l'alchimie grâce à la balance.Il fallut extraire les corps purs des mélanges (piège des eutectiques et des azéotropes, piège des cristaux isomorphes) : après Wenzel (1782), Richter (1795), la querelle Berthollet-Proust (1799-1806), il fut admis qu'un corps pur est composé des mêmes corps simples dans les mêmes proportions "discontinues" et définies : eau et eau oxygénée sont deux corps purs différents. John Dalton (1808) propose la classification en corps binaire (A+B→AB), ternaire (A+2B→AB2), indiquant clairement sa vision atomique des molécules, et donne les masses relatives des « équivalents ». Berzelius proposera de nommer chaque élément par un symbole. Gay-Lussac établit pour les composés gazeux les lois des volumes en proportions définies (1809). Voir aussi Loi des proportions définies. La difficulté était celle-ci : en eudiométrie, la décomposition de l'eau donne de dihydrogène et de dioxygène. La recomposition de l'eau fait que ces volumes ne redonnent que de vapeur d'eau. Le pas immense que franchit Avogadro est d'admettre l'existence du dihydrogène et du dioxygène, qui devaient se décomposer pour donner deux molécules d'eau ; ce qui permettait de résoudre les conflits entre Dalton et Gay-Lussac. Mais ces « décomposition » et recombinaison étaient en tout état de cause fort problématiques. Il est peu écouté : la théorie de Berzelius ne permet pas de rendre compte de l'existence de la « molécule ». Néanmoins Berzelius perfectionne la notion de masse relative des éléments (la loi de Dulong et Petit joue alors un rôle important (1819) ; la (1819-1823) aussi). Dumas, en 1826, est adepte convaincu du système atomique de Dalton, et permet par sa fameuse loi () de déterminer moult masses molaires. Mais convaincu par la philosophie positiviste, il rejette l'atomisme en 1836 : ses vapeurs de phosphore blanc, et d'hexasoufre, puis "graduellement" de disoufre l'ont, à l'évidence, contrarié. Gmelin, anti-atomiste convaincu, ne fait toujours pas la différence entre atome et molécule et donne la "Table des Equivalents" (1830). Faraday publie ses équivalents électrochimiques ioniques dans les lois de l'électrolyse (1833). Conclusion : faute de comprendre, et, la théorie atomique achoppe, malgré Gaudin (1833), qui, sans succès, reprend Avogadro, et définit le dihydrogène, le tétraphosphore... et distingue parfaitement entre "molécule", faite "d'atomes" éléments. La "chimie organique" (Wöhler, synthèse de l'urée (1828)) et son omniprésente covalence, fait oublier Berzelius ; et Gerhardt (1843), puis Laurent (1846) redécouvrent ce qu'avait dit Gaudin. La thermochimie naissante des confirme : il faut briser et pour donner. Restaient les étranges variations « graduelles ». Cannizzaro sauve la théorie atomique : il y a dissociation progressive. Sainte-Claire Deville confirme. On est en 1856. Le congrès de Karlsruhe de 1860 enterre la hache de guerre entre équivalentistes et atomistes ; mais clairement les atomistes seront avantagés dans leur compréhension de la chimie.La théorie du calorique de Black vient perturber la physique du. En Angleterre, Joule (1848) redécouvre les travaux de Bernoulli. Krönig (1856) améliore ; Clausius (1857) trouve l'expression de la vitesse quadratique moyenne des atomes : et il retrouve l'explication d'Avogadro, de Gaudin et autres : l'« hydrogène » est du dihydrogène. La vitesse moyenne était très élevée ; mais Clausius invente la notion géométrique capitale de libre parcours moyen : La théorie cinétique des gaz est née ; l'ordre de grandeur du coefficient de diffusion sera : formula_7 en, comme la viscosité cinématique. Loschmidt en tirera (1865) la valeur de la taille des atomes et le nombre d'Avogadro. William Thomson (Lord Kelvin) essaiera de leur donner une structure de nœuds, mais ce sera en 1926, l'équation de Schrödinger, puis les équations de Hartree-Fock qui donneront la solution actuelle.
|
En chimie et en physique, le nombre d'Avogadro, (ou mieux la constante d'Avogadro, car elle a une dimension), nommé en l'honneur du physicien et chimiste Amedeo Avogadro, noté, est défini comme le nombre d'entités élémentaires (atomes, molécules, ou ions en général) qui se trouvent dans une mole de matière.
|
xwikis
|
La quantité de matière exprimée en moles se définit comme suit : La quantité de matière est une grandeur extensive, c'est-à-dire que la quantité de matière d'un système est la somme des quantités de matière sur toutes ses parties. Fondamentalement, donc, la quantité de matière ne fait que refléter le comptage d'unités de même espèce. L'unité naturelle de la quantité de matière est donc théoriquement l'« unité », qui est le nombre élémentaire (et minimal) ; un nombre d'entités "de même espèce" (molécules, ions, atomes, électrons, etc.) devant nécessairement se traduire par un nombre entier. La division par la constante d'Avogadro ne change pas fondamentalement la situation : on pourrait tout autant considérer que la constante d'Avogadro est un des préfixes du Système international d'unités, un peu particulier en ce qu'il ne vaut pas une puissance de dix, mais ~0.6 yotta, et que la mole est une unité atypique du système imposant un facteur de conversion lorsque l'on compte ce qui se révèle être des entités de même espèce au niveau atomique. La quantité de matière est cependant plus qu'un simple nombre, et la mole plus qu'un simple facteur de conversion, pour deux raisons. Une raison pratique, tout d'abord : pendant longtemps, le "nombre de moles" d'une espèce chimique a pu être manipulé par les chimistes sans que le nombre d'Avogadro ne soit connu, et la nécessité demandait de poser une constante arbitraire de conversion. Plus fondamentalement, cette notion traduit un changement radical d'échelle : la quantité de matière est ce qui permet de faire le lien entre le niveau microscopique (l'entité comptée) et le niveau macroscopique (quantité de substance couramment manipulée en chimie, formée d'un nombre gigantesque d'entités) ; et qualitativement, le comportement d'ensemble d'une substance ne se réduit pas à la superposition des comportements individuels de ses particules constituantes. Ce très grand nombre est la première étape des trois sauts d'échelle entre l'infiniment grand et l'infiniment petit :Une mole d'atomes de carbone 12 et trois moles d'atomes d'hélium 4 contiennent le même nombre de protons, de neutrons et d'électrons, soit 6 moles de protons, 6 moles de neutrons et 6 moles d'électrons. Or, il se trouve que la masse d'une mole de carbone 12 vaut "environ" (selon la définition de la mole valable de 1971 à 2019), alors que la masse de trois moles d'hélium 4 vaut 3 x 4,0026 =. Cela revient à dire qu'à l'échelle atomique, un atome de carbone 12 a une masse légèrement inférieure à celle de trois atomes d'Hélium 4, bien que l'on ait affaire dans un cas comme dans l'autre à 6 protons, 6 neutrons et 6 électrons. Puisque des quantités parfaitement identiques de protons, de neutrons et d'électrons peuvent avoir des masses différentes selon le type d'atome auquel ils appartiennent, il s'ensuit qu'on ne peut pas assimiler tout simplement la masse à la quantité de matière. Dans cet exemple, la différence de masse observée s'explique par la différence entre les énergies de liaison nucléaire de l'hélium et du carbone : si la masse est comprise comme une forme de l'énergie contenue dans la matière, on conçoit que des liaisons atomiques différentes utilisent des quantités différentes d'énergie et en laissent plus ou moins sous la forme de masse. Que la masse soit considérée comme une forme de l'énergie contenue dans la matière vient de la fameuse formule formula_7.La principale manifestation de la quantité de matière est la masse, par laquelle on la mesure. Le lien entre quantité de matière et masse est le coefficient dénommé masse molaire, qui dépend de l'espèce chimique considérée. La masse, en tant que quantité de matière, est très fortement liée à l'un des aspects essentiels de la masse, celui de masse pesante, directement observée à travers une pesée. Par opposition à la masse inerte, qui traduit la résistance de la matière au déplacement dans un contexte dynamique, la masse pesante reflète essentiellement une qualité extensive statique de la matière. Dans les systèmes physiques où il faut distinguer conceptuellement entre les grandeurs physiques de masse inerte et masse pesante, on peut dire schématiquement que si, dans la description du système, une grandeur physique ayant une dimension en masse peut être remplacée par une grandeur physique ayant le même comportement, mais où la masse est remplacée par la quantité de matière, alors la masse dont il s'agit est la masse pesante.L'autre principale manifestation de la quantité de matière est l'énergie chimique contenue dans cette quantité de matière, qui se traduit par le potentiel chimique ou par des notions dérivées. Elle est définie à une constante additive près ; il s'agit en effet plus précisément de la différence d'énergie susceptible d'être transférée par la variation d'une certaine quantité de matière d'un état chimique à un autre ou d'une phase à une autre, suivant des modalités données. La quantité de matière ne se manifeste alors plus comme le poids de substance impliqué, mais comme la quantité de changement que cette substance est capable d'apporter au système. Exprimer ces potentiels énergétiques par rapport à la quantité de matière, et non par exemple par rapport à une pesée, rappelle que l'entité agissante est une espèce chimique et non une masse indifférenciée.Les entités de même espèce sont généralement des molécules chimiques, mais peuvent également être des ions, ou par extension des électrons. La constante de Faraday traduit ce que représente une quantité de matière chargée en termes de charge électrique.La quantité de matière dénombrant des entités "rationnelles" chimiques ou physiques, elle peut être reliée à d'autres grandeurs en fonction de la nature ou des propriétés de ces entités.avec : Cette relation permet de prélever un nombre voulu de moles d'une substance sous forme solide, souvent en poudre.avec : Cette formule est utile pour prélever une quantité choisie de matière d'un liquide, connaissant par exemple sa densité que l'on peut relier à la masse volumique.avec : Ceci est applicable aussi bien pour les gaz que pour les liquides et les solides. Le volume molaire dépend des conditions de température et de pression.avec : Cette formule s'applique aux gaz et n'est à priori valable que dans le cadre du modèle de gaz parfait, qui reste néanmoins une bonne approximation dans de nombreux cas.avec : Ceci est utilisé par exemple pour déterminer le volume d'une solution de concentration donnée pour procéder à une dilution. La concentration molaire s'exprime en fonction de la quantité de matière et du volume.
|
En chimie ou en physique, Il s'agit d'une grandeur physique dont l'unité correspondante dans le Système international d'unités (SI) est la mole. La quantité de matière unitaire est donc « une mole » de la matière considérée, quelle que soit cette matière.
|
xwikis
|
Les parents de Bolzano étaient de pieux catholiques. Son père, Bernard Pompeius Bolzano, est né dans le nord de l'Italie et s'est installé a Prague où il a épousé Maria Cecilia Maurer, la fille d'un marchand praguois de langue allemande. Seuls deux de leurs douze enfants survécurent jusqu'à l'âge adulte. Bernard Bolzano entre à l'université de Prague en 1796 et étudie les mathématiques, la philosophie et la physique. En 1800, il décide de devenir prêtre, contre l'avis de son père. Il le devient en 1804. Il enseigne alors les sciences de la religion à Prague et consacre le reste de son temps aux mathématiques. Ses travaux portèrent essentiellement sur les fonctions, la logique et la théorie des nombres. Il est considéré comme l'un des principaux contributeurs à la logique telle qu'elle est aujourd'hui établie. Alors professeur, Bolzano encourage les valeurs de liberté et d'égalité et prône le pacifisme. Mais le contexte de l'époque (Prague fait alors partie de l'empire autrichien, où le prince Klemens Wenzel von Metternich a une grande influence) n'est pas favorable à ces idées progressistes. En décembre 1819 il est donc démis de ses fonctions, comme beaucoup d'autre professeurs des universités de l'empire. Ses publications sont interdites sur tout le territoire autrichien. Il se réfugie alors auprès de ses amis Johann et Anna Hoffman. Sa santé fragile (tuberculose) et ses occupations l'empêchaient de passer tout le temps voulu à ses travaux. Il peut maintenant s'y consacrer entièrement et écrit en 1837 son ouvrage le plus important : "" (« Théorie de la science »). Il meurt le 18 décembre 1848 des suites de sa maladie. En mathématiques, il est connu pour le théorème des valeurs intermédiaires, ainsi que pour le théorème de Bolzano-Weierstrass, démontré plus rigoureusement par Karl Weierstrass. Dans sa philosophie, Bolzano critique l'idéalisme d'Hegel et de Kant en affirmant que les nombres, les idées, et les vérités existent indépendamment des personnes qui les pensent. Ainsi l'acte mental se distingue de la signification de l'acte. Bolzano est souvent considéré comme un des fondateurs de la logique moderne. Dans sa "Théorie de la science" de 1837, il essaie de fournir des fondements logiques à toutes les sciences, construites à partir d'abstractions, d'objets abstraits, d'attributs, de constructions, de démonstrations, de liens... La plupart de ces tentatives retracent ses travaux précédents concernant la relation objective entre les conséquences logiques (les choses telles qu'elles se produisent) et notre perception purement subjective de ces conséquences (notre façon d'aborder les évènements). Il se rapproche ici de la philosophie des mathématiques, comme dans ses "Beiträge" de 1810. Pour Bolzano, nous n'avons aucune certitude quant aux vérités, ou supposées comme telles, de la nature ou des mathématiques, et c'est justement le rôle des sciences, pures comme appliquées, que de trouver une justification des vérités (ou des lois) fondamentales, qui se trouvent le plus souvent en contradiction avec nos intuitions.Dans son ouvrage'de 1837, Bolzano tenta d'apporter des fondations logiques pour toutes les sciences, construisant sur des abstractions tels les objets abstraits, les attributs, les idées et propositions en elles-mêmes, les substances, les idées subjectives, les jugements etc. Ce travail était une extension de ses pensées plus anciennes sur la philosophie des mathématiques, par exemple dans ses'de 1810 dans lesquels il met l'accent sur la distinction entre, d'une part, la relation objective entre les conséquences logiques et, d'autre part, notre reconnaissance subjective de ces connexions. Pour Bolzano, ce n'était pas assez que nous ayons simplement confirmation des vérités naturelles ou mathématiques, mais plutôt, c'était le rôle propre des sciences (pures et appliquées) de rechercher la justification en termes de vérités fondamentales qui puissent ou non nous paraitre évidentes.Dans "Wissenschaftslehre", Bolzano se préoccupe principalement de trois champs de connaissance : Bolzano consacre une grande partie de "Wissenschaftslehre" à l'explication de ces trois domaines et de leurs relations. Deux distinctions jouent un rôle prééminent dans son système. Premièrement, la distinction entre parties et touts. Par exemple, les mots sont des parties de phrases, les idées subjectives sont des parties de jugements et les idées objectives sont des parties de propositions en-soi. Deuxièmement, tous les objets se divisent en ceux qui existent, ce qui veut dire qu'ils sont connectés causalement et localisés dans l'espace et/ou le temps, et ceux qui n'existent pas. La revendication originale de Bolzano est que le royaume de la logique est peuplé par les objets de la dernière sorte.Bolzano utilise le mot « objet » pour dénoter quelque chose qui est représenté par une idée. Une idée qui a un objet représente cet objet. Mais une idée qui n'a pas d'objet ne représente rien. L'idée d'un « cercle carré », par exemple, n'a pas d'objet parce que l'objet que l'on veut se représenter est contradictoire. Bolzano prend aussi pour exemple l'idée de « rien » qui n'a, par définition pas d'objet. Cependant, la proposition « l'idée d'un cercle carré est complexe » a pour sujet-idée l'idée d'un cercle carré. Ce sujet-idée a un objet, le cercle carré. Mais l'idée cercle carré n'a pas d'objet. Outre les idées sans objet, il y a des idées qui n'ont qu'un seul objet. Par exemple, l'idée du premier Homme sur la Lune ne représente qu'un seul objet. Bolzano appelle ces idées « idées singulières ». Manifestement, il y a aussi des idées qui ont plusieurs objets, par exemple « les citoyens d'Amsterdam » et aussi une infinité d'objets, par exemple l'idée de nombre premier. (Voir De la méthode mathématique §4)Les réflexions de Bolzano ont porté sur ce qui est actuellement appelé calcul des prédicats et qui fut développé ultérieurement, en partie à la suite de son apport. Les termes qu'il utilisait ne coïncident pas forcément avec l'usage qui en est fait postérieurement. D'après Bolzano, toutes les propositions sont composées de trois éléments (simples ou complexes) : un sujet, un prédicat et une copule. Au lieu du traditionnel terme copulatif « est », Bolzano préfère « a ». La raison en est que « a », contrairement à « est » peut connecter un terme concret, comme « Socrate », à un terme abstrait comme « chauve ». « Socrate a une calvitie » est, d'après Bolzano préférable à « Socrate est chauve ». « Chauve » est en-soi composé des éléments « quelque chose », « qui », « a » et « calvitie ». Bolzano réduit aussi les propositions existentielles à cette forme : « Socrate existe » devient alors simplement « Socrate a l'existence ». Dans la théorie logique de Bolzano, la notion de variation a un rôle important : plusieurs relations logiques sont définies en termes de changement de valeur de vérité, que les propositions encourent quand leurs parties non-logiques sont remplacées par d'autres. Les propositions logiquement analytiques, par exemple, sont celles dans lesquelles toutes les parties non-logiques peuvent être remplacées sans changement de valeur de vérité. Deux propositions sont compatibles ("verträglich") en accord avec l'une de leurs parties composantes x s'il y a au moins un terme qui puisse être inséré qui puisse rendre les deux vraies. Une proposition Q est déductible ("ableitbar") d'une proposition P, en accord avec certaines de leurs parties non-logiques, si n'importe quel remplacement de ces parties qui rendent P vraie rendent aussi Q vraie. Si une proposition est déductible d'une autre en accord avec toutes ses parties non-logiques, on l'appelle « logiquement déductible ». À côté de la relation de déductibilité, Bolzano considère qu'il existe aussi une plus stricte relation de « conséquentalité » ("Abfolge"). C'est une relation asymétrique qui s'obtient entre vraies propositions quand une des propositions est non seulement déductible de l'autre, mais aussi expliquée par elle.Bolzano distingue cinq sens des mots « vrai » et « vérité » dans l'usage commun. Il les classe du plus au moins approprié : La première préoccupation de Bolzano porte sur le sens concret objectif : les vérités concrètes objectives ou les vérités en soi. Toutes les vérités en soi sont des sortes de propositions en soi. Elles n'existent pas, c'est-à-dire qu'elles ne sont pas localisées spatio-temporellement comme le sont les propositions pensées et prononcées. Pourtant, certaines propositions ont l'attribut d'être une vérité en soi. Être une proposition pensée n'est pas une partie du concept d'une vérité en soi, nonobstant le fait que, avec l'omniscience de Dieu, toutes les vérités en soi sont aussi des vérités de pensée. Les concepts de « vérité en soi » et de « vérité de pensée » sont interchangeables dans le sens où ils s'appliquent aux mêmes objets, mais ils ne sont pas identiques. Bolzano propose comme définition correcte de la vérité objective abstraite la suivante : une proposition est vraie si elle exprime quelque chose qui s'applique à cet objet. La définition correcte d'une vérité concrète objective doit alors être : une vérité est une proposition qui exprime quelque chose qui s'applique à son objet. Cette définition s'applique aux vérités en soi plutôt qu'aux vérités pensées ou connues, puisque aucun des concepts qui figurent dans cette définition n'est subordonné au concept de quelque chose de mental ou connu.L'influence de sa pensée philosophique aurait pu rester faible, mais son travail fut finalement redécouvert par Edmund Husserl et Kazimierz Twardowski, tous deux étudiants de Franz Brentano. À travers eux, Bolzano eut une influence significative sur la phénoménologie et sur la philosophie analytique. Son œuvre posthume "Les paradoxes de l'infini "a été admirée par un grand nombre d'éminents logiciens qui vinrent après lui, comme Charles Sanders Peirce, Georg Cantor et Richard Dedekind. Une grande partie du travail mathématique de Bolzano est restée inconnue jusqu'à ce qu'Otto Stolz redécouvre ses articles perdus et les republie en 1881.
|
Bernard Bolzano ( – ), de son nom complet Bernhard Placidus Johann Nepomuk Bolzano, est un mathématicien, logicien, philosophe et théologien né et mort à Prague. Fils d’une germanophone et d’un émigré d’Italie en Bohême, alors dans l’Empire d’Autriche, Bolzano a rédigé toutes ses œuvres en allemand. L'influence de ses ouvrages philosophiques est importante, tout comme ses découvertes en mathématiques. Il a donné son nom à deux théorèmes.
|
xwikis
|
La mole est une unité de comptage, au même titre que la centaine, la vingtaine ou la douzaine, mais qui ne sert qu’à compter les atomes ou les molécules. Elle a la particularité d’être immense (environ six cent mille milliards de milliards d'unités). De la même manière qu'il y a autant d'éléments dans une douzaine de pommes que dans une douzaine d'œufs, il y a le même nombre d'entités dans une mole de carbone que dans une mole de plomb (c'est-à-dire de milliards d'atomes ou d'atomes en échelle longue). Un échantillon de matière de taille macroscopique contient un très grand nombre d'atomes. Par exemple, 6 grammes d'aluminium contiennent environ (, soit de milliards). Pour simplifier l’écriture en évitant l'utilisation d'aussi grands nombres, on a créé une unité de mesure, la mole (dans le cas présent, d'aluminium représentent d'atomes). Les transformations chimiques sont modélisées par des équations faisant apparaître quelques unités d'atomes et de molécules. Le passage à la mole est donc une homothétie qui permet de passer de l'échelle microscopique à une échelle macroscopique où toutes les grandeurs deviennent facilement mesurables. L'intérêt de la constante d'Avogadro provient du fait que la masse d'une mole d'atomes (ou masse molaire atomique), lorsqu'elle est exprimée en grammes, correspond en première approximation au nombre de nucléons de cet atome (l'aluminium a une masse molaire de, et l'atome d'aluminium contient ).Initialement, on utilisait les termes "molécule-gramme" et "atome-gramme" pour désigner la masse moléculaire (masse molaire). Le terme "molécule" est formé à partir du mot latin "moles", signifiant « masse », sous l’influence de "corpuscule", qui désigne quelque chose de très petit. Une abréviation est finalement apparue pour désigner la quantité de matière : la mole. Le nom de « mole » date de 1897 et est une reprise (francisée dans la prononciation) de l'unité allemande "Mol", utilisée par le chimiste Wilhelm Ostwald en 1894.Comme toutes les unités, les multiples de la mole sont décrits avec les préfixes du Système international d'unités. Son sous-multiple le plus courant est la millimole (mmol, ). Il est essentiel d'indiquer la nature des entités élémentaires : une mole d’atomes, de molécules, d’ions, d’électrons, d’autres particules, de groupes de particulesLa quantité de matière formula_2 en moles (mol) peut être calculée selon : formula_3 avec : formula_6 avec : formula_9 avec: formula_12 avec :
|
La mole (symbole : mol) est une des unités de base du Système international, adoptée en 1971, qui est principalement utilisée en physique et en chimie. La mole est la quantité de matière d'un système contenant exactement élémentaires (atomes, ions, molécules). Pour donner un ordre de grandeur, le même nombre en grains de pop-corn permettrait de recouvrir la surface des États-Unis d'une couche uniforme d'une épaisseur d'environ.
|
xwikis
|
L'intersection de deux demi-plans dont les frontières sont des droites sécantes en O donne un secteur angulaire saillant de sommet O. La réunion de ces mêmes demi-plans donne un secteur angulaire rentrant. Si les droites sont parallèles, qu'aucun des demi-plans n'est inclus dans l'autre, que l'intersection n'est pas vide, l'intersection des demi-plans donne une bande.En tant qu'ensemble convexe simple, le demi-plan permet de caractériser des ensembles convexes plans. Un polygone est convexe si et seulement si, quel que soit le côté que l'on choisit, le polygone est entièrement inclus dans un demi-plan dont la frontière porte ce côté. La portion de plan qu'il délimite est alors obtenue comme intersection des demi-plans dont les frontières sont les droites supportant ses côtés. Enfin, un théorème de séparation permet d'affirmer que deux ensembles convexes disjoints d'un plan peuvent être séparés par une droite qui place chacun des deux ensembles dans des demi-plans différents.Le plan affine est canoniquement équipé d'une topologie (déduite de n'importe quelle norme sur le plan vectoriel associé). La frontière d'un demi-plan est sa frontière au sens topologique. On distingue le demi-plan fermé (contenant sa frontière) du demi-plan ouvert (disjoint de sa frontière).Lorsque le plan est muni d'un repère, un demi-plan est caractérisé par une inéquation liée à l'équation de la droite (d). Une inégalité large correspond à un demi-plan fermé et une inégalité stricte à un demi-plan ouvert.Si la droite (d) a pour équation "ax + by + c" = 0, les deux demi-plans ouverts ont pour inéquations "ax + by + c" < 0 et "ax + by + c" > 0 et les demi-plans fermés par "ax + by + c" ≤ 0 et "ax + by + c" ≥ 0. Cette caractérisation du demi-plan permet de démontrer facilement qu'un demi-plan est convexe, que le segment reliant deux points dans des demi-plans différents coupe la frontière et qu'une demi-droite d'origine un point de la frontière et passant par un point d'un demi-plan est entièrement incluse dans ce demi-plan. Si la droite a pour équation "y = mx + p", le demi-plan d'inéquation "y < mx + p" est appelé demi-plan « sous » la droite (d) et le demi-plan d'inéquation "y > mx + p" est appelé demi-plan « au-dessus » de la droite (d).Si A, B, et C sont trois points non alignés et si G est le barycentre du système pondéré {(A,a), (B,b), C(c)}, la position de G par rapport à la droite (AB) est déterminée par les signes comparés de c et a+b+c. Si c et a + b + c sont de même signe alors G est dans le demi-plan de frontière (AB) contenant C, si c et a+b+c sont de signes contraires, le point G est dans l'autre demi-plan. Cette caractérisation permet de définir l'intérieur d'un triangle comme l'ensemble des barycentres des sommets affectés de poids de même signe.Si maintenant le plan est muni d'une structure euclidienne, la médiatrice d'un segment [AB], où A et B sont deux points distincts, est l'ensemble des points à égale distance de A et B ; c'est donc l'ensemble des points M tels que MA = MB. Cette médiatrice partage le plan en deux demi-plans, l'un contenant A et tous les points qui sont plus proches de A que de B, ensemble des points M tels que MA < MB et l'autre contenant B, correspondant à l'ensemble des points M tels que MA > MB.Si de plus le plan est orienté, et si une droite est orientée par un vecteur u et passe par A, on distingue deux demi-plans : l'un situé « à droite » de (d), ensemble des points P tels que l'angle (u, AP) soit de sinus négatif appelé demi-plan négatif, l'autre situé « à gauche » de (d), ensemble des points P tels que l'angle (u, AP) soit de sinus positif appelé demi-plan positif. En coordonnées polaires, si la droite ne passe pas par l'origine et si son équation polaire est alors le demi-plan ouvert ne contenant pas l'origine est caractérisé par l'inéquation Si la droite passe par l'origine et a pour vecteur directeur u de coordonnées polaires formula_5, le demi-plan positif vérifie
|
En géométrie affine réelle plane, une droite partage le plan en deux demi-plans. Cette droite s'appelle alors la frontière des demi-plans.
|
xwikis
|
Le terme "géométrie" dérive du grec de "γεωμέτρης" ("geômetrês") qui signifie « géomètre, arpenteur » et vient de "γῆ" ("gê") « terre » et "μέτρον" ("métron") « mesure ». Ce serait donc « la science de la mesure du terrain ».Sans qualificatif particulier et sans référence à un contexte particulier (par opposition à la géométrie différentielle ou la géométrie algébrique), la "géométrie" ou encore "géométrie classique" englobe principalement : Les géométries ci-dessus peuvent être généralisées en faisant varier la dimension des espaces, en changeant le corps des scalaires (utiliser des droites différentes de la droite réelle) ou en donnant une courbure à l'espace. Ces géométries sont encore dites classiques. Par ailleurs, la géométrie classique peut être axiomatisée ou étudiée de différentes façons. Il est remarquable que l'algèbre linéaire (espaces vectoriels, formes quadratiques, formes bilinéaires alternées, formes hermitiennes et antihermitiennes, etc.) permette de construire des modèles explicites de la plupart des structures rencontrées dans ces géométries. Cela confère donc à la géométrie classique une certaine unité.Il y a des branches des mathématiques qui sont issues de l'étude des figures des espaces euclidiens, mais qui se sont constituées en branches autonomes des mathématiques et qui étudient des espaces qui ne sont pas nécessairement plongés dans des espaces euclidiens : Les différents espaces de la géométrie classique peuvent être étudiés par la topologie, la géométrie différentielle et la géométrie algébrique.La géométrie admet de nombreuses acceptions selon les auteurs. Dans un sens strict, la géométrie est « l'étude des formes et des grandeurs de figures ». Cette définition est conforme à l'émergence de la géométrie en tant que science sous la civilisation grecque durant l'époque classique. Selon un rapport de Jean-Pierre Kahane, cette définition coïncide avec l'idée que se font les gens de la géométrie comme matière enseignée : c'est « le lieu où on apprend à appréhender l'espace ». En 1739, Leonhard Euler étudie le problème des sept ponts de Königsberg ; ses travaux sont considérés comme l'un des premiers résultats de géométrie ne dépendant d'aucune mesure, des résultats qu'on qualifiera de topologiques. Les questions posées durant le ont conduit à repenser les notions de forme et d'espace, en écartant la rigidité des distances euclidiennes. Il a été envisagé la possibilité de déformer continûment une surface sans préserver la métrique induite, par exemple de déformer une sphère en un ellipsoïde. : ses objets d'étude sont des ensembles, les espaces topologiques, dont la notion de proximité et de continuité est définie ensemblistement par la notion de voisinage. Selon certains mathématiciens, la topologie fait pleinement partie de la géométrie, voire en est une branche fondamentale. Cette classification peut être remise en cause par d'autres. Selon le point de vue de Felix Klein (1849-1925), la géométrie analytique « synthétisait en fait deux caractères ultérieurement dissociés : son caractère fondamentalement métrique, et l'homogénéité ». Le premier caractère se retrouve dans la géométrie métrique, qui étudie les propriétés géométriques des distances. Le second est au fondement du programme d'Erlangen, qui définit la géométrie comme l'étude des invariants d'actions de groupe. Les travaux actuels, dans des domaines de recherche portant le nom de géométrie, tendent à remettre en cause la première définition donnée. Selon Jean-Jacques Szczeciniarcz, la géométrie ne se construit pas sur « la simple référence à l'espace, ni même [sur] la figuration ou [sur] la visualisation » mais se comprend à travers son développement : « la géométrie est absorbée mais en même temps nous parait attribuer un sens aux concepts en donnant par ailleurs l'impression d'un retour au sens initial ». Jean-Jacques Sczeciniarcz relève deux mouvements dans la recherche mathématique qui a conduit à un élargissement ou à un morcellement de la géométrie : Dans le prolongement, la géométrie peut être abordée non plus comme une discipline unifiée mais comme une vision des mathématiques ou une approche des objets. Selon Gerhard Heinzmann, la géométrie se caractérise par « un usage de termes et de contenus géométriques, comme « points », « distance » ou « dimension » en tant que cadre langagier dans les domaines les plus divers », accompagné par un équilibre entre une approche empirique et une approche théorique.L'invention de la géométrie remonte à l'Égypte antique.Pour Henri Poincaré, l’espace géométrique possède les propriétés suivantes : Les géométries euclidienne et non euclidienne correspondent à cette définition stricto sensu de l'espace. Construire une telle géométrie consiste à énoncer les règles d'agencement des quatre objets fondamentaux : le point, la droite, le plan et l'espace. Ce travail reste l'apanage de la géométrie pure qui est la seule à travailler ex nihilo.La géométrie plane repose d'abord sur une axiomatique qui définit l'espace ; puis sur des méthodes d'intersections, de transformations et de constructions de figures (triangle, parallélogramme, cercle, sphère, etc.). La géométrie projective est la plus minimaliste, ce qui en fait un tronc commun pour les autres géométries. Elle est fondée sur des axiomes :Distinguer dans la géométrie projective des éléments impropres caractérise la géométrie arguésienne. Puis la géométrie affine naît de l'élimination de ces éléments impropres. Cette suppression de points crée la notion de parallélisme puisque désormais certaines paires de droites coplanaires cessent d'intersecter. Le point impropre supprimé est assimilable à la "direction" ces droites. De plus, deux points ne définissent plus qu'un segment (celui des deux qui ne contient pas le point impropre) et rend familière la notion de "sens" ou "orientation" (c'est-à-dire, cela permet de distinguer formula_1 de formula_2).Le cinquième axiome ou « "postulat de parallèles" » de la géométrie d'Euclide fonde la géométrie euclidienne : Voir l'axiomatique de Hilbert ou les Éléments d'Euclide pour des énoncés plus complet de la géométrie euclidienne. La réfutation de ce postulat a conduit à l'élaboration de deux géométries non euclidiennes : la géométrie hyperbolique par Gauss, Lobatchevski, Bolyai et la géométrie elliptique par Riemann.Dans la conception de Felix Klein (auteur du programme d'Erlangen), la géométrie est l'étude des espaces de points sur lesquels opèrent des groupes de transformations (appelées aussi symétries) et des quantités et des propriétés qui sont invariantes pour ces groupes. Le plan et la sphère, par exemple, sont l'un comme l'autre des espaces de dimension 2, homogènes (pas de point privilégié) et isotropes (pas de direction privilégiée), mais ils diffèrent par leurs groupes de symétrie (le groupe euclidien pour l'un, le groupe des rotations pour l'autre). Parmi les transformations les plus connues, on retrouve les isométries, les similitudes, les rotations, les réflexions, les translations et les homothéties. Il ne s'agit donc pas d'une discipline mais d'un important travail de synthèse qui a permis une vision claire des particularités de chaque géométrie. Ce programme caractérise donc plus la géométrie qu'il ne la fonde. Il eut un rôle médiateur dans le débat sur la nature des géométries non-euclidiennes et la controverse entre géométries analytique et synthétique.Il y a en géométrie différentielle et en géométrie algébrique des groupes de Lie et des groupes algébriques, qui eux ont des espaces homogènes, et la géométrie classique se ramène souvent à l'étude de ces espaces homogènes. Les géométries affine et projective sont liées aux groupes linéaires, et les géométries euclidienne, sphérique, elliptique et hyperbolique sont liées aux groupes orthogonaux. Lorsqu'il y a des classifications explicites des groupes de Lie ou algébriques ou des leurs espaces homogènes vérifiant certaines hypothèses (groupes de Lie ou algébriques simples, espaces symétriques, variétés de drapeaux généralisées, espaces de courbure constante, par exemple), les principaux éléments de ces classifications sont parfois issus de la géométrie classique, et les groupes auxquels sont associés ses géométrie classique sont liés aux groupes dits classiques (groupes linéaires, orthogonaux, symplectiques, par exemple). La plupart des géométries classiques sont liées aux groupes de Lie ou algébriques simples, dit classiques (ils sont issus de l'algèbre linéaire). Il y a d'autres groupes de Lie ou algébriques simples, et ils sont dits « exceptionnels » et ils donnent lieu à la géométrie exceptionnelle, avec certaines analogies avec la géométrie classique. Cette distinction est due au fait que les groupes simples sont (sous certaines hypothèses) classés en plusieurs séries infinies (souvent quatre) et en un nombre fini d'autres groupes (souvent cinq), et ce sont ces derniers groupes qui sont exceptionnels, et ils ne relèvent pas de l'algèbre linéaire (du moins pas de la même manière) : ils sont souvent liés à des structures algébriques non associatives (algèbres d'octonions, algèbres de Jordan exceptionnelles, par exemple). Aux groupes de Lie ou algébriques simples sont associés des diagrammes de Dynkin (des sortes de graphes), et certaines propriétés de ces géométries peuvent se lire dans ces diagrammes.La géométrie riemannienne peut être vue comme une extension de la géométrie euclidienne. Son étude porte sur les propriétés géométriques d'espaces (variétés) présentant une notion de vecteurs tangents, et équipés d'une métrique (métrique riemannienne) permettant de mesurer ces vecteurs. Les premiers exemples rencontrés sont les surfaces de l'espace euclidien de dont les propriétés métriques ont été étudiées par Gauss dans les années 1820. Le produit euclidien induit une métrique sur la surface étudiée par restriction aux différents plans tangents. La définition intrinsèque de métrique fut formalisée en dimension supérieure par Riemann. La notion de transport parallèle autorise la comparaison des espaces tangents en deux points distincts de la variété : elle vise à transporter de manière cohérente un vecteur le long d'une courbe tracée sur la variété riemannienne. La courbure d'une variété riemannienne mesure par définition la dépendance éventuelle du transport parallèle d'un point à un autre par rapport à la courbe les reliant. La métrique donne lieu à la définition de la longueur des courbes, d'où dérive la définition de la distance riemannienne. Mais les propriétés métriques des triangles peuvent différer de la trigonométrie euclidienne. Cette différence est en partie étudiée à travers le, qui permet de comparer du moins localement la variété riemannienne étudiée à des espaces modèles, selon des inégalités supposées connues sur la courbure sectionnelle. Parmi les espaces modèles :La géométrie complexe porte sur les propriétés d'espaces pouvant localement s'identifier à formula_3. Ces objets (variété complexe) présentent une certaine rigidité, découlant de l'unicité d'un prolongement analytique d'une fonction à plusieurs variables.La géométrie symplectique est une branche de la géométrie différentielle et peut être introduite comme une généralisation en dimension supérieure de la notion d'aire orientées rencontrée en dimension 2. Elle est liée aux formes bilinéaires alternées. Les objets de cette géométrie sont les variétés symplectiques, qui sont des variétés différentielles munie d'un champ de formes bilinéaires alternées. Par exemple, un espace affine attaché à un espace vectoriel muni d'une forme bilinéaire alternée non dégénérée est une variété symplectique. La géométrie de contact est une branche de la géométrie différentielle qui étudie les variétés de contact, qui sont des variétés différentielles munies d'un champ d'hyperplans des espaces tangents vérifiant certaines propriétés. Par exemple, l'espace projectif déduit un espace vectoriel muni d'une forme bilinéaire alternée non dégénérée est une variété de contact.Longtemps, géométrie et astronomie ont été liées. À un niveau élémentaire, le calcul des tailles de la lune, du Soleil et de leurs distances respectives à la Terre fait appel au théorème de Thalès. Dans les premiers modèles du système solaire, à chaque planète était associé un solide platonicien. Depuis les observations astronomiques de Kepler, confirmées par les travaux de Newton, il est prouvé que les planètes suivent une orbite elliptique dont le Soleil constitue un des foyers. De telles considérations de nature géométrique peuvent intervenir couramment en mécanique classique pour décrire qualitativement les trajectoires. En ce sens, la géométrie intervient en ingénierie dans l'étude de la stabilité d'un système mécanique. Mais elle intervient encore plus naturellement dans le dessin industriel. Le dessin industriel montre les coupes ou les projections d'un objet tridimensionnel, et est annoté des longueurs et angles. C'est la première étape de la mise en place d'un projet de conception industrielle. Récemment, le mariage de la géométrie avec l'informatique a permis l'arrivée de la conception assistée par ordinateur (CAO), des calculs par éléments finis et de l'infographie. La trigonométrie euclidienne intervient en optique pour traiter par exemple de la diffraction de la lumière. Elle est également à l'origine du développement de la navigation : navigation maritime aux étoiles (avec les sextants), cartographie, navigation aérienne (pilotage aux instruments à partir des signaux des balises). Les nouvelles avancées en géométrie au trouvent des échos en physique. Il est souvent dit que la géométrie riemannienne a été initialement motivée par les interrogations de Gauss sur la cartographie de la Terre. Elle rend compte en particulier de la géométrie des surfaces dans l'espace. Une de ses extensions, la géométrie lorentzienne, a fourni le formalisme idéal pour formuler les lois de la relativité générale. La géométrie différentielle trouve de nouvelles applications dans la physique post-newtonienne avec la théorie des cordes ou des membranes. La géométrie non commutative, inventée par Alain Connes, tend à s'imposer pour présenter les bonnes structures mathématiques avec lesquelles travailler pour mettre en place de nouvelles théories physiques.La géométrie occupe une place privilégiée dans l'enseignement des mathématiques. : elle permet aux élèves de développer une réflexion sur des problèmes, de visualiser des figures du plan et de l'espace, de rédiger des démonstrations, de déduire des résultats d'hypothèses énoncées. Mais plus encore, « le raisonnement géométrique est beaucoup plus riche que la simple déduction formelle », car il s'appuie sur l'intuition née de l'« observation des figures ». Dans les années 1960, l'enseignement des mathématiques en France insistait sur la mise en pratique des problèmes relevant de la géométrie dans la vie courante. En particulier, le théorème de Pythagore était illustré par la règle du 3, 4, 5 et son utilisation en charpenterie. Les involutions, les divisions harmoniques, et les birapports étaient au programme du secondaire. Mais la réforme des mathématiques modernes, née aux États-Unis et adaptée en Europe, a conduit à réduire considérablement les connaissances enseignées en géométrie pour introduire de l'algèbre linéaire dans le second degré. Dans de nombreux pays,. Un rapport de Jean-Pierre Kahane dénonce le manque d'« une véritable réflexion didactique préalable » sur l'apport de la géométrie : en particulier, une « pratique de la géométrie vectorielle » prépare l'élève à une meilleure assimilation des notions formelles d'espace vectoriel, de forme bilinéaire...
|
La géométrie est à l'origine la branche des mathématiques étudiant les figures du plan et de l'espace (géométrie euclidienne). Depuis la fin du, la géométrie étudie également les figures appartenant à d'autres types d'espaces (géométrie projective, géométrie non euclidienne, par exemple).
|
xwikis
|
Historiquement, l’heure a été définie par l’utilisation des cadrans solaires qui marquaient par l'ombre projetée d'un style la position du Soleil dans le ciel ; il s'agissait de l'heure solaire. Actuellement, l'heure grand public correspond à un vingt-quatrième du jour ; c'est l'heure de la montre, l'heure donnée par l'horloge parlante ou l'heure GPS. Elle est liée à la course fictive d'un Soleil moyen pendant ces 24 heures. Mais d’autres divisions ou heures anciennes ont existé à différentes époques. Cependant il ne s’agit là que d’une approximation, car la période de rotation terrestre varie légèrement avec les années ; elle ralentit par l’effet des marées, et subit aussi des irrégularités liées à l’activité du noyau terrestre et à d’autres phénomènes. En moyenne, la période de rotation terrestre tend à s’allonger progressivement. L’heure servait à définir la minute et la seconde, la relation s’est inversée aujourd’hui. La minute n’est plus une division de l’heure, l’heure est définie comme un multiple de la minute, et de la seconde - la référence.La seconde est devenue l’unité de référence du temps. En effet, depuis la générale des poids et mesures (1967), la seconde n’est plus définie par rapport à l’année, mais par rapport à une propriété de la matière ; cette unité de base du Système international a été définie dans les termes suivants :. L’heure n’est plus qu’une unité correspondant à.Un fuseau horaire est une zone de la surface terrestre où l'heure légale est identique en tout lieu. L'idée initiale (du canadien Sandford Fleming en 1876) est donc de diviser la surface du globe en 24 fuseaux horaires de même taille. Le premier fuseau est centré sur le méridien de Greenwich, de longitude 0 ; la ligne de changement de date est donc le 180e méridien. Au passage d'un fuseau à l'autre, l'heure augmente (d'ouest en est) ou diminue (d'est en ouest) d'une heure. La réalité est un peu plus complexe, puisque chaque état définit l'heure légale sur son territoire à l'aide d'un décalage fixe par rapport au temps universel coordonné (UTC). Ce décalage est le plus souvent égal à un nombre entier d'heures, mais certains pays emploient un décalage à la demi-heure (Iran, Afghanistan, Inde, Venezuela...), voire au quart d'heure (Népal). Toutes ces modifications par rapport au système initial font perdre aux fuseaux horaires leur forme originale (en fuseau) au profit d'un découpage par zones.La division du jour en unités précises est d’origine égyptienne et chaldéenne. Les premiers adoptèrent la division pratique du jour en 24 parties, 12 pour la nuit et 12 pour le jour, en se basant sur le décan. Les seconds divisaient leur journée en soixante parties comme dans les calendriers védiques de l’Inde ; à partir du, les Babyloniens ont emprunté à l'Égypte la division de leur journée en douze parties. De nombreux peuples ont par la suite défini leur notion d’heure en découpant en douze parties ces deux périodes de durées variables selon les saisons. Les cadrans solaires antiques mesuraient l'heure temporaire, aussi appelée artificielle, planétaire, antique, judaïque, juives ou biblique : les Anciens définissaient cette heure comme la douzième partie de l'intervalle de temps compris entre le lever et le coucher du Soleil, quelle que soit la saison (soit 12 heures). L’invention de la minute et de la seconde serait également d’origine babylonienne, même s’il est très improbable qu’ils aient été capables de se situer dans le temps avec une précision supérieure à quelques dizaines de minutes. Les Égyptiens de l’Antiquité utilisaient un découpage de la nuit en. Car, la nuit, ils tenaient compte des étoiles pour déterminer le début des offices. Certaines nuits d'été, seules douze étoiles se levaient à l'horizon. Par la suite, ils ont aussi divisé le jour en ; suivant les saisons, ces heures étaient plus ou moins longues. On peut penser que faire permettait de diviser facilement la journée en tiers, en quarts ou en sixièmes. De plus, douze était déjà utilisé pour subdiviser l’année en mois ou lunaisons, par observation des cycles lunaires au cours de l’année (voir histoire de la mesure du temps). Il est en fait très probable que la division se faisait en fonction de l’observation de la position du Soleil dans le ciel, à l’œil nu ou avec un instrument. La position du Soleil servait aussi à l’orientation sur terre et sur mer. D’autre part, la seconde, apparue chez les Babyloniens, correspondait à peu près à la période des pulsations cardiaques au repos, faciles à compter, et appréciée aussi par la suite pour la définition du rythme en musique. L’heure comptait alors environ qu’il était facile de diviser en multiples de 60, ce dernier étant aussi un multiple de 12. Le symbolisme du, la facilité de le diviser en 2, 3 ou 4 et la facilité de diviser la minute et l’heure en 5 dans ce système qui permet de n’utiliser que des entiers aurait donc conduit à la création du système sexagésimal pour diviser l’heure en minutes et secondes égales et entières. L’usage à l’époque romaine, repris de la civilisation grecque, consistait à diviser la période allant du lever au coucher du Soleil en exactement, et de diviser de même la nuit en exactement. La durée de l’heure variait donc avec la saison. Chaque heure correspondait pour les militaires à un tour de garde. La première heure était celle qui suivait l’, la sixième heure correspondait à midi, la neuvième heure au milieu de l’après-midi et la douzième (et dernière) heure celle avant le crépuscule. Cet usage s’est maintenu dans la notation des heures canoniales. Une certaine habitude perdure traditionnellement de formuler les heures en deux fois douze heures, par exemple : (de l’après-midi) pour. En Tanzanie et au Kenya, l’usage swahili est de faire commencer le jour à l’aube. La durée du jour variant très peu avec la saison en raison de la proximité de l’équateur, le début du jour a été posé à du matin de la notation occidentale. Aux équinoxes, la durée du jour est égale à celle de la nuit. Les heures équinoxiales sont donc toutes égales, à la différence des heures d'hiver plus courtes que celles d'été. Les horloges à eau et à bougie permettaient d'indiquer les heures temporaires (variables selon les saisons et les latitudes) et les heures équinoxiales mais l'usage des premières s'estompa progressivement. Les cadrans canoniaux, surtout en usage au Moyen Age, ne donnaient que des repères conventionnels, les heures canoniales. Le développement de l'horloge mécanique au, pour qui il était difficile d'imaginer un mécanisme reproduisant la variabilité de l'heure temporaire, favorisa l'usage civil de l'heure équinoxiale de 60 minutes. Au, les cadrans à style polaire permettaient de mesurer le temps solaire vrai, ils réglaient ainsi les pendules, les premières montres et les horloges munies de dispositifs correcteurs suffisamment précis pour donner le temps solaire moyen.Dans le Système international (SI), l’heure est maintenant définie comme une durée invariable de exactement ; sa durée n’est donc plus la de la journée. Bien qu’en dehors du Système international, elle est en usage avec lui. Son symbole est h :. Une heure comprend exactement. Le symbole de la minute est min :. Une minute comprend exactement. Le symbole de la seconde est s :. Une journée comprend généralement de ou de. Cependant la durée de certains jours du calendrier peut différer de cette durée de plus ou moins une seconde, en fonction des ajustements qui peuvent être décidés suivant l’évolution de la rotation terrestre et qui, suivant les cas, allongent ou raccourcissent la durée de la dernière minute de la journée calendaire (voir seconde intercalaire). La durée de la dernière heure de ces jours (généralement le et le ) peut donc varier de plus ou moins une seconde.Il existe des règles typographiques s’appliquant à l’écriture des heures. En règle générale, lorsque l’on parle d’une durée sans caractère de précision, de comparaison ou de complexité, il est préférable d’écrire cette durée en lettres (au long) : « Le vol de l’avion de la compagnie Oceanic Airlines a duré quatre heures et cinquante minutes. » En revanche, on écrit en chiffres : « Il arriva avec d’avance, après une course de ». Concernant l’écriture des heures, il y a plusieurs cas de figure :L’heure peut être représentée sous forme numérique, comme dans le cas d’horaires ou dans des tableaux. Le symbole « h » est remplacé par un deux-points (selon la notation de la norme ISO 8601). Un zéro est alors placé devant le chiffre des minutes lorsqu’il est inférieur à dix, par exemple : Dans le cas de l'heure comme durée (domaine sportif notamment), on utilise les symboles du temps, sans mettre de zéro devant les unités, ni de virgules :. La tendance est d'écrire les durées comme les moments précis : (on peut écrire 02:03:12,06). Il existe des domaines, en particulier professionnels, où l’emploi des centièmes d’heure est préféré à l’utilisation des minutes. Dans ce cas l’écriture est, par exemple : Dans le contexte militaire ou policier, notamment au Canada, en Suisse et aux États-Unis, l'heure est parfois présentée, de façon non conventionnelle, dans un seul bloc de chiffre avec la mention heures au pluriel. Par exemple : Une écriture est plus particulièrement appréciée par les militaires (en particulier les aviateurs) car elle permet d’être traitée plus facilement par les canaux de transmissions de données :
|
L’heure est une unité de mesure secondaire du temps. Le mot désigne aussi la grandeur elle-même, l’instant (l’« heure qu’il est »), y compris en sciences (« heure solaire » employé pour temps solaire).
|
xwikis
|
La majeure partie de l'Angleterre a un relief très varié hormis le Nord et la péninsule de Cornouailles. Les deux principaux fleuves sont la Tamise () et la Severn () qui est le plus long cours d'eau du Royaume-Uni. Près de la ville de Douvres (), le tunnel sous la Manche relie la Grande-Bretagne à la France. Il n'existe pas de sommet en Angleterre dépassant les mille mètres d'altitude; le point culminant anglais, le Scafell Pike, culmine à d'altitude dans le Lake District, en Cumbria. La géographie de l'Écosse est variée, avec ses'du Sud et ses'dans le Nord et l'Ouest. On y trouve de longs et profonds bras de mer qui s'enfoncent dans les terres. L'Écosse possède près de huit cents îles, se situant pour la plupart dans l'Ouest et dans le Nord du pays, notamment les Hébrides, les Orcades () et les Shetland. Bien qu'Édimbourg soit la capitale, riche d'un bel héritage historique et architectural, la ville principale est Glasgow. Le pays de Galles ( et ) demeure en majorité un terrain montagneux. Son point culminant, le mont Snowdon () culmine à. Cardiff (), capitale galloise depuis 1955, se situe dans le Sud. La plupart des populations se trouvent dans le Sud, notamment dans les villes telles que Swansea, Newport et Cardiff. La plus grande ville du Nord est Wrexham. L'Irlande du Nord fait partie du patrimoine du Royaume-Uni. Lough Neagh est le plus grand lac de Royaume-Uni avec ses. Le lac est situé à peu près à trente kilomètres au sud-ouest de Belfast. Le Slieve Donard est le plus haut sommet d'Irlande du Nord, et culmine à. Au total, on estime que le Royaume-Uni possède près d'un millier d'îles ; huit cents pour la seule Écosse. La plupart de ces îles sont naturelles, mais certaines ont été créées artificiellement à l'aide de pierres et de bois. À titre comparatif, le Royaume-Uni possède une superficie proche de celle de la Roumanie, de l'Équateur, du Ghana ou de l'Ouganda.En 2019, le jour du dépassement (date de l'année, calculée par l'ONG Global Footprint Network, à partir de laquelle l'humanité est supposée avoir consommé l'ensemble des ressources que la planète est capable de régénérer en un an) du Royaume-Uni est le 17 mai. En 2019, une étude de Greenpeace s'inquiète de la pollution des rivières par le microplastique, évoquant un« problème d'une complexité énorme ».Au Royaume-Uni, en raison du changement climatique, les hivers et les étés sont de plus en plus chauds, le niveau de la mer sur la côte britannique augmente d'environ par an et des signes de modification de la configuration des précipitations sont observés. Les scientifiques du climat s'attendent à ce que les vagues de chaleur, telles que celles deLa population de rossignols a chutéEn Angleterre et au pays de Galles, la désignation de parc national peut inclure des communautés humaines et des usages du sol importants et qui sont souvent partie intégrante du paysage. Il y a actuellement 13 parcs nationaux en Angleterre et au pays de Galles.Les royaumes d'Angleterre et d'Écosse ont cohabité en tant que nations souveraines et indépendantes avec leurs propres monarques et structures politiques depuis le. La Principauté de Galles est intégrée au Royaume d'Angleterre en 1536, après son annexion à la suite du Statut de Rhuddlan en 1284. L'Irlande, conquise à partir du, est un royaume indépendant mais en 1541, devient roi d'Irlande. À partir de l'Union des Couronnes en 1603, le Royaume d'Écosse partage également le même souverain, mais Angleterre, Écosse et Irlande restent des États distincts. Durant l'interrègne anglais, le Commonwealth d'Angleterre annexe l'Écosse et l'Irlande, mais la situation précédente est restaurée avec la royauté en 1660. La Révolution financière britannique etLe royaume de Grande-Bretagne (également connu à ses débuts comme les Royaumes Unis de Grande-Bretagne) a joué un rôle important durant le siècle des Lumières, avec une présence forte en philosophie et en sciences ainsi qu'une grande influence dans la tradition théâtrale et littéraire. Tout au long du siècle qui suivit, le royaume a pris une part importante dans le développement des idées occidentales de démocratie parlementaire, avec une remarquable contribution en littérature, en arts et en sciences. La richesse de l'Empire britannique, comme celle des autres grandes puissances, fut aussi en partie générée par l'exploitation coloniale dont l'industrialisation, après 1750, du commerce des esclaves, avec la flotte britannique du, la plus importante à l'époque. Cependant au début du,Après la Seconde Guerre mondiale, le travailliste Clement Attlee est porté au pouvoir par le raz-de-marée électoral de 1945. Au programme, nationalisations des services et création d'un État-Providence, avec le Service national de santé britannique ("National Health Service", "NHS"). À la fin des années 1950, durant la décolonisation, le Royaume-Uni perd son statut de superpuissance. Puis Edward Heath (1970-1974) doit affronter la question de l'Irlande du Nord. Dans les années 1970, les travaillistes veulent renégocier les termes de l'entrée dans la Communauté économique européenne (CEE) et doivent limiter les hausses de salaires à moins de 5% alors que l'inflation dépasse 10%, provoquant les grèves dures de l'Hiver du Mécontentement. L'objectif majeur de Margaret Thatcher (1979-1990) est de libérer les énergiesLe Royaume-Uni est, comme son nom l'indique, un royaume, mais le pouvoir du monarque britannique (actuellement la reine Élisabeth II) est limité : celui-ci règne mais ne gouverne pas. Le souverain possède par contre certains pouvoirs spécifiques qui encadrent cette capacité à régner comme celui de tenir une audience avec le Premier ministre. Ainsi on peut interpréter la capacité juridique du souverain britannique comme un droit d'être consulté, un droit d'encourager et un droit de mettre en garde. Le pouvoir exécutif de cette monarchie parlementaire est exercé, au nom du monarque, par le Premier ministre (actuellement Boris Johnson), et les autres ministres du cabinet. Le Premier ministre est nommé par le souverain; il n'est pas élu. Néanmoins en cas de Parlement minoritaire, ce sont des ministres ("senior ministers") qui conseillent le monarque pour choisir un Premier ministre. Le monarque doit choisir le chef du parti ayant gagné les élections législatives: le gouvernement risque d'être renversé à chaque élection législative. Le cabinet est « le gouvernement de Sa Majesté ». Comme tout régime parlementaire, ses ministres sont responsables devant le Parlement,Le Royaume-Uni est membre de l'OTAN, du "Commonwealth" (qui regroupe nombre de ses anciennes colonies) et du G8. Il est également membre permanent du Conseil de sécurité des Nations unies et dispose de la dissuasion nucléaire. En tant que successeur de l'EmpireLe Royaume-Uni a trois systèmes de loi distincts : le droit anglais ("English law"), qui s'applique à l'Angleterre et au pays de Galles, et le droit nord-irlandais ("Northern Ireland law") sont basés sur les principes de "common law". Le droit écossais ("Scots law") est un système hybride basé surLe Royaume-Uni est divisé en quatre parties, souvent appelé " (nations d'origine) ou nations constitutives. Chaque nation est, quant à elle, divisée par les gouvernements locaux. La reine nomme un lieutenant-lord en tant que représentant personnel de différentes zones spécifiques àLes territoires britanniques d'outre-mer (", en anglais) sont quatorze territoires se trouvant sous la souveraineté et le contrôle formel du Royaume-Uni mais n'étant pas une partie du Royaume proprement dit (Grande-Bretagne et Irlande du Nord). CesLe Royaume-Uni est en 2014 la cinquième économie mondiale derrière les États-Unis, la Chine, le Japon et l'Allemagne avec un produit intérieur brut (PIB) de de dollars. Il était la septième économie mondiale en 2012, avec un produit intérieur brut (PIB) de de dollars, derrière les États-Unis, la Chine, le Japon, l'Allemagne, la France et le Brésil. Il était la cinquième puissance économique mondiale en 2015, devant la France qui la rattrape fin 2016 prenant ainsi la sixième place. En classement par PIB en parité de pouvoir d'achat (PPA), le Royaume-Uni est le huitième pays, devant la France. La ville de Londres est un centre majeur économique et commercial du niveau de mégapoles telles que New York ou Tokyo. Pendant vingt-cinq ans, l'économie britannique s'est vue désignée, par certains depuis les années 1980, comme le « modèle anglo-saxon » s'appuyant notamment sur les principes de libéralisme, de libre marché et de faible taxation. Le taux de chômage au Royaume-Uni est estimé à 3,8% en décembre 2019 selon l'Office for National Statistics (ONS). En octobre 2019, le salaire moyen avant les impôts et autres déductions estimé par l'ONS s'élève à par semaine ( le 6 février 2020), environ par mois. En 2020, le salaire minimum britannique dépasse pour la première fois le salaire minimum français, et s'élève a par heure, soit environ (le 6 février 2020, soit un peu plus de par an pour le nombre d'heures de travail hebdomadaire moyen britannique de 37,5 heures). Le taux d'impôt sur le revenu individuel est le suivant, en notant que la taxation est graduelle: Le taux d'impôt sur le revenu des entreprises est de 19% pour toutes les entreprises. Une étude publiée en décembre 2019 par l'association "The Equality Trust" révèle qu'en additionnant la fortune des cinq familles les plus riches du Royaume-Uni, on obtient la somme détenue par les de personnes les plus pauvres du pays. Plus largement, les 1% de Britanniques les plus riches possèdent autant d'argent à eux seuls que 80% de la population totale. Entre 2017 et 2018, le taux de pauvreté dans le pays est passé de 22,1% à 23,2%, ce qui représente la plus forte augmentation depuis 1988, durant l'ère de Margaret Thatcher. La hausse de l'inflation et les coupes budgétaires décidées en 2015 par le gouvernement conservateurs, notamment dans les allocations familiales ainsi que dans les allocations logement, en seraient les causes principales. Quatre millions de Britanniques n'ont pour vivre pas même la moitié de la somme sous laquelle est atteint le seuil de pauvreté, et 1,5 million ne peuvent pas se payer des produits de première nécessité. Les Britanniques furent les premiers à entrer dans l'ère de la Révolution industrielle en développant notamment, comme la plupart des pays en voie d'industrialisation à l'époque, des industries lourdes telles que la construction navale, l'industrie minière, la production d'acier et le textile. Le Royaume a créé un marché outre-mer des produits britanniques lui permettant de dominer le marché international durant le. Cependant, tant du fait de l'industrialisation des autres pays que de la perte d'emplois dans l'agriculture, le Royaume-Uni a vu son avance économique diminuer par rapport aux autres. En conséquence, l'industrie lourde a lentement décliné tout au long du. Pour autant, le secteur tertiaire, lui, s'est sensiblement développé et pèse maintenant près de 73% du PIB britannique. Le secteur tertiaire du Royaume-Uni est dominé par les services financiers, en particulier dans les domaines de la banque et de l'assurance. Londres est le plus grand centre financier du monde, en particulier grâce à la Bourse de Londres, au London International Financial Futures and options Exchange et au "Lloyd's of London" tous situés dans la City. La capitale possède aussi la plus forte concentration de sièges de banques étrangères. Durant ces dernières décennies, un centre financier sur les rives de la Tamise - Canary Wharf - s'est développé dans le quartier des Docklands qui a ensuite accueilli les bureaux des banques HSBC, Barclays. Il existe un certain nombre de multinationales non-basées au Royaume-Uni, ayant choisi pour siège social européen ou étranger Londres ; par exemple les sept géants bancaires Bank of America, Citigroup, Crédit suisse, Goldman Sachs, JPMorgan Chase, Morgan Stanley et UBS ont leur siège européen basé à Canary Wharf, Londres ou à la City de Londres. Édimbourg possède aussi d'importants centres financiers. Le tourisme représente une part majeure de l'économie britannique : avec plus de vingt-sept millions de touristes par an, le Royaume-Uni est la sixième destination touristique mondiale. Le secteur secondaire a, quant à lui, amplement diminué depuis la Seconde Guerre mondiale. Il constitue encore, néanmoins, une part importante de l'économie britannique. L'industrie britannique des moteurs en représente une partie majeure, bien diminuée néanmoins depuis l'effondrement de Rover. La production d'avions civils et militaires, dirigée par la plus grosse firme aérospatiale du Royaume-Uni : BAE Systems et l'européen EADS (dirigeant d'Airbus). Rolls-Royce détient une part très significative du marché mondial des moteurs aérospatiaux. L'industrie chimique et pharmaceutique est, elle aussi, puissante avec les seconds et sixièmes plus grands noms de l'industrie pharmaceutique dans le monde : respectivement GlaxoSmithKline et AstraZeneca, tous deux basés au Royaume-Uni. L'industrie « créative » (art, cinéma, mode, design) représentait 7,3% du PNB et a monté d'en moyenne 5% par an entre 1997 et 2004. Le secteur agricole représente lui seulement 0,9% du PIB. À cause du climat, l'agriculture ne couvre que la moitié des besoins alimentaires et est éclaboussée par des scandales (vache folle, fièvre aphteuse). Les principales cultures du territoire sont celle du blé, de la betterave à sucre, de la pomme de terre et de l'orge. Au niveau de l'élevage, les principaux au Royaume-Uni sont les élevages bovins, l'élevage du mouton, du porc et de la volaille. Fait intéressant en marge de l'élevage de la volaille qui est de quelques millions de têtes, celui de la dinde (du dindon) représente un élevage important avec de têtes chaque année. Le Royaume-Uni possède d'importantes richesses énergétiques : charbon, gaz, pétrole, bien que ces deux dernières soient en diminution. La production d'énergie primaire est responsable de 10% du PIB britannique, une part bien plus importante que la majorité des pays industrialisés. À fin d'assurer son autonomie énergétique, le Royaume-Uni a adopté un modèle MARKAL en commun avec l'Irlande. Le secteur privé sollicite fortement l'État afin qu'il le subventionne dans le domaine de la recherche et du développement. Ces subventions s'élèvent à de livres sterling par an, un chiffre en augmentation constante. La monnaie du Royaume-Uni est la livre sterling (en anglais "pound sterling") représentée par le symbole « £ ». La Banque d'Angleterre est la banque centrale qui gère notamment la fabrication des pièces et billets. Les banques en Écosse et Irlande du Nord se réservent le droit de mettre en circulation leurs propres billets, à condition toutefois de maintenir un nombre suffisant de billets de la Banque d'Angleterre en réserve pour couvrir la mise en circulation. Le Royaume-Uni a préféré ne pas adopter l'euro lors du lancement de cette monnaie en 1999 bien que le gouvernement ait prévu de tenir un référendum pour décider de l'adoption de la monnaie si « cinq tests économiques » se révèlent concluants. L'opinion britannique est toujours contre même si elle a récemment montré un intérêt grandissant puis redescendant quant à son adoption. Entre 2007 et 2015, le Royaume-Uni a enregistré la plus forte baisse des salaires réels (ajustée en fonction de l'inflation) de tous les pays avancés, à égalité avec la Grèce (- 10,4%). Le Royaume-Uni connait les inégalités de revenus les plus élevées des pays de l'OCDE et les disparités régionales les plus fortes d'Europe. La part du revenu captée par les 1% les plus riches a doublé ces trente dernières années, passant d'environ 4% à plus de 8,5% du produit intérieur brut (PIB) en 2018. En 2018 le gouvernement renationalise des services qui avaient été laissés au secteur privé; c'est notamment le cas d'une prison réputée pour être la plus violente du pays et d'une société ferroviaire peu rentable.Au, la population du Royaume-Uni est de, soit la troisième d'Europe de l'Ouest après l'Allemagne et la France. Près d'un quart des Britanniques vivent dans le Sud prospère de l'Angleterre et sont principalement une population urbaine avec un nombre estimé à d'habitantsL'immigration, de nos jours, provient principalement des pays qui formaient jadis l'Empire britannique, notamment l'Inde, le Pakistan et le Bangladesh. Depuis la Seconde Guerre mondiale, le Royaume-Uni a absorbé une immigration substantielle dont les trois principales origines des flux est l'Europe, l'Afrique et l'Asie duLe revenu des retraités est constitué d'une partie de pension reversée par l'État et d'une partie par le secteur privé. Monika Queisser, cheffe de la division des politiques sociales de l'Organisation de coopération et de développement économiques (OCDE), relève que ce système est « plus proche d'un système Beveridge, avec une retraite de base assez basse complétée par des retraites issues des entreprises ou branches collectives.Près de sont morts en attendant un lit d'hôpital entre 2016 et 2019, des décès entièrement et uniquement liés à la durée d'attente et non à l'état desSelon le recensement de 2011, les habitants du Royaume-Uni se déclaraient à 59,5% chrétiens, 25,7% sans religion, 4,4% musulmans, 1,3% hindous, 0,7% sikhs, 0,4% juifs et 0,4% bouddhistes. Le christianisme, qui s'oriente autour de l'Église d'Angleterre, se partage entre l'anglicanisme principalement en Angleterre, le presbytérianisme, le méthodisme et le catholicisme en Écosse, au pays de Galles et en Irlande du nord. Bien qu'il y ait plus de protestantsLa langue principale du Royaume-Uni est l'anglais, qui trouve d'ailleurs son origine en Angleterre. Avec le développement progressif de l'empire britannique au sein de l'histoire mondiale, l'anglais s'est répandu un peu partout sur le globe. En effet on retrouve aujourd'hui entre et un milliard d'individus touchés par l'anglais en tant que langue officielle. Cela représente sur tous les continents. Au Royaume-Uni, c'est 94 % de la population qui a pour langue maternelle l'anglais. Il y a également six langues régionales ou minoritaires dont toutes sont moins nombreuses qu'avant : le gallois, le gaélique écossais, l'irlandais, le cornique qui sont toutes de la famille celtique, alorsLe Royaume-Uni possède aussi un système d'éducation semi-public très étendu et développé. L'éducation au Royaume-Uni est une question décentralisée, chaque pays (Angleterre, Pays de Galles, Écosse et Irlande du Nord) ayant un système éducatif distinct. Si l'on considère les quatre systèmes réunis, environ 38% de la population du Royaume-Uni possède un diplôme universitaire, ce qui représente le pourcentage le plus élevé en Europe et parmi les pourcentages les plus élevés au monde. Le Royaume-Uni ne suit que les États-Unis en matière de représentation sur les listes des 100 meilleures universités. Dans le 2018 Times Higher Education World University Rankings, il y a 12 universités britanniques dans le top 100, dont 3 dansLe pays forme un grand nombre de scientifiques et d'ingénieurs. On attribue aux britanniques des découvertes scientifiques telles que l'hydrogène, l'oxygène, la gravité, les électrons, la structure moléculaire de l'ADN,Les pays composant le royaume ont donné de grands et remarquables écrivains et poètes. William Shakespeare, qui a écrit de nombreuses pièces de théâtre, est considéré comme le plus grand auteur de langue anglaise (on parle de « la langue de Shakespeare » à propos de l'anglais). On note parmi les auteurs anglais Geoffrey Chaucer (1343-1400), William Shakespeare (1564-1616), Samuel Taylor Coleridge (1772-1834), Jane Austen (1775-1817), Percy Bysshe ShelleyLe cinéma britannique a longtemps influencé le développement du cinéma avec par exemple les Studios Ealing affirmant être les plus vieuxLe pays compte plusieurs orchestres de renommée internationale, tels l'Orchestre symphonique de la BBC, l'Orchestre philharmonique de Londres, l'Orchestre philharmonique royal et surtout l'Orchestre symphonique de Londres, conduit par Valery Gergiev. Le pays a énormément contribué au développement de la musique rock, particulièrement durant les années 1960, 1970 et première moitié des années 1980. Plus précisément, la pop/pop rock (The Beatles, Cliff Richard, Rod Stewart, Phil Collins, Chris Rea, Sting, Sade (groupe), le rhythm and blues (The Animals, Manfred Mann) le rock 'n' roll (The Shadows, The Rolling Stones, The Who), le rock psychédélique (Barclay James Harvest) le blues rock (The Yardbirds, Eric Clapton, Jeff Beck), le folk rock (Cat Stevens, Donovan, Fairport Convention), le garagePrincipal groupe de média, la BBC est une société publique de production et de diffusion de programmes de radio et de télévision. Elle a acquis, notamment par ses reportages, une réputation de très grande qualité, ainsi qu'en attestent de nombreuses récompenses internationales. Les principales chaînes de télévision sont BBC One, BBC Two, ITV1, Channel 4 et Five. La radio est dominée par BBC Radio dont les deux principales stations sont BBC Radio 1 (station à dominante musicale, tournée vers la jeunesse) et BBC Radio 2 (station généraliste). Dans la presse écrite quotidienne généraliste, on peut diviser les journaux en deux catégories,Les règles actuelles du football, du rugby, du hockey, du bandy, du shinty, du cricket, du rounders, du stoolball, du polo, du water-polo, du netball, de la boxe, du golf, du tennis, du tennis de table, du badminton, du squash et d'autres ont été codifiées au Royaume-Uni. Le sport le plus populaire est le football. À l'exception des tournois olympiques, le Royaume-Uni ne joue pas en tant que pays, chaque nation possède sa propre équipe : pays de Galles, Écosse, Irlande du Nord, Angleterre. OnAu départ on remarque une présence typique de viande de bœuf, d'agneau, de poulet et de mouton dans l'ensemble de la cuisine du Royaume-Uni. Ainsi des plats comme l'agneau à la menthe ou le haggis font partie de la culture culinaire. À cela il faut ajouter la présence d'ingrédients comme l'abat, la pomme de terre enLe nom officiel du Royaume-Uni est: Aussi, la Charte européenne des langues régionales
|
Le Royaume-Uni ( ), en forme longue le Royaume-Uni de Grande-Bretagne et d'Irlande du Nord ( et ""), est un pays d'Europe de l'Ouest, ou selon certaines définitions, d'Europe du Nord, dont le territoire comprend l'île de Grande-Bretagne et la partie nord de l'île d'Irlande, ainsi que de nombreuses petites îles autour de l'archipel. Le territoire du Royaume-Uni partage une frontière terrestre avec la république d'Irlande, et est entouré par l'océan Atlantique au nord, la mer du Nord à l'est, la Manche au sud, la mer Celtique au sud-sud-ouest, la mer d'Irlande au sud-ouest et les mers intérieures de la côte ouest de l'Écosse au nord-ouest. Le Royaume-Uni couvre une superficie de, faisant de lui le plus grand pays du monde, et le 11 d'Europe. Il est le pays plus peuplé du monde, avec une population estimée à d'habitants. Le Royaume-Uni est une monarchie constitutionnelle ; il possède un système parlementaire de gouvernance. Sa capitale est Londres, une ville mondiale et la première place financière au monde.
|
xwikis
|
Comme exemple le plus simple, considérons un fluide (gaz ou liquide) en équilibre thermodynamique. On utilise couramment quatre variables d'état : Une telle relation est insuffisante pour caractériser un fluide. Il faut de plus une indication d'ordre énergétique. La thermodynamique indique que la variable caractéristique est l'énergie interne "U" fonction de l'entropie "S", du volume "V" et du nombre de particules "N". Une fois la relation entre ces quatre variables connue, il est toujours possible de calculer les dérivées partielles de l'énergie interne par rapport à l'entropie et au volume pour en déduire la température et la pression, ce qui permet de retrouver, au moins localement, l'équation d'état en termes de "P", "V", "T" et "N". Via la méthode de changement des variables due à Legendre, on peut montrer que le jeu de 4 variables caractéristiques le plus commode est : l'enthalpie libre G ( :=U+PV-TS) fonction de P et T aisément mesurables : G = N.f(P,T). Alors comme la différentielle dG vaut dG = V.dP -S.dT ( +f.dN), il apparaît que l'on obtient directement formula_1 pour équation d'état : raison pour laquelle les tables thermodynamiques donnent souvent G(P,T)/N. À la limite des grands N (V/N fini), qui est le cadre de la thermodynamique, on obtient donc une relation entre les trois quantités V/N, P et T appelée ordinairement équation d'état.L'équation d'état d'un gaz parfait à l'ETG s'écrit : où désigne la constante de Boltzmann. L'équation peut aussi être exprimée au moyen de la densité particulaire : formula_3 Une expression équivalente de l'équation d'état est : Ici "n" représente le nombre de moles du gaz considéré, et "R" la constante universelle des gaz parfaits (). Les deux constantes "R" et "k" sont reliées par.En pratique rien n'assure que la matière considérée a une pression, une température et une densité uniformes dans tout le volume du gaz ; on parle alors d'état d'équilibre thermodynamique local (s'il a eu le temps de se réaliser, sinon on dit que le phénomène est hors ETL). Il est donc souvent pertinent d'écrire l'équation d'état en un point "x" donné de l'espace :Un polytrope est défini par le fait que son équation d'état ne dépend pas explicitement de sa température, souvent par relation adiabatique. L'équation d'état d'un polytrope s'écrit κ étant une constante, ainsi que γ, qui est appelé indice adiabatique.L'équation d'état des gaz parfaits ne permet pas de rendre compte de certaines propriétés cruciales, en particulier le fait qu'un fluide puisse exister à l'état liquide et à l'état gazeux. Des équations d'état plus sophistiquées permettent de rendre compte de cette possibilité d'exister dans plusieurs états. La plus simple équation d'état le permettant est appelée équation d'état de van der Waals. Elle s'écrit : Cette équation permet d'expliquer l'existence de deux états différents pour le fluide, ainsi que le fait qu'au-delà d'une certaine température et d'une certaine pression, il n'est plus possible de distinguer un liquide d'un gaz. Le terme homogène à un volume formula_8 correspond au volume intrinsèque occupé par les N molécules du fluide considéré (au sens large). Le volume moléculaire propre b ou covolume dépend donc de la nature du fluide considéré. Le terme formula_9 correspond à une pression. Ce terme de pression dit de cohésion peut-être vu comme la résultante des forces d'interaction par unité de surface entre les molécules du fluide (Il peut s'agir par exemple d'interaction dipolaires). Tout comme le paramètre « b », « a » dépend de la nature du fluide considéré. Ces deux paramètres peuvent, dans le cas général, être des fonctions plus ou moins compliquées des autres grandeurs thermodynamiques.L'équation du viriel est une équation d'état pour les gaz réels qui comporte un développement en série de puissances de formula_10 : L’équation proposée est purement empirique, les valeurs des coefficients A, B, C,... étant choisis de façon que l’équation cadre avec les données expérimentales.Si l'on considère un gaz de photons à l'équilibre thermodynamique, ceux-ci obéissent à une équation d'état très simple, à savoir : la densité de photons étant elle-même fixée par la relation où formula_14 est la constante de Planck réduite, "c" la vitesse de la lumière et ζ la fonction zêta de Riemann (ζ(3) valant approximativement 1,202).Dans un domaine complètement différent, celui du paramagnétisme, il est possible de décrire les variables d'état d'un cristal paramagnétique soumis à un champ magnétique extérieur. Cette fois, les variables d'état sont : outre le nombre de particules "N", la température "T", et le volume "V", on a l'aimantation moyenne "M", et l'intensité du champ magnétique. On montre que l'équation d'état s'écrit où les quantités "g" et μ sont le facteur de Landé et le magnéton de Bohr. Cette équation permet de comprendre le refroidissement par coupure de champ adiabatique (très utilisée par Giauque, Nobel chimie 1949).Dans le domaine de la physique des trous noirs, l'ensemble des paramètres macroscopiques qui décrivent un trou noir (masse, charge électrique, moment cinétique) permettent de déterminer sa surface (plus précisément la surface de son horizon). Cette relation présente des similarités extrêmement frappantes avec une équation d'état en thermodynamique, pourvu que l'on assimile la masse à l'énergie interne et la surface à l'entropie. Cette analogie a donné naissance à la thermodynamique des trous noirs. Dans le domaine des hautes pressions en science de la terre ou en physique du solide, on utilise les équations d'état de Murnaghan, de Birch-Murnaghan, ou de Vinet. Dans le domaine des polymères, on utilise l'équation d'état pvT.
|
En physique, et plus particulièrement en thermodynamique, une équation d'état d'un système à l'équilibre thermodynamique est une relation entre différents paramètres physiques (appelés variables d'état) qui déterminent son état. Il peut s'agir par exemple d'une relation entre sa température, sa pression et son volume. À partir de l'équation d'état caractéristique d'un système physique, il est possible de déterminer la totalité des quantités thermodynamiques décrivant ce système et par suite de prédire ses propriétés.
|
xwikis
|
L'illustration trouve à s'exprimer dans une grande variété de domaines : Cette liste est loin d'être limitative et les frontières entre ces diverses catégories ne sont pas nettes et fluctuent. Sauf exceptions, l'illustration se distingue de l'œuvre d'art tant qu'elle accompagne un texte et qu'elle est reproduite à de multiples exemplaires par des procédés d'impression mécanique ou numérique. Un dessin peut par exemple constituer une "illustration originale", laquelle, par des procédés de gravure mécanique ou numérique, donne naissance au processus illustratif.Dans son fonctionnement, l'illustration peut servir à : Les métiers liés à l'illustration, outre ceux d'illustrateur, photographe et autre « créateur », comprennent aussi des intermédiaires dont le rôle est primordial pour assurer le lien entre l'artiste, ou l'œuvre, et le client final : directeur artistique, directeur de création, chargé de choisir le mode d'illustration et l'artiste qui convient le mieux au projet, d'établir avec lui une relation, de lui transmettre le « cahier des charges », d'assurer le suivi du travail et d'y faire apporter les corrections nécessaires, etc. Le travail d"'iconographe", en lien avec la bibliographie et les recherches documentaires, consiste à rechercher des illustrations préexistantes, sous toutes les formes possibles en traitant, si besoin, avec les ayants droit qui peuvent être des personnes privées ou publiques.Le concept d'illustration est très ancien et se confond avec les premières représentations figurées accompagnant un écrit : il en existe déjà au dans la littérature grecque, sur des volumen puis des codex. La fin de l'utilisation du papyrus en Occident et son remplacement par le parchemin, eut pour effet, en raison du coût du support, de ralentir la production des illustrations, limitées désormais aux enluminures destinées au clergé ou à la noblesse. En Extrême-Orient, et plus particulièrement en Chine, en Corée et au Japon, les estampes ont une fonction similaire, l'invention qui y est faite du papier, de l'imprimerie, puis des caractères mobiles, facilitera la diffusion des œuvres illustrées et ce, dès le. Plus généralement, dans l'art pictural de ces pays, la peinture, ou lavis, s'accompagnait toujours, et jusqu'au, d'un bref texte poétique. Les enluminures réalisées au Moyen Âge et au début de la Renaissance peuvent être considérées comme les premiers exemples de cet art qui fleurit en Occident, influencé par le Proche-Orient (art persan). Parmi les enluminures remarquables figurent celles des "Très Riches Heures du duc de Berry". Découvertes au début du, les techniques d'illustration dans les civilisations précolombiennes démontrent l'existence d'un art du codex enluminé, dont il ne reste hélas que peu d'exemples.Le milieu du voit l’apparition en Europe de l'imprimerie, technique proche de ce qui était pratiqué depuis longtemps en Extrême-Orient. Les livres sont illustrés de gravures sur bois. En revanche, la technique d'impression en série d'une illustration par la gravure sur bois est, en Europe du moins, antérieure au développement du livre imprimé mécaniquement : il existe une longue tradition du bois gravé servant à imprimer les étoffes (comme le bois Protat, fin XIV s.) qui débouchera naturellement sur l’impression sur papier pour l’imagerie populaire. En même temps, on grave sur bois des pages entières de texte, les "donat", pour des livres de grammaire bon marché. L'Allemagne et l'Italie sont, dès le début du, pionnières en matière d'ouvrages illustrés à fort tirage : "La Chronique de Nuremberg" en est un exemple. Au cours des siècles suivants, les techniques de gravure évoluent, passant du bois au cuivre (taille-douce, eau-forte) et, au début du siècle, à la lithographie. Il se développe un marché de l'estampe et du livre illustré destiné à un public cultivé et fortuné, mais aussi un commerce d'imagerie populaire : alors que fleurissent les placards, technique d'affichette destinée à informer le passant, se répandent les cartes à jouer, les images pieuses, les almanachs, les vignettes de caricatures (notamment en Angleterre)... Les livres illustrés des XVII et XVIII siècles sont le plus souvent illustrés de gravures en taille douce (burin), et sont incorporées au livre en hors-texte, étant donné que les techniques d’impression sont différentes (typographie pour le texte, taille-douce pour les illustrations). L'un des plus beaux exemples d'illustration sous le Siècle des Lumières reste les planches gravées pour l"'Encyclopédie" de Diderot et d'Alembert.Au début du la diffusion des journaux et des almanachs, et la popularité des nouvelles et feuilletons qui y sont publiés, voit se développer l'illustration de presse. Des figures notables de cette nouvelle discipline sont le britannique Hablot Knight Browne et en France, Honoré Daumier. Dans le domaine de l'édition, les ouvrages encyclopédiques généralisent son usage.La seconde moitié du est considérée comme "l'âge d'or de l'illustration" en Europe et aux États-Unis. Le développement de l'édition grand public et l'apparition des magazines accentuent la diffusion des illustrations. La technique de la gravure sur bois de bout, avec des graveurs virtuoses, permet de rendre dans le moindre détail le travail des dessinateurs. L'invention de nouvelles techniques d'impression (notamment la photogravure) libère les illustrateurs qui emploient de nouvelles techniques. En France, cette discipline est élevée au rang d'art par Paul Gavarni, J.J. Grandville, et surtout Gustave Doré, dont les illustrations des "Fables de La Fontaine", les "Contes de Perrault", ou le "Don Quichotte" de Miguel de Cervantes font date. Ses illustrations sombres de la pauvreté, dans le Londres des années 1860, furent des exemples marquants de commentaire social dans l'art. L'édition emploie l'illustration grâce à la technique de la gravure sur bois. L'exemple le plus représentatif est sans doute celui des éditions Hetzel, qui publient entre autres les romans de Jules Verne. Cette technique permet d'imprimer les illustrations en même temps que le texte, et à des tirages élevés, au contraire des autres techniques (taille-douce, lithographie) qui obligeaient à une impression séparée et donc à des illustrations hors texte. La plupart de ces graveurs, chargés de reproduire les originaux des dessinateurs, étaient souvent eux-mêmes des illustrateurs : François Pannemaker, Édouard Riou, Léon Benett, et bien d'autres. Quelques grands peintres comme Édouard Manet et Edgar Degas s'essayent aussi à illustrer des poésies d'Edgar Poe ou des nouvelles de Guy de Maupassant. Aux États-Unis cet âge d'or se situe des années 1880 à 1914. Arthur Burdett Frost et Howard Pyle, fondateur de l'école de la Brandywine Valley, accèdent à la célébrité en illustrant des ouvrages destinés à la jeunesse et ont une influence sur l'œuvre de N. C. Wyeth (son élève) et Norman Rockwell. En Grande-Bretagne, les illustrations de John Tenniel marquent fortement l'imaginaire collectif des lecteurs de Lewis Carroll. Arthur Rackham, Edmund Dulac sont représentatifs de l'influence des préraphaélites sur l'illustration britannique ; par contraste Beatrix Potter illustre ses propres contes dans un style naturaliste mettant en scène des animaux habillés à la mode victorienne. D'autres illustrateurs comme Aubrey Beardsley, influencé par le japonisme, adoptent un style épuré en noir et blanc à la manière des Nabis. Vers 1880-1890, l'affiche en grand format lithographié fait son apparition aux États-Unis et en France, contribuant à la naissance de l'art nouveau. Vers 1900, des critiques comme John Grand-Carteret et Eduard Fuchs sont les premiers à étudier l'évolution de la caricature et des représentations graphiques en général à travers des essais thématiques.Un mouvement est initié en Amérique latine par Santiago Martinez Delgado tandis qu'il était étudiant d'art à Chicago, il travaille dans les années 1930 pour le magazine "Esquire", et plus tard en Colombie pour le magazine "Vida". Disciple de Frank Lloyd Wright ses illustrations sont influencées par le style art déco. Dans les années 1930, l'influence de l'expressionnisme se fait sentir dans le travail de l'illustrateur indépendant britannique Arthur Wragg. Il stylise des formes obtenues par la technique du pochoir telle qu'elle était employée dans les affiches de propagande. Aux États-Unis la presse magazine impose les noms de J.C. Leyendecker, James Montgomery Flagg, et Norman Rockwell dont les couvertures pour le "Saturday Evening Post" dépeignent la vie de l'Américain moyen.Durant la seconde moitié du, la presse magazine abandonne peu à peu l'illustration dessinée au profit de la photographie. Mais les illustrateurs restent actifs dans les domaines de la publicité, de l'édition pour la jeunesse et de l'édition scientifique et dans les journaux où se développe le dessin de presse, généralement du "dessin d'humour" à forte charge politique et sociale ("Le Canard enchaîné", "Charlie Hebdo", "Siné Hebdo"). De grandes individualités se détachent, exerçant dans différents domaines comme le dessin de presse, l'illustration littéraire, la littérature jeunesse, comme Ralph Steadman, Tomi Ungerer, Daniel Maja, Roland Topor... Des éditeurs d'art ont fait appel à des grands peintres comme Matisse, Moretti, ou Picasso, qui a par exemple illustré "Les Métamorphoses" d'Ovide pour l'éditeur Skira. L'illustration vit essentiellement dans la presse et la communication, suivant des modes liées aux courants picturaux, mais les précédant parfois. En France, dans les années 1970, dans la presse, les jeunes graphistes du groupe Bazooka imposent un style agressif et novateur, fait de collages, inspiré des constructivistes russes aussi bien que de la bande dessinée, jouant de la photographie et de la typographie. Les années 1980 voient au travers de la redécouverte de Norman Rockwell une tendance "hyperréaliste", utilisant largement la reproduction et l'interprétation de montages de photographies et l'usage de l'aérographe, avant que celui-ci ne soit supplanté par l'informatique. Dans les années 1980-1990, les médias audiovisuels tels que la télévision utilisent parfois les services d'illustrateurs, qui au moyen d'une tablette graphique caricaturent ou illustrent les thèmes traités, en direct. Ce type d'illustration nécessitant de grandes qualités d'improvisation et de vitesse de dessin, est parfois également utilisé lors de symposiums, congrès, séminaires ou manifestations de ce type. Depuis la fin du, les techniques traditionnelles continuent à être enseignées et utilisées (écoles de beaux-arts, arts appliqués, ou art graphique...). Le nombre de publications illustrées (livres de jeunesse, magazines, livres d'enseignement, encyclopédies...) continue de croitre. L'illustration multimédia et l'infographie permises par le développement de l'outil informatique deviennent également de plus en plus présentes. Ainsi les grandes encyclopédies-papier existent-elles aussi maintenant en version multimédia (CD-ROM + liens Internet), utilisant toujours l'image, le dessin et les reproductions photographiques, mais aussi le son, les images de synthèse, les animations, les vidéos..., pour illustrer les propos. L'illustration dessinée regagne en popularité par le biais des périodiques spécialisés et tend à dominer dans le nombre grandissant de magazines et livres pour la jeunesse. Au début du, l'invention du "mook" (entre le livre et la revue) donne également la part belle aux illustrateurs. Cependant le secteur du livre d'art reste une catégorie où l'illustration joue son rôle traditionnel.
|
Une illustration est une représentation visuelle de nature graphique ou picturale dont la fonction essentielle sert à amplifier, compléter, décrire ou prolonger un texte.
|
xwikis
|
Dans un cercle ou une sphère, le diamètre est un segment de droite passant par le centre et limité par les points du cercle ou de la sphère. Le diamètre est aussi la longueur de ce segment. Le diamètre d'un objet cylindrique ou sphérique est appelé module. Pour indiquer qu'une valeur correspond au diamètre, en dessin technique, la valeur (du diamètre) est précédée par un symbole « ⌀ » (U+2300) représentant un cercle barré. Ce symbole ⌀ (U+2300) se dactylographie sur PC avec Windows par la combinaison Alt+0216. Il ne faut pas le confondre avec le symbole ∅ (U+2205), servant à désigner l'ensemble vide, ni avec Ø, qui est la lettre O barrée obliquement.On remarque que le diamètre (en tant que distance) d'un cercle ou d'une sphère est la plus grande distance séparant deux points du cercle ou de la sphère. Par analogie on appelle, dans un espace métrique, diamètre d'une partie non vide la borne supérieure (dans l'ensemble ordonné ) des distances entre deux points de : formula_1 Ainsi, le diamètre d'une partie non vide est un réel positif si cette partie est bornée et vaut sinon. En astronomie, à la notion de diamètre on peut associer celle de diamètre apparent. Le diamètre apparent est alors homogène à un angle et se mesure en degrés ou en radians.On remarque que, si l'on coupe un cercle par un ensemble de droites de même direction et que, pour chacune d'entre elles, on construit le milieu des deux points d'intersection, ces milieux se trouvent tous sur un même diamètre. Cette propriété se vérifie pour toute conique : si l'on coupe une conique par un ensemble de droites de même direction et que, pour chacune d'entre elles, on construit le milieu des deux points d'intersection, ces milieux se trouvent tous sur un même droite. Par analogie avec le cas du cercle, on a donné à cette droite le nom de diamètre de la conique relativement à la direction des droites parallèles. On trouve aussi le diamètre défini comme une portion de droite : le lieu des milieux des cordes parallèles à une même direction. Pour les coniques à centre, ces diamètres passent par le centre de la conique. On appelle «diamètres conjugués» deux diamètres dont l'un est le diamètre relatif à la direction définie par l'autre diamètre. Les diamètres conjugués orthogonaux sont les axes de symétrie de la conique.Isaac Newton a observé, en 1706, que cette propriété se généralise à des courbes algébriques de degré supérieur. C'est le théorème de Newton sur les diamètres : si l'on coupe une courbe algébrique de degré "n" par un ensemble de droites de même direction rencontrant la courbe en "n" points et que, pour chacune d'entre elles, on construit l'isobarycentre des "n" points d'intersection, ces isobarycentres se trouvent tous sur un même droite. On appelle cette droite diamètre conjugué à la direction des droites parallèles.Henri Lebesgue, en 1921, travaille dans une autre direction avec une définition différente. Observant que le diamètre d'une conique est un axe de symétrie oblique de celle-ci, il appelle diamètre d'une courbe algébrique plane tout axe de symétrie oblique de celle-ci et il fait une classification des diamètres des courbes algébriques de degré "m".
|
La notion de diamètre concerne initialement les figures simples de la géométrie euclidienne que sont le cercle et la sphère mais la notion s'élargit par analogie à plusieurs autres objets géométriques.
|
xwikis
|
Pour assurer l'invariance de la température, il doit y avoir transfert de chaleur, ou énergie thermique, entre le système et l'extérieur. Un transfert de chaleur est proportionnel à la différence de température, il s'arrête naturellement quand les températures sont égales. Si une barrière "isolante" freine les transferts de chaleur, on constate une différence de température qui dure un certain temps. Pour que la différence de température reste nulle, le transfert de chaleur nécessaire pour combler cette différence doit être immédiat, sans aucun frein. Autrement dit, la variation de température reste nulle (ΔT = 0) si et seulement si la chaleur échangée entre le système et l'extérieur est maximale. Bien sûr, la quantité de chaleur transférée peut être nulle si le processus observé n'engendre pas de différence de température. Le processus isotherme est caractérisé par la liberté du flux de l'énergie thermique, l'absence de frein, de résistance ou d'isolant. Au cours d'un processus isotherme, la température du système est définie, ce qui implique que la transformation est quasistatique et réversible. Un processus isotherme diffère d'un processus monotherme dans lequel la température peut temporairement varier.Dans le cas d'un gaz parfait : où : Ceci correspond à une famille de courbes à température constante qui peuvent être tracées sur un diagramme thermodynamique p-V. Un tel graphique fut utilisé pour la première fois par James Watt pour connaître l'efficacité des moteurs à vapeur. Chaque courbe correspond à une température donnée. Le calcul du travail en thermodynamique correspond au changement d'énergie potentielle entre l'état en A et celui en B : Pour un processus isotherme réversible, ceci correspond à l'intégrale de l'aire sous la ligne isotherme représentée par un T donné dans le diagramme précédent :Le est pris comme référence théorique "idéale", qui montre le comportement sans perte thermique, ce qui se traduit numériquement par une efficacité énergétique de 100% exactement. Le travail nécessaire à une compression isotherme est plus grand que le travail nécessaire à la même compression adiabatique : le gaz réchauffé par la compression est plus chaud que la température ambiante, et dans le cas isotherme, on laisse la chaleur sortir du système. Le supplément de travail observé pour la compression isotherme correspond à l'énergie calorifique perdue par le système. Par conséquent l'efficacité énergétique théorique d'une compression isotherme est inférieure à l'efficacité énergétique de la même compression selon un processus adiabatique, qui est de 100%. On en déduit que l'efficacité énergétique théorique d'une compression isotherme est inférieure à 100 %, ce que l'on retrouve par exemple dans l'étude du cycle de Carnot. Le travail issu d'une détente isotherme est plus grand que le travail issu de la même détente adiabatique : le gaz refroidi par la détente est plus froid que la température ambiante, et dans le cas isotherme, on laisse la chaleur entrer dans le système. Le supplément de travail observé pour la détente isotherme correspond à l'énergie calorifique gagnée par le système. Par conséquent l'efficacité énergétique théorique d'une détente isotherme est supérieure à l'efficacité énergétique de la même détente selon un processus adiabatique, qui est de 100%. On en déduit que l'efficacité énergétique théorique d'une détente isotherme est supérieure à 100 %, ce que l'on retrouve par exemple dans l'étude d'une machine frigorifique.Le processus isotherme intervient dans diverses applications techniques et biologiques :
|
Un processus isotherme est en thermodynamique une transformation chimique ou physique d'un système au cours de laquelle la température du système est constante et uniforme.
|
xwikis
|
On retrouve la racine du nom de la Slovénie dans la contraction du mot slave ("slovanska") et celui de vénète. La Slovénie et la Slovaquie sont souvent confondues, car les noms "Slovenská Republika" (qui signifie "République slovaque" en slovaque) et "Republika Slovenija" peuvent prêter à confusion dans de nombreuses langues. Chaque année, un poids considérable de courrier mal acheminé est à réexpédier vers la Slovénie ( en 2004). Cette confusion fait que le personnel se retrouve chaque mois pour échanger le courrier mal adressé. La Slovénie est parfois surnommée la Suisse des Balkans ou la Suisse d'Europe du Sud du fait de son relief montagneux.Celtes et Illyriens constituent les premiers habitants de l'Antiquité, et sont soumis à l'Empire romain au cours du. La Carinthie émerge probablement autour du à l'issue des invasions lombardes du Nord de l'Italie, et recouvre le territoire correspondant aux actuelles Carinthies autrichienne et slovène. Si ses premiers temps restent indéterminés, son existence est formellement attestée au, lorsqu'elle prend son indépendance de la Bavière (746). Le territoire de l'actuelle Slovénie commence à partir du à passer de main en main au gré des invasions des puissances voisines, qu'il s'agisse de la Bavière, de la république de Venise, ou des Habsbourgs. Les Slovènes restent sous la domination de ces derniers du à 1918, sans réel statut juridique mais avec toutefois une représentation à Vienne. La région subit successivement l'influence de la Réforme au, puis de la Contre-Réforme sous le règne de l'Archiduc Ferdinand d'Autriche au début du. Tandis que les élites se germanisent, la population paysanne demeure largement à l'écart de ces transformations. Des intellectuels codifient le slovène en une langue littéraire au, tandis que des revendications nationalistes commencent à se faire jour. La Première Guerre mondiale touche durement le pays, notamment sur le front de Soča à l'ouest du pays. Après que la bataille de Caporetto annonce la fin des combats sur le sol austro-hongrois en 1917, le Parti populaire slovène demande l'instauration d'un État semi-autonome regroupant les Slaves du Sud. Cette revendication est rapidement reprise par l'ensemble du spectre politique local sous le terme de Mouvement de la Déclaration. La prise du pouvoir par des nationalistes croates, slovènes et serbes le lors de la chute de l'Empire conduit à une déclaration formelle d'indépendance de l'État des Slovènes, Croates et Serbes le suivant. Le pays rejoint le royaume de Serbie (dans lequel le royaume du Monténégro était déjà entré trois jours avant) afin de former le le royaume des Serbes, Croates et Slovènes qui prendra le nom de royaume de Yougoslavie en 1929. Un plébiscite conduit en octobre 1920 cède la Carinthie du Sud slovénophone à l'Autriche. L'Istrie revoit ses anciennes frontières vénitiennes sous le royaume d'Italie par le traité de Rapallo en 1920, alors que le traité de Trianon attribue les régions majoritairement slovénophones de Hongrie (Prekmurje) à la Yougoslavie (un cinquième de la population de la région était hongroise). La politique fasciste de l'Italie conduit à une résistance armée des populations à l'intérieur des terres slovènes et croates, notamment via la formation du groupe Trieste, Istrie, Gorizia et Fiume (actuellement Rijeka) en 1927, qui est démantelé par la police secrète fasciste en 1941. Durant la Seconde Guerre mondiale, après l'invasion de la Yougoslavie, le territoire slovène est partagé entre l'Italie — qui se réserve la région de la capitale qu'elle transforme en province de Ljubljana —, l'Allemagne nazie et la Hongrie. À l'issue d'une terrible guerre de résistance, la Yougoslavie est reconstituée ; la Slovénie devient la République socialiste de Slovénie, État fédéré de la République populaire fédérative de Yougoslavie proclamée le. Au traité de Paris en 1947, l'Italie perd la quasi-totalité de la Vénétie julienne. L'Istrie est ensuite placée provisoirement dans la zone B du territoire libre de Trieste. Ce territoire est dissous "de facto" en 1954, quand la zone A comprenant la ville de Trieste est rendue à l'Italie tandis que la zone B est attachée à la fédération yougoslave. Par ce fait l'Istrie se vide par un fort exode offrant une région et un accès stratégique à la mer à l'actuelle Slovénie. Les frustrations envers un État fédéral jugé inefficace et dispendieux s'accumulent et, en parallèle à la crise économique que traverse l'ensemble du bloc socialiste dans les années 1980, les tensions entre les partis communistes slovène et serbe (dirigé par Slobodan Milošević) s'exacerbent. Le, le Parlement slovène réforme la constitution de la République et retire le monopole du pouvoir politique à la Ligue des communistes de Slovénie tout en affirmant le droit pour la République de quitter la Fédération. Le le terme « socialiste » est retiré du nom de l'État, qui devient « république de Slovénie » tout en restant membre de l'État yougoslave. Le, un référendum sur l'indépendance aboutit avec près de 89 % des voix. La déclaration formelle d'indépendance intervient après le passage d'une loi en ce sens le. Un court conflit armé a lieu lorsque les troupes slovènes sont confrontées à une tentative d'intervention yougoslave. La guerre s'étend sur une dizaine de jours, à l'issue desquels l'accord de Brioni est signé sous les auspices de la Communauté européenne le. L'armée yougoslave commence son retrait et le dernier soldat quitte le territoire le suivant. En mars 2003, la Slovénie tient deux référendums sur l'adhésion à l'OTAN et à l'Union européenne, qu'elle rejoint respectivement les et (après signature du traité d'Athènes). Au premier semestre 2008, la Slovénie tient la présidence tournante du Conseil de l'Union européenne.La Slovénie est bordée au nord par l'Autriche, à l'est-nord-est par la Hongrie, au sud-est par la Croatie, au sud-ouest par la mer Adriatique et à l'ouest par l'Italie.La Slovénie est un pays d'Europe centrale et du sud. Elle possède une frontière terrestre avec l'Italie, l'Autriche, la Hongrie et la Croatie. La capitale de la Slovénie est Ljubljana (parfois écrit avec l'orthographe italienne "Lubiana"), autrefois connue sous son nom allemand de "Laibach" (souvent orthographié "Laybach" en français). La Slovénie est un pays alpin. Son relief est constitué du massif du Pohorje, des Alpes kamniques et d'une partie des Alpes juliennes. Ces dernières abritent le point culminant du pays, le Triglav (), qui est aussi représenté symboliquement sur le drapeau national et sur la pièce nationale de 50 centimes d'euro.Le réseau Natura 2000 rassemble des sites naturels ou semi-naturels de l'Union européenne ayant une grande valeur patrimoniale, par la faune et la flore exceptionnelles qu'ils contiennent. En, la Slovénie comptait dont :La Slovénie est composée de, dont 11 ayant un statut « urbain ». Ce sont à ce jour les seules subdivisions en Slovénie. Le gouvernement slovène souhaite créer de nouvelles régions administratives officielles (une douzaine au total). Il y a toutefois huit régions traditionnelles (mais non officielles) :La Constitution de la Slovénie est adoptée le. La Slovénie est une république parlementaire. Le pouvoir législatif est exercé par le Parlement slovène, qui est composé de deux chambres. L'Assemblée nationale est composée de élus pour quatre ans. Le Conseil national est composé de élus pour cinq ans. Le pouvoir exécutif est exercé par le gouvernement dirigé par un président du gouvernement. Le président de la République exerce avant tout une magistrature morale. Lors de l'élection présidentielle des 11 novembre et 2012, l'ancien président du gouvernement social-démocrate Borut Pahor défait au second tour, dans un contexte de faible participation, le chef de l'État sortant Danilo Türk. Au cours des élections législatives anticipées du 13 juillet 2014, le Parti de Miro Cerar (SMC), récemment créé par l'universitaire Miro Cerar, remporte. Il s'associe ensuite avec le Parti démocrate des retraités slovènes (DeSUS) et les Sociaux-démocrates (SD) pour former un gouvernement majoritaire.La Slovénie signe un accord d'association avec l'Union européenne et dépose sa candidature officielle pour l'adhésion en 1996. Après un référendum national favorable à l'adhésion à l'Union européenne et l'OTAN, elle signe le traité d'adhésion en 2003 et devient membre de l'Union européenne en 2004. Elle occupe la présidence tournante du Conseil des ministres au premier semestre 2008.Les relations diplomatiques de la république de Slovénie en France :Les groupes ethniques de la Slovénie sont les Slovènes (83,1 %), les Serbes (2 %), les Croates (1,8 %), les Bosniaques (1,1 %) et d’autres (12 %), ainsi que des minorités ethniques hongroise et italienne (0,5 %), selon le recensement de 2002. L’espérance de vie en 2009 était de pour les hommes et de pour les femmes. Après l’indépendance de la Slovénie en 1991, « non-Slovènes » (environ 1 % de la population) ont été effacés des registres administratifs et placés dans la catégorie des étrangers, car nés dans une autre république yougoslave. En 2004, la Cour suprême a ordonné leur réintégration. Ce groupe a été appelé les effacés de Slovénie). Avec au kilomètre carré, la Slovénie se place parmi les pays peu denses d’Europe (comparée à la densité des Pays-Bas () ou de l’Italie ()). Environ 50 % de la population habite dans des zones urbaines, le reste en milieu rural.La langue officielle est le slovène, qui appartient au groupe des langues slaves méridionales. Le hongrois et l’italien bénéficient d’un statut de langue officielle dans les régions pluriethniques le long des frontières hongroise et italienne. L'anglais et l'allemand sont deux langues très présentes, surtout chez les plus jeunes, et se retrouvent par exemple dans le secteur du commerce ou du tourisme. Du fait que la Slovénie était l'une des républiques fédérées de la Yougoslavie avant 1991, de nombreuses personnes qui avaient plus de à cette époque, savent parler le serbo-croate, ou le comprennent à des degrés divers, ou partiels, car il était enseigné dans les écoles. Le slovène est assez éloigné du serbo-croate.Avec sa petite économie de transition et une population d'approximativement deux millions d‘habitants, la Slovénie fut un modèle de succès économique et de stabilité pour ses voisins de l’ancienne Yougoslavie. Le pays, qui a rejoint l’Union européenne en 2004, possède une main-d’œuvre de très bon niveau, un emplacement géographique stratégique et des infrastructures de bonne qualité. L'économie slovène se caractérise par l'élevage, l'exploitation forestière et le tourisme, en particulier dans l'Ouest (sports d'hiver et d'été en montagne, stations balnéaires et thermales sur la côte istrienne) et dans la capitale. En raison de la grande superficie des forêts, l'industrie du bois est florissante et nombreuses sont les usines produisant de la pâte à papier. Le sous-sol possède du plomb et du zinc. Plus à l'est, le relief s'abaisse, et c'est dans cette région que les industries sont les plus développées (aluminium, métallurgie, construction mécanique, électro-ménager, charbon, centrale thermique, électronique, pharmacie, textile). Les usines automobiles du groupe Revoz, filiales de Renault, domiciliées à Novo Mesto, alimentent le marché national et écoulent en France une part importante de leur production. La capitale, Ljubljana, vit surtout du secteur tertiaire. Vers le sud, le haut Karst est largement boisé avec une agriculture peu développée. La Slovénie affiche un PIB par habitant plus élevé que les autres pays d’Europe centrale et elle est devenue en 2004 le premier pays en transition d’une économie planifiée vers une économie de marché à passer du statut de pays emprunteur à partenaire donateur à la Banque mondiale. Elle a rejoint l'Eurogroupe le. La dette publique de la Slovénie s'élève à 63,2 % du PIB en 2013. La Slovénie fait partie de la zone euro depuis le (1 euro valant 239,64 tolars). La Slovénie est ainsi devenue le premier pays à adopter la monnaie européenne après l’introduction fiduciaire de l’euro le. Depuis 2009, la Slovénie connaît une période économique difficile. Le pays a été touché par la crise économique mondiale, notamment en raison de la chute de ses exportations vers les marchés extérieurs. Début 2012, Standard & Poor's a dégradé la note de la Slovénie de A+ à A, avant de placer de nouveau le pays sous surveillance négative début. Le pays a connu une récession de son économie de -2,2 % en 2012 et de -1,1 % en 2013.Les premiers textes connus en langue slovène sont les "Feuillets de Freising" ("Brižinski spomeniki"), écrits entre 972 et 1039 pour des besoins d’évangélisation. La langue est alors utilisée par les couches les plus basses de la société (même si les bourgeois et la petite noblesse la connaissaient), ainsi que par le clergé. Avec le luthéranisme, le slovène entame sa carrière de langue littéraire. Les idées de la Réforme se répandent bien en Slovénie. On doit mentionner Primož Trubar (1508-1586) qui, imprégné des idées nouvelles, hésite toutefois à rompre avec Rome. Ses prêches en slovène dans la cathédrale de Ljubljana attirent les foules.Le protée, une espèce de salamandre, est l'un des symboles importants de la Slovénie. Ce pays dispose en effet de nombreuses grottes abritant cet animal. On en trouve par exemple dans la grande grotte d'Adelsberg mais aussi dans les grottes de Škocjan. Véritable rareté naturelle, le protée, ainsi que plusieurs grottes de la région attirent de nombreux touristes. Un vivarium est présent dans la grotte de Postojna et on peut y voir le milieu naturel de l’animal. Entre 1991 et fin 2006, la monnaie nationale du pays était le tolar. Le protée était représenté sur la pièce de 10 centimes de tolar. Depuis 2007, la monnaie de la Slovénie est l’euro et les pièces en euro de la Slovénie disposent aujourd'hui d'autres symboles. La plus ancienne revue slovène de vulgarisation scientifique, publiée pour la première fois en 1933, portait le nom de "Proteus".Le sport le plus populaire en Slovénie est très probablement le ski alpin, les skieurs slovènes sont d'ailleurs fort présents au niveau international ; on peut citer parmi les plus connus Andrej Jerman, qui fait partie des meilleurs descendeurs du monde, et de bons slalomeurs comme Juri Cosir, Aleš Gorza, Mitja Dragšič ou Bernard Vajdič. Chez les femmes, Tina Maze qui a pris sa retraite sportive en 2016, fut l'une des meilleures skieuses mondiales. Elle remporta des épreuves dans toutes les disciplines de la coupe du monde de ski alpin, lui permettant de gagner un gros globe sur la saison 2012-2013 (en atteignant le record de points sur une saison) et deux titres olympiques en descente et en géant et cinq titres de championne du monde. Aujourd'hui l'équipe slovène compte des skieuses parmi les meilleures mondiales comme Ilka Štuhec. Chez les hommes Žan Kranjec fait partie des meilleurs mondiaux en slalom géant. Le pays dispose également de plusieurs équipes reconnues en hockey sur glace et des joueurs internationalement reconnus comme Anže Kopitar, le tout premier hockeyeur d'origine slovène à évoluer dans la LNH nord-américaine et Jan Muršak. En football, la Slovénie connut une génération dorée au début des années 2000 avec des joueurs tels que Zlatko Zahovič, Aleš Čeh, Milenko Ačimovič ou encore Sašo Udovič, qui qualifièrent leur équipe pour l'Euro 2000 et la coupe du monde 2002 ainsi que la coupe du monde 2010. La Slovénie possède aussi une équipe nationale de basket-ball de bon niveau, qui fait partie des huit meilleures nations européennes. Les stars actuelles de l'équipe slovène sont Luka Dončić (Mavericks de Dallas), Erazem Lorbek (FC Barcelone), Mirza Begić (Olympiakós), Beno Udrih (Knicks de New York) et Goran Dragić (Heat de Miami). En 2017, elle remporte le Championnat d'Europe de basket-ball contre la Serbie sur un score de 97 à 85, emmené par Goran Dragić qui a marqué à lui seul. Le handball est un des principaux sports en Slovénie, l'équipe nationale a obtenu une médaille de bronze aux championnats du monde en 2017 et d'argent au Championnat d'Europe en 2004, événement que le pays organisait. Également réputée dans toute l'Europe pour son championnat, la Slovénie compte de remarquables clubs tels que le Rokometni klub Celje, qui remporta la Ligue des Champions, le RD Koper 2013, qui remporta le Coupe Challenge, le Rokometni klub Gorenje Velenje, finaliste de la Coupe EHF. Le cyclisme est un sport en développement en Slovénie, avec quelques très bons coureurs. On peut citer Janez Brajkovič, sans aucun doute le meilleur coureur slovène du peloton professionnel en 2012, le grimpeur Simon Špilak, le sprinter Grega Bole ou encore les expérimentés Tadej Valjavec ( du Tour de France 2008) et Matej Mugerli. L'ancien sauteur à ski Primož Roglič est d'ailleurs devenu en 2017 le premier Slovène à remporter une étape du Tour de France. Durant les années suivantes, Primož Roglič continue sa progression, s'imposant comme l'un des meilleurs coureurs du peloton, et remportant notamment La Vuelta 2019, le premier grand tour remporté par un Slovène, si bien qu'il paraît être désormais le meilleur cycliste Slovène de l'histoire. Cependant, il paraît désormais talonné par Tadej Pogačar, étoile montante du cyclisme, et de sa première Vuelta en 2019, consolidant la nouvelle place de la Slovénie dans le cyclisme professionnel au début des années 2020. La Slovénie est très peu présente en athlétisme, mais elle a cependant eu deux athlètes de haut niveau avec Matic Osovnikar qui fait partie des meilleurs sprinteurs européens et surtout Primož Kozmus qui a été sacré champion olympique du lancer de marteau aux Jeux olympiques d'été de 2008. La Jamaïcaine Merlene Ottey, légende de l'athlétisme mondial, a acquis la nationalité slovène en 2004 et est encore membre de l'équipe nationale du relais à l'âge de. En tennis, le pays compte la meilleure joueuse au monde en double, en la personne de Katarina Srebotnik. En 2012, l'équipe nationale slovène de hockey sur glace a réussi l'exploit de se qualifier pour les Jeux olympiques d'hiver de Sotchi en 2014 alors que le pays ne compte qu'environ professionnels. En 2014, la Slovénie a organisé les championnats d'Europe d'escrime, dans les trois armes, pour les catégories « cadet » et « junior » (du au ). La Slovénie possède aussi une équipe nationale d'escalade qui se classe parmi les meilleures au monde avec des athlètes tels que Janja Garnbret qui est la première personne à gagner la médaille d'or dans toutes les coupes du monde de block IFSC dans la saison 2019.La Slovénie a pour codes :
|
La Slovénie, en forme longue la république de Slovénie, en et, est un pays d’Europe centrale au carrefour des principales cultures européennes. Sa capitale est Ljubljana. Le pays partage ses frontières avec l'Italie à l'ouest, l’Autriche au nord, la Hongrie à l'est-nord-est et la Croatie au sud-est. La Slovénie est également bordée par la mer Adriatique au sud-ouest. Comptant environ d'habitants, la Slovénie est un État membre de l'Union européenne.
|
xwikis
|
Premiers contacts d'Européens avec les Amérindiens (hormis Leif Erikson au ) : trois premiers voyages de Christophe Colomb.On y trouve les Toltèques, les Zapotèques, les Mixtèques et les Aztèques qui sont en expansion.L'Empire Maya-Toltèques se termine en 1500.L'Empire Inca est à son apogée.Dans l’imaginaire occidental comme en Europe, la Renaissance et l'Italie sont étroitement liées. Au, le Quattrocento est resté comme un temps marqué d’avènement à l'idéal antique (science grecque, droit romain), de foisonnement de réalisations architecturales et d'inventions (Léonard de Vinci), mais aussi un essor du commerce, de guerres (guerre de Cent Ans, guerres d'Italie), d'expansions et de ruptures (prise de Constantinople puis Inquisition espagnole), de nouvelles questions (avec le développement de l'humanisme chrétien) ainsi que des bouleversements religieux. Le marque une nouvelle connaissance du monde, surtout avec la découverte de l'Amérique par Christophe Colomb.La guerre de Cent Ans, conflit opposant la France et l'Angleterre tout le long du siècle, a retardé l'essor de la Renaissance en France jusque vers la fin du conflit par la prise de Nancy (1477). Cette guerre a occupé au une place importante dans l'imaginaire collectif français (sacre de Charles VII, Épopée de Jeanne d'Arc, le courageux Du Guesclin, le fou Charles VI...) et européen (archétype de la guerre absurde et interminable) tant par l'hostilité que la longévité de la guerre. La Prise de Constantinople par les Ottomans marque la chute de l'Empire byzantin (1453). Avec la prise de Grenade et la fin de la Reconquista espagnole en 1492, les confrontations face aux franges du monde arabo-musulman ont affirmé une identité européenne. L’islam disparaît d’Europe occidentale après la chute de Grenade. Des conflits entre les Européens et les Turcs, par exemple les Guerres Moldavo-ottomanes commencent. Si l’unité politique de l’Europe chrétienne face aux Ottomans et musulmans ne s'est pas concrétisée, les États chrétiens ont rêvé néanmoins d’une Europe unie sous le christianisme. Voir : Philosophes et humanistes duÉvénement majeur de l'histoire occidentale du sur le plan technologique, économique et intellectuel, l'imprimerie permet de diffuser des textes, des images, des idées ou des cartes géographiques d'une façon inconnue jusque-là.
|
Le a débuté le et a pris fin le. Ce siècle se situe entre le Moyen Âge et la Renaissance.
|
xwikis
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.