Menu

Entropie mondiale. Entropie - qu'est-ce que c'est : explication du terme avec des mots simples

Conseil

L'entropie (du grec ancien ἐντροπία « tour », « transformation ») est un terme largement utilisé dans les sciences naturelles et exactes. Elle a été introduite pour la première fois dans le cadre de la thermodynamique en fonction de l'état d'un système thermodynamique, qui détermine la mesure de la dissipation irréversible de l'énergie. En physique statistique, l'entropie caractérise la probabilité d'apparition de tout état macroscopique. Outre la physique, le terme est largement utilisé en mathématiques : théorie de l’information et statistiques mathématiques.

Ce concept est entré dans la science au 19ème siècle. Initialement applicable à la théorie des moteurs thermiques, elle est rapidement apparue dans d’autres domaines de la physique, notamment dans la théorie des rayonnements. Très vite, l’entropie a commencé à être utilisée en cosmologie, en biologie et en théorie de l’information. Divers domaines de connaissances mettent en évidence différents types mesures du chaos :

  • informatif;
  • thermodynamique;
  • différentiel;
  • culturel, etc.

Par exemple, pour les systèmes moléculaires, il existe l’entropie de Boltzmann, qui détermine la mesure de leur chaos et de leur homogénéité. Boltzmann a pu établir une relation entre la mesure du chaos et la probabilité d’un État. Pour la thermodynamique cette notion considéré comme une mesure de dissipation d’énergie irréversible. C'est fonction de l'état du système thermodynamique. Dans un système isolé, l’entropie atteint des valeurs maximales et finit par devenir un état d’équilibre. L'entropie de l'information implique une certaine mesure d'incertitude ou d'imprévisibilité.

L'entropie peut être interprétée comme une mesure de l'incertitude (désordre) d'un système, par exemple une expérience (test), qui peut avoir des résultats différents, et donc la quantité d'informations. Ainsi, une autre interprétation de l’entropie est la capacité d’information du système. À cette interprétation est associé le fait que le créateur du concept d’entropie en théorie de l’information (Claude Shannon) a initialement voulu appeler cette quantité information.

Pour les processus réversibles (à l'équilibre), l'égalité mathématique suivante est satisfaite (une conséquence de ce qu'on appelle l'égalité de Clausius), où est la chaleur fournie, est la température, et sont les états, et est l'entropie correspondant à ces états (ici le processus de transition d'un état à l'autre est pris en compte).

Pour les processus irréversibles, l'inégalité résultant de l'inégalité dite de Clausius est satisfaite, où est la chaleur fournie, est la température, et sont les états, et est l'entropie correspondant à ces états.

Par conséquent, l’entropie d’un système isolé adiabatiquement (sans apport ni évacuation de chaleur) ne peut augmenter que lors de processus irréversibles.

Utilisant le concept d'entropie, Clausius (1876) a donné la formulation la plus générale de la 2e loi de la thermodynamique : dans les processus adiabatiques réels (irréversibles), l'entropie augmente, atteignant une valeur maximale en état d'équilibre (la 2e loi de la thermodynamique n'est pas absolu, il est violé lors des fluctuations).

Entropie absolue (S) d'une substance ou d'un processus est la variation de l'énergie disponible pour le transfert de chaleur à une température donnée (Btu/R, J/K). Mathématiquement, l'entropie est égale au transfert de chaleur divisé par la température absolue à laquelle le processus se produit. Par conséquent, les processus de transmission grandes quantités la chaleur augmente davantage l’entropie. De plus, les changements d’entropie augmenteront lorsque la chaleur est transférée à basse température. Puisque l’entropie absolue concerne l’adéquation de toute l’énergie de l’univers, la température est généralement mesurée en unités absolues (R, K).

Entropie spécifique(S) est mesuré par rapport à une unité de masse d’une substance. Les unités de température utilisées pour calculer les différences d'entropie des états sont souvent indiquées avec des unités de température en degrés Fahrenheit ou Celsius. Étant donné que les différences en degrés entre les échelles Fahrenheit et Rankine ou Celsius et Kelvin sont égales, la solution de ces équations sera correcte, que l'entropie soit exprimée en unités absolues ou conventionnelles. L'entropie a la même température donnée que l'enthalpie donnée d'une certaine substance.

Pour résumer : l’entropie augmente, donc avec chacune de nos actions, nous augmentons le chaos.

Juste quelque chose de compliqué

L'entropie est une mesure du désordre (et une caractéristique de l'état). Visuellement, plus les choses sont réparties uniformément dans un certain espace, plus l'entropie est grande. Si le sucre se trouve dans un verre de thé sous forme de morceau, l'entropie de cet état est faible, s'il est dissous et réparti dans tout le volume, elle est élevée. Le désordre peut être mesuré, par exemple, en comptant le nombre de manières dont les objets peuvent être disposés dans un espace donné (l'entropie est alors proportionnelle au logarithme du nombre de dispositions). Si toutes les chaussettes sont pliées de manière extrêmement compacte en une seule pile sur une étagère du placard, le nombre d'options de disposition est faible et se résume uniquement au nombre de réarrangements des chaussettes dans la pile. Si les chaussettes peuvent être placées n'importe où dans la pièce, il existe un nombre inconcevable de façons de les disposer, et ces dispositions ne se répètent pas tout au long de notre vie, tout comme les formes des flocons de neige. L’entropie de l’état « chaussettes dispersées » est énorme.

La deuxième loi de la thermodynamique stipule que l'entropie ne peut pas diminuer spontanément dans un système fermé (elle augmente généralement). Sous son influence, la fumée se dissipe, le sucre se dissout, les cailloux et les chaussettes s'effritent avec le temps. Cette tendance a une explication simple : les choses bougent (muées par nous ou par les forces de la nature) généralement sous l'influence d'impulsions aléatoires qui n'ont pas de but commun. Si les impulsions sont aléatoires, tout passera de l’ordre au désordre, car il y a toujours plus de moyens d’atteindre le désordre. Imaginez un échiquier : le roi peut quitter le coin de trois manières, tous les chemins possibles pour lui partent du coin, et reviennent au coin depuis chaque cellule adjacente d'une seule manière, et ce mouvement ne sera qu'un parmi 5 ou 8. mouvements possibles. Si vous le privez d'un objectif et lui permettez de se déplacer de manière aléatoire, il aura éventuellement la même probabilité de se retrouver n'importe où sur l'échiquier, l'entropie deviendra plus élevée.

Dans un gaz ou un liquide, le rôle d'une telle force désordonnée est joué par le mouvement thermique, dans votre pièce - par vos envies momentanées d'aller ici, là-bas, de vous allonger, de travailler, etc. Peu importe quels sont ces désirs, l’essentiel est qu’ils ne soient pas liés au nettoyage et ne soient pas liés les uns aux autres. Pour réduire l'entropie, vous devez exposer le système à des influences externes et y travailler. Par exemple, selon la deuxième loi, l'entropie dans la pièce augmentera continuellement jusqu'à ce que votre mère entre et vous demande de ranger un peu. La nécessité de travailler signifie également que tout système résistera à la réduction de l’entropie et à l’établissement de l’ordre. C’est la même histoire dans l’Univers : l’entropie a commencé à augmenter avec le Big Bang et continuera de croître jusqu’à l’arrivée de Maman.

Mesure du chaos dans l'Univers

La version classique du calcul de l'entropie ne peut pas être appliquée à l'Univers, car les forces gravitationnelles y sont actives et la matière elle-même ne peut pas former un système fermé. En fait, pour l’Univers, c’est une mesure du chaos.

La principale et la plus grande source de désordre observée dans notre monde sont considérées comme des formations massives bien connues - des trous noirs, massifs et supermassifs.

Les tentatives visant à calculer avec précision la valeur de la mesure du chaos ne peuvent pas encore être qualifiées de réussies, même si elles se produisent constamment. Mais toutes les estimations de l'entropie de l'Univers présentent une dispersion significative dans les valeurs obtenues - de un à trois ordres de grandeur. Cela n’est pas seulement dû à un manque de connaissances. Il y a un manque d'informations sur l'influence sur les calculs non seulement de tous les objets célestes connus, mais aussi de l'énergie noire. L’étude de ses propriétés et caractéristiques en est encore à ses balbutiements, mais son influence peut être décisive. La mesure du chaos dans l’Univers change constamment. Les scientifiques mènent constamment certaines études pour pouvoir déterminer modèles généraux. Il sera alors possible de faire des prédictions assez précises sur l'existence de divers objets spatiaux.

Mort thermique de l'univers

Tout système thermodynamique fermé a un état final. L’Univers ne fait pas non plus exception. Lorsque l’échange dirigé de tous les types d’énergie s’arrêtera, elles renaîtront en énergie thermique. Le système entrera dans un état de mort thermique si l’entropie thermodynamique atteint la valeur la plus élevée. La conclusion sur cette fin de notre monde a été formulée par R. Clausius en 1865. Il s'est basé sur la deuxième loi de la thermodynamique. Selon cette loi, un système qui n’échange pas d’énergie avec d’autres systèmes recherchera un état d’équilibre. Et il se pourrait bien qu’elle présente des paramètres caractéristiques de la mort thermique de l’Univers. Mais Clausius n'a pas pris en compte l'influence de la gravité. Autrement dit, pour l'Univers, contrairement à un système de gaz parfaits, où les particules sont réparties uniformément dans un certain volume, l'homogénéité des particules ne peut pas correspondre à la d'une grande importance entropie. Et pourtant, il n'est pas tout à fait clair si l'entropie est une mesure acceptable du chaos ou de la mort de l'Univers ?

L'entropie dans nos vies

Au mépris de la deuxième loi de la thermodynamique, selon laquelle tout devrait évoluer du complexe au simple, le développement de l'évolution terrestre va dans la direction opposée. Cette incohérence est due à la thermodynamique des processus qui sont irréversibles. La consommation par un organisme vivant, si on l'imagine comme un système thermodynamique ouvert, se produit dans des volumes plus petits que ceux qui en sont éjectés.

Les nutriments ont moins d’entropie que les produits excréteurs qu’ils produisent. Autrement dit, l'organisme est vivant parce qu'il peut rejeter cette mesure de chaos qui s'y produit en raison de l'apparition de processus irréversibles. Par exemple, environ 170 g d'eau sont éliminés du corps par évaporation, c'est-à-dire le corps humain compense la diminution de l'entropie par certains processus chimiques et physiques.

L'entropie est une certaine mesure de l'état libre d'un système. Il est d'autant plus complet que ce système comporte moins de restrictions, mais à condition qu'il comporte de nombreux degrés de liberté. Il s’avère que la valeur zéro de la mesure du chaos est informations complètes, et le maximum est l'ignorance absolue.

Toute notre vie est pure entropie, car la mesure du chaos dépasse parfois la mesure du bon sens. Peut-être que le moment n'est pas très loin où nous aborderons la deuxième loi de la thermodynamique, car il semble parfois que le développement de certaines personnes, et même d'États entiers, ait déjà régressé, c'est-à-dire du complexe au primitif.

Conclusions

L'entropie est une désignation de la fonction de l'état d'un système physique, dont l'augmentation est réalisée en raison de l'apport réversible (réversible) de chaleur au système ;

la quantité d'énergie interne qui ne peut pas être convertie en travail mécanique ;

la détermination exacte de l'entropie est effectuée au moyen de calculs mathématiques, à l'aide desquels le paramètre d'état correspondant (propriété thermodynamique) de l'énergie associée est établi pour chaque système. L'entropie se manifeste le plus clairement dans les processus thermodynamiques, où se distinguent les processus, réversibles et irréversibles, et dans le premier cas, l'entropie reste inchangée, et dans le second, elle augmente constamment, et cette augmentation est due à une diminution de l'énergie mécanique.

Par conséquent, tous les nombreux processus irréversibles qui se produisent dans la nature s’accompagnent d’une diminution de l’énergie mécanique, qui devrait finalement conduire à un arrêt, à une « mort thermique ». Mais cela ne peut pas arriver, car du point de vue de la cosmologie, il est impossible de compléter complètement connaissances empiriques toute « l'intégrité de l'Univers », sur la base de laquelle notre idée d'entropie pourrait trouver une application raisonnable. Les théologiens chrétiens croient que, sur la base de l’entropie, on peut conclure que le monde est fini et l’utiliser pour prouver « l’existence de Dieu ». En cybernétique, le mot « entropie » est utilisé dans un sens différent de celui de sens direct, qui ne peut être que formellement dérivé du concept classique ; cela signifie : plénitude moyenne de l'information ; manque de fiabilité quant à la valeur des informations « attendues ».

ENTROPIE

ENTROPIE

(du grec entropia – tourner,)

partie de l'énergie interne d'un système fermé ou du complexe énergétique de l'Univers qui ne peut être utilisée, notamment ne peut être transformée ou transformée en travail mécanique. L'entropie exacte est produite à l'aide de calculs mathématiques. L’effet de l’entropie est plus clairement visible dans l’exemple des processus thermodynamiques. Ainsi, il ne se transforme jamais complètement en travail mécanique, se transformant en d’autres types d’énergie. Il est à noter que lors des processus réversibles, la valeur de l'entropie reste inchangée ; au contraire, lors des processus irréversibles, elle augmente régulièrement, et cette augmentation est due à une diminution de l'énergie mécanique. Par conséquent, tous les processus irréversibles qui se produisent dans la nature s'accompagnent d'une diminution de l'énergie mécanique, ce qui devrait finalement conduire à une paralysie générale, ou, en d'autres termes, à une « mort thermique ». Mais cela n’est valable que dans le cas où l’on postule le totalitarisme de l’Univers comme réalité empirique fermée. Christ. les théologiens, basés sur l'entropie, parlaient de la finitude du monde, l'utilisant comme l'existence de Dieu.

Dictionnaire encyclopédique philosophique. 2010 .

ENTROPIE

(grec ἐντροπία - rotation, transformation) - états thermodynamiques. système, caractérisant la direction des processus spontanés dans ce système et étant une mesure de leur irréversibilité. Le concept d'énergie a été introduit en 1865 par R. Clausius pour caractériser les processus de conversion d'énergie ; en 1877, L. Boltzmann lui donna des données statistiques. interprétation. En utilisant le concept de E., la deuxième loi de la thermodynamique est formulée : E. d'un système isolé thermiquement ne fait toujours qu'augmenter, c'est-à-dire tel, laissé à lui-même, tend vers l'équilibre thermique, auquel E. est maximum. En statistique la physique E. exprime l'incertitude du microscopique. état du système : plus le microscope est grand. les états du système correspondent à un état macroscopique donné. état, plus la thermodynamique est élevée. et E. ce dernier. Un système à la structure improbable, laissé à lui-même, évolue vers la structure la plus probable, c'est-à-dire dans le sens de l'augmentation de E. Ceci ne s'applique cependant qu'aux systèmes fermés, donc E. ne peut pas être utilisé pour justifier la mort thermique de l'univers. En théorie de l'information, E. est considéré comme un manque d'information dans le système. En cybernétique, à l'aide des concepts d'énergie et de néguentropie (entropie négative), s'exprime la mesure de l'organisation d'un système. Être équitable par rapport aux systèmes soumis à des contrôles statistiques lois, cette mesure nécessite cependant une grande prudence lors du transfert vers les systèmes biologiques, linguistiques et sociaux.

Lit. : Shambadal P., Développement et applications du concept d'E., [trans. p.], M., 1967 ; Pierce J., Symboles, signaux, bruits, [trans. de l'anglais], M., 1967.

L. Fatkin. Moscou.

Encyclopédie philosophique. En 5 volumes - M. : Encyclopédie soviétique. Edité par F. V. Konstantinov. 1960-1970 .


Synonymes:

Voyez ce qu'est « ENTROPIE » dans d'autres dictionnaires :

    - (du grec entropia, rotation, transformation), concept introduit pour la première fois en thermodynamique pour déterminer la mesure de la dissipation irréversible de l'énergie. E. est largement utilisé dans d'autres domaines scientifiques : en physique statistique comme mesure de la probabilité de mise en œuvre d'un projet... ... Encyclopédie physique

    ENTROPIE, indicateur du caractère aléatoire ou du désordre de la structure d'un système physique. EN THERMODYNAMIQUE, l'entropie exprime la quantité d'énergie thermique adaptée à l'exécution d'un travail : moins il y a d'énergie, plus l'entropie est élevée. A l'échelle de l'Univers... ... Dictionnaire encyclopédique scientifique et technique

    Une mesure du désordre interne système d'information. L'entropie augmente avec une distribution chaotique ressources d'informations et diminue à mesure qu'ils sont commandés. En anglais : Entropie Voir aussi : Information Financial Dictionary Finam... Dictionnaire financier

    - [Anglais] Dictionnaire entropie mots étrangers langue russe

    Entropie- Entropie ♦ Entropie Propriété de l'état d'un système physique isolé (ou supposé tel), caractérisée par l'ampleur des changements spontanés dont il est capable. L'entropie d'un système atteint son maximum lorsqu'il est complètement... Dictionnaire philosophique Sponville

    - (du grec entropie rotation transformation) (généralement noté S), fonction de l'état d'un système thermodynamique, dont la variation dS dans un processus d'équilibre est égale au rapport de la quantité de chaleur dQ transmise au système ou retiré de celui-ci pour ... ... Grand dictionnaire encyclopédique

    Désordre, discorde Dictionnaire des synonymes russes. entropie nom, nombre de synonymes : 2 désordre (127)... Dictionnaire des synonymes

    ENTROPIE- (du grec en in, intérieur et trope tour, transformation), une grandeur caractérisant la mesure de l'énergie liée (D S), qui dans un processus isotherme ne peut être convertie en travail. Elle est déterminée par le logarithme de la probabilité thermodynamique et... ... Dictionnaire écologique

    entropie- et, f. entropie f., allemand Entropie gr. fr in, inside + trope tour, transformation. 1. Une grandeur physique caractérisant l'état thermique d'un corps ou d'un système de corps et les changements possibles de ces états. Calcul d'entropie. BAS 1. ||… … Dictionnaire historique Gallicismes de la langue russe

    ENTROPIE- L'ENTROPIE, concept introduit en thermodynamique et qui est en quelque sorte une mesure de l'irréversibilité d'un processus, une mesure de la transition de l'énergie vers une forme à partir de laquelle elle ne peut pas se transformer spontanément en d'autres formes. Tous les processus imaginables se produisant dans n'importe quel système... ... Grande encyclopédie médicale

Livres

  • Mécanique statistique. Entropie, paramètres d'ordre, théorie de la complexité, James P. Sethna. Le manuel "Statistical Mechanics: Entropy, Order Parameters and Complexity" a été écrit par le professeur James Sethna de l'Université Cornell (États-Unis) et a été publié pour la première fois le Anglais en 2006...

L'entropie est un mot que beaucoup ont entendu, mais peu de gens le comprennent. Et il faut admettre qu'il est vraiment difficile de comprendre pleinement l'essence de ce phénomène. Toutefois, cela ne doit pas nous effrayer. En fait, nous ne pouvons expliquer une grande partie de ce qui nous entoure que de manière superficielle. Et nous ne parlons pas de la perception ou de la connaissance d’un individu en particulier. Non. Nous parlons de la totalité connaissances scientifiques dont l'humanité dispose.

Il existe de sérieuses lacunes non seulement dans les connaissances à l’échelle galactique, par exemple en ce qui concerne les trous de ver, mais aussi dans ce qui nous entoure en permanence. Par exemple, il y a encore un débat sur nature physique Sveta. Qui peut briser la notion de temps ? Il existe de nombreuses questions similaires. Mais dans cet article, nous parlerons spécifiquement de l’entropie. Depuis de nombreuses années, les scientifiques se débattent avec le concept d’« entropie ». La chimie et la physique vont de pair dans cette étude. Nous essaierons de découvrir ce qui est devenu connu à notre époque.

Introduction du concept dans la communauté scientifique

Le concept d'entropie a été introduit pour la première fois parmi les spécialistes par l'éminent mathématicien allemand Rudolf Julius Emmanuel Clausius. Si nous parlons dans un langage simple, le scientifique a décidé de découvrir où va l'énergie. Dans quel sens ? Pour illustrer, nous ne nous tournerons pas vers les nombreuses expériences et conclusions complexes d'un mathématicien, mais prendrons un exemple qui nous est plus familier de la vie quotidienne.

Vous devez bien savoir que lorsque vous chargez, par exemple, une batterie téléphone mobile, la quantité d'énergie accumulée dans les batteries sera inférieure à celle réellement reçue du réseau. Certaines pertes surviennent. Et dans la vie de tous les jours, nous y sommes habitués. Mais le fait est que des pertes similaires se produisent dans d’autres systèmes fermés. Et pour les physiciens et les mathématiciens, cela représente déjà problème sérieux. Rudolf Clausius a étudié cette question.

Il en déduisit un fait des plus curieux. Si nous supprimons encore une fois la terminologie complexe, cela revient au fait que l’entropie est la différence entre un processus idéal et réel.

Imaginez que vous possédez un magasin. Et vous avez reçu 100 kilogrammes de pamplemousses à vendre au prix de 10 tugriks le kilogramme. En appliquant une majoration de 2 tugriks par kilo, vous recevrez 1 200 tugriks à la suite de la vente, donnerez le montant requis au fournisseur et conserverez un bénéfice de deux cents tugriks.

C’était donc une description du processus idéal. Et tout commerçant sait qu’au moment où tous les pamplemousses seront vendus, ils auront diminué de 15 pour cent. Et 20 pour cent pourriront complètement et devront simplement être radiés. Mais c'est un véritable processus.

Ainsi, le concept d'entropie, introduit dans l'environnement mathématique par Rudolf Clausius, est défini comme la relation d'un système dans laquelle l'augmentation de l'entropie dépend du rapport entre la température du système et la valeur du zéro absolu. Essentiellement, il montre la valeur de l’énergie gaspillée (gaspillée).

Indicateur de mesure du chaos

Vous pouvez également affirmer avec un certain degré de conviction que l’entropie est une mesure du chaos. Autrement dit, si nous prenons la chambre d'un écolier ordinaire comme modèle d'un système fermé, alors un uniforme scolaire qui n'a pas été rangé caractérisera déjà une certaine entropie. Mais son importance dans cette situation sera minime. Mais si, en plus de cela, vous éparpillez des jouets, rapportez du pop-corn de la cuisine (bien sûr, en le laissant tomber un peu) et laissez tous les manuels en désordre sur la table, alors l'entropie du système (et dans ce cas particulier, de cette pièce) va fortement augmenter.

Des questions complexes

L'entropie de la matière est un processus très difficile à décrire. De nombreux scientifiques au cours du siècle dernier ont contribué à l’étude du mécanisme de son fonctionnement. De plus, le concept d'entropie n'est pas seulement utilisé par les mathématiciens et les physiciens. Il a également une place bien méritée en chimie. Et certains artisans l'utilisent même pour expliquer les processus psychologiques dans les relations entre les personnes. Retraçons la différence dans les formulations des trois physiciens. Chacun d’eux révèle l’entropie sous un angle différent, et leur combinaison nous aidera à nous brosser un tableau plus holistique.

La déclaration de Clausius

Le processus de transfert de chaleur d’un corps ayant une température plus basse vers un corps ayant une température plus élevée est impossible.

Il n'est pas difficile de vérifier ce postulat. Vous ne pourrez jamais réchauffer, par exemple, un petit chiot gelé avec les mains froides, peu importe à quel point vous aimeriez l'aider. Vous devrez donc le mettre dans votre sein, où la température est plus élevée que dans son sein. à l'heure actuelle.

La déclaration de Thomson

Un processus dont le résultat serait l'exécution d'un travail dû à la chaleur prélevée sur un corps particulier est impossible.

Et tout simplement, cela signifie qu'il est physiquement impossible de construire machine à mouvement perpétuel. L’entropie d’un système fermé ne le permettra pas.

Déclaration de Boltzmann

L'entropie ne peut pas diminuer dans les systèmes fermés, c'est-à-dire dans ceux qui ne reçoivent pas d'approvisionnement en énergie externe.

Cette formulation a ébranlé la foi de nombreux adeptes de la théorie de l'évolution et les a amenés à réfléchir sérieusement à la présence d'un Créateur intelligent dans l'Univers. Pourquoi?

Car par défaut, dans un système fermé, l’entropie augmente toujours. Cela signifie que le chaos s’aggrave. Elle ne peut être réduite que par un apport d'énergie externe. Et nous observons cette loi tous les jours. Si vous ne prenez pas soin de votre jardin, de votre maison, de votre voiture, etc., ils deviendront tout simplement inutilisables.

À grande échelle, notre Univers est également un système fermé. Et les scientifiques sont arrivés à la conclusion que notre existence même doit indiquer que cet approvisionnement externe en énergie vient de quelque part. Par conséquent, aujourd’hui, personne n’est surpris que les astrophysiciens croient en Dieu.

Flèche du temps

Une autre illustration très astucieuse de l’entropie peut être représentée par la flèche du temps. Autrement dit, l’entropie montre dans quelle direction le processus se déplacera physiquement.

En effet, il est peu probable qu'après avoir appris le licenciement du jardinier, vous vous attendiez à ce que le territoire dont il était responsable devienne plus soigné et entretenu. Bien au contraire : si vous n’embauchez pas un autre ouvrier, au bout d’un certain temps, même le plus beau jardin tombera en ruine.

Entropie en chimie

Dans la discipline "Chimie", l'entropie est indicateur important. Dans certains cas, sa valeur affecte le déroulement des réactions chimiques.

Qui n’a pas vu des images de longs métrages dans lesquels les personnages transportaient très soigneusement des récipients contenant de la nitroglycérine, craignant de provoquer une explosion avec un mouvement brusque et imprudent ? Il s'agissait d'une aide visuelle au principe de l'entropie dans une substance chimique. Si son indicateur atteignait un niveau critique, une réaction se déclencherait, entraînant une explosion.

Ordre du désordre

On prétend le plus souvent que l’entropie est le désir du chaos. En général, le mot « entropie » signifie transformation ou rotation. Nous avons déjà dit qu'elle caractérise l'action. L'entropie du gaz est très intéressante dans ce contexte. Essayons d'imaginer comment cela se produit.

Prenons un système fermé composé de deux conteneurs connectés, chacun contenant du gaz. La pression dans les conteneurs, jusqu'à ce qu'ils soient hermétiquement reliés les uns aux autres, était différente. Imaginez ce qui s'est passé niveau moléculaire quand ils étaient connectés.

Une foule de molécules sous plus de forte pression, s'est immédiatement précipitée vers ses frères, qui vivaient auparavant assez librement. Ils y ont donc augmenté la pression. Cela peut être comparé au bruit des éclaboussures d’eau dans une baignoire. Ayant couru d'un côté, elle se précipite immédiatement de l'autre. Nos molécules aussi. Et dans notre idéalement isolé influence externe système qu'ils pousseront jusqu'à ce qu'un équilibre impeccable soit établi dans tout le volume. Et ainsi, quand autour de chaque molécule il y a exactement la même quantité d'espace que la molécule voisine, tout va se calmer. Et ce sera l’entropie la plus élevée en chimie. Les virages et les transformations s'arrêteront.

Entropie standard

Les scientifiques ne renoncent jamais à essayer d’organiser et de classer même le chaos. Puisque la valeur de l’entropie dépend de nombreuses conditions qui l’accompagnent, le concept d’« entropie standard » a été introduit. Les valeurs sont résumées dans des tableaux spéciaux afin que vous puissiez facilement effectuer des calculs et résoudre divers problèmes appliqués.

Par défaut, les valeurs d'entropie standard sont prises en compte à une pression d'une atmosphère et à une température de 25 degrés Celsius. À mesure que la température augmente, ce chiffre augmente également.

Codes et chiffres

Il existe également une entropie informationnelle. Il est conçu pour aider à chiffrer les messages codés. Par rapport à l'information, l'entropie est la valeur de la probabilité de prévisibilité de l'information. Et en termes très simples, voici à quel point il sera facile de déchiffrer un chiffre intercepté.

Comment cela marche-t-il? À première vue, il semble que sans au moins quelques données initiales, il est impossible de comprendre le message codé. Mais ce n’est pas tout à fait vrai. C’est là que la probabilité entre en jeu.

Imaginez une page avec un message crypté. Vous savez que la langue russe a été utilisée, mais les symboles vous sont totalement inconnus. Par où commencer ? Réfléchissez : quelle est la probabilité que la lettre « ъ » apparaisse sur cette page ? Et la possibilité de tomber sur la lettre « o » ? Vous comprenez le système. Les caractères qui apparaissent le plus souvent (et le moins souvent - c'est aussi un indicateur important) sont calculés et comparés aux caractéristiques de la langue dans laquelle le message a été rédigé.

De plus, il existe des combinaisons de lettres fréquentes et, dans certaines langues, inchangées. Cette connaissance est également utilisée pour le décodage. C'est d'ailleurs la méthode utilisée par le célèbre Sherlock Holmes dans l'histoire « Les hommes dansants ». Les codes ont été brisés de la même manière à l’approche de la Seconde Guerre mondiale.

Et l'entropie de l'information est conçue pour augmenter la fiabilité du codage. Grâce aux formules dérivées, les mathématiciens peuvent analyser et améliorer les options proposées par les codeurs.

Connexion à la matière noire

De nombreuses théories attendent encore d’être confirmées. L'un d'eux relie le phénomène de l'entropie à celui découvert relativement récemment. Il dit que l'énergie perdue est simplement convertie en énergie sombre. Les astronomes admettent que seulement 4 % de notre Univers est constitué de matière connue. Et les 96 pour cent restants sont occupés par quelque chose d'inexploré pour le moment : l'obscurité.

Il a reçu ce nom en raison du fait qu'il n'interagit pas avec le rayonnement électromagnétique et ne l'émet pas (comme tous les objets connus auparavant dans l'Univers). Par conséquent, à ce stade du développement de la science, l’étude de la matière noire et de ses propriétés n’est pas possible.

L'entropie est un terme utilisé non seulement dans les sciences exactes, mais aussi dans les sciences humaines. En général, il s'agit d'une mesure du chaos, du désordre d'un système.

Comme vous le savez, l’humanité s’est toujours efforcée de transférer autant de travail que possible sur les épaules des machines et des mécanismes, en utilisant le moins de ressources possible. Des mentions d'une machine à mouvement perpétuel ont été découvertes pour la première fois dans des manuscrits arabes du XVIe siècle. Depuis lors, de nombreuses conceptions de machines potentiellement à mouvement perpétuel ont été proposées. Bientôt, après de nombreuses expériences infructueuses, les scientifiques ont compris certaines caractéristiques de la nature qui ont ensuite déterminé les fondements de la thermodynamique.

Dessin d'une machine à mouvement perpétuel

La première loi de la thermodynamique dit ce qui suit : pour effectuer un travail, un système thermodynamique aura besoin soit de l'énergie interne du système, soit de l'énergie externe provenant de sources supplémentaires. Cette affirmation constitue la loi thermodynamique de conservation de l’énergie et interdit l’existence d’une machine à mouvement perpétuel du premier type – un système qui fonctionne sans dépenser d’énergie. Le mécanisme de l’un de ces moteurs reposait sur l’énergie interne du corps, qui peut être convertie en travail. Par exemple, cela peut se produire grâce à l’expansion. Mais l’humanité ne connaît pas de corps ou de systèmes qui peuvent s’étendre à l’infini, ce qui signifie que tôt ou tard leur énergie interne cessera et que le moteur s’arrêtera.

Un peu plus tard, est apparue la machine dite à mouvement perpétuel du deuxième type, qui ne contredisait pas la loi de conservation de l'énergie et reposait sur le mécanisme de transfert de chaleur nécessaire au travail des corps environnants. Ils ont pris l'exemple de l'océan, en le refroidissant, ce qui permettrait probablement d'obtenir un apport de chaleur impressionnant. Cependant, en 1865, le scientifique, mathématicien et physicien allemand R. Clausius a défini la deuxième loi de la thermodynamique : « un processus répétitif ne peut exister si le résultat est seulement un transfert de chaleur d'un corps moins chauffé à un autre plus chauffé, et rien plus." Plus tard, il a introduit le concept d'entropie - une certaine fonction dont la variation est égale au rapport de la quantité de chaleur transférée à la température.

Après quoi, la loi de l’entropie non décroissante est devenue une alternative à la deuxième loi de la thermodynamique : « dans un système fermé, l’entropie ne diminue pas ».

En mots simples

Étant donné que l’entropie se produit dans divers domaines de l’activité humaine, sa définition est quelque peu vague. Cependant, avec les exemples les plus simples, vous pouvez comprendre l'essence de cette valeur. L'entropie est le degré de désordre, c'est-à-dire d'incertitude, de désordre. Ensuite, le système de morceaux de papier éparpillés dans la rue, qui sont encore périodiquement ballottés par le vent, a une entropie élevée. Et un système de papiers empilés sur un bureau a une entropie minimale. Pour réduire l'entropie dans un système avec des bouts de papier, vous devrez consacrer beaucoup de temps et d'énergie à coller les bouts de papier en feuilles entières et à les plier en une pile.

Dans le cas d'un système fermé, tout est tout aussi simple. Par exemple, vos affaires sont dans un placard fermé. Si vous n'agissez pas en conséquence de l'extérieur, alors les choses pendant longtemps sembleront conserver leur valeur d’entropie. Mais tôt ou tard, ils se décomposeront. Par exemple, une chaussette en laine mettra jusqu’à cinq ans à se décomposer, mais des chaussures en cuir mettront environ quarante ans à se décomposer. Dans le cas décrit, le placard est un système isolé et la décomposition des choses est une transition des structures ordonnées au chaos.

Pour résumer, il convient de noter que l'entropie minimale est observée dans une variété d'objets macroscopiques (ceux observables à l'œil nu) qui ont une certaine structure, et que le maximum est observé dans le vide.

Entropie de l'Univers

À la suite de l'émergence d'un concept tel que l'entropie, de nombreuses autres déclarations et définitions physiques sont apparues, qui ont permis de décrire plus en détail les lois de la nature. L’un d’eux est le concept de « processus réversibles/irréversibles ». Les premiers incluent des processus dans lesquels l'entropie du système n'augmente pas et reste constante. Les processus dans lesquels l'entropie augmente dans un système fermé sont irréversibles. Il est impossible de remettre un système fermé dans l'état où il était avant le processus, car dans ce cas, l'entropie devrait diminuer.

Selon Clausius, l'existence de l'Univers est un processus irréversible, à la fin duquel l'attend ce qu'on appelle la « mort thermique », sinon l'équilibre thermodynamique qui existe pour les systèmes fermés. Autrement dit, l'entropie atteindra indicateur maximum, et tous les processus disparaîtront tout simplement. Mais il s’est vite avéré que Rudolf Clausius n’avait pas pris en compte les forces gravitationnelles présentes partout dans l’Univers. Par exemple, grâce à eux, la répartition des particules à entropie maximale n'a pas besoin d'être uniforme.

En outre, d'autres lacunes de la théorie de la « mort thermique de l'Univers » incluent le fait que nous ne savons pas si elle est réellement finie et si le concept de « système fermé » peut lui être appliqué. Il convient également de considérer que l’état d’entropie maximale, comme le vide absolu lui-même, relève des mêmes concepts théoriques que ceux d’un gaz parfait. Cela signifie qu'en réalité l'entropie n'atteindra pas sa valeur maximale en raison de divers écarts aléatoires.

Il est à noter que le visible dans son volume conserve la valeur d'entropie. La raison en est un phénomène déjà connu de beaucoup : l'Univers. C'est une coïncidence intéressante encore une fois prouve à l'humanité que rien n'arrive dans la nature pour rien. Selon les calculs des scientifiques, l'ordre de grandeur de l'entropie est égal au nombre de photons existants.

  • Le mot « chaos » fait référence à l’état initial de l’Univers. À ce moment-là, ce n’était qu’un agrégat sans forme d’espace et de matière.
  • Selon les recherches de certains scientifiques, la plus grande source d’entropie est supermassive. Mais d'autres pensent qu'en raison des puissantes forces gravitationnelles qui attirent tout vers le corps massif, la mesure du chaos est transférée dans l'espace environnant en petites quantités.
  • Il est intéressant de noter que la vie et l'évolution humaine sont orientées vers le côté opposé du chaos. Les scientifiques soutiennent que cela est possible grâce au fait que tout au long de sa vie, une personne, comme d'autres organismes vivants, prend moins d'entropie qu'elle n'en libère dans l'environnement.

Voir aussi "Portail physique"

L'entropie peut être interprétée comme une mesure de l'incertitude (désordre) d'un système, par exemple une expérience (test), qui peut avoir des résultats différents, et donc la quantité d'informations. Ainsi, une autre interprétation de l’entropie est la capacité d’information du système. À cette interprétation est associé le fait que le créateur du concept d’entropie en théorie de l’information (Claude Shannon) a d’abord voulu appeler cette quantité information.

H = log ⁡ N ¯ = − ∑ i = 1 N p je log ⁡ p i .

Une interprétation similaire est également valable pour l'entropie de Rényi, qui est une des généralisations du concept d'entropie informationnelle, mais dans ce cas le nombre effectif d'états du système est défini différemment (on peut montrer que l'entropie de Rényi correspond au nombre effectif d'états du système). nombre d'états, défini comme la moyenne pondérée par la loi de puissance avec le paramètre q ≤ 1 (\displaystyle q\leq 1)à partir de valeurs 1 / p je (\displaystyle 1/p_(i))) .

Il convient de noter que l'interprétation de la formule de Shannon basée sur une moyenne pondérée ne constitue pas sa justification. Une dérivation rigoureuse de cette formule peut être obtenue à partir de considérations combinatoires en utilisant la formule asymptotique de Stirling et réside dans le fait que la combinatoire de la distribution (c'est-à-dire le nombre de façons dont elle peut être réalisée) après avoir pris le logarithme et normalisé dans la limite coïncide avec l'expression de l'entropie sous la forme proposée par Shannon.

Au sens large où le mot est souvent utilisé dans la vie quotidienne, l'entropie désigne la mesure du désordre ou du chaos d'un système : moins les éléments du système sont soumis à un quelconque ordre, plus l'entropie est élevée.

1 . Laissez un système résider dans chacun des N (style d'affichage N)états disponibles avec probabilité p je (\ displaystyle p_ (i)), Où je = 1, .. ., N (\displaystyle i=1,...,N) . Entropie: H (style d'affichage H). 2 est une fonction de probabilités uniquement P = (p 1 , . . . , p N) (\displaystyle P=(p_(1),...,p_(N))) H = H (P) (\ displaystyle H = H (P)) . Pour tout système, Où P (style d'affichage P)équitable H (P) ≤ H (P u n i f) (\displaystyle H(P)\leq H(P_(unif))). 3 P u n i f (\ displaystyle P_ (unif)) - système à distribution de probabilité uniforme : p 1 = p 2 = . 4 . P = (p 1 , . . . , p N) (\displaystyle P=(p_(1),...,p_(N))). = p N = 1 / N (\displaystyle p_(1)=p_(2)=...=p_(N)=1/N). Si vous ajoutez un état au système p N + 1 = 0 (\displaystyle p_(N+1)=0), Où , alors l'entropie du système ne changera pas.. Entropie d'un ensemble de deux systèmes P = (p 1 , . . . , p N) (\displaystyle P=(p_(1),...,p_(N))) Et = p N = 1 / N (\displaystyle p_(1)=p_(2)=...=p_(N)=1/N).

Q (style d'affichage Q)

on dirait

  • H (P Q) = H (P) + H (Q / P) (\displaystyle H(PQ)=H(P)+H(Q/P))
  • H (Q / P) (\style d'affichage H(Q/P))
  • En statistiques mathématiques, mesure de l'incertitude d'une distribution de probabilité.
  • L'entropie de l'information est une mesure de l'incertitude sur la source des messages en théorie de l'information, déterminée par les probabilités d'apparition de certains symboles lors de leur transmission.
  • L'entropie d'un système dynamique est une mesure du chaos dans le comportement des trajectoires du système dans la théorie des systèmes dynamiques.
  • L'entropie différentielle est une généralisation formelle du concept d'entropie pour les distributions continues.
  • L'entropie de réflexion fait partie des informations sur un système discret qui n'est pas reproduite lorsque le système est réfléchi à travers la totalité de ses parties.
  • L'entropie dans la théorie du contrôle est une mesure de l'incertitude de l'état ou du comportement d'un système dans des conditions données.

En thermodynamique

Le concept d'entropie a été introduit pour la première fois par Clausius en thermodynamique en 1865 pour définir la mesure de la dissipation irréversible de l'énergie, une mesure de l'écart d'un processus réel par rapport à un processus idéal. Défini comme la somme des chaleurs réduites, il est fonction de l'état et reste constant dans les processus fermés réversibles, tandis que dans les processus irréversibles, sa variation est toujours positive.

Mathématiquement, l'entropie est définie en fonction de l'état du système, défini à une constante arbitraire près. La différence d'entropie dans deux états d'équilibre 1 et 2, par définition, est égale à la quantité de chaleur réduite ( δ Q / T (\ displaystyle \ delta Q/T)), qui doit être communiqué au système afin de le transférer de l'état 1 à l'état 2 par tout chemin quasi-statique :

Δ S 1 → 2 = S 2 − S 1 = ∫ 1 → 2 δ Q T (\displaystyle \Delta S_(1\to 2)=S_(2)-S_(1)=\int \limits _(1\to 2)(\frac (\delta Q)(T))). (1)

Puisque l’entropie est déterminée jusqu’à une constante arbitraire, nous pouvons conditionnellement prendre l’état 1 comme état initial et mettre S 1 = 0 (\ displaystyle S_ (1) = 0). Alors

S = ∫ δ Q T (\displaystyle S=\int (\frac (\delta Q)(T))), (2.)

Ici, l'intégrale est prise pour un processus quasistatique arbitraire. Fonction différentielle S (style d'affichage S) on dirait

ré S = δ Q T (\displaystyle dS=(\frac (\delta Q)(T))). (3)

L'entropie établit une connexion entre les macro et micro-états. La particularité de cette caractéristique est qu’elle est la seule fonction en physique qui montre la direction des processus. Puisque l'entropie est fonction de l'état, elle ne dépend pas de la manière dont s'effectue la transition d'un état du système à un autre, mais est déterminée uniquement par les états initial et final du système.